Vzpomínáte si, když jste poprvé využili ve videokonferenční aplikaci falešné pozadí? K prvním pokusům jste museli mít jednotné pozadí, ideálně zelené, a stejně výsledek vypadal na první pohled uměle a kolem hlavy vám při pohybu prosvítala „svatozář“. Postupně se to však měnilo a nyní ty nejpokročilejší technologie zvládnou relativně slušně vložit váš obraz snímaný webkamerkou do jiného prostředí, než v kterém se právě nacházíte, aniž by to bylo nějak poznat.
A nyní to zkusme obrátit. Co kdyby se místo vašeho obličeje objevil třeba Brad Pitt nebo Angelina Jolie. Lidé u displejů by tak tyto celebrity viděli v prostředí vašeho domova s pozadím vašeho pokoje. Před kamerou byste to přitom byli stále vy, ale jen by váš obličej byl nahrazen právě některým z těchto herců. Vše v reálném čase a s mimikou, kterou by systém převáděl na podvržený obličej.
Zatím je to hudba budoucnosti, ta ale není zase až tak vzdálená. Dobře vytrénované systémy umělé inteligence s velkým výpočetním výkonem v zádech už se této metě postupně přibližují. V kombinaci s podvrženým hlasem herců, který by říkal to, co chcete vy, bude iluze dokonalá.
Současné systémy takové klíčování v reálném čase ještě nezvládnou, tedy ne dokonale, a navíc potřebují docela dost dat k natrénování. Tím je myšlen dostatek vašich záběrů z řady úhlů a s různými grimasami, aby se mohl vytvořit avatar s uvěřitelným obličejem uživatele.
Získat takovou sadu obrazových dat je zatím nejjednodušší u veřejně vystupujících lidí. I proto se v poslední době jako houby po dešti vyrojily lákavé nabídky na investice, kde doporučují pohádkové zbohatnutí známí businessmani, politici nebo herci. A ne každý odolá a pozná, že je to podvrh, jak upozorňují lidé zabývající se kyberkriminalitou.
Na druhou stranu stačí populární aplikace, aby lidé taková data poskytli dobrovolně. I proto speciální aplikace BaiRBIE.me, která upraví vzhled s využitím systémů generativní umělé inteligence (gAI) tak, aby se lidé podobali postavám z filmu filmu Barbie, vyvolala varování příslušných úřadů po celém světě před jejím používáním.
Ještě jednodušší je získat vzorek hlasu. Stačí k tomu dostatečně dlouhý telefonát, v němž volající správnou taktikou dokáže z volajícího vyloudit i nějakou intonaci. Není si pak složité představit následný telefonát příbuznému seniorovi, kterého takto „ukradeným“ vzorkem hlasu vnoučka útočník přinutí nainstalovat si malware, který může vést až ukradení peněz z účtu.
Babi, pošli peníze. Podvody jsou kvůli umělé inteligenci čím dál věrohodnější |
Zjednodušení výroby podvrhů
K podvodům se zneužitím identity na fotografii nebo upraveným videím docházelo ještě před současným rozvojem umělé inteligence, ale bylo velice složité a časové náročné takové podvrhy vyrobit.
Člověk, který chtěl vytvořit tzv. deepfake neboli kvalitní podvrh, se musel opravdu snažit. Bylo nutné, aby se naučil dobře pracovat s grafickým nebo video programem, a trvalo poměrně dlouho, aby byla složitější scéna upravena tak, aby odpovídala záměrům útočníka a zároveň byla při bližším zkoumání těžko odhalitelná. S nástupem generativní umělé inteligence, která umí vytvářet obrázky i videa, může toto úskalí útočník zvládnout rychle, pokud se naučí vytvořit správné zadání. Není to sice triviální, ale během několika chvilek může vygenerovat velké množství variant, které bude těžší jednu po druhé analyzovat.
Odborníci varují, že právě nyní, kdy bude na celém svět probíhat řada důležitých volebních klání, bude takových podvrhů přibývat téměř geometrickou řadou. Připravme se tak na to, že takovým útočníkům opravdu stačí jen několik hodin před hlasováním zaplavit sítě množstvím podvrhů v podobě hyperrealistických syntetických médií, které nebude možné jednoduše ověřit nebo vyvrátit – a směřování velkých skupin tak obrátit požadovaným směrem.
Podvodná videa s politiky policie neřeší, nemají „trestněprávní přesah“ |
V osobní rovině může být ještě větším problémem, pokud někdo vytvoří dehonestující obraz nebo video, jako se to stalo zpěvačce Taylor Swift. Nejde tu jen o známé osobnosti, šikana škole nebo na pracovišti tak už pomalu dostává nový rozměr.
Útočí doba postfaktická: nahé fotky, neočkované děti a vybílené účty |
Nastává doba, kdy si u důležitých věcí budeme muset dávat ještě větší pozor než doposud a nevěřit vlastním očím a učím, pokud si vše neověříme. Nyní ještě můžeme některé takové podvody odhalit na detailech, které nesedí především v obličeji a jeho okrajích, či které mohou na některých částech jakoby splývat s pozadí. Kontrolovat také můžete detaily na těle zvláště při jeho pohybu nebo se soustředit na osvětlení a podivné stíny, ale bude to stále složitější.
Automatické systémy na odhalování takových podvodů nejsou přesné a ani virtuální razítka či vodoznaky u originálního obsahu nejsou všelék, protože i tato ochrana se dá nějakým způsobem obejít. Přesto boj s falešným obsahem nemá smysl vzdávat a pokoušejí se o něj různé organizace včetně českých univerzit.