Nejvíce se patrně rozvířila hladina kolem počítačovou grafikou vytvořené mladé princezny Leii, ale nejvíce práce měli tvůrci s velitelem Hvězdy Smrti Grand Moffem Tarkinem. Herec Peter Cushing byl již v době natáčení mrtvý, a tak se muselo přistoupit ke speciálnímu postupu, kdy postavu hrál jiný představitel, který dostal jakousi virtuální masku.
Celý magazín |
Celý trik spočíval v tom, že se využila mimika obličeje Guye Henryho a na jejím základě se pak přes tento obličej naklíčovala digitální maska. Celé to bylo časově i výpočetně náročné a podílelo se na tom poměrně mnoho lidí. Umělá inteligence ale tuto úlohu nyní zvládne, byť ne dokonale, i v reálném čase.
Přesvědčili se o tom ve společnosti GymBeamm. To je česká společnost zabývající se prodejem fitness produktů všeho druhu. Na svém profilu na síti LinkedIn její zakladatel a šéf Dalibor Cicman útok popsal: „Tento týden jsme v práci zažili zajímavou situaci. Mému kolegovi Sergio-Alexandro Musovi přišla zpráva na Whatsapp z účtu velmi podobného mému... Napsal, že se potřebuji rychle spojit se svým kolegou, a poslal odkaz na službu Teams,“ popsal začátek útoku před měsícem Cicman. Rozdíl byl jen v překlepu ve jméně a jiném telefonním čísle na profilu.
„Na videohovoru přes Teams byla moje deepfake kopie s jinou osobou, kterou moje kopie představila jako našeho externího právníka. Většinu pak moderoval,“ pokračuje ředitel firmy. Přičemž deepfake je označení pro realistickou úpravu videa nebo jiných multimediálních zdrojů.
Cílem útočníků bylo získat co nejvíce informací o zůstatcích na firemních účtech. Firma totiž má miliardové obraty, a tak se podobné specializované útoky vyplatí hackerům zacílit. Pro zmíněného spolupracovníka Musu byla patrně deepfake kopie jeho šéfa natolik nerozpoznatelná, že hovor hned neukončil. Zarazilo ho ale to, když Cicmanova kopie tvrdila, že je nyní dva týdny mimo kancelář, ačkoliv se s ním ten den již osobně setkal. „Proto mi během hovoru v Teams napsal na firemním Slacku a já jsem odpověděl, že na tom videohovoru v Teams nejsem,“ popisuje další krok zakladatel firmy GymBeamm.
Jen díky šťastné náhodě, že se setkali ten den v kanceláři a že primárně používají jiný komunikační kanál, nedošlo k nějaké škodě. „Kopie prý vypadala velmi věrohodně a jediné, co bylo podezřelé, bylo, proč nutně potřebuji informace o bankovním účtu přes Teams, když jsme zvyklí používat Hangouts nebo Slack,“ uzavírá Cicman.
Patrně jeho firma nebyla v tomto druhu napadení ojedinělá. Podle Andreje Leontieva, který je partnerem v právní firmě Taylor Wessing, se s podobným problémem museli vypořádat někteří z klientů společnosti. „Přestože se schémata liší, jejich věrohodnost a ‚profesionalita‘ se až děsivě blíží dokonalosti,“ uvádí.
Blíží se deepfake doba
Zdá se, že se velice rychle blíží doba, kdy se nebudeme moci vždy spolehnout na online či, chcete-li, nepřímou komunikaci. Nejde totiž jen o deepfake videa, ale stačí i simulovat něčí hlas po telefonu nebo jiné platformě, kde není k dispozici obraz. To je mnohem jednodušší disciplína, ke které může mít přístup mnohem více lidí než ke složitějším a výpočetně náročnějším systémům pro změny ve videu v reálném čase.
Ostatně již nyní některým útočníkům stačí zaslat podvržený e-mail s požadavkem na zaplacení faktury, který jakoby odešel z e-mailu nadřízeného. Pokud se k tomu přidá i následný telefonát s podvrženým hlasem tohoto nadřízeného, budou mít útočníci ještě větší pravděpodobnost, že nějaké peníze získají.
„Tento nový trend pravděpodobně již v příštím roce přijde v plné polní. Podle mého technologie deepfake zásadně ovlivní americké a ruské volby v roce 2024 tak, že se internetem budou šířit různá videa, která budou mít za cíl ovlivnit a manipulovat voliče,“ řekl Petr Panzner na online konferenci o umělé inteligenci AI (EJ:AJ) Online Summit k deepfake videům.
Panzner si myslí, že se nejpozději příští rok také rozběhne naplno debata, jak deepfake obsah rozpoznávat, a hlavně, jak se před ní chránit. „Podle různých diskusí to vypadá, že vznikne buď nějaká forma blockchain technologie spojené s identifikací osoby nebo nějaké digitální ověření, že na videu nebo na druhé straně hovoru je opravdu člověk, který tam má být,“ říká Panzner. Výsledkem může být i to, že se lidé mnohem častěji budou setkávat naživo.
Jak označit umělou inteligenci
Znamená to, že se posune nynější debata, která chce donutit tvůrce systémů generativní umělé inteligence označovat tvorbu těchto programů nějakým vodoznakem.
Ostatně již nyní regulační orgány v Evropě připravily uzákonění podobných předpisů o vodoznaku, které usnadní identifikaci obsahu vytvořeného generativní umělou inteligencí. Stejně tak americké společnosti zabývající se umělou inteligencí nedávno slíbily vládě, že zavedou vodoznaky na tvorbu umělé inteligence, které by usnadnily identifikaci obsahu vytvořeného umělou inteligencí. I nedávno přijaté čínské předpisy nařizují přidávat vodoznaky na obsah vytvořený umělou inteligencí a zároveň zakazují jejich odstraňování nebo pozměňování.
Z hlediska regulace mohou správné předpisy vynucovat zachování vodoznaků napříč veškerým obsahem vytvořeným umělou inteligencí. Pak může být každý software používaný k tvorbě a úpravám obsahu vybaven nástrojem, který dokáže najít a znemožnit odstraňování vodoznaků, podobně jako dnes tiskařské technologie mají zabraňovat tvorbě falešných bankovek.
Bude to však fungovat jen částečně. Jednak to bude těžko fungovat na obyčejném textu (byť se na tom pracuje) a jednak ne všechny systémy generativní umělé inteligence (gAI) budou provozovat firmy či jednotlivci, kteří se budou takovými nařízeními řídit. Zvláště pokud je budou chtít použít k nekalým účelům.
Vedle vodoznaků se tak bude urychleně zkoumat, jak připravit systémy, které dokážou rozpoznat, že je nějak nejen s videobsahem manipulováno.