ilustrační snímek

ilustrační snímek | foto: Profimedia.cz

Začíná éra cheap fakes. Odhalování výtvorů umělé inteligence je nový byznys

  • 0
Když se loni na sociálních sítích objevilo video, které zdánlivě ukazovalo ukrajinského prezidenta Volodymyra Zelenského, jak se vzdává Rusku, Andrey Doronichev jeho šíření sledoval se znepokojením. Brzy se ukázalo, že klip je počítačově vygenerovaný „deepfake“, ruský podnikatel žijící ve Spojených státech v něm ale viděl nebezpečnou předzvěst.

Nyní vede jednu z řady nových firem, které nabízejí nástroje na detekci obsahu vytvořeného sofistikovanými programy označovanými jako umělá inteligence, píše deník The New York Times (NYT).

Programy z kategorie generativní umělé inteligence, které vytvářejí různé výstupy na základě pokynů uživatele, jsou dnes dostupné každému. A jsou čím dál lepší v produkování textu, zvuku, obrázků i videí, která se zdají být lidskými výtvory. Potenciál na klamání společnosti spustil obavy ohledně šíření dezinformací, úbytku pracovních míst, diskriminace, soukromí a širších katastrofických scénářů.

Pro podnikatele, jako je Doronichev, současný vývoj skýtá příležitost. Více než desítka společností s názvy jako Sensity AI, Fictitious.ai nebo Originality.ai nyní dodává programy, které odhalují, zda je konkrétní text či obrázek tvorbou umělé inteligence.

Doronichev založil v San Franciscu v Kalifornii firmu Optic, jejímž cílem je být „letištním rentgenovým přístrojem pro digitální obsah“. V březnu představila web, kde mohou uživatelé nahrávat obrázky ve snaze zjistit, zda jde o fotografie nebo o dílo generátoru na bázi umělé inteligence. Zároveň pracuje na dalších službách pro video a zvuk.

Zákaz poznávání emocí i biometrie na dálku. Jak EU zkrotí umělou inteligenci

„Autenticita obsahu bude v budoucnu velkým celospolečenským problémem,“ míní Doronichev. „Vstupujeme do éry cheap-fakes,“ dodal v odkaze na výraz deepfakes, který označuje počítačově vytvořená videa s obličeji skutečných lidí. Tvorba podvodného obsahu podle něj dnes není vůbec nákladná, a tudíž se může odehrávat ve velkém měřítku.

Na trhu s umělou inteligencí se do konce tohoto desetiletí očekávají tržby v řádu desítek miliard dolarů a služby zaměřené na její odhalování jsou rostoucí částí odvětví. Služba GPTZero vytvořená před několika měsíci studentem Princetonské univerzity uvádí, že ji použilo už více než milion lidí ve snaze rozpoznat počítačem vygenerovaný text. Projekt CopyLeaks pak loni vybral 7,75 milionu dolarů (přes 170 milionů Kč), částečně na rozšíření své služby pro odhalování plagiátorství určené pro školy a univerzity.

Hledání podle prokrvení tváře

Zapojují se také velké technologické firmy. Intel spustil produkt FakeCatcher s tím, že dokáže s 96procentní úspěšností identifikovat videa typu deepfake, mimo jiné díky hledání drobných stop prokrvení v lidských tvářích. A v americké federální vládě plánuje výzkumná agentura ministerstva obrany DARPA zaplatit skoro 30 milionů dolarů na projekt Semantic Forensics, který vyvíjí algoritmy na automatickou detekci deepfakes.

Nástroje tohoto typu ze své povahy zaostávají za generativními programy, jejichž výstupy se snaží identifikovat. Ve chvíli, kdy je obranný systém schopen odhalit práci nového chatbotu nebo generátoru obrázků, vývojáři už pracují na nové verzi. „Je to ve své podstatě nepřátelská hra, v níž já pracuju na detektoru a někdo mezitím buduje lepší past na myši, lepší syntetizátor,“ řekl profesor Hany Farid z Kalifornské univerzity v Berkeley, který se specializuje na digitální forenzní vědu.

Synteticky vytvořená videa jsou stále relativně těžkopádná a snadno rozeznatelná, uvádí experti, ovšem tvorba obrázků a klonování hlasů jsou podle nich na vysoké úrovni. Rozlišení umělého obsahu od skutečnosti bude vyžadovat digitální vyšetřovací postupy, jako je zpětné vyhledávání obrázků a sledování IP adres.

Farid podotýká, že dostupné programy na detekci umělé inteligence se testují na příkladech, které se výrazně liší od souborů šířených „v divočině“, kde obrázky kolují po platformách a mohou být postupně různými způsoby upravovány. „Toto propírání obsahu tento úkol komplikuje,“ konstatoval.

I šéf firmy, která vyvinula ChatGPT, požaduje regulaci umělé inteligence

Jedna iniciativa si klade za cíl, aby byla tvorba generativních systémů od začátku zjevná. Skupina s názvem Content Authenticity Initiative sdružuje asi 1000 firem a organizací včetně softwarové společnosti Adobe, deníku The New York Times a subjektů ze sféry umělé inteligence jako Stability A.I. Skupina místo snahy zpětně pátrat po původu obrázku či videa prosazuje vytvoření standardů, které by zavedly systém poznávacích znaků připojovaných k digitálním výtvorům přímo při jejich vzniku. Adobe minulý týden uvedla, že její generativní služba Firefly bude ke svým výstupům připojovat „nutriční etikety“ obsahující datum vzniku obrázku a nástroj, který jej vytvořil.

Podle Jeffa Sakasegawy, který řídí bezpečnostní aktivity v projektu Persona zaměřeném na ověřování totožnosti spotřebitelů, jsou výzvy vyplývající z rozvoje umělé inteligence teprve v počátcích. „Ta vlna nabírá na síle. Blíží se ke břehu. Myslím si, že ještě nenarazila,“

,