Nahých fotek je víc než kdy dřív. Zneužívají umělou inteligenci a cílí na ženy

  • 18
Na sociálních sítích začne kolovat vaše nahá fotografie. Až na to, že na ní nejste vy – pouze váš obličej. Zbytek je výtvor umělé inteligence. Pro část lidí však může být k nerozpoznání od reality a trauma může způsobit jako skutečná. Něco takového zažívala v posledních týdnech slavná americká zpěvačka Taylor Swift.
Ilustrační snímek

Více než 27 milionů zhlédnutí a 260 tisíc lajků. Zhruba tolik dostaly podvržené fotky se známou zpěvačkou. Ačkoli síť poté pozastavila účet, který je zveřejnil, bylo už pozdě. Mezitím se objevily v repostech, a nadále jsou tak na sociálních sítích k nalezení.

Přestože je případ slavné zpěvačky zatím jeden z největších, zdaleka není ojedinělý. Naopak. A následky mohou být zničující, obzvlášť kvůli tomu, že poté, co si uživatelé materiál poukládají, je už takřka nemožné ho zcela smazat.

Sexuálně laděné falešné fotky Taylor Swift zaplavily web a mnohé šokovaly

Například loni španělská policie identifikovala 11 nezletilých – ve věku 12 a 13 let – podezřelých z toho, že za pomoci AI vytvořili falešné fotky nahých dívek z městečka Almendralejo.

Britská čtrnáctiletá školačka Mia Janinová v roce 2021 spáchala sebevraždu, přičemž podle vyšetřování údajným důvodem bylo právě sdílení jejích fotek vygenerovaných umělou inteligencí ve skupinovém chatu. Chlapcům stačilo vzít tváře ze sociálních médií a upravit je v příslušném programu.

A případy se objevily i v Česku, kde se terčem stala influencerka Sophie Šarláková, ale i další dívky. „Poslal mi moji nahou fotku. Nejdřív jsem byla v šoku, ale rychle jsem poznala, že se jedná o fake. Ta fotka je totiž z Instagramu,“ popsala jedna z nich.

Porno jako pomsta. Na internetu přibývá videí, která mají za cíl škodit

ilustrační snímek

Případů mohou být miliony

Podle společnosti Deeptrace Labs ze září 2019 nekonsenzuální deepfake porno tvořilo 96 procent všech deepfake videí online. Tedy všech videí, která nějakým způsobem manipulují s tvářemi reálných lidí a vkládají jim do úst slova, která neřekli, nebo jejich obličeje přidávají k uměle vytvořeným tělům.

Jak upravenou fotografii nebo video poznat?

„Doporučil bych se na tu fotku podívat pořádně, jestli sedí stíny, barva pleti, zda je to přirozené. Velmi brzy –⁠ už se ty nástroje testují –⁠ vznikne aplikace, která umělou inteligenci odhalí,“ řekl expert na kyberbezpečnost Miloslav Lujka. Zatím ale platí jasná rada: Každý, jehož fotka byla podobným způsobem zneužita, by se měl obrátit na policii.

Že pornografie je cílem „tvůrců“ nejčastěji, dokládá mimo jiné také zjištění společnosti Sensity . Podle té na konci roku 2020 kolovalo online více než 85 tisíc deepfake videí, přičemž 95 procent z nich bylo nekonsenzuálních a sexuální povahy. A znepokojivý trend, že nejvíce jsou jimi ohrožené ženy, se potvrdil – ženy byly v těchto videích v 90 procentech případů. Dezinformace, které si můžeme představit třeba jako nadávky, které nikdy nevyšly z úst ministra vnitra Víta Rakušana nebo ukrajinského prezidenta Volodymyra Zelenského, přitom představovaly 5 procent obsahu.

A takového obsahu přibývá. Jen v prvních devíti měsících roku 2023 uživatelé nahráli přes 113 tisíc deepfake videí, zatímco za celý předchozí rok 73 tisíc. Z aplikací, které dokážou „svléknout“ jakoukoli ženu, se také stal byznys. V roce 2020 bylo na Telegramu terčem útoků více než 680 tisíc žen a dívek, přičemž některé nezletilé. Uživatelé si přes aplikaci za peníze objednávali nahé fotky a nechávali si je zasílat.

Svlékněte jakoukoli ženu, lákal program. DeepNude generoval „nahé“ fotky

Spotřeba léků na deprese a úzkosti v ČR roste. V loňském roce to bylo o 7 % a...

Následky i trauma

Oběti deepfake porna přitom mohou zažívat trauma, včetně úzkosti, deprese, disociace, studu, ponížení a sebevražedných myšlenek.

Jak upozorňuje psycholožka Stephenie Sarkisová, tvůrci deepfake pornografie ji totiž často vytvářejí ze stejného důvodu, jako ti, kteří zveřejní takzvané revenge porno, tedy za účelem pomsty a ponížení oběti. „Zároveň to vysílá zprávu – toto se vám stane, když jste úspěšní. Nebo když někoho naštvete,“ cituje odbornici server USA Today.

Nikdy nevíte, kde se vaše intimní fotky objeví, říká oběť revenge porna

„Když vidíte obrázek, můžete mít opravdu pocit, že se to skutečně stalo vašemu tělu, že došlo k porušení vaší tělesné suverenity,“ říká psychoterapeutka Jessica Kleinová. Jde o něco, co se dotyčných bytostně týká, ale zároveň je naprosto mimo jejich kontrolu. Právě to může vést k rozvoji traumatu.

„Je to srovnatelné se šikanou a kyberšikanou. S narušením obrazu sebe sama, které u křehkého jedince může způsobit třeba poruchu příjmu potravy,“ vysvětlila také psycholožka Jana Voleská.

ilustrační snímek

Jak bojovat se zneužíváním AI?

Solidarita fanoušků a fanynek s oblíbenou zpěvačkou způsobila, že začali podvrhy hromadně nahlašovat. Společně s hashtagem „Protect Taylor Swift“, tedy „Chraňme Taylor Swift“, se tak postavili vůči šíření zraňujících zpěvaččiných obrázků.

K boji s deepfakes je však potřeba mnohem víc. I proto začaly vznikat online nástroje. Jedním z nich je třeba zahraniční aplikace Take It Down, vytvořená speciálně pro oběti online sexuálního zneužívání dětí. Google také nedávno zavedl proces, který umožňuje obětem požádat o odstranění jejich explicitních deepfakes z výsledků vyhledávání.

Změna ovšem musí vyjít také z legislativy, a některé státy už proto se zneužíváním AI právně bojují. Jedním z nich je například Nizozemsko, které novou legislativu přijalo vloni. Spojené království pak zavedlo takzvaný Online Safety Act., který se týká online sexuálního zneužívání, mimo jiné například cyberflashingu (posílání nevyžádaných pornografických fotek) a sdílení „deepfake“ pornografie. Nicméně vytváření deepfake porna v první řadě stále není zakázáno.

Konec legrace? Instagram a Facebook budou označovat obrázky vytvořené AI

Právě v tom však může být zlomový případ zpěvačky Taylor Swift. Oživil totiž výzvy amerických zákonodárců, aby úřady zakročily. Demokratická politička Joe Morelle z New Yorku označila situaci za děsivou a připomněla, že loni představila návrh zákona, který by ze sdílení takovýchto snímků udělal zločin trestaný na federální úrovni. „Ženám se to stává všude a denně,“ podotkla.