Případů mohou být miliony
Podle společnosti Deeptrace Labs ze září 2019 nekonsenzuální deepfake porno tvořilo 96 procent všech deepfake videí online. Tedy všech videí, která nějakým způsobem manipulují s tvářemi reálných lidí a vkládají jim do úst slova, která neřekli, nebo jejich obličeje přidávají k uměle vytvořeným tělům.
Jak upravenou fotografii nebo video poznat?„Doporučil bych se na tu fotku podívat pořádně, jestli sedí stíny, barva pleti, zda je to přirozené. Velmi brzy – už se ty nástroje testují – vznikne aplikace, která umělou inteligenci odhalí,“ řekl expert na kyberbezpečnost Miloslav Lujka. Zatím ale platí jasná rada: Každý, jehož fotka byla podobným způsobem zneužita, by se měl obrátit na policii. |
Že pornografie je cílem „tvůrců“ nejčastěji, dokládá mimo jiné také zjištění společnosti Sensity . Podle té na konci roku 2020 kolovalo online více než 85 tisíc deepfake videí, přičemž 95 procent z nich bylo nekonsenzuálních a sexuální povahy. A znepokojivý trend, že nejvíce jsou jimi ohrožené ženy, se potvrdil – ženy byly v těchto videích v 90 procentech případů. Dezinformace, které si můžeme představit třeba jako nadávky, které nikdy nevyšly z úst ministra vnitra Víta Rakušana nebo ukrajinského prezidenta Volodymyra Zelenského, přitom představovaly 5 procent obsahu.
A takového obsahu přibývá. Jen v prvních devíti měsících roku 2023 uživatelé nahráli přes 113 tisíc deepfake videí, zatímco za celý předchozí rok 73 tisíc. Z aplikací, které dokážou „svléknout“ jakoukoli ženu, se také stal byznys. V roce 2020 bylo na Telegramu terčem útoků více než 680 tisíc žen a dívek, přičemž některé nezletilé. Uživatelé si přes aplikaci za peníze objednávali nahé fotky a nechávali si je zasílat.
Svlékněte jakoukoli ženu, lákal program. DeepNude generoval „nahé“ fotky |