Vědci chtějí ověřovat Trumpovy lži „chytrým“ automatem. Komu to pomůže?

  0:11aktualizováno  0:11
Politici rádi mluví, ale jsou často na štíru s fakty. Americká média mají žně například při ověřování výroků prezidenta Trumpa. Vývojáři dokonce pracují na nástroji, který by věty politiků ověřoval v reálném čase automaticky. Spoléhat se na umělou inteligenci při ověřování může být lákavé, ale nebezpečné.

Vědci vyvíjí nástroj, který bude v reálném čase kontrolovat pravdivost výroků politiků. Jaké jsou výhody a nevýhody takového přístupu? | foto: montáž: Pavel KasíkProfimedia.cz

„Moje vítězství počítáno na volitele bylo největší od Ronalda Reagana,“ prohlásil Donald Trump na tiskové konferenci v únoru 2017, více než rok po svém zvolení. Chvíli nato se jej Peter Alexander, jeden z přítomných reportérů, zeptal: „Řekl jste, že jste vyhrál největším rozdílem volitelů od doby Reagana se svými 304 (...) voliteli. Ale přitom prezident Obama získal 365 volitelů...“

„Já jsem mluvil o republikánských,“ pokusil se Trump opravit své tvrzení tak, aby odpovídalo této „nové“ informaci. Ale Alexander pokračoval: „Prezident George H. W. Bush získal 426 volitelů.“ Bush starší byl republikán, takže ani Trumpem před chvílí upravené tvrzení evidentně nesedělo. „Tak proč by vám Američané měli věřit?“ pokračoval Alexander v otázce.

„Nevím, no. Dali mi tuto informaci,“ obrátil okamžitě Trump. „Dostal jsem tuto informaci. Dokonce jsem tu informaci někde viděl. Ale bylo to výrazné vítězství.“

Tento moment byl celkem neobvyklý. Nikoli tím, že Donald Trump řekl něco nepřesného nebo nepravdivého. To se stává poměrně často a podle některých spolupracovníků jde o Trumpovu komunikační strategii. Ale okamžik byl výjimečný tím, že Trumpovi někdo z přítomných téměř bez prodlevy ukázal, že šlo o nepravdu. A prezident Trump – po prvotním pokusu ubránit alespoň částečně původní tvrzení – uznal, že se mýlil, a plynule pokračoval v tiskové konferenci.

Ověřování výroků politikůPravda, nebo nepravda?

Ověřování výroků – tzv. fact-checking – není nový žánr. Naopak, patří to ke standardní práci novinářů. S nástupem internetu je však pro čtenáře jednodušší dohledat informace o tom, zda je konkrétní výrok pravdivý či nepravdivý. Případně zda je zavádějící, míchá hrušky s jablky, nebo zda je s využitím dostupných dat neověřitelný.

Stále je však míč na straně čtenáře, konzumenta, voliče. Je na lidech, zda se budou zajímat o to, jestli jejich (ne)oblíbený politik v daném případě mluvil pravdu. Nebo jak je na tom dlouhodobě s polopravdami a zavádějícími tvrzeními. Ověření se neobjeví „samo“, čtenář se po něm musí pídit.

Spoléhat se na to, že nás dokonalá a neutrální umělá inteligence zbaví našich omylů, je naivní.

Daleko spíše hrozí, že kvůli podobným automatům se otupí naše schopnost kriticky myslet. (více v závěru článku)

A právě to se někteří programátoři a vědci rozhodli změnit. Podíváme se na to, jak k tomu chtějí využít umělou inteligenci, jaké jsou výhody jejich řešení a proč je to podle nás zajímavý, ale v důsledku nebezpečný směr. I kdyby totiž automatické ověřování fungovalo perfektně a bezchybně – což nebude vůbec jednoduché – zůstává zde problém toho, jaký vliv by mělo automatické ověřování na lidskou psychiku. Pro technooptimisty je typické předvídat, že technologie pomohou vyřešit problémy lidstva, a přitom přehlížet, jak mohou naopak ty stejné technologie vzít lidem schopnosti orientovat se ve světě.

Vize„Umělá inteligence“ ověřuje v přímém přenosu

Strojové učení zažívá v posledních letech masivní expanzi. V mnoha oborech, jako je třeba strojová analýza obrazu nebo automatický překlad řeči, pomohly neuronové sítě (často označovány zkratkou AI, tedy „umělá inteligence“) vyřešit staré problémy až s nečekanou úspěšností. Myšlenka zapřažení těchto neuronových sítí do automatizovaného ověřování pravdivosti výroků na sebe tedy nenechala dlouho čekat.

Už v roce 2016 pořádala americká Duke University konferenci na téma automatizovaného fact-checkingu. Kromě teoretických přednášek tu týmy předvedly jedenáct prototypů nástrojů, které mají pomoci s ověřováním pravdivosti výroků. „Myslím, že za deset let budeme mít okamžité, automatizované vyhledávání v již ověřených výrocích,“ předpovídal tehdy Bill Adair, novinář a zakladatel portálu PolitiFact. „Budeme se dívat na televizi, kde bude mluvit politik, a když ten politik řekne nesmysl, tak vyskočí automatický ověřovač a napíše, že je to nepravda.“

Koncept okamžitého a automatického kontrolování výroků pomocí strojového učení...

Koncept okamžitého a automatického kontrolování výroků pomocí strojového učení rozvíjejí také na Duke University

Ne všichni byli tak optimističtí a nepředpokládali, že by šlo automatizovaně ověřovat všechny typy výroků: „Očekávám, že díky automatickému fact-checkingu některé jednoduché typy nepravd, jako třeba, že nezaměstnanost byla minulý rok X procent, úplně vymizí, zatímco dnes jsou velmi časté,“ domníval se Alexios Mantzarlis, ředitel Mezinárodní sítě fact-checkerů.

Ačkoli nikdo přesně nemůže vědět, jak bude vypadat fact-checking v novinách nebo v televizi za osm nebo deset let, odborníci se na konferenci shodli, že řada úkonů, které je nyní nutné dělat ručně, zvládnou bez větších problémů automatizované systémy. Podobně, jako dnes funguje kontrola pravopisu a gramatiky, tak by v budoucnu mohlo fungovat i ověřování faktické správnosti.

SoučasnostPočítač rozpozná „ověřeníhodné výroky“

K takovému milníku však máme nyní asi tak daleko, jako měla kontrola pravopisu z 90. let daleko ke spolehlivé korektuře textu. Prvním problémem je samotná identifikace toho, co by mělo být ověřováno, tedy detekce „ověřeníhodných výroků“. Ne všechno, co politik řekne, si zaslouží ověřování. Něco jsou politické sliby, něco zdvořilostní fráze a něco je obyčejný pozdrav (i když fact-check obyčejného „dobrý večer“ by mohl být zábavný).

Současné ověřovací systémy ovšem dělají pokroky, a tak třeba nejznámější z nich – ClaimBuster – umí v reálném čase identifikovat výroky, které podle analýzy klíčových slov obsahují faktické informace hodné ověření.

Každá věta dostane číslo od nuly do jedné, kde nula značí „nefaktický, subjektivní nebo názorový“ výrok, zatímco vyšší skóre dostanou výroky, které obsahují ověřitelná fakta. Například pokud do ClaimBusteru vložíme k analýze Trumpův projev State of the Union z roku 2018, jsou „ověřeníhodné výroky“ vyhodnoceny takto (vybrali jsme věty na začátku, uprostřed a na konci vygenerované tabulky):

  • „Typická čtyřčlenná rodina vydělávající 75 tisíc dolarů ročně bude platit o dva tisíce dolarů nižší daně, což sníží jejich daně na polovinu.“ (0,83 - zaslouží si nejvíce ověřit)
  • „Od voleb jsme vytvořili 2,4 milionů nových pracovních pozic, včetně 200 tisíc jen ve výrobě.“ (0,80)
  • „Američtí daňoví poplatníci těm samým zemím štědře posílají miliardy dolarů každý rok.“ (0,50)
  • „Američané plní svět uměním a hudbou.“ (0,28)
  • „Brzy se budou továrny otevírat po celé zemi.“ (0,28)
  • „Pokud tvrdě pracujete, pokud si věříte, pokud věříte v Ameriku, tak můžete snít o čemkoli, být kýmkoli, a společně můžeme dosáhnout čehokoli.“ (0,06 - není co ověřovat)
Ukázka posuzování „ověření-hodných“ výroků pomocí programu ClaimBuster

Ukázka posuzování „ověření-hodných“ výroků pomocí programu ClaimBuster

Nástroj ClaimBuster (popis v PDF) využívá strojové učení hned několikrát. Nejprve identifikuje výroky hodné ověření. K natrénování neuronové sítě posloužila data z prezidentských debat 2016, která byla ohodnocena dobrovolnými vyplňovači dotazníků na škále „obsahující faktická ověřitelná tvrzení či nikoli“. Podle vědců je tento nástroj spolehlivý asi na 75 % v tom smyslu, že dokáže identifikovat věty, které jsou podstatné a vhodné k faktickému ověření, podobně jako vybrané mediální organizace.

Architektura systému ClaimBuster navržená týmem studentů a vědců z University...

Architektura systému ClaimBuster navržená týmem studentů a vědců z University of Mississippi a Universito of Texas at Arlington

Dalším modulem ClaimBusteru je nástroj pro „párování“. Ověřovaný výrok zkusí najít v databází již ověřených výroků. Při vyhledávání nyní ClaimBuster kombinuje nástroje Elasticsearch s Semilar k nalezení stejných či podobných výroků. To funguje velmi spolehlivě tehdy, kdy politik opakuje v minulosti ověřený výrok. 

V případě, že jde o výrok zcela nový, dostává se současná verze ClaimBusteru na poněkud tenčí led. Algoritmus se pokusí najít faktické části výroku a dát je dohromady s tím, co lze ověřit ve znalostních databázích. Nezapomínejme přitom, že počítačový program obvykle nerozumí tomu, co daná věta říká, rozhodně ne stejným způsobem, jak chápeme slovo „rozumí“ v případě lidí (ačkoli některé systémy se to snaží velmi dobře napodobovat). 

Místo toho nastupuje statistika vylepšená o několik zajímavých triků. Zjednodušeně řečeno to funguje tak, že počítač na základě ověřovaného výroku vygeneruje velké množství otázek a tyto otázky pak položí vyhledávači (dnes využívá Wolfram Alpha a Google). „Pokud lze na základě vrácených výsledků identifikovat jasné rozpory, tak je možno tuto informaci využít při vytvoření verdiktu, který je zobrazen uživateli,“ popisují autoři ClaimBusteru. Kromě toho se systém také snaží hledat kontext, zatím opět pomocí prvních výsledků ve vyhledávání Google.

Všechny získané informace, včetně odpovědí na vygenerované otázky (které mohou, ale nemusí souviset s původním výrokem) jsou využity k vytvoření „zprávy“, která se zobrazí uživateli, jenž má zájem o více informací. Betaverze tohoto systému je dostupná online, při našem testování však často nefungovala, nebo fungovala jen částečně.

Dohledávání výroků a jejich ověřování

Dohledávání výroků a jejich ověřování

Současné řešení se zjevně potýká s řadou problémů. Není však vyloučeno, že tyto počáteční neduhy se programátorům podaří vyřešit a nějaká forma okamžitého ověřování výroků se skutečně dostane v dohledné době na televizní obrazovky. Nebylo by to skvělé? Nezabránilo by to politikům lhát? Neučinilo by to konec populistickým řečem a zavádějícím tvrzením? Nedonutilo by to konečně všechny diváky k větší obezřetnosti?

Technooptimisté často předpovídají, že nová technologie vymaže všechna mezilidská nedorozumění....

Obáváme se, že optimismus v tomto případě není oprávněný. Stejně, jako nadšení lidé předpovídali, že telegraf, telefon, rozhlas nebo internet zabrání budoucím nedorozuměním a konfliktům – což byla zjevně naděje lichá – tak se nyní řada lidí upíná ke strojovému učení a umělé inteligenci jako k té technologii, která konečně pomůže lidem rozpoznat faleš od reality a pravdu od lži.

Chceme ukázat několik důvodů, proč považujeme tento technooptimismus za problematický a dokonce kontraproduktivní.

Problém 1.Nepřesnosti při analýze

První připomínka je jasná a vychází z aktuální zkušenosti s betaverzí produktu ClaimBuster. Po asi hodině, kdy jsme zkoušeli různé anglické výroky, politické i apolitické, máme dojem, že v současné podobě je program velmi nespolehlivý.

ClaimBuster je dobrý v detekci opakovaných nepravdivých výroků, proto se o něm mluví jako o „léku na Trumpa“. To je ale krátkozraké uvažování.

ClaimBuster zvládne identifikovat již známé a ověřené výroky, to umí celkem dobře. Taková věc se může zdát užitečná někomu, kdo vidí ClaimBuster jako „lék na Trumpa“, protože Donald Trump je známý tím, že své oblíbené fráze a výroky často a rád opakuje: třeba říká, že jeho daňová úleva byla největší v historii, přestože ve skutečnosti jde „pouze“ o osmou největší úlevu; v různých obměnách tuto frázi zopakoval více než stokrát, možná jako způsob, jak získat potlesk od obecenstva. Ale navrhovat nástroj na ověřování výroků, který je šitý na míru jednomu politikovi, by bylo nesmírně krátkozraké, nehledě na to, že by to zavánělo neobjektivitou.

Aby byl ověřovací algoritmus důvěryhodný a užitečný, musí si poradit i s výroky, které zazní úplně poprvé. A tady se obáváme, že jde o úkol zatím mimo možnosti současného stavu sémantické analýzy. Aby počítačový program dokázal zcela samostatně ověřovat výroky, musel by chápat nejen tabulky a data, ale také velké množství komplexních souvislostí, náznaků, rétorických figur, ironických narážek, vtipů, argumentačních faulů nebo právnických obratů.

Ověřování skrze čísla (vlevo Trump, vpravo Obama)

Factchecking někdy může mít podobu čísel, což je pochopitelně silná stránka počítačů. Ale na základě stejných čísel lze vyprávět různé příběhy a posuzování jejich pravdivosti nebo relevance není nic jednoduchého ani pro lidi, natož pro počítače. Zde předkládáme „číselné bilance“ posledních dvou amerických prezidentů. Obamova čísla jsou po osmi letech v úřadě, Trumpova po dvou letech v úřadě, nelze je tedy přímo srovnávat.

Soudě podle současných schopností Asistenta Google lze sledovat určitý pokrok ve vyhledávání odpovědí na faktografické otázky. Vždy jde však o odpovědi na otázky, které již někdo položil. Ověřování nových výroků je v tomto ohledu neskonale složitější.

Problém 2.Objektivita a neutralita zdrojových dat

Řekněme však, že by se neuronová síť (nebo kombinace různých neuronových sítí, statistických nástrojů atd.) skutečně vyšplhala až na úroveň průměrného člověka schopného vnímat význam textu v souvislostech. I pak by zůstaly stejné problémy a výhrady, které máme již dnes vůči fact-checkingovým agenturám a službám: „Co děláte pro to, abyste byli neutrální?“

Je to otázka oprávněná. Fact-checking ostatně není v jádru nic jiného než vyhledání souvisejících dat, zasazení dat do kontextu a posouzení toho, zda tato data či kontext dokládají, či vyvracejí ověřovaný výrok.

Ať už tedy ověřování provádí člověk, organizace nebo hypotetický inteligentní algoritmus, je zde prostor pro různé druhy zkreslení či „naklonění“:

  • Výběr výroků – už jenom tím, jaké výroky k ověření vybereme, můžeme značně ovlivnit celkové vyznění. Proto je potřeba, aby byla služba maximálně transparentní v tom, jaké výroky k ověřování vybírá a proč. Neuronové sítě však nejsou pověstné transparentností, naopak, často je i pro jejich vývojáře záhadou, co konkrétně má na jejich verdikt vliv.
  • Kvantita místo kvality – je důležité brát při fact-checkingu ohled na vysvětlení toho, proč je nějaký výrok označen za nepravdu. Jinak by mohlo ověřování vyústit v nesmyslné porovnávání „počtu“ lží namísto toho, o jaké lži šlo. Kvantitativní analýza je ovšem pro počítač mnohem jednodušší a navíc působí objektivně.
  • Zdroje použité při posuzování – častým nešvarem jakékoli mediální organizace je přílišné spoléhání na vlastní zdroje. U fact-checkingové agentury to může znamenat, že často odkazuje na své předchozí závěry. To dlouhodobě může vést k selektivní práci s fakty. Lékem na tento nešvar je vyhledávání různorodých, důvěryhodných a nezávislých zdrojů. U počítačové analýzy by však bylo možné natrénovat ověřování na jakýchkoli datech a těmito trénovacími daty zásadně ovlivnit výsledky.

Na vstupních datech záleží

Když se kupříkladu neuronová síť učila rozpoznávat věk lidí na fotografii, hrálo roli, zda se učí na fotografiích obyčejných lidí nebo fotkách celebrit. Dokonalá úprava vizáže většiny celebrit totiž způsobila, že neuronová síť, která na tomto vzorku trénovala, pak „normálním smrtelníkům“ při odhadování věku pět až patnáct let přidala.

V praxi by to mohlo vypadat tak, že různé televize by si vyvinuly své vlastní automatizované ověřovače. V reálném čase by pak divákům zobrazovaly „měřič pravdivosti“ nebo třeba „detektor keců“. Takové číslo by působilo objektivně, vždyť „data jsou ověřována automaticky“, bez lidského zásahu.

Jenže záleží na tom, na čem se neuronové sítě trénovaly. Například ověřovací algoritmus, který by se vytrénoval na datech CNN nebo MSNBC, by jistě předkládal jiná „objektivní“ hodnocení výroků, než počítač, který by se učil na datech, zprávách a výrocích televize Fox News. Oba verdikty by přitom byly výsledkem „neutrální“ analýzy. Jenže pokud nejsou neutrální vstupní data (což nejsou prakticky nikdy, jde spíše o to, jak jejich zkreslení popsat a zviditelnit), nemůže být zcela neutrální ani výsledek odvozený z těchto dat.

Stejný projev, různé hodnocení: Neuronová síť natrénovaná na jiných datech může...

Stejný projev, různé hodnocení: Neuronová síť natrénovaná na jiných datech může dávat zcela odlišné výsledky. Obě „automatické ověřovací sítě“ však budou vypadat „neutrálně“ a „objektivně“.

Každá televizní stanice by mohla mít svou vlastní metodu, vlastní umělou inteligenci, která by – na základě tréninku – dávala výsledky na míru „svému“ publiku. Takové nuance by zřejmě většině diváků unikly. Bylo by to přece „neutrální“ a „bez zásahu člověka“.

Už dnes si část publika často neuvědomuje, do jaké míry se volbou mediálních obsahů vydává napospas vlastním kognitivním omylům, především potvrzujícím omezení, skupinové dynamice a efektu pouhé expozice (více o kognitivních omylech).

Proč jsou emoce často důležitější než fakta? (video z archivu Technet.cz):

Obáváme se tedy, že nástroj, který by měl sloužit k lepší kontrole politiků a odhalování známých nepravd, by ve skutečnosti mohl ještě přispět k tomu, že by lidem potvrzoval to, co už si myslí, a ještě tomu dával „punc objektivity“  – vždyť to přece ověřila „umělá inteligence“.

Problém 3.Možnost přizpůsobení textu ověřovači

Zkusme si představit, že by se oba dva první problémy nějak vyřešily. Je to sice takřka za hranicí naší představivosti, ale předpokládejme, že žijeme ve světě, kde se všechna média a všichni diváci shodli, že budou při ověřování výroků politiků věřit konkrétnímu, inteligentnímu, sémanticky chápavému algoritmu. Nuže, pak se dostáváme k dalšímu problému, a tím je předvídatelnost.

Řekněme, že jste učitel češtiny a chcete dát studentům nějaký těžký domácí úkol týkající se gramatiky. Víte však, že studenti mají k dispozici pokročilé nástroje na kontrolu gramatiky (v češtině jich zatím moc není, ale pohybujeme se nyní v hypotetické rovině). Pokud chcete, aby studenti zapojili hlavu, vyzkoušíte napřed, zda vámi zadaný úkol „projde“ kontrolou těchto nástrojů.

Nebo řekněme, že jste plagiátor, a nechcete být odhalen automatickým systémem na rozpoznávání opsaných textů. Pak před odevzdáním práce vyzkoušíte, zda váš text takovým systémem projde bez povšimnutí. Pokud ne, upravíte slovosled, zaměníte některá slova synonymy, a to tak dlouho, dokud systém nebude hlásit 0% shodu s ostatními díly.

A stejně tak by bylo možné, zvláště u plánovaných vystoupení, vyladit projev tak, aby neobsahoval „rozpoznatelné“ nepravdy. To by vedlo ke snadnému obcházení kontroly i v případě, že by byla velmi dobrá a velmi férová. Politik by mohl předem svůj projev připravit tak, aby dostal dobré hodnocení, faktům navzdory.

Fact Check: Ověřování výroků má svá jasná pravidla

Ověřování pravdivosti výroků (nejen) politiků není v zásadě nic nového. Jde o "starou dobrou novinařinu". Analytik (ověřovač, fact-checker) se podívá na tvrzení a jeho kontext a pokusí se ověřit vše, co ověřit lze. Něco takového může (a měl by) dělat každý, kdo se rozhoduje na základě toho, co někdo jiný tvrdí.

„Fact-checking se (od tradičních novinových článků, pozn. red.) liší ve fungování a v prezentaci výsledků své práce,“ řekla nám v rozhovoru Lenka Chudomelová z českého ověřovacího serveru Demagog.cz.  „Typickým znakem je transparentnost toho ověřování. Všude uvádíme zdroje, vždy dáváme prokliky, aby čtenář mohl jít vždy co nejblíže k primárnímu zdroji, aby bylo jasné, jak se došlo k prezentovanému výsledku.“

Žánr "fact-checking" se výrazně rozvinul díky webu a rychlému vyhledávání. Stránky, které se specializují na fact-check, jsou snadno dohledatelné, a slouží tak širší veřejnosti k rychlejšímu ověření nových i starých výroků.

Demagog.cz dlouhodobě sleduje výroky politiků
Demagog.cz dlouhodobě sleduje výroky politiků
Demagog.cz kromě výroků ověřuje také sliby vládních koalic.

V Česku je nejnznámnější ověřovací službou Demagog.cz, který ověřuje výroky českých politiků. Funguje od března 2012.

Jak zajistit, že je ověření v rámci lidských možností objektivní a důvěryhodné. Zvláště v politice zbrázděné ideologickými propastmi? Fact-checker se proto drží několika pravidel, které směřují k ukotvení textu ve faktech.

  • Žádná „lež“, ale pouze „nepravda – až na vzácné výjimky není možné poznat, zda někdo vyslovil nepravdu z nevědomosti (omyl), nedbalosti (tzv. "kecy") nebo úmyslně (lež). Místo spekulace o tom, proč je daný výrok nepravdivý ("false") se proto fact-checker soustředí na to, jak výrok ověřit.
  • Součástí ověření je podrobné zdůvodnění verdiktu – nejde jen o hodnocení, ale především o zdůvodnění tohoto hodnocení, které by mělo být co možná nejlépe podložené
  • Transparentní práce s dostupnými zdroji a odkazy – práce ověřovače musí být transparentní, ověřitelná a replikovatelná
  • Transparentní financování i metodika – ověřovači by měli zveřejnit, na základě jaké metodiky vybírají výroky a posuzují je, a z čeho je jejich činnost financována
  • Důvěryhodnost a nezávislost – dobré ověření výroku pracuje s dostupnými daty přehledně a otevřeně tak, že kdyby si kdokoli položil otázku, zda je ten daný výrok pravdivý či nepravdivý, a důsledně by pracoval s faktickými zdroji, tak by měl dojít ke stejnému závěru

Problém 4.Nemožnost ověřit proces ověřování

Dostáváme se do teritoria, kde se „problém umělé inteligence“ velmi podobá tomu, co řeší psychologové u lidí: nevíme, proč se rozhodujeme, jak se rozhodujeme. A zatímco u lidí jsou nevědomé vlivy na naše rozhodování obvykle z oblasti kognitivních omylů nebo emocí, u neuronových sítí je vliv neméně komplikovaný a pro člověka ještě hůře pochopitelný.

Neuronová síť je na první pohled „jen“ počítačový kód. Pod pokličkou najdeme bublající směs, která je výsledkem milionů nebo miliard „učících cyklů“. Počítač se na základě metody pokusů, omylů, trénování, korekcí, náhodných variací a statistických metod cyklus od cyklu zlepšuje podle předem daných kritérií. Neuronová síť spíše než klasický počítačový kód plný cyklů a funkcí připomíná organický proces přizpůsobování se prostředí a evoluční přežití silnějšího algoritmu.

Není nikdo – programátory nevyjímaje – kdo by mohl naplno porozumět tomu, proč kupříkladu neuronová síť Překladače Google přeložila větu „I am only (...) a clanging cymbal“ jako „Jsem jen (...) zvonění cinkálu.“ Programátoři často žasnou, co se neuronová síť na základě trénovacích dat naučila. „Třeba překlad z polštiny se zlepšil, když jsme využili data získaná trénováním umělé inteligence na textech ve vietnamštině nebo thajštině. Je to tak trochu černá skříňka,“ vysvětlil nám Barak Turovsky, který vede skupinu pro vývoj Překladače Google.

Co to znamená pro automatizovaný fact-checking? Nemožnost ověřit, jakým způsobem ověření vzniklo. To, že je ověření automatického ověřovače prakticky nemožné, brání diskuzi a zpětné kontrole, která je jinak důležitou součástí každého procesu, jež si dělá ambice směřovat k systematickému popisování reality.

Lidští ověřovači vysvětlují své závěry. Odkazují své zdroje, zdůvodňují, proč při ověřování postupovali tak, jak postupovali, případné připomínky řeší a vyjadřují se k nim. Jsou to omylní lidé, kteří při ověřování používají postupy navržené tak, aby tyto omyly byly do značné míry „zkroceny“ nebo alespoň transparentně přiznány.

Ověřování není jen výrok „pravda“ nebo „nepravda“, ale také zasazení do...
U fact-checku nezáleží jen na verdiktu pravda/nepravda, ale především na jeho...

U fact-checku nezáleží jen na verdiktu pravda/nepravda, ale především na jeho zdůvodnění. To musí být ověřitelné, transparentní a zasazené do kontextu.

„My se snažíme pracovat s veřejně dostupnými zdroji, případně se pak doptáváme institucí, když ty zdroje dostupné nejsou,“ přibližuje praxi Lenka Chudomelová z českého ověřovacího serveru Demagog.cz. „V podstatě by ale měl kdokoli být schopen dojít k tomu výsledku, jako my. A kdokoli si může naše ověření ověřit. Čtenáři nám často posílají připomínky, když jsme něco přehlédli, takže tam funguje i tato kontrola.“

Ve zdůvodnění je nutné vysvětlit, v čem je daný výrok pravdivý nebo nepravdivý. Je zde prostor pro případné polehčující okolnosti nebo doplňující informace.

Třeba když Donald Trump uvedl, že v roce 2016 byl nejvyšší počet vražd za posledních 45 až 47 let. Nebyla to zdaleka pravda (rekord drží rok 1991), a výrok je tak ohodnocen jako „nepravda“. Nicméně vysvětlující text poukazuje na to, že podobné Trumpovo tvrzení o „největším meziročním nárůstu počtu vražd“ je pravdivé. 

Lze tedy spekulovat o tom, že Trump se dopustil nepravdivého výroku tak, že „zjednodušil“ původně pravdivý výrok. V minulosti byl server PolitiFact novináři kritizován za to, že možný omyl hodnotil jako „nehoráznou nepravdu“, a PolitiFact se z toho zřejmě poučil a v pozdějších hodnocení tuto možnost uváděl.

Publikum může ověřit práci lidského ověřovače. Proces automatického ověřovače je prakticky neověřitelný...

Takové zasazení do kontextu je ukázkou práce dobrého fact-checkera, který umí hledat argumenty na podporu autora výroku. Pomáhá tak čtenáři lépe pochopit kontext. Čtenáři mohou tento kontext posoudit a případně ověřovače upozornit na něco, co přehlédl nebo špatně zpracoval. V případě automatického generování verdiktů by však bylo prakticky nemožné ověřit, jak počítač k tomu verdiktu došel. To by časem vedlo k tomu, že by nebyl nikdo, kdo by mohl „hlídat hlídače“, respektive „ověřovat ověřovače“.

Problém 5.Automat místo kritického myšlení

Když Facebook v únoru 2017 oznámil, že bude označovat „falešné zprávy“, využíval k tomu právě data od třetích stran, tedy od ověřovacích služeb. Od označení „podezřelých zpráv“ si sociální síť slibovala, že čtenáři budou takové zprávy méně sdílet a šíření nepravdivých/falešných zpráv se zpomalí.

V prosinci 2017 ovšem Facebook zveřejnil výsledky téměř ročního testování. Označování falešných zpráv nejenže nepomohlo, ale v některých případech situaci ještě zhoršilo. U některých uživatelů vedlo označení jimi oblíbeného názoru za názor „vyvrácený třetí stranou“ k upevnění tohoto přesvědčení namísto jeho oslabení.

Automatické ověřování výroků by podle nás vedlo ke snížené ostražitosti publika

Dalším problémem je samotné označování nepravdivých zpráv. Lidé, kteří si zvyknou na to, že nepravdivé či podezřelé zprávy jsou označeny vykřičníkem, se pak staví méně kriticky k těm, které takto označené nejsou. Paradoxně tak dojde k celkovému oslabení „imunitního systému“ čtenáře, který je tak méně odolný vůči manipulaci.

Téhož efektu se obáváme u automatizovaného ověřovacího systému, který by v reálném čase kontroloval pravdivost politiků. Hrozí podle nás reálné nebezpečí toho, že by si publikum zvyklo spoléhat na verdikt automatického asistenta, což by vedlo ke snížené schopnosti kritického myšlení nebo rozpoznávání manipulace.

„Každá extenze je zároveň amputací.“

Marshall McLuhan, kanadský mediální teoretik, mluvil o technologických vylepšeních jako o „extenzích“ nebo protézách. A varoval, že s každou takovou extenzí zároveň o něco přicházíme, třeba o nějakou schopnost poradit si bez dané technologie.

Opět si vypomůžeme přirovnáním. Třeba s kontrolou pravopisu, což je funkce, kterou dnes v různých podobách využívá většina lidí, vždyť kontrola pravopisu je v podstatě zabudovaná přímo do prediktivních klávesnic na mobilních telefonech. Protože víme, že počítač ověří náš pravopis, máme méně důvodů nutit náš mozek, aby si pamatoval pravopis slov jako výjimka, pointa nebo afghánský. Kdykoli dostupný adresář mobilního telefonu zase znamená, že už nemusíme vyťukávat čísla našich přátel a známých. Výsledkem je, že neznáme skoro žádná čísla zpaměti. Nepotřebujeme to, tak se mozek naučil tyto informace ignorovat a spoléhat na technologickou vymoženost.

Všudypřítomné ověřování pravdivosti výroků – ať by bylo sebespolehlivější – by vedlo k zakrňování důležité lidské schopnosti: skepticky, kriticky a systematicky ověřovat výroky. Ztráta takové schopnosti je pak u politických rozhodování obzvláště problematická, protože na možnosti veřejně diskutovat o politických tématech stojí systém přímé i zastupitelské demokracie.

Hlavní problém tedy vidíme v tom, že automatizované ověřování by si získalo „punc nestrannosti“ a vedlo by k prohloubení už tak problematických lidských vlastností: lenosti kriticky přemýšlet a ochotně přijímat jen tvrzení, která podporují to, což už si beztak myslíme. Pár let s takovými nástroji by stačilo k tomu, abychom místo vlastního úsudku spoléhali na náš oblíbený automatický ověřovač. V už tak komplikovaném světě bychom se tím vzdali možnosti jej pochopit.

Spoléhat se na to, že nás dokonalá a neutrální umělá inteligence zbaví našich omylů, je naivní.

Daleko spíše hrozí, že kvůli podobným automatům se otupí naše schopnost kriticky myslet. (více v závěru článku)

Automatizované ověřovače jsou zatím v plenkách. V různé formě je částečně využívají některé fact-checkingové organizace a novinářské redakce pro urychlení práce při analýze a uvěřování. Počítače nyní „vytipují“, co by se mělo ověřovat, ale reálná ověřovací práce stále připadá lidem z masa a kostí. Jen je ta práce trochu méně mravenčí a zkušený analytik tak dokáže ověřit více výroků a dat.

Není však pochyb, že v horizontu několika let se – alespoň v nějaké formě – objeví systém\, které budou tvrdit, že zvládnou celý proces ověřování v reálném čase. Měli bychom na ně být připraveni, uvědomovat si jejich rizika a jejich nevýhody. Spoléhat se na to, že umělá inteligence bude tím „neutrálním a důvěryhodným soudcem“, který konečně druhé straně barikády vysvětlí, že pravda je na vaší straně, je naivní. Pravděpodobné naopak je, že nás takový „ověřovací automat“ ještě o další krok vzdálí společně prožívané realitě. A dohoda napříč společností tak bude ještě těžší.

Chtěli byste vidět automatizované ověření výroků politiků „chytrým strojem“ v reálném čase?

celkem hlasů: 490

Hlasování skončilo

Čtenáři hlasovali do 0:00 17. února 2019. Anketa je uzavřena.

ne, ověření by nemohlo být neutrální 214
ano, bavilo by mne to 156
ne, nechci přijít o schopnost ověřovat informace 25
ano, zabránilo by to politikům lhát 22
ne, nevěřím, že by to počítač ověřil správně 18
ne (jiné, více) 14
ano (jiné, více) 12
ano, pomohlo by mi to poznat nespolehlivé politiky 10
ano, pomohlo by to ostatním lidem poznat nespolehlivé politiky 10
ne, pravdivost pro mě není důležitá 9
Autor:
 

Nejčtenější

Sexuálně nejvýkonnější vyzvědače přebrali československé rozvědce Sověti

Býval agent československé rozvědky v USA Karel Köcher

Československým komunistickým rozvědčíkům se ve špionáži proti Spojeným státům dlouho nedařilo. Nakonec ale zaznamenali...

Jednosměrná letenka na rudou planetu se odkládá. Mars One krachuje

Ilustrace základny na Marsu, jak si ji představují v organizaci Mars One...

Firma Mars One, která slibovala soukromý let na Mars už v roce 2024, zkrachovala. Plány dostat na Mars lidské obyvatele...

Našel na půdě 35 let starý Apple II, zapnul ho a dohrál uloženou hru

Spoustu let ležel na půdě, po zapnutí funguje „jako zamlada“.

Newyorský učitel našel u rodičů na půdě starý počítač Apple II. Zkusil ho zapnout a překvapivě mohl pokračovat ve hře,...

Lokální předpověď počasí se razantně zpřesní, možná pomáhá i váš telefon

GRAF

Nejpřesnější lokální předpovědi počasí dnes nabízejí aplikace v našich telefonech - i proto, že s nimi samy pomáhají....

V Perském zálivu spustili největší baterii světa. Virtuální a bez lithia

Sodíko-sírové bateriové systémy japonské firmy NGK. Systém, který se vejde do...

Ve Spojených arabských emirátech byla připojena do sítě největší „virtuální“ baterie světa s obřím výkonem a úctyhodnou...

Další z rubriky

Jak vypadá tyranosauří „bobek“ a co z něj můžeme vyčíst

Nejpravděpodobnějším původcem kostních fragmentů v koprolitu bylo mládě...

Zkamenělý exkrement dinosaura není tak jednoduché najít. Ovšem když už se to podaří, co se z něj dá vyčíst?

Gigantický ještěr se žraločími zuby mohl žít a lovit ve smečkách

Rekonstruované kostry tří jedinců druhu Mapusaurus roseae v různých věkových...

Souboj titánů, tak mohlo vypadat zápolení smečky obřích teropodů druhu Mapusaurus roseae s kolosy jménem ...

Vědci chtějí ověřovat Trumpovy lži „chytrým“ automatem. Komu to pomůže?

Vědci vyvíjí nástroj, který bude v reálném čase kontrolovat pravdivost výroků...

Politici rádi mluví, ale jsou často na štíru s fakty. Americká média mají žně například při ověřování výroků prezidenta...

Najdete na iDNES.cz