ilustrační snímek | foto: FOX

Minority Report v realitě. Jak strojové učení pomůže předpovídat budoucnost

  • 18
Americká armáda testuje experimentální systém, který bude „předpovídat” důležité události několik dní předtím, než se skutečně stanou. Hlavním cílem projektu je predikovat s dostatečným předstihem vojenské přesuny a včas reagovat na případné hrozby.

Píše se rok 2054 a Washington, D.C., je očištěn od kriminality. Za tímto úspěchem stojí speciální komando PreKrim, které dokáže zabránit trestnému činu ještě předtím, než se stane.

Ve filmu Minority Report z roku 2002 od Stevena Spielberga s Tomem Cruisem v hlavní roli předpovídají budoucnost tři vědmy namočené v podivné bílé tekutině. Americké armádě v tom bude pomáhat systém strojového učení.

Americké ministerstvo obrany představilo 28. července na tiskové konferenci ambiciózní projekt Global Information Dominance Experiments (GIDE), který pomůže s predikcí přesunu vojáků a armádní techniky jiných států. Získané údaje budou sloužit k včasným preventivním či odstrašujícím opatřením.

Přístup ke globálním datům

„GIDE představuje zásadní změnu v tom, jak využíváme data a informace k rozšíření prostoru vůdčím osobnostem pro jejich rozhodování z taktické na strategickou úroveň. Nejde pouze o vojenské představitele, dává to příležitost i vedoucím osobnostem civilního života,” uvedl na konferenci projekt generál amerického letectva Glen D. VanHerck.

Z jeho vyjádření je zřejmé, že program využívající strojové učení nebude předpovídat budoucnost v pravém slova smyslu. Bude čerpat informace z obrovského množství dat shromážděných z globálních zdrojů, jako jsou satelitní snímky, zpravodajské informace, radarové údaje, čidla umístěná v terénu a další. Tyto údaje bude sdílet s americkým armádním velením.

Pokud například tento systém odhalí ponorky připravené k odplutí z přístavu, znamená to jejich blížící se přesun do moře. Jakmile zůstane na parkovišti vojenské základny méně aut či program zaznamená zvýšenou aktivitu v rizikové lokalitě, může to nahlásit jiné své části, kde budou data analyzována coby součást další rozsáhlé sady.

GIDE bude pracovat s daty rychleji než lidští zaměstnanci. Bude tak možné efektivněji vyhodnocovat rizikové situace a včas jednat. 

„Data existují. A my děláme to, že tato data zpřístupňujeme a sdílíme do úložiště, kde je analyzuje strojové učení. Data jsou zpracována opravdu rychle a jsou poskytována osobám s pravomocí rozhodování,” řekl generál.

Americké ministerstvo obrany je na informace o funkčnosti projektu skoupé, ale uvedlo, že GIDE má za sebou třetí fázi testů a čeká jej čtvrtá.

Že tento systém dokáže předvídat události či lidské chování, není nic nového. Díky programům využívajícím strojové učení máme například mnohem přesnější modely a simulace týkající se různých událostí, od voleb až po vývoj šíření nemocí.

Jako v The Sims

V roce 2014 vypukla v západní Africe epidemie eboly. Nemocných přibývalo, a tak byli požádáni o pomoc počítačoví experti. Tým měl za úkol předpovědět vývoj šíření nemoci. Po sedmi týdnech vytvořil model založený na datech z reálného světa, jako jsou počty případů, míra infekčnosti, zdravotní systémy, rozdělení populace, demografie, ekonomické a sociální interakce a kulturní a cestovní návyky.

Model předpověděl, že pokud se nemoc nepodaří dostat pod kontrolu, nakazí se 1,4 milionu lidí. Také ukázal, kde budou nejvíc zapotřebí lékařské týmy, které tam byly skutečně vyslány. Na jeho základě se rovněž vyhlásila karanténní opatření.

Nelze říct, zda model o šíření nemoci předpovídal vývoj dobře, nakonec se nakazilo „pouze” 28 000 lidí.

V říjnu roku 2020 vrcholil prezidentský volební souboj Donalda Trumpa a Joa Bidena. Trump byl podle průzkumů pozadu a počítačoví vědci předpovídali na základě vlastních modelů jeho konec.

Předpovědi se týkaly také intenzivní reklamy na sociálních sítích či výtržností v případě prohry Donalda Trumpa o prezidentské křeslo. K této predikci ovšem došlo v roce 2016, přičemž útok na americký Kapitol kvůli prohře bývalého prezidenta nastal začátkem letošního roku. Zemřeli při něm čtyři lidé.

Za těmito přesnými modely stojí systém nazývaný multiagentní umělá inteligence (MAAI), schopný vytvářet celé virtuální společnosti.

MAAI vytváří modely založené na simulovaných aktérech (agentech), mezi nimiž dochází k interakci. Agenti jsou naprogramováni tak, aby reagovali na virtuální prostředí a podle toho měnili chování. Vznikne tak model evokující živý organismus či umělý život.

Pokud by chtěli vědci vědět, co se stane, když do kteréhokoli města v západní Evropě dorazí dvacet tisíc syrských uprchlíků, a jak jejich začlenění provést bezpečně, vybudují s MAAI právě takovou umělou společnost a pozorují interakce agentů reagujících na sebe navzájem i na nové prostředí.

Tyto modely pomáhají pochopit komplexní systémy a předpovídat jejich vývoj. Zároveň lze zjistit, co se stane, když dojde k zásahu.

Tento systém připomíná slavnou hru The Sims. Jenomže modely MAAI nejsou nevinnou hrou, v níž budujete virtuální společnost. Pohybují se v nich miliony agentů, kteří mohou ovlivnit svět.

A stejně jako jiné vyspělé technologie, také pokročilé predikční metody založené na AI jsou zneužitelné. Ve špatných rukou mohou sloužit k vyvolání nepokojů, zmanipulování voleb či k tajným sociálním experimentům.

Nejslavnější případ

V roce 2017 se stal Donald Trump prezidentem Spojených států. Do jeho kampaně v roce 2016 ale byla zapojena kontroverzní analytická společnost Cambridge Analytica, která tvrdí, že dokáže „měnit” chování veřejnosti.

Společnost byla v hledáčku vyšetřovatelů z Evropy i Ameriky pro podezření z ruského vměšování do amerických voleb.

Podle webu The New York Times sbírala Cambridge Analytica soukromé údaje o volbách z profilů uživatelů Facebooku pro údajnou předpověď výsledků, ale ve skutečnosti šlo o jejich manipulaci.

Záměr firmy pak přiznal její bývalý zaměstnanec Christopher Wylie. „Využili jsme sociální sítě Facebook k analýze milionů účtů. Vyvinuli jsme tak cílené volební reklamy s využitím těchto dat. Byl to základ celého fungování firmy.” Firma podle jeho slov nabízela služby i v Česku.

Cambridge Analytica po tomto skandálu ukončila činnost.

20. března 2018