Premium

Získejte všechny články
jen za 89 Kč/měsíc

Největší problém umělé inteligence: nelze zjistit, „proč“ se rozhodla

Umělá inteligence a strojové učení jsou budoucností průmyslu. Přináší však s sebou problémy, které zatím v oblasti počítačových systémů nebylo potřeba řešit.
Technický ředitel společnosti Fujitsu, Dr. Joseph Reger

Technický ředitel společnosti Fujitsu, Dr. Joseph Reger | foto: Fujitsu

Umělá inteligence a strojové učení byly vždy tak trochu sci-fi. Zejména proto, že jsme neměli k dispozici dostatečně efektivní a výkonné procesory, které by složité procesy umělých neuronových sítí dokázaly v reálném čase zpracovávat.

To se nyní mění. Vznikají procesory i celé výpočetní jednotky optimalizované přímo pro strojové učení a umělou inteligenci. Kupříkladu Fujitsu letos představilo procesor DLU (Deep Learning Unit), Nvidia pak loni „stolní superpočítač“ DGX-1 a letos  „system on chip“ Xavier, které mají na tyto úlohy dostatek výkonu a zároveň rozumně nízkou spotřebu energie.

Dostáváme se tak do momentu, kdy největším problémem technologie nebude samotná technika, ale problémy spíše humanitního charakteru. O tom, co se nyní kolem umělé inteligence děje, jsme si krátce povídali s doktorem Josephem Regerem, technickým ředitelem společnosti Fujitsu.

Zatímco dříve se v souvislosti s umělou inteligenci zpravidla mluvilo o překážkách v podobě nedostatku výpočetního výkonu nebo operační paměti, nyní se hovoří spíše o překážkách etického rázu. Můžete nám přiblížit, v čem spočívají?
S umělou inteligencí jsme přesně v té situaci, kdy lze velice snadno definovat problém a zároveň je velmi obtížné přijít s jeho řešením. Jeden z těžko řešitelných problémů se týká strojového učení, což je podstatná součást systémů umělé inteligence.

Problém je, že nikdy nevíte, na základě čeho se systém něco naučil, a na čem jsou tedy jeho rozhodnutí založena. Celá ta matematika okolo je taková, že nikdo nemůže udělat forenzní rozbor - systém nelze otevřít, prohlédnout si jej a zjistit, na základě čeho se v konkrétním případě rozhodl.

Systém umělé inteligence je vlastně umělá neuronová síť, je to vlastně hrubý model fungování našeho mozku. Můžeme si ji představit jako velkou množinu mozkových buněk a obří množinu jejich vzájemných propojení, tedy synapsí.

Čtěte více

Výsledkem učení je obrovské množství spojení „neuronů“ s různou intenzitou a jsou to jen čísla vyjadřující, co se stane, když neuron dostane informaci, jak o ní informuje další neurony, kdy jde do aktivovaného stavu a jak silně ovlivní další neurony. Prostě hromada čísel. Nezjistíte, jaký vzorec, jakou informaci (vzruch) nesl a obsahoval. Tím je forenzní rozbor nemožný.

Pokud máme software, který není založen na umělé inteligenci a strojovém učení, můžete udělat audit, který zjistí, zda software nemá chyby - ještě předtím, než problém vznikne, stačí jen podezření. A ten zjistí, proč se software v daných situacích chová tak či tak. Se strojovým učením toto nejde, protože to, proč a jak se chová, není naprogramované. Naprogramované je to, jak se učí a dává výsledky. Audit by tak certifikoval kód pro učení, nikoli pro rozhodování - ten není naprogramován, ale naučen. A mechanismy strojového učení jsou známé, tam se při auditu žádné překvapení neobjeví.

A to je velký současný problém lidstva. Budeme provozovat systémy, případně dokonce kritické systémy tak, že je lidé nebudou moci kontrolovat? A pokud ano, bude nutné vždy velmi jasně stanovit, co je ještě akceptovatelné chování takového systému.

Nejspíše bude nutné najít konkrétní problémové oblasti a dohodnout se, co akceptovatelné je a co není, což bude velmi složité, i s ohledem na různé kulturní a historické odlišnosti různých zemí. Je potřeba se dohodnout, která pravidla a které konvence jsou porušitelné a které ne.

Už byl někdy v reálně nasazeném systému s umělou inteligencí takto vzniklý problém odhalen?
Ano a mohu vám dát reálný příklad. Finanční institutce do testovacího provozu nasadila systém využívající strojové učení, který určoval kreditní skóre jednotlivých klientů. No a tento systém začal postupně některé klienty prokazatelně diskriminovat - na základě pohlaví, náboženství a rasy.

Čtěte více

No a teď co s tím. Přijmeme takové chování s tím, že holt tyto parametry nějaký vliv na kreditní skóre mají a tak to je? Nebo je to neakceptovatené, protože to odporuje principům společnosti, případě je to třeba protizákonné nebo dokonce protiústavní? Co uděláte?

Máte možnost proti tomu protestovat, ale nemáte možnost zjistit, proč se systém takto chová. Kdo je zodpovědný? Normálně to je tvůrce systému. Ale v tomto případě je zodpovědný kdo? U koho budete funkčnost systému reklamovat? Tvůrce se může snadno bránit: výsledek učení je závislý na datech a metadatech, která jste systému dodali, je to vaše věc. Poskytl někdo falešná data? A co když byla vstupní data během učení zkreslena (biased) třeba jen jejich nevhodným sběrem a výběrem?

Ve kterých oblastech bude umělá inteligence a strojové učení nejpřínosnější?
Těžko odpovědět, protože je spousta oblastí, do kterých se strojové učení a umělá inteligence teprve promítnou. U některých to bude nenápadné, ale u některých způsobí změnu převratnou. Lze však říci, že vše, co bude možné automatizovat pomocí umělé inteligence, pomocí umělé inteligence automatizováno bude. Mnoho uplatnění bude teprve objeveno a každého průmyslového odvětví se to dotkne. V každém odvětví se totiž hledá zvýšení efektivity a to přesně tyto technologie přinášejí.

A tady se můžeme dostat na úplně jinou úroveň etické otázky: množství pracovních míst, která díky těmto technologiím zaniknou, bude obrovské. A nepůjde přitom o běžný efekt, který byl u všech tří průmyslových revolucí. To je typická reakce mnohých politiků: „Když se podíváme zpátky do historie, tak každá průmyslová revoluce ve výsledku vytvořila více pracovních míst a příležitostí, než kolik v jejím důsledku zaniklo.“ A mají pravdu, protože začínají větu „když se ohlédneme zpět“. Když se podíváme zpět, to je to, co vidíme. Ale současná otázka je „když se podíváme dopředu, co nás čeká?“ A na to prostě neznáme odpověď. A je příliš jednoduché a příliš laciné říci, že „tohle se stalo, a proto se to stane vždy opět, stejným způsobem“. To opravdu jisté není.

Otázku, co nastane, řešit musíme, a to zejména v jakém rozsahu a jak rychle to nastane. Opravdu vznikne takové množství pracovních příležitostí, že to kompenzuje, nebo dokonce překoná příležitosti současné, jako tomu bylo v minulosti? Tím si opravdu nejsem jistý. Vývoj IT se zvyšuje exponenciálně, dokonce se již překonává Moorovo pravidlo, vše je rychlejší a efektivní. Je to bezprecedentní rychlost, a tak se tentokrát opravdu může stát, že zanikne více pracovních míst, než jich ve stejném čase dokážeme najít.

Musí tedy přijít společenská debata nad tím, co uděláme, když se opravdu nepodaří najít dostatek pracovních míst pro všechny. V mnoha zemích je to již realitou - práce je z mnoha důvodů nedostatek. Co uděláme, až to přijde?

Občas slyším komentář „tentorkát to ještě zvládneme“ a já odpovídám, že i přesto bychom tu debatu měli vést a připravit se na příště, protože příště bude za chvíli a bude dobře, když budeme připraveni. První průmyslová revoluce byla na začátku devatenáctého století - parní motory. Zhruba za sto let přišla druhá revoluce - elektrifikace. Pak po 50 letech přišlo numerické ovládání a průmyslová automatizace, po 25 letech přišel průmysl 4.0 a současná revoluce. Kdy bude další? Bude to za dvanáct let?

Jako IT firma jste za tyto budoucí jevy svým způsobem zodpovědní.  Vidíte již nějaké řešení?
Toho jsme si vědomi, technologické firmy jsou za tyto změny a následky zodpovědné. Ale to neznamená, že je mohou vyřešit. Chceme se však účastnit debaty a chceme v rámci svých možností přispět k řešení.

Ve Fujitsu jsme přesvědčeni, že technologie jsou silou dobra. Každá technologie může být a v minulosti často byla použita jako zbraň. Historie je plná příkladů „weaponizace“ všeho možného. Jakmile je něco efektivní, překvapivě dobré, revoluční, může to být proměněno ve zbraň. Jsme si vědomi, že dáváme lidem do ruky velmi silné technologie a jsme rádi, když jsou používané pro dobro. ICT společnost ale nemůže vyřešit případné následky sama, je to celospolečenská otázka vyžadující celospolečenskou debatu.

Čtěte více ...

Zejména je třeba naslouchat lidem, kteří technologie odmítají. Jsou v každé společnosti a chtějí, aby se s vývojem zpomalilo. Je potřeba jim dát prostor, ačkoli s nimi nesouhlasíme, protože technologie považujeme za prostředek k dobru, a proto chceme vyvíjet co nejrychleji. Ale obavy a argumenty oponentů musíme vyslechnout.

Již nyní se některé skupiny zabývají různými zvláštními nápady, jako je základní nepodmíněný příjem, který by měl být v jejich představách nastaven tak, aby i lidé, kteří nebudou mít zaměstnání, mohli dále slušně žít. Pokud bude exponenciálně růst i produktivita společnosti, tak si to společnost bude moci pravděpodobně dovolit, jen musíme nalézt cestu, jak to udělat správně. Rozdělovat bohatství inteligentními způsoby a snažit se tím zabývat. Stojí to za zkoušku. Ve Švýcarsku se o tom hlasovalo, podpora byla 30 procent, což je překvapivě mnoho.

Ale je to jen jedna možná cesta k cíli a já nejsem vůbec přesvědčený o tom, že je to ta správná. Ale je potřeba ji prozkoumat.

  • Nejčtenější

Námořníci USA propašovali před 100 lety na palubu bitevní lodi prostitutku

v diskusi je 30 příspěvků

13. dubna 2024

V dubnu 1924 zažilo americké námořnictvo obrovský skandál, který se dostal na titulní stránky...

Uvidíme v budoucnu na obloze druhý Měsíc? Příčinou může být neobvyklá hvězda

v diskusi je 13 příspěvků

17. dubna 2024

Velmi neobvyklá hvězda éta Carinae v 19. století náhle zjasnila a stala se druhou nejjasnější...

{NADPIS reklamního článku dlouhý přes dva řádky}

{POPISEK reklamního článku, také dlouhý přes dva a možná dokonce až tři řádky, končící na tři tečky...}

Skvělý filmový zvuk bez velké instalace. Test nejzajímavějších soundbarů

v diskusi je 17 příspěvků

15. dubna 2024

Položíte jej na polici před televizor, propojíte kabelem, zapojíte do zásuvky a během pár chvil se...

Dawesův plán na čas stabilizoval Německo, ale nástup Hitlera neodvrátil

v diskusi je 15 příspěvků

16. dubna 2024

Německá vláda přijala před 100 lety, v dubnu 1924, Dawesův plán. Byl to americký projekt na...

{NADPIS reklamního článku dlouhý přes dva řádky}

{POPISEK reklamního článku, také dlouhý přes dva a možná dokonce až tři řádky, končící na tři tečky...}

Patnáct zbytečných obětí. Před 100 lety vybuchl důl Gabriela na Ostravsku

v diskusi jsou 4 příspěvky

12. dubna 2024

Dvanáctý duben 1924 přinesl vážnou důlní katastrofu v Československu. Výbuch v dole Gabriela v...

Znovuzrození japonských letadlových lodí. Ve výzbroji budou mít F-35B

v diskusi nejsou příspěvky

19. dubna 2024

Japonsko má ve své ústavě zakázáno vlastnit ofenzivní zbraně, jako jsou letadlové lodě. Doba...

Lotyšská armáda je malá, materiálem nehýří, ale Ukrajině něco ze svého poslala

v diskusi je 5 příspěvků

18. dubna 2024

V roce 2004 vstoupilo Lotyšsko do NATO, přesto nemůže nechat svou případnou obranu pouze na bedrech...

Pes na Měsíci či Marsu už nemusí být fikce. NASA trénuje průzkumného robopsa

v diskusi jsou 2 příspěvky

17. dubna 2024  15:12

Vědci z projektu Lassie, sponzorovaném americkou NASA, zdokonalují robotického psa pro použití při...

Na dům mu spadl odpad z vesmíru. Nyní NASA potvrdila, že je to kus z baterie

v diskusi je 7 příspěvků

17. dubna 2024  11:50

Před několika týdny proběhla médii informace o varování německého Spolkového úřad pro civilní...

Náhle zemřel zpěvák Maxim Turbulenc Daniel Vali, bylo mu 53 let

Ve věku 53 let zemřel zpěvák skupiny Maxim Turbulenc Daniel Vali. Letos by se svou kapelou oslavil 30 let na scéně....

Sexy Sandra Nováková pózovala pro Playboy. Focení schválil manžel

Herečka Sandra Nováková už několikrát při natáčení dokázala, že s odhalováním nemá problém. V minulosti přitom tvrdila,...

Charlotte spí na Hlaváku mezi feťáky, dluží spoustě lidí, říká matka Štikové

Charlotte Štiková (27) před rokem oznámila, že zhubla šedesát kilo. Na aktuálních fotkách, které sdílela na Instagramu...

Vykrojené trikoty budí emoce. Olympijská kolekce Nike je prý sexistická

Velkou kritiku vyvolala kolekce, kterou pro olympijský tým amerických atletek navrhla značka Nike. Pozornost vzbudily...

Rohlík pro dítě, nákup do kočárku. Co v obchodě projde a kdy už hrozí právník?

V obchodech platí pravidla, která občas zákazník nedodržuje. Někdy se navoní parfémem, aniž by použil tester, nebo...