ilustrační snímek | foto: Profimedia.cz

EU chystá regulaci umělé inteligence. Experti se obávají odlivu mozků

  • 135
Umělá inteligence jako dobrý sluha, ale zlý pán. V takovém duchu se nese plánovaná regulace, kterou chce Evropská komise v tento týden představit veřejnosti. Jenže experti unijní přístup kritizují. Plošná regulace podle nich zpozdí vývoj a nasazení některých technologií na evropském trhu.

Do zahraničních médií minulý týden unikl dokument, který má zavést plošnou regulaci umělé inteligence na úrovni EU. Oficiálně by Evropská komise měla představit své záměry tuto středu.

Bojujete ve vaší firmě s odlivem mozků? Najděte si nové zaměstnance rychle a efektivně na internetovém pracovním portálu jobDNES.cz.

Dokument staví regulaci na definici takzvaných vysoce rizikových systémů umělé inteligence (AI). Jde například o umělou inteligenci používanou pro nábor zaměstnanců nebo pro monitorování výkonů pracovníků. Rovněž jsou zmíněné systémy, které v rámci bank vyhodnocují bonitu lidí, nebo takové, které asistují při soudních procesech či zpracovávají žádosti o azyl a víza.

Problémem je, jaké množství povinností musí podnikatel, který se svým produktem do této kategorie spadne, splnit.

Jan Kleslašéf projektu Evropského centra excelence v AI

Poskytovatelé vysoce rizikových systémů by měli předvídat zneužití svých softwarů a připravit se na něj. Požaduje se po nich podrobná dokumentace a pravidelná kontrola prováděná člověkem. Vysoce rizikové AI systémy by rovněž měly nést CE značku, která by potvrzovala, že software je v souladu s regulací. Podle dokumentu má vzniknout i nová instituce – Evropská rada pro umělou inteligenci, která bude v budoucnu určovat, jaké další systémy AI jsou vysoce rizikové.

Čína jako odstrašující případ

Dokument zakazuje systémy masového dohledu nebo takzvané systémy sociálního kreditu, které shromažďují data o jednotlivcích a následně je hodnotí podle „společenské důvěryhodnosti“. Takový systém už využívá například Čína.

Výjimka

Komise v dokumentu zmiňuje výjimku, která by členským státům umožnila používat technologie masového dohledu, pokud by EU zrovna bojovala se závažnou trestnou činností. Mohlo by dojít k povolení použití technologie pro rozpoznávání obličeje třeba v případě pátrání po teroristech.

Shromažďovaná data mají tamější politické moci sloužit jako podrobné životopisy obyvatel. Každý krok obyvatele, gesto, neformální rozhovor s přáteli, pracovní vztah, ale i známost z dětství, to vše se dá v konečném důsledku zneužít státním aparátem třeba tak, že člověku bude odepřena možnost koupit dům na hypotéku nebo poslat potomka na vysokou školu.

Jak zmiňuje europoslankyně Dita Charanzová (za ANO), umělá inteligence může být v řadě odvětvích průlomovým pomocníkem, rovněž ale budí obavy. „Nikdo si asi nechceme připadat jako v Číně, kde vás na každém kroku sleduje pět kamer s rozpoznáváním identity. Pojem Velký bratr tady dostal úplně nový rozměr, tam se Evropa dostat nesmí,” říká Charanzová.

7. září 2020

„Je třeba hledat takové řešení, které umožní, aby AI byla maximálně užitečná pro společnost, a zároveň poskytne záruky, že její použití nebude narušovat ochranu soukromí a osobních údajů,“ doplňuje europoslanec Jiří Pospíšil (TOP 09).

Lidská práva zajištěna

Snaha Evropské unie zhmotněná ve zmiňované regulaci europoslancům dává smysl. Jenže odborníci upozorňují, že navrhovaná pravidla jsou robustní, přísná a zároveň je jejich popis uvedený v dokumentu příliš vágní a neurčitý. Podle expertů může zavedení regulace přinést řadu negativních dopadů, které Evropu zastaví v čase, zatímco se Spojené státy a Asie budou posouvat mílovými kroky dopředu.

Například Jan Klesla, který řídí projekt Evropského centra excelence v AI vedený pražským ČVUT, zdůrazňuje, že Evropská unie již předpisy, které by potíraly zmiňované problémy, má. Lidská práva zde střeží například Charta základních práv EU nebo Úmluva o ochraně lidských práv a základních svobod.

„Nikdo tak nesmí nikoho diskriminovat podle věku, pohlaví či rasy, ať je to třeba hostinský nebo systém založený na strojovém učení,“ říká Klesla. Případy, kdy umělá inteligence diskriminovala konkrétní skupinu obyvatel, se odehrávají zejména ve Spojených státech či v Číně.

„V Evropě nemáme zatím ani jeden, a to právě proto, že u nás už dávno platí celá řada předpisů, kromě obecné ochrany základních práv i přísná ochrana spotřebitele nebo osobních údajů v GDPR,“ komentuje Klesla.

Regulace už neřeší to, jestli se nám vyplatí zdržet pokrok a čekat třeba šest let až někdo postaví vyvážený dataset.

Martin Rehákzakladatel firmy Resistant AI

Odliv mozků

Co tedy může regulace způsobit? „Obrovskou právní nejistotu, odliv mozků a mladých podnikatelů z EU a nejlepší dárek pro Borise Johnsona k brexitu,“ odpovídá na otázku Klesla.

Proti fake news umělou inteligencí. Česká firma vyvinula nový program

„Rizikové je podle Komise třeba prověřování bonity klientů finančních institucí, ty ale podléhají tvrdé regulaci a přísnému dohledu a stejného cíle dosahuje i zákon o spotřebitelském úvěru, mimochodem implementace směrnice EU. Další problém je, jaké množství povinností musí podnikatel, který se svým produktem do této kategorie spadne, splnit. Jde o vnitřní předpisy, kontrolu a především certifikace, takzvané posuzování shody, známé značkou CE. ve složitých případech až roky trvající nákladná procedura, bez které nesmí na trh EU. Doslova se tam píše, že na AI systém se má nalepit značka CE, což jen dokresluje absurditu,“ popisuje Klesla.

Pokrok si žádá chyby

Pro poskytovatele vysoce rizikových systémů AI zavádí regulace povinnost testovat jejich software na kvalitních datových souborech. Například u samořídicích aut jde o soubory fotografií a videosekvencí chodců. 

„V USA se například řeší, že v těchto databázích, které rozpoznávají chodce, je nižší reprezentace menšin než většinové populace. Systémy pak mohou mít horší výkonnost u příslušníků menšin a tím pádem i vyšší pravděpodobnost, že takové auto příslušníka menšiny srazí,“ vysvětluje expert na umělou inteligenci Martin Rehák, jehož firma Resistant AI působí v oblasti kyberbezpečnosti.

Řidiči Amazonu jsou pod drobnohledem. Na jejich flákání dohlíží kamery

Jenže i v požadavku na kvalitní datové soubory je háček. „Trénování AI modelu pouze na vyvážených datasetech je samo o sobě skvělou myšlenkou. Jsou tu ale i oblasti, pro které takové datasety neexistují. Regulace už neřeší to, jestli se nám vyplatí zdržet pokrok a čekat třeba šest let, až někdo postaví vyvážený dataset,“ uvádí Rehák.

„Navíc nasazení samořídicích aut na trh o tři roky dříve může celkově zachránit více životů i u dané menšiny, protože samořídicí auto bude zkrátka bezpečnější než auto řízené člověkem,“ dodává Rehák.

Problém je v tom, že regulujeme něco, o čem toho ještě moc nevíme.

Radim Polčákprorektor Masarykovy univerzity

Ačkoli má plánovaná regulace dobré úmysly, může podle Reháka zpomalit nasazení technologií v Evropě a snížit konkurenceschopnost zdejších podnikatelů a startupů. 

„Prosazením podmínky, že systémy musí být perfektní, zpomalíte jejich vývoj a poškodíte tím přístup evropského průmyslu a zákazníků k novým technologiím, což poškodí jejich konkurenceschopnost. Mezinárodní konkurence, které postačí prokázat jen to, že jejich systémy jsou lepší než současný stav, může mezitím Evropě utéct,“ míní Rehák.

Reálné problémy versus hrozba terminátora

Prorektor Masarykovy univerzity a expert na informační technologie a právo Radim Polčák zdůrazňuje, že regulace na evropské úrovni potřeba je. I on má však pochybnosti o způsobu, jakým k problematice Evropská komise přistupuje. „Problém je v tom, že regulujeme něco, o čem toho ještě moc nevíme. Regulace tak může dost zavřít trh. Přitom potřebujeme, aby zde fungovaly startupy, aby se tu vyvíjely technologie,“ říká Polčák.

EU vadí technologická závislost. Chce vyrábět špičkové polovodiče ve velkém

„Použití autonomních systémů by se mělo regulovat v rámci jednotlivých sektorů, například ve zdravotnictví, v justici či ve veřejné správě. Plošná regulace je podle mě kontraproduktivní,“ dodává akademik.

Otázkou zůstává, jak tedy k zákonům o umělé inteligenci přistupovat. Jan Klesla z Evropského centra excelence v AI vidí cestu v dobrovolných kodexech, které by do svých struktur zaváděly (a vlastně už zavádí) firmy samotné. „Správná cesta by byla kromě samoregulace také úprava jednotlivých předpisů, které už máme, například vyřešit otázku, kdo odpovídá za to, když vás nabourá tesla na autopilota, a z jakého povinného ručení se to zaplatí. Jde o reálné dnešní problémy, ne teoretické ohrožování svobod, které nás v EU ani nenapadne,“ míní Klesla.

23. srpna 2018