Pro nová pravidla o umělé inteligenci hlasovalo celkem 523 europoslanců, 46 bylo proti a 49 se zdrželo. Redakce iDNES.cz oslovila české zástupce v europarlamentu, kteří mají k „aktu o AI“ blízko nebo se k němu v minulosti vyjadřovali. Jasné ne řekli Piráti, s nimi hlasovali proti také zástupci komunistů a SPD.
AI má pravidlaAkt o umělé inteligenci je podle expertů prvním svého druhu na světě a mohl by ovlivnit podobné normy také v zemích mimo Evropskou unii. Nařízení zavádí klasifikaci technologií podle způsobu využití a nastavuje různé úrovně omezení podle míry souvisejících rizik. Některé systémy chce EU zcela zakázat, další nástroje jako algoritmy na rozpoznávání obličejů budou podléhat silné regulaci. |
Za Piráty se k pravidlům pro AI vyjádřil europoslanec Marcel Kolaja. Ačkoli souhlasí, že pravidla pro umělou inteligenci jsou potřeba, jejich podoba, která vzešla z jednání s národními vládami, je podle něj velké zklamání.
„Prosadily do nich totiž část, která de facto vytváří právní rámec pro plošné šmírování lidí biometrickými kamerami. Ty dokážou za pomoci umělé inteligence rozpoznávat obličeje lidí, a tak sledovat, kdo, kdy a kde byl a s kým. Pravidla měla takový orwellovský nástroj zakázat, místo toho jej explicitně legalizují. To je zásah do soukromí, pro který Piráti skutečně nikdy ruku nezvednou,“ vysvětluje Kolaja.
Při hlasování se zdržel europoslanec a lídr kandidátky SPOLU do nadcházejících eurovoleb Alexandr Vondra (ODS). „Finální text dojednaný s členskými státy je sice lepší než původní pozice EP, ale stále ne optimální, aby nová norma vedla k podpoře byznysu, který se v EU umělou inteligencí zabývá,“ myslí si Vondra.
První rok s rozšířenou AI. Přinesl propracovanější podvody i konec bakalářek |
Pomůže AI obětem terorismu?
Finální znění aktu naopak vítají lidovci. Podle europoslankyně Michaely Šojdrové tím Evropská unie vytváří obdobný precedens jako u GDPR. Biometrické identifikační systémy v reálném čase bude podle ní možné využít například pro cílené vyhledávaní obětí únosů nebo v boji proti terorismu.
„Právě tato část je klíčová pro hledání pohřešovaných dětí. Každý rok je v EU zaznamenáno přes 250 tisíc takových dětí. Musíme využít potenciál, které tyto technologie nabízejí a ne pouze slepě zakázat jeho přínosy,“ vysvětluje svůj postoj Šojdrová.
Je podle vás potřeba regulovat umělou inteligenci?
Stejný názor má i její kolega a straník Tomáš Zdechovský. „Nástroje AI mohou být dobrým sluhou, ale zlým pánem, proto je nutné stanovit mantinely pro vývoj, které na jednu stranu eliminují rizika. Na druhou stranu však nebudou brzdit dalšímu rozvoji perspektivního oboru,“ říká Zdechovský.
Podle europoslance STAN Stanislava Polčáka je lepší mít pravidla, která v některých částech jsou nedostatečná, než nemít žádná. „Původní ambice byla rozředěná ve výsledné dohodě členských států, EP a Komise. Na druhou stranu se do výsledné podoby dostala větší ochrana lidských práv,“ míní Polčák.
Hackeři díky umělé inteligenci sílí. V Česku proto roste bezpečnostní akademie |
Obavy ze skórování lidí
Také Luděk Niedermayer z TOP 09 akt o umělé inteligenci podpořil. „AI může urychlit využití dnešního stavu vědění v praxi, neb představuje velmi efektivní cestu analyzování dostupných dat a informací,“ sdělil europoslanec.
Již první měsíce po „ostrém startu“ AI podle Niedermayera ukázaly, že AI se bude masivně využívat ve snaze ovlivnit postoje ve společnosti, ne-li v politickém boji.
„Z tohoto pohledu jde o další evoluci technik, které přivedly některé společnosti do situace velkého rozdělení a snížené schopnosti komunikace mezi skupinami s odlišnými názory. Toto je ale problém, kterému nelze čelit zákazy a příkazy, nýbrž vzděláváním, osvětou, srozumitelností politiků a kvalitními médii,“ říká Niedermayer.
S názory pro zavedení pravidel ohledně AI souhlasí také europoslankyně hnutí ANO Dita Charanzová, ta vnímá velká pozitiva ve využívání AI například v oblasti výzkumu a léčení rakoviny. „Během projednávání pro mě bylo cílem, aby akt podpořil inovace v Evropě a zároveň, aby používání AI bylo dostatečně bezpečné pro občany. Budou mít například jistotu, že obsah vytvořený umělou inteligencí bude označen,“ informuje Charanzová.
Kolaja však uvádí příklad z praxe, kdy by mohla být AI nebezpečná. „Já jsem do legislativy třeba prosadil, aby pravidla platila pro takzvaný e-proctoring, neboli programy na kontrolu studentů u zkoušek online. Když je totiž tato umělá inteligence špatně naučená, může jako podvádění vyhodnotit třeba hluk z chodby na koleji,“ vysvětluje Kolaja.
Rizik je ale podle něj více. „Jednou z největších hrozeb jsou třeba programy na kastování lidí pomocí sociálního skóre, které využívá čínská vláda. Takové využití chceme zakázat,“ uzavírá Kolaja.