ilustrační snímek

ilustrační snímek | foto: Profimedia.cz

Evropa připravuje regulaci umělé inteligence. Bude mít čtyři stupně rizika

  • 31
Generativní umělá inteligence (AI) vypuštěná mezi běžné uživatele vyvolala obavy o nekontrolovaný vývoj v této oblasti. Proti tomu se někteří ohrazují a také vlády hledají cestu, jak nastavit správná pravidla. EU již řadu let připravuje rámec, který by stanovil pravidla používání umělé inteligence.

Velkou debatu o dalším vývoji toho, co nyní nazýváme umělou inteligencí, vyvolal otevřený dopis mnoha osobností, které žádaly půlroční moratorium na její vývoj. I když se může zdát, že je nesmyslné žádat po firmách nebo státech, aby zastavily vývoj generativní umělé inteligence, než budou přijata pravidla, která by ji měla udržet pod kontrolou, nastavit mantinely jejího fungování je nutné.

Mělo by se tak zabránit takovým krokům, jaké například udělala nedávno Itálie, která zakázala provoz ChatGPT na svém území. Důvodem byly obavy z narušení bezpečnosti dat, když se část komunikace uživatelů s touto službou dostala na veřejnost a také neexistence právního základu pro masové shromažďování údajů, či potenciál ChatGPT šířit dezinformace.

Obecně většinu vlád příchod tohoto typu systémů strojového učení zastihl nepřipravené, ostatně stejně jako většinovou veřejnost. Až nyní tak například slyšíme, jak se Čína chystá regulovat umělou inteligenci, aby „výstupy těchto technologií odpovídaly socialistickým hodnotám“.

Čína nespí, vyvíjí konkurenci pro ChatGPT a chce regulaci umělé inteligence

Na druhé straně USA nepřijaly žádná opatření k omezení ChatGPT, ačkoli podle CNBC byla podána stížnost Federální obchodní komisi, která tvrdí, že nejnovější velký jazykový model GPT-4 od OpenAI porušuje pokyny této agentury pro provoz umělé inteligence.

Evropská unie je v tomto ohledu tak jedna mála, která se regulací umělé inteligence zabývá již nějakou dobu. První diskuze proběhla před sedmi lety a postupně vyústila v návrh harmonizovaných pravidel o umělé inteligenci zkráceně nazývané EU AI Act. O jeho posledním návrhu mají na přelomu dubna a května hlasovat poslanci Evropského parlamentu.

„Pravidla pro AI dostupnou na trhu Unie nebo jinak ovlivňující obyvatele Unie by se měla zaměřovat na člověka, aby lidé mohli důvěřovat tomu, že se tato technologie používá bezpečným způsobem a v souladu s právními předpisy, včetně dodržování základních práv,“ píše se v preambuli návrhu.

V podstatě se tím mají stanovit harmonizovaná pravidla pro vývoj, uvádění na trh a používání AI v Evropské unii.

Cíle regulačního rámce EU pro umělou inteligenci

  • zajistit, aby systémy AI, které budou uváděny na trh Unie a používány, byly bezpečné a aby byly v souladu se stávajícími právními předpisy o základních právech a hodnotách Unie,
  • zajistit právní jistotu s cílem usnadnit investice a inovace v oblasti AI,
  • zlepšit správu a účinné vymáhání stávajících právních předpisů upravujících základní práva a bezpečnostní požadavky platné pro systémy AI,
  • usnadnit rozvoj jednotného trhu pro zákonné, bezpečné a důvěryhodné aplikace AI a zamezit roztříštění trhu.

Zdroj: Eur-lex

Kromě využívání umělé inteligence společnostmi se zaměří také na AI používanou ve veřejném sektoru a při vymáhání práva. Bude fungovat společně s dalšími zákony, jako je obecné nařízení o ochraně osobních údajů (GDPR).

Evropské orgány navrhují klasifikaci různých nástrojů umělé inteligence podle vnímané míry rizika, od nízké po nepřijatelnou. Například nejvyšší nepřijatelné riziko bude zahrnovat všechny systémy umělé inteligence považované za jasnou hrozbu pro „bezpečnost, život a lidská práva.“ Jako příklad je uváděno například sociálního bodování občanů vládami nebo hračky s hlasovým asistentem, který podporuje nebezpečné chování.

Jednotlivé stupně posuzovaných rizik umělé inteligence v AI Act Evropské unie.

Vlády a společnosti využívající tyto nástroje umělé inteligence budou mít v závislosti na míře rizika různé povinnosti. Zákon je rozsáhlý a bude se vztahovat na každého, kdo poskytuje výrobky nebo službu využívající umělou inteligenci.

Stále přitom není jasné, jaké požadavky se budou vztahovat na umělé inteligence určené pro všeobecné účely, kam patří i nyní populární generativní AI. V návrhu se o nich hovoří jako o GPAIS (General Purpose AI System).

Podle agentury Reuters se mnohé společnosti obávají, že jejich technologie bude zařazena do kategorie „vysoce rizikové“ AI, což by vedlo k přísnějším požadavkům na dodržování předpisů a vyšším nákladům. Řada amerických technologických gigantů tak lobovala (PDF), aby z povinností uložených vysoce rizikovým systémům umělé inteligence vyloučili GPAIS. Stále se tak musí vyjasnit, zda všechny formy GPAIS budou označeny za vysoce rizikové.

Nyní se tak čeká, jak proběhne parlamentní rozprava a hlasování, aby poté mohl proběhnout trialog mezi zástupci Evropského parlamentu, Rady Evropské unie a Evropské komise. Teprve pak může začít proces harmonizování práva ve členských zemích a to může trvat pár let. Mezitím se umělá inteligence může posunout mílovými kroky dále.