ChatGPT od OpenAI je nejrozšířenější varianta generativní umělé inteligence

ChatGPT od OpenAI je nejrozšířenější varianta generativní umělé inteligence | foto: Profimedia.cz

I šéf firmy, která vyvinula ChatGPT, požaduje regulaci umělé inteligence

  • 14
Generativní umělá inteligence vstoupila do našich životů jako povodeň a tak na ni nebyl nikdo příliš připraven. Na její rizika proto upozorňují mnozí a žádají nějaký způsob její regulace. Hovořil o ní před kongresem i šéf firmy OpenAI.

Vládní opatření budou „klíčová“ při snaze omezit rizika spojená s využíváním umělé inteligence, řekl tento týden při slyšení v americkém Kongresu šéf společnosti OpenAI Sam Altman. Ředitel společnosti stojící za revolučním programem ChatGPT mimo jiné vyjádřil podporu zavedení systému s bezpečnostními standardy pro uvádění podobných aplikací na trh. Agentura AP poznamenala, že ovšem aktuálně nic nenasvědčuje tomu, že by američtí zákonodárci měli připravit soubor pravidel pro využívání umělé inteligence (AI).

Altman v připraveném projevu uvedl, že „vláda Spojených států by měla zvážit kombinaci kritérií pro povolení nebo registraci při vývoji a uvádění modelů AI… souběžně s pobídkami k plnému dodržování těchto podmínek“. Zároveň vyjádřil názor, že regulace by neměly blokovat snahu o inovace, píše list The Washington Post. Bezpečnostní požadavky pro firmy v oblasti AI by měly být „dostatečně flexibilní v zájmu adaptace na nový technologický pokrok“, řekl jednomu z podvýborů amerického Senátu Altman, který v nejbližších týdnech plánuje podobná vystoupení po celém světě.

Slyšení navazuje na měsíce překotného vývoje na poli umělé inteligence, který spustilo loňské uvedení chatovacího programu ChatGPT. Ten spadá do kategorie takzvané generativní umělé inteligence a dokáže na základě „tréninku“ na obrovském množství dat produkovat výstupy těžko rozlišitelné od lidských projevů. Jiné programy fungující na stejném principu mohou generovat obrázky či zvukové stopy silně připomínající snímky nebo hlasy skutečných lidí.

Vlády a regulatorní orgány po celém světě nezvládají s vývojem držet krok, což přispívá k varováním ohledně potenciálních úskalí nové technologie. Obavy se týkají nejrůznějších oblastí od školství, přes zábavní průmysl až po manipulaci s informacemi na internetu, přičemž zaznívají i od samotných tvůrců současných datových modelů.

Altman už dříve uvedl, že umělá inteligence podle něj bude vyžadovat „nový zákon“, nyní v tomto směru poskytl nové podrobnosti. Mimo jiné podpořil myšlenku mezinárodní organizace, která by v dané sféře vytvářela standardy, přičemž nabídl přirovnání k regulaci jaderných zbraní. Před americkými senátory prohlásil, že vládní zásahy „budou klíčové pro omezení rizik čím dál silnějších“ systémů umělé inteligence.

Za jednu z otázek, které mu dělají největší starosti, označil Altman schopnosti nových modelů manipulovat s lidmi a „poskytovat jakési... interaktivní dezinformace“. Během slyšení se vyslovil pro právní i firemní normy, které by ošetřovaly možnosti politických subjektů využívat generativní AI při přesvědčování voličů během kampaní. „Jsem z toho nervózní,“ citovala šéfa OpenAI agentura Reuters.

Než nám sebere práci. Umělá inteligence může působit problémy již dnes

V Kongresu se podle AP nic takového aktuálně nerýsuje, americké úřady nicméně slíbily tažení proti „škodlivým“ službám založeným na AI, které porušují existující pravidla ochrany spotřebitelů a občanská práva. V americké federální zákonodárné moci, kterou dlouhodobě paralyzují politické spory a obstrukce, jsou jakékoli debaty o zásadní regulaci nových technologií velmi složité. V uplynulých letech opakovaně vyzýval k opatřením zaměřeným na ochranu soukromí a regulaci internetového obsahu šéf společnosti Meta Mark Zuckerberg, žádný takový krok se ale nedostavil.

Evropa postoupila v přípravě regulace

Zatímco firmy od velkých až po ty začínající se předhánějí ve vývoji produktů využívajících umělou inteligenci, regulací těchto nástrojů se nezabývají jen úřady v USA. Evropská unie se přibližuje k přijetí „aktu o umělé inteligenci“, který by aplikace rozdělil do různých kategorií a zavedl různá omezení podle toho, jaké s sebou nesou riziko.

V polovně května byl Výborem pro vnitřní trh a Výborem pro občanské svobody odsouhlasen návrh legislativy, jejímž základem je soubor pravidel navržených Evropskou komisí pro jednotnou definici složitých systémů algoritmů označovaných souhrnně jako umělá inteligence. EU chce také klást důraz na bezpečnost, transparentnost, prevenci diskriminace a ohleduplnost k životnímu prostředí.

Nástroje tohoto typu komise navrhla klasifikovat podle vnímané míry rizika, od nízké po nepřijatelnou. Mezi nepřijatelné, a tedy zakázané, mají být zařazeny například ty technologie, které používají podprahové nebo záměrně manipulativní techniky, zneužívají zranitelnosti lidí nebo se používají k sociálnímu skórování, tedy ke klasifikaci uživatelů na základě jejich chování, socioekonomického statusu nebo osobních charakteristik.

Jednotlivé stupně posuzovaných rizik umělé inteligence v AI Act Evropské unie.

Europoslanci chtějí výslovně zakázat rozpoznávání emocí, profilování s pomocí AI k policejním účelům nebo zneužívání biologických údajů ze sociálních sítí. Členové příslušných výborů navrhli také zahrnout povinnosti pro poskytovatele služeb AI zajistit bezpečnost, zdraví lidí a respektování zákonů. Povinná by podle nich měla být i registrace v databázi EU.

„Jsme na pokraji zavedení přelomového právního předpisu, který musí odolat výzvě času. Je nezbytné vybudovat důvěru občanů ve vývoj umělé inteligence, nastavit evropskou cestu pro řešení mimořádných změn, k nimž již dochází, a také usměrnit politickou debatu o umělé inteligenci na celosvětové úrovni. Jsme přesvědčeni, že náš text vyvažuje ochranu základních práv s potřebou poskytnout podnikům právní jistotu a stimulovat inovace v Evropě,“ uvedl k návrhu jeden ze zpravodajů Brando Benifei, člen socialistické frakce S&D.

,