„Zmírnění rizika vyhynutí kvůli umělé inteligenci by mělo být globální prioritou spolu s dalšími riziky společenského rozsahu, jako jsou pandemie a jaderná válka,“ píše se v prohlášení organizace Center for AI Safety (CAS), která reaguje na nekontrolovaný neregulovaný vývoj v oblasti umělé inteligence.
Výzvu vedle dalších odborníků podepsali i lidé, kteří se vývojem systémů AI zabývají, jako je technologický šéf Microsoftu Kevin Scott, Daniela a Dario Amodei z Anthropicu, Sam Altman a Ilya Sutskever z firmy, která vyvinula ChatGPT, nebo Shane Legg či Demis Hassabis, kteří v Googlu pracují na systému DeepMind. Vedle nich však řada jiných varuje naopak před zbytečnou panikou.
Organizace Center for AI Safety, která funguje od konce loňského července, výše zmíněným krátkým prohlášením vytvořila další skupinu specialistů, která varuje před následky vývoje umělé inteligence. Na druhou stranu v prohlášení nejsou uvedeny žádné radikální kroky.
I tak je zajímavé, že mezi uvedenými signatáři prohlášení se objevují zástupci velkého množství společností, které AI vyvíjejí. Jak CAS uvádí, mezi signatáře patří tři vítězové Turingovy ceny, autoři učebnic o umělé inteligenci, hlubokém a zpětnovazebném učení (DL, RL). Objevují se tam i jména, která již dříve podpořila výzvu k pozastavení vývoje umělé inteligence na půl roku.
Musk a odborníci žádají pozastavení vývoje umělé inteligence, bojí se rizik![]() |
Toto starší prohlášení bylo kritizováno především pro navrhovanou variantu řešení, která se zdála nerealistická, ale někteří nesouhlasili i s tím, že se v něm přeceňuje riziko, které umělá inteligence představuje. Podobné výhrady mají někteří i k aktuální aktivitě.
Výzvu podpořili Geoffrey Hinton a Youshua Bengio, tedy dva ze tří laureátů Turingovy ceny z roku 2018, kterou každoročně uděluje Asociací výpočetní techniky (ACM), za jejich technický přínos v oboru informatiky. Avšak třetí Yann LeCun, který vyvíjí umělou inteligenci ve Facebooku, se podle BBC nechal slyšet, že podobná apokalyptická varování jsou přehnaná.
V tomto prohlášení se neuvádí žádné konkrétní kroky, jak s AI nakládat. Podle jeho tvůrců si klade za cíl překonat překážku, která může spočívat ve skutečnosti, že pro některé lidi může být obtížné vyjádřit obavy ohledně nejzávažnějších rizik pokročilé umělé inteligence.
Iniciativa tak chce otevřít diskusi a ukázat, že existuje „rostoucí počet odborníků a veřejných osobností, kteří také berou vážně některá z nejzávažnějších rizik pokročilé umělé inteligence“. To vše v době, kdy vlády mnoha států přemýšlí, jak se k nástupu vysoce pokročilých systémů strojového učení postavit.
Státy řeší, co s umělou inteligencí. Jednotná regulace je zatím v nedohlednu![]() |
Mnoho dalších odborníků se podobně domnívá, že obavy z AI, že vyhladí lidstvo, jsou nereálné a odvádějí pozornost od reálných problémů.
Arvind Narayanan, počítačový vědec z Princetonské univerzity, již dříve BBC řekl, že katastrofické scénáře podobné sci-fi jsou nerealistické: „Současná umělá inteligence není ani zdaleka dostatečně schopná, aby se tato rizika naplnila. Výsledkem je, že odvádí pozornost od nynějších omezených rizik.“
Mezi ně patří především zneužívání AI k průmyslové výrobě falešných informací, obrázků, dat či produkci škodlivého počítačového kódu, stejně jako k sofistikovaným útokům s podvrženým hlasem či obrazem. Další obavy souvisejí s ochranou soukromí a autorských práv u dat, na kterých se generativní AI učila.