- Napište nám
- Kontakty
- Reklama
- VOP
- Osobní údaje
- Nastavení soukromí
- Cookies
- AV služby
- Kariéra
- Předplatné MF DNES
Chyba: v dst, začínajícím "Vtipná byla varianta..." má být "pikající hledači", ne "pikající schovávači".
Kdybych svému 7letému synovi dal úlohu, že bude hrát s kamarády na schovku, bude se schovávat a s hracím prostorem může dělat cokoli, tak se na chvíli zamyslí a pak vezme kus zdi a zablokuje hledače už v první hře, protože mu to při definovaných parametrech hry přijde jako nejefektivnější řešení. Takže já bych se o lidstvo nebál :-)
Vašemu synovi je ale 7 let a má nějaké zkušenosti s reálným fyzikálním prostorem (a asi i s počítačovými hrami, které se různými podlostmi jenom hemží). Tenhle algoritmus začínal s "prázdnou hlavou", v podstatě neuměl ani chodit.
Docela z toho mrazi... Takovy nastroj se da v budoucnu lehce zneuzit totalitnim rezimem. A clovek nemuze nikdy vyhrat (pocet opakovani uceni by cloveku trval miliony let a jeste to musi predavat z mozku na mozek). Jedine jak lze ui tedy porazit (diky bohu za ten vyzkum) je vytvorit chybu v prostredi. To nam jako lidstvu dava aspon minimalni sanci na preziti ;-)
"Je potřeba věnovat pozornost tomu, jak vytvořit prostředí, které netrpí chybami a nepovzbuzuje tak toto nežádoucí chování." - Právě to mi nejvíc připomíná evoluci, kdy díky chybám (v genetickém kódu) vznikají nové strategie
Tato veta dava odpoved na to, proc se neda nikdy 100% spolehnout na samoridici auto nebot jeho uceni probiha i dnes v prostredi, ktere je omezene vuci realnemu svetu na cele planete.
To sme celí my. Akurát vymakanejšia simulácia. Pánbožkovia sa na nás musia bohovsky baviť.
Na tom pokusu je zajímavé, že proti sobě šla dvě strojová učení, tzn. že se úspěšná strategie musela vyvíjet a tím byla obvykle vyžadovaná schopnost 'udržet myšlenku' (konvergovat k jednomu řešení) rozšířena o požadavek 'opustit myšlenku'. Na to ale musel být systém docela vyladěn. Nevěřím, že tvůrci dali po teoretickém rozboru hned praktický funkční model.
Škoda, že není zmíněno, zda se schovávači nepokusili zaútočit (rozmačkat resp. zablokovat hledače). Doufám, že pokus bude pokračovat i na rozdělené skupiny, kdy k vítězství bude stačit přežití (neobjevení) jen části schovávačů.
Píšu to v článku (doplněno kolem poledne).
Myslite, ze cilem bylo naucit AI hrat schovavanou?
Ja se domnivam, ze cilem bylo spise ziskat nove znalosti o tom jak psat/simulovat/ucit AI. A hlavne to ucit, protoze napsat neuronovou sit neni tezke, tezke je tu neuronovou sit neco naucit.
To před nás klade otázku, jestli život na Zemi je ještě pokus nebo už omyl.
Tak že se fragmenty kódů můžou shlukovat a náhodně, tedy jednou za desitímilióntý pokus se z nich muže stát něco nenáhodného, musí být jasné každému, kdo ví něco o pravděpodobnosti. Vždyť stejně vznikl i organický život. Nicméně i při tomto tempu by evoluce umělé inteligence trvala tisíce, možná milióny let. A jelikož by to bylo pozvolné, ten vývoj v inteligenci by byl zřejmý každému průměrnému ajťákovi. Průšvih samozřejmě je, že lidi tu umělou inteligenci sami ze zvědavosti skokově posunují a přeskakují tím evoluční krůčky. Scénář terminátora by tedy v budoucnu za určitých okolností nastat mohl a pak bude záležet jen na tom, co bude mít UI za hlavní programy (chcete-li vlastnosti) a co sama odmítne jako nevhodné. Je rozdíl, jestli by byla UI hlavně moudrý osvícený vládce bez vážných negativ, nebo jen psychopat s mnoha dalšími lidskými negativy. V tom druhém případě by samozřejmě lidi žádný John Connor ani Neo nezachránil a ani nic jiného.
Lidi chtějí stvořit UI a snaží se o to, tady nejde o náhodu, to co se děje, teď je že se programy učí vyřešit problém a není to shlukováním kódu, ale zkoušením co se stane, když udělám třeba tohle? Důležité je si uvědomit, že ty miliony pokusů můžou trvat třeba jen hodiny nebo dny a ne roky, to záleží jen na výkonu HW a složitosti pokusů.