Čtvrtek 5. prosince 2019, svátek má Jitka
  • schránka
  • Přihlásit Můj účet
  • Čtvrtek 5. prosince 2019 Jitka

Diskuse k článku

Automatizace v Amazonu selhala. Robot z uchazečů o práci vyřazoval ženy

V Amazonu vytvořili robota, který měl procházet životopisy uchazečů o práci a filtrovat ty nevhodné. Jenže jak se ukázalo, v softwaru byl problém - robot z uchazečů vyřazoval ženy. Společnost tak projekt ukončila.

Upozornění

Litujeme, ale tato diskuse byla uzavřena a již do ní nelze vkládat nové příspěvky.
Děkujeme za pochopení.

Zobrazit příspěvky: Všechny podle vláken Všechny podle času

A35l76f71r26e45d 78D46e95l25o43n13g 4504212836790

Robot asi ví že ženy dle zákona nesmí zvedat více než 16 kg ale platy chtějí stejné jako muži!

+1/−1
15.10.2018 16:48

M91a20r94t90i70n 71O22š56m22e53r91a 6164556930320

Je to 20kg pro ženy a 50kg pro muže a při častém zvedání a přenášení je to pro ženu 15kg a pro muže 30kg. Myslím si, že by zákoník práce měl stanovovat i nižší mzdy pro ženy na pozicích obnášející manipulaci s břemenem (o 50% nebo 60% nižší), nebo nastavit stejné podmínky pro obě pohlaví.

+2/0
16.10.2018 7:02

A22l60f37r45e82d 36D52e20l58o11n58g 4354782356580

A nejen to, když feministky vyvádějí o stejné platy měly by se zrušit dvojí discipliny ve sportu!!! Ale to by zase postihlo chlapy protože by nebylo na co se dívat na př. při plážovém volejbalu!;-):-P;-D

+1/−1
16.10.2018 9:10

J57i73r90i 39B12r63a43d 6324795603233

" limit v učení umělé inteligence. " je hlavne v tom že umělá inteligence neleze do zadnice feministkám.

0/0
15.10.2018 9:41

M30a58r71c52e72l 90S11u92p 6309525238740

Někdy možná je to naopak ! Umělá inteligence nedokáže náležitě ocenit atraktivní vzhled ženy, která (nebejt tam ten přiblble naprogramovanej komp) by své místo ve firmě určitě získala a nikdo ve firmě by to nezpochybňoval !

+1/0
15.10.2018 9:56

A10l52f49r10e45d 89D21e45l42o30n62g 4954282256260

Ano a ty těžké věci by tahali chlapi!

0/0
15.10.2018 16:50

M90a68r78t37i57n 84M69a16i92k47s15n38a67r 3344843158162

Základem učení neuronových sítí je... správnej vzorek na učení, tady očividně zbabrali na začátku tím, že tam vrazili nevyvážený vzorek (jestli to chápu, tak tam narvali všechny životopisy, pomalu od počátku věků), s tím že je nenapadlo, že v tom případě si to pak můžou podělat (asi jako když DARPA zvládla naučit místo neuronovou sít místo poznávat maskované tanky, tak rozeznávat počasí - maskované tanky byli na fotkách s horším počasím a nemaskované na tom hezké...). No příště by to chtělo 50/50 muže a ženy.

0/0
15.10.2018 9:28

P44e97t89r 85K61ř62í96ž 2423674241791

Nesmysl, takove zastoupeni byt jen zajemcu nikdy nebude, takze ta trenovaci mnozina by byla zalostne mala.

0/0
15.10.2018 18:28

Z10d95e75n34e56k 73N20o34v51o25h64r89a39d46s56k62ý 6401604530215

Pracuji roky v technologických firmách a můžu to jen potvrdit. Jsou prostě zaměstnání kde žena nebude nikdy podávat rovnoměrný výkon jako muž. A věřte že jsme to mockrát zkoušeli ...

+2/0
15.10.2018 9:22

J57i24r56i 60B29r34a39d 6384155803933

objektivita není žádoucí.

+1/0
15.10.2018 9:11

M89a69r88t16i95n 71M79a80i92k23s60n62a90r 3784173608492

To není o objektivitě, ženy v Amazonu nejsou horší, jen jich je méně, a když si náhodně vyberete z 20 jablek 9 červených a 1 zelené, tak stroj se naučí že správné jsou červené, a bude vybírat jablka, které mají vlastnosti jako červené jablka...

0/0
15.10.2018 9:21

Z15d10e66n81e24k 12N32o84v48o24h15r32a43d80s28k70ý 6301744300505

No on tady nikdo neříká že jsou horší... Ale třeba muži tento obor dost často dělají, protože je to baví.. a dokážou mu prakticky zasvětit svůj život i za cenu zdraví.

To většina žen neudělá a je to podle mne správně. Ale pro robota nebo zaměstnavatele je určitě na takové pozici výhodnější muž.

0/0
15.10.2018 9:30

P39e59t90r 59K78ř59í96ž 2953614651811

Pokud se to zelene ukaze jako shnile, tak ano.

0/0
15.10.2018 18:29

P22e73t89e33r 15H23u22s74z66á65r 5308577565745

Tak vyvojar IT a genderista to jsou ruzne svety...

0/0
15.10.2018 8:52

T58o58m42á42š 91T69a14t86í19č19e54k 5190172120638

S takovou ta AI nebude nikdy k ničemu, když je jí musí vymývat neuronová síť hned v jejím dětství. ;-D:-P

+8/0
15.10.2018 0:24

M14a36r32c81e42l 91S58u53p 6569225568170

No jestli jako sekretářku vybral počítač sexuchtivému řediteli nějakého ošklivého chlapa, tak se ani nedivím, že ten tým programátorů rozpustil ;-D.

+8/0
14.10.2018 22:45

K98a62r83e19l 12F43a83j30t 5118642631693

A není to spíš tak, že se (moderně) nechceme smířit s realitou, kterou si robot dovolil nezávisle zjistit?

+8/−1
14.10.2018 22:07

L94a77d35a 63N79o78v95a16k 4202213617

robot byl v pořádku, jen do algoritmu asi nikdo nezakomponoval konvence, politiku a evropské směrnice...

+6/0
14.10.2018 21:29

P39a97v74e23l 81S10o15b84o29t44k62a 5140334

To nebyla chyba.

+4/0
14.10.2018 21:11

V34á10c51l74a32v 80Š61u49b72r62t 9867643668937

Jediný čistě nediskriminační výběr je náhodný výběr z množiny kandidátů, kteří splňují kvalifikační požadavky. Takže stačí seřadit kandidáty podle abecedy, pořídit nějaký generátor náhodných čísel a máme rekrutovacího robota, jehož úspěšnost by byla, a tím jsem si celkem jistý, přibližně stejná jako úspěšnost zdlouhavých, časově i finančně nákladných, výběrových řízení. A vše zcela bez diskriminace!:-)

0/0
14.10.2018 20:26

I72v77o 26S50p96á86l10e54n21ý 5360293110308

V článku to chybělo, ale šlo o výběr programátorů a dalších techniků. To sice ženy studují, ale dělá to málokterá.

+3/0
14.10.2018 22:57

J94a79r43o34m42í72r 11K39r79á36l 4300829384589

Tak. Ale ty, co se uplatní, jsou zpravidla na špici. :-)

0/0
15.10.2018 9:10

M22i66r44o87s58l24a15v 41S16o13c93h64o26r 7336797880258

No, a jak nekorektní výsledky by to byly např. kdyby měl robot spočítat národnostní poměr lidí v kriminálech?

Robot prostě počítá data, podle daného algoritmu. Že holt výsledky někomu nejdou pod nos, to je zase věc druhá..

+7/−1
14.10.2018 20:25

P54a30v60e65l 68S38o37b53o90t65k64a 5920504

jj, nikdo si není ochoten připustit, že Romů je v kriminále jen pár, a že většina vězňů se hlásí k České národnosti ;-D

0/0
14.10.2018 21:13

R95a66d68e37k 87J86a75n47a70t86a 9245636724402

Tady šlo o strojové učení, na základě starých životopisů a (nejspíš) informace o tom, zda uchazeč byl najat a jakých výsledků dosahoval.

Takže pokud dříve v Amazonu ženy nepracovaly, tak učící množina mohla být malá a tudíž špatná.

0/0
14.10.2018 22:28

T40o76m56á77š 58T89a21t74í62č76e91k 5520372170438

Nedokážu si představit, že by naprojektovali takový nesmysl, který by v hodnocení kvality vycházel z množství, a nikoliv z průměrné kvality podobných vzorků. Jinak řečeno, že by program hodnotil ženy jako potencionálně méně přínosné na základě toho, že doposud v oboru pracovalo řekněme 10 žen, a muže jako více přínosné, protože jich tam bylo 100. To nenaprogramuje ani šimpanz. Samozřejmě musel program vycházet z toho, jak bylo průměrně přínosných těch 10 žen, resp. 100 mužů.

Kdyby to bylo naprogramováno dle prvního vzoru, směje se vedoucímu projektu celý svět, jak si hledá místo k bydlení na ulici v San Francisku.

0/0
15.10.2018 0:33

P66e58t50r 48N64o17v37o95t87n44y 1911220761

Takže to fungovalo přesně jak to naučili. :-)

+5/0
14.10.2018 20:07

I83s43a46b12e95l97l95a 75Z44á87z15v12o39r30k13o90v44á 3440591670136

Určitě to muselo být nastaveno pro každou pracovní pozici zvlášť. Jinak by to nedávalo smysl. V čem byl tedy problém naprogramovat vybírání zvlášť pro muže a zvlášť pro ženy. Nějaké ženy v Amazonu budou. Když se nastaví výběr kandidátek podle jejich životopisů zvlášť tak software nějaké vhodné najde. Leda, že by byl vzorek tak malý, že by byl statisticky nezpracovatelný:-)

Ale tak mě napadlo, že autoři mohli mít docela dobrý vedlejšák. Psaní životopisů, aby kandidát prošel:-)

0/0
14.10.2018 18:21

T13o37m72á25š 17B33e13d80n67á42r 3657765442900

To jsou přesně ta nebezpečí AI, o kterých se v poslední době mluví, v praxi. Dát nějaké aplikaci volnou ruku, s tím že to po ní aspoň někdo namátkově nepřekontroluje, mi přijde šílené. Hlavně že se nikomu nic nestalo ;-D

0/−1
14.10.2018 18:08

M28i40c89h56a39l 20H66r31u70š44k45a 1356853336141

Naučila se jen to, co dělají lidi běžně. ;-D

0/0
14.10.2018 22:04

K52a10r42e54l 72M79a15r72e85k 5875742923942

pravda kterou nikdo nechtel slyset...

+8/0
14.10.2018 18:00

J76a54r49o34s94l38a84v 60K54a86d29l57e45c 5801669382781

Techniku noblafneš...;-D

+2/0
14.10.2018 17:59

Z81b46y79n76ě24k 41B32í32l70ý 1207239674131

Neselhala

+4/0
14.10.2018 17:53

J68a64n 27K71o54v25á94ř 8214401569477

Umělá inteligence, která by pochopila politickou korektnost, prostě neexistuje.

+17/0
14.10.2018 17:29

M53i97c22h22a95l 36K97u48r43z 3171157375228

Otázka je, jestli to vůbec nějaká inteligence může pochopit. Ta moje to tedy nedává.

+3/0
14.10.2018 18:59

J28i61ř23í 26E11r33b28e71n 1923514286647

Vy nekoukate na Futuramu?

0/0
15.10.2018 21:59
Foto

F39r73a36n51t42i67š51e88k 41P33e26t28r20í36k 6445211734331

Výběr je z principu diskriminační. Tím, že vybírám diskriminuji. Jediným řešením je ukončit podnikání Amazonu, jinak bude dělat rozhodnutí a to je dskriminace.

+8/0
14.10.2018 17:23
Foto

P95e62t36r 14J52a91r12o78š 6193162381

Mozna proste jen zapomeli pridat algoritmus pro pozitivni diskriminaci.

+13/0
14.10.2018 16:53

K75r59y56š93t56o66f 61L71a96n11í48k 1639470805945

Nas sef vybiral z hromady zivotopisu tim stylem, ze chlapy rovnou hazel do kose. Protoze si predurcil, ze nas 11 ajtaku musi nejak zuslechtit a to zvladne jedine zena. Ale to nemohl samozrejme napsat do zadani inzeratu, takze 50 chlapu psalo zbytecne zivotopis a pruvodni dopis, protoze do VR se dostaly jen 3 prihlasene zeny. Jednu teda vybral, ale k nicemu to moc nebylo, slecna je drsnejsi nez polovina naseho tymu. Nebo se rychle prizpusobila. Ale prislo mi to blby, a kdyz jsem mu to rikal, tak me uklidnil, ze uplne v kosi neskoncili a nechal si je v zaloze, ze priste VR nebude a oslovi rovnou ty, kteri se mu nejvice zamlouvali.

+1/0
14.10.2018 16:30

O45s93k16a74r 88B16r96u68n54a 4649370349306

A oni budou do té doby sedět doma a čekat, až si na ně vzpomene.

+4/0
14.10.2018 16:56

P43e48t63r 58K44ř60í64ž 2723694341621

Takze nechal v zaloze .. pozor na GDPR ! ;-)

+1/0
14.10.2018 17:23

M68o81j49m76í32r 57S97k88á33l57a 2550182716

Prostě typický [>-] zaměstnavatel, který následně kňučí, když se k němu zaměstnanci/uchazeči o zaměstnání chovají podobně...:-P

+1/0
14.10.2018 19:32

J43i26ř32í 78H90o11r39á29k 7415413377572

A ta pozitivně diskriminovaná slečna... ještě u vás pracuje?

0/0
14.10.2018 20:23

R46o88b29e86r25t 32M75á68s52l16o 1171651297467

Jsem programátor. Podle mě program pracoval správně a nebyl žádný logický důvod jej přestat používat.

Pokud by si zadavatel přál, aby nebyli vybíráni nejvhodnější kandidáti, ale aby ženy byly zvýhodněny, tak (z technického hlediska) není problém jim ve scóringové funkci, které to počítala jim pár bodů přičíst. Nebo to naučit tu UI. I počítače lze bohužel naučit počítat blbě (tj. politicky korektně).

Zrušení programu a rozpuštění týmu a ukazuje akorát to, že zadavatel je naprostý vydlabanec, který neví co prachama.

+36/−2
14.10.2018 16:06

P96a65v48e10l 72S86t40e90r24b28a 8386856815677

Castecne souhlasim. Problem je v tom, ze strojove uceni vychazi z predchozich dat. Tady odhalili znevyhodneni zen proto, ze puvodni data pochazela zejmena od muzu. Za rok by zjistili, ze odmitaji kvalitni zamestnance, protoze jsou lepsi nez ti soucasni a nevejdou se do tabulek. A pak by nekdo zverejnil zivotopis, ktery "prosel" a slo by to do kytek cele..

+1/0
14.10.2018 19:18

M94i43c36h49a21l 29H84r67u78š12k17a 1356793486291

Aby to nepenalizovalo ženy, se jim zařídit povedlo, problém je právě to, že se báli, jak se bude chovat k různým jiným skupinám obyvatel (národnosti, náboženství.. ).

+1/0
14.10.2018 22:09

D37a18n65i58e53l 14P72a79v40l68í50k 2274546748110

Jedno mi nejde do hlavy. Pokud skutečně ten program upřednostňoval muže na základě toho, že jich v daném oboru je prostě drtivá většina (takovou logiku nechápu, ale ok, nejsem programátor), proč vůbec naučili ten stroj to pohlaví vnímat? Nebylo by snažší prostě ignorovat kolonku "gender"? Proč to ten algoritmus vůbec bral v potaz?

+2/0
14.10.2018 15:58

M58a39r50t18i73n 19K78o66l54a10c61e38k 5869467923463

tak to vemte od začátku. Pokud bude firma chtít, aby její zaměstnanci měli vztah k jejich profesi (např. automobilka), tak kolik žen se bude projevovat jako příznivec motorsportu.

+1/0
14.10.2018 16:00

D17a90n71i85e19l 71P36a37v63l32í62k 2944806708110

Jenže původně od tohoto projektu přeci očekávali, že program nebude zvýhodňovat žádné pohlaví. Nebo se snad pletu? Amazon není žádný motorkářský klub. A jak tu píše pán nade mnou. Je přeci lehké muži nebo ženě přičíst pár bodů automaticky.

0/0
14.10.2018 16:11

M40a92r77t53i77n 83K71o74l19a58c51e21k 5579917743843

1. když už nějaké body přidáte, tak už to nikdy nebude rovné.

napište si algoritmus na výběr provozovatele mýtného a přidejte 10 bodů na 100 bodové stupnici tomu, co již v čr má s tímto dlouhodobou zkušenost. s vysokou pravděpodobností znám vítěze

2. snažil jsem se sdělit, že pohlaví může být vyjádřeno i podle zájmů a může to pramenit i z různého rozložení a dobrých zkušeností.

0/0
14.10.2018 16:17

Premium

Sprcha pro osm lidí: jak to vypadalo na Epsteinově ranči na dělání dětí

Kdyby zdi mohly mluvit. Přinášíme exkluzivně snímky přepychového ranče, kam americký finančník Jeffrey Epstein svážel...

Premium

Je sexting nevinná hra nebo nevěra? Pánové jsou tolerantnější než dámy

Generace našich rodičů tohle řešit nemusela. Měli poměrně jasno a věděli, co je a není zahýbání. Moderní technologie...

Premium

Den, kdy přepadli Mekku. V roce 1979 se zrodil moderní islámský středověk

Před 40 lety se stalo „11. září“ islámu. Aby saúdský král mohl pobít ozbrojence okupující posvátnou mešitu v Mekce,...

Najdete na iDNES.cz