Středa 27. ledna 2021, svátek má Ingrid
  • schránka
  • Přihlásit Můj účet
  • Středa 27. ledna 2021 Ingrid

Diskuse k článku

Automatizace v Amazonu selhala. Robot z uchazečů o práci vyřazoval ženy

V Amazonu vytvořili robota, který měl procházet životopisy uchazečů o práci a filtrovat ty nevhodné. Jenže jak se ukázalo, v softwaru byl problém - robot z uchazečů vyřazoval ženy. Společnost tak projekt ukončila.

Upozornění

Litujeme, ale tato diskuse byla uzavřena a již do ní nelze vkládat nové příspěvky.
Děkujeme za pochopení.

Zobrazit příspěvky: Všechny podle vláken Všechny podle času
Foto

A67l12f47r72e98d 42D64e91l30o23n53g 4254712556280

Robot asi ví že ženy dle zákona nesmí zvedat více než 16 kg ale platy chtějí stejné jako muži!

+1/−1
15.10.2018 16:48
Foto

M69a50r77t77i98n 38O22š54m66e15r90a 6314266830760

Je to 20kg pro ženy a 50kg pro muže a při častém zvedání a přenášení je to pro ženu 15kg a pro muže 30kg. Myslím si, že by zákoník práce měl stanovovat i nižší mzdy pro ženy na pozicích obnášející manipulaci s břemenem (o 50% nebo 60% nižší), nebo nastavit stejné podmínky pro obě pohlaví.

+2/0
16.10.2018 7:02
Foto

A98l34f40r12e17d 52D53e87l65o16n94g 4944422126490

A nejen to, když feministky vyvádějí o stejné platy měly by se zrušit dvojí discipliny ve sportu!!! Ale to by zase postihlo chlapy protože by nebylo na co se dívat na př. při plážovém volejbalu!;-):-P;-D

+1/−1
16.10.2018 9:10
Foto

J50i66r82i 70B83r93a43d 6944365743623

" limit v učení umělé inteligence. " je hlavne v tom že umělá inteligence neleze do zadnice feministkám.

0/0
15.10.2018 9:41
Foto

M20a25r55c25e65l 64S67u88p 6219455718270

Někdy možná je to naopak ! Umělá inteligence nedokáže náležitě ocenit atraktivní vzhled ženy, která (nebejt tam ten přiblble naprogramovanej komp) by své místo ve firmě určitě získala a nikdo ve firmě by to nezpochybňoval !

+1/0
15.10.2018 9:56
Foto

A67l61f63r55e81d 45D96e88l71o87n82g 4434162376810

Ano a ty těžké věci by tahali chlapi!

0/0
15.10.2018 16:50
Foto

M88a50r34t70i30n 85M60a37i86k32s97n26a83r 3594693838802

Základem učení neuronových sítí je... správnej vzorek na učení, tady očividně zbabrali na začátku tím, že tam vrazili nevyvážený vzorek (jestli to chápu, tak tam narvali všechny životopisy, pomalu od počátku věků), s tím že je nenapadlo, že v tom případě si to pak můžou podělat (asi jako když DARPA zvládla naučit místo neuronovou sít místo poznávat maskované tanky, tak rozeznávat počasí - maskované tanky byli na fotkách s horším počasím a nemaskované na tom hezké...). No příště by to chtělo 50/50 muže a ženy.

0/0
15.10.2018 9:28
Foto

P87e13t37r 88K48ř96í54ž 2323474901281

Nesmysl, takove zastoupeni byt jen zajemcu nikdy nebude, takze ta trenovaci mnozina by byla zalostne mala.

0/0
15.10.2018 18:28
Foto

Z14d87e73n36e25k 40N95o68v34o84h44r40a45d62s46k70ý 6311744220185

Pracuji roky v technologických firmách a můžu to jen potvrdit. Jsou prostě zaměstnání kde žena nebude nikdy podávat rovnoměrný výkon jako muž. A věřte že jsme to mockrát zkoušeli ...

+2/0
15.10.2018 9:22
Foto

J83i84r55i 54B67r39a36d 6654125433513

objektivita není žádoucí.

+1/0
15.10.2018 9:11
Foto

M26a96r85t11i70n 91M12a56i58k73s35n53a45r 3344653658662

To není o objektivitě, ženy v Amazonu nejsou horší, jen jich je méně, a když si náhodně vyberete z 20 jablek 9 červených a 1 zelené, tak stroj se naučí že správné jsou červené, a bude vybírat jablka, které mají vlastnosti jako červené jablka...

0/0
15.10.2018 9:21
Foto

Z73d84e46n48e62k 44N73o45v58o46h69r23a95d53s52k36ý 6971424680535

No on tady nikdo neříká že jsou horší... Ale třeba muži tento obor dost často dělají, protože je to baví.. a dokážou mu prakticky zasvětit svůj život i za cenu zdraví.

To většina žen neudělá a je to podle mne správně. Ale pro robota nebo zaměstnavatele je určitě na takové pozici výhodnější muž.

0/0
15.10.2018 9:30
Foto

P60e88t22r 57K48ř67í71ž 2583284891871

Pokud se to zelene ukaze jako shnile, tak ano.

0/0
15.10.2018 18:29
Foto

P92e54t89e27r 48H97u77s79z48á49r 5408577945575

Tak vyvojar IT a genderista to jsou ruzne svety...

0/0
15.10.2018 8:52
Foto

T14o32m75á91š 84T91a73t75í53č19e34k 5260732880448

S takovou ta AI nebude nikdy k ničemu, když je jí musí vymývat neuronová síť hned v jejím dětství. ;-D:-P

+8/0
15.10.2018 0:24
Foto

M54a84r51c14e56l 52S73u96p 6759725868580

No jestli jako sekretářku vybral počítač sexuchtivému řediteli nějakého ošklivého chlapa, tak se ani nedivím, že ten tým programátorů rozpustil ;-D.

+8/0
14.10.2018 22:45
Foto

K12a20r57e12l 84F88a80j56t 5828792831513

A není to spíš tak, že se (moderně) nechceme smířit s realitou, kterou si robot dovolil nezávisle zjistit?

+8/−1
14.10.2018 22:07
Foto

L46a78d68a 38N25o37v14a53k 4912373447

robot byl v pořádku, jen do algoritmu asi nikdo nezakomponoval konvence, politiku a evropské směrnice...

+6/0
14.10.2018 21:29
Foto

P91a86v83e96l 80S40o44b27o89t73k43a 5700904

To nebyla chyba.

+4/0
14.10.2018 21:11
Foto

V63á37c77l43a92v 15Š91u18b16r82t 9757403258687

Jediný čistě nediskriminační výběr je náhodný výběr z množiny kandidátů, kteří splňují kvalifikační požadavky. Takže stačí seřadit kandidáty podle abecedy, pořídit nějaký generátor náhodných čísel a máme rekrutovacího robota, jehož úspěšnost by byla, a tím jsem si celkem jistý, přibližně stejná jako úspěšnost zdlouhavých, časově i finančně nákladných, výběrových řízení. A vše zcela bez diskriminace!:-)

0/0
14.10.2018 20:26
Foto

I53v82o 45S52p65á25l36e59n30ý 5530533630668

V článku to chybělo, ale šlo o výběr programátorů a dalších techniků. To sice ženy studují, ale dělá to málokterá.

+3/0
14.10.2018 22:57
Foto

J18a46r22o59m81í50r 90K93r32á31l 4210459854539

Tak. Ale ty, co se uplatní, jsou zpravidla na špici. :-)

0/0
15.10.2018 9:10
Foto

M68i60r71o24s53l97a94v 91S60o74c47h82o50r 7466207730218

No, a jak nekorektní výsledky by to byly např. kdyby měl robot spočítat národnostní poměr lidí v kriminálech?

Robot prostě počítá data, podle daného algoritmu. Že holt výsledky někomu nejdou pod nos, to je zase věc druhá..

+7/−1
14.10.2018 20:25
Foto

P34a56v91e41l 35S64o91b80o18t92k56a 5170964

jj, nikdo si není ochoten připustit, že Romů je v kriminále jen pár, a že většina vězňů se hlásí k České národnosti ;-D

0/0
14.10.2018 21:13
Foto

R90a82d15e52k 22J16a32n58a60t13a 9915706624712

Tady šlo o strojové učení, na základě starých životopisů a (nejspíš) informace o tom, zda uchazeč byl najat a jakých výsledků dosahoval.

Takže pokud dříve v Amazonu ženy nepracovaly, tak učící množina mohla být malá a tudíž špatná.

0/0
14.10.2018 22:28
Foto

T23o70m76á78š 69T74a39t78í19č30e61k 5870512770668

Nedokážu si představit, že by naprojektovali takový nesmysl, který by v hodnocení kvality vycházel z množství, a nikoliv z průměrné kvality podobných vzorků. Jinak řečeno, že by program hodnotil ženy jako potencionálně méně přínosné na základě toho, že doposud v oboru pracovalo řekněme 10 žen, a muže jako více přínosné, protože jich tam bylo 100. To nenaprogramuje ani šimpanz. Samozřejmě musel program vycházet z toho, jak bylo průměrně přínosných těch 10 žen, resp. 100 mužů.

Kdyby to bylo naprogramováno dle prvního vzoru, směje se vedoucímu projektu celý svět, jak si hledá místo k bydlení na ulici v San Francisku.

0/0
15.10.2018 0:33
Foto

P45e10t14r 18N55o31v35o76t27n87y 1581690291

Takže to fungovalo přesně jak to naučili. :-)

+5/0
14.10.2018 20:07
Foto

I93s30a28b64e86l22l20a 43Z63á77z96v75o39r94k62o74v54á 3690311530526

Určitě to muselo být nastaveno pro každou pracovní pozici zvlášť. Jinak by to nedávalo smysl. V čem byl tedy problém naprogramovat vybírání zvlášť pro muže a zvlášť pro ženy. Nějaké ženy v Amazonu budou. Když se nastaví výběr kandidátek podle jejich životopisů zvlášť tak software nějaké vhodné najde. Leda, že by byl vzorek tak malý, že by byl statisticky nezpracovatelný:-)

Ale tak mě napadlo, že autoři mohli mít docela dobrý vedlejšák. Psaní životopisů, aby kandidát prošel:-)

0/0
14.10.2018 18:21
Foto

T57o69m44á85š 53B34e21d16n59á15r 2802190604542

To jsou přesně ta nebezpečí AI, o kterých se v poslední době mluví, v praxi. Dát nějaké aplikaci volnou ruku, s tím že to po ní aspoň někdo namátkově nepřekontroluje, mi přijde šílené. Hlavně že se nikomu nic nestalo ;-D

0/−1
14.10.2018 18:08
Foto

M43i48c76h18a24l 88H48r34u73š23k91a 1566793166941

Naučila se jen to, co dělají lidi běžně. ;-D

0/0
14.10.2018 22:04
Foto

O16d22s58t28r18a75n93ě52n79ý 62U15ž62i54v26a52t42e89l

Uživatel požádal o vymazání
+8/0
14.10.2018 18:00
Foto

J27a53r59o65s31l96a79v 38K64a23d64l78e57c 5891159932101

Techniku noblafneš...;-D

+2/0
14.10.2018 17:59
Foto

Z86b72y42n65ě11k 62B84í71l55ý 1697719944911

Neselhala

+4/0
14.10.2018 17:53
Foto

J82a94n 48K95o23v84á97ř 8634761579447

Umělá inteligence, která by pochopila politickou korektnost, prostě neexistuje.

+17/0
14.10.2018 17:29
Foto

M62i39c27h14a47l 85K61u27r89z 3211607505788

Otázka je, jestli to vůbec nějaká inteligence může pochopit. Ta moje to tedy nedává.

+3/0
14.10.2018 18:59
Foto

J15i55ř96í 89E93r36b15e95n 1433254276507

Vy nekoukate na Futuramu?

0/0
15.10.2018 21:59
Foto

F92r59a35n37t45i64š33e42k 24P61e63t76r32í53k 6655571204531

Výběr je z principu diskriminační. Tím, že vybírám diskriminuji. Jediným řešením je ukončit podnikání Amazonu, jinak bude dělat rozhodnutí a to je dskriminace.

+8/0
14.10.2018 17:23
Foto

P22e77t48r 50J16a29r58o91š 6673422421

Mozna proste jen zapomeli pridat algoritmus pro pozitivni diskriminaci.

+13/0
14.10.2018 16:53
Foto

K27r21y45š67t77o19f 49L96a93n56í96k 1989860125815

Nas sef vybiral z hromady zivotopisu tim stylem, ze chlapy rovnou hazel do kose. Protoze si predurcil, ze nas 11 ajtaku musi nejak zuslechtit a to zvladne jedine zena. Ale to nemohl samozrejme napsat do zadani inzeratu, takze 50 chlapu psalo zbytecne zivotopis a pruvodni dopis, protoze do VR se dostaly jen 3 prihlasene zeny. Jednu teda vybral, ale k nicemu to moc nebylo, slecna je drsnejsi nez polovina naseho tymu. Nebo se rychle prizpusobila. Ale prislo mi to blby, a kdyz jsem mu to rikal, tak me uklidnil, ze uplne v kosi neskoncili a nechal si je v zaloze, ze priste VR nebude a oslovi rovnou ty, kteri se mu nejvice zamlouvali.

+1/0
14.10.2018 16:30
Foto

O11s41k42a82r 81B91r27u94n74a 4209310449666

A oni budou do té doby sedět doma a čekat, až si na ně vzpomene.

+4/0
14.10.2018 16:56
Foto

P67e93t13r 46K21ř96í55ž 2823534361351

Takze nechal v zaloze .. pozor na GDPR ! ;-)

+1/0
14.10.2018 17:23
Foto

M58o19j59m21í66r 20S95k46á19l72a 2460752986

Prostě typický [>-] zaměstnavatel, který následně kňučí, když se k němu zaměstnanci/uchazeči o zaměstnání chovají podobně...:-P

+1/0
14.10.2018 19:32
Foto

J50i47ř67í 17H89o10r11á20k 7245463597822

A ta pozitivně diskriminovaná slečna... ještě u vás pracuje?

0/0
14.10.2018 20:23
Foto

R58o50b25e42r74t 55M51á32s81l71o 1251811317577

Jsem programátor. Podle mě program pracoval správně a nebyl žádný logický důvod jej přestat používat.

Pokud by si zadavatel přál, aby nebyli vybíráni nejvhodnější kandidáti, ale aby ženy byly zvýhodněny, tak (z technického hlediska) není problém jim ve scóringové funkci, které to počítala jim pár bodů přičíst. Nebo to naučit tu UI. I počítače lze bohužel naučit počítat blbě (tj. politicky korektně).

Zrušení programu a rozpuštění týmu a ukazuje akorát to, že zadavatel je naprostý vydlabanec, který neví co prachama.

+36/−2
14.10.2018 16:06
Foto

P64a46v84e67l 66S26t55e45r39b30a 8956546715387

Castecne souhlasim. Problem je v tom, ze strojove uceni vychazi z predchozich dat. Tady odhalili znevyhodneni zen proto, ze puvodni data pochazela zejmena od muzu. Za rok by zjistili, ze odmitaji kvalitni zamestnance, protoze jsou lepsi nez ti soucasni a nevejdou se do tabulek. A pak by nekdo zverejnil zivotopis, ktery "prosel" a slo by to do kytek cele..

+1/0
14.10.2018 19:18
Foto

M88i75c75h59a19l 94H33r44u49š94k85a 1906743606271

Aby to nepenalizovalo ženy, se jim zařídit povedlo, problém je právě to, že se báli, jak se bude chovat k různým jiným skupinám obyvatel (národnosti, náboženství.. ).

+1/0
14.10.2018 22:09
Foto

D29a89n12i69e15l 42P43a92v68l11í29k 2614616958530

Jedno mi nejde do hlavy. Pokud skutečně ten program upřednostňoval muže na základě toho, že jich v daném oboru je prostě drtivá většina (takovou logiku nechápu, ale ok, nejsem programátor), proč vůbec naučili ten stroj to pohlaví vnímat? Nebylo by snažší prostě ignorovat kolonku "gender"? Proč to ten algoritmus vůbec bral v potaz?

+2/0
14.10.2018 15:58
Foto

M13a85r79t75i71n 71K75o91l47a80c61e78k 5559197173483

tak to vemte od začátku. Pokud bude firma chtít, aby její zaměstnanci měli vztah k jejich profesi (např. automobilka), tak kolik žen se bude projevovat jako příznivec motorsportu.

+1/0
14.10.2018 16:00
Foto

D96a65n43i69e25l 63P20a78v69l87í55k 2234976238510

Jenže původně od tohoto projektu přeci očekávali, že program nebude zvýhodňovat žádné pohlaví. Nebo se snad pletu? Amazon není žádný motorkářský klub. A jak tu píše pán nade mnou. Je přeci lehké muži nebo ženě přičíst pár bodů automaticky.

0/0
14.10.2018 16:11
Foto

M29a58r69t28i24n 29K97o68l79a48c37e33k 5239947343943

1. když už nějaké body přidáte, tak už to nikdy nebude rovné.

napište si algoritmus na výběr provozovatele mýtného a přidejte 10 bodů na 100 bodové stupnici tomu, co již v čr má s tímto dlouhodobou zkušenost. s vysokou pravděpodobností znám vítěze

2. snažil jsem se sdělit, že pohlaví může být vyjádřeno i podle zájmů a může to pramenit i z různého rozložení a dobrých zkušeností.

0/0
14.10.2018 16:17

Veganství a vegetariánství je na vzestupu a je to dobře, říká lékař Jan Gojda

Premium Lékaři bývají obvykle k dietám všeho druhů skeptičtí. Nejinak tomu bylo v případě vegetariánství a veganství. Výhradně...

Malý stěhovák pro rodinu. Měřili jsme, který kombík je ten nejlepší

Premium Ve velkém testu jsme srovnali tři kompaktní kombíky, které mohou být alternativou populární octavie. Navíc nejsou tak...

Můžete skoro všechno, nemusíte nic. Jak probíhají swingers party v Česku

Premium Swingers kluby, tedy místa neřesti, kde si páry mezi sebou střídají partnery a užívají si i těch nejdivočejších...