Pátek 21. ledna 2022, svátek má Běla
  • schránka
  • Přihlásit Můj účet
  • Pátek 21. ledna 2022 Běla

Diskuse k článku

Automatizace v Amazonu selhala. Robot z uchazečů o práci vyřazoval ženy

V Amazonu vytvořili robota, který měl procházet životopisy uchazečů o práci a filtrovat ty nevhodné. Jenže jak se ukázalo, v softwaru byl problém - robot z uchazečů vyřazoval ženy. Společnost tak projekt ukončila.

Upozornění

Litujeme, ale tato diskuse byla uzavřena a již do ní nelze vkládat nové příspěvky.
Děkujeme za pochopení.

Zobrazit příspěvky: Všechny podle vláken Všechny podle času
Foto

A80l54f15r41e89d 40D79e39l41o39n32g 4664952306860

Robot asi ví že ženy dle zákona nesmí zvedat více než 16 kg ale platy chtějí stejné jako muži!

+1/−1
15.10.2018 16:48
Foto

M48a59r21t47i21n 48O40š72m62e56r16a 6304186300240

Je to 20kg pro ženy a 50kg pro muže a při častém zvedání a přenášení je to pro ženu 15kg a pro muže 30kg. Myslím si, že by zákoník práce měl stanovovat i nižší mzdy pro ženy na pozicích obnášející manipulaci s břemenem (o 50% nebo 60% nižší), nebo nastavit stejné podmínky pro obě pohlaví.

+2/0
16.10.2018 7:02
Foto

A16l87f72r31e49d 79D83e76l43o80n24g 4784692926700

A nejen to, když feministky vyvádějí o stejné platy měly by se zrušit dvojí discipliny ve sportu!!! Ale to by zase postihlo chlapy protože by nebylo na co se dívat na př. při plážovém volejbalu!;-):-P;-D

+1/−1
16.10.2018 9:10
Foto

J47i18r81i 66B30r49a34d 6104435413233

" limit v učení umělé inteligence. " je hlavne v tom že umělá inteligence neleze do zadnice feministkám.

0/0
15.10.2018 9:41
Foto

M41a78r43c34e58l 30S20u24p 6259775328970

Někdy možná je to naopak ! Umělá inteligence nedokáže náležitě ocenit atraktivní vzhled ženy, která (nebejt tam ten přiblble naprogramovanej komp) by své místo ve firmě určitě získala a nikdo ve firmě by to nezpochybňoval !

+1/0
15.10.2018 9:56
Foto

A47l19f63r81e77d 66D95e69l70o79n90g 4194962486500

Ano a ty těžké věci by tahali chlapi!

0/0
15.10.2018 16:50
Foto

M10a74r80t86i38n 88M35a47i15k43s19n31a93r 3684543768912

Základem učení neuronových sítí je... správnej vzorek na učení, tady očividně zbabrali na začátku tím, že tam vrazili nevyvážený vzorek (jestli to chápu, tak tam narvali všechny životopisy, pomalu od počátku věků), s tím že je nenapadlo, že v tom případě si to pak můžou podělat (asi jako když DARPA zvládla naučit místo neuronovou sít místo poznávat maskované tanky, tak rozeznávat počasí - maskované tanky byli na fotkách s horším počasím a nemaskované na tom hezké...). No příště by to chtělo 50/50 muže a ženy.

0/0
15.10.2018 9:28
Foto

P24e20t44r 57K65ř66í56ž 2433474711521

Nesmysl, takove zastoupeni byt jen zajemcu nikdy nebude, takze ta trenovaci mnozina by byla zalostne mala.

0/0
15.10.2018 18:28
Foto

Z61d86e33n37e20k 78N20o49v44o90h92r19a21d70s58k47ý 6671444120115

Pracuji roky v technologických firmách a můžu to jen potvrdit. Jsou prostě zaměstnání kde žena nebude nikdy podávat rovnoměrný výkon jako muž. A věřte že jsme to mockrát zkoušeli ...

+2/0
15.10.2018 9:22
Foto

J25i12r97i 93B86r14a92d 6434175333533

objektivita není žádoucí.

+1/0
15.10.2018 9:11
Foto

M90a27r82t85i27n 19M80a21i24k57s15n42a11r 3314113328852

To není o objektivitě, ženy v Amazonu nejsou horší, jen jich je méně, a když si náhodně vyberete z 20 jablek 9 červených a 1 zelené, tak stroj se naučí že správné jsou červené, a bude vybírat jablka, které mají vlastnosti jako červené jablka...

0/0
15.10.2018 9:21
Foto

Z17d28e87n97e44k 70N37o59v88o39h49r15a84d75s41k20ý 6461114900385

No on tady nikdo neříká že jsou horší... Ale třeba muži tento obor dost často dělají, protože je to baví.. a dokážou mu prakticky zasvětit svůj život i za cenu zdraví.

To většina žen neudělá a je to podle mne správně. Ale pro robota nebo zaměstnavatele je určitě na takové pozici výhodnější muž.

0/0
15.10.2018 9:30
Foto

P84e40t38r 86K33ř86í52ž 2193694961721

Pokud se to zelene ukaze jako shnile, tak ano.

0/0
15.10.2018 18:29
Foto

P85e80t16e35r 87H44u55s56z55á54r 5358387795415

Tak vyvojar IT a genderista to jsou ruzne svety...

0/0
15.10.2018 8:52
Foto

T15o38m81á72š 31T63a29t19í93č11e76k 5890112730568

S takovou ta AI nebude nikdy k ničemu, když je jí musí vymývat neuronová síť hned v jejím dětství. ;-D:-P

+8/0
15.10.2018 0:24
Foto

M28a27r89c91e65l 63S34u78p 6499525758900

No jestli jako sekretářku vybral počítač sexuchtivému řediteli nějakého ošklivého chlapa, tak se ani nedivím, že ten tým programátorů rozpustil ;-D.

+8/0
14.10.2018 22:45
Foto

K54a44r82e58l 11F57a54j27t 5588692451473

A není to spíš tak, že se (moderně) nechceme smířit s realitou, kterou si robot dovolil nezávisle zjistit?

+8/−1
14.10.2018 22:07
Foto

L42a53d76a 85N15o58v97a42k 4802983377

robot byl v pořádku, jen do algoritmu asi nikdo nezakomponoval konvence, politiku a evropské směrnice...

+6/0
14.10.2018 21:29
Foto

P36a45v46e23l 76S80o59b41o30t55k71a 5730734

To nebyla chyba.

+4/0
14.10.2018 21:11
Foto

V20á51c74l41a56v 56Š97u57b81r51t 9587223868477

Jediný čistě nediskriminační výběr je náhodný výběr z množiny kandidátů, kteří splňují kvalifikační požadavky. Takže stačí seřadit kandidáty podle abecedy, pořídit nějaký generátor náhodných čísel a máme rekrutovacího robota, jehož úspěšnost by byla, a tím jsem si celkem jistý, přibližně stejná jako úspěšnost zdlouhavých, časově i finančně nákladných, výběrových řízení. A vše zcela bez diskriminace!:-)

0/0
14.10.2018 20:26
Foto

I72v90o 54S42p20á55l17e56n22ý 5640443760468

V článku to chybělo, ale šlo o výběr programátorů a dalších techniků. To sice ženy studují, ale dělá to málokterá.

+3/0
14.10.2018 22:57
Foto

J97a38r25o91m69í79r 12K74r62á82l 4650859334109

Tak. Ale ty, co se uplatní, jsou zpravidla na špici. :-)

0/0
15.10.2018 9:10
Foto

M79i54r93o86s10l89a42v 85S50o74c22h61o27r 7666637390208

No, a jak nekorektní výsledky by to byly např. kdyby měl robot spočítat národnostní poměr lidí v kriminálech?

Robot prostě počítá data, podle daného algoritmu. Že holt výsledky někomu nejdou pod nos, to je zase věc druhá..

+7/−1
14.10.2018 20:25
Foto

P95a78v19e10l 28S65o58b88o42t83k71a 5200174

jj, nikdo si není ochoten připustit, že Romů je v kriminále jen pár, a že většina vězňů se hlásí k České národnosti ;-D

0/0
14.10.2018 21:13
Foto

R88a55d85e55k 36J11a27n77a44t86a 9145216874492

Tady šlo o strojové učení, na základě starých životopisů a (nejspíš) informace o tom, zda uchazeč byl najat a jakých výsledků dosahoval.

Takže pokud dříve v Amazonu ženy nepracovaly, tak učící množina mohla být malá a tudíž špatná.

0/0
14.10.2018 22:28
Foto

T79o18m61á45š 21T33a72t68í17č23e10k 5600872450968

Nedokážu si představit, že by naprojektovali takový nesmysl, který by v hodnocení kvality vycházel z množství, a nikoliv z průměrné kvality podobných vzorků. Jinak řečeno, že by program hodnotil ženy jako potencionálně méně přínosné na základě toho, že doposud v oboru pracovalo řekněme 10 žen, a muže jako více přínosné, protože jich tam bylo 100. To nenaprogramuje ani šimpanz. Samozřejmě musel program vycházet z toho, jak bylo průměrně přínosných těch 10 žen, resp. 100 mužů.

Kdyby to bylo naprogramováno dle prvního vzoru, směje se vedoucímu projektu celý svět, jak si hledá místo k bydlení na ulici v San Francisku.

0/0
15.10.2018 0:33
Foto

P66e16t69r 75N42o85v66o74t71n39y 1611210421

Takže to fungovalo přesně jak to naučili. :-)

+5/0
14.10.2018 20:07
Foto

I61s90a15b87e40l25l78a 80Z80á47z60v85o44r29k47o72v55á 3740231810796

Určitě to muselo být nastaveno pro každou pracovní pozici zvlášť. Jinak by to nedávalo smysl. V čem byl tedy problém naprogramovat vybírání zvlášť pro muže a zvlášť pro ženy. Nějaké ženy v Amazonu budou. Když se nastaví výběr kandidátek podle jejich životopisů zvlášť tak software nějaké vhodné najde. Leda, že by byl vzorek tak malý, že by byl statisticky nezpracovatelný:-)

Ale tak mě napadlo, že autoři mohli mít docela dobrý vedlejšák. Psaní životopisů, aby kandidát prošel:-)

0/0
14.10.2018 18:21
Foto

T76o79m43á45š 55B63e22d42n89á15r 2582220404162

To jsou přesně ta nebezpečí AI, o kterých se v poslední době mluví, v praxi. Dát nějaké aplikaci volnou ruku, s tím že to po ní aspoň někdo namátkově nepřekontroluje, mi přijde šílené. Hlavně že se nikomu nic nestalo ;-D

0/−1
14.10.2018 18:08
Foto

M25i17c22h30a72l 66H26r85u67š18k88a 1966653286121

Naučila se jen to, co dělají lidi běžně. ;-D

0/0
14.10.2018 22:04
Foto

O26d64s48t38r61a84n20ě71n51ý 84U61ž65i47v89a42t12e73l

Uživatel požádal o vymazání
+8/0
14.10.2018 18:00
Foto

J14a22r32o64s42l54a49v 25K62a89d22l34e55c 5571969932401

Techniku noblafneš...;-D

+2/0
14.10.2018 17:59
Foto

Z73b50y19n82ě77k 31B14í45l69ý 1447209104771

Neselhala

+4/0
14.10.2018 17:53
Foto

J95a35n 16K25o92v53á95ř 8464821209977

Umělá inteligence, která by pochopila politickou korektnost, prostě neexistuje.

+17/0
14.10.2018 17:29
Foto

M23i97c93h97a46l 95K37u63r70z 3161267915918

Otázka je, jestli to vůbec nějaká inteligence může pochopit. Ta moje to tedy nedává.

+3/0
14.10.2018 18:59
Foto

J89i36ř90í 27E28r72b19e39n 1243844936867

Vy nekoukate na Futuramu?

0/0
15.10.2018 21:59
Foto

F28r39a64n53t97i92š89e39k 21P69e78t36r16í98k 6735171564391

Výběr je z principu diskriminační. Tím, že vybírám diskriminuji. Jediným řešením je ukončit podnikání Amazonu, jinak bude dělat rozhodnutí a to je dskriminace.

+8/0
14.10.2018 17:23
Foto

P70e78t43r 24J35a66r61o78š 6273202111

Mozna proste jen zapomeli pridat algoritmus pro pozitivni diskriminaci.

+13/0
14.10.2018 16:53
Foto

K68r98y23š98t21o28f 65L71a20n72í22k 1359610805305

Nas sef vybiral z hromady zivotopisu tim stylem, ze chlapy rovnou hazel do kose. Protoze si predurcil, ze nas 11 ajtaku musi nejak zuslechtit a to zvladne jedine zena. Ale to nemohl samozrejme napsat do zadani inzeratu, takze 50 chlapu psalo zbytecne zivotopis a pruvodni dopis, protoze do VR se dostaly jen 3 prihlasene zeny. Jednu teda vybral, ale k nicemu to moc nebylo, slecna je drsnejsi nez polovina naseho tymu. Nebo se rychle prizpusobila. Ale prislo mi to blby, a kdyz jsem mu to rikal, tak me uklidnil, ze uplne v kosi neskoncili a nechal si je v zaloze, ze priste VR nebude a oslovi rovnou ty, kteri se mu nejvice zamlouvali.

+1/0
14.10.2018 16:30
Foto

O56s63k20a29r 97B11r81u84n23a 4249520139146

A oni budou do té doby sedět doma a čekat, až si na ně vzpomene.

+4/0
14.10.2018 16:56
Foto

P97e90t28r 75K79ř38í51ž 2703644371931

Takze nechal v zaloze .. pozor na GDPR ! ;-)

+1/0
14.10.2018 17:23
Foto

M80o18j44m45í65r 57S53k80á43l14a 2190972676

Prostě typický [>-] zaměstnavatel, který následně kňučí, když se k němu zaměstnanci/uchazeči o zaměstnání chovají podobně...:-P

+1/0
14.10.2018 19:32
Foto

J97i21ř98í 85H23o10r83á67k 7245603737282

A ta pozitivně diskriminovaná slečna... ještě u vás pracuje?

0/0
14.10.2018 20:23
Foto

R53o46b54e33r38t 59M91á36s25l47o 1891651457287

Jsem programátor. Podle mě program pracoval správně a nebyl žádný logický důvod jej přestat používat.

Pokud by si zadavatel přál, aby nebyli vybíráni nejvhodnější kandidáti, ale aby ženy byly zvýhodněny, tak (z technického hlediska) není problém jim ve scóringové funkci, které to počítala jim pár bodů přičíst. Nebo to naučit tu UI. I počítače lze bohužel naučit počítat blbě (tj. politicky korektně).

Zrušení programu a rozpuštění týmu a ukazuje akorát to, že zadavatel je naprostý vydlabanec, který neví co prachama.

+36/−2
14.10.2018 16:06
Foto

P64a70v71e69l 98S88t91e60r76b68a 8386646565637

Castecne souhlasim. Problem je v tom, ze strojove uceni vychazi z predchozich dat. Tady odhalili znevyhodneni zen proto, ze puvodni data pochazela zejmena od muzu. Za rok by zjistili, ze odmitaji kvalitni zamestnance, protoze jsou lepsi nez ti soucasni a nevejdou se do tabulek. A pak by nekdo zverejnil zivotopis, ktery "prosel" a slo by to do kytek cele..

+1/0
14.10.2018 19:18
Foto

M52i36c66h56a70l 27H21r21u97š57k14a 1546263716511

Aby to nepenalizovalo ženy, se jim zařídit povedlo, problém je právě to, že se báli, jak se bude chovat k různým jiným skupinám obyvatel (národnosti, náboženství.. ).

+1/0
14.10.2018 22:09
Foto

D59a30n43i49e93l 45P23a95v53l60í84k 2354926698840

Jedno mi nejde do hlavy. Pokud skutečně ten program upřednostňoval muže na základě toho, že jich v daném oboru je prostě drtivá většina (takovou logiku nechápu, ale ok, nejsem programátor), proč vůbec naučili ten stroj to pohlaví vnímat? Nebylo by snažší prostě ignorovat kolonku "gender"? Proč to ten algoritmus vůbec bral v potaz?

+2/0
14.10.2018 15:58
Foto

M93a72r12t37i83n 88K80o43l94a28c17e53k 5719247643533

tak to vemte od začátku. Pokud bude firma chtít, aby její zaměstnanci měli vztah k jejich profesi (např. automobilka), tak kolik žen se bude projevovat jako příznivec motorsportu.

+1/0
14.10.2018 16:00
Foto

D71a30n19i26e47l 94P24a61v28l38í39k 2224946848900

Jenže původně od tohoto projektu přeci očekávali, že program nebude zvýhodňovat žádné pohlaví. Nebo se snad pletu? Amazon není žádný motorkářský klub. A jak tu píše pán nade mnou. Je přeci lehké muži nebo ženě přičíst pár bodů automaticky.

0/0
14.10.2018 16:11
Foto

M28a50r22t62i40n 52K88o87l61a78c86e47k 5309867913503

1. když už nějaké body přidáte, tak už to nikdy nebude rovné.

napište si algoritmus na výběr provozovatele mýtného a přidejte 10 bodů na 100 bodové stupnici tomu, co již v čr má s tímto dlouhodobou zkušenost. s vysokou pravděpodobností znám vítěze

2. snažil jsem se sdělit, že pohlaví může být vyjádřeno i podle zájmů a může to pramenit i z různého rozložení a dobrých zkušeností.

0/0
14.10.2018 16:17

ANALÝZA: Tři důvody, proč Rusko vpadne na Ukrajinu. A tři další, proč ne

Premium Copak se asi odehrává v hlavě Vladimira Putina? To je otázka, kterou dnes řeší celý svět. Ruský prezident rozehrál...

Velký test samotestů na covid: lépe fungují výtěrové, některé neodhalí nic

Premium Ještě před dvěma lety znamenaly dvě čárky na testu, že se budou chystat křtiny, delta byly americké aerolinky, gama...

Nevěra dříve či později vztah zničí. A není cesty zpět, říká filmařka Sedláčková

Premium Vede doslova dvojí život ve dvou zemích. Ve Francii pracuje Andrea Sedláčková především jako střihačka filmů, u nás...