Jinde zase docházelo k tomu, že prediktivní algoritmy nepřiměřeně penalizovaly lidi, kteří nebyli bělochy. Do těchto algoritmů přitom nebyly jako vstupy zahrnuty ani rasa, ani pohlaví.
Je to vina algoritmů?
Když algoritmy obviňujeme z toho, že podléhají předsudkům, vlastně je tím připodobňujeme lidem. Tím přesouváme vinu na nástroj samotný. Odpovědnými bychom však měli činit lidi, kteří zodpovídají za rozhodování. Kromě toho má navíc v oblasti strojového učení pojem „předsudek“ trochu jiný význam, než jaký je ten obvykle používaný.
V případě algoritmu, který používal Amazon, veškerá vstupní data sestávala z historických dat. Algoritmus tak využíval předchozí náborová rozhodnutí, která byla činěna lidmi. Obviňování algoritmu v takové situaci opravdu nepomůže problém vyřešit, tvrdí Harvard Business Review.
Lidské rozhodování bývá ještě horší než algoritmy
Pokud se budeme držet původních, chybných rozhodnutí lidí, výsledky se v budoucnu samozřejmě nezmění. Kdybychom se však rozhodli algoritmy nevyužívat a zůstat závislými na lidském úsudku, znamenalo by to, že jsme snahu o objektivitu vzdali a s předsudky nikdy nic neuděláme.
Lidé totiž:
- Rozhodují nekonzistentně: Nejsme spolehliví – pravděpodobnost chyby se zvyšuje s tím, jak se zvyšuje naše únava. Kromě toho je pro nás téměř nemožné rozhodovat konzistentně, protože učinit lidský proces rozhodování vlastně ani nemůže být 100% transparentní.
- Jsou snadno rozptýleni irelevantními informacemi: Vyšší lidé si vydělají víc peněz. Určitě však vysoké lidi nenajímáme ani nepovyšujeme právě proto, že jsou vysocí. Přesto však tato charakteristika náš úsudek prostě nějak ovlivňuje.
- Nejsou transparentní a spoléhají se na subjektivní kritéria: Náboráři zpravidla nebudou umět vysvětlit, co přesně to znamená např. být „týmový hráč“. Jak spolehlivě umíme tuto vlastnost poznat?
-jk-