Нима и роботите станаха сексисти?

Нима и роботите станаха сексисти?

Нима и роботите станаха сексисти?

Между 2014 г. и 2017 г. Amazon се опита да създаде алгоритмична система за анализ на автобиографии, която да подбира най-добрите кандидати за работа. Системата можеше да се нарече Светия Граал на HR-a, ако наистина работеше.

Но тя не работи.

След като компанията обучи алгоритъма въз основа на собствените си данни за заетостта за предходните 10 години, се оказа, че алгоритъмът проявява пристрастие към мъжете кандидати. Срещайки думата "жена", той понижаваше рейтинга на кандидата. Инженерите на Amazon се опитаха да решат този проблем, но нямаше особен смисъл и проектът беше прекратен.

Примерът е повод да се замислим за потенциалната вреда, която системите за автоматично набиране на персонал могат да причинят, ако се използват, без да се вземат предвид социалните и правните последици, които могат да се породят поради необяснимите решения на алгоритъма.

Числата не винаги казват истината.

Марк Жируа, адвокат по трудово правоотношение в Nilan Johnson Lewis, твърди, че негов клиент се е отказал да закупи подобен инструмент за скрининг, след като разбрал как алгоритъмът приоритизира CV-тата. След подробен анализ се оказало, че системата отдава предпочитания на кандидати, чието име започва с Джарет и са играли лакрос в гимназията. 

"Това е наистина отличен показател за някои от проблемите с тези системи - резултати са толкова добри, колкото са данните, които залагате в алгоритъма", казва Жируа. "Вероятно е имало статистически значима връзка между тези два фактора за представянето, но е трудно да се докаже, че те са наистина важни за дадената дъжност."

Това е възможно при всеки подобен алгоритъм на изкуствения интелект, който използва исторически данни за проучване на хората, предупреждават изследователи и технолози.

Хората обикновено мислят, че машините вършат нещата по-добре, което обяснява защо много компании използват инструменти, базирани на ИИ, за да избегнат човешките предразсъдъци. "Основната предпоставка, на която се основава тази технология, е че хората правят грешки и компютрите могат да се справят по-добре", казва Реймънд Берти, адвокат по заетостта в Akerman LLP.

Очевидно нещата не са толкова прости. Не сме достигнали етапа, в който работодателят може да позволи на компютъра да върши цялата работа. Компаниите са отговорни за решенията, които взимат при наемане на персонал, включително и за инструментите, които използват при отсяване на кандидатите. Компанията може да бъде държана отговорна, дори ако не е наясно защо алгоритъмът предпочита един кандидат пред друг.

Продължава на следващата страница.

За да преродвратят недоразуменията при отсяване на кандидати, много компании се обръщат към организационната психология - област, предоставяща най-добрите практики за намиране на нови служители.Така програми като Plum и Pymetrics например включват още една стъпка в процеса на кандидатстване - анкети, цифрови задачи и игри, за да се създаде по-пълен личностен профил на кандидата - например колко внимателен е към детайлите и склонен ли е да рискува.

След това алгоритъм анализира резултатите, които се сравняват с показателите на високоефективните служители, които вече работят в организацията.

"Бях шокирана, че в света има хиляди организационни психолози, цяла наука е посветена на това, как може да се предвиди, дали даден човек ще бъде добър служител или не. Но в същото време 98% от компаниите използват нискокачествени данни, които не могат да предскажат нищо, а единствено затвърждават пристрастията", казва Кайтлин Макгрегър, изпълнителен директор на Plum.

Pymetrics обещава безпристрастни резултати, твърдейки че допълнително тества алгоритмите си, преди да ги използва. Изпълнителният директор Фрида Поли заявява, че Pymetrics съхранява набор от данни за 50 000 кандидати, включително информация за раса и пол, и всеки алгоритъм се тества за тях. Ако алгоритъмът одобри определена група въз основа на пол или раса, компанията може да разбере, че нещо не е наред и да коригира проблема.

"Някои хора казват, че трябва внимателно да анализирате кода на алгоритъма, но това не означава непременно, че той дава обективни резултати", казва Поли. "Но да го тествате вероятно би било най-лесното решение."

Коментари

НАЙ-НОВО

|

НАЙ-ЧЕТЕНИ

|

НАЙ-КОМЕНТИРАНИ