Защо един робот може да се окаже расист

Защо един робот може да се окаже расист

Дали един робот е способен да определи какво е човешката красота? Група руски учени се опитват да отговорят на този въпрос, организирайки конкурс по красота, чието жури е било изкуствен интелект, пише „Монд“.

Лабораторията, финансирана от Русия и Хоконг, събрала от доброволци близо 600 000 снимки на жени и мъже от повече от 100 страни по света за „конкурса“.

Три алгоритъма  сканирали портретите и  селекционирали „най-красивите“ лица според възможно най-обективните критерии като симетрия на лицето, наличие или липса на бръчки, години.

Един от критериите, пропуснати в „кастинга“, бил цветът на кожата.  Въпреки това, когато учените видели 44-ата победители на робота-жури, преброили сред тях 38 бели. Останалите шестима се оказали азиатци и само един от тях бил с относително по-тъмна кожа.

Макар че ¾ от доброволците били бели, резултатите от експеримента все пак има с какво да тревожат. Теоретично, изкуственият интелект би трябвало да прилага критериите, без да отчита тена на моделите. Но според крайния резултат не се е случило така.

Но и не може да се каже, че изкуственият ентелект е „расист“. Най-малкото, защото не е знаел, че гледа снимки на хора.  За него става въпрос само за оценка на пиксели. Защо тогава е избрал предимно бели хора?

Според Константин Кисельов, директор на технологичната Youth Laboratories, алгоримътъм може да е бил „предубеден“ от значителното присъствие на бели модели. От 600 000 хиляди доброволци само около 40 000 били индийци, а 9000 – африканци и никой от тях не бил оценен като „красив“ от робота.

Изкуственият интелект работел с техниката „дълбоко обучение“, която позволява на програмата да научи и да  адаптира функциите си според данните, с които разполага. Сканирайки 600 000 лица, машината се адаптира и оформя идеята си за „красота“. Програмата функционира като „невронна мрежа“, съставена от хиляди единици, всяка от които прави просто изчисление.

Опитът показва още веднъж, че изкуственият интелект, което заема все повече място в живота на хората, не е съвсем неутрален по дефиниция. Той зависи от съвкупност от фактори, включително от база данни, които създателите му са му дали.  И затова няма как една технология, наречена интелигентна, да е обективна по презумпция, коментира „Монд“.

„Хората са тези, които мислят, дори когато това се изразява в алгоритни, които ни карат да мислим, че това е неутрално и научно“, коментира Бернар Харкурт, преподавател по право и политически науки в Колумбийския университет.

„Сексизмът, расизмът и другите форми на дискриминация са създадени също по алгоритми за автоматично обучение.  Те са в сърцето на технологиите,  които правят тези системи „интелигентни“, които ни категоризират и вземат решенията как да ни продават реклама (...) Както всички предишни технологи, изкуственият интелект отразява ценностите на създателите си“, коментира в статия неотдавна Кейт Крофърд, изследовател в Microsoft, която е работила и за Белия дом по темата за иксутвения интелект.  Според нея хората трябва да останат бдителни и скептични към технологиите, които могат да възпроизведат предразсъдъците на реалния свят.

Коментари

НАЙ-НОВО

|

НАЙ-ЧЕТЕНИ

|

НАЙ-КОМЕНТИРАНИ