Културни кодове: Истината на живота или истината на ценностите

Културни кодове: Истината на живота или истината на ценностите

Неотдавна Google беше принудена да спре работата на генератор на изображения  с изкуствен интелект, наречен Gemini, след критики, че има предубедено отношение... срещу белите хора. Споровете започнаха с анонимна публикация в популярна социална мрежа. Публикацията беше от анонимен потребител @EndWokeness, който обяснява, че при задаване на въпрос за изображение на един от бащите-основатели на Америка, Gemini показал тъмнокож индианец, азиатец и друг цветнокож мъж. Когато го помолили за портрет на папата, той показал чернокожи мъж и жена.

Поради оплаквания, компанията спря способността на ИИ-инструмента да генерира изображения на хора.  „Очевидно е, че системата не се справи със задачата. Някои от създадените изображения са неточни или дори обидни“, написа старши вицепрезидентът на Google Прабхакар Рагхаван, добавяйки, че Gemini понякога „стига твърде далеч“ в стремежа си към разнообразие.

Рагхаван даде техническо обяснение защо инструментът работи по този начин. Google обучи Gemini да избягва попадането в някои класически клопки на ИИ, като стереотипното представяне на всички адвокати като мъже. Но тази настройка не отчита случаите, когато те очевидно трябва да попадат в раздела на изключенията.

Всичко това може да изглежда просто като още един мрачен кръг от културна война за „равно представителство“, която поне този път може бързо да бъде разрешена чрез отстраняване на технически проблем. (Google планира да пусне отново ИИ-инструмента след няколко седмици.) Но тук се крие нещо по-сериозно. Проблемът на Gemini не е само технически. Това е философски въпрос, за който все още няма ясен отговор в света на ИИ.

Какво означава пристрастие?

Представете си, че работите в Google. Вашият шеф ви възлага да разработите генератор на изображения с изкуствен интелект. За вас е толкова лесно, колкото да белите круши - вие сте брилянтен разработчик! Но един ден, докато тествате инструмента, разбирате, че сте в трудна ситуация. Вие искате ИИ ​​да създаде изображение на главния изпълнителен директор. И ето, това е мъж. От една страна, вие живеете в свят, в който по-голямата част от изпълнителните директори са мъже, така че програмата трябва да отразява точно това, като създава образи на мъже. От друга страна, това затвърдява половите стереотипи, които пречат на жените да заемат ръководни позиции. И няма нищо в определението за „изпълнителен директор“, което да показва пол. Така че струва ли си да се опитвате да създадете инструмент, който показва балансираност на екипа, дори ако това не отразява реалността?

Въпрос на гледна точка

Компютърните специалисти са свикнали да мислят за „пристрастност“ от гледната точка на статистическото значение. Една програма за прогнозиране е необективна, ако постоянно греши в една или друга посока. (Например, ако приложение за времето постоянно надценява вероятността за дъжд, неговите прогнози са статистически пристрастни.) Кратко и ясно. Това обаче е различно от съвременното разбиране на повечето хора за думата „пристрастие“, което е по-скоро като „предубеждение срещу определена група“.

Проблемът е, че ако създавате генератор на изображения, който прави статистически правилни заключения относно половото разпределение на изпълнителните директори, той ще бъде необективен във втория смисъл на думата. И ако го направите така, че неговите резултати да нямат връзка с пола, тогава той ще бъде необективен в статистически смисъл.

И така, как бихте разрешили този проблем?

„Не мисля, че има ясен отговор, защото всичко опира до ценности“, каза Джулия Стоянович, директор на Центъра за изкуствен интелект към Нюйоркския университет. Във всеки алгоритъм е заложена ценностната преценка за това на какво да се даде приоритет, включително когато става въпрос за конкуриращи се представи за пристрастие. Така че компаниите трябва да решат дали искат да бъдат точни в изобразяването на това как изглежда обществото в момента, или да популяризират визия за това как смятат, че обществото може или дори трябва да изглежда, тоест изобразяват свят на мечти.

Какво трябва да правят технологичните компании?

Първото нещо, което компаниите трябва да направят, е ясно да разберат за какво е нужно да бъде оптимизиран алгоритъмът. Към намаляването на какъв тип пристрастност ще бъде насочен той. След това компаниите трябва да разберат как да вградят това решение в алгоритъма. Част от отговора на този въпрос е разбирането защо хората ще използват ИИ - инструмент. Те могат да се опитат да създадат реална картина на света (папата е бял мъж) или различаваща се (има жени папи, но това е ваш подход и избор). „Gemini възприеха втория подход, осъзнавайки, че връщането към историческите пристрастия, които моделът е усвоил, би предизвикало възражения сред мнозина“, обяснява Маргарет Мичъл, главен етик в стартирането на AI /ИИ/ Hugging Face. Както обяснява Мичъл, Google може да използва определени „технически трикове“, за да накара Gemini да създаде „правилните“ изображения. Например, сигнали за разнообразие могат да бъдат добавени към заявките на потребителите, превръщайки „папа“ в „папа жена“ и „бащи-основатели“ в „бащи с различен етнически произход“.

Но вместо да възприема подход, базиран само на въображаеми идеи, Google може да оборудва Gemini със способността да разбере какъв подход всъщност иска даден потребител (например, като поиска обратна връзка за техните предпочитания) и след това да върне желания резултат, при условие че потребителят не иска нещо забранно. Това, което се смята за забранено, отново се свежда до ценности. Всяка компания трябва ясно да дефинира своите ценности и след това да предостави на своя ИИ  възможността да отхвърля заявки, когато нещо нарушава тези ценности. В противен случай ще завършим с нещо като „филм за възрастни“ с участието на  Тейлър Суифт.  Разработчиците на ИИ имат техническите възможности да направят това. Въпросът е дали имат философския капацитет да се съобразят с ценностния избор, който правят, и добросъвестността да бъдат честни по този въпрос.

Източник: VOX

Коментари

НАЙ-НОВО

|

НАЙ-ЧЕТЕНИ

|

НАЙ-КОМЕНТИРАНИ