Инженер на Microsoft алармира, че инструментът с ИИ на компанията генерира вредни и обедини изображения

Инженер на Microsoft алармира, че инструментът с ИИ на компанията генерира вредни и обедини изображения

Инженер на Microsoft алармира, че инструментът с ИИ на компанията генерира вредни и обедини изображения

Инженер на Microsoft, работещ в сферата на изкуствения интелект, алармира, че инструментът на компанията за генериране на изображения с помощта на ИИ възпроизвежда насилствени и сексуални изображения, които могат да представляват опасност за обществото, предаде „Уолстрийт джърнъл“.

В писма до Федералната търговска комисия и до борда на Microsoft Шейн Джоунс, главен мениджър по софтуерно инженерство, адресира опасенията си относно „подхода на технологичния гигант към отговорния изкуствен интелект“.

Джоунс изрази притеснения, че инструментът Copilot Designer на компанията може да се използва за създаване на опасни изображения, включително изображения на сексуализация, теории на конспирацията и употреба на наркотици

„Copilot Designer създава вредно съдържание в различни други категории, включително: политически пристрастия, употреба на алкохол и наркотици от непълнолетни, злоупотреба с корпоративни търговски марки и авторски права, теории на конспирацията и религия, за да назовем само няколко“, посочва Джоунс в писмото си до Федералната търговска комисия (FTC), което той публикува в LinkedIn. „Многократно съм призовавал Microsoft да премахне Copilot Designer от публична употреба, докато не бъдат въведени по-добри предпазни мерки“, добавя той.

По думите му Комитетът за екологична, социална и обществена политика на Microsoft трябва да проведе независимо разследване, за да помогне на компанията „да ръководи индустрията с най-високите стандарти за отговорен ИИ“.

„Нуждаем се от стабилно сътрудничество в индустрията, както и с правителствата и гражданското общество, за изграждане на обществена осведоменост и образование за рисковете от ИИ, както и за ползите“, пише още Джоунс в писмото.

Джоунс, който работи в Microsoft от шест години, каза, че е тества генератора на изображения с изкуствен интелект от декември насам и че е открил недостатъци и уязвимости в сигурността, които могат да позволят на потребителите да генерират вредни обидни изображения.

Той отказва да коментари повече темата, отвъд писмата и публикацията си в LinkedIn.

„Ангажираме се да отговорим на всички притеснения на служителите в съответствие с политиките на нашата компания и оценяваме усилията на служителите в изучаването и тестването на нашата най-нова технология, за да подобрим допълнително нейната безопасност“, каза говорител на Microsoft в отговор на писмата.

В публикация в блог миналия месец президентът на Microsoft Брад Смит обсъди ангажимента на компанията да направи ИИ безопасен за потребителите. „Тъй като тези нови инструменти идват на пазара от Microsoft и в целия технологичен сектор, трябва да предприемем нови стъпки, за да гарантираме, че тези нови технологии са устойчиви на злоупотреби“, каза Смит.

Надпреварата в областта на изкуствения интелект експлодира през последните години след пускането на чатбота ChatGPT в края на 2022 г. Милиарди долари се наляха в индустрията, предизвиквайки „оръжейна надпревара“ сред технологичните гиганти и милиардерите за следващата дойна крава на изкуствения интелект.

Миналата година Microsoft стартира Copilot Designer, който използва същата технология като ChatGPT на OpenAI. Системата включва генератора DALL-E 3 на OpenAI, който позволява на потребителите да създават изображения с въвеждане на комбинация от думи или описания.

Писмата на Джоунс идват на фона на множество противоречения около конкурентния ИИ инструмент на Google. Миналия месец Google спря функцията за генериране на изображения на хора от своя чатбот Gemini след онлайн реакция около начина, по който инструмента третира  расата и етническата принадлежност на хората.

Джоунс призна, че други компании с ИИ продукти имат свои собствени проблеми.

Коментари

НАЙ-НОВО

|

НАЙ-ЧЕТЕНИ

|

НАЙ-КОМЕНТИРАНИ