Конкурент на OpenAI в изкуствения интелект влезе в конфликт с Пентагона за шпионирането на хора

Икономика

Компанията Anthropic е в конфликт с Пентагона относно военното използване на нейния изкуствен интелект, съобщават Reuters и The Wall Street Journal. Информационната агенция съобщи, че двете страни са стигнали до задънена улица след продължителни преговори за договор на стойност 200 милиона долара.

Договорът е имал за цел да внедри моделите Claude на Anthropic във военни операции като част от правителствената програма за изкуствен интелект. Anthropic, заедно с Google, xAI на Илон Мъск и OpenAI, са получили договори с Пентагона през 2025 г. за внедряване на изкуствен интелект в американската отбрана.

Anthropic и OpenAI са две водещи компании в света, разработващи мащабни езикови модели и други системи за изкуствен интелект с общо предназначение; техните технологии са в основата на интелигентни чатботове и асистенти, които могат да пишат текст, да програмират, да анализират данни и да участват в разговорен диалог почти като хората. OpenAI получи широко признание след пускането на моделите ChatGPT и GPT-3/4, като ефективно зададе стандарта за пазара на генеративен изкуствен интелект. Anthropic, основана от възпитаници на OpenAI, разработва собствена линия модели Claude и се позиционира като играч с особен фокус върху сигурността и контролируемостта на изкуствения интелект.

Напрежението възникна между Anthropic и Пентагона почти веднага след подписването на договора, тъй като условията на споразумението с Anthropic забраняват използването на Claude AI за всякакви дейности по вътрешно наблюдение. The Wall Street Journal съобщава, че това ограничава използването на  изкуствен интелект от Федералното бюро за разследване (ФБР) и Службата за имиграция и митнически контрол (ICE).

Компанията Anthropic е загрижена, че инструментите ѝ биха могли да бъдат използвани за шпиониране на американци или за подпомагане на насочването на оръжия без човешки контрол, съобщиха няколко източника пред Reuters.

Пентагонът реагира негативно на „споразумението с потребителя“. Длъжностните лица смятат, че те би трябвало да могат да внедряват търговски технологии с изкуствен интелект, независимо от политиките за използване на компаниите, стига те да спазват законодателството на САЩ.

Моделите на Anthropic са обучени да избягват действия, които биха могли да причинят вреда, и служителите на компанията ще преконфигурират изкуствения интелект за Пентагона, съобщиха източници пред Reuters. По-рано, главният изпълнителен директор на Anthropic, Дарио Амодей, заяви, че човечеството трябва да се „събуди“ и да осъзнае потенциално катастрофалните рискове, свързани с разработването на мощни системи с изкуствен интелект. Той твърди, че изкуственият интелект може да бъде използван от отделни лица и групи за разработване на биологични оръжия, които „в най-лошия случай биха могли да унищожат целия живот на Земята“.

Коментари

НАЙ-НОВО

|

НАЙ-ЧЕТЕНИ

|

НАЙ-КОМЕНТИРАНИ