Американски съд отказа да спре санкциите на Пентагона срещу Anthropic

Икономика

Федерален апелативен съд във Вашингтон в сряда отказа засега да блокира решението на Пентагона да включи компанията Anthropic в черния списък за национална сигурност — победа за администрацията на Доналд Тръмп, която идва след като друг апелативен съд стигна до противоположно решение по отделно дело, заведено от Anthropic.

Anthropic, разработчикът на популярния AI асистент Claude, твърди, че министърът на отбраната Пийт Хегсет е превишил правомощията си, когато е определил компанията като риск за веригата на доставки за националната сигурност — етикет, който блокира достъпа ѝ до договори с Пентагона и може да доведе до по-широко изключване от държавни поръчки, предава Ройтерс.

Ръководители на Anthropic заявяват, че това решение може да струва на компанията милиарди долари пропуснати ползи и да навреди сериозно на репутацията ѝ. Състав от съдии в Апелативния съд на САЩ за окръг Колумбия отхвърли искането на Anthropic временно да спре действието на мярката, докато делото се разглежда. Решението не е окончателно.

Делото е едно от двете, заведени от Anthropic срещу безпрецедентния ход на Хегсет, предприет след като компанията отказала да позволи на военните да използват чатбота Claude за наблюдение или автономни оръжия поради съображения за безопасност и етика.

Хегсет е издал заповеди срещу Anthropic по два различни закона, като компанията оспорва всяка от тях поотделно. Федерален съдия в Калифорния вече блокира едната заповед на 26 март, като заяви, че Пентагонът вероятно е действал незаконно, като е предприел ответни действия срещу Anthropic заради позицията ѝ по въпросите на безопасността на изкуствения интелект.

Това е първият случай, в който американска компания публично е обявена за риск за веригата на доставки съгласно рядко използвани закони за обществени поръчки, насочени към защита на военните системи от саботаж или проникване.

В своите искове Anthropic твърди, че правителството е нарушило правото ѝ на свобода на словото, гарантирано от Първата поправка на Конституцията, като е реагирало срещу позициите ѝ относно безопасността на AI. Компанията също така заявява, че не ѝ е била дадена възможност да оспори решението, което нарушава правото ѝ на справедлив процес съгласно Петата поправка.

Според исковете, решенията са незаконни, не се основават на факти и противоречат на предишни положителни оценки на военните за Claude. Министерството на правосъдието обаче твърди, че отказът на Anthropic да премахне ограниченията върху използването на Claude може да създаде несигурност в Пентагона относно начина на използване на системата и да доведе до рискове при военни операции.

Правителството заявява, че решението му е продиктувано от отказа на компанията да приеме договорни условия, а не от нейните възгледи за безопасността на AI.

Делото във Вашингтон се отнася до закон, който може да доведе до разширяване на „черния списък“ към цялото федерално управление след междуведомствен преглед. Делото в Калифорния разглежда по-тесен закон, който изключва Anthropic от договори с Пентагона, свързани с военни информационни системи.

Коментари

НАЙ-НОВО

|

НАЙ-ЧЕТЕНИ

|

НАЙ-КОМЕНТИРАНИ