Практиките за безопасност на компаниите за изкуствен интелект не отговарят на световните стандарти

Практиките за безопасност на компаниите за изкуствен интелект не отговарят на световните стандарти

Практиките за безопасност на големите компании за изкуствен интелект, като Anthropic, OpenAI, xAI и Meta, са „далеч от нововъзникващите световни стандарти“, според ново издание на индекса за безопасност на изкуствения интелект на Института за бъдещето на живота, цитирано от Ройтерс.

Институтът заяви, че оценката на безопасността, проведена от независим експертен панел, е установила, че макар компаниите да се надпреварват в работата по създаване на суперинтелект, никоя от тях не е имала стабилна стратегия за контрол на такива напреднали системи.

Проучването идва на фона на засилена обществена загриженост относно общественото въздействие на по-умните от човека системи, способни на разсъждение и логическо мислене, след като няколко случая на самоубийство и самонараняване бяха свързани с чатботове с изкуствен интелект.

„Въпреки неотдавнашния шум около хакерството, задвижвано от изкуствен интелект, и това, че изкуственият интелект води хората до психоза и самонараняване, американските компании за изкуствен интелект остават по-слабо регулирани от ресторантите и продължават да лобират срещу обвързващите стандарти за безопасност“, каза Макс Тегмарк, професор в MIT и президент на Института за бъдещето на живота.

Институтът за бъдещето на живота е организация с нестопанска цел, която изразява загриженост относно рисковете, които интелигентните машини представляват за човечеството. Основана през 2014 г., в началото тя беше подкрепена от главния изпълнителен директор на Tesla Илон Мъск.

През октомври група, включваща учени като Джефри Хинтън и Йошуа Бенгио, призова за забрана на разработването на свръхинтелигентен изкуствен интелект, докато обществеността не го поиска и науката не проправи безопасен път напред.

Говорител на Google DeepMind заяви, че компанията ще „продължи да прави иновации в областта на безопасността и управлението в крак с възможностите“, тъй като моделите ѝ стават все по-усъвършенствани, докато xAI коментира, че „това са лъжи на традиционните медии“ в на пръв поглед автоматизиран отговор.

„Споделяме нашите рамки за безопасност, оценки и изследвания, за да помогнем за усъвършенстването на индустриалните стандарти, и непрекъснато укрепваме защитите си, за да се подготвим за бъдещите възможности“, каза говорител на OpenAI.

Компанията инвестира сериозно в изследвания за гранична безопасност и „строго“ тества своите модели, добави говорителят.

Anthropic, Meta, Z.ai, DeepSeek и Alibaba Cloud не са отговорили на исканията за коментар по проучването.

Коментари

НАЙ-НОВО

|

НАЙ-ЧЕТЕНИ

|

НАЙ-КОМЕНТИРАНИ