Анализатори: Европейските правила за изкуствения интелект са изправени пред решаващ момент
Определяните като първи в света правила на Европейския съюз( EС) за изкуствения интелект са изправени пред решаващ момент, тъй като преговарящите се опитват да изработят последните детайли тази седмица, а преговорите са усложнени от внезапното развитие на генеративния изкуствен интелект(ИИ), съобщи Асошиейтед прес.
За пръв път през 2019 г. се очакваше Законът за изкуствения интелект на ЕС да бъде първата в света цялостна нормативна уредба за изкуствения интелект, която да затвърди позицията на 27-членния блок като световен законодател, когато става въпрос за овладяване на технологичната индустрия.
Процесът обаче бе блокиран от битката в последния момент за това как да се регулират системите, които са в основата на услугите с ИИ с общо предназначение като ChatGPT на OpenAI и чатбота Bard на Google. Големите технологични компании лобират срещу това, което смятат за свръхрегулиране, което задушава иновациите, докато европейските законодатели искат допълнителни гаранции за авангардните системи за ИИ, които тези компании разработват.
Междувременно САЩ, Великобритания, Китай и глобални коалиции като Групата на 7-те големи демокрации се включиха в надпреварата за изготвяне на предпазни огради за бързо развиващата се технология, подчертана от предупрежденията на изследователи и правозащитни групи за екзистенциалните опасности, които генеративният ИИ представлява за човечеството, както и за рисковете за ежедневието.
Вместо Законът за изкуствения интелект да се превърне в глобален златен стандарт за регулиране на изкуствения интелект, има малък, но нарастващ шанс той да не бъде договорен преди изборите за Европейски парламент", казва Ник Рейнърс, анализатор на технологичната политика в Eurasia Group, консултантска фирма за политически рискове.
Той каза, че "просто има толкова много неща, които трябва да бъдат заковани" по време на последния кръг от разговори, който официалните лица се надяват да се състои в сряда. Дори и да работят до късно през нощта, както се очаква, може да се наложи да бързат, за да приключат през новата година, каза Рейнърс.
Когато Европейската комисия, изпълнителният орган на ЕС, представи проекта през 2021 г., в него почти не се споменаваха системите за изкуствен интелект с общо предназначение като чатботовете. Предложението за класифициране на системите с ИИ по четири нива на риск - от минимален до неприемлив - по същество беше замислено като законодателство за безопасност на продуктите.
Брюксел искаше да тества и сертифицира информацията, използвана от алгоритмите, задвижващи ИИ, подобно на проверките за безопасност на потребителите на козметика, автомобили и играчки.
Това се промени с бума на генеративния изкуствен интелект, който предизвикваше удивление, като композираше музика, създаваше изображения и пишеше есета, наподобяващи човешки труд. Той също така породи опасения, че технологията може да бъде използвана за масирани кибератаки или за създаване на нови биологични оръжия.
Рисковете накараха законодателите на ЕС да подсилят Закона за изкуствения интелект, като го разширят до моделите на фондации. Известни още като големи езикови модели, тези системи се обучават върху огромни масиви от писмени произведения и изображения, извлечени от интернет.
Група влиятелни компютърни учени публикуваха отворено писмо, в което предупреждават, че отслабването на Закона за изкуствения интелект по този начин ще бъде "исторически провал". Междувременно ръководителите на Мистрал се скараха онлайн с изследовател от подкрепена от Елон Мъск организация с нестопанска цел, която има за цел да предотврати "екзистенциалния риск" от ИИ.
ИИ е "твърде важен, за да не се регулира, и твърде важен, за да не се регулира добре", заяви Кент Уокър, главен юрист на Google, в реч в Брюксел миналата седмица. "Надпреварата трябва да бъде за най-добрите регулации на ИИ, а не за първите регулации на ИИ."
Моделите на фондации, използвани за широк спектър от задачи, се оказват най-наболелият въпрос за преговарящите от ЕС, тъй като регулирането им "противоречи на логиката на целия закон", който се основава на рисковете, породени от конкретните употреби, каза Иверна Макгоуън, директор на европейския офис на нестопанската организация за цифрови права Center for Democracy and Technology.
Естеството на системите за ИИ с общо предназначение означава, че "не се знае как се прилагат", каза тя. В същото време са необходими регулации, "защото в противен случай надолу по хранителната верига няма никаква отговорност", когато други компании изграждат услуги с тях, каза Макгауън.
Алтман предложи да се създаде американска или глобална агенция, която да лицензира най-мощните системи за изкуствен интелект. Тази година той предложи, че OpenAI може да напусне Европа, ако не може да спазва правилата на ЕС, но бързо оттегли тези коментари.
Германският стартъп Aleph Alfa заяви, че е необходим "балансиран подход" и подкрепи подхода на ЕС, основан на риска. Но той "не е приложим" за моделите на фондации, които се нуждаят от "по-гъвкави и динамични" регулации, заяви германската компания за изкуствен интелект.
Преговарящите от ЕС все още трябва да разрешат няколко други спорни точки, включително предложението за пълна забрана на публичното разпознаване на лица в реално време. Страните искат изключение, за да могат правоприлагащите органи да го използват за откриване на изчезнали деца или терористи, но правозащитните групи се притесняват, че това на практика ще създаде правна основа за наблюдение.
Трите клона на правителството на ЕС са изправени пред един от последните си шансове да постигнат споразумение в сряда, добавя Асошиейтед прес.
Ключови думи
ОЩЕ ОТ КАТЕГОРИЯТА
|
|
Коментари
Няма въведени кометари.