Британските лейбъристи е опитват да ограничат ключови играчи в областта на изкуствения интелект

Британските лейбъристи е опитват да ограничат ключови играчи в областта на изкуствения интелект

Великобритания ще въведе първия в историята си закон за изкуствения интелект(ИИ), но новото лейбъристко правителство на министър-председателя Киър Стармър е изправено пред деликатен проблем, свързан с установяването на достатъчно строги правила, които същевременно да позволяват иновации, съобщи CNBC.

В реч, произнесена от крал Чарлз III от името на администрацията на Стармър, правителството заяви в сряда, че „ще се стреми да създаде подходящо законодателство, което да постави изисквания към тези, които работят за разработването на най-мощните модели на изкуствен интелект“. 

Но речта се въздържа да спомене действителен законопроект за изкуствения интелект, който много ръководители и коментатори от технологичната индустрия очакваха. 

В Европейския съюз властите въведоха мащабен закон, известен като Закон за изкуствения интелект, който подлага на много по-строги ограничения компаниите, разработващи и използващи изкуствен интелект. 

Много технологични фирми - както големи, така и малки - се надяват, че Обединеното кралство няма да тръгне по същия път, прилагайки правила, които те смятат за твърде тежки.

Как може да изглежда законопроектът за изкуствения интелект в Обединеното кралство

 
Очаква се лейбъристите все пак да въведат официални правила за ИИ, както партията заложи в предизборния си манифест.  

Правителството на Стармър се ангажира да въведе „обвързваща регулация за шепата компании, които разработват най-мощните модели на изкуствен интелект“, както и законодателство, което забранява дълбоките фалшификати със сексуално съдържание.

Вземайки на прицел най-мощните модели на ИИ, лейбъристите ще наложат по-строги ограничения на компании като OpenAI, Microsoft, Google, Amazon, както и стартиращи предприятия за изкуствен интелект, сред които Anthropic, Cohere и Mistral. 

„Най-големите играчи в областта на ИИ вероятно ще бъдат подложени на по-строг контрол от преди“, заяви Мат Калкинс, главен изпълнителен директор на софтуерната фирма Appian, пред CNBC. 

„Това, от което се нуждаем, е благоприятна среда за широкообхватни иновации, която се управлява от ясна регулаторна рамка, осигуряваща справедливи възможности и прозрачност за всички.“ 

Люис Лиу, ръководител на отдела за изкуствен интелект във фирмата за софтуер за управление на договори Sirion, предупреди, че правителството трябва да избягва да използва „подход на широк удар с чук, за да регулира всеки отделен случай на употреба“.

Случаи на употреба като клиничната диагностика - които включват чувствителни медицински данни - не трябва да бъдат хвърляни в една и съща кофа с неща като корпоративен софтуер, каза той.

„Обединеното кралство има възможност да се справи с този нюанс и да извлече огромна полза за своя технологичен сектор“, каза Лиу пред CNBC. Той обаче добави, че досега е видял „положителни индикации“ за плановете на лейбъристите за ИИ.

Законодателството за изкуствения интелект ще се различава от това на предшественика на Стармър. При бившия министър-председател Риши Сунак правителството избра лек подход към ИИ, като вместо това се опита да приложи съществуващите правила към технологията. 

Предишното консервативно правителство заяви в политически документ от февруари, че твърде скорошното въвеждане на задължителни мерки може „да не успее да се справи ефективно с рисковете, бързо да остарее или да задуши иновациите“. 

През февруари новият министър на технологиите на Обединеното кралство Питър Кайл заяви, че лейбъристите ще задължат със закон компаниите да споделят с правителството тестови данни за безопасността на своите модели на изкуствен интелект. 

„Ще задължим със закон резултатите от тези тестове да бъдат предоставяни на правителството“, заяви тогава Кайл, министър на технологиите в сянка, в интервю за Би Би Си.

Правителството на Сунак беше осигурило споразумения от технологичните фирми за споделяне на информация за тестовете за безопасност с Института за безопасност на изкуствения интелект - подкрепян от държавата орган, който тества усъвършенствани системи за изкуствен интелект. Но това беше направено само на доброволна основа. 

Рискът от потискане на иновациите 


Правителството на Обединеното кралство иска да избегне прекалено силни правила за ИИ, които да попречат на иновациите. Лейбъристите също така отбелязаха в своя манифест, че искат да „подкрепят разнообразни бизнес модели, които въвеждат иновации и нови продукти на пазара“.  

Всяко регулиране ще трябва да бъде „нюансирано“, като се разпределят „съответно“ отговорностите, заяви Захра Бахролоуми, главен изпълнителен директор за Великобритания и Ирландия на Salesforce, пред CNBC, като добави, че приветства призива на правителствата за „подходящо законодателство“. 

Матю Хулихан, старши директор по правителствените въпроси в Cisco, заяви, че всички правила за ИИ ще трябва да бъдат „съсредоточени върху обмислен, основан на риска подход“. 

Други предложения, които вече са били представени от политици от Обединеното кралство, дават известна представа за това какво може да бъде включено в законопроекта за изкуствения интелект на лейбъристите.

Британският законодател Крис Холмс, консервативен депутат, който заседава в горната камара на парламента, миналата година внесе законопроект, в който се предлага регулиране на ИИ. Законопроектът премина третото си четене през май, като по този начин бе прехвърлен в долната камара на парламента.

Законът на Холмс би имал по-малък шанс за успех от този, предложен от правителството. Въпреки това той предлага някои идеи за това как лейбъристите биха могли да се опитат да създадат свое собствено законодателство за ИИ. 

Предложеният от Холмс законопроект включва предложение за създаване на централизиран орган за ИИ, който да следи за прилагането на правилата за технологията.  

Дружествата ще трябва да предоставят на Органа за изкуствен интелект данните и интелектуалната собственост на трети страни, използвани при обучението на техните модели, и да гарантират, че всички такива данни и интелектуална собственост се използват със съгласието на първоначалния източник. 

Това донякъде повтаря дейността на Службата за изкуствен интелект на ЕС, която отговаря за надзора на разработването на усъвършенствани модели на изкуствен интелект. 

Друго предложение на Холмс е фирмите да назначават индивидуални служители по ИИ, които ще имат за задача да гарантират безопасното, етично и безпристрастно използване на ИИ от предприятията, както и да гарантират, че данните, използвани във всяка технология на ИИ, са безпристрастни. 

Сравнения с други регулатори


Въз основа на това, което лейбъристите са обещали досега, всеки такъв закон неизбежно ще бъде „много далеч от широкообхватния обхват на Закона за ИИ на ЕС“, заяви пред CNBC Матю Холман, партньор в адвокатската кантора Cripps.

Холман добави, че вместо да изисква от създателите на модели с изкуствен интелект прекалено строги оповестявания, Обединеното кралство по-скоро ще намери „среден вариант“. Например, правителството може да изисква от фирмите, занимаващи се с ИИ, да споделят върху какво работят на закрити заседания на Института за безопасност на ИИ, но без да разкриват търговски тайни или изходен код. 

Министърът на технологиите Кайл заяви по-рано на Лондонската технологична седмица, че лейбъристите няма да приемат толкова строг закон като Закона за ИИ, защото не искат да възпрепятстват иновациите или да възпират инвестициите на големите разработчици на ИИ. 

Дори и така, британският закон за ИИ ще бъде стъпка над САЩ, които понастоящем нямат федерално законодателство за ИИ. Междувременно в Китай регулацията е по-строга както от ЕС, така и от всяко законодателство, което Обединеното кралство вероятно ще предложи.  

Миналата година китайските регулатори финализираха правилата, регулиращи генеративния ИИ, насочени към премахване на незаконното съдържание и засилване на защитата на сигурността. 

Лиу от Sirion казва, че едно нещо, което се надява правителството да не направи, е да ограничи моделите на ИИ с отворен код. „От съществено значение е новите правила за ИИ на Обединеното кралство да не задушават отворения код и да не попадат в капана на регулаторното завладяване“, каза той пред CNBC.

„Има огромна разлика между вредата, създадена от голям LLM от такива като OpenAI, и специфичните адаптирани модели с отворен код, използвани от стартиращ бизнес за решаване на конкретен проблем.“

Херман Нарула, главен изпълнителен директор на компанията за изграждане на рискови проекти в метавселената Improbable, се съгласи, че ограничаването на иновациите в областта на ИИ с отворен код би било лоша идея. „Необходими са нови действия от страна на правителството, но тези действия трябва да се съсредоточат върху създаването на жизнеспособен свят за компаниите за ИИ с отворен код, които са необходими, за да се предотвратят монополите“, каза Нарула пред CNBC.

Коментари

НАЙ-НОВО

|

НАЙ-ЧЕТЕНИ

|

НАЙ-КОМЕНТИРАНИ