18 страни подписаха споразумение, според което ИИ системите трябва да са „сигурни по дизайн“

18 страни подписаха споразумение, според което ИИ системите трябва да са „сигурни по дизайн“

18 страни подписаха споразумение, според което ИИ системите трябва да са „сигурни по дизайн“

Съединените щати, Великобритания и повече от дузина други страни подписаха споразумение за това как изкуственият интелект да бъде защитен от измамници, настоявайки компаниите да създадат ИИ системи, които са „сигурни по дизайн“, пише Ройтерс.

В документ от 20 страници, представен в неделя, 18 държави се съгласиха, че компаниите, които проектират и използват ИИ, трябва да го разработят и внедрят по начин, който предпазва клиентите и широката общественост от злоупотреба.

Споразумението е необвързващо и съдържа предимно общи препоръки, включително за надзор на ИИ системите за злоупотреби, защита на данните от подправяне и проверка на доставчиците на софтуер.

Все пак директорът на Американската агенция по киберсигурност и защита на инфраструктурата (CISA) Джен Истърли, каза, че е важно толкова много държави да поставят имената си под идеята, че системите с изкуствен интелект трябва да поставят безопасността на първо място.

„Това е първият път, когато виждаме потвърждение, че тези възможности не трябва да се отнасят само до страхотни функции и до това колко бързо можем да ги пуснем на пазара или как можем да се конкурираме за намаляване на разходите“, каза Истърли пред Ройтерс, като добави, че насоките представляват „споразумение, че най-важното нещо, което трябва да се направи на етапа на проектиране, е сигурността“.

В допълнение към Съединените щати и Великобритания, новите насоки бяха подписани още от страни Германия, Италия, Чехия, Естония, Полша, Австралия, Чили, Израел, Нигерия и Сингапур.

Рамката се занимава с въпросите как да се предпази ИИ технологията от използване от хакери и включва препоръки като пускане на модели само след подходящо тестване за сигурност.

Тя не разглежда трудни въпроси около подходящите употреби на ИИ или как се събират данните, които захранват тези модели.

Възходът на ИИ предизвика множество опасения, включително страх, че технологията може да бъде използвана за нарушаване на демократичния процес и за измами. Съществуват и притеснения относно ефектът ѝ върху пазара на труда.

Европа изпреварва Съединените щати по отношение на регулациите около ИИ, като законодателите там изготвят правила за изкуствения интелект. Франция, Германия и Италия също наскоро постигнаха споразумение за това как трябва да се регулира изкуственият интелект, което подкрепя „задължителна саморегулация чрез кодекси на поведение“ за така наречените основни модели на ИИ, които са предназначени да произвеждат широк спектър от резултати.

Администрацията на Байдън настоява за законодателство за регулиране на ИИ, но поляризираният американски Конгрес постигна малък напредък в приемането на ефективна регулация.

Коментари

НАЙ-НОВО

|

НАЙ-ЧЕТЕНИ

|

НАЙ-КОМЕНТИРАНИ