САЩ и Великобритания подписаха първото в света споразумение за безопасност на AI
Великобритания и САЩ подписаха забележително споразумение за съвместна работа за тестване на усъвършенстван изкуствен интелект (AI), съобщи ВВC.
Споразумението гласи, че двете страни ще работят заедно за разработването на "стабилни" методи за оценка на безопасността на инструментите за изкуствен интелект и системите, които ги подкрепят. Това е първото по рода си двустранно споразумение в тази област.
Британският министър на технологиите Мишел Донелан каза, че това е „определящото технологично предизвикателство на нашето поколение“. „Винаги сме били ясни, че осигуряването на безопасно развитие на ИИ е споделен глобален проблем. Само като работим заедно, можем директно да се справим с рисковете на технологията и да впрегнем нейния огромен потенциал, за да ни помогне да живеем по-лесно и по-здравословно.“, каза тя.
Държавният секретар по въпросите на науката, иновациите и технологиите добави, че споразумението се основава на ангажиментите, поети на срещата на върха за безопасността на AI, проведена в Блечли Парк през ноември 2023 г.
Събитието, на което присъстваха шефове на AI, включително Сам Олтман от OpenAI, Демис Хасабис от Google DeepMind и технологичният милиардер Илон Мъск, видяха както Обединеното кралство, така и САЩ да създадат Институти за безопасност на AI, които имат за цел да оценят AI системи с отворен и затворен код.
В момента по-голямата част от AI системите са в състояние да изпълняват само единични, интелигентни задачи, които обикновено се изпълняват от човек.
Известни като „тесен“ AI, тези задачи могат да варират от бързо анализиране на данни до предоставяне на желан отговор на подкана.
Но има опасения, че по-интелигентни "общи" инструменти за изкуствен интелект - способни да изпълняват редица задачи, обикновено изпълнявани от хора - могат да застрашат човечеството. "Изкуственият интелект, подобно на химията, ядрената наука и биологията, може да бъде въоръжен и използван за добро или зло“, казва проф. Найджъл Шадболт пред BBC. Но професорът от Оксфордския университет добави, че страховете около екзистенциалния риск на AI „понякога са малко преувеличени“.
„Трябва наистина да подкрепяме и да оценяваме усилията да накараме големите сили на AI да мислят и изследват какви са опасностите. Трябва да разберем колко податливи са тези модели, а също и колко мощни са те.“, пояснява той.
Джина Раймондо, министър на търговията на САЩ, направи коментар, че споразумението ще даде на правителствата по-добро разбиране на AI системите, което ще им позволи да излязат с по-добри насоки.
„Това ще ускори работата на двата ни института в пълния спектър от рискове, независимо дали за националната ни сигурност или за обществото като цяло. Нашето партньорство ясно показва, че ние не бягаме от тези опасения – ние бягаме срещу тях.“, заяви тя.
Ключови думи
ОЩЕ ОТ КАТЕГОРИЯТА
|
|
Qatar Airways премести някои от самолетите си на летища в чужбина
Компании |Японските фирми ще увеличат заплатите с над 5% за трета поредна година
Свят |Държавата отпуска 2,7 млн. евро за борба с вредителя „черна златка“
Политика |Моди: Индия има достатъчно горива, въпреки острата газова криза заради Иран
Свят |Конфликтът в Близкия изток изпитва устойчивостта на виетнамското земеделие
Икономика |Седмичен хороскоп: Звездите за бизнеса от 23 до 29 март
Хороскоп |МВнР: Българите незабавно да напуснат Близкия изток
България |На днешната дата, 23 март. Имен ден празнува Лидия
На днешната дата |5-минутно правило срещу отлагане
Техники за успех |Тръмп: Проведохме разговори с Иран за "пълно и окончателно" разрешаване на конфликта
Общество |Броят на физическите магазини в Германия се очаква да падне под 300 000: онлайн търговията променя пазара
Бизнес |Папа Лъв: Войната в Близкия изток е „скандал за човечеството“
Свят |Времето: Облачно с превалявания от дъжд
България |ADVERTORIAL
УниКредит дава начало на второто издание на ESG обучителната си програма си програма Skills for Transition
Системата на Кока-Кола в България с престижно отличие от БФБЛ за принос към обществото и устойчивото развитие
Коментари
Няма въведени кометари.