САЩ и Великобритания подписаха първото в света споразумение за безопасност на AI
Великобритания и САЩ подписаха забележително споразумение за съвместна работа за тестване на усъвършенстван изкуствен интелект (AI), съобщи ВВC.
Споразумението гласи, че двете страни ще работят заедно за разработването на "стабилни" методи за оценка на безопасността на инструментите за изкуствен интелект и системите, които ги подкрепят. Това е първото по рода си двустранно споразумение в тази област.
Британският министър на технологиите Мишел Донелан каза, че това е „определящото технологично предизвикателство на нашето поколение“. „Винаги сме били ясни, че осигуряването на безопасно развитие на ИИ е споделен глобален проблем. Само като работим заедно, можем директно да се справим с рисковете на технологията и да впрегнем нейния огромен потенциал, за да ни помогне да живеем по-лесно и по-здравословно.“, каза тя.
Държавният секретар по въпросите на науката, иновациите и технологиите добави, че споразумението се основава на ангажиментите, поети на срещата на върха за безопасността на AI, проведена в Блечли Парк през ноември 2023 г.
Събитието, на което присъстваха шефове на AI, включително Сам Олтман от OpenAI, Демис Хасабис от Google DeepMind и технологичният милиардер Илон Мъск, видяха както Обединеното кралство, така и САЩ да създадат Институти за безопасност на AI, които имат за цел да оценят AI системи с отворен и затворен код.
В момента по-голямата част от AI системите са в състояние да изпълняват само единични, интелигентни задачи, които обикновено се изпълняват от човек.
Известни като „тесен“ AI, тези задачи могат да варират от бързо анализиране на данни до предоставяне на желан отговор на подкана.
Но има опасения, че по-интелигентни "общи" инструменти за изкуствен интелект - способни да изпълняват редица задачи, обикновено изпълнявани от хора - могат да застрашат човечеството. "Изкуственият интелект, подобно на химията, ядрената наука и биологията, може да бъде въоръжен и използван за добро или зло“, казва проф. Найджъл Шадболт пред BBC. Но професорът от Оксфордския университет добави, че страховете около екзистенциалния риск на AI „понякога са малко преувеличени“.
„Трябва наистина да подкрепяме и да оценяваме усилията да накараме големите сили на AI да мислят и изследват какви са опасностите. Трябва да разберем колко податливи са тези модели, а също и колко мощни са те.“, пояснява той.
Джина Раймондо, министър на търговията на САЩ, направи коментар, че споразумението ще даде на правителствата по-добро разбиране на AI системите, което ще им позволи да излязат с по-добри насоки.
„Това ще ускори работата на двата ни института в пълния спектър от рискове, независимо дали за националната ни сигурност или за обществото като цяло. Нашето партньорство ясно показва, че ние не бягаме от тези опасения – ние бягаме срещу тях.“, заяви тя.
Ключови думи
ОЩЕ ОТ КАТЕГОРИЯТА
|
|
Белият дом реабилитира Христофор Колумб с паметник до офиса на президента Айзенхауер
Свят |Почина откривателят на генетичната теория за рака
Свят |Все повече са сигналите в МВР срещу изборни нарушения
Политика |Румъния обявява кризисна ситуация на пазара на петрол и петролни продукти
Свят |„Софийски истории“ става на една година! Празнуваме с голямо градско приключение
Общество |Седмичен хороскоп: Звездите за бизнеса от 23 до 29 март
Хороскоп |МВнР: Българите незабавно да напуснат Близкия изток
България |На днешната дата, 23 март. Имен ден празнува Лидия
На днешната дата |5-минутно правило срещу отлагане
Техники за успех |Тръмп: Проведохме разговори с Иран за "пълно и окончателно" разрешаване на конфликта
Общество |Броят на физическите магазини в Германия се очаква да падне под 300 000: онлайн търговията променя пазара
Бизнес |Времето: Облачно с превалявания от дъжд
България |Папа Лъв: Войната в Близкия изток е „скандал за човечеството“
Свят |ADVERTORIAL
УниКредит дава начало на второто издание на ESG обучителната си програма си програма Skills for Transition
Системата на Кока-Кола в България с престижно отличие от БФБЛ за принос към обществото и устойчивото развитие
Коментари
Няма въведени кометари.