Технологични експерти: Опасността от ИИ е сравнима с тази от пандемия или ядрена война

 Технологични експерти: Опасността от ИИ е сравнима с тази от пандемия или ядрена война

Изкуственият интелект може да доведе до изчезване на човечеството и намаляването на рисковете, свързани с технологията, трябва да бъде глобален приоритет. Това заявяват в отворено писмо експерти от индустрията и технологични лидери, предава Си Ен Би Си.

„Намаляването на риска от изчезване на хората заради ИИ трябва да бъде глобален приоритет наред с други рискове от обществен мащаб, като например пандемии и ядрена война“, се казва в становището.

Сам Олтман, главен изпълнителен директор OpenAI – компанията зад нашумелия чатбот с изкуствен интелект ChatGPT, както и ръководители от Microsoft и подразделението за ИИ на Google – DeepMind, бяха сред онези, които подкрепиха и подписаха краткото изявление от Център за безопасност на изкуствения интелект (CAIS).

Технологията набра скорост през последните месеци, след като ChatGPT беше пуснат за обществено ползване през ноемвр. Само за два месеца след дебюта на пазара, ChatGPT достигна 100 милиона потребители. Той удиви изследователите и широката общественост със способността си да генерира отговори, които наподобяват човешки, на база на запитвания на потребители. Това, че в бъдеще ИИ може да замени работните места и да имитира хората.

В изявлението от вторник се казва, че има нарастваща дискусия относно „широк спектър от важни и неотложни рискове от ИИ“.

Но се казва, че може да бъде „трудно да се изразят опасения относно някои от най-сериозните рискове на съвременния ИИ“, като целта на отвореното писмо е това препятствие да се преодолее и да отвори дискусиите.

Олтман призна през март, че е „малко уплашен“ от ИИ, тъй като се притеснява, че авторитарните правителства ще разработят технологията. Други технологични лидери като Илон Мъск от Tesla и бившият главен изпълнителен директор на Google Ерик Шмид също предупредиха за рисковете, които ИИ представлява за обществото.

В отворено писмо през март Мъск, съоснователят на Apple Стив Возняк и други технологични лидери призоваха лабораториите за изкуствен интелект да спрат системите за обучение да бъдат по-мощни от GPT-4 – който е най-новият голям езиков модел на OpenAI. Те също така призоваха за шестмесечна пауза в развитието на напреднали ИИ системи.

„Съвременните системи за изкуствен интелект сега стават конкурентоспособни на хората при някои задачи“, се казва в писмото.

„Трябва ли да автоматизираме всички работни места, включително тези, които са удовлетворяващи? Трябва ли да развием нечовешки умове, които в крайна сметка биха могли да ни превъзхождат числено, да надхитрят и да ни заменят? Трябва ли да рискуваме да загубим контрол над нашата цивилизация?“, се пита в писмото.

Миналата седмица Шмид отделно предупреди за „екзистенциалните рискове“, свързани с ИИ с напредването на технологията.

Коментари

НАЙ-НОВО

|

НАЙ-ЧЕТЕНИ

|

НАЙ-КОМЕНТИРАНИ

На днешната дата, 24 октомври. Рождениците днес
Цитат на деня
Времето: Топло и дъждовно. Жълт код за силен вятър е обявен в 25 области
AB InBev си партнира с Netflix за ко-брандирани кампании и събития на живо
Как Европа може да използва замразените руски активи, за да помогне на Украйна?
8-и банково-финансов форум: Лични финанси - инвестиции, доходност и има ли „живот извън банките“?
8-и банково-финансов форум: Какви са рисковете от влизането в еврозоната и подготвени ли сме за тях?
8-и банково-финансов форум: Дигитална трансформация и иновации в банковия сектор