Технологични експерти: Опасността от ИИ е сравнима с тази от пандемия или ядрена война

 Технологични експерти: Опасността от ИИ е сравнима с тази от пандемия или ядрена война

Технологични експерти: Опасността от ИИ е сравнима с тази от пандемия или ядрена война

Изкуственият интелект може да доведе до изчезване на човечеството и намаляването на рисковете, свързани с технологията, трябва да бъде глобален приоритет. Това заявяват в отворено писмо експерти от индустрията и технологични лидери, предава Си Ен Би Си.

„Намаляването на риска от изчезване на хората заради ИИ трябва да бъде глобален приоритет наред с други рискове от обществен мащаб, като например пандемии и ядрена война“, се казва в становището.

Сам Олтман, главен изпълнителен директор OpenAI – компанията зад нашумелия чатбот с изкуствен интелект ChatGPT, както и ръководители от Microsoft и подразделението за ИИ на Google – DeepMind, бяха сред онези, които подкрепиха и подписаха краткото изявление от Център за безопасност на изкуствения интелект (CAIS).

Технологията набра скорост през последните месеци, след като ChatGPT беше пуснат за обществено ползване през ноемвр. Само за два месеца след дебюта на пазара, ChatGPT достигна 100 милиона потребители. Той удиви изследователите и широката общественост със способността си да генерира отговори, които наподобяват човешки, на база на запитвания на потребители. Това, че в бъдеще ИИ може да замени работните места и да имитира хората.

В изявлението от вторник се казва, че има нарастваща дискусия относно „широк спектър от важни и неотложни рискове от ИИ“.

Но се казва, че може да бъде „трудно да се изразят опасения относно някои от най-сериозните рискове на съвременния ИИ“, като целта на отвореното писмо е това препятствие да се преодолее и да отвори дискусиите.

Олтман призна през март, че е „малко уплашен“ от ИИ, тъй като се притеснява, че авторитарните правителства ще разработят технологията. Други технологични лидери като Илон Мъск от Tesla и бившият главен изпълнителен директор на Google Ерик Шмид също предупредиха за рисковете, които ИИ представлява за обществото.

В отворено писмо през март Мъск, съоснователят на Apple Стив Возняк и други технологични лидери призоваха лабораториите за изкуствен интелект да спрат системите за обучение да бъдат по-мощни от GPT-4 – който е най-новият голям езиков модел на OpenAI. Те също така призоваха за шестмесечна пауза в развитието на напреднали ИИ системи.

„Съвременните системи за изкуствен интелект сега стават конкурентоспособни на хората при някои задачи“, се казва в писмото.

„Трябва ли да автоматизираме всички работни места, включително тези, които са удовлетворяващи? Трябва ли да развием нечовешки умове, които в крайна сметка биха могли да ни превъзхождат числено, да надхитрят и да ни заменят? Трябва ли да рискуваме да загубим контрол над нашата цивилизация?“, се пита в писмото.

Миналата седмица Шмид отделно предупреди за „екзистенциалните рискове“, свързани с ИИ с напредването на технологията.

Коментари

НАЙ-НОВО

|

НАЙ-ЧЕТЕНИ

|

НАЙ-КОМЕНТИРАНИ