Учени: Внимавайте с изкуствения интелект!

Изкуственият интелект има потенциала да направи живота ни по-лесен, разбирайки човешките желания или управлявайки автомобилите ни, но ако бъде оставена без контрол, технологията може сериозно да застраши обществото. Стивън Хокинг, Илон Мъск и десетки други авторитетни учени и технологични лидери са подписали писмо, предупреждаващо за възможните опасности при разработването на изкуствен интелект, пише Live Science. Наред с авторитети като известния физик и милиардера основател на SpaceX и Tesla Motors, писмото са подкрепили изследователи от Масачузетския технологичен институт (MIT), Кеймбридж, Google и други институции.
Писмото изтъква ползите от изкуствения интелект, но наред с това предупреждава за рисковете. „Заради огромния потенциал на изкуствения интелект е важно за изследователите да знаят как да се възползват от предимствата му, избягвайки потенциалните капани“, се посочва в писмото. Едно от основните послания е, че „всички системи с изкуствен интелект трябва да правят каквото ние искаме да правят“.
От разпознаване на реч до самоуправляващи се автомобили – прогресът в областта на изкуствения интелект увеличава въздействието му върху човечеството, отбелязват авторите на писмото. Те подчертават, че проучванията трябва да се фокусират не само върху усъвършенстването на технологията, а и върху ползите за обществото, посочва Фокус. До този момент учените работят най-вече върху „неутрални“ цели, а не към цели с положителен ефект. Писмото цитира документ, изброяващ изследователските приоритети в областта на изкуствения интелект, сред които са проучване на въздействието на машините върху трудовата заетост, осигуряване на етично поведение на автономните машини и оръжия и поддържане на необходимия контрол върху изкуствения интелект.
Не за първи път Хокинг, Мъск и други специалисти предупреждават за опасностите на изкуствения интелект. През декември 2014 година Хокиг заяви, че развитието на изкуствения интелект може да „предвещае края на човешката раса“.
Ключови думи
ОЩЕ ОТ КАТЕГОРИЯТА
|
|
Коментари
Няма въведени кометари.