Бил Гейтс също предупреждава за заплахата от изкуствения интелект
Отначало, изкуственият интелект ще ни бъде в помощ, но с течение на времето ще стане „достатъчни силен, за да се превърне в тревога”, заяви Бил Гейтс в последното си Q&A интервю за Reddit, съобщава британският вестник Independent.
В отговор на въпроса дали свръхинтелигентните машини ще се превърнат в екзистенциална заплаха, Гейтс казва, че е „от лагера, който изпитва опасения от изкуствения интелект”.
„Първо, машините ще вършат много неща вместо нас и няма да са свръхинтелигентни”, коментира той. Това би трябвало да бъде в наша полза, ако успеем да ги овладеем добре.
„Няколко десетилетия по-късно, те ще са толкова интелигентни, че биха могли да се превърнат в проблем. Съгласен съм с Елън Мъск и други по този въпрос и не разбирам как може да има хора, които не са разтревожени.”
Предупреждението дойде по време на участието на Гейтс в поредицата Ask Me Anything на Reddit, в която той се включва за трети път.
Някои технологии на Microsoft, като например дигиталният личен асистент Cortana, използват изкуствен интелект, за да предвидят и реагират на желанията на потребителите. По време на интервюто, Гейтс заяви, че работи върху подобен вид технология.
„Един от проектите, върху които работя с Microsoft, е Personal Agent, който ще помни всичко, ще помага за намирането на различни неща и ще следи подробностите, на които обръщате внимание”, пише той. „Идеята, че трябва да намирате приложения и да ги подбирате, докато всички те ви бомбардират с информация за най-новите версии – това е неудобен модел, който агентът ще промени. Той ще работи на всички видове устройства.”
Елън Мъск, Стивън Хокинг и много високопоставени лица от Microsoft са подписали петиция за изучаване проблемите на изкуствения интелект. И Мъск, и Хокинг наскоро споделиха мненията си за опасностите от този вид технология. Мъск го описа като „призоваване на демон” и като „най-голямата възможна екзистенциална опасност”, а Хокинг заяви, че изкуственият интелект може да бъде краят на човечеството.
Ключови думи
ОЩЕ ОТ КАТЕГОРИЯТА
|
|
Коментари
Няма въведени кометари.