Водещи учени предупреждават за опасността от неконтролируем изкуствен интелект

Водещи учени предупреждават за опасността от неконтролируем изкуствен интелект

Изкуственият общ интелект, изграден като „агенти“, може да се окаже опасен, тъй като неговите създатели може да загубят контрол над системата. Това заявиха пред Си Ен Би Си двама от най-известните учени в света на ИИ.

В последния епизод на подкаста на Си Ен Би Си „Отвъд долината“, Макс Тегмарк, професор в Масачузетския технологичен институт и президент на Института за бъдещето на живота, и Йошуа Бенджио, професор в Университета на Монреал, който е известен като един от „кръстниците на ИИ“, говориха за своите опасения относно изкуствения общ интелект – AGI. Терминът в общи линии се отнася до ИИ системи, които са по-умни от хората.

Страховете им произтичат от това, че най-големите фирми в света сега говорят за „ИИ агенти“, които компаниите твърдят, че ще позволят на чатботовете с изкуствен интелект да действат като асистенти или агенти и да помагат в работата и ежедневието. Прогнозите на индустрията за това кога ще се появи AGI варират.

С тази концепция идва идеята, че ИИ системите могат да имат някаква „автономност“ и свои собствени мисли, според Бенджио.

„Изследователите в областта на изкуствения интелект са били вдъхновени от човешкия интелект, за да изградят машинен интелект, а при хората има смесица както от способността да разбираме света като чист интелект, така и от поведението на агенти, което означава ... да използваш знанията си за постигане на цели“, каза Бенджио.

„В момента изграждаме AGI по следния начин: опитваме се да ги направим агенти, които разбират много за света и след това могат да действат съответно. Но това всъщност е много опасно предложение“, добави той.

По думите му преследването на този подход би било като „създаване на нов вид или ново интелигентно същество на тази планета“ и „без да се знае дали те ще се държат по начини, които са в съответствие с нашите нужди“.

„Така че вместо това можем да помислим какви са сценариите, при които нещата се развиват зле и всички разчитат на автономност? С други думи, ако ИИ има свои собствени цели, можем да имаме проблем“, обясни той.

Идеята за самосъхранение също може да влезе в сила, тъй като ИИ става още по-умен, каза Бенджио.

„Искаме ли да се конкурираме със субекти, които са по-умни от нас? Това не е много успокояващ залог, нали? Така че трябва да разберем как самосъхранението може да се появи като цел в ИИ“.

За Тегмарк от MIT ключът се крие в така наречения „инструментален изкуствен интелект“ – системи, които са създадени за конкретна, тясно дефинирана цел, но не е задължително да са агенти.

Тегмарк каза, че ИИ инструмент може да бъде система, която ви казва как да лекувате рак, или нещо, което притежава „някаква автономност“ като самоуправляваща се кола, „където можете да докажете или получите някои наистина високи, наистина надеждни гаранции, че все още ще можете да го контролирате.“

„Мисля, че в оптимистична гледна точка тук можем да имаме почти всичко, от което се вълнуваме с ИИ ако просто настояваме да имаме някои основни стандарти за безопасност, преди хората да могат да продават мощни ИИ системи“, каза Тегмарк.

„Те трябва да демонстрират, че можем да ги държим под контрол. Тогава индустрията ще въведе бързо иновации, за да разбере как да направи това по-добре“, добави той.

През 2023 г. Институтът за бъдещето на живота на Тегмарк призова за спиране на разработването на ИИ системи, които могат да се конкурират с интелекта на човешко ниво. Въпреки че това не се е случило, Тегмарк каза, че хората говорят по темата и сега е време да се предприемат действия, за да разберем как да поставим парапети, за да контролираме AGI.

„Очевидно е лудост за нас, хората, да изградим нещо много по-умно от нас, преди да сме разбрали как да го контролираме“, коментира той.

Има няколко мнения за това кога ще се появи AGI, отчасти водени от различни определения.

Изпълнителният директор на OpenAI Сам Алтман каза, че неговата компания знае как да изгради AGI и подчерта, че ще пристигне по-рано, отколкото хората си мислят, въпреки че омаловажи въздействието на технологията.

„Моето предположение е, че ще постигнем AGI по-рано, отколкото повечето хора по света си мислят, и това ще има много по-малко значение“, каза Алтман през декември.

Коментари

НАЙ-НОВО

|

НАЙ-ЧЕТЕНИ

|

НАЙ-КОМЕНТИРАНИ