„Кръстникът“ на изкуствения интелект: Чатботовете може скоро да станат по-умни от нас

Човек, смятан за кръстник на изкуствения интелект (ИИ), напусна работата си в Google и предупреди за нарастващите опасности от развитието в тази област, предаде Би Би Си.
75-годишният Джефри Хинтън обяви оставката си от Google в изявление за „Ню Йорк таймс“, в което каза, че сега съжалява за работата си.
Той заяви пред Би Би Си, че някои от опасностите, които крият чатботовете с изкуствен интелект, са „доста плашещи“.
„В момента те не са по-интелигентни от нас, доколкото мога да преценя. Но мисля, че скоро може да станат“, каза той.
Д-р Хинтън също призна, че възрастта му е повлияла на решението му да напусне технологичния гигант. „Аз съм на 75, така че е време да се пенсионирам“, допълни той пред Би Би Си
Пионерските изследвания на Хинтън върху дълбокото машинно обучение и невронните мрежи проправиха пътя за настоящите ИИ системи като ChatGPT.
Но британско-канадският когнитивен психолог и компютърен учен каза пред Би Би Си, че чатботът скоро може да надмине нивото на информация, което човешкият мозък притежава.
„В момента това, което виждаме, е, че неща като GPT-4 засенчват човек по отношение на общите познания, които има, и го засенчват сериозно. От гледна точка на разсъждението ИИ не е толкова добър, но вече е способен на прости разсъждения. Като се има предвид темпът на напредък, очакваме нещата да се подобрят доста бързо. Така че трябва да се тревожим за това“, каза той.
В статията на „Ню Йорк Таймс“ д-р Хинтън говори за „лоши актьори“, които биха се опитали да използват ИИ за „лоши неща“.
Помолен от Би Би Си да разясни какво точно има предвид, той отговори: „Това е просто един вид най-лош сценарий, един вид кошмарен сценарий“.
„Можете да си представите, например, някой лош актьор като [руския президент] Владимир Путин, който да реши да даде на роботите способността да създават свои собствени подцели“, даде пример Хинтън.
Ученият предупреди, че това в крайна сметка може да „създаде подцели като „Трябва да получа повече власт!“.
„Стигнах до извода, че видът интелект, който развиваме, е много различен от интелекта, който имаме. Ние сме биологични системи, а това са цифрови системи. И голямата разлика е, че с цифровите системи имате много копия на един и същи набор от тежести, един и същ модел на света“, обясни той.
„И всички тези копия могат да учат поотделно, но да споделят знанията си незабавно. Така че все едно имате 10 000 души и всеки път, когато един човек научи нещо, всички автоматично го знаят. И това е начинът, по който тези чатботове могат да знаят много повече от всеки един човек“ , добави Хинтън.
Той подчерта, че не иска да критикува Google и че технологичният гигант е бил „много отговорен“ с работата в тази сфера.
„Всъщност искам да кажа някои добри неща за Google. И те са по-достоверни, ако не работя за Google“, заяви той.
Ключови думи
ОЩЕ ОТ КАТЕГОРИЯТА
|
|
„България Хели Мед Сървиз“ става част от системата за спасяване при авиационни произшествия
Политика |С над 16% са се увеличи жените на ръководни позиции у нас през 2024 г.
България |Хиляди смъртни случаи в Европа това лято са причинени от климатичните промени
Наука и Здраве |Human Rights Watch обвини Израел в принудително изселване на селски жители от Сирия
Свят |Технополис започва да приема предварителни поръчки за новите модели iPhone 17
Технологии | Advertorial |5-минутно упражнение може да удължи вашия живот и да ви направи по-успешни
Техники за успех |Politico: България и още 5 страни от ЕС блокират предложения на ЕК за санкции срещу Израел
ЕС |Смятана за изгубена от 400 г. картина на Рубенс е открита в имение в Париж
Свят |Жителите на София ще могат да следят градския транспорт в реално време
Общество |Фон дер Лайен обещала на Тръмп ЕС по-бързо да спре да купува руски петрол и газ
Свят |На днешната дата, 17 септември. Вяра, Надежда, Любов. Празник на София
На днешната дата |Естония започна строителство на мащабни отбранителни съоръжения до границата с Русия
Свят |Зеленски обяви ръст на учителските заплати и студентските стипендии въпреки войната
Свят |

Коментари
Няма въведени кометари.