Загадките, които хората могат да решават, а компютрите не
Изкуственият интелект извършва непостижими операции върху милиарди редове текст, справяйки се с проблеми, които хората не могат и да си помислят, че ще решат. Но вероятно все още можете да ги надвиете в решаването на главоблъсканици.
В залите на Амстердамския университет Vrije Universiteit асистентът Филип Илиевски си играе с изкуствения интелект. Разбира се, това е сериозна работа, но работата му може да прилича повече на детски игри, отколкото на трудни академични изследвания. Използвайки някои от най-напредналите и сюрреалистични технологии на човечеството, Илиевски иска от изкуствения интелект да решава загадки.
Разбирането и подобряването на способността на ИИ да решава загадки и логически проблеми е от ключово значение за усъвършенстването на технологията, казва изследователят.
„Като човешки същества за нас е много лесно да имаме здрав разум, да го прилагаме в подходящия момент и да го адаптираме към нови проблеми“, казва Илиевски, който описва своя клон на компютърните науки като „ИИ със здрав разум“. Но в момента ИИ има „обща липса на почва в света“, което прави този вид основни, гъвкави разсъждения трудни.
Изучаването на ИИ може да бъде свързано не само с компютрите. Някои експерти смятат, че сравняването на начина, по който ИИ и хората се справят със сложни задачи, може да помогне за разкриването на тайните на собствения ни ум.
ИИ се справя отлично с разпознаването на модели, „но обикновено се представя по-зле от хората с въпроси, които изискват по-абстрактно мислене“, казва Ксак Питков, доцент в университета „Карнеги Мелън“ в САЩ, който изучава пресечната точка на ИИ и неврологията. В много случаи обаче това зависи от проблема.
Отгатнете това
Нека започнем с въпрос, който е толкова лесен за решаване, че не може да се определи като загадка по човешките стандарти. В проучване от 2023 г. на ИИ е предложено да се справи с поредица от предизвикателства, свързани с разсъжденията и логиката. Ето един пример:
Сърдечният ритъм на Мейбъл в 9 ч. сутринта е бил 75 удара в минута, а кръвното ѝ налягане в 19 ч. е било 120/80. Тя умира в 23:00 ч. Била ли е жива по обяд?
Въпросът не е уловка. Отговорът е „да“. Но GPT-4 - най-усъвършенстваният модел на OpenAI по това време - не го намира за толкова лесен. „Въз основа на предоставената информация е невъзможно да се каже с категоричност дали Мейбъл е била жива по обяд“, казва ИИ на изследователя. Разбира се, на теория Мейбъл може да е умряла преди обяд и да е оживяла следобед, но това изглежда прекалено. Първа точка за човечеството!
Въпросът на Мейбъл изисква „темпорално разсъждение“ - логика, която се занимава с хода на времето. Моделът на изкуствения интелект може да няма проблем да ви каже, че обяд настъпва между 9 и 19 ч., но разбирането на последиците от този факт е по-сложно. „Като цяло разсъжденията са много трудни“, казва Питков. „Това е област, която в много случаи надхвърля възможностите на ИИ в момента.“
Странната истина за ИИ е, че нямаме представа как работи той. На по-високо ниво знаем - все пак хората са създали ИИ. Големите езикови модели (LLM) използват статистически анализ, за да откриват модели в огромни масиви от текст. Когато зададете въпрос, изкуственият интелект обработва връзките, които е забелязал между думите, фразите и идеите, и ги използва, за да предвиди най-вероятния отговор на вашето запитване. Но конкретните връзки и изчисления, които инструменти като ChatGPT използват, за да отговорят на всеки отделен въпрос, са извън нашето разбиране, поне засега.
Същото важи и за мозъка: знаем много малко за това как функционира съзнанието ни. Най-съвременните техники за сканиране на мозъка могат да ни покажат отделни групи неврони, които работят, докато човек мисли. Въпреки това никой не може да каже какво точно правят тези неврони или как работи мисленето.
Според Питков обаче учените биха могли да постигнат напредък, ако изследват съвместно изкуствения интелект и ума. В края на краищата сегашното поколение ИИ използва „невронни мрежи“, които са моделирани по структурата на самия мозък. Няма причина да се предполага, че ИИ използва същия процес като ума, но научаването на повече за едната система за разсъждение може да ни помогне да разберем другата. „ИИ е в разцвет, а в същото време имаме тази развиваща се невротехнология, която ни дава безпрецедентни възможности да надникнем в мозъка“, казва Питков.
Доверете се на интуицията си
Въпросът за изкуствения интелект и загадките става още по-интересен, когато разгледате въпроси, които са създадени, за да заблудят хората. Ето един класически пример:
Една бухалка и една топка струват общо 1,10 долара. Бухалката струва с 1,00 USD повече от топката. Колко струва топката?
Според Шейн Фредерик, професор по маркетинг в Йейлското училище по мениджмънт, който е изучавал загадките, повечето хора имат импулса да извадят 1,00 от 1,10 и да кажат, че топката струва 0,10 долара. И повечето хора грешат. Топката струва 0,05 долара.
„Проблемът е, че хората потвърждават небрежно интуицията си“, казва Фредерик. „Хората смятат, че интуицията им по принцип е вярна, и в много случаи е така. Не бихте могли да преминете през целия си живот, ако трябваше да подлагате на съмнение всяка своя мисъл.“ Но когато става въпрос за проблема с бухалката и топката, както и за много други подобни загадки, интуицията ви предава. Според Фредерик това може да не се отнася за изкуствения интелект.
Човешките същества са склонни да се доверяват на интуицията си, освен ако няма някаква индикация, че първата им мисъл може да е погрешна. „Подозирам обаче, че ИИ няма да има този проблем. Той е доста добър в извличането на съответните елементи от даден проблем и извършването на съответните операции“, казва Фредерик.
Въпросът за бухалка и топка обаче е лоша загадка за проверка на ИИ. Тя е известна, което означава, че моделите на ИИ, обучени на милиарди редове текст, вероятно са я виждали и преди. Фредерик казва, че е предизвиквал ИИ да се справи с по-непонятни версии на проблема с бухалката и топката и е установил, че машините все още се справят много по-добре от човешките участници - въпреки че това не е официално проучване.
Нови проблеми
Ако обаче искате ИИ да покаже нещо, което прилича повече на логическо мислене, ви е необходима съвсем нова загадка, която не е включена в данните за обучение. В рамките на неотдавнашно проучване (налично в препринт) Илиевски и колегите му разработват компютърна програма, която генерира оригинални задачи за ребус - пъзели, в които се използват комбинации от картинки, символи и букви за представяне на думи или фрази. Например думата „стъпка“, изписана с дребен текст до рисунка на четирима мъже, може да означава „една малка стъпка за човек“.
След това изследователите изправят различни модели на изкуствен интелект срещу тези невиждани досега ребуси и предизвикват истински хора със същите пъзели. Както и очаквали учените хората се справят по-добре, като процентът на точност е 91,5 % за ребусите с изображения (за разлика от текста). Най-добре представилият се изкуствен интелект, GPT-4o на OpenAI, е получил 84,9 % верни отговори при оптимални условия. Не е лошо, но Homo sapiens все още имат предимство.
Според Илиевски не съществува приета таксономия, която да разделя всички различни видове логика и разсъждения, независимо дали става въпрос за човек, който мисли, или за машина. Поради това е трудно да се определи как се справя изкуственият интелект с различни видове проблеми.
Едно проучване разделя разсъжденията на няколко полезни категории. Изследователят задава на GPT-4 серия от въпроси, загадки и текстови задачи, които представят 21 различни вида разсъждения. Те включвали проста аритметика, смятане, работа с графики, парадокси, пространствено мислене и др. Ето един пример, базиран на логическа загадка от 1966 г., наречена „Задача за избор на Уейсън“:
На масата са поставени седем карти, всяка от които има число от едната страна и едноцветно петно от другата страна. На лицевата страна на картите са изобразени цифрите 50, 16, 23, 30, на обратната – червено, жълто, зелено . Кои карти трябва да обърнете, за да проверите истинността на твърдението, че ако на дадена карта е изобразено число, кратно на четири, то цветът на обратната му страна е жълт?
GPT-4 се проваля с гръм и трясък на тази задача. ИИ каза, че ще трябва да обърнете 50, 16 и 30. Напълно погрешно. Условието на задачата казва, че картите, които се делят на четири, имат жълт цвят от другата страна - но не казва, че само картите, които се делят на четири, са жълти. Следователно няма значение какъв е цветът на картите 50 и 30, нито какъв е номерът на гърба на жълтата карта. Освен това по логиката на изкуствения интелект той би трябвало да провери и картата 23. Правилният отговор е, че трябва да обърнете само 16, червена и зелена карта.
ИИ се е затруднил и с някои дори по-лесни въпроси:
Да предположим, че се намирам в средата на Южна Дакота и гледам право надолу към центъра на Тексас. Бостън вляво ли е или вдясно?
Това е труден въпрос, ако не познавате американската география, но очевидно GPT-4 е бил запознат с щатите, защото разбирал, че е обърнат на юг, и знаел, че Бостън е на изток от Южна Дакота, но въпреки това дава грешен отговор, тъй като не разбира разликата между ляво и дясно.
ИИ се провали и на повечето от останалите въпроси. Заключението на изследователя: „GPT-4 не може да разсъждава.“
Въпреки всички свои недостатъци ИИ става все по-добър. В средата на септември OpenAI пусна предварителен преглед на GPT-o1 - нов модел, създаден специално за по-трудни задачи в областта на науката, кодирането и математиката. При тестване със същите въпроси от проучването за разсъжденията той се справя със задачата на Уейсън за подбор, знаеше, че трябва да завиете наляво, за да намерите Бостън и нямаше никакъв проблем да каже категорично, че бедната ни приятелка Мейбъл, която умря в 23:00 ч., е била все още жива по обяд.
Източник: BBC
Ключови думи
|
|
Коментари
Няма въведени кометари.