Digital age: ИИ агентите с по-голяма автономност от чатботовете идват. Ето защо трябва да се тревожим

Digital age: ИИ агентите с по-голяма автономност от чатботовете идват. Ето защо трябва да се тревожим

По цял ден и всеки ден вие правите избори. Философите отдавна твърдят, че тази способност да се действа умишлено или с "агентност" (т.е. целенасочено действие) отличава човешките същества от по-простите форми на живот и машините. Но изкуственият интелект може скоро да преодолее това разделение, тъй като технологичните компании създават „агенти“ с изкуствен интелект - системи, способни да вземат решения и да постигат цели с минимален човешки надзор.

Изправени пред натиска да покажат възвръщаемост на многомилиардните инвестиции, които се вливат в това поле, разработчиците на изкуствен интелект популяризират агентите като следващата вълна на потребителските технологии. Агентите, подобно на чатботовете, използват големи езикови модели и са достъпни от телефони, таблети или други персонални устройства. Но за разлика от чатботовете, които се нуждаят от постоянна помощ, за да генерират текст или изображения, агентите могат самостоятелно да взаимодействат с външни приложения, за да изпълняват задачи от името на отделни лица или организации.

OpenAI посочва съществуването на агенти като третата от петте стъпки за изграждане на изкуствен общ интелект (ИОИ) - ИОИ, който може да превъзхожда хората във всяка когнитивна задача - и според съобщенията компанията ще пусне агент с кодово име „Оператор“ още през януари 2025 г. Тази система може да се окаже ранна крачка в неизебжната надпревара: главният изпълнителен директор на Meta Марк Зукърбърг прогнозира, че агентите с изкуствен интелект в крайна сметка ще надхвърлят броя на хората. Междувременно някои експерти по ИИ се опасяват, че комерсиализацията на агентите е рискована нова стъпка за индустрията, която е склонна да дава приоритет на скоростта пред безопасността.

Според рекламните послания на големите технологични компании, агентите ще освободят хората от тежката работа, отваряйки вратата към по-смислена работа (и голямо увеличение на производителността за предприятията).

„Освобождавайки ни от скучните ежедневни задачи, агентите могат да ни дадат възможност да се съсредоточим върху това, което наистина има значение: взаимоотношения, личностно израстване и вземане на информирани решения“, казва Ийсън Гейбриъл, старши изследовател в Google DeepMind. През май миналата година компанията представи прототип на Project Astra, описван като „универсален ИИ агент, който е полезен в ежедневието“. Във видеодемонстрация Astra разговаря с потребител чрез телефон Google Pixel и анализира околната среда чрез камерата на устройството. В един момент потребителят държи телефона до екрана на компютъра на свой колега, който е изпълнен с редове код. ИИ описва кода - той „дефинира функции за криптиране и декриптиране“ и то с подобен на човешки женски глас.

Очаква се Project Astra да бъде пуснат публично най-рано през следващата година, а наличните в момента агенти са ограничени предимно до монотонна работа, като писане на код или попълване на отчети за разходите. Това отразява както техническите ограничения, така и предпазливостта на разработчиците да се доверяват на агенти в сфери с високи залози.

„Агентите трябва да се внедряват за изпълнение на досадни и повтарящи се задачи“, които могат да бъдат много ясно дефинирани“, казва Силвио Саварезе, главен учен в компанията за облачен софтуер Salesforce. Компанията наскоро представи Agentforce - платформа, предлагаща агенти, които могат да задават въпроси за обслужване на клиенти и да изпълняват други тесни функции. Саварезе казва, че много би се колебал дали да се довери на агенти в по-чувствителни контексти, като например издаване на съдебни присъди.

Въпреки че Agentforce и други подобни платформи са предназначени предимно за бизнеса, Саварезе прогнозира, че в крайна сметка ще се появят лични агенти, които ще имат достъп до личните ви данни и ще могат постоянно да актуализират познанията си за вашите нужди, предпочитания и странности. Например агент, базиран на приложение, който е натоварен с планирането на лятната ви ваканция, би могъл да резервира полети, да осигури маси в ресторанти и да резервира места за настаняване, като запомни предпочитанията ви за места с прозорец, алергията ви към фъстъци и пристрастието ви към хотели с басейн. От съществено значение е, че той ще трябва да реагира и на неочаквани ситуации: ако най-добрият вариант за полет е напълно резервиран, той ще трябва да промени курса (може би като провери друга авиокомпания).

„Способността да се адаптира и да реагира на средата е от съществено значение за агента“, казва Саварезе. Първите версии на персонални агенти може би вече са на път. Amazon, например, съобщава, че работи по агенти, които ще могат да ви препоръчват и купуват продукти въз основа на историята на онлайн пазаруването ви.

Какво прави ИИ агента агент?

Внезапното нарастване на корпоративния интерес към агентите с изкуствен интелект е в противоречие с дългата им история. Всички алгоритми за машинно обучение са технически „агентични“, тъй като постоянно се „учат“ или усъвършенстват способността си да постигат конкретни цели въз основа на модели, извлечени от планини от данни. „В продължение на десетилетия разглеждахме всички системи като агенти“, казва Стюарт Ръсел, пионер в областта на изкуствения интелект и компютърен учен в Калифорнийския университет в Бъркли. „Само че някои от тях са много прости.“

Но съвременните инструменти за ИИ сега стават все по-агентични, благодарение на някои нови иновации. Една от тях е възможността да се използват цифрови инструменти, като например търсачки. Чрез нова функция „Използване на компютъра“, пусната за публично бета тестване през октомври, моделът зад чатбота Claude на компанията за ИИ технологии Anthropic вече може да движи курсора и да щрака бутони, след като му бъдат показани екранни снимки на работния плот на потребителя. Видеоклип, публикуван от компанията, показва как Claude попълва и изпраща фиктивен формуляр за заявка от доставчик.

Агентността също така е свързана със способността да се вземат сложни решения във времето; с напредването на агентите те ще бъдат използвани за изпълнението на по-сложни задачи. Гейбриъл от Google DeepMind предвижда бъдещ агент, който може да помогне за откриването на нови научни знания. И това може да не е далеч. В статия, публикувана в сървъра за предпечат arXiv.org през август, се описва агент „AI Scientist“, който може да формулира нови идеи за научни изследвания и да ги проверява чрез експерименти, на практика автоматизирайки научния метод.

Въпреки тесните онтологични връзки между агентността и съзнанието, няма причина да се смята, че при машините напредъкът в първото ще доведе до второто. Технологичните компании със сигурност не рекламират тези инструменти като притежаващи нещо близко до свободната воля. Възможно е потребителите да се отнасят към независимя изкуствен интелект като към съзнателен - но това би отразило повече от всичко друго милионите години еволюция, които периодично са карали мозъка на хората да приписва съзнание на всичко, което изглежда човешко.

Нарастващи предизвикателства

Възходът на ИИ агентите може да доведе до нови предизвикателства на работното място, в социалните медии и интернет, както и за икономиката. Правните рамки, които са били внимателно изработвани в продължение на десетилетия или векове, за да ограничават поведението на хората, ще трябва да се съобразяват с внезапното въвеждане на изкуствени агенти, чието поведение коренно се различава от нашето. Някои експерти дори настояват, че по-точното описание на ИИ е „чуждоземен интелект“.

Да вземем например финансовия сектор. Алгоритмите отдавна помагат за проследяване на цените на различни стоки, като се коригират спрямо инфлацията и други променливи. Но сега новите модели започват да вземат финансови решения за физически лица и организации, което може да повдигне множество сложни правни и икономически въпроси. „Не сме създали инфраструктурата, за да интегрираме агентите във всички правила и структури, които имаме, за да сме сигурни, че нашите пазари се държат добре“, казва Джилиан Хадфийлд, експерт по управление на изкуствения интелект в университета „Джон Хопкинс“. Ако даден агент подпише договор от името на организация и по-късно наруши условията на това споразумение, трябва ли да се търси отговорност от организацията или от самия алгоритъм? Трябва ли на агентите да се предостави правна „правосубектност“, както на корпорациите?

Друго предизвикателство е проектирането на агенти, чието поведение съответства на човешките етични норми - проблем, известен в тази област като „съгласуване“. С увеличаването на агенцията за хората става все по-трудно да разгадаят как ИИ взема решения. Целите се разбиват на все по-абстрактни подцели, а моделите понякога проявяват нововъзникващо поведение, което е невъзможно да се предвиди. „Има наистина ясен път от наличието на агенти, които са добри в планирането, до загубата на човешкия контрол“, казва Йошуа Бенгио, компютърен учен, помогнал за изобретяването на невронните мрежи, които позволяват настоящия бум на ИИ.

Според Бенгио проблемът със "съгласуването" се усложнява от факта, че приоритетите на големите технологични компании обикновено са в противоречие с тези на човечеството като цяло. „Съществува реален конфликт на интереси между печеленето на пари и защитата на безопасността на обществото“, казва той. През 2010 г. алгоритмите, използвани от Facebook (сега Mеtа), имайки предвид привидно добронамерената цел за максимална ангажираност на потребителите, започват да насърчават омразно съдържание за потребителите в Мианмар, насочено срещу малцинствената група на рохингите в тази страна. Тази стратегия - която алгоритмите решиха да прилагат изцяло самостоятелно, след като научиха, че подстрекаващото съдържание е по-благоприятно за ангажираността на потребителите - в крайна сметка помогна за подхранването на кампания за етническо прочистване, при която загинаха хиляди хора. Рискът от неправилно подбрани модели и човешка манипулация вероятно ще се увеличи, когато алгоритмите станат по-независими.

Регулатори за агенти

Регулирането на ИИ е необходимо, за да се избегне повтарянето на минали грешки или да се избегне възможността да бъдем хванати неподготвени от нови грешки в бъдеще. Над 33 000 учени подписаха отворено писмо, публикувано през март 2023 г., в което се призовава за шестмесечна пауза на изследванията на ИИ, за да се създадат предпазни механизми. Тъй като технологичните компании се надпреварват да създават независим ИИ, загрижените експерти призовават за прилагане на принципа на предпазливостта: идеята, че мощните научни постижения трябва да се увеличават бавно, а търговските интереси трябва да отстъпят място на безопасността.

Този принцип вече е норма в други индустрии на САЩ. Фармацевтична компания не може да пусне на пазара ново лекарство, докато то не премине през строги клинични изпитания и не получи одобрение от Агенцията по храните и лекарствата; производител на самолети не може да пусне нов пътнически самолет без сертификат от Федералната авиационна администрация. Въпреки че бяха предприети някои първи регулаторни стъпки - най-вече изпълнителната заповед на президента Джо Байдън относно ИИ (която новоизбраният президент Доналд Тръмп обеща да отмени) - понастоящем не съществува цялостна федерална рамка за надзор на разработването и внедряването на ИИ.

Надпреварата за комерсиализиране на агентите може бързо да ни изтласка отвъд точката, от която няма връщане назад. Щом имаме агенти, те ще бъдат полезни, ще имат икономическа стойност и стойността им ще расте и когато властите разберат, че те могат да бъдат и опасни, може да е твърде късно, защото икономическата стойност ще е такава, че няма да може да се спре. Можем дори да сравним възхода на агентите с този на социалните медии, които през 2010 г. бързо изпревариха всякакъв шанс за ефективен правителствен надзор. Докато светът се готви да посрещне поток от изкуствени агенти, никога не е имало по-належащ момент да упражним своята собствена способност да взимаме разумни решения.

Коментари

НАЙ-НОВО

|

НАЙ-ЧЕТЕНИ

|

НАЙ-КОМЕНТИРАНИ