Бизнес БРОЙ /// Мениджър 08/23

Списание МЕНИДЖЪР Ви предлага 4 безплатни статии от броя — 1 / 4

Може ли изкуственият интелект в медиите да се самоизяде?

Езиковите модели, които се обучават от нечовешко написано съдържание, се провалят. И това е добра новина

Автор:

Петър Хераков

Снимки:

Getty Images

Може ли изкуственият интелект в медиите да се самоизяде?

Може ли изкуственият интелект в медиите да се самоизяде?

Езиковите модели, които се обучават от нечовешко написано съдържание, се провалят. И това е добра новина

Може ли изкуственият интелект в медиите да се самоизяде?
quotes

Вначалото на август изпълнителният директор на News Corp Australia (най-влиятелната медийна група на континента) Майкъл Милър съобщи, че 3000 статии на седмица се пишат с използване на изкуствен интелект. Екип от четирима души се грижи за тяхната обработка и за редакцията им. Според Милър статиите са за времето, цената на горивата и трафика в десетки австралийски градове. 

News Corp Australia не е единствената медийна компания, която тръгва по този път. През януари изданието за технологични новини CNET публикува статии, написани от AI, които бяха пълни с грешки. Германският таблоид „Билд“ също обяви, че ще съкрати журналисти, за да ги замени с AI. Тенис турнирът „Уимбълдън“ използва коментар, генериран от AI, в последното си издание за озвучаване на мачове от по-малките кортове (слушах малко и беше ужасно). 

Време е да се подготвим за атаката на съдържание, създадено от AI. Още повече че големите медийни компании се стремят
да станат цифрови платформи и са жадни за данни, оптимизират се алгоритмично и монетизират нашето внимание. Тоест влизат в бизнес модела на социалните медии. Добавянето на съдържание, генерирано от AI, със сигурност няма да подобри нещата. Все пак ние знаем, че големите езикови модели като GPT-4 не произвеждат факти, а по-скоро интерпретират такива на базата на предсказване на езика. 

Можем да мислим за ChatGPT като за „автоматизирана машина за патронизиращо мнение“ – често грешно, но винаги уверено. Дори и с обещание за човешки надзор и редакция, материал, създаден по този начин, не е журналистика.
Възниква и въпросът какво ще стане, когато мрежата е толкова доминирана от съдържание, генерирано от AI, че новите модели се обучават не върху материал, създаден от човек, а върху такъв от AI? Ще се сдобием ли с някакъв прокълнат цифров уроборос, който яде собствената си опашка? Точно това творение изследователят Джейтън Садовски нарече
„Хабсбургски AI“, използвайки за референция европейска кралска династия, популярна с постоянното си кръвосмешение и
резултиращи мутации. Хабсбургският AI е система, която е толкова интензивно обучена от резултатите на други генеративни AI, че се превръща във вроден мутант, пълен с преувеличени, гротескни характеристики. 

Изследване на университета „Корнел“ показва, че големите езикови модели като този, който захранва ChatGPT, бързо се
сриват, когато данните, върху които се обучават, са създадени от други AI, а не от хора. Същото изследване, публикувано
през май, установи, че без свежи данни се създава верига, обречена на прогресивно влошаване на качеството на съдържанието. „С времето моделите се учат от все повече грешни модели. И това допълнително изкривява реалността. Изненадахме се колко бързо се стига до колапс на моделите. А освен това моделите забравят оригиналните данни, от които са се учили“, обяснява Илия Шумайлов, един от учените, участвали в изследването, пред Venturebeat.

„Точно както пълним океаните с боклук от пластмаса и изсипваме тонове въглероден диоксид в атмосферата, така ще напълним интернет с празно дрънкане. Това ще направи много трудно тренирането на нови модели с текстове от интернет и ще даде огромно предимство на тези модели или компании, които контролират голямо човешко съдържание“, обяснява Рос Андерсън, професор по компютърна сигурност в Кеймбридж, в свой пост, посветен на изследването.

Медийните организации, използващи AI за генериране на огромно количество съдържание, ускоряват проблема. Може би
това е повод и за мрачен оптимизъм – необузданото съдържание, генерирано от AI, може да предизвика собственото си
унищожение. 

ChatGTP продължава да става все по-добър инструмент, тоест задачата на тези услуги, които предлагат да проверят дали даден текст е генериран от AI или от човек, става все по-сложна. Според резултатите от различни изследвания две приложения работят наистина добре – GPTZero  и Copyleaks. GPTZero дори работи на български.
GPTZero е създаден като отговор на ChatGPT и оценява текста, който изпращате, както на „объркване“, така и на „избухване“. Объркването измерва произволността на използваните думи, докато избухването измерва вариацията
в объркването. Причината – хората са склонни да пишат по начин, който е много по-случаен от AI или голям езиков модел.
Copyleaks е компания, която предоставя инструменти за откриване на плагиатство, оценяване и AI откриване на съдържание. Има и разширение за Chrome, което ви позволява да тествате съдържание навсякъде в мрежата, за да видите дали е генерирано от AI.