OpenAI представи нов метод за борба с „халюцинациите“ на изкуствения интелект

OpenAI представи нов метод за борба с „халюцинациите“ на изкуствения интелект

OpenAI представи нов метод за борба с „халюцинациите“ на изкуствения интелект

Технологичният стартъп OpenAI поема водеща роля в битката срещу „халюцинациите“ на изкуствения интелект с помощта на нов метод за обучение на ИИ моделите, съобщи самата компания, цитирана от Си Ен Би Си.

Това се случва в момент, когато темата за дезинформацията, произтичаща от системите с изкуствен интелект, е на преден план на фона на бума на генеративния ИИ и наближаването на президентските избори в САЩ през 2024 г.

OpenAI ускори генеративния ИИ бум миналата година, след като пусна на пазара своя чатбот с изкуствен интелект ChatGPT. В рамките само на два месеца приложението привлече над 100 млн. месечни потребители, превръщайки се в най-бързо развиващото се потребителско приложение в историята,

Към днешна дата Microsoft е инвестирала повече от 13 млр. долара в OpenAI, а стойността на стартъпа се оценява на приблизително 29 млрд. долара.

Така наречените „халюцинации“ възникват, когато ИИ модели като ChatGPT на OpenAI или Bard на Google изфабрикуват изцяло информация, държейки така, сякаш представят факти. Един пример: В февруарския промоционален видеоклип на Google за Bard чатботът прави невярно твърдение за космическия телескоп James Webb.

„Дори най-съвременните модели са склонни да създават лъжи – те проявяват склонност да измислят факти в моменти на несигурност“, пишат изследователите на OpenAI в доклад. „Тези халюцинации са особено проблематични в области, които изискват многоетапно разсъждение, тъй като една логическа грешка е достатъчна, за да компрометира много по-голямо решение”, добавят те.

Каква е потенциалната нова стратегия на OpenAI за борба с халюцинациите? Идеята е ИИ моделите да бъдат обучавани да се възнаграждават за всяка индивидуална правилна стъпка в разсъждението, когато стигат до отговор, вместо само за правилното окончателно заключение. Подходът се нарича „наблюдение на процеса“, за разлика от „наблюдение на резултата“, и според изследователите може да доведе до по-добре изкуствен интелект, който обяснява по-добре, тъй като стратегията насърчава моделите да следват по-скоро човешки верижен подход от „мислене“.

Коментари

НАЙ-НОВО

|

НАЙ-ЧЕТЕНИ

|

НАЙ-КОМЕНТИРАНИ