OpenAI представи нов метод за борба с „халюцинациите“ на изкуствения интелект

OpenAI представи нов метод за борба с „халюцинациите“ на изкуствения интелект

Технологичният стартъп OpenAI поема водеща роля в битката срещу „халюцинациите“ на изкуствения интелект с помощта на нов метод за обучение на ИИ моделите, съобщи самата компания, цитирана от Си Ен Би Си.

Това се случва в момент, когато темата за дезинформацията, произтичаща от системите с изкуствен интелект, е на преден план на фона на бума на генеративния ИИ и наближаването на президентските избори в САЩ през 2024 г.

OpenAI ускори генеративния ИИ бум миналата година, след като пусна на пазара своя чатбот с изкуствен интелект ChatGPT. В рамките само на два месеца приложението привлече над 100 млн. месечни потребители, превръщайки се в най-бързо развиващото се потребителско приложение в историята,

Към днешна дата Microsoft е инвестирала повече от 13 млр. долара в OpenAI, а стойността на стартъпа се оценява на приблизително 29 млрд. долара.

Така наречените „халюцинации“ възникват, когато ИИ модели като ChatGPT на OpenAI или Bard на Google изфабрикуват изцяло информация, държейки така, сякаш представят факти. Един пример: В февруарския промоционален видеоклип на Google за Bard чатботът прави невярно твърдение за космическия телескоп James Webb.

„Дори най-съвременните модели са склонни да създават лъжи – те проявяват склонност да измислят факти в моменти на несигурност“, пишат изследователите на OpenAI в доклад. „Тези халюцинации са особено проблематични в области, които изискват многоетапно разсъждение, тъй като една логическа грешка е достатъчна, за да компрометира много по-голямо решение”, добавят те.

Каква е потенциалната нова стратегия на OpenAI за борба с халюцинациите? Идеята е ИИ моделите да бъдат обучавани да се възнаграждават за всяка индивидуална правилна стъпка в разсъждението, когато стигат до отговор, вместо само за правилното окончателно заключение. Подходът се нарича „наблюдение на процеса“, за разлика от „наблюдение на резултата“, и според изследователите може да доведе до по-добре изкуствен интелект, който обяснява по-добре, тъй като стратегията насърчава моделите да следват по-скоро човешки верижен подход от „мислене“.

Коментари

НАЙ-НОВО

|

НАЙ-ЧЕТЕНИ

|

НАЙ-КОМЕНТИРАНИ

​​​​​​​Круизен кораб с над 200 души на борда заседна в река Дунав заради ниско ниво на водите
Коледните бонуси в Словения стават задължителни
„Киев пост“: Освен в Румъния, САЩ ще намалят военното си присъствие и в България, Унгария и Словакия
Българите плащат двойно по-ниски сметки за ток от средното за ЕС
В навечерието на Хелоуин: Тиквата може да крие токсични тайни
Си Дзинпин призовава азиатските държави да поддържат веригите за доставки стабилни и да работят заедно в „бурните“ времена
Цените на петрола са се насочили към трети пореден месечен спад
Китай потвърди плановете си да изпрати астронавти на Луната до 2030 г.