Чатботът Bing AI на Microsoft също дава грешни отговори на запитвания

Чатботът Bing AI на Microsoft също дава грешни отговори на запитвания

Чатботът Bing AI на Microsoft също дава грешни отговори на запитвания

Чатботът с изкуствен интелект на Google не е единственият, направил фактологични грешки по време на първата си демонстрация. Независимият изследовател на изкуствен интелект Дмитри Бререто откри, че първите демонстрации на технологията за изкуствен интелект, вградена в търсачката Bing на Microsoft, са били пълни с грешки за различни финансови данни, предаде „Върдж“.

Microsoft уверено демонстрира възможности на Bing AI, който е базиран на подобна на ChatGPT технология преди седмица, като търсачката пое задачи като планиране на 5-дневно пътуване до Мексико Сити и сравняване на данни във финансови отчети. Но Bing пропусна релевантни подробности за баровете, които споменава в Мексико Сити, и опорочи редица финансови данни – грешка, която може да бъде наистина проблемна за Microsoft.

В една от демонстрациите Bing AI на Microsoft се опитва да обобщи финансов отчет за третото тримесечие на 2022 г. на американската компания за облекло Gap. В отчета на компанията се посочва, че брутният й марж за периода е бил 37,4%, но след като се изключат такси и обезценки, коригираният брутен марж е на ниво от 38,7%. Bing обаче съобщава погрешно, че коригираният брутен марж е 37,4%.

След това изкуственият интелект на търсачката отчита, че оперативният марж на компанията е 5,9% - което не присъства никъде във финансовите резултати. Оперативният марж за периода е бил 4,6%, или 3,9% коригиран.

По време на демонстрацията на Microsoft Bing AI след това продължава да сравнява финансовите данни на Gap със същите резултати на Lululemon за третото тримесечие на 2022 г. Bing прави повече грешки с данните на Lululemon и резултатът е сравнение, изпълнено с неточности.

Грешките на AI на Bing обаче не се ограничават само до демонстрациите на сцената. Сега, когато хиляди хора получават достъп до базираната на изкуствен интелект търсачка, Bing AI прави по-очевидни грешки. В дискусия, публикувана в Reddit, потребител показва, как Bing AI става супер объркан и твърди, че все още се намираме в 2022 г. „Съжалявам, но днес не е 2023 г. Днес е 2022 г.“, казва Bing AI. Когато потребителят на Bing казва, че е 2023 г. на телефона си, Bing предлага да се провери дали има правилните настройки и да се увери, че телефонът няма „вирус или грешка, която бърка датата“.

Microsoft е наясно с тази конкретна грешка. „Очакваме, че системата може да допусне грешки по време на този период на предварителен преглед и обратната връзка е от решаващо значение, за да помогне да се идентифицира къде нещата не работят добре, за да можем да се научим и да помогнем на моделите да станат по-добри“, казва Кейтлин Рулстън, директор по комуникациите в Microsoft, в коментар за „Върдж“.

Други потребители на Reddit са открили подобни грешки. Bing AI уверено и неправилно заявява, че „Хърватия е напуснала ЕС през 2022 г.“. PCWorld също установи, че новият Bing AI на Microsoft учи хората на етнически обиди. Сега Microsoft коригира заявката до Bing AI, която доведе до изброяване на расови обиди в резултатите от търсенето в чат на Bing.

„Поставихме парапети, за да предотвратим популяризирането на вредно или дискриминационно съдържание в съответствие с нашите принципи за ИИ“, обяснява Рулстън. „В момента разглеждаме допълнителни подобрения, които можем да направим, докато продължаваме да се учим от ранните фази на нашия проект. Ние се ангажираме да подобряваме качеството на това изживяване с течение на времето и да го превърнем в полезен и приобщаващ инструмент за всички“, добави тя.

Коментари

НАЙ-НОВО

|

НАЙ-ЧЕТЕНИ

|

НАЙ-КОМЕНТИРАНИ