Шефът на OpenAI призова за повече регулации на ИИ, включително за неговия ChatGTP

Шефът на OpenAI призова за повече регулации на ИИ, включително за неговия ChatGTP

Ръководителят на компанията за изкуствен интелект, която стои зад чатбота ChatGPT, каза пред Конгреса на САЩ във вторник, че правителствената намеса „ще бъде от решаващо значение за смекчаване на рисковете от все по-мощните“ системи с ИИ, предаде сп. „Форчън“.

„С напредването на тази технология ние разбираме, че хората са безпокоени от това как тя може да промени начина, по който живеем. Ние също сме обезпокоени“, каза главният изпълнителният директор на OpenAI Сам Олтман на изслушване в подкомисия в Сената във вторник.

Неговият базиран в Сан Франциско стартъп привлече общественото внимание, след като в края на миналата година пусна на пазара ChatGPT. ChatGPT е чатбот с изкуствен интелект, който отговаря на въпроси с близки до човешките отговори.

Паниката от потенциалното използването на ChatGPT за измама при писането на домашни задачи от учениците и на студентски есета постепенно се разрасна и постави на преден план по-широки опасения относно способността на най-новото поколение инструменти с „генеративен ИИ“ да подвеждат хората, да разпространяват лъжи, да нарушават защитата на авторските права и да засягат работни места.

Макар да няма признаци, че Конгресът незабавно ще изработи широкообхватни нови правила за ИИ, както правят европейските законодатели, обществените опасения доведоха Олтман и други технологични изпълнителни директори в Белия дом по-рано този месец и накараха американските агенции да обещаят да се справят с вредни ИИ продукти, които нарушават съществуващите граждански права и законите за защита на потребителите.

Сенаторът демократ от Кънектикът Ричард Блументал, който председателства подкомисията за защита на потребителите към Сената, откри изслушването със записана реч, която звучи като негова, но всъщност е създадена с гласово приложение, обучено чрез предходни негови речи, и написана от ChatGPT, който е отговорил на неговия въпрос: „Как бих започнал това изслушване?“.

Резултатът беше впечатляващ, каза Блументал, но добави: „Ами ако го бях попитал и той ми бе предоставил реч, одобряваща лидерството на руския президент Владимир Путин или идеята, че Украйна трябва да се предаде?“.

Блументал каза, че от компаниите за изкуствен интелект трябва да се изисква да тестват своите системи и да разкриват рисковете, преди да ги пускат на пазара.

Основана през 2015 г., OpenAI е известна и с други ИИ продукти, включително създателя на изображения DALL-E. Microsoft е инвестирала милиарди долари в стартъпа и е интегрирала технологията в собствените си продукти, включително своята търсачка Bing.

Олтман също така планира да започне световно турне този месец до национални столици и големи градове на шест континента, за да говори за технологията с политиците и обществеността. В навечерието на свидетелските си показания в Сената той вечеря с десетки американски законодатели, някои от които казаха пред Си Ен Би Си, че са били впечатлени от коментарите му.

В изслушването ще се включи и главният директор по въпросите за поверителността и доверието на IBM Кристина Монтгомъри и Гари Маркъс, почетен професор в Нюйоркския университет, който беше сред група експерти по изкуствен интелект, които призоваха OpenAI и други технологични фирми да спрат разработването на по-мощни модели на изкуствен интелект за шест месеца, за да се даде на обществото повече време да обмисли рисковете. Писмото беше отговор на мартенското издание на най-новия модел на OpenAI, GPT-4, описан като по-мощен от ChatGPT.

Олтман и други лидери в технологичната индустрия казаха, че приветстват някаква форма на надзор на ИИ, но предупредиха за това, което смятат за прекалено строги правила. В копие от подготвените си забележки Монтгомъри от IBM моли Конгреса да възприеме подход на „прецизно регулиране“.

„Това означава установяване на правила за управление на внедряването на ИИ в конкретни случаи на употреба, а не регулиране на самата технология“, каза Монтгомъри.

Коментари

НАЙ-НОВО

|

НАЙ-ЧЕТЕНИ

|

НАЙ-КОМЕНТИРАНИ