След оплаквания: OpenAI ще реорганизира екипа, отговарящ за поведението на ChatGPT

OpenAI реорганизира своя екип Model Behavior – малка, но влиятелна група от изследователи, които оформят начина, по който моделите с изкуствен интелект на компанията взаимодействат с хората, съобщи TechCrunch.
В августовска бележка до персонала, видяна от TechCrunch, главният изследовател на OpenAI Марк Чен пише, че екипът Model Behavior, който се състои от приблизително 14 изследователи, ще се присъедини към екипа Post Training – по-голяма изследователска група, отговорна за подобряването на моделите на изкуствен интелект на компанията след първоначалното им предварително обучение.
Като част от промените, екипът Model Behavior вече ще се отчита пред ръководителя на Post Training на OpenAI, Макс Шварцер. Говорител на OpenAI е потвърдил тези промени пред TechCrunch.
Основателят на екипа Model Behavior Джоан Янг също така започва нов проект в компанията. В интервю за TechCrunch, Янг казва, че изгражда нов изследователски екип, наречен OAI Labs, който ще отговаря за „изобретяването и прототипирането на нови интерфейси за това как хората си сътрудничат с изкуствен интелект“.
Екипът Model Behavior се превърна в една от ключовите изследователски групи на OpenAI, отговорна за оформянето на поведението на моделите с изкуствен интелект на компанията и за намаляване на „подмазването“, което се случва, когато моделите с изкуствен интелект просто се съгласяват с и подсилват потребителските убеждения, дори и те да са нездравословни, вместо да предлагат балансирани отговори. Екипът е работил и върху преодоляването на политическите пристрастия в отговорите на моделите и е помогнал на OpenAI.
В бележката до персонала Чен каза, че сега е моментът да се приближи работата на екипа Model Behavior на OpenAI до разработването на основни модели. По този начин компанията сигнализира, че „личността“ на нейния изкуствен интелект сега се счита за критичен фактор за това как се развива технологията.
През последните месеци OpenAI се сблъска със засилен контрол върху поведението на своите модели с изкуствен интелект. Потребителите силно възразиха срещу промените в личността, направени в GPT-5, който според компанията показва по-ниски нива на подмазване, но карат чатбота да изглежда по-студен за някои потребители. Това накара OpenAI да възстанови достъпа до някои от своите стари модели, като например GPT-4o, и да пусне актуализация, за да направи по-новите отговори на GPT-5 „по-топли и по-приятелски“, без да увеличава подмазването.
През август родителите на 16-годишно момче заведоха дело срещу OpenAI за предполагаемата роля на ChatGPT в самоубийството на сина им. Момчето, Адам Рейн, е споделило някои от своите суицидни мисли и планове на ChatGPT (по-специално версия, задвижвана от GPT-4o) в месеците преди смъртта му, сочат съдебни документи. В иска се твърди, че GPT-4o не е опитал да противодейства на суицидните идеи.
Екипът на Model Behavior е работил върху всеки модел на OpenAI след GPT-4, включително GPT-4o, GPT-4.5 и GPT-5. Преди да стартира звеното, Джанг е работила по проекти като Dall-E 2 – ранният инструмент за генериране на изображения на OpenAI.
Джанг обяви в публикация в X миналата седмица, че напуска екипа, за да „започне нещо ново в OpenAI“. Бившият ръководител на Model Behavior е в OpenAI от близо четири години.
Джанг каза пред TechCrunch, че ще бъде генерален мениджър на OAI Labs, които засега ще докладват на Чен. Все още е само началото и все още не е ясно какви ще бъдат тези нови интерфейси, каза тя.
Ключови думи
ОЩЕ ОТ КАТЕГОРИЯТА
|
|
Коментари
Няма въведени кометари.