OpenAI разпусна екипа си, фокусиран върху дългосрочните рискове от изкуствения интелект

OpenAI разпусна екипа си, фокусиран върху дългосрочните рискове от изкуствения интелект

OpenAI разпусна своя екип, фокусиран върху дългосрочните рискове от изкуствения интелект, само една година след като компанията обяви неговото създаване, предаде Си Ен Би Си, позовавайки се на запознат източник.

Според източника част от членовете на екипа ще бъдат прехвърлени в други екипи на фирмата.

Новината идва дни, след като и двамата лидери на екипа, съоснователят на OpenAI Иля Суцкевер и Ян Лейке, обявиха напускането си от подкрепения от Microsoft стартъп. Лейке написа миналата седмица, че „културата и процесите на безопасност на OpenAI са отстъпили на заден план пред лъскавите продукти“.

Екипът за Superalignment на OpenAI, обявен миналата година, се фокусира върху „научни и технически пробиви за управление и контрол на ИИ системи, много по-умни от нас“. По това време OpenAI заяви, че ще отдели 20% от изчислителната си мощност за инициативата в продължение четири години.

От OpenAI са отказали коментар и вместо това са насочили медията към скорошната публикация на съоснователя и главен изпълнителен директор Сам Алтман в X, където той сподели, че е натъжен от напускането на Лейке и че компанията има още работа за вършене..

В събота съоснователят на OpenAI Грег Брокман публикува изявление, че компанията е „повишила осведомеността за рисковете и възможностите на AGI (изкуствен общ интелект“, така че светът да може да се подготви по-добре за него“.

Иля Суцкевер и Ян Лейке обявиха напускането си във вторник миналата седмица, но Лайкесподели повече подробности за решението си в петък.

„Присъединих се, защото смятах, че OpenAI ще бъде най-доброто място в света за извършване на това изследване. Въпреки това, не съм съгласен с ръководството на OpenAI относно основните приоритети на компанията от доста време, докато най-накрая достигнахме преломна точка“, коментира той.

Лейке пише, че според него много по-голяма част от изчислителната мощнос компанията трябва да бъде фокусирана върху сигурността, мониторинга, готовността, безопасността и въздействието на ИИ върху обществото.

„Тези проблеми са доста трудни за решаване и съм загрижен, че не сме на траектория, за да стигнем дотам“, пише той. „През последните няколко месеца екипът ми плаваше срещу вятъра. Понякога се борехме за компютърни ресурси и ставаше все по-трудно и по-трудно да направим това решаващо изследване“.

Leike добави, че OpenAI трябва да се превърне в „компания за AGI, поставяща безопасността на първо място“.

„Изграждането на по-интелигентни от човека машини е по своята същност опасно начинание. OpenAI поема огромна отговорност от името на цялото човечество. Но през последните години културата на безопасност и процесите останаха на заден план пред лъскавите продукти“, каза той.

Коментари

НАЙ-НОВО

|

НАЙ-ЧЕТЕНИ

|

НАЙ-КОМЕНТИРАНИ

Учени от Обединеното кралство направиха рядко откритие, свързано с гъбите
Удар по сериалите: Турция задържа 19 популярни актьори и певци по дело за наркотици
Данъчни реформи: Основателят на Revolut се премести от Великобритания в ОАЕ
Защо неподчинението е важно и как да го практикуваме?
Километрични опашки по бензиностациите и ограничения на покупките: Русия остава без гориво
Урсула фон дер Лайен: Русия иска да всее раздор в ЕС, трябва да отговорим с единство
Изследователи откриха микроби, които са в капан на арктическите ледове вече 40 000 години
От утре държавата ще глобява търговци за нарушения на Закона за въвеждане на еврото