OpenAI разпусна екипа си, фокусиран върху дългосрочните рискове от изкуствения интелект

OpenAI разпусна екипа си, фокусиран върху дългосрочните рискове от изкуствения интелект

OpenAI разпусна своя екип, фокусиран върху дългосрочните рискове от изкуствения интелект, само една година след като компанията обяви неговото създаване, предаде Си Ен Би Си, позовавайки се на запознат източник.

Според източника част от членовете на екипа ще бъдат прехвърлени в други екипи на фирмата.

Новината идва дни, след като и двамата лидери на екипа, съоснователят на OpenAI Иля Суцкевер и Ян Лейке, обявиха напускането си от подкрепения от Microsoft стартъп. Лейке написа миналата седмица, че „културата и процесите на безопасност на OpenAI са отстъпили на заден план пред лъскавите продукти“.

Екипът за Superalignment на OpenAI, обявен миналата година, се фокусира върху „научни и технически пробиви за управление и контрол на ИИ системи, много по-умни от нас“. По това време OpenAI заяви, че ще отдели 20% от изчислителната си мощност за инициативата в продължение четири години.

От OpenAI са отказали коментар и вместо това са насочили медията към скорошната публикация на съоснователя и главен изпълнителен директор Сам Алтман в X, където той сподели, че е натъжен от напускането на Лейке и че компанията има още работа за вършене..

В събота съоснователят на OpenAI Грег Брокман публикува изявление, че компанията е „повишила осведомеността за рисковете и възможностите на AGI (изкуствен общ интелект“, така че светът да може да се подготви по-добре за него“.

Иля Суцкевер и Ян Лейке обявиха напускането си във вторник миналата седмица, но Лайкесподели повече подробности за решението си в петък.

„Присъединих се, защото смятах, че OpenAI ще бъде най-доброто място в света за извършване на това изследване. Въпреки това, не съм съгласен с ръководството на OpenAI относно основните приоритети на компанията от доста време, докато най-накрая достигнахме преломна точка“, коментира той.

Лейке пише, че според него много по-голяма част от изчислителната мощнос компанията трябва да бъде фокусирана върху сигурността, мониторинга, готовността, безопасността и въздействието на ИИ върху обществото.

„Тези проблеми са доста трудни за решаване и съм загрижен, че не сме на траектория, за да стигнем дотам“, пише той. „През последните няколко месеца екипът ми плаваше срещу вятъра. Понякога се борехме за компютърни ресурси и ставаше все по-трудно и по-трудно да направим това решаващо изследване“.

Leike добави, че OpenAI трябва да се превърне в „компания за AGI, поставяща безопасността на първо място“.

„Изграждането на по-интелигентни от човека машини е по своята същност опасно начинание. OpenAI поема огромна отговорност от името на цялото човечество. Но през последните години културата на безопасност и процесите останаха на заден план пред лъскавите продукти“, каза той.

Коментари

НАЙ-НОВО

|

НАЙ-ЧЕТЕНИ

|

НАЙ-КОМЕНТИРАНИ

Експерт от Харвард за мита, който пречи на хората да бъдат щастливи
Денят в цифри
Ричард Брансън за двете най-важни думи, които всички успешни лидери казват
Почина и младата жена, която беше с 85 % изгаряния след взривовете в Елин Пелин
Франция арестува за шпионаж популярен руски шеф-готвач, издал се сам при престой в България
Тръмп предсказва заплаха от Трета световна война, ако Харис спечели изборите, връща се в града на стрелбата
Страните от Г-20 съгласни за промяна в облагане на свръхбогатите, но по-нататък
Астронавтите от капсулата „Starliner“ остават космически заложници, НАСА каза, че не знае кога ще може да ги върне