Ричард Брансън и внукът на Опенхаймер настояват за действия за спиране на AI и "климатичната катастрофа“

Ричард Брансън и внукът на Опенхаймер настояват за действия за спиране на AI и климатичната катастрофа“

Ричард Брансън и внукът на Опенхаймер настояват за действия за спиране на AI и "климатичната катастрофа“

Десетки високопоставени фигури в бизнеса и политиката призовават световните лидери да се справят с екзистенциалните рискове от изкуствения интелект и климатичната криза.

Основателят на Virgin Group Ричард Брансън, заедно с бившия генерален секретар на ООН Бан Ки Мун и Чарлз Опенхаймер – внук на американския физик Дж. Робърт Опенхаймер(един от създателите на първата атомна бомба-бел. ред.), подписаха отворено писмо, призоваващо към действия срещу ескалиращите опасности от климатичната криза, пандемиите, ядрената енергия оръжия и неуправляем изкуствен интелект(AI, съобщи CNBC.

Посланието призовава световните лидери да възприемат дългосрочна стратегия и „решимост да разрешават неразрешими проблеми, а не просто да ги управляват, мъдростта да вземат решения въз основа на научни доказателства и разум, и смирението да изслушват всички засегнати“.

Подписалите призоваха за спешни многостранни действия, включително чрез финансиране на прехода от изкопаеми горива, подписване на справедлив пандемичен договор, рестартиране на преговорите за ядрени оръжия и изграждане на глобално управление, необходимо за превръщането на изкуствения интелект в сила за добро.

Писмото беше публикувано в четвъртък от The Elders, неправителствена организация, създадена от бившия южноафрикански президент Нелсън Мандела и Брансън, за да се занимава с глобални проблеми с човешките права и да се застъпва за световен мир.

Посланието е подкрепено и от Future of Life Institute, организация с нестопанска цел, създадена от космолога от Масачузетския технологичен институт Макс Тегмарк и съоснователя на Skype Яан Талин, която има за цел да насочи трансформативната технология като AI към полза на живота и далеч от мащабни рискове.

Тегмарк каза, че The Elders и неговата организация са искали да предадат, че макар сама по себе си да не е „зла“, технологията остава „инструмент“, който може да доведе до някои ужасни последици, ако бъде оставена да напредва бързо в ръцете на грешни хора.

„Старата стратегия за насочване към добри употреби [когато става въпрос за нови технологии] винаги се е учила от грешки“, каза Тегмарк в интервю за CNBC. „Изобретихме огъня, а по-късно изобретихме и пожарогасителя. Изобретихме колата, след това се поучихме от грешките си и измислихме предпазния колан, светофарите и ограниченията на скоростта.“

„Инженеринг на безопасността“

Но когато нещото вече прекрачи прага и силата, тази стратегия за учене от грешките се превръща в... добре, грешките биха били ужасни“, добави Тегмарк.

„Като самият маниак, аз мисля за това като за инженерна безопасност. Изпращаме хора на Луната, много внимателно обмислихме всички неща, които могат да се объркат, когато поставите хора в резервоари с експлозивно гориво и ги изпратите някъде, където никой не може да им помогне. И затова в крайна сметка се получи добре.”

Той продължи с думите: „Това не беше „доомеризъм“. Това беше инженеринг на безопасността. И се нуждаем от този вид инженеринг за безопасност и за нашето бъдеще, с ядрени оръжия, със синтетична биология, с все по-мощен AI.

Писмото беше оповестено преди Мюнхенската конференция по сигурността, където правителствени служители, военни лидери и дипломати ще обсъдят международната сигурност на фона на ескалиращи глобални въоръжени конфликти, включително войните Русия-Украйна и Израел-Хамас. Tегмарк ще присъства на събитието, за да защити посланието на писмото.

Future of Life Institute миналата година също публикува отворено писмо, подкрепено от водещи фигури, включително шефа на Tesla Илон Мъск и съоснователя на Apple Стив Возняк, което призова лаборатории за изкуствен интелект като OpenAI да преустановят работата по обучението на AI модели, които са по-мощни от GPT- 4 — в момента най-модерният AI модел от OpenAI на Sam Altman.

Технолозите призоваха за такава пауза в развитието на AI, за да се избегне „загуба на контрол“ над цивилизацията, което може да доведе до масово заличаване на работни места и надхитряване на хората от компютрите.

Коментари

НАЙ-НОВО

|

НАЙ-ЧЕТЕНИ

|

НАЙ-КОМЕНТИРАНИ