В сенките на глобалната битка за опитомяване на най-опасната технология в света

В сенките на глобалната битка за опитомяване на най-опасната технология в света

В сенките на глобалната битка за опитомяване на най-опасната технология в света

Дебатите за как и дали трябва да се контролира ИИ все повече започват да приличат на "подялба на света" от великите сили, пише в обстоен анализ Politico.

В един влажен ноемврийски следобед вицепрезидентът на САЩ Камала Харис и Ник Клег от Мета влязоха в голяма шатра в двора на английска къща от XIX в. северно от Лондон, заеха местата си на кръгла маса и, наред с други неща, започнаха да се опитват да спасят човечеството.

На фона на мрачното време в Блетчли Парк, който е бил използван като щаб на съюзниците за разбиване на кодове през Втората световна война, Клег и Харис се присъединиха към елитна среща на световни лидери, учени и ръководители на технологични компании, за да се справят с това, което песимистите се опасяват, че е опустошителна нова заплаха пред света: бързото навлизане на изкуствения интелект.

След двудневни разговори политиците и технологичните ръководители се споразумяха за съвместна декларация за добри намерения, но без единен отговор какво трябва да се направи. Вместо това те изложиха съперничещи си идеи за това как да управляват технологията, която ще доминира през по-голямата част от следващото десетилетие и вероятно ще промени всичко - от бизнеса и здравеопазването до самата демокрация.

Клег, бивш британски заместник министър-председател, заяви, че полицейската работа с изкуствен интелект прилича на конструирането на самолет, който вече е в полет - по своята същност това е рискована и трудна работа. Харис възхваляваше усилията на Вашингтон да се справи с опасностите от ИИ чрез доброволни бизнес споразумения като световен златен стандарт. Урсула фон дер Лайен, председател на Европейската комисия, която също присъстваше, призова другите да следват новия правно обвързващ правилник на Брюксел за борба с технологиите.

Дебатът представляваше моментна снимка на една по-голяма истина. През последната година по света се води политическа борба, предимно в сянка, за това как - и дали - да се контролира ИИ. Тази нова голяма дигитална игра е далеч от своя край. Който и да спечели, ще затвърди господството си над правилата на Запада за една определяща епохата технология. Веднъж установени, тези правила ще бъде почти невъзможно да бъдат пренаписани.

За тези, които наблюдаваха разговора отблизо, пазаренето на фона на английския дъжд в Блетчли Парк приличаше на това, как европейските сили през 19-ти век са си разпределяли света.

"Чувствах се като в алтернативна реалност", каза Амба Как, ръководител на института AI Now, организация с нестопанска цел, която участваше в дискусиите. В края на срещата 29 държави, сред които Китай, членове на Европейския съюз и САЩ, подписаха доброволно споразумение за намаляване на рисковете, появили се в политическия дневен ред вследствие на на ChatGPT на OpenAI.

През следващата година в жестоката битка за контрол над технологията ще има победители и губещи. До края на 2024 г. създателите на политики очакват много нови стандарти за ИИ да бъдат финализирани.

За тази статия Politico разговаря с повече от три дузини политици, представители на законодателните власти, ръководители на технологични компании и други, много от които получиха анонимност, за да обсъдят чувствителни въпроси, за да разберат динамиката, която играе, докато светът се бори с тази нова разрушителна технология.

Въпросът, пред който са изправени, е дали САЩ, ЕС или Обединеното кралство - или някой друг - ще успеят да разработят план, по който западните демокрации да постигнат съгласие. Ако либералните индустриални икономики не успеят да постигнат общ регламент помежду си, Китай може да се намеси, за да определи глобалните правила за една технология, която - при сценарий на Страшния съд - някои се опасяват, че има потенциала да заличи човечеството от лицето на Земята.

Докато Брюксел и Вашингтон представят своите противоречиви планове за регулиране на изкуствения интелект, шансовете за постигане на споразумение не изглеждат никак обещаващи.

Рицарски турнири в Япония

Месец преди конференцията под английския дъжд политиците трескаво се опитваха да постигнат напредък на другия край на света. Беше октомври и Вера Йоурова слезе от 16-часовия си полет от Брюксел до Япония изтощена. Заместник-председателката на ЕК беше влязла само за няколко седмици в новата си роля на главен пратеник на ЕС по въпросите на технологиите и първата ѝ международна задача нямаше да бъде лесна.

Мисията на Йоурова беше да представи европейския правилник за изкуствения интелект на срещата на Г-7, на която западните лидери се бяха събрали, за да се опитат да разработят нови глобални стандарти за най-напредналата форма на тази технология, известна като "генеративен изкуствен интелект" - мощната разработка, която стои зад ChatGPT и конкурентните му инструменти.

Подходът на Брюксел е залегнал в Акта на ЕС за изкуствения интелект - първият опит за обвързващо законодателство в света по този въпрос. За разлика от позицията на САЩ, визията на ЕС включва забрани за най-инвазивните форми на технологията и строги правила, изискващи от компании като Google и Microsoft да бъдат по-открити по отношение на начина, по който проектират продукти, базирани на изкуствен интелект.

"Генеративният ИИ навлезе в живота ни толкова бързо, че ние се нуждаем от незабавна реакция, от нещо бързо", заяви Йоурова пред Politico, след като пътува с двучасовия влак-стрела от Токио до Киото за срещата на върха.

С конкурентно предложение по време на тридневната среща в Япония излезе Натаниел Фик.

В качеството си на топ дигитален дипломат на Джо Байдън Фик, бивш ръководител на технологична компания, не предложи забрани или строги изисквания. Вместо това той настояваше за по-лек режим, основан предимно на доброволни ангажименти от страна на индустрията и на съществуващите национални закони.

"Хората могат да очакват, че Съединените щати ще вплетат въпроси, свързани с политиката в областта на изкуствения интелект, във всичко, което правим", каза Фик пред POLITICO след края на срещата на върха в Киото. "Рамките, кодексите и принципите, които разработваме, ще станат основа за действие."

На срещи с политици от Г-7, ръководители на технологични компании и други влиятелни личности Йоурова и Фик представиха своите аргументи.

За Йоурова от ЕС тезата беше проста. Брюксел вече се е доказал като дигитален полицай на Запада с множество регулации за всичко - от защита на личните данни на потребителите до укротяване на социалните медии.

Графикът на срещата на върха беше натоварен, с малко време за почивка, освен няколко кратки паузи за цигара и бърз обяд в кафенето. Йоурова заяви, че само Европа може да осигури необходимата строгост. Според нея ЕС може да наложи на компаниите големи глоби и да забрани най-инвазивните форми на изкуствен интелект - като например социалния скоринг, който представлява сложни алгоритми за проследяване на движението на хората, печално известен в Китай.

"Тя дойде с план, който се състоеше в това да ни убеди, че европейските правила са единствената възможна игра в тази област", казва един от хората, които са се срещнали с Йоурова. Друг представител на държава от Г-7 заяви, че ръководителят на европейските цифрови технологии е отхвърлил алтернативното предложение на Вашингтон заради липсата на обвързващо законодателство.

Контраофанзивата на Фик разчиташе на безспорната позиция на Америка като световна сила в развитието на изкуствения интелект.

Политическата безизходица в Капитолия означава, че Вашингтон вероятно няма да приеме скоро цялостно законодателство. Белият дом обаче вече направи няколко съобщения. През юли миналата година администрацията на Байдън осигури доброволни ангажименти от водещи технологични гиганти като Amazon за повишаване на сигурността на изкуствения интелект. След това Байдън издаде изпълнителна заповед, обявена на 30 октомври, с която упълномощи федералните агенции да предприемат действия.

Според двама участници, които са се срещнали с Фик в Япония, той е разкритикувал законодателството на Брюксел за това, че налага твърде много регулаторни тежести на бизнеса в сравнение с желанието на Вашингтон да позволи на компаниите да въвеждат иновации.

"Посланието беше ясно", казва друг западен дипломат, който е присъствал на срещата на върха на Г-7 в Киото. "Вашингтон няма да позволи на Брюксел да си пробие път."

Изискана трапеза преди апокалипсиса

В Европа усилията за постигане на консенсус продължиха - в малко очаквана обстановка. Пищната вечеря с шест блюда в Елисейския дворец, официалната резиденция на френския президент от 18-и век в Париж, не е точно символ на високи технологии.

Но по време на петчасовата гощавка с гурме кухня и изискано вино през ноември Еманюел Макрон се срещна с 40 експерти от бранша, сред които президентът на OpenAI Грег Брокман и главният гуру по изкуствен интелект на Meta Ян Лекун. Разговорът по време на вечерята бързо се насочи към създаването на правила.

Макрон е глобален лидер. Франция има голяма вътрешна индустрия за изкуствен интелект и президентът лично желае да ръководи международните усилия за определяне на глобални правила за тази технология. За разлика от стереотипите за френските политици, които обичат регулациите, Макрон остава предпазлив по отношение на брюкселския Закон за изкуствения интелект, опасявайки се, че той ще попречи на фирми като Mistral - стартъп за изкуствен интелект, съоснован от Седрик О, бившия министър на цифровите технологии на Франция.

Докато Макрон слушаше внимателно, гостите на вечерята му изложиха своите конкурентни предложения. Дискусията разкри още един ключов аспект на глобалния дебат за изкуствения интелект: сблъсъкът между тези, които смятат, че най-сериозните рискове са все още на много години разстояние, и тези, които смятат, че те вече са тук. Това е битката, която е в основата на целия глобален дебат. Тя противопоставя тези, които възприемат по-оптимистичен подход към потенциала на ИИ и искат да позволят възможно най-много експерименти, на други, които се опасяват, че вече е твърде късно да се предпази човечеството от сериозни вреди.

Брокман от OpenAI, един от тези, които са спокойни за непосредствените рискове и смятат, че фокусът трябва да бъде върху справянето с дългосрочните заплахи, каза на френския президент, че ИИ е предимно сила за добро, според трима души, които са присъствали на вечерята. Всяко регулиране - особено правила, които биха могли да попречат на стремителния растеж на компанията - трябва да се съсредоточи върху дългосрочните заплахи, като например ИИ да надделее над човешкия контрол, добави той.

Други, като Мередит Уиттакър, американски технолог, също присъствала на вечерята в Париж през ноември, заяви, че реалните вреди от съществуващия ИИ - включително дефектните набори от данни, които затвърждават расовите и половите предразсъдъци - изискват политиците да действат сега.

"Макрон вникна във всичко това", каза един от участниците, който, както и други присъстващи, получи анонимност, за да говори за частната среща. "Той искаше хората да знаят, че Франция стои зад по-голямо регулиране, но също така и че Франция е отворена за бизнес."

Подобни аргументи, които противопоставят необходимостта правилата да се съсредоточат върху дългосрочните рискове и незабавните спешни мерки, се обсъждат в западните столици.

Плащилото "deepfakes" 

Докато националните лидери се опитваха да се справят с проблема, технологичните ръководители кръстосваха планетата и призоваваха политиците да не прекаляват с регулациите.

Според петима души, запознати с дискусиите, Ерик Шмид, бившият главен изпълнителен директор на Google, и основателят на LinkedIn Рийд Хофман са летели между Вашингтон, Лондон и Париж, за да предложат собствената си гледна точка за това как да се справим с ИИ. Технологичните титани твърдят, че една прекалено строга репресия би дала на авторитарен Китай решаващо предимство в областта на ИИ. Много от тях, като Шмидт и Хофман, са инвестирали значителни средства в стартиращи предприятия в областта на ИИ.

За да подсилят аргументите си, технологичните шефове, които искат по-леки регулации, влязоха в „личен режим“. Лобистите на изкуствения интелект показаха на поне двама западни лидери видеоклипове, наподобяващи дълбоко фалшиви снимки - на самите лидери. Тези фалшификати, генерирани от изкуствен интелект, все още са на върха на технологията и често са тромави и лесни за забелязване. Но лобистите са използвали deepfakes, за да покажат на лидерите как технологията има потенциал да се развие и да създаде сериозни рискове в бъдеще, твърдят трима души, информирани за тези срещи.

Засега, въпреки новите задължителни правила на ЕС за изкуствения интелект, печелят тези, които искат по-лек подход.

След като през декември Брюксел постигна политическо споразумение по своя Закон за изкуствения интелект, Макрон - току-що завършил личната си вечеря за изкуствения интелект - застана на страната на германския канцлер Олаф Шолц и италианския министър-председател Джорджия Мелони, за да настоява за по-малко контрол върху най-новите форми на технологията. Френският президент се опасява, че подобна регулация ще попречи на местните шампиони, включително Mistral, френската компания за изкуствен интелект, подкрепяна отчасти от Шмид, бившия шеф на Google.

Франция продължи да се въздържа, докато в началото на февруари най-накрая не се поддаде на политическия натиск и не подкрепи правилата, макар и с големи резерви. "Ще регулираме неща, които вече няма да произвеждаме или изобретяваме", заяви Макрон пред аудитория в Тулуза, след като в последния момент осигури някои облекчения за европейските фирми. "Това никога не е добра идея."

Биооръжия и Big Data

Тристан Харис смяташе, че е нанесъл нокаутиращ удар. По време на частно изслушване на американски законодатели и технологични експерти през септември Харис, съосновател на Центъра за хуманни технологии, организация с нестопанска цел, описа как неговите инженери са принудили най-новия продукт на Meta с изкуствен интелект да извърши ужасяващо действие: създаване на биологично оръжие.

Според двама служители, присъствали на срещата, това показва, че подходът на Мета към изкуствения интелект е твърде небрежен и потенциално опасен.

Технологичният гигант на Марк Зукърбърг предпочита т.нар. технология с отворен код - изкуствен интелект, който е лесно достъпен за всички - с малко предпазни мерки срещу злоупотреби. Харис добави, че подобна достъпност би довела до вреди в реалния свят, включително до разпространение на оръжия за масово унищожение, създадени от ИИ.

Триумфът му не трае дълго. Зукърбърг, който също присъстваше на изслушването в Капитолия, бързо извади телефона си и намери същата информация за биологичното оръжие чрез просто търсене в Google. Контраударът на Зукърбърг предизвика смях в залата и на практика омаловажи обвинението на Харис, че подходът на Мета към ИИ с отворен код е заплаха за човечеството.

Сблъсъкът между Харис и Зукърбърг отразява друг ключов въпрос за политиците: Трябва ли изкуственият интелект да бъде ограничен до шепа доверени компании или да бъде отворен за използване от всички желаещи?

Според привържениците на предоставянето на лиценз за усъвършенстван ИИ на няколко избрани компании непосредствените рискове са твърде големи, за да бъдат пуснати на свобода в широкия свят. Според шестима политици, участвали в тези срещи, презентация на PowerPoint, предупреждаваща, че моделите на ИИ, предоставени на отворен принцип, ще отприщят неконтролируеми биологични оръжия, достъпни за терористите, е била представена на четири очи на официални правителствени лица в Лондон, Париж и Вашингтон.

Microsoft и OpenAI са сред компаниите, които подкрепят ограничаването на технологията до малък брой фирми, така че регулаторите да могат да изградят връзки с иноваторите в областта на ИИ.

"Подходът, базиран на лицензиране, е правилният път напред", заяви пред Politico Наташа Крамптън, главен отговорник за ИИ в Microsoft. "Той позволява тясно взаимодействие между разработчика на технологията и регулатора, за да може наистина да се оценят рисковете."

Критиците на господството на Силициевата долина твърдят, че големите технологични компании имат интерес да изключат конкуренцията. Според защитника на отворения код Марк Сърман, изпълнителен директор на фондация Mozilla, най-големите технологични компании в света искат да завладеят зараждащата се индустрия на изкуствения интелект за себе си и да отрежат конкурентите си.

Миналата есен Сърман обиколи западните столици, за да призове висши служители от САЩ, ЕС и Великобритания да не ограничават лицата, които могат да разработват модели на ИИ от следващо поколение. За разлика от други гиганти от Силициевата долина, Мета на Зукърбърг застана на страната на хора като Сърман, които искат да запазят технологията отворена за всички - теза, която той затвърди с разправията си с Харис относно биологичните оръжия през септември.

Откритият подход печели симпатии във влиятелни среди във Вашингтон, въпреки че американските власти остават разделени. В Брюксел политиците се споразумяха да освободят почти целия изкуствен интелект с отворен код от най-строг надзор - стига технологията да не се използва в забранени практики, като например разпознаване на лица на едро. В Обединеното кралство обаче официалните лица клонят към ограничаване на най-напредналите ИИ до няколко държави.

"Ако оставим изкуствения интелект в ръцете на малцина, няма да има достатъчно очи, които да контролират какво правят с него", казва Сърман.

Бъдещето е тук 

Ако 2023 г. е годината, в която лобирането на ИИ навлезе в политическия мейнстрийм, то 2024 г. ще реши кой ще спечели. Бързо наближават основните дати за вземане на решения. До лятото ще влязат в сила части от европейския Закон за изкуствения интелект. Конкурентната изпълнителна заповед за ИИ на Белия дом вече променя начина, по който федералните агенции работят с тази технология. До края на годината се очакват още реформи във Вашингтон.

Други държави като Великобритания, Япония и Канада, както и Китай, изготвят свои собствени планове, които включват по-голям надзор над най-напредналите ИИ и усилия да накарат други държави да приемат техните правила.

Според десетките експерти по изкуствен интелект, които разговаряха с Politico, е ясно, че през 2024 г. желанието на обществото за политически действия едва ли ще изчезне. Въздействието на ИИ, особено в годината на масови избори от САЩ и ЕС до Филипините и Индия - е всичко друго, но не и сигурно.

"Този въпрос за загубата на контрол от страна на ИИ изведнъж започва да се приема сериозно", казва Макс Тегмарк, президент на Института за бъдещето на живота, организация с нестопанска цел, която се застъпва за по-строг контрол върху ИИ. "Хората осъзнават, че това вече не е нещо дългосрочно. Това се случва."

Коментари

НАЙ-НОВО

|

НАЙ-ЧЕТЕНИ

|

НАЙ-КОМЕНТИРАНИ