Информатор от Cambridge Analytica: AI влияе все повече върху изборите и политиката

Информатор от Cambridge Analytica: AI влияе все повече върху изборите и политиката

Разобличителката от Cambridge Analytica Британи Кайзър заяви, че онлайн защитата на личните данни почти не се е подобрила, откакто през 2018 г. тя даде показания пред британския парламент, че милиони хора може да са станали жертва на неправомерно събиране на данни от Facebook.

Скандалът избухна през 2016 г., след като стана ясно, че данните на над 87 милиона души може да са били събрани чрез приложение за личностен тест във Facebook.

Въпреки че не е напълно ясно как точно са използвани тези данни, Кайзър посочи, че Cambridge Analytica е извършвала „платени дейности“ за предизборната кампания на Доналд Тръмп и за кампанията на Leave.EU за Брекзит. И двете организации отричат да са имали официален договор с аналитичната компания.

„Иска ми се да можех да кажа, че нещата са се подобрили. Бих казала, че вече има доста места по света, където хората започват да бъдат защитени по закон, което не беше така през 2018 г.“, каза Кайзър пред Euronews Next. Тя допълни, че въпреки съществуването на повече закони за защита на данните, като например GDPR в Европа, в САЩ все още няма федерално законодателство в тази област. Ако някой реши да съди компании за неправомерно използване на лични данни, това отнема много време по съдилищата.

„Технически сме дори по-малко защитени, защото технологиите са станали много по-добри в таргетирането“, добави тя.

Кайзър предупреди също, че изкуственият интелект (AI) влошава ситуацията, особено що се отнася до намеса в избори.

„Появата на генеративен AI улесни значително създаването на фалшиво съдържание, което изглежда напълно истинско. По времето на Cambridge Analytica разполагахме с много базови алгоритми за генериране на съдържание, които целият свят използваше тогава. Днес вече AI може да имитира реалността по начин, по който никога не сме си представяли“, обясни тя.

Въпреки че самата тя се бори за дигитални права, Кайзър призна, че също е била заблуждавана от AI-генерирани изображения онлайн. В един случай тя е помислила, че в Ню Йорк се случва нещо ужасяващо, след като попаднала на фалшиво изображение на запален автомобил в Манхатън.

„Като знам колко е трудно вече да се намери истинска снимка на нещо, мога да кажа, че това лесно може да се използва за политически, търговски или каквито и да било други цели“, каза тя.

„Разузнавателните агенции продължават да предупреждават, че Русия, Китай и Иран инвестират също толкова в кампании за дезинформация, но сега ефектът е много по-голям, а парите стигат по-далеч благодарение на по-добрите технологии“, коментира Кайзър.

AI и избори

През миналата година над 60 държави отидоха на избори в така наречения „суперцикъл“. Проучванията за ролята на AI в тези избори все още са ограничени.

Последен доклад на Центъра за нововъзникващи технологии и сигурност (CETaS) към Института Алън Тюринг разкри, че по време на парламентарните избори във Великобритания е имало 16 случая на разпространение на фалшива информация или deepfake съдържание, генерирани с помощта на AI.

Подобни случаи е имало и в САЩ, включително бот мрежи, имитиращи американски избиратели, и фалшиви обвинения срещу имигранти, които са били използвани от някои политици и широко отразявани в медиите.

Въпреки че проучването не откри достатъчно доказателства, че тези кампании са променили крайния резултат от президентските избори в САЩ, то заключава, че AI съдържанието е влияело на предизборния дебат, усилвайки други форми на дезинформация и разпалвайки политически конфликти.

Контролът над AI

Освен изборите, Кайзър изрази сериозни притеснения от договорите, които правителствата сключват с големи технологични компании, разработващи AI, като създателя на ChatGPT — OpenAI.

„Понеже правителствата искат да използват AI, много от тях лицензират продукти от големи компании, чиито системи са със затворен код, черни кутии, а нашите данни и данните на правителствата се вливат в тези затворени, комерсиални системи без каквито и да било защити“, предупреди тя.

Open source (отворен код) обикновено означава, че изходният код на софтуера е публично достъпен за всички — може да бъде използван, модифициран и разпространяван свободно, а данните, с които е обучен изкуственият интелект, също се споделят.

За разлика от това, closed source AI (AI със затворен код) означава, че кодът и данните, с които е обучен AI, се контролират и притежават изцяло от съответната компания.

Все пак съществуват и национални съображения за сигурност, когато големи AI модели с отворен код попаднат в ръцете на всеки, който може да програмира.

„OpenAI има огромно мнозинство от договорите с правителствата за AI услуги и всичките ни лични данни, както и данни от различни държавни агенции и ведомства, отиват на сървърите на OpenAI. Това създава още по-голям риск“, казва Британи Кайзър.

Тя добавя, че това напомня на ситуацията с Cambridge Analytica и Facebook отпреди повече от десетилетие, но сега става дума за „много повече данни, включително чувствителни, които се подават в тези системи“.

„Категорично не съм съгласна със Сам Алтман (изпълнителния директор на OpenAI), когато казва, че трябва да позволим всякакви данни да се използват за нашите модели, за да сме конкурентоспособни. За мен това е типичната философия ‘движи се бързо и чупи всичко’“, заявява още Кайзър.

В момента тя се застъпва правителствата да започнат да използват повече AI решения с отворен код — както на федерално, така и на щатско ниво.

„Отвореният код е жизненоважен за държавните агенции, работещи с граждани, особено сега, когато за първи път стана популярно обществото да има достъп и да проверява какво прави властта с базите данни и информацията“, казва тя.

Кайзър е убедена, че по-широкото използване на AI с отворен код би било по-етична стъпка за спечелване на обществено доверие, тъй като САЩ все още нямат федерално законодателство, което да защитава гражданите от начина, по който техните данни се използват в подобни системи.

Наскоро тя е поела нова роля в AI платформата с отворен код ElizaOS, която разработва AI агенти. Кайзър ръководи новото подразделение на компанията, което ще подпомага публичния сектор в САЩ при създаването на AI технологии с отворен код за държавни институции.

„Разумна регулация“

Кайзър изразява надежда, че администрацията на Тръмп може да подходи по-сериозно към защитата на данните.

„Това правителство изглежда сериозно настроено да приеме солидна федерална политика в областта на технологиите, да ангажира специалисти и да наема технолози за ръководни позиции в държавните институции. Затова се надявам, че ще станем свидетели на реални действия в САЩ. Би било чудесно най-после да видим федерално законодателство, което да защитава американските граждани и правата им на фона на бързото навлизане на технологиите“, казва тя.

В същото време обаче САЩ дадоха ясно да се разбере по време на AI Action Summit в Париж през февруари, че прекалената регулация може да задуши иновациите.

„Прекомерната регулация в AI сектора може да убие една трансформираща индустрия точно когато набира скорост“, заяви американският вицепрезидент Джей Ди Ванс.

Кайзър не смята, че това ще попречи на нейните усилия за защита на данните и AI с отворен код в САЩ, а по-скоро вижда нужда от балансиран подход към регулациите.

В същото време тя не вярва и че прекалените регулации ще помогнат, тъй като често на практика се оказват трудно приложими — както според нея се е случило с някои части от GDPR в Европа.

„Но вярвам, че разумна регулация, написана съвместно с технолози така, че да бъде лесно приложима, би била нещо добро както за американците, така и за икономиката“, заключава тя.

Коментари

НАЙ-НОВО

|

НАЙ-ЧЕТЕНИ

|

НАЙ-КОМЕНТИРАНИ