Технологични компании подписват пакт за борба с генерираната от ИИ дезинформация, свързана с изборите

Технологични компании подписват пакт за борба с генерираната от ИИ дезинформация, свързана с изборите

Технологични компании подписват пакт за борба с генерираната от ИИ дезинформация, свързана с изборите

Група от 20 водещи технологични компании обявиха съвместен ангажимент за борба с дезинформацията, генерирана от изкуствения интелект, на тазгодишните избори, предаде Си Ен Би Си.

Фокусът е върху т.нар. „дийпфейкс“, които могат да използват аудио и видео съдържание, както и изображения, за да имитират изказвания от ключови заинтересовани страни в демократични избори или да предоставят невярна информация за гласуване.

Microsoft, Meta, Google, Amazon, IBM, Adobe и дизайнерът на чипове Арм подписаха споразумението. Стартъпите за изкуствен интелект OpenAI, Anthropic и Stability AI също се присъединиха към групата, заедно със социални мрежи Snap, TikTok и X.

Техническите платформи се подготвят за бърна година на избори по света, като някакви форми на гласуване ще има в повече от 40 държави с население от над 4 млрд. души. Нарастването на съдържанието, генерирано от ИИ, доведе до сериозни опасения за дезинформация, свързана с изборите, като броят на създадените дълбоки дийпфейк клипове се увеличава с 900% всяка година, според данни от Clarity, фирма за машинно обучение.

Дезинформацията в изборите е основен проблем, датиращ от президентската кампания в САЩ през 2016 г., когато руската дезинформация се възползва от евтини и лесни начини за разпространение на неточно съдържание в социалните мрежи. Днес законодателите са още по-загрижени от бързото развитие на ИИ.

„Има добра причина да сме сериозно загрижени за това как изкуственият интелект може да бъде използван за подвеждане на гласоподавателите по време на предизборни кампании“, каза в интервю Джош Бекер, сенатор от Демократическата партия в Калифорния. „Окуражително е да видим някои компании да идват на масата за преговори, но в момента не виждам достатъчно специфики, така че вероятно ще имаме нужда от законодателство, което определя ясни стандарти.“

Междувременно технологиите за откриване и водни знаци, използвани за идентифициране на фийпфейкс, не са напреднали достатъчно бързо, за да бъдат в крак с развитието на технологията. Засега компаниите просто се договарят за технически стандарти и механизми за откриване.

Те трябва да извървят дълъг път, за да се справят ефективно с проблема, който има много слоеве. Услуги, които твърдят, че идентифицират текст, генериран от изкуствен интелект, като например есета,, показват пристрастия срещу хората, за които английският не е първи език. Разпознаването на генерирани от ИИ изображения и видеоклипове не е много по-лесно.

Дори ако платформите зад изображения и видеоклипове, генерирани от изкуствен интелект, се съгласят да използват неща като невидими водни знаци и определени типове метаданни, има начини тези защитни мерки да бъдат заобиколени.

Новината за споразумението идва ден след като създателят на ChatGPT OpenAI обяви Sora, своя нов модел за видео, генерирано от ИИ. Sora работи подобно на инструмента за изкуствен интелект за генериране на изображения на OpenAI - DALL-E. Потребителят въвежда специфики за желана  сцена и Sora генерира видеоклип с висока разделителна способност. Sora може също да генерира видеоклипове, вдъхновени от неподвижни изображения, и да разшири съществуващите видеоклипове или да запълни липсващи кадри.

„Демокрацията се основава на безопасни и сигурни избори“, каза в съобщение Кент Уокър, президент на Google по глобалните въпроси. Споразумението отразява усилията на индустрията да се справи с „генерираната от ИИ изборна дезинформация, която подкопава доверието“, каза той.

Кристина Монтгомъри, главен служител по поверителността и доверието на IBM, каза в съобщението, че в тази ключова изборна година са необходими „конкретни мерки за сътрудничество, за да се защитят хората и обществата от увеличените рискове от измамно съдържание, генерирано от ИИ“.

Коментари

НАЙ-НОВО

|

НАЙ-ЧЕТЕНИ

|

НАЙ-КОМЕНТИРАНИ