Генерирани от ИИ фалшиви новини повишават риска от фалити на банки

Генерирани от ИИ фалшиви новини повишават риска от фалити на банки

Фалшиви новини, генерирани от изкуствен интелект (ИИ) и разпространявани в социалните медии, увеличават рисковете от масово източване на банкови депозити, се казва в ново проучване. Кредиторите трябва да подобрят наблюдението, за да открият кога дезинформацията може да повлияе на поведението на клиентите, препоръчва то, цитирано от Ройтерс.

Генеративният изкуствен интелект може да се използва за създаване на фалшиви новини, в които се казва, че парите на клиентите не са в безопасност, или на мемове, които изглеждат като шега по въпросите на сигурността и които могат да се разпространяват в социалните медии с помощта на платени реклами, установява проучването, публикувано от британската изследователска компания Say No to Disinfo и комуникационната фирма Fenimore Harper.

Банките и регулаторните органи са все по-загрижени за рисковете от масово теглене на банкови депозити, подхранвано от социалните медии, след фалита на Silicon Valley Bank през 2023 г., при който вложителите изтеглиха 42 млрд. долара за 24 часа.

Напредъкът в областта на изкуствения интелект увеличи тези рискове. През ноември Съветът за финансова стабилност към Г-20 предупреди, че генеративният ИИ „може да даде възможност на злонамерени участници да генерират и разпространяват дезинформация, която да предизвика остри кризи“, включително светкавични сривове и масови фалити на банки.

„Кажи не на дезинформацията“ показа на клиенти на банки в Обединеното кралство образци на съдържание, генерирано от изкуствен интелект, и установи, че е „изключително вероятно“ една трета от тях да преместят парите си, след като го видят, а други 27% - „донякъде вероятно“.

„Тъй като изкуственият интелект прави кампаниите за дезинформация по-лесни, по-евтини, по-бързи и по-ефективни от всякога, възникващият риск за финансовия сектор бързо нараства, но често се пренебрегва“, се казва в доклада, като се отбелязва, че онлайн и мобилното банкиране означава, че хората могат да прехвърлят пари за секунди.

В проучването се изчислява, че на всеки 10 паунда (12,48 долара), похарчени за реклами в социалните медии за разпространение на фалшиво съдържание, може да се преместят до 1 милион паунда депозити на клиенти.

Оценката е изчислена, като са използвани средните депозити на клиентите в Обединеното кралство, разходите за реклами в социалните медии и оценки за това колко хора биха ги видели.
Банките трябва да наблюдават споменаванията в медиите и социалните мрежи, като този мониторинг трябва да бъде интегриран със системите за наблюдение на тегленията, за да се установи кога злонамерената информация влияе върху поведението на клиентите, смятат изследователите.

Запитан за проучването, ръководителят на отдела за финансови престъпления на Revolut Уди Малуф заяви, че базираната в Лондон финтех компания извършва мониторинг в реално време за възникващи заплахи сред своите клиенти и „в по-широката екосистема“.

„Макар да смятаме, че подобно събитие в индустрията е малко вероятно, то все пак е възможно, така че е от съществено значение финансовите институции да са подготвени“, каза той и добави, че платформите на социалните медии трябва да играят по-голяма роля в спирането на заплахите.

Макар че регулаторните органи изразиха загриженост относно цялостното въздействие на ИИ върху финансовата стабилност, банките като цяло са оптимистично настроени относно въздействието на технологията.

„Банките работят усилено за управление и намаляване на рисковете, свързани с ИИ, а регулаторните органи разглеждат потенциалните предизвикателства пред финансовата стабилност, които технологията поставя“, заяви браншовият орган UK Finance.

Публикуването на доклада не е свързано със срещата на високо равнище във Франция тази седмица, на която политици и ръководители от индустрията се съсредоточиха върху насърчаването на разпространението на ИИ, което е значителна промяна в сравнение с акцента на предишната среща на високо равнище върху управлението на неговите рискове, пояснява Ройтерс.

Коментари

НАЙ-НОВО

|

НАЙ-ЧЕТЕНИ

|

НАЙ-КОМЕНТИРАНИ