Финанси
|Компании
|Енергетика
|Икономика
|С deepfake измами крадат милиони от компании по цял свят. Експерти предупреждават, че може да стане по-лошо
Нарастващата вълна от deepfake измами източва милиони долари от компании по целия свят, а експерти по киберсигурност предупреждават, че може да стане още по-лошо, тъй като престъпниците използват генеративния изкуствен интелект за измами, съобщи CNBC .
Deepfake ( дълбока фалшификация) е видеоклип, звук или изображение на реално лице, което е цифрово променено и манипулирано, често чрез изкуствен интелект, за да го представи убедително в невярна светлина.
В един от най-мащабните известни случаи през тази година финансов служител от Хонконг е бил подведен да преведе над 25 млн. долара на измамници, използващи технологията на дълбокия фалшификат, за да се преобразят като негови колеги по време на видеоразговор, съобщиха властите пред местни медии през февруари.
Миналата седмица британската инженерна фирма Arup потвърди пред CNBC, че тя е компанията, замесена в този случай, но не може да навлезе в подробности по въпроса поради продължаващото разследване.
Подобни заплахи се увеличават в резултат на популяризирането на Chat GPT на Open AI, стартирал през 2022 г., който бързо изстреля технологията на генеративния ИИ в масовия потребител, каза Дейвид Феърман, главен директор по информацията и сигурността в компанията за киберсигурност Netskope.
„Публичната достъпност на тези услуги намали бариерата за навлизане на киберпрестъпниците - вече не е необходимо те да притежават специални технологични умения“, казва Феърман.
Той добави, че обемът и сложността на измамите са се увеличили с развитието на технологиите за изкуствен интелект.
Нарастваща тенденция
Различните генеративни услуги с ИИ могат да се използват за генериране на текст, изображения и видео съдържание, наподобяващо човешкото, и по този начин могат да действат като мощни инструменти за незаконните участници, които се опитват да манипулират и пресъздават определени лица по цифров път.
Говорител на Arup заяви пред CNBC: „Подобно на много други предприятия по света, нашите операции са обект на редовни атаки, включително измами с фактури, фишинг измами, подправяне на гласа в WhatsApp и дълбоки фалшификати.“
Според съобщенията финансовият служител е участвал във видеоразговор с хора, които са се представили като главният финансов директор на компанията и други служители и са поискали да извърши паричен превод. Останалите участници в тази среща обаче в действителност са били дигитално пресъздадени deepfakes.
Аруп потвърди, че при инцидента са използвани „фалшиви гласове и изображения“, като добави, че „броят и сложността на тези атаки рязко нарастват през последните месеци“.
Китайските държавни медии съобщиха за подобен случай в провинция Шанси през тази година, свързан с финансова служителка, която е била подмамена да преведе 1,86 млн. юана (262 000 долара) по сметка на измамник след видеоразговор с дълбоко подправен образ на нейния шеф.
Иинцидентите не са нещо ново. През 2019 г. главният изпълнителен директор на британски доставчик на енергия съобщи, че е превел 220 000 евро (238 000 долара) на измамник, който е имитирал ръководителя на компанията майка и е поискал превод към предполагаемия доставчик по време на телефонно обаждане.
През август миналата година изследователи от Google - собственост на компанията за киберсигурност Mandiant документираха редица случаи на незаконни участници, използващи AI и технологията deepfake за фишинг измами, дезинформация и други незаконни цели.
По това време компанията заяви, че използването на технологията за такива дейности е ограничено, но че нарастващата наличност на нови генеративни инструменти за ИИ ще ускори прилагането ѝ от злонамерени участници.
По-широки последици
Освен директните атаки, компаниите все повече се притесняват за други начини, по които дълбоко фалшивите снимки, видеоклипове или изказвания на висшестоящите им служители могат да бъдат използвани по злонамерен начин, казват експерти по киберсигурност.
Според Джейсън Хог, експерт по киберсигурност и резидент в Great Hill Partners, дълбоките фалшификати на високопоставени членове на компанията могат да се използват за разпространение на фалшиви новини, за да се манипулират цените на акциите, да се очернят марката и продажбите на компанията и да се разпространява друга вредна дезинформация.
"Това е само драскане по повърхността", казва Хог, който преди това е бил специален агент на ФБР.
Той подчерта, че генеративният изкуствен интелект е в състояние да създава дълбоки фалшификати въз основа на богата цифрова информация, като например публично достъпно съдържание, поместено в социалните медии и други медийни платформи.
През 2022 г. Патрик Хилман, главен служител по комуникациите в Binance, заяви в публикация в блога си, че измамници са направили негов deepfake въз основа на предишни новинарски интервюта и телевизионни изяви, като са го използвали, за да измамят клиенти и контакти за срещи.
Феърман от Netskope заяви, че подобни рискове са накарали някои ръководители да започнат да изтриват или ограничават онлайн присъствието си от страх, че то може да бъде използвано като муниции от киберпрестъпниците.
Технологията Deepfake вече е широко разпространена извън корпоративния свят.
От фалшиви порнографски изображения до манипулирани видеоклипове, рекламиращи кухненски съдове, известни личности като Тейлър Суифт са станали жертва на технологията за дълбоко подправяне. Дълбоките фалшификати на политици също са широко разпространени.
В същото време някои измамници правят дълбоки фалшификати на членове на семействата и приятели на физически лица в опит да ги измамят с пари.
Според Хог по-широките проблеми ще се ускорят и задълбочат за определен период от време, тъй като предотвратяването на киберпрестъпленията изисква обмислен анализ, за да се разработят системи, практики и механизми за контрол за защита срещу новите технологии.
Експертите по киберсигурност обаче заявиха пред CNBC, че фирмите могат да засилят защитата си срещу заплахите, задвижвани от изкуствен интелект, чрез подобряване на образованието на персонала, тестване на киберсигурността и изискване на кодови думи и няколко нива на одобрение за всички трансакции - нещо, което би могло да предотврати случаи като този на Arup.
ОЩЕ ОТ КАТЕГОРИЯТА
|
|
Коментари
Няма въведени кометари.