Deepfake измамите: Най-скъпата заблуда в дигиталната ера

Deepfake измамите: Най-скъпата заблуда в дигиталната ера

До преди няколко години онлайн измамата изглеждаше предвидима. Започваше с имейл на лош английски, обещание за печалба и линк към сайт, който личи от самолет, че е фалшив. Днес картината е друга. Измамата започва с видео среща. С глас, който познавате. С лице, което виждате всеки ден. И с думи, които звучат точно като вашите колеги.

Това ново поколение измами използва deepfake технологии – AI системи, които могат да създадат убедителен образ и глас на реален човек. Не като приблизителна имитация, а като нещо, което мозъкът възприема за автентично. И ако преди ключовият риск беше пробив в система, днес ключовият риск е пробив във възприятието.

През 2024 г. Business Insider публикува разследване за един от най-шокиращите случаи. Финансов служител в международна компания участва във видеосреща със своите колеги. Разговарят за превод на средства по сделка. Лицата на екрана кимат, задават въпроси, обясняват. Сесията изглежда напълно нормално. След видеото служителят одобрява пакет трансфери на обща стойност над 25 милиона долара.

Едва по-късно се разбира, че нито един от присъствалите не е бил реално в разговора. Всеки образ е бил deepfake, изграден от престъпници, които са използвали публични записи, интервюта и вътрешни видеа, за да възпроизведат поведението и гласа на хората от екипа. Компанията губи средствата, започва вътрешно разследване, временно блокира одобренията на разходи и въвежда многостепенна верификация на плащания. Последващи анализи показват, че схемата е подготвяна седмици наред чрез внимателно събиране на информация за вътрешните процеси. Случаят е съвсем истински и е потвърден от международните разследващи органи.

В криптосектора проблемът става още по-остър. През 2025 г. Fortune описва случай, при който измамници използват deepfake аудио, за да се представят за основателя на Plasma – блокчейн проект с нарастващ интерес от страна на инвеститори. Атаката е извършена чрез WhatsApp разговор, в който гласът звучи идентично с реалния човек, включително интонациите и характерните паузи. Жертвата е инструктирана да инсталира софтуер, представен като „инструмент за верификация на портфейла“, но който всъщност дава дистанционен достъп. От портфейла са източени крипто активи на стойност около 2 милиона долара – включително токени, стейбълкойни и какви ли не позиции. Никакъв пробив в самата платформа не е извършен. Престъпниците са получили всичко чрез убедителност.

Развитието на генеративните технологии направи deepfake измамите едно от най-бързо растящите и опасни оръжия в арсенала на киберпрестъпниците. Фалшиви аудио- и видеосъобщения, които имитират глас или образ на висши мениджъри, могат да подведат служители да одобрят плащания, да предоставят достъп до вътрешни системи или да разкрият конфиденциална информация. Този тип атаки вече не са въпрос на „дали“, а на „кога“ ще засегнат дадена организация. Ето защо превенцията и навременната идентификация на нетипично поведение стават критични за защита на корпоративното управление.

А1 предлага набор от решения, които подпомагат компаниите в борбата с подобни високотехнологични измами. Сред тях са защита на крайните устройства (Endpoint Protection), регулярни Pen Test тестове, 24/7 мониторинг от оперативния център за сигурност (SOC), както и специализирани услуги за DDoS защита, които гарантират непрекъсваемост на онлайн системите дори при масирани атаки. В комбинация тези инструменти дават възможност на организациите да откриват ранни индикации за компрометирани акаунти или фалшиви комуникации, преди те да доведат до финансови загуби или нарушаване на репутацията. Необходимо е и обучение на служителите и ясни вътрешни правила, за да не се поддават хората на потенциални заплахи от този тип. В епохата на deepfake измамите устойчивата киберсигурност се превръща в ключов елемент от стратегическото управление и защитата на корпоративното доверие.

Но най-тежките случаи не винаги са корпоративни. Те са лични.

В последните две години органите на реда в САЩ и ЕС предупреждават за увеличаващи се атаки, в които deepfake аудио се използва срещу възрастни хора и родители. Често схемата започва с обаждане от „дете“, което плаче и моли за помощ. Аудиото е кратко, но достатъчно убедително. В някои случаи хора теглят кредити, продават бижута, изпращат спестявания, вярвайки, че спасяват близък в беда. По-късно разбират, че гласът е генериран чрез минутен запис от социалните мрежи. Няма кражба на акаунт. Няма технически пробив. Скъсано е доверието.

Други deepfake атаки са насочени не към пари, а към влияние. През 2025 г. южнокорейската компания Genians разследва случай на фалшив военен документ, изпратен от група, свързвана със Северна Корея, в кореспонденция с журналисти. Документът, изработен с помощта на AI, изглежда официален, убедителен и с всички нужни детайли и печати. Целта е била да се създаде авторитет, за да се отвори разговор – в който да бъде доставен компрометиран линк.

Брет Джонсън – бивш киберпрестъпник, впоследствие работил с тайните служби на САЩ, предупреждава за друга тенденция: измислени идентичности, изградени от комбинация от реални и фалшиви данни. Този тип измама се нарича synthetic identity fraud. В нея се създава „човек“, който никога не е съществувал, но притежава всичко, което финансовата система изисква: комбинация от реални чужди лични данни и измислени елементи, изградена кредитна история, регистриран банков акаунт и поведение на „реален клиент“.

Тази изкуствена самоличност кандидатства за кредит, получава лимит, тегли средства и след това просто „изчезва“. Пострадалият не може да подаде жалба, защото той… не съществува. А когато дългът остане непогасен, няма физическо лице, което да понесе отговорност - остава само институцията, която открива липсата едва след факта.

На практика това означава следното: в ерата на deepfake измамите вече не е необходимо да се „пробива“ система, за да бъде откраднато нещо ценно. Достатъчно е да бъде „пробит“ един човек - било той жив или не.

Остава само едно: навикът да се проверява. Да се търси второ мнение. Да се звъни обратно на друг канал. Да се пита по начина, по който алгоритъм не може да отговори. В свят, в който машините все по-добре играят роли, човекът трябва да бъде този, който проверява сценария.

У нас подобни случаи рядко стигат публично до медиите, а и институциите не поддържат отделна статистика за deepfake измами. Но българските регулатори вече предупреждават за по-сложни телефонни и онлайн измами, при които „познат глас“, „служител от банка“ или „роднина в беда“ се използват като примка – често през чат приложения и разговори в реално време.

Технологиите, които правят тези атаки възможни, са достъпни и тук, защото идват чрез глобалните платформи и услуги, които всички използваме. А в страна, където бизнес и лични въпроси традиционно се решават „по телефона“, точно това може да се окаже най-уязвимата точка.

Коментари

НАЙ-НОВО

|

НАЙ-ЧЕТЕНИ

|

НАЙ-КОМЕНТИРАНИ

На фона на скандали и протести: Бюджетите на ДОО и Здравната каса минаха през комисия в НС
Стрелба близо до Белия дом, двама военнослужещи от Националната гвардия са в критично състояние
Ако нямате сериозен провал зад гърба си, не сте готови да водите
Мерц: Путин няма как да излезе успешно от войната в Украйна
Бойко Борисов: Бюджет 2026 ще бъде оттеглен и преработен
Китай предупреждава за рискове от ядрен конфликт, след като Тръмп нареди провеждането на ядрени опити
Борисов: ЕС ще ни даде дерогация за отбраната и дефицитът ще стане 2,7%
Неизвестна картина на Реноар беше продадена на търг за 1,8 милиона евро