Anthropic твърди, че е спряла кибератака, подкрепена от Китай

Anthropic твърди, че е спряла кибератака, подкрепена от Китай

Водеща компания в областта на изкуствения интелект твърди, че е предотвратила кампания за „кибершпионаж“, подкрепена от Китай, която е успяла да проникне във финансови институции и държавни агенции почти без човешка намеса.

Американската Anthropic заяви, че нейният инструмент за програмиране Claude Code е бил „манипулиран“ от група, спонсорирана от китайската държава, за да атакува 30 организации по света през септември, като е постигнала „няколко успешни прониквания“, съобщава The Guardian.

Компанията определи това като „значителна ескалация“ спрямо предишни атаки с помощта на AI, които е наблюдавала, тъй като Claude е действал почти самостоятелно: 80–90% от операциите по атаката са извършени без човешка намеса.

„Извършителят постигна това, което смятаме за първия документиран случай на кибератака, изпълнена в голям мащаб почти без човешка намеса“, пише Anthropic в публикация в блога си в четвъртък.

Компанията не уточни кои финансови институции и държавни агенции са били цел на атаката или какво точно са постигнали хакерите – но заяви, че са успели да получат достъп до вътрешни данни на целите си.

Anthropic допълни, че Claude е допуснал множество грешки по време на атаките, понякога измисляйки факти за целите или твърдейки, че е „открил“ информация, която всъщност е публично достъпна.

Политици и експерти определиха откритията като тревожен знак за това колко способни са станали някои AI системи: инструменти като Claude вече могат да работят самостоятелно за по-дълги периоди.

„Събудете се. Това ще ни унищожи – по-скоро, отколкото мислим – ако не направим регулацията на AI национален приоритет още утре“, написа американският сенатор Крис Мърфи в X в отговор на откритията.

„AI системите вече могат да изпълняват задачи, които преди изискваха уменията на човешки оператори“, каза Фред Хайдинг, изследовател по компютърна сигурност в Харвард. „Става твърде лесно за нападателите да причинят реални щети. Компаниите за AI не поемат достатъчно отговорност.“

Други експерти по киберсигурност бяха по-скептични, като посочиха преувеличени твърдения за кибератаки с AI през последните години – например AI инструмент за „разбиване на пароли“ от 2023 г., който не се представи по-добре от традиционните методи – и предположиха, че Anthropic се опитва да създаде шум около AI.

„За мен Anthropic описва просто сложна автоматизация, нищо повече“, каза независимият експерт по киберсигурност Михал Вожняк. „Генерирането на код е включено, но това не е „интелигентност“, а просто подправено копи-пейст.“

Вожняк добави, че публикацията на Anthropic отвлича вниманието от по-голям проблем: бизнеси и правителства интегрират „сложни, слабо разбирани“ AI инструменти в своите операции, без да ги разбират, което ги излага на уязвимости. Истинската заплаха, каза той, са самите киберпрестъпници – и слабите практики за сигурност.

Anthropic, както всички водещи AI компании, има защитни механизми, които трябва да предотвратяват използването на моделите ѝ за кибератаки или за насърчаване на вреда. Въпреки това хакерите успели да заобиколят тези механизми, като накарали Claude да играе ролята на „служител на легитимна компания за киберсигурност“, провеждащ тестове.

„Оценката на Anthropic е около 180 млрд. долара, а те все още не могат да измислят как да предотвратят заобикалянето на защитите си с тактика, която би използвал 13-годишен, когато иска да направи шеговито обаждане“, каза Вожняк.

Мариус Хобан, основател на Apollo Research – компания, която оценява AI моделите за безопасност – заяви, че атаките са знак за това, което предстои с развитието на възможностите.

„Мисля, че обществото не е добре подготвено за този бързо променящ се пейзаж по отношение на AI и киберспособностите. Очаквам много повече подобни събития през следващите години, вероятно с по-големи последствия.“

Коментари

НАЙ-НОВО

|

НАЙ-ЧЕТЕНИ

|

НАЙ-КОМЕНТИРАНИ