Microsoft предупреди: Съперници на САЩ използват наш изкуствен интелект в кибероперации

Microsoft предупреди: Съперници на САЩ  използват наш изкуствен интелект в кибероперации

Microsoft предупреди: Съперници на САЩ използват наш изкуствен интелект в кибероперации

Microsoft бие тревога, че противниците на САЩ , най-вече Иран и Северна Корея и в по-малка степен Русия и Китай, започват да използват американски изкуствен интелект за организиране на нападателни кибероперации, съобщава Асошиейтед прес.

От технологичният гигант и бизнес партньор OpenAI заявиха, че съвместно са открили и прекъснали използването на техните технологии за изкуствен интелект от злонамерените кибератаки - закрили са техните акаунти.

В публикация в блога си Майкрософт заяви, че използваните техники са "на ранен етап" и не са нито "особено нови, нито уникални", но е важно те да бъдат разкрити публично, тъй като противниците на САЩ използват модели на големи езици, за да разширят възможностите си за пробиване на мрежи и провеждане на операции за влияние.

Фирмите за киберсигурност отдавна използват машинно обучение в защита, главно за откриване на аномално поведение в мрежите. Но престъпниците и офанзивните хакери също го използват, а въвеждането на широкообхватни езикови модели, ръководени от ChatGPT на OpenAI, ускори тази игра на котка и мишка.

Фирмите за киберсигурност отдавна използват машинно обучение за защита, главно за откриване на аномалии в мрежите. Но престъпниците и офанзивните хакери също го използват, а въвеждането на широкообхватни езикови модели, ръководени от ChatGPT на OpenAI, ускори тази игра на котка и мишка.

Microsoft е инвестирала милиарди долари в OpenAI, а съобщението съвпадна с публикуването на доклад, в който се отбелязва, че генеративният изкуствен интелект се очаква да подобри злонамерения социален инженеринг, което ще доведе до по-сложни дълбоки фалшификации и клониране на гласове. Заплаха за демокрацията в година, в която над 50 държави ще проведат избори, засилване на дезинформацията и вече се случва,

Ето някои примери, които Microsoft предостави. Във всеки случай тя заяви, че всички акаунти и активи на генеративните ИИ на посочените групи са били деактивирани:

- Севернокорейската група за кибершпионаж, известна като Кимсуки, е използвала моделите за проучване на чуждестранни мозъчни тръстове, които изучават страната, и за генериране на съдържание, което може да бъде използвано в spear-phishing хакерски кампании.

- Революционната гвардия на Иран е използвала модели на големи езици, за да подпомогне социалното инженерство, отстраняването на софтуерни грешки и дори да проучи как нарушителите могат да избегнат откриване в компрометирана мрежа. Това включва генериране на фишинг имейли, "включително един, който се преструва, че идва от международна агенция за развитие, и друг, който се опитва да примами известни феминистки към изграден от атакуващия уебсайт за феминизма". ИИ помага за ускоряване и увеличаване на производството на имейли.

През април миналата година директорът на Агенцията за киберсигурност и инфраструктурна сигурност на САЩ Джен Истърли заяви пред Конгреса, че "има две епохални заплахи и предизвикателства. Едното е Китай, а другото е изкуственият интелект". Тогава Истърли заяви, че САЩ трябва да гарантират, че изкуственият интелект се създава с оглед на сигурността.

Критиците на публичното пускане на ChatGPT през ноември 2022 г. - и последвалите пускания от конкуренти, включително Google и Meta - твърдят, че то е било безотговорно прибързано, като се има предвид, че сигурността до голяма степен е била последваща мисъл при разработването им.

"Разбира се, че лошите актьори използват модели на големи езици - това решение беше взето, когато беше отворена кутията на Пандора", каза Амит Йоран, главен изпълнителен директор на фирмата за киберсигурност Tenable.

Някои специалисти по киберсигурност се оплакват, че Microsoft създава и рекламира инструменти за справяне с уязвимостите в многоезичните модели, докато би било по-отговорно да се съсредоточи върху повишаването на тяхната сигурност.

"Защо не създадат по-сигурни модели на основата на LLM, вместо да продават защитни инструменти за проблем, който помагат да се създаде?" - попита Гари Макгроу, ветеран в областта на компютърната сигурност и съосновател на Института за машинно обучение в Беривил.

Професорът от Нюйоркския университет и бивш главен служител по сигурността на AT&T Едуард Аморосо пък  заяви, че макар използването на изкуствен интелект и широкомащабни езикови модели да не представлява непосредствено очевидна заплаха, те "в крайна сметка ще се превърнат в едно от най-мощните оръжия в нападението на всяка военна сила на национална държава".

Коментари

НАЙ-НОВО

|

НАЙ-ЧЕТЕНИ

|

НАЙ-КОМЕНТИРАНИ