Microsoft предупреди: Съперници на САЩ използват наш изкуствен интелект в кибероперации
Microsoft бие тревога, че противниците на САЩ , най-вече Иран и Северна Корея и в по-малка степен Русия и Китай, започват да използват американски изкуствен интелект за организиране на нападателни кибероперации, съобщава Асошиейтед прес.
От технологичният гигант и бизнес партньор OpenAI заявиха, че съвместно са открили и прекъснали използването на техните технологии за изкуствен интелект от злонамерените кибератаки - закрили са техните акаунти.
В публикация в блога си Майкрософт заяви, че използваните техники са "на ранен етап" и не са нито "особено нови, нито уникални", но е важно те да бъдат разкрити публично, тъй като противниците на САЩ използват модели на големи езици, за да разширят възможностите си за пробиване на мрежи и провеждане на операции за влияние.
Фирмите за киберсигурност отдавна използват машинно обучение в защита, главно за откриване на аномално поведение в мрежите. Но престъпниците и офанзивните хакери също го използват, а въвеждането на широкообхватни езикови модели, ръководени от ChatGPT на OpenAI, ускори тази игра на котка и мишка.
Фирмите за киберсигурност отдавна използват машинно обучение за защита, главно за откриване на аномалии в мрежите. Но престъпниците и офанзивните хакери също го използват, а въвеждането на широкообхватни езикови модели, ръководени от ChatGPT на OpenAI, ускори тази игра на котка и мишка.
Microsoft е инвестирала милиарди долари в OpenAI, а съобщението съвпадна с публикуването на доклад, в който се отбелязва, че генеративният изкуствен интелект се очаква да подобри злонамерения социален инженеринг, което ще доведе до по-сложни дълбоки фалшификации и клониране на гласове. Заплаха за демокрацията в година, в която над 50 държави ще проведат избори, засилване на дезинформацията и вече се случва,
Ето някои примери, които Microsoft предостави. Във всеки случай тя заяви, че всички акаунти и активи на генеративните ИИ на посочените групи са били деактивирани:
- Севернокорейската група за кибершпионаж, известна като Кимсуки, е използвала моделите за проучване на чуждестранни мозъчни тръстове, които изучават страната, и за генериране на съдържание, което може да бъде използвано в spear-phishing хакерски кампании.
- Революционната гвардия на Иран е използвала модели на големи езици, за да подпомогне социалното инженерство, отстраняването на софтуерни грешки и дори да проучи как нарушителите могат да избегнат откриване в компрометирана мрежа. Това включва генериране на фишинг имейли, "включително един, който се преструва, че идва от международна агенция за развитие, и друг, който се опитва да примами известни феминистки към изграден от атакуващия уебсайт за феминизма". ИИ помага за ускоряване и увеличаване на производството на имейли.
През април миналата година директорът на Агенцията за киберсигурност и инфраструктурна сигурност на САЩ Джен Истърли заяви пред Конгреса, че "има две епохални заплахи и предизвикателства. Едното е Китай, а другото е изкуственият интелект". Тогава Истърли заяви, че САЩ трябва да гарантират, че изкуственият интелект се създава с оглед на сигурността.
Критиците на публичното пускане на ChatGPT през ноември 2022 г. - и последвалите пускания от конкуренти, включително Google и Meta - твърдят, че то е било безотговорно прибързано, като се има предвид, че сигурността до голяма степен е била последваща мисъл при разработването им.
"Разбира се, че лошите актьори използват модели на големи езици - това решение беше взето, когато беше отворена кутията на Пандора", каза Амит Йоран, главен изпълнителен директор на фирмата за киберсигурност Tenable.
Някои специалисти по киберсигурност се оплакват, че Microsoft създава и рекламира инструменти за справяне с уязвимостите в многоезичните модели, докато би било по-отговорно да се съсредоточи върху повишаването на тяхната сигурност.
"Защо не създадат по-сигурни модели на основата на LLM, вместо да продават защитни инструменти за проблем, който помагат да се създаде?" - попита Гари Макгроу, ветеран в областта на компютърната сигурност и съосновател на Института за машинно обучение в Беривил.
Професорът от Нюйоркския университет и бивш главен служител по сигурността на AT&T Едуард Аморосо пък заяви, че макар използването на изкуствен интелект и широкомащабни езикови модели да не представлява непосредствено очевидна заплаха, те "в крайна сметка ще се превърнат в едно от най-мощните оръжия в нападението на всяка военна сила на национална държава".
Ключови думи
ОЩЕ ОТ КАТЕГОРИЯТА
|
|
Коментари
Няма въведени кометари.