Доклад на британското правителство: Изкуственият интелект може да влоши кибератаките до 2025 г.

Доклад на британското правителство: Изкуственият интелект може да влоши кибератаките до 2025 г.

Доклад на британското правителство: Изкуственият интелект може да влоши кибератаките до 2025 г.

Изкуственият интелект може да увеличи риска от кибератаки и да подкопае доверието в онлайн съдържанието до 2025 г., предупреждава доклад на правителството на Обединеното кралство, цитиран от Би Би Си.

Технологията може дори да помогне за планирането на биологични или химически атаки от терористи, се посочва още в него.

Докладът на правителството разглежда генеративния ИИ - типа система, която в момента захранва популярни чатботове и софтуер за генериране на изображения. Той се основава отчасти на разсекретена информация от разузнавателните агенции.

Докладът предупреждава, че до 2025 г. генеративният ИИ може да бъде „използван за събиране на знания за физически атаки от недържавни злонамерени агенти, включително за химически, биологични и радиологични оръжия“.

В него се казва, че докато фирмите работят за блокиране на подобни опити, „ефективността на тези предпазни мерки варира“.

Има пречки пред придобиването на знания, суровини и оборудване за атаки, но тези бариери падат, като развитието на ИИ може да ускори този процес, според доклада.

До 2025 г. е вероятно изкуственият интелект също да помогне за създаването на „по-бързи, по-ефективни и по-мащабни“ кибератаки.

Джоузеф Ярнеки, който изследва киберзаплахите в Royal United Services Institute, каза, че ИИ може да помогне на хакерите, особено при преодоляването на техните трудности при имитирането на официалния език.

„Има тон, който е възприет в бюрократичния език и киберпрестъпниците откриха, че това е доста трудно да се овладее“, каза той пред Би Би Си.

Докладът идва преди реч на британския премиер Риши Сунак днес, в рамките на която се очаква той да изложи как правителството на Обединеното кралство се стреми да направи ИИ безопасен и да утвърди Обединеното кралство като световен лидер в безопасността на ИИ.

„ИИ ще донесе нови знания, нови възможности за икономически растеж, нов напредък в човешките способности и шанс за решаване на проблеми, за които някога сме смятали, че са реални. Но също така носи нови опасности и нови страхове“, се очаква да каже Сунак.

Той ще се ангажира да се справи директно с тези страхове, „като се увери, че вие и вашите деца имате всички възможности за по-добро бъдеще, което AI може да донесе“.

Среща за ИИ

Речта на Сунак е част от подготовката за среща на върха следващата седмица, на която ще се обсъди заплахата, представлявана от високо напреднали ИИ технологии.

Тя ще се съсредоточи върху регулирането на така наречения „Frontier AI“: мощни бъдещи ИИ системи, за които министрите казват, че „могат да изпълняват голямо разнообразие от задачи“ и „надхвърлят възможностите на днешните най-модерни модели на изкуствен интелект“.

Горещо се обсъжда дали такива системи могат да представляват заплаха за човечеството.

Друг наскоро публикуван доклад на Правителствената служба за наука, който съветва министър-председателя и кабинета, отбелязва, че „много експерти смятат, че това е риск, които е много малко вероятен и пред който има малко възможни пътища за реализиране“.

В него се казва, че за да представлява риск за човешкото съществуване, ИИ ще се нуждае от известен контрол върху жизненоважни системи, като оръжия или финансови системи.

Системите за ИИ също така ще се нуждаят от нови умения като капацитет за подобряване на собственото си програмиране, способност за избягване на човешки надзор и чувство за автономност.

В доклада обаче се отбелязва, че „яма консенсус относно сроковете и правдоподобността кога могат да се появят конкретни бъдещи способности от този тип“

Нови правила

Големите фирми за ИИ до голяма степен се съгласиха, че са нужни регулации на технологията. Техните представители вероятно ще присъстват на срещата на върха.

В същото време Рейчъл Колдикът, експерт по социалното въздействие на технологиите, постави под въпрос фокуса на срещата.

Тя каза, че тя придава твърде голяма тежест на бъдещия риск: „Има логика, че технологичните компании, които губят повече от това, че са обект на регулации относно нещата, които правят в момента, ще искат да насочат фокуса върху дългосрочния риск."

„И през лятото изглеждаше сякаш позицията на правителството беше много силно съгласувана, подкрепяйки тези възгледи“, каза тя пред Би Би Си.

Колдикът обаче отбеляза, че правителствените доклади „успокояват част от плама“ относно тези футуристични заплахи и ясно показват, че има разлика между „политическата позиция и действителната техническа позиция“.

Коментари

НАЙ-НОВО

|

НАЙ-ЧЕТЕНИ

|

НАЙ-КОМЕНТИРАНИ