Digital Age: Скритият AI риск
3 от 4 служители признават, че използват инструменти за изкуствен интелект в работата си. Въпреки че изкуственият интелект може да предложи много ползи за производителността и ефективността на служителите, нараства загрижеността относно вида на данните, които се въвеждат в инструментите за изкуствен интелект на работното място.
Компанията за сигурност на приложенията SaaS, Indusface реши да се задълбочи в този въпрос и да разкрие най-често срещаните данни, които специалистите споделят с ИИ, и последиците, които това може да има за хората и бизнеса.
Топ 6 на личните данни, които професионалистите най-често споделят с ИИ, и потенциалните последици от това
1. Файлове и документи, свързани с работата
Една от най-често срещаните категории информация, споделяна с ИИ, са свързаните с работата файлове и документи. Над 80 % от професионалистите в предприятията от класацията Fortune 500 използват инструменти на ИИ, като ChatGPT, за да подпомагат изпълнението на задачи като анализ на числа, прецизиране на имейли, доклади и презентации.
Въпреки това 11% от данните, които служителите вкарват в ChatGPT, са строго поверителни, като например вътрешни бизнес стратегии, без да разбират напълно как платформата обработва тези данни. Ето защо се препоръчва да се избягват поверителните данни, когато се въвеждат команди за търсене в инструментите за изкуствен интелект.
2. Лични данни
Лични данни, като имена, адреси и информация за контакт, често се споделят ежедневно с инструментите за изкуствен интелект. Шокиращо е, че 30% от специалистите смятат, че защитата на личните им данни не си струва усилията, което показва нарастващо чувство на безпомощност и липса на обучение.
Достъпът до обучение по киберсигурност се е увеличил за първи път от четири години насам, като 1 от всеки 3 (33%) участници го използва, а 11% имат достъп, но не го използват. За да могат предприятията да останат защитени от заплахи за киберсигурността, е важно да се провежда обучение на персонала по киберсигурност, като се повишава квалификацията за безопасно използване на ИИ.
3. Информация за клиенти или служители
Информацията за клиентите, включително данни, които могат да попаднат в обхвата на регулаторните изисквания или изискванията за поверителност, често се споделя с ИИ от специалистите.
4. Финансова информация
Големите езикови модели (LLM) се използват често и са ключови модели на ИИ за много генеративни приложения на ИИ, като например виртуални асистенти и чатботове за разговори с ИИ. Това често може да се използва чрез моделите на Open AI, Google Cloud AI и много други.
Данните, които помагат за обучението на LLM, обаче обикновено се набавят чрез уеб краулери, които сканират и събират информация от уебсайтове. Тези данни често се получават без съгласието на потребителите и могат да съдържат информация, която може да бъде идентифицирана лично (PII).
Други системи с изкуствен интелект, които предоставят персонализирани услуги на клиентите, също могат да събират лични данни. Препоръчително е да се гарантира, че устройствата, използвани при взаимодействие с изкуствен интелект са с пълна антивирусна защита, за да се предпази информацията, преди да бъде споделена, особено когато се работи с чувствителна финансова информация за бизнеса.
5. Пароли и удостоверения за достъп
Моделите с ИИ са предназначени да предоставят прозрения, но не и безопасно защитени пароли, и могат да доведат до непреднамерено разкриване на информация, особено ако платформата не разполага със строги мерки за поверителност и сигурност.
Избягвайте повторното използване на пароли, които може да са били използвани в множество сайтове, тъй като това може да доведе до пробив в множество акаунти. Значението на използването на силни пароли с множество символи и цифри никога не е било по-важно, в допълнение към активирането на двуфакторна идентификация за защита на акаунтите и намаляване на риска от кибератаки.
6. Кодови бази на компанията и интелектуална собственост
Споделянето на фирмени кодови бази може да представлява сериозен риск за сигурността, тъй като това е основната интелектуална собственост на предприятието. Ако патентован изходен код се вмъкне в платформи за ИИ, той може да се съхранява, обработва или дори да се използва за обучение на бъдещи модели на ИИ, което може да доведе до разкриване на търговски тайни пред външни лица.
Ето защо предприятията трябва да прилагат строги политики за използване на ИИ, за да гарантират, че чувствителният код остава защитен и никога не се споделя с външни лица. Освен това използването на самостоятелно хоствани модели на ИИ или на защитени, одобрени от компанията инструменти за ИИ може да помогне за намаляване на рисковете от изтичане на интелектуална собственост.
За собствениците на фирми или мениджърите, които използват ИИ за информация за служителите, е важно да внимават да не споделят данни за банкови сметки, заплати, адреси или дори прегледи на представянето, тъй като това може да наруши политиката на договорите и да доведе до уязвимост на организацията поради евентуални правни действия, ако изтекат чувствителни данни за служителите.
Ключови думи
ОЩЕ ОТ КАТЕГОРИЯТА
|
|
Коментари
Няма въведени кометари.