Вестагер: Дискриминацията е по-належащ проблем при ИИ, отколкото изчезването на човечеството

Вестагер: Дискриминацията е по-належащ проблем при ИИ, отколкото изчезването на човечеството

Вестагер: Дискриминацията е по-належащ проблем при ИИ, отколкото изчезването на човечеството

Дискриминацията е по-належащ проблем, произтичащ от напредъка на изкуственият интелект, отколкото риска технологията да доведе до изчезването на човечеството. Това заяви в интервю за Би Би Си еврокомисарят по конкуренцията Маргрете Вестагер.

По думите й е нужно да бъдат създадени „парапети“, за да се противодейства на най-големите рискове, свързани с технологията.

Тя каза, че това е от ключово значение, когато ИИ се използва за подпомагане на вземането на решения, които могат да повлияят на препитанието на човек, като например при вземането на решение дали същият може да кандидатства за ипотека.

Някои експерти предупредиха, че ИИ може да доведе до изчезването на човечеството, но Вестагер подчерта, че потенциалът на изкуствения интелект да засили пристрастията или дискриминацията, които могат да се съдържат в огромните количества данни, произхождащи от интернет и използвани за обучение на модели и инструменти за изкуствен интелект, е по-належащ проблем.

„Възможно е (рискът от изчезване на човечеството) да съществува, но мисля, че вероятността е доста малка. Смятам, че рисковете свързани ИИ са по-скоро такива, че хората ще бъдат дискриминирани, че няма да бъдат възприемани като това, което са“, каза тя.

„Ако банка използва ИИ, за да реши дали мога да получа ипотека или не, или пък ако става въпрос за някакъв тип социална услуга, тогава искате да сте сигурни, че не сте дискриминирани поради вашия пол, цвят на кожата или пощенски код", каза тя.

Във вторник Ирландският надзорен орган за защита на данните заяви, че е отложил планираното от Google пускане в ЕС на чатбота с изкуствен интелект Bard.

Институцията каза, че е била информирана от Google, че компанията планира да представи своя конкурент чатбота ChatGPT в ЕС тази седмица, но все още не е получила подробности или информация, показваща как фирмата е идентифицирала и минимизирала рисковете за защита на данните за бъдещите потребители.

„Подход на ниво ООН“

В интервюто за Би Би Си Вестагер каза, че регулирането на изкуствения интелект трябва да бъде „глобално дело“.

Но преди гласуването в Европейския парламент на Закона за изкуствения интелект, тя настоя, че трябва да се даде приоритет на консенсуса между „единомислещите“ страни, преди да се включат повече юрисдикции, като Китай.

 „Нека започнем да работим по подход на ниво ООН. Но не трябва да затаяваме дъх. Трябва да направим каквото можем тук и сега ", каза тя.

Вестагер оглавява усилията на ЕС за създаване на доброволен кодекс на поведение с правителството на САЩ, който ще накара компаниите, използващи или разработващи ИИ, да се присъединят към набор от стандарти, които не са правно обвързващи.

Прагматичност

Настоящият проект на Закона за ИИ се стреми да категоризира приложенията на изкуствения интелект на база нивата на риск за потребителите, като видеоигрите с активиран ИИ или спам филтрите попадат в най-ниската рискова категория.

Високорисковите ИИ системи включват тези, които се използват за оценка на кредитни резултати или достъп до заеми и жилища. Това е мястото, където ще бъде фокусът на строгия контрол върху технологиите.

Но тъй като изкуственият интелект продължава да се развива бързо,  Вестагер каза, че е необходимо да се подходи прагматично, когато става въпрос за правила за фина настройка около тази технология.

Според нея определено има риск изкуственият интелект да бъде използван за влияние върху следващите избори.

Тя каза, че предизвикателството за полицията и разузнавателните служби ще бъде да не изостават от престъпния сектор, който може бързо да натрупа преднина в използването на технологията.

Много технологични лидери и изследователи подписаха писмо през март, призовавайки за пауза в разработването на ИИ системи, по-мощни от GPT-4 на OpenAI. Вестагер обаче е на мнение, че това искане не е реалистично.

„Никой не може да го наложи. Никой не може да гарантира, че всички ще бъдат на борда“, коментира тя, като добави, че паузата в разработването може да се използва от някои като възможност да изпреварят конкурентите.

Лицево разпознаване

Предложенията на Европейския парламент за Закон за изкуствения интелект се стремят да ограничат използването на биометрични системи за идентификация, както и безразборното събиране на потребителски данни от социални мрежи или видеонаблюдение за цели като системи за разпознаване на лица.

„Искаме да поставим строги предпазни парапети, така че да не се използва в реално време, а само при специфични обстоятелства, когато търсите изчезнало дете или има терорист, който бяга“, обясни Вестагер.

Преди Законът за изкуствения интелект да може да бъде финализиран като първия в света наръчник с правила за използването и развитието на системите за ИИ, трите власти в ЕС - Комисията, Парламентът и Съветът, ще трябва да се споразумеят за неговата окончателна версия.

Не се очаква той да влезе в сила преди 2025 г.

Коментари

НАЙ-НОВО

|

НАЙ-ЧЕТЕНИ

|

НАЙ-КОМЕНТИРАНИ