Google с номи мерки за контрол при търсенето на неподходящо съдържание

Икономика

Google обяви нови мерки за контрол на разпространението на неподходящо съдържание в своята търсачка. Това решение беше взето в отговор на нарастващия проблем за съмнително съдържание, създадено с помощта на инструменти за изкуствен интелект, без съгласието на заинтересованите страни. Това съобщава Bloomberg.

Ако генерираното от ИИ съдържание включва изображение на реално лице без негово разрешение, това лице вече може да поиска то да бъде премахнато от резултатите от търсенето. Google потвърди, че ако заявката е валидна, компанията ще филтрира всички подобни резултати и ще премахне дублиращи се изображения. Google е основният източник на трафик към сайтове, хостващи нежелателно съдържание, генерирано от ИИ. По-специално, това се отнася за еротично и порнографско съдържание. В резултат на това Google вече ограничава сайтовете, които са имали голям брой страници, премахнати от търсения за нарушаване на политиката на коммпаията  за съдържание на ИИ.

Компанията също така е подобрила своите алгоритми за класиране, за да предотврати излизането на фалшиво съдържание на челни места в резултатите от търсенето.

Продуктовият мениджър на Google Ема Хайъм отбелязва пред Bloomberg, че компанията се стреми да намери баланс между осигуряването на достъп до информация и безопасността на потребителите в интернет.

Коментари

НАЙ-НОВО

|

НАЙ-ЧЕТЕНИ

|

НАЙ-КОМЕНТИРАНИ

Седемтте чудеса на света: Археолози откриха на морското дъно 80-тонни камъни от Александрийския фар
На днешната дата, 11 май. Ден на Св. св. Кирил и Методий
Звездите за бизнеса от 11 до 17 май: Умерен риск, разумни инвестиции и по-малко импулсивни решения
Американски сенатор: Запасите на САЩ от боеприпаси и ракети са тежко изчерпани
Грешката при опаковането, която повечето основатели на потребителски стоки правят
Великобритания и Франция свикват среща за възстановяване на корабоплаването през Ормузкия проток
Цитат на деня
Рядка комета е видима от Земята за първи път от 170 000 години