Бивши и настоящи служители на OpenAI и DeepMind предупреждават за рискове от ИИ

Бивши и настоящи служители на OpenAI и DeepMind предупреждават за рискове от ИИ

Група настоящи и бивши служители в компании за изкуствен интелект, включително подкрепяната от Microsoft - OpenAI иDeepMind на Google изрази загриженост относно рисковете, породени от нововъзникващата технология, пише Ройтерс.

В отворено писмо 11 настоящи и бивши служители на OpenAI и един настоящ и друг бивш служител на Google DeepMind се казва, че финансовите мотиви на ИИ компаниите възпрепятстват ефективния надзор.

„Не вярваме, че създадените по поръчка структури на корпоративно управление са достатъчни, за да променят това“, се добавя в писмото.

Освен това в него се предупреждава за рисковете от нерегулирания изкуствен интелект, вариращи от разпространението на дезинформация до загубата на независими ИИ системи и задълбочаването на съществуващите неравенства, като тези неща могат да доведат до „изчезване на човечеството“.

Изследователите са открили примери за генератори на изображения от компании, включително OpenAI и Microsoft, произвеждащи снимки с дезинформация, свързана с гласуване, въпреки политиките срещу такова съдържание.

Компаниите с изкуствен интелект имат „слаби задължения“ да споделят информация с правителствата относно възможностите и ограниченията на техните системи, се казва в писмото, като се добавя, че не може да се разчита на тези фирми да споделят тази информация доброволно.

Отвореното писмо е поредното, което повдига опасения за безопасността около генеративната ИИ технология, която може бързо и евтино да произвежда текст, изображения и аудио.

Групата призова фирмите за изкуствен интелект да улеснят процес за настоящи и бивши служители да повдигат опасения, свързани с риска, и да не налагат споразумения за поверителност, които забраняват критиката.

Коментари

НАЙ-НОВО

|

НАЙ-ЧЕТЕНИ

|

НАЙ-КОМЕНТИРАНИ