В России протестировали систему, которая ищет “экстремизм” в сети со скоростью 200 тысяч изображений в сутки

Дата: 13 February 2023
A+ A- Подписаться

В России главный радиочастотный центр, подчиненный Роскомнадзору, протестировал систему “Окулус”, которая в автоматическом режиме будет искать в сети запрещенные тамошним законодательством фото и видео.

Об этом сообщает российское пропагандистское издание “Интерфакс”.

Акция протеста в России в 2019 году. Фото: ЕРА

Тендер на разработку системы объявили еще в сентябре 2021-го, а в конце прошлого года к журналистам попали более двух терабайтов документов и писем сотрудников центра.

Оказалось, что система будет использовать нейросеть, чтобы официально искать в интернете контент по темам “экстремизм”, “призывы к беспорядкам”, “пропаганда ЛГБТ”, “суицид”, “наркотики” и “демонстрация табака”. Однако, если верить слитым хакерами данным, будет искать она и оскорбительные изображения Путина.

Так, журналисты обнаружили “классификатор графических сущностей” для обучения нейросети, который делится на два типа: “оскорбительные изображения президента” и “сравнение президента с негативными персонажами”.

Иллюстрационное изображение. Фото: 24.sapo.pt

Учат систему также искать “призывы к беспорядкам” по фотографиям заключенного в России позиционера Алексея Навального и его соратников, изображениям горящего Кремля и фото митингов разных лет в России и Украине.

Протестировали систему в декабре прошлого года, а доработать ее, расширив функционал, должны до 2025 года.

“Окулус” будет анализировать более 200 тысяч изображений в сутки — со скоростью около трех секунд на одно изображение, убеждают разработчики. Раньше на обработку чуть более сотни видео и сотни изображений уходил день.

В России задумываются и о том, чтобы нейросеть искала в интернете “точки информационной напряженности”. Российские чиновники называют так “факты распространения общественно значимой информации под видом достоверных сообщений, которая создает угрозу массового нарушения общественного порядка и безопасности, создает угрозу причинения вреда жизни или здоровью граждан”.

Этим должна заниматься другая система “Вепрь”.

Напомним, что сегодня в мире широко применяют искусственный интеллект в разных сферах, в частности в правоохранительной, судебной и даже для предотвращения харасмента.

Однако правозащитники чаще говорят о том, что без надлежащего урегулирования новые технологии могут представлять риски для права людей на конфиденциальность, выражение взглядов, свободу религии, а также мирные собрания.

Фотография обложки: brookings.edu

Поделиться:
Если вы нашли ошибку, выделите ее мышкой и нажмите Ctrl+Enter