У Росії протестували систему, що шукає “екстремізм” у мережі зі швидкістю 200 тисяч зображень на добу

Дата: 13 Лютого 2023
A+ A- Підписатися

У Росії головний радіочастотний центр, підпорядкований Роскомнагляду, протестував систему “Окулус”, що в автоматичному режимі шукатиме в мережі заборонені тамтешнім законодавством фото та відео. 

Про це повідомляє російське пропагандистське видання “Интерфакс”. 

Акція протесту в Росії у 2019 році. Фото: ЕРА

Тендер на розроблення системи оголосили ще у вересні 2021-го, а наприкінці минулого року до журналістів потрапили понад два терабайти документів та листів співробітників центру. 

Виявилося, що система використовуватиме нейромережу, щоб офіційно шукати в інтернеті контент за темами “екстремізм”, “заклики до заворушень”, “пропаганда ЛГБТ”, “суїцид”, “наркотики” та “демонстрація тютюну”. Однак, якщо вірити злитим хакерами даним, шукатиме вона й образливі зображення Путіна. 

Так, журналісти виявили “класифікатор графічних сутностей” для навчання нейромережі, що ділиться на два типи: “образливі зображення президента” та “порівняння президента з негативними персонажами”. 

Ілюстраційне зображення. Фото: 24.sapo.pt

Навчать систему й шукати “заклики до заворушень” за фотографіями ув’язненого в Росії опозиціонера Олексія Навального та його соратників, зображень Кремля, що палає, і фото мітингів різних років у Росії та Україні. 

Протестували систему торік у грудні, а доопрацювати її, розширивши функціонал, мають до 2025 року. 

“Окулус” аналізуватиме понад 200 тисяч зображень на добу – зі швидкістю близько трьох секунд на одне зображення, переконують розробники. Раніше на оброблення трохи більш ніж сотні відео та сотні зображень ішов день. 

У Росії замислюються й над тим, щоб нейромережа шукала в інтернеті “точки інформаційної напруженості”. Російські посадовці називають так факти поширення суспільно значущої інформації під виглядом достовірних повідомлень, яка створює загрозу масового порушення громадського порядку та безпеки, створює загрозу заподіяння шкоди життю чи здоров’ю громадян”.

Над цим має працювати інша система “Вепр”.

Нагадаємо, що сьогодні у світі широко застосовують штучний інтелект у різних сферах, зокрема в правоохороннійсудовій та навіть для запобігання харасменту.

Проте правозахисники частіше кажуть про те, що без належного врегулювання нові технології можуть становити ризики для права людей на приватність, вираження поглядів, свободу релігії, а також мирні зібрання. 

Фотографія обкладинки: brookings.edu

Поділитися:
Якщо ви знайшли помилку, виділіть її мишкою та натисніть Ctrl+Enter