Інстаграм сприяє поширенню серед підлітків контенту, повʼязаного із самопошкодженням – дослідження

Дата: 02 Грудня 2024
A+ A- Підписатися

Дослідження організації Digitalt Ansvar встановило, що інстаграм сприяє поширенню контенту, повʼязаного із самопошкодженням, серед підлітків. Платформа не лише не видаляє шкідливих матеріалів, а й стимулює утворення спільнот, які поширюють такі публікації.

Про це пише The Guardian.

Фото: Unsplash

Так, згідно з новим звітом Digitalt Ansvar, інстаграм демонструє неефективний підхід до модерації, що призводить до поширення тривожного контенту. Зокрема, дослідники помітили, що платформа залишає без уваги відверті зображення й сприяє появі спільнот, які заохочують до селфхарму, тобто самопошкодження.

Для проведення експерименту данські фахівці створили низку фальшивих акаунтів, що імітували профілі 13-річних підлітків. Вони розмістили 85 постів з контентом про самопошкодження, зокрема фото крові, леза та заклики до дій. Протягом місяця платформа не видалила жодного з цих матеріалів.

Під час дослідження організація також розробила базовий штучний інтелект, який автоматично ідентифікував 38% усіх публікацій і 88% найнебезпечніших випадків. Це доводить, що технологія для ефективної модерації існує, але інстаграм не застосовує її належним чином.

Алгоритми платформи не лише не перешкоджали поширенню шкідливого контенту, а й активно стимулювали його розширення. Вони рекомендували користувачам зі спільнот самопошкодження підписуватися одне на одного, що сприяло розширенню таких груп.

Компанія Meta, яка володіє інстаграмом, відповіла на критику, заявивши, що видалення контенту, пов’язаного із самопошкодженням, нібито є пріоритетом. У першій половині 2024 року компанія видалила понад 12 мільйонів таких постів, з яких 99% усунули до того, як на них поскаржилися користувачі. Meta також впровадила нові акаунти для підлітків з посиленими налаштуваннями безпеки контенту.

На думку Digitalt Ansvar, інстаграм порушує норми Digital Services Act ЄС, які зобов’язують великі платформи мінімізувати системні ризики, зокрема ті, що загрожують фізичному та психічному здоров’ю користувачів.

Голова Digitalt Ansvar Аск Гесбі Холм висловив розчарування тим, що інстаграм не здатний належним чином розпізнавати небезпечний контент. Холм зауважив, що команда очікувала кращого рівня модерації, але реальність виявилася значно гіршою. Він наголосив, що це серйозний сигнал про відсутність адекватних механізмів ідентифікації шкідливих матеріалів, що викликає велике занепокоєння.

Нагадаємо, що відомий застосунок “Тікток” вирішив обмежити підліткам доступ до так званих фільтрів краси. Крім того, у компанії мають намір посилити контроль за реєстрацією користувачів, молодших за 13 років.

Поділитися:
Якщо ви знайшли помилку, виділіть її мишкою та натисніть Ctrl+Enter