До 95% контенту з мовою ненависті у фейсбуку видаляють ще до скарг користувачів
З липня до вересня 2020 року на 10 тисяч переглядів контенту, який опублікували користувачі в соціальній мережі “Фейсбук”, припадало 10–11 повідомлень, що містять риторику ненависті.
Такими є результати щоквартального звіту про дотримання стандартів спільноти соціальної мережі “Фейсбук”, який уперше містить частину щодо поширеності мови ворожнечі.
У звіті пояснюють, що спеціально вимірюють, скільки шкідливого контенту можна побачити у фейсбуці та інстаграмі, адже кількість переглядів контенту розподіляється нерівномірно: “Одна публікація може стати вірусною, і її побачить багато людей за дуже короткий проміжок часу, тоді як інша може “висіти” протягом тривалого часу, але її побачать одиниці”.
Зокрема, щоб виявити в згаданих соціальних мережах мову ненависті, спеціалісти використовують комбінацію скарг користувачів та власні технології. Отриманий контент переглядають рецензенти з різних країн. Для того ж щоб визначити пріоритетність публікацій для перевірки, задіюють штучний інтелект.
Так, за три місяці компанія вжила заходів щодо 22,1 мільйона публікацій з риторикою ненависті у фейсбуці та 6,5 мільйона в інстаграмі.
“Удосконалення технологій ШІ дозволило нам з часом знаходити та видаляти більше мови ворожнечі, перш ніж користувачі повідомлять про неї в скарзі. Сьогодні ми завчасно виявляємо та вилучаємо близько 95% такого контенту”, – зазначають у звіті.
Нагадаємо, що раніше Фейсбук заборонив контент із запереченням Голокосту.