Все починається з дитинства: захист прав дітей по-медійному

Дата: 01 Червня 2023 Автор: Тетяна Авдєєва
A+ A- Підписатися

Однією з ключових вимог європейських експертів, які оцінювали якість імплементації положень Директиви ЄС про аудіовізуальні медіапослуги, було посилення захисту прав дітей. На противагу поширеній думці правам дітей в медіа загрожують не лише еротичні фільми та зображення насильства. Категорій контенту, поширення яких може бути обмеженим, є набагато більше. Раніше вони, як і загальні обмеження, були розкидані по різних законах і мали загальний характер (з погляду законодавчих формулювань). Утім, медійний закон нарешті зібрав усі обмеження, що стосуються захисту прав дітей в окремій статті 42, яка встановлює чіткі правила та винятки й досить вдало балансує інтереси всіх залучених сторін.

Про ці обмеження читайте у черговій статті із серії публікацій про ключові положення Закону “Про медіа” від експертів Лабораторії цифрової безпеки.

Як насправді виглядає контент 18+?

Категорії шкідливого контенту є досить варіативними, і не всі з них, на перший погляд, можуть здатися небезпечними. Ба більше, часто можна почути поширену думку, що “діти зараз усе можуть знайти в інтернеті”. Утім, можливість знайти певний контент через цільовий пошук все ж не те саме, що його пряма демонстрація самим медіа. Ну і, звісно ж, це не робить контент менш шкідливим для фізичного, психічного чи морального розвитку дітей. Тому для матеріалів медіа (окрім фільмів) існують певні обмеження. 

Шкідливою для дітей інформацією вважається:

  • надмірне зосередження уваги на насильстві: висловлювання чи зображення є необґрунтованими чи надмірними в контексті відповідного матеріалу;
  • позитивна оцінка самокаліцтва, вчинення самогубства, підбурювання до таких дій, надмірна і необґрунтована деталізація засобів і обставин самогубства;
  • демонстрування жорстокого поводження з тваринами, демонстрація великим планом тварин, що вмирають чи понівечені, крім випадків, якщо це необхідно для популяризації гуманного ставлення до тварин;
  • позитивна оцінка вандалізму;
  • позитивна оцінка злочинного діяння або ідеалізація злочинця, надмірно деталізовані моделювання злочинних дій;
  • позитивна оцінка залежності від наркотичних, токсичних, психотропних речовин, тютюну чи алкоголю, заохочення їх вживання, виробництва, розповсюдження чи придбання (крім творів мистецтва);
  • нецензурні висловлювання, непристойні жести (крім творів мистецтва або повідомлень про новини дня/поточні події);
  • заклики грати в азартні ігри (крім випадків, передбачених законом);
  • демонстрація великим планом тіла померлої, такої, що вмирає, або жорстоко понівеченої людини (крім випадків, коли це необхідно для ідентифікації особи).

В цілому такі обмеження є цілком пропорційними, а наявність винятків дозволяє медіа бути гнучкими у донесенні інформації про поточні події чи виконанні інших суспільно корисних функцій.

На межі шкідливого та аморального: як публікувати резонансну інформацію?

Жодне обмеження не є абсолютним, якщо контент шкідливий лише для певної вікової групи (а не становить мову ворожнечі чи заклики до війни). Тому стаття 42 встановлює не заборону, а саме обмеження щодо поширення інформації. Водночас за умови дотримання певних правил навіть такі матеріали можна розповсюджувати.

Так, згадані категорії контенту, а також програми чи фільми еротичного спрямування можна поширювати на платформах аудіовізуальних медіа на замовлення (на кшталт Netflix або Megogo) та провайдерами аудіовізуальних сервісів, якщо вони застосовують систему умовного доступу – перевіряють вік користувача, дають можливість встановити батьківський контроль тощо.

Програми мають містити спеціальні позначки, що ідентифікують їхній вміст, як такий, що може нашкодити дітям. Попередження має звучати й на початку таких програм. Вимога про спеціальні позначки застосовна і до матеріалів онлайн-медіа.

Відповідальність за поширення спеціальних попереджень чи позначок покладається на медіа, яке поширює потенційно шкідливі для дітей матеріали.

Міграція дітей у YouTube: і що ви їм зробите?

YouTube, як і багато інших іноземних платформ спільного доступу до відео, український законодавець навряд чи зможе врегулювати через брак юрисдикції. Утім, по-перше, стаття 28b Директиви про аудіовізуальні медіапослуги встановлює вимоги щодо захисту прав дітей, а такі техгіганти потрапляють під регулювання ЄС. По-друге, якщо в Україні колись виникнуть власні платформи спільного доступу до відео, для них також є кілька обов’язків щодо захисту прав дітей (які ідентичні тим, що встановлені Директивою).

Зокрема, платформи спільного доступу до відео на території України зобовʼязані:

  • передбачити в умовах користування сервісом заборону програм, рекламної та користувацької інформації, яка порушує вимоги статті 42 закону;
  • забезпечити перевірку віку користувача перед наданням доступу до інформації, що може шкодити фізичному, психічному чи моральному розвитку дітей, забезпечити можливість використання системи батьківського контролю;
  • утримуватися від обробки зібраних чи іншим чином отриманих персональних даних дітей з комерційною метою.

Хвилинка співрегулювання

Аналогічно до ситуації з інформацією, забороненою статтею 36, контентні обмеження, спрямовані на захист прав дітей, так само потребують роз’яснень і уточнень. Особливо, враховуючи, що деякі обмеження є відносно новими (щонайменше у законодавчих формулюваннях). Тому Національна рада спільно з органами співрегулювання буде встановлювати критерії віднесення інформації до такої, поширення якої є обмеженим.

Спільне напрацювання вимог буде здійснюватися за напрямами:

  • визначення критеріїв віднесення інформації до такої, що може заподіяти шкоду фізичному, психічному або моральному розвитку дітей;
  • розподілу дітей на вікові категорії та розробки критеріїв класифікації програм (і фільмів) за віковими категоріями аудиторії;
  • визначення порядку віднесення медіа матеріалу до вікових категорій дітей та обрання відповідних попереджень (та вимоги до таких попереджень);
  • визначення критеріїв віднесення реклами до такої, що може бути шкідливою.

Важливо, що медіа на підставі критеріїв самостійно будуть класифікувати програми, відносячи їх до певної вікової категорії. Категоризація передбачатиме диференційовану систему попереджень. При цьому вид і форма попереджень природно різнитимуться залежно від виду медіа.

Публікувати чи не публікувати 

Часто медіа поширюють інформацію, яка стосується чутливих, але суспільно важливих тем – фізичного чи сексуального насилля над дітьми. Враховуючи, що таким діям варто запобігати й підвищувати обізнаність щодо ризиків, замовчування інформації про такі дії є неправомірним. Утім, подібні матеріали мають враховувати найкращі інтереси дитини – зокрема, у сфері захисту персональних даних.

Медіа заборонено без письмової згоди хоча б одного із законних представників поширювати фото дитини, яка зазнала насилля, чи розголошувати інформацію, яка:

  • може ідентифікувати дитину, задіяну в адміністративному чи кримінальному провадженні у будь-якому статусі, чи стосовно якої є інформація про вчинення нею правопорушення;
  • стосується факту самогубства дитини, при цьому ідентифікує її особу.

Виняток! Інформація поширюється у найкращих інтересах дитини. Так, якщо після акту насилля дитина втекла чи її було викрадено, фото та/або особисті дані можна поширити з метою пошуку.

Резюме

Обмеження щодо захисту прав дітей, передбачені статтею 42, є майже дослівною інкорпорацією європейських стандартів. Нове регулювання пропонує досить гнучку систему класифікації контенту і водночас вказує на неабияку довіру до медіа, які віднині самі зможуть визначати, на яку аудиторію ті чи інші продукти розраховані. Утім, як і з багатьма іншими питаннями, ключовою стане розробка Кодексів співрегулювання, які встановлять чіткі критерії та процедури для оцінки інформації. До їх розробки ж медіа варто чекати розʼяснень від Національної ради.

Тетяна Авдєєва, юристка Лабораторії цифрової безпеки

Поділитися:
Якщо ви знайшли помилку, виділіть її мишкою та натисніть Ctrl+Enter