Чи є в Україні цифрова дискримінація?

Дата: 15 Листопада 2021 Автор: Уляна Шадська
A+ A- Підписатися

В умовах стрімкої диджиталізації цифрову нерівність переважно пов’язують тільки  з тим, що не у всіх є доступ до інтернету або технологій. Але проблема набагато глибше. Наведу декілька прикладів, як алгоритми штучного інтелекту можуть дискримінувати людей.

Гендерний аспект

Один з показових випадків, про який говорив увесь світ, – коли компанія Amazon розглядала резюме на вакантні посади за допомогою штучного інтелекту, а через деякий час виявила, що програма відхиляла всі заявки за певними гендерними ознаками. Тоді навіть у самій компанії намагалися зрозуміти, чому алгоритми є упередженими до жінок.

Цю ситуацію обговорювало багато експертів, серед основних аргументів – машинне навчання копіює наявний світ з його стереотипами та догмами. Тому на піку розвитку технологій та коли вже застосовується автоматизоване ухвалення рішень юристи повинні розпочати ставити питання: за якими правилами, даними та критеріями навчають машину “сортувати” людей?

У цьому контексті є багато й інших прикладів. У 2018 році вчені Массачусетського технологічного інституту опублікували знаковий аналіз щодо упередженості алгоритмів. Вони продемонстрували, що програма частіше помиляється стосовно темношкірих жінок у порівнянні зі світлошкірими чоловіками. Це також наочно продемонстровано в межах проєкту Gender Shades.

Алгоритми на робочому місці

Програми почали використовувати для контролю за працівниками. Найнеприємніше починається, коли зібрана інформація стає основою для рішень щодо заробітної плати або іншого оцінювання якості роботи людини. Тотальний моніторинг складно назвати обґрунтованим та етичним.

Наприклад, Великобританія ще довго пам’ятатиме скандал у 2000–2014 роках, коли понад 700 співробітників поштової служби отримали покарання, включно з тюремним ув’язненням, за порушення, які вони не скоювали. Юристи довели, що комп’ютерна система припустилася помилок, через які виникли великі грошові недостачі. Деякі співробітники навіть закладали свої будинки, щоб погасити борг. Тягар доказування невинуватості непомітно переклали на самих обвинувачених.

Учені показали й інші можливі ризики в роботі алгоритмів. Ессекський університет у своєму дослідженні продемонстрував приголомшливі висновки, що частота помилок вуличної системи британської поліції з розпізнавання облич становить 81%. Програма ідентифікувала чотирьох з п’яти невинуватих людей як підозрюваних. Подібні результати були описані й у звіті Джорджтаунського юридичного центру конфіденційності та технологій. 

Парадокс у тому, що поширена презумпція безпомилковості комп’ютера підміняє собою презумпцію невинуватості людини. Така ситуація є дуже загрозливою для прав людини. Машина може помилятися, і тепер у нас, юристів, виникає питання: хто й у яких випадках має за це відповідати?

 Цифровий ейджизм та соціальна сегрегація

Цифрова дискримінація через нерівний доступ до технологій здебільшого виявляється щодо малозабезпечених людей або людей похилого віку, що посилює ризики соціальної сегрегації.

Наприклад, є люди, які живуть у місцевості, де немає інтернету, не мають фінансових можливостей придбати пристрій, який підтримує роботу сучасних інформаційних ресурсів, або не мають навичок, щоб безпечно спілкуватися, купувати, вчитися та працювати, використовуючи технології.

У тотальної цифровізації є зворотний бік – люди позбавляються альтернатив. Адже якщо, наприклад, від деяких сервісів, які пропонує бізнес, можна відмовитися, то зовсім інша річ – коли держава позбавляє можливості в отриманні соціальних послуг. Водночас, створюючи дискримінацію, яка є наслідком саме її неефективної політики. Населення потрібно поступово готувати до життя у світі технологій, а не агресивно їх нав’язувати.

Демплатформи – новий вид дискримінації

Цей тренд з’явився після блокування облікового запису колишнього президента США Дональда Трампа у твіттері. Небезпека такої практики в тому, що вона може застосовуватися не лише щодо окремих людей, а й щодо цілих спільнот, об’єднаних за певними поглядами та переконаннями. На цей аспект повинні звернути увагу експерти у сфері безпеки населення, бо це безпосередньо стосується ризиків: інформаційних війн, поширення дезінформації та маніпуляцій через залежність від іноземних технологій і обладнання. 

І наостанок важливо зазначити, що більшість онлайн-сервісів не враховують потреб людей з порушеннями зору або слуху. У сучасному світі інклюзивність послуг – це не лише про збільшення шрифту на вебсайті, а й про можливість враховувати інтереси всіх без винятку. 

Висновки

На жаль, ситуації з наведених прикладів сьогодні вже є можливими й в Україні. Проблема в тому, що через відсутність правового регулювання в людини, яка зазнає дискримінації,  мало шансів домогтися справедливості.

Важливо зауважити, що це питання наразі стоїть на порядку денному й у ЄС. Нещодавно в Європарламенті ухвалили резолюцію, яка забороняє використовувати технології віддаленої біометричної ідентифікації та соціального профілювання людей. В документі йдеться, що застосування таких систем становить високий ризик саме дискримінації людей. Зокрема, тих, хто найбільше зазнає утиску та переслідування. Депутати Європарламенту не закликають відмовитися від розвитку технологій, а кажуть про те, що це може робити уряд країни тільки за умови, коли будуть забезпечені належні гарантії для захисту прав і свобод людини.

Некоректна робота з цифровими технологіями (насамперед з обробленням персональних даних) може створити проблеми як для безпеки людини, так і держави загалом.

Уляна Шадська, юристка у сфері цифрового законодавства, авторка видання “Аналіз ризиків під час обробки персональних даних: що важливо знати?”

Фотографія обкладинки у соцмережах: racurs.ua

Поділитися:
Якщо ви знайшли помилку, виділіть її мишкою та натисніть Ctrl+Enter