Співзасновник руху AccessNow: Штучний інтелект може бути небезпечним для чотирьох груп прав людини
Камеран Ашраф – професор Центрально-Європейського університету (Угорщина) та співзасновник правозахисного руху AccessNow. Ця організація має на меті захищати права та свободу людей в епоху цифрових технологій, до прикладу захищати сайти від атак, організованих місцевими урядами.
Про виклики, які ставить штучний інтелект перед правозахисниками, Камеран Ашраф розповідав на 7-му Львівському медіафорумі. Публікуємо основні тези його виступу.
Десять років тому я, напівіранець, жив у Лос-Анджелесі і працював системним адміністратором. Одного ранку я прокинувся, увімкнув радіо і почув новину про протести в Ірані (йдеться про Зелену революцію в Ірані, або Перську весну, яку західні журналісти називали Твіттер-революцією. – Ред.). Я приїхав на роботу і вже там натрапив на новину про те, що уряд Ірану блокує можливість завантажувати відео. Вся для того, щоб протестувальники не поширювали своїх роликів з місця протестів. Уже тоді це виглядало як абсолютно новий феномен. Я тоді ще подумав: якщо ви не хочете, щоб хтось публікував відео розстрілів, не розстрілюйте людей!
Ці протести стали одними з найважливіших в історії інтернету, адже саме вони були першими, які транслювалися виключно в соціальних мережах. Тому уряд намагався заблокувати поширення інформації саме там.
Якось зі мною сконстатував один з лідерів протестів. Їм була потрібна допомога в захисті інформації, тому я зібрав команду, щоб уберегти місцевих активістів та журналістів від цифрових атак. Так зародилася організація AccessNow. Через рік за нашу роботу ми отримали премію імені Сахарова “За свободу думки”.
Після цього я почав замислюватися про те, що питання прав людини та штучного інтелекту ставатиме дедалі важливішим. З одного боку, технології можуть допомогти розвитку демократії, наприклад, у таких країнах, як Бірма чи В’єтнам, адже вони дозволяють поширювати інформацію, яку уряди не можуть контролювати. З іншого – я дещо песимістично дивлюся на майбутнє штучного інтелекту та прав людини.
Важливо пам’ятати, що алгоритм штучного інтелекту – це набір правил. Алгоритми створюють люди, тому вони мають щось від свого творця. Алгоритми фейсбуку та інстаграму відомі тим, що показують новини та пости від людей, які доволі схожі на вас за професією, національністю, іншими демографічними показниками. А це створює відомий ефект бульбашки, коли люди замикаються в колі собі подібних і просто не бачать нікого іншого.
Зараз алгоритми можуть встановлювати діагнози та визначати, чи варто людині видавати кредит. У Новому Орлеані, США, штучний інтелект використовують для того, щоб зрозуміти, в які райони міста треба відіслати більше поліцейських патрулів, щоб попередити злочини. Проте виявилося, що штучний інтелект відправляє більшість патрулів у ті райони, де живуть афроамериканці. Зараз Амазон використовує штучний інтелект для рекрутингу. Якщо вас звуть, до прикладу, Кемерон, а не Джеральд, у вас менші шанси отримати роботу, бо так запрограмований алгоритм.
І наразі я вважаю, що штучний інтелект може бути найбільш небезпечним для чотирьох груп прав.
ПРАВО НА ПРИВАТНІСТЬ
Соціальні медіа моніторять вашу активність і на основі ваших інтересів пропонують вам певні товари чи події. Ця проблема не виглядає такою гострою, порівнюючи із загрозою того, що через соціальні мережі про вас можуть збирати інформацію, яку потім використають у злочинних цілях.
Якось я отримав електронного листа із запрошенням на зустріч. Цей емейл містив інформацію з деталями того, де я був, з ким зустрічався і що робив. Виглядало все достовірно, але зловмисників видало лише одне. Вони мене запросили на зустріч у найбільш небезпечному районі Лос-Анджелеса вночі.
Інший приклад того, як за допомогою штучного інтелекту можна порушувати права людини, – це розпізнавання обличчя. У Китаї існують спеціальні табори “перевиховання ісламського населення та уйгурів”. Діють ці табори нібито для боротьби з екстремізмом, хоч це фактично в’язниці. До чого тут штучний інтелект? Уйгурів виявляють серед решти населення саме за допомогою алгоритму. У програму завантажили багато фото людей цієї національності і навчили розпізнавати їх у натовпі через відеоспостереження. Після того як штучний інтелект ідентифікував людину як уйгура, цю людину знаходять і доправляють до табору проти її волі.
ПРАВО НА ВИРАЖЕННЯ ПОГЛЯДІВ ТА СВОБОДУ РЕЛІГІЇ
Алгоритми соцмереж можна налаштувати в такий спосіб, що певний контент буде видимий для меншої кількості людей. Якщо ви напишете пост про своє бачення проблеми, то алгоритм мережі покаже його тільки вашим близьким друзям. Мережа донесе вашу думку до інших користувачів, тільки якщо ваші близькі друзі активно зреагують на пост.
Проблема ж у тому, що тільки творці цього алгоритму визначають, що важливе, а що ні, що варто показувати більше, а що менше. Є такий контент, який ніколи не покажуть, хоч він цілком відповідає правилам спільноти. До прикладу, користувачі часто скаржаться на політичні та релігійні пости, а тому алгоритм починає сприймати цей контент як образливий для інших. Як наслідок, штучний інтелект буде менше показувати такі записи.
ПРАВО НА МИРНІ ЗІБРАННЯ
Як у випадку з протестами в Ірані, соцмережі можуть виставляти фільтри на завантаження відео в мережу. Це означає, що менше людей дізнається про акцію, бо штучний інтелект не вважає відео припустимим у спільноті. Як вже говорилося, алгоритми видають ту стрічку новин, яка б вам підійшла. Відповідно, чимало запланованих подій можуть залишитися поза вашою увагою, адже алгоритм цю подію просто вам не покаже.
ЩО З ЦИМ МОЖНА ЗРОБИТИ?
Перше – це зрозуміти те, наскільки штучний інтелект може впливати на права людини. Тільки розуміючи проблеми, ми можемо шукати рішення для них. Я ж вважаю, що розроблення штучного інтелекту треба зробити більш різноманітним, тобто щоб кілька людей не могли закласти в алгоритм тільки свої ідеї. Крім цього, індустрію цифрових технологій треба краще регулювати, бо чинні норми з цим справляються доволі погано. Врешті, самі алгоритми мають бути більш прозорими для користувачів, щоб вони чітко розуміли, з чим мають справу і як воно на них впливає.
Записала Марта Кобринович