ЄС обмежить використання штучного інтелекту через загрозу приватності
Єврокомісія розробила документ, яким регулюватиметься використання штучного інтелекту в країнах ЄС, у такий спосіб тут хочуть забезпечити гуманний підхід до відповідних технологій, не зашкодивши потужним техкомпаніям.
Про це пише Politico, уточнивши, що вказаний документ опублікують 21 квітня.
Порушників штрафуватимуть на суму до 20 млн євро або 4% обігу компанії, йдеться в повідомленні.
Згідно з правилами, без обмежень працюватимуть системи штучного інтелекту, спрямовані на пришвидшення виробництва, моделювання кліматичних змін або ж забезпечення енергоефективності.
Водночас алгоритми для аналізу резюме, оцінювання кредитної довіри, доцільності забезпечення соцгарантіями, заявок на отримання віз або притулку в країнах ЄС вважатимуться технологіями високого ризику.
Заборонять використання систем штучного інтелекту, що можуть зашкодити людям шляхом маніпуляції їхньою поведінкою та думками, а також ті, що використовуються для масового стеження.
Як приклад останнього наведено систему соціальної оцінки, що діє в Китаї: там вона призначена для стандартизації оцінювання економічної та соціальної репутації громадян та підприємств або “соціального кредиту”. Такий підхід суперечить цінностям ЄС, тож використання схожих систем буде заборонене.
Виняток – використання з боку правоохоронців систем штучного інтелекту для розкриття серйозних злочинів, наприклад тероризму.
Також у документі йдеться про заборону застосовувати в системах будь-які умисні чи неумисні упередження, що мають наслідком дискримінацію.
Для контролю над виконанням нових норм запропоновано створити Європейську раду з питань штучного інтелекту.
Останніми роками правозахисники частіше кажуть про те, що без належного врегулювання нові технології можуть становити ризики для права людей на приватність, вираження поглядів, свободу релігії, а також мирні зібрання.
ZMINA розповідала, які саме загрози штучний інтелект може становити правам людини.