ЄС обмежить використання штучного інтелекту через загрозу приватності
Єврокомісія розробила документ, яким регулюватиметься використання штучного інтелекту в країнах ЄС, у такий спосіб тут хочуть забезпечити гуманний підхід до відповідних технологій, не зашкодивши потужним техкомпаніям.
Про це пише Politico, уточнивши, що вказаний документ опублікують 21 квітня.
Джерело: pixabay.comПорушників штрафуватимуть на суму до 20 млн євро або 4% обігу компанії, йдеться в повідомленні.
Згідно з правилами, без обмежень працюватимуть системи штучного інтелекту, спрямовані на пришвидшення виробництва, моделювання кліматичних змін або ж забезпечення енергоефективності.
Водночас алгоритми для аналізу резюме, оцінювання кредитної довіри, доцільності забезпечення соцгарантіями, заявок на отримання віз або притулку в країнах ЄС вважатимуться технологіями високого ризику.
Заборонять використання систем штучного інтелекту, що можуть зашкодити людям шляхом маніпуляції їхньою поведінкою та думками, а також ті, що використовуються для масового стеження.
Як приклад останнього наведено систему соціальної оцінки, що діє в Китаї: там вона призначена для стандартизації оцінювання економічної та соціальної репутації громадян та підприємств або “соціального кредиту”. Такий підхід суперечить цінностям ЄС, тож використання схожих систем буде заборонене.
Виняток – використання з боку правоохоронців систем штучного інтелекту для розкриття серйозних злочинів, наприклад тероризму.
Також у документі йдеться про заборону застосовувати в системах будь-які умисні чи неумисні упередження, що мають наслідком дискримінацію.
Для контролю над виконанням нових норм запропоновано створити Європейську раду з питань штучного інтелекту.
Останніми роками правозахисники частіше кажуть про те, що без належного врегулювання нові технології можуть становити ризики для права людей на приватність, вираження поглядів, свободу релігії, а також мирні зібрання.
ZMINA розповідала, які саме загрози штучний інтелект може становити правам людини.