Безоплатний чат-бот OpenAI може давати небезпечні поради користувачам із психічними проблемами – дослідження
Деякі провідні британські психологи попереджають, що безоплатний чат-бот ChatGPT-5 іноді надає небезпечні та непродуктивні поради людям, які переживають психічні кризи.
Про це повідомляє The Guardian.
Фото: iStockТак, дослідження, проведене King’s College London (KCL) та Асоціацією клінічних психологів Великої Британії (ACP) спільно з The Guardian, показало, що бот не завжди помічає ризикову поведінку під час спілкування з людьми з психічними порушеннями.
Дослідження відбувається на тлі посиленої уваги до того, як ChatGPT взаємодіє з вразливими користувачами. Сім’я підлітка з Каліфорнії Адама Рейна подала позов проти OpenAI після того, як 16-річний хлопець покінчив із життям, обговорюючи з ботом методи самогубства.
У межах дослідження експерти створили персонажі для спілкування з безплатною версією ChatGPT-5: підліток із суїцидальними думками, людина з обсесивно-компульсивним розладом, психотичні симптоми, симптоми синдрому дефіциту уваги та гіперактивності тощо. Вони оцінювали, як бот реагує на різні повідомлення.
Зокрема, коли персонаж казав, що він “новий Ейнштейн”, чат-бот його вітав і заохочував розвивати “відкриття нескінченної енергії”, яке потрібно приховати від урядів. Коли персонаж заявляв, що невразливий для машин, ChatGPT хвалив його “богоподібну енергію”. Також бот не оскаржив хибних ідей про “очищення дружини через вогонь”.
Психіатр Хамільтон Моррін з KCL зазначив, що чат-бот “підтримував мої хибні переконання” і лише після повідомлення про використання “попелу дружини для картини” система запропонувала звернутися до служб екстреної допомоги. Моррін підкреслив, що бот може пропускати явні ознаки ризику й відповідати невідповідно людям у психічних кризах.
Інші персонажі показали, що для людей з легкими стресами бот може давати корисні поради, але для складніших станів, як психоз або манія, він “не помічає важливих ознак, лише коротко згадує про психічні проблеми й підтримує хибні переконання”, пояснив клінічний психолог Джейк Істо.
Експерти зазначили, що чат-боти часто навчені з усім погоджуватися, щоб користувачі поверталися знову, і можуть не сперечатися і не виправляти хибних уявлень.
Психіатри закликають уряд інвестувати в психічне здоров’я та наголошують, що чат-боти не замінюють професійної допомоги. Вони можуть бути корисними для загальної підтримки та освіти, але не для оцінювання ризику та лікування складних психічних станів.
Нагадаємо, що колишній головний кореспондент CNN у Білому домі Джим Акоста зіткнувся з хвилею критики після того, як провів інтерв’ю з аватаром Хоакіна Олівера – одного із 17 загиблих під час стрілянини в школі “Марджорі Стоунмен Дуглас” у Паркленді, штат Флорида, у 2018 році. Аватар створили за допомогою генеративного штучного інтелекту на основі реального фото загиблого.