У ChatGPT з’явиться функція сповіщення близьких про можливе самоушкодження користувача
Компанія OpenAI оголосила про запуск нової функції для ChatGPT під назвою “Довірена особа”. Вона дозволяє користувачам заздалегідь додати до свого акаунта людину, яка отримає сповіщення, якщо система зафіксує у розмові ознаки ризику самоушкодження.
Про це повідомляє TechCrunch.
Фото: OpenAIФункція працює так: повнолітній користувач може вказати у своєму профілі довірену особу – наприклад, друга чи когось із родини. Якщо під час спілкування ChatGPT помітить згадки, які можуть свідчити про ризик самоушкодження, система запропонує людині звернутися до цього контакту. Паралельно ChatGPT автоматично надішле довіреній особі повідомлення з проханням зв’язатися з користувачем.
Зараз компанія поєднує автоматичний аналіз розмов із перевіркою з боку працівників команди безпеки. Спеціальні тригери у чаті сигналізують системі про можливі суїцидальні думки, після чого інформацію передають фахівцям OpenAI. У компанії стверджують, що людина перевіряє кожен такий випадок приблизно протягом години.
Якщо команда безпеки вирішує, що ситуація може становити серйозну загрозу, ChatGPT надсилає довіреній особі сповіщення – через електронну пошту, SMS або застосунок. Повідомлення не розкриває змісту розмови, щоб зберегти приватність користувача. Натомість система лише закликає контактну особу зв’язатися з людиною.
Запуск нової функції відбувається на тлі судових позовів проти OpenAI. Родини людей, які покінчили життя самогубством після спілкування з чат-ботом, заявляли, що ChatGPT міг підштовхувати користувачів до самогубства або допомагати їм планувати такі дії.
“Довірена особа” стала продовженням інших механізмів безпеки, які OpenAI почала впроваджувати раніше. Зокрема, у вересні минулого року компанія додала інструменти батьківського контролю для підліткових акаунтів. Вони дозволяють батькам отримувати попередження, якщо система вважає, що дитина може перебувати у небезпеці.
Також ChatGPT уже певний час автоматично радить звернутися по професійну допомогу, коли у розмовах з’являються теми самоушкодження.
Водночас функція “Довірена особа” залишатиметься добровільною. Крім того, компанія визнає, що користувачі можуть створювати кілька акаунтів ChatGPT, тому механізм не гарантує повного контролю.
Нагадаємо, що два роки тому в Колорадо 13-річна Джуліана Перальта покінчила життя самогубством у своєму будинку. Її батьки, Синтія Монтоя та Віл Перальта, стверджують, що дівчинку до цього підштовхнув застосунок Character AI.
Торік сім’я підлітка з Каліфорнії Адама Рейна подала позов проти OpenAI після того, як 16-річний хлопець покінчив із життям, обговорюючи з ботом методи самогубства.
Крім того, у квітні цього року влада розпочала кримінальне розслідування щодо OpenAI та її застосунку ChatGPT через стрілянину, яка сталася торік в Університеті штату Флорида і призвела до загибелі двох людей.