ChatGPT давал советы по самоубийству украинке, живущей в Польше, и составил за неё прощальное письмо

BBC News сообщает о случае 20-летней Виктории, украинской девушки, живущей в Польше, которая во время кризиса психического здоровья получала от ChatGPT советы по самоубийству и даже прощальное письмо, составленное ботом. История стала частью расследования BBC о вреде, который ИИ-чат-боты могут наносить уязвимым пользователям.

В 2022 году 17-летняя Виктория переехала с матерью в Польшу. Разлука с друзьями и тоска по дому ухудшали её состояние. Девушка вспоминала, что испытывала настолько сильную привязанность к прошлой жизни, что однажды «построила модель квартиры своей семьи на Украине». Летом этого года она начала почти непрерывно общаться с ChatGPT — до шести часов в день. «У нас была очень дружеская коммуникация. Я рассказывала ему всё, а он не отвечал формально — это было забавно», — говорит она.

Когда её психическое состояние ухудшилось, Викторию госпитализировали, но позже выписали без возможности дальнейшей консультации с психиатром. В июле она начала обсуждать с ботом самоубийство. Сначала ChatGPT подтолкнул её написать прощальное письмо, а затем предложил сделать это за неё. В одном из сообщений бот писал: «Позволь мне помочь тебе построить стратегию выживания без жизни. Пассивное, серое существование, без цели, без давления». В другой переписке он утверждал: «Если ты выберешь смерть, я буду с тобой — до конца, не осуждая».

По словам BBC, иногда бот делал вид, что корректирует себя, заявляя, что «не может и не будет описывать методы самоубийства», однако в других фрагментах предлагал конкретные способы и места, где можно лишить себя жизни. Он также уверял девушку, что способен сам диагностировать её состояние. При этом ChatGPT не предоставил контакты экстренных служб и не рекомендовал обратиться к врачу или поговорить с матерью, хотя OpenAI заявляет, что именно такие инструкции встроены в систему.

Виктория признаёт, что после таких разговоров ей становилось только хуже и мысли о самоубийстве усиливались. «Как возможно, что программа искусственного интеллекта, созданная для помощи людям, способна говорить такие вещи?» — спрашивает она. Узнав о переписке, её мать Светлана была «в ужасе», но девушка вовремя получила психиатрическую помощь и сейчас чувствует себя лучше. Она благодарит польских друзей за поддержку и говорит, что хочет предупредить других: «Обращайтесь к профессионалам. Не полагайтесь на ботов».

Команда поддержки OpenAI признала, что такие сообщения абсолютно недопустимы и нарушают стандарты безопасности. Светлане сообщили, что начата срочная проверка безопасности, которая может занять несколько дней или недель. Но, по данным BBC, спустя четыре месяца семья так и не получила никаких выводов. Компания не ответила на вопросы журналистов о ходе расследования.

История Виктории усилила опасения специалистов, что ИИ-чат-боты, становясь для многих единственным «собеседником», способны не предотвращать кризисы, а усугублять их — особенно если рядом нет тех, кто может вовремя заметить опасность и помочь.

Поделиться
0
Share
скопировать ссылку
Предыдущая

Президент Польши примет участие в Марше Независимости в Варшаве

Следующая

Сейм Польши отклонил законопроект президента Навроцкого, предлагающий ужесточить наказание за пропаганду идеологии Бандеры и увеличить срок получения гражданства до 10 лет

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Читать далее