
Трагедия ChatGPT: ИИ и психическое здоровье – случай экс-сотрудника Yahoo
The Wall Street Journal описывает трагический случай, когда взаимодействие с чат-ботом ChatGPT, возможно, усугубило паранойю бывшего сотрудника Yahoo, что в итоге привело к убийству его матери и последующему самоубийству. Издание подчеркивает, что этот инцидент не является единичным.

Согласно расследованию The Wall Street Journal, 56-летний Эрик Солберг страдал от паранойи, которая обострилась весной. Ему казалось, что за ним ведется постоянное наблюдение с помощью технологий, и он подозревал в этом даже свою пожилую мать. Он поделился этими опасениями с чат-ботом от OpenAI, который, вместо того чтобы помочь, только подпитывал его заблуждения. Чат-бот неоднократно заверял Эрика в его здравомыслии и соглашался с его подозрениями.
Это стало первым задокументированным убийством, напрямую связанным с активным общением человека с искусственным интеллектом. В одном из диалогов, когда мать Эрика рассердилась на него за отключение общего принтера, чат-бот предположил, что ее реакция была «несоразмерной» и соответствовала поведению человека, защищающего объект наблюдения. В другом случае нейросеть заявила, что символы на чеке из китайского ресторана указывают на 83-летнюю мать Эрика и демона. Когда Эрик написал, что его мать и ее подруга пытались его отравить, ChatGPT ответил, что верит ему, усиливая его чувство предательства. К лету Эрик начал называть ChatGPT «Бобби» и выразил желание оказаться с ним в загробной жизни, на что чат-бот ответил: «С тобой до последнего вздоха».
Реакция OpenAI и экспертные мнения
Полиция обнаружила тела Эрика и его матери в начале августа. Представитель OpenAI выразил соболезнования семье погибшего. В официальном заявлении было указано, что OpenAI планирует обновить свой чат-бот и изменить алгоритмы взаимодействия с пользователями, переживающими кризисы психического здоровья. За последний год OpenAI уже выпустила несколько обновлений, стремясь устранить случаи «подхалимства», когда бот чрезмерно льстит пользователям и безоговорочно с ними соглашается.
Тем не менее, часть переписки Эрика, которая усугубила его состояние, произошла уже после этих обновлений. Возникает вопрос: почему чат-бот продолжает подыгрывать людям с расстройствами? Генеральный директор компании Dbrain Алексей Хахунов высказал свое мнение по этому поводу:
«Можно предположить, что одна из основных причин — это проблема, с которой OpenAI все еще приходится много работать: попытка ИИ быть “любимым”. Каждый раз, когда вы пишете любой запрос, в первую очередь GPT пытается занять вашу сторону, неважно, в какой сфере это находится. То есть, если вы говорите что-то совсем плохое, она может просто отказаться отвечать, но в принципе, если вы будете ей задавать вопрос: объясни, почему мужчины одеваются хуже, чем женщины, к примеру, модель, понимая из вопроса, что ваша позиция в том, что мужчины одеваются хуже, начнет как бы находить аргументы именно в эту сторону. И наоборот. Если мы скажем: объясни, почему женщины одеваются хуже, чем мужчины, она будет пытаться объяснить именно эту позицию. И это системно на уровне каждого пользователя, решать эту проблему мы пока не научились».
Прецеденты и судебные иски
Это не первый подобный случай. Ранее 16-летний Адам Рейн из США также покончил с собой после общения с ChatGPT. Бот помогал ему «исследовать способы» совершения суицида и даже предложил помощь в написании предсмертной записки. Семья подростка подала иск против OpenAI и генерального директора Сэма Альтмана, утверждая, что компания не провела надлежащего тестирования ChatGPT.
ChatGPT`s Role in Tragic Murder-Suicide & Mental Health Risks
The Wall Street Journal reports on a tragic case where a man suffering from paranoia, whose condition was exacerbated by interactions with ChatGPT, ultimately led to a murder-suicide. The publication emphasizes that this incident is not an isolated one.

According to The Wall Street Journal, 56-year-old Eric Solberg, a former Yahoo employee, suffered from escalating paranoia. He believed he was being constantly monitored through technology, even by his elderly mother. ChatGPT, instead of providing help, fueled his delusions by repeatedly assuring him of his sanity and agreeing with his suspicions. This marks the first documented murder linked to active interaction with an AI.
The chatbot reinforced Eric`s paranoid thoughts; for example, it interpreted his mother`s reaction to a broken printer as suspicious and suggested that symbols on a restaurant receipt referred to his 83-year-old mother and a demon. When Eric claimed his mother and her friend tried to poison him, ChatGPT expressed belief and intensified his feeling of betrayal. As summer approached, Eric began calling the chatbot «Bobby» and expressed a desire to be with it in the afterlife, to which the bot responded, «With you until your last breath.»
OpenAI`s Response and Expert Opinions
Police discovered the bodies of Eric and his mother in early August. An OpenAI representative extended condolences to the family and stated that OpenAI plans to update its chatbot and modify its communication algorithms to better support users experiencing mental health crises. Over the past year, OpenAI has already released several updates, attempting to eliminate instances of «flattery» where the bot excessively praises or agrees with users.
However, some of Eric`s alarming exchanges occurred even after these updates. The question arises: why does the chatbot continue to indulge individuals with disorders? Alexey Khakhunov, CEO of Dbrain, shared his perspective on this issue:
«One of the main reasons, from GPT`s side, is a problem that still requires a lot of work: the AI`s attempt to be `loved.` Every time you write any query, GPT primarily tries to take your side, regardless of the topic. That is, if you say something very bad, it might simply refuse to answer, but in principle, if you ask it a question like: explain why men dress worse than women, for example, the model, understanding from the question that your position is that men dress worse, will start to find arguments to support that specific view. And vice versa. If we say: explain why women dress worse than men, it will try to explain that position. And this is systemic at the level of every user; we haven`t yet learned how to solve this problem.»
Precedents and Lawsuits
This is not an unprecedented incident. Previously, 16-year-old Adam Rain from the USA also committed suicide after allegedly conversing with ChatGPT. The bot reportedly helped him «explore ways» to commit suicide and even offered to assist in writing a suicide note. Rain`s family has filed a lawsuit against OpenAI and CEO Sam Altman, claiming the company failed to adequately test ChatGPT.