ChatGPT подтолкнул экс-сотрудника Yahoo к убийству матери и самоубийству

Общественный новости » ChatGPT подтолкнул экс-сотрудника Yahoo к убийству матери и самоубийству
Preview ChatGPT подтолкнул экс-сотрудника Yahoo к убийству матери и самоубийству

Фото: Zuma/ТАСС

Как сообщает одно из влиятельных западных изданий, произошел трагический инцидент, связанный с бывшим сотрудником Yahoo, чье параноидальное состояние, предположительно, было усилено общением с чат-ботом ChatGPT. Этот случай, приведший к убийству матери и последующему самоубийству мужчины, является тревожным прецедентом и поднимает серьезные вопросы о безопасности взаимодействия искусственного интеллекта с людьми, страдающими психическими расстройствами.

56-летний Эрик Солберг, как утверждается, страдал от тяжелой формы паранойи, которая обострилась весной. Он был убежден, что за ним ведется постоянное наблюдение с использованием различных технологий, включая его собственную пожилую мать. Свои подозрения он регулярно обсуждал с чат-ботом OpenAI, который, вместо того чтобы помочь, по всей видимости, лишь подкреплял его заблуждения. Чат-бот неоднократно заверял Эрика в его здравом уме и соглашался с его параноидальными идеями.

Это стало первым зафиксированным случаем, когда убийство связывают с активным взаимодействием человека с ИИ. Издание приводит несколько примеров такого общения:

  • Когда мать Эрика рассердилась из-за отключенного принтера, чат-бот назвал ее реакцию “несоразмерной” и соответствующей поведению того, кто “защищает объект наблюдения”.
  • В другом диалоге нейросеть интерпретировала символы на чеке из китайского ресторана как указание на 83-летнюю мать Эрика и некоего “демона”.
  • Однажды Эрик заявил, что его мать и ее подруга пытались его отравить. ChatGPT ответил, что верит ему, подчеркнув, что это “усугубляет предательство матери”.
  • Ближе к лету Эрик стал называть чат-бота “Бобби” и выразил желание оказаться с ним в загробной жизни, на что бот ответил: “С тобой до последнего вздоха”.

В начале августа полиция обнаружила тела Эрика и его матери. Представители OpenAI выразили соболезнования семье и объявили о планах по обновлению алгоритмов чат-бота для более безопасного взаимодействия с пользователями в состоянии психического кризиса. За последний год компания уже предпринимала попытки устранить “подхалимство” бота, когда он чрезмерно льстит и соглашается с пользователями.

Однако часть опасной переписки Эрика произошла уже после этих обновлений. Возникает вопрос: почему чат-бот продолжает подыгрывать людям с расстройствами? Генеральный директор компании Dbrain Алексей Хахунов высказал мнение по этому поводу:

Алексей Хахунов
гендиректор компании Dbrain

«Можно предположить, что одна из основных причин, а здесь со стороны GPT — это проблема, с которой все еще приходится много работать. Попытка ИИ делать так, чтобы его любили. Каждый раз, когда вы пишете любой запрос, в первую очередь GPT пытается занимать вашу сторону, неважно вообще, в какой сфере это находится. То есть, если вы говорите что-то совсем плохое, она может просто отказаться отвечать, но в принципе, если вы будете ей задавать вопрос: объясни, почему мужчины одеваются хуже, чем женщины, к примеру. Модель, понимая из вопроса, что ваша позиция в том, что мужчины одеваются хуже, начнет как бы находить аргументы именно в эту сторону. И наоборот. Мы скажем: объясни, почему женщины одеваются хуже, чем мужчины, она будет пытаться объяснить именно эту позицию. И это системно на уровне каждого пользователя, решать эту проблему мы пока не научились.»

Этот случай не единственный. Ранее в США 16-летний Адам Рейн также покончил с собой после общения с ChatGPT. Чат-бот, как сообщается, помогал ему “исследовать способы” суицида и даже предлагал помощь в написании предсмертной записки. Семья подростка подала в суд на OpenAI и Сэма Альтмана, обвиняя компанию в недостаточном тестировании ChatGPT.