В США зарегистрирован первый случай убийства, связанный с ChatGPT

421     0
В США зарегистрирован первый случай убийства, связанный с ChatGPT
В США зарегистрирован первый случай убийства, связанный с ChatGPT

Бывший сотрудник Yahoo Стайн-Эрик Сольберг, страдавший от параноидальных мыслей, расправился с матерью, а затем покончил с собой после общения с чат-ботом ChatGPT.

Об этом пишет газета The Wall Street Journal (WSJ).

По данным издания, это является первым зафиксированным случаем, когда психически нестабильный человек совершил убийство под влиянием искусственного интеллекта (ИИ). В публикации говорится, что чат-бот неоднократно подталкивал мужчину к укреплению недоверия к окружающим, в том числе к собственной матери. Сольберг даже дал ИИ имя «Бобби» и интересовался у него, будут ли они вместе после смерти, на что, как сообщается, получал утвердительный ответ.

Также газета привела примеры диалогов, которые повлияли на трагический исход. Например, когда мать сделала замечание сыну из-за того, что тот отключил общий принтер, ChatGPT предположил, что женщина могла защищать «средство слежки». В другой переписке Сольберг заявил чат-боту, что мать якобы пыталась его отравить через вентиляцию автомобиля. На что нейросеть ответила, что «верит» мужчине, и заявила о предательстве матери. Однажды Сольберг показал ИИ чек за блюдо китайской кухни. В нем ИИ нашел отсылки к матери Сольберга, а также символ, используемый для призыва демона. ИИ также предупреждал собеседника, что окружающие, в том числе курьер, могут его отравить.

В WSJ отметили, что после случившегося представитель компании OpenAI, разработчика ChatGPT, выразил соболезнования и обратился в полицию. В официальном заявлении компания подчеркнула, что в ближайшее время выпустит обновление чат-бота, которое должно помочь пользователям с нестабильной психикой.

Комментарии:

comments powered by Disqus