Американец оказался в психиатрической клинике после соблюдения рекомендаций ChatGPT

432     0
Американец оказался в психиатрической клинике после соблюдения рекомендаций ChatGPT
Американец оказался в психиатрической клинике после соблюдения рекомендаций ChatGPT

Житель США оказался в психиатрической больнице на принудительном лечении после того, как следовал совету ChatGPT и в течение трех месяцев вместо соли использовал бромид, что привело к отравлению и вызвало психоз.

Об этом говорится в статье медиков из Американской коллегии врачей и Американской кардиологической ассоциации, опубликованной в журнале Annals of Internal Medicine.

Пациент обратился в больницу с паранойей, галлюцинациями, он также отказывался от воды. Мужчина предполагал, что его отравил сосед. Врачи обследовали его, быстро обнаружили отравление бромидом и положили в больницу на принудительное лечение в психиатрическом отделении.

Мужчина рассказал, что хотел снизить потребление соли и по совету ChatGPT заменил его на бромид, купленный в интернете.

Врачи проверили ChatGPT и подтвердили, что искусственный интеллект мог рекомендовать такую замену без предупреждения об опасности. Мужчина выздоровел и был выписан через три недели.

Бромид раньше использовали в медицине, но потом отказались из-за его токсичности при длительном применении, отмечают врачи из Университета Вашингтона. Сейчас вещество встречается лишь в некоторых ветеринарных препаратах и добавках.

ChatGPT в последние годы начал выдавать ложные и абсурдные утверждения, сводя некоторых пользователей с ума, сообщила ранее The Wall Street Journal (WSJ). Искусственный интеллект заявлял о контактах с инопланетянами и будущем апокалипсисе. Врачи назвали это «психозом искусственного интеллекта», когда ИИ усиливает заблуждения и иллюзии пользователей. Некоторые люди тратили большие деньги по советам чат-бота или разрывали отношения с близкими. OpenAI признала проблему и пообещала запретить нейросети давать советы по важным личным вопросам.

Комментарии:

comments powered by Disqus