Опасный совет ИИ: американец попал в больницу из-за рекомендаций ChatGPT

Опасный совет ИИ: американец попал в больницу из-за рекомендаций ChatGPT

Трагикомический случай произошёл в США, где 60-летний житель Вашингтона оказался в психиатрической клинике после трёхмесячного следования советам искусственного интеллекта.

История началась с благих намерений: мужчина решил исключить соль из своего рациона и обратился за помощью к ChatGPT. Нейросеть предложила ему в качестве замены натрийбромид, который пациент начал принимать, заказывая вещество через интернет. Спустя время у мужчины начали проявляться тревожные симптомы: он стал утверждать, что сосед пытается его отравить, отказывался пить любую воду, кроме самостоятельно приготовленной дистиллированной. Врачи диагностировали у пациента нарушение солевого баланса и появление галлюцинаций.

Состояние больного ухудшилось настолько, что потребовалось его принудительное помещение в психиатрическую клинику. У пациента диагностировали редкую форму интоксикации бромидом — веществом, которое ранее использовалось в седативных препаратах, но сейчас практически не применяется в медицине.

После трёх недель лечения состояние пациента стабилизировалось. Примечательно, что при тестировании выяснилось: ChatGPT действительно предлагает натрийбромид как альтернативу соли, но без каких-либо предупреждений о возможных рисках для здоровья.

Рейтинг@Mail.ru