«Вдохновлённый своим опытом изучения диетологии в колледже, мужчина решил провести эксперимент, исключив соль из своего рациона, — говорится в отчёте о случае. — Он заменил поваренную соль на бромид натрия, который купил в интернете после разговора с ChatGPT. ИИ подсказал, что хлорид можно заменить бромидом, хотя, вероятно, в других целях, например, для уборки».
После трёх недель в больнице мужчину выписали.
Случай был описан в медицинском журнале American College of Physicians. Авторы обратились к читателям: «ChatGPT и другие ИИ-системы могут генерировать научные неточности и способствовать дезинформации».
OpenAI, создатель ChatGPT, подчёркивает, что в условиях использования чётко сказано: «Не стоит полагаться на наши услуги как на единственный источник достоверной информации или как на замену профессиональной консультации. Сервис не предназначен для постановки диагнозов или лечения заболеваний».
