Мужчина составил диету с помощью ChatGPT и оказался в Скорой помощи
18.08.2025
Другое исследование шести генеративных моделей (1) показало, что большие языковые модели, включая ChatGPT, подвержены галлюциногенным приступам, создающим ложные клинические рекомендации, представляющие опасность при использовании без соответствующих мер предосторожности. Инженерные исправления способны уменьшить количество ошибок, но не устранят их полностью. Это подчеркивает ещё одну область риска в принятии медицинских решений с использованием больших языковых моделей.
Эта статья информативная и не предоставляет медицинскую или диетологическую консультацию.
Исследование: 1.https://www.nature.com/articles/s43856-025-01021-3
Источник: https://www.acpjournals.org/doi/10.7326/aimcc.2024.1260