Советуетесь с ИИ относительно здоровья? Учтите некоторые моменты!
10.02.2026
Доктора теперь всё чаще встречают пациентов, гораздо лучше информированных в вопросах функционирования собственного организма и задающих уточняющие вопросы, чем раньше. В чём дело? Сегодня, кроме врача, люди консультируются с чат-ботами вроде ChatGPT и даже иногда не воспринимают точку зрения сидящего перед ними специалиста как заслуживающую большего доверия.
Наш сегодняшний собеседник — доктор Шайли Гупта (Dr. Shaili Gupta), доцент кафедры общей медицины Йельского университета, но сначала уточним термины.
Слово «чат-бот», а изначально «chatter-bot», состоит из двух слов: первое в английском языке означает «непринуждённый разговор», по сути «болтовня»; а второе — сокращение от «robot» — автоматизированная программа, выполняющая действия по заданному алгоритму.
Таким образом, беседуя с чат-ботом (ещё его называют ИИ или нейросетью), помните, что вы общаетесь с автоматическим болтуном.
Кстати, ИИ (искусственный интеллект) — это перевод с английского «artificial intelligence», но первое слово в языке оригинала имеет ещё одно значение — фальшивый, поэтому вы разговариваете с автоматическим болтуном, наделённым фальшивым интеллектом.
В одном случае, вспоминает доктор Гупта, человек почувствовал боль в груди, обратился за консультацией к чат-боту и получил заключение, что дела у него плохи. Даже последующая тщательная проверка параметров работы сердца, показавшая, что с ним всё в порядке, его не разубедила — он больше доверял электронному роботу с фальшивым интеллектом.
«Иногда пациента чрезвычайно сложно убедить, что характер его боли не сердечного происхождения, даже несмотря на то, что тщательное тестирование позволило обнаружить истинную причину», — говорит доктор Гупта. «Чат-боты обучены так, чтобы сразу же предположить наиболее серьёзную причину жалобы человека и тем самым побудить его срочно обратиться к врачу».
Согласно недавнему отчету компании OpenAI, разработавшей ChatGPT, ежедневно более 40 миллионов человек используют её бот для получения информации о здоровье. Совсем недавно оба сервиса — ChatGPT и Claude, серия языковых моделей, разработанных компанией Anthropic, — объявили о запуске услуг предоставления потребителям советов в области здоровья.
Однако специалисты предупреждают, что чат-боты часто предоставляют ложные и даже вредные рекомендации людям, пытающимся самостоятельно диагностировать заболевания или заниматься самолечением, особенно когда речь идет о вопросах, касающихся психики. Это осложняет работу настоящих врачей.
«С одной стороны, эти программы обеспечили доступный источник информации в области здоровья, что замечательно, — говорит доктор Гупта, — но с другой, теперь пациенты сначала получают массу различной информации, а затем приходят на прием, где мы вынуждены отделять семена от плевел, фактически занимаясь их просвещением и переориентацией и опровергая дезинформацию».




