Советуетесь с ИИ относительно здоровья? Учтите некоторые моменты!
10.02.2026
Другой риск — иллюзии восприятия (их называют «галлюцинациями»), когда чат-боты опускают важные детали или наоборот вставляют в свои ответы лишнюю, ненужную и невесть откуда взявшуюся информацию.
Самый опасный чат-бот имеет один из трёх признаков, которые я называю «три С»: он кажется слишком компетентными, слишком убедительным или слишком категоричным. Например, если он выражает полную уверенность в своих выводах, проявляет твердость или даже настойчивость, а внутренняя логика его алгоритма не предусматривает гибкости, позволяющей вносить изменения и давать скорее подсказки, нежели однозначные рекомендации, то он просто опасен для человека.
Подчинение такому чат-боту может привести к проблемам, таким как недоверие к настоящим врачам и неправильным действиям для собственного «исцеления».
Что в будущем?
Я бы рекомендовала использовать чат-боты главным образом для получения информации, но не для постановки диагноза. Чат-боты никогда не должны уверенно ставить диагноз, хорошая программа лишь помогает лучше разобраться в потоке информации.
Настоящего врача заменить невозможно, потому что он способен провести физический осмотр, а робот — нет. Еще важнее то, что врач обладает интуицией, имеет опыт и способен сопереживать пациенту. Врач знает, что такое боль, а робот — нет.
Чат-бот — это лишь помощник врача, иногда весьма неплохой, но никак не замена.
Источник: https://medicine.yale.edu/profile/shaili-gupta/




