Советуетесь с ИИ относительно здоровья? Учтите некоторые моменты!

Автор: Meg Dalton, Yale University

10.02.2026

Другой риск — иллюзии восприятия (их называют «галлюцинациями»), когда чат-боты опускают важные детали или наоборот вставляют в свои ответы лишнюю, ненужную и невесть откуда взявшуюся информацию.

Самый опасный чат-бот имеет один из трёх признаков, которые я называю «три С»: он кажется слишком компетентными, слишком убедительным или слишком категоричным. Например, если он выражает полную уверенность в своих выводах, проявляет твердость или даже настойчивость, а внутренняя логика его алгоритма не предусматривает гибкости, позволяющей вносить изменения и давать скорее подсказки, нежели однозначные рекомендации, то он просто опасен для человека.

Подчинение такому чат-боту может привести к проблемам, таким как недоверие к настоящим врачам и неправильным действиям для собственного «исцеления».

Что в будущем?

Я бы рекомендовала использовать чат-боты главным образом для получения информации, но не для постановки диагноза. Чат-боты никогда не должны уверенно ставить диагноз, хорошая программа лишь помогает лучше разобраться в потоке информации.

Настоящего врача заменить невозможно, потому что он способен провести физический осмотр, а робот — нет. Еще важнее то, что врач обладает интуицией, имеет опыт и способен сопереживать пациенту. Врач знает, что такое боль, а робот — нет. 

Чат-бот — это лишь помощник врача, иногда весьма неплохой, но никак не замена.

Источник: https://medicine.yale.edu/profile/shaili-gupta/

Метки:

ЗАМЕТКИ, ОЧЕРКИ, ФОТО
Здоровье
ЗДОРОВЬЕ
Медицина