Скопировано

Исследование: Не стоит полностью полагаться на чат-ботов в вопросах здоровья

12.05.2025
Дата публикации
На фоне перегруженности систем здравоохранения и роста цен в фармацевтике всё больше людей обращаются к ИИ-чат-ботам за советом по здоровью. Согласно недавнему опросу, каждый шестой взрослый американец использует такие сервисы как минимум раз в месяц.

Однако исследование, проведённое учёными из Оксфорда, показывает: полагаться на советы ИИ опасно.

Проблема не только в возможных ошибках бота, но и в том, что пользователи не знают, какую именно вводную информацию ему предоставлять.

Как рассказывает соавтор исследования Адам Махди из Оксфордского института интернета:

«Мы столкнулись с двусторонним непониманием: пользователи не получают от ИИ лучшего результата, чем при самостоятельном поиске или использовании обычного онлайн-поиска».

В эксперименте участвовали около 1300 человек в Великобритании. Они получали медицинские сценарии, написанные врачами, и должны были определить возможное заболевание и нужное действие — например, визит к терапевту или вызов скорой.

Испытуемые использовали несколько ИИ-моделей: GPT-4o (ChatGPT), Command R+ от Cohere и Llama 3 от Meta. Однако при взаимодействии с чат-ботами участники чаще ошибались и недооценивали серьёзность симптомов.

«Текущие методы оценки ИИ не учитывают сложности реального общения с людьми», — говорит Махди. Он считает, что ИИ-системы должны проходить «клинические испытания», как новые лекарства.

Между тем крупные компании всё активнее внедряют ИИ в сферу здравоохранения. Apple работает над советником по питанию и сну, Amazon — над анализом социальных факторов болезней, а Microsoft автоматизирует обработку сообщений от пациентов.

Однако эксперты и медики не уверены в готовности ИИ к серьёзным задачам. Американская медицинская ассоциация советует не использовать чат-ботов для принятия клинических решений.

Даже сами разработчики ИИ, включая OpenAI, предостерегают от постановки диагнозов по их рекомендациям.