В январе 2026 года компания OpenAI представила ChatGPT Health — инновационный сервис, который обещал индивидуальные рекомендации и детальный анализ состояния здоровья. Однако разработчики снова забыли подчеркнуть, что искусственный интеллект не является врачом, а лишь инструментом обработки данных, который может выдавать уверенные советы без медицинского образования. Несмотря на многочисленные предупреждения, пользователи начали воспринимать сервис как личного терапевта, что может привести к опасным последствиям.
Об этом сообщает KURAZH
Почему искусственный интеллект может ошибиться в критических ситуациях
Группа исследователей из больницы Mount Sinai Hospital провела масштабное тестирование ChatGPT Health, использовав 60 реальных клинических сценариев из 21 медицинской специальности. Результаты научной работы, опубликованные в Nature Medicine, выявили значительные риски использования ИИ в сложных случаях. Более 50% ситуаций, которые требовали экстренной госпитализации, получали от сервиса советы оставаться дома или обратиться к врачу через несколько дней. Это означает, что в случаях, когда каждая минута могла спасти жизнь, искусственный интеллект предлагал ждать и не спешить.
«В более чем половине случаев, когда пациенту была нужна немедленная госпитализация, ИИ спокойно советовал «остаться дома» или «записаться на прием к врачу» через несколько дней.»
Как социальный контекст влияет на решения ИИ
Особенно тревожным оказалось то, что ChatGPT Health подвержен социальному влиянию: если в обращении пользователь упоминает успокаивающее мнение родственников или друзей, вероятность ошибочного совета возрастает в 12 раз. Например, если пользователь напишет, что бабушка считает боль в груди несущественной, сервис с высокой вероятностью подтвердит это мнение, даже если симптомы указывают на серьезную проблему, такую как инфаркт.
В то же время алгоритмы демонстрируют и противоположную крайность: в 64% случаев, которые не требовали экстренной помощи, ChatGPT Health рекомендовал немедленное обращение в больницу. Такая реакция вызывает либо ложное чувство безопасности, либо, наоборот, перегрузку медицинских учреждений из-за необоснованной тревоги.
Похожие проблемы с точностью были зафиксированы и в Google AI Overviews, но в сфере медицинских советов эти недостатки имеют особенно опасные последствия для здоровья.
Пока OpenAI продолжает совершенствовать свои модели, вопрос ответственности остается неразрешенным. Кто понесет ответственность, если рекомендации алгоритма приведут к трагедии? На сегодняшний день разработчики защищаются мелким шрифтом в пользовательских соглашениях, а ученые подчеркивают необходимость прозрачного контроля и независимой оценки таких систем. Массовое внедрение ИИ в медицинской сфере без надлежащей проверки является опасным экспериментом для миллионов людей.
На фоне этих рисков многие технологические гиганты выбирают более безопасные пути внедрения искусственного интеллекта, например автоматизацию бюрократических процессов. В частности, AWS разрабатывает платформу для ведения медицинской документации, что на данный момент выглядит более ответственным использованием инноваций в сфере здравоохранения.