У січні 2026 року компанія OpenAI презентувала ChatGPT Health — інноваційний сервіс, що обіцяв індивідуальні рекомендації та детальний аналіз стану здоровʼя. Проте розробники забули вкотре наголосити, що штучний інтелект не є лікарем, а лише інструментом обробки даних, який може видавати впевнені поради без медичної освіти. Незважаючи на численні попередження, користувачі почали ставитися до сервісу як до особистого терапевта, що може призвести до небезпечних наслідків.
Про це розповідає KURAZH
Чому штучний інтелект може помилитися в критичних ситуаціях
Група дослідників з лікарні Mount Sinai Hospital провела масштабне тестування ChatGPT Health, використавши 60 реальних клінічних сценаріїв із 21 медичної спеціалізації. Результати наукової роботи, опубліковані у Nature Medicine, виявили значні ризики використання ШІ у складних випадках. Понад 50% ситуацій, які вимагали екстреної госпіталізації, отримували від сервісу поради залишатися вдома або звернутися до лікаря через декілька днів. Це означає, що у випадках, де кожна хвилина могла врятувати життя, штучний інтелект пропонував чекати та не поспішати.
“У понад половині випадків, коли пацієнту була потрібна негайна госпіталізація, ШІ спокійно радив «залишитися вдома» або «записатися на прийом до лікаря» через кілька днів.”
Як соціальний контекст впливає на рішення ШІ
Особливо тривожним виявилося те, що ChatGPT Health піддається соціальному впливу: якщо у зверненні користувач згадує про заспокійливу думку родичів чи друзів, ймовірність помилкової поради зростає у 12 разів. Наприклад, якщо користувач напише, що бабуся вважає біль у грудях несерйозною, сервіс із високою ймовірністю підтвердить цю думку, навіть якщо симптоми вказують на серйозну проблему, таку як інфаркт.
Водночас алгоритми демонструють і протилежну крайність: у 64% випадків, що не потребували екстреної допомоги, ChatGPT Health рекомендував негайне звернення до лікарні. Така реакція спричиняє або хибне відчуття безпеки, або навпаки — перевантаження медичних закладів через необґрунтовану тривогу.
Схожі проблеми з точністю були зафіксовані й у Google AI Overviews, але у сфері медичних порад ці недоліки мають особливо небезпечні наслідки для здоровʼя.
Поки OpenAI продовжує вдосконалювати свої моделі, питання відповідальності залишається невирішеним. Хто нестиме відповідальність, якщо рекомендації алгоритму призведуть до трагедії? На сьогодні розробники захищаються дрібним шрифтом у користувацьких угодах, а науковці наголошують на необхідності прозорого контролю та незалежної оцінки таких систем. Масове впровадження ШІ у медичній сфері без належної перевірки є небезпечним експериментом для мільйонів людей.
На тлі цих ризиків чимало технологічних гігантів вибирають більш безпечні шляхи впровадження штучного інтелекту, наприклад автоматизацію бюрократичних процесів. Зокрема, AWS розробляє платформу для ведення медичної документації, що наразі виглядає більш відповідальним використанням інновацій у сфері охорони здоровʼя.