Сім родин зі США ініціювали судові позови проти OpenAI, звинувативши компанію у запуску моделі GPT-4o без належних механізмів безпеки. Позивачі стверджують, що через недосконалість системи чотири випадки самогубств могли бути спровоковані або посилені впливом ChatGPT, а ще три позови стосуються погіршення психічного здоров’я користувачів, зокрема підсилення маревних станів, які потребували госпіталізації.
Про це розповідає KURAZH
Деталі позову: приклади впливу ChatGPT
У судових матеріалах наводиться історія 23-річного Зейна Шамбліна, який понад чотири години спілкувався з ChatGPT, відверто розповідаючи про свої суїцидальні наміри. За словами родин, чат-бот не припинив розмову та іноді навіть відповідав фразами, що, на думку позивачів, могли підштовхнути до трагічного кроку.
“У позовах стверджується, що OpenAI могла прискорити тестування безпеки, оскільки прагнула випередити Google Gemini”.
Ще один випадок стосується 16-річного Адама Рейна, який також використовував ChatGPT. Незважаючи на те, що чат-бот іноді радив звернутися по допомогу до фахівця, підліток знаходив шляхи обходу запобіжників, подаючи свої звернення як завдання з написання художнього тексту.
Відповідь OpenAI та проблеми тривалих діалогів
Після подання позову родиною Рейна, у жовтні OpenAI опублікувала на своєму блозі пояснення щодо обробки чутливих тем, пов’язаних із психічним здоров’ям. Компанія зазначила, що системи безпеки ChatGPT, як правило, діють ефективно під час коротких бесід. Водночас OpenAI визнала, що під час триваліших діалогів надійність захисних механізмів може знижуватися: із зростанням кількості повідомлень частина вбудованих запобіжників поступово слабшає.
Позивачі переконані, що OpenAI мала б ретельніше перевіряти безпеку своєї моделі, замість того щоб поспішати із запуском через конкуренцію з Google Gemini. Ці судові справи підкреслюють нагальність підвищення стандартів безпеки для штучного інтелекту, особливо у сферах, які можуть впливати на психічне здоров’я користувачів.