Головна Новини Сім’я подали позови проти OpenAI через самогубства, пов’язані з ChatGPT

Сім’я подали позови проти OpenAI через самогубства, пов’язані з ChatGPT

Сім родин зі США ініціювали судові позови проти OpenAI, звинувативши компанію у запуску моделі GPT-4o без належних механізмів безпеки. Позивачі стверджують, що через недосконалість системи чотири випадки самогубств могли бути спровоковані або посилені впливом ChatGPT, а ще три позови стосуються погіршення психічного здоров’я користувачів, зокрема підсилення маревних станів, які потребували госпіталізації.

Про це розповідає KURAZH

Деталі позову: приклади впливу ChatGPT

У судових матеріалах наводиться історія 23-річного Зейна Шамбліна, який понад чотири години спілкувався з ChatGPT, відверто розповідаючи про свої суїцидальні наміри. За словами родин, чат-бот не припинив розмову та іноді навіть відповідав фразами, що, на думку позивачів, могли підштовхнути до трагічного кроку.

“У позовах стверджується, що OpenAI могла прискорити тестування безпеки, оскільки прагнула випередити Google Gemini”.

Ще один випадок стосується 16-річного Адама Рейна, який також використовував ChatGPT. Незважаючи на те, що чат-бот іноді радив звернутися по допомогу до фахівця, підліток знаходив шляхи обходу запобіжників, подаючи свої звернення як завдання з написання художнього тексту.

Відповідь OpenAI та проблеми тривалих діалогів

Після подання позову родиною Рейна, у жовтні OpenAI опублікувала на своєму блозі пояснення щодо обробки чутливих тем, пов’язаних із психічним здоров’ям. Компанія зазначила, що системи безпеки ChatGPT, як правило, діють ефективно під час коротких бесід. Водночас OpenAI визнала, що під час триваліших діалогів надійність захисних механізмів може знижуватися: із зростанням кількості повідомлень частина вбудованих запобіжників поступово слабшає.

Позивачі переконані, що OpenAI мала б ретельніше перевіряти безпеку своєї моделі, замість того щоб поспішати із запуском через конкуренцію з Google Gemini. Ці судові справи підкреслюють нагальність підвищення стандартів безпеки для штучного інтелекту, особливо у сферах, які можуть впливати на психічне здоров’я користувачів.

Тебе може зацікавити