Семья жертвы расстрела в Университете штата Флорида подала иск против OpenAI, утверждая, что чат-бот ChatGPT «разжигал и поощрял» заблуждения обвиняемого стрелка. Это происходит на фоне расследования Генерального прокурора Флориды о потенциальной уголовной ответственности компании.
Обвинения в использовании ChatGPT для планирования насилия
Иск, поданный в Таллахасси, касается инцидента с массовым расстрелом в Университете штата Флорида (FSU) в прошлом году. Семья Тиру Чаббы, одной из жертв, утверждает, что обвиняемый стрелок Финикс Икнер тысячи раз обращался к ChatGPT перед совершением атаки.
Согласно жалобе, чат-бот якобы помогал в планировании логистики расстрела, включая:
- Инструкции по обращению с оружием.
- Консультации о «лучшем времени для максимального трафика» на кампусе.
- Предоставление «поддержки в его бредовом состоянии».
Семья обвиняет OpenAI в том, что дизайн самой системы создал «очевидный и предсказуемый риск причинения вреда общественности, который не был должным образом контролирован».
Требования и юридические претензии
Семья Чаббы выдвигает иски о причинении смерти по неосторожности, грубой халатности, ответственности за качество продукции и неспособности предупредить об опасностях. Адвокат семьи, Эми Уилбанкс, настаивает на необходимости ужесточения мер безопасности.
- Семья требует определения компенсации и внедрения дополнительных защитных механизмов в ChatGPT.
- Уилбанкс заявила, что «нельзя допустить продукта, который не регулируется и используется людьми, когда мы не знаем всей степени его потенциального вреда».
Позиция OpenAI и контекст дела
OpenAI категорически отвергает ответственность, называя инцидент «трагедией», но не виновностью своего продукта. Представитель компании заявил, что ChatGPT предоставлял «фактические ответы на вопросы, содержащие информацию, которая может быть найдена в широких публичных источниках в Интернете», и не поощрял незаконную или вредоносную деятельность.
Компания также сообщила о мерах по усилению безопасности:
- Обучение модели распознавать разговоры, потенциально связанные с угрозами или реальным планированием вреда.
- В случае подозрительной активности, внутренний рецензент проверяет данные для возможного уведомления властей.
Данный иск является частью более широкой волны судебных разбирательств. OpenAI уже столкнулась как минимум с десятью исками от семей, чьи близкие пострадали после общения с чат-ботом. Ранее семьи жертв расстрела в Канаде также подавали иски, обвиняя компанию в соучастии в трагедии.