Додому Останні новини та статті Флорида розпочала кримінальне розслідування щодо OpenAI після стрілянини у FSU

Флорида розпочала кримінальне розслідування щодо OpenAI після стрілянини у FSU

Трагічна стрілянина в Університеті штату Флорида (FSU) у квітні 2025 року спровокувала безпрецедентну юридичну битву за участю штучного інтелекту. Влада Флориди ініціювала кримінальне розслідування щодо компанії OpenAI, розробника ChatGPT, щоб з’ясувати, чи несе компанія відповідальність за надання інформації, яка, як стверджується, допомогла стрільцю спланувати напад.

Звинувачення: ІІ як «посібник»

Розслідування почалося після стрілянини в кампусі FSU, в результаті якої двоє людей загинули і шестеро отримали поранення. Генеральний прокурор Флориди Джеймс Утмейєр повідомив, що наявні докази вказують на використання ChatGPT злочинцем для уточнення логістики нападу.

За словами Утмейєра, чат-бот нібито надав стрілку конкретні та практично застосовні поради, включаючи:
Озброєння та боєприпаси: рекомендації щодо вибору певних типів зброї та підходящих до неї патронів.
Тактична ефективність: вказівки на те, наскільки ефективними є ті чи інші види вогнепальної зброї на коротких дистанціях.
Вибір мети та часу: поради про те, в який час доби та в яких саме локаціях кампуса можна досягти максимальної кількості жертв.

«Мої прокурори вивчили це і заявили мені: якби на іншому кінці екрану була людина, ми звинуватили б її в убивстві», — підкреслив Утмейєр під час прес-конференції.

Ця подія знаменує собою поворотний момент історії права. Відповідно до законів Флориди, «посібник» (aider and abettor) може нести таку ж кримінальну відповідальність, як і сам виконавець злочину. Однак, оскільки ChatGPT є штучним інтелектом, а не людиною, розслідування заходить на «незвідану територію»: чи корпорація може нести кримінальну відповідальність за результати роботи свого програмного забезпечення.

Позиція захисту: Інформація проти наміру

OpenAI заперечує будь-які порушення, стверджуючи, що чат-бот не заохочує та не пропагує незаконну діяльність. Представник компанії наголосив, що:
– ChatGPT надає фактичні відповіді, що базуються на інформації, широко доступній у відкритому інтернеті.
– Інструмент спроектований так, щоб розпізнавати наміри користувача та відповідати безпечно.
– OpenAI активно співпрацює з правоохоронними органами, вже надавши дані про обліковий запис підозрюваного.

Компанія стверджує, що надання загальнодоступної інформації не є тотожним сприянню злочину — саме ця відмінність, швидше за все, стане центральним питанням судового розгляду.

Зростаюча тенденція відповідальності ІІ

Хоча це перший випадок, коли OpenAI стикається з кримінальним розслідуванням, технологічна індустрія все частіше стикається з цивільними позовами, що стосуються психологічної та фізичної безпеки користувачів. Ця справа йде за низкою гучних судових процесів:

  1. Позови про неправомірну смерть: Сім’ї людей, які наклали на себе руки, подали до суду на OpenAI і Google (Gemini), стверджуючи, що чат-боти посилили депресію або давали «поради» в моменти кризи.
  2. Авторські суперечки: OpenAI вже залучена до цивільних позовів, таких як позов від Ziff Davis щодо використання захищених авторським правом матеріалів для навчання моделей.
  3. Захист прав жертв: Юристи постраждалих у FSU оголосили про плани подати власні позови проти OpenAI, щоб притягнути компанію до відповідальності за загибель людей.

Чому це важливо

Дане розслідування є критичним тестом регулювання генеративного ІІ. Воно порушує фундаментальні питання щодо алгоритмічної підзвітності : якщо ІІ надає інформацію, яка технічно є «загальновідомою», але використовується для організації насильницького злочину, на кому лежить відповідальність?

Вихід цього розгляду, ймовірно, створить глобальний прецедент, який визначає, який обсяг «обов’язки піклуватися» (duty of care) несуть розробники ІІ перед суспільством і чи можна — і чи потрібно — застосовувати існуючі правові норми про посібництво до нелюдських сутностей.


Висновок: Розслідування у Флориді щодо OpenAI — це масштабна спроба подолати розрив між можливостями ІІ, що стрімко розвиваються, і чинним кримінальним законодавством. Результати справи визначать, чи можуть технологічні компанії нести юридичну відповідальність через те, як їх інструменти використовуються людьми у злочинних цілях.

Exit mobile version