Una tragica sparatoria di massa alla Florida State University (FSU) nell’aprile 2025 ha innescato una battaglia legale senza precedenti che coinvolge l’intelligenza artificiale. Le autorità della Florida hanno avviato un’indagine penale contro OpenAI, lo sviluppatore di ChatGPT, per determinare se la società è responsabile di aver fornito informazioni che avrebbero aiutato l’assassino nella pianificazione dell’attacco.
Le accuse: l’IA come “aiutante e complice”
L’indagine segue una sparatoria nel campus della FSU che ha provocato la morte di due persone e il ferimento di altre sei. Il procuratore generale della Florida James Uthmeier ha rivelato che le prove suggeriscono che l’autore del reato ha utilizzato ChatGPT per perfezionare la logistica dell’attacco.
Secondo Uthmeier, il chatbot avrebbe fornito consigli specifici e attuabili all’assassino, tra cui:
– Armi e munizioni: raccomandazioni su tipi specifici di armi e munizioni corrispondenti.
– Utilità tattica: indicazioni sull’efficacia di determinate armi da fuoco a breve distanza.
– Targeting e tempistiche: Consigli su quali orari del giorno e quali luoghi specifici del campus massimizzerebbero il contatto con il maggior numero di persone.
“I miei procuratori hanno esaminato la situazione e mi hanno detto che, se dall’altra parte dello schermo ci fosse una persona, l’accuseremmo di omicidio”, ha dichiarato Uthmeier in una conferenza stampa.
Ciò segna un momento cruciale nella storia del diritto. Secondo la legge della Florida, un “aiutante e complice” può essere ritenuto penalmente responsabile quanto l’autore del reato. Tuttavia, poiché ChatGPT è un’intelligenza artificiale piuttosto che una persona, l’indagine entra in un “territorio inesplorato” per verificare se una società possa essere ritenuta penalmente responsabile per i risultati del suo software.
La difesa: informazione contro intenzione
OpenAI ha negato qualsiasi addebito, sostenendo che il chatbot non incoraggia né promuove attività illegali. Un portavoce dell’azienda ha sottolineato che:
– ChatGPT fornisce risposte fattuali basate su informazioni ampiamente disponibili su Internet pubblica.
– Lo strumento è progettato per comprendere le intenzioni e rispondere in modo sicuro.
– OpenAI è stata proattiva nel collaborare con le forze dell’ordine, avendo identificato e condiviso con le autorità le informazioni relative al conto del sospettato.
La società sostiene che fornire informazioni pubbliche non equivale a facilitare un reato, una distinzione che probabilmente sarà al centro del procedimento giudiziario.
Un modello crescente di responsabilità nei confronti dell’IA
Anche se questa è la prima volta che OpenAI affronta un’indagine penale, l’industria tecnologica si trova sempre più ad affrontare contenziosi civili riguardanti la sicurezza psicologica e fisica degli utenti. Questo caso segue una serie di cause legali di alto profilo:
- Affermazioni di morte ingiusta: le famiglie di persone morte per suicidio hanno citato in giudizio OpenAI e Google (Gemini), sostenendo che i chatbot hanno peggiorato la depressione o fornito “coaching” durante i momenti di crisi.
- Controversie sul copyright: OpenAI è già coinvolta in controversie civili, come una causa intentata da Ziff Davis riguardante l’uso di materiale protetto da copyright per addestrare i suoi modelli.
- Difesa delle vittime: I rappresentanti legali delle vittime della FSU hanno annunciato l’intenzione di intentare azioni legali contro OpenAI per ritenere la società responsabile delle morti.
Perché è importante
Questa indagine rappresenta un test critico per la regolamentazione dell’IA generativa. Solleva domande fondamentali sulla responsabilità algoritmica : se un’intelligenza artificiale fornisce informazioni che sono tecnicamente di “conoscenza pubblica” ma vengono utilizzate per orchestrare un crimine violento, dove risiede la responsabilità?
L’esito di questa indagine costituirà probabilmente un precedente globale su quanto “dovere di diligenza” gli sviluppatori di intelligenza artificiale debbano nei confronti della società e se gli attuali quadri giuridici per l’aiuto e il favoreggiamento possano – o debbano – essere applicati a entità non umane.
Conclusione: L’indagine della Florida su OpenAI segna un tentativo fondamentale di colmare il divario tra le capacità di intelligenza artificiale in rapido progresso e le leggi penali esistenti. I risultati determineranno se le aziende tecnologiche possono essere ritenute legalmente responsabili per il modo in cui i loro strumenti vengono utilizzati come armi da individui.
