Una corte d’appello degli Stati Uniti ha respinto la richiesta dello sviluppatore di intelligenza artificiale Anthropic di sospendere una designazione del governo che etichetta l’azienda come un rischio per la catena di fornitura. Questa decisione mantiene una barriera significativa per la capacità dell’azienda di condurre affari con il Dipartimento della Difesa (DoD), segnando un momento cruciale nella crescente tensione tra sviluppatori privati di intelligenza artificiale e interessi militari federali.
Il nocciolo della controversia
Il conflitto nasce dalla decisione dell’amministrazione Trump di etichettare Anthropic un rischio per la sicurezza a febbraio. Questa designazione vieta di fatto agli appaltatori del Pentagono di utilizzare i modelli di intelligenza artificiale di Anthropic, come l’assistente Claude, su qualsiasi contratto del Dipartimento della Difesa.
L’attrito sembra essere radicato in un disaccordo fondamentale sui confini etici dell’implementazione dell’intelligenza artificiale. Secondo quanto riferito, Anthropic ha rifiutato di garantire ai militari un accesso illimitato ai suoi modelli, resistendo in particolare alle richieste di utilizzare la tecnologia per:
– Armi autonome letali che operano senza supervisione umana.
– Sorveglianza di massa dei cittadini americani.
Un contratto ad alto rischio in pericolo
Il momento di questa battaglia legale è fondamentale per le operazioni commerciali di Anthropic. Nel 2025, la società si è assicurata un contratto da 200 milioni di dollari per integrare la sua tecnologia nei sistemi militari. Da quell’accordo, Claude è diventato profondamente radicato nelle infrastrutture del governo degli Stati Uniti, tra cui:
– Reti di informazione classificate in tutto il governo federale.
– Laboratori nucleari nazionali.
– Flussi di lavoro di analisi dell’intelligence direttamente per il Dipartimento della Difesa.
L’etichetta di “rischio della catena di fornitura” minaccia di interrompere queste operazioni e potrebbe potenzialmente invalidare o complicare l’esecuzione di questo massiccio contratto.
L’argomentazione del governo: “Linee rosse aziendali”
Il Dipartimento della Difesa ha giustificato le sue azioni citando preoccupazioni sull’affidabilità dell’intelligenza artificiale durante i conflitti attivi. Nei documenti legali, il Dipartimento della Difesa ha sostenuto che Anthropic potrebbe “alterare preventivamente il comportamento” dei suoi modelli o disabilitarli completamente durante “operazioni di guerra” se l’azienda ritiene che le sue “linee rosse” etiche interne siano state superate.
In sostanza, il governo teme che il quadro morale o etico di un’azienda privata possa interferire con le operazioni di sicurezza nazionale durante una crisi.
Tiro alla fune legale
Anthropic sta attualmente combattendo questa designazione su due fronti, accusando l’amministrazione di una “campagna di ritorsione illegale” per il suo rifiuto di soddisfare le richieste militari.
Il panorama giuridico è attualmente diviso:
1. San Francisco: Anthropic ha recentemente vinto una causa separata in un tribunale di San Francisco, che ha costretto l’amministrazione a rimuovere un’etichetta simile.
2. Washington D.C.: La Corte d’Appello della circoscrizione di D.C. ha assunto una posizione diversa, rifiutandosi di revocare l’attuale designazione perché “l’importo preciso del danno finanziario di Anthropic non è chiaro”.
“Siamo grati che la corte abbia riconosciuto che questi problemi devono essere risolti rapidamente e rimaniamo fiduciosi che alla fine i tribunali concorderanno sul fatto che queste designazioni della catena di fornitura erano illegali”, ha dichiarato Anthropic dopo la sentenza.
Cosa succede dopo?
Anche se questo rappresenta una battuta d’arresto per Anthropic, la battaglia legale è lungi dall’essere finita. La corte d’appello ha fissato ulteriori udienze per maggio 2025, dove verranno presentate ulteriori prove sulla legalità della designazione e sull’entità del danno finanziario della società.
Conclusione: Questo caso evidenzia un crescente campo di battaglia legale ed etico riguardo al fatto se le società private di intelligenza artificiale abbiano il diritto di imporre vincoli etici sul modo in cui la loro tecnologia viene utilizzata dallo Stato. Le prossime udienze di maggio costituiranno un momento decisivo per determinare l’equilibrio tra autonomia aziendale ed esigenze di sicurezza nazionale.
























