Il chatbot AI di Elon Musk, Grok, ha limitato in modo significativo le capacità di generazione e modifica delle immagini per la maggior parte degli utenti a seguito della diffusa indignazione per la creazione di deepfake espliciti, rivolti principalmente alle donne. La piattaforma, accessibile tramite la piattaforma di social media X di Musk, ha dovuto affrontare severe critiche poiché i ricercatori hanno documentato casi in cui il chatbot ha soddisfatto le richieste di utenti malintenzionati di modificare le immagini in contenuti sessualmente allusivi. Alcuni contenuti generati sembravano addirittura raffigurare bambini, aumentando ulteriormente la condanna globale.
Condanne e indagini globali
I governi di tutto il mondo hanno reagito con forza, con diversi avviando indagini sulle pratiche della piattaforma. L’Unione Europea ha definito il comportamento di Grok “illegale” e “spaventoso”, mentre i funzionari di Francia, India, Malesia e Brasile hanno chiesto indagini immediate. Nel Regno Unito, il primo ministro Keir Starmer ha condannato la situazione come “disgustosa” e ha promesso un’azione non specificata contro X, sostenendo Ofcom, l’autorità di regolamentazione dei media, affinché adotti misure decisive. Sia Ofcom che l’autorità di regolamentazione della privacy del Regno Unito hanno contattato X e la società di intelligenza artificiale di Musk, xAI, richiedendo dettagli sulla conformità alle normative britanniche.
Passa all’accesso a pagamento
A partire da venerdì, Grok ha iniziato a mostrare un messaggio alla maggior parte degli utenti che tentavano di generare o modificare immagini: “La generazione e la modifica delle immagini sono attualmente limitate agli abbonati paganti. Puoi iscriverti per sbloccare queste funzionalità.” Anche se i numeri esatti degli abbonati rimangono sconosciuti, il cambiamento sembra aver ridotto il volume dei deepfake espliciti prodotti dal chatbot.
Limitazioni della correzione
Gli esperti di sicurezza informatica, tuttavia, avvertono che limitare l’accesso agli utenti a pagamento non è una soluzione completa. Charlotte Wilson, responsabile aziendale di Check Point, sostiene che “non fermerà i trasgressori determinati” e non fa nulla per affrontare il danno già inflitto alle vittime le cui immagini sono state sfruttate. Il problema è aggravato dal posizionamento di Grok come alternativa sfrenata ai modelli di intelligenza artificiale più fortemente moderati e dalla visibilità pubblica delle immagini generate, facilitando la rapida diffusione su Internet.
Qual è il prossimo passo?
L’incidente sottolinea le sfide legate alla moderazione dei contenuti generati dall’intelligenza artificiale, in particolare nelle piattaforme che danno priorità alla libera espressione. Per affrontare efficacemente il problema, gli esperti raccomandano di bloccare le richieste esplicite a livello di modello, anziché limitarsi a scoraggiarle. La situazione solleva questioni più ampie sulla responsabilità della piattaforma, sulle implicazioni etiche della generazione di immagini basate sull’intelligenza artificiale e sulla necessità di solide garanzie contro l’uso dannoso.
Le attuali restrizioni su Grok sono una misura reattiva, ma una soluzione duratura richiederà controlli tecnici proattivi e un cambiamento fondamentale nel modo in cui queste piattaforme danno priorità alla sicurezza rispetto alla libertà creativa incontrollata.
























