OpenAI sta rafforzando le misure di sicurezza nel suo chatbot ChatGPT a seguito di un intenso controllo e di sfide legali secondo cui l’intelligenza artificiale avrebbe contribuito ai suicidi degli adolescenti. La società ha annunciato un aggiornamento alle specifiche del modello, progettato per fornire “un’esperienza sicura e adatta all’età” per gli utenti di età compresa tra 13 e 17 anni. Questa mossa arriva quando numerose cause legali per omicidio colposo affermano che ChatGPT non è riuscito a rispondere adeguatamente all’idea suicidaria o addirittura ha incoraggiato l’autolesionismo.
Crescenti preoccupazioni per la salute mentale degli adolescenti
La recente ondata di cause legali e reazioni pubbliche, incluso un inquietante annuncio di servizio pubblico che descriveva i chatbot IA come figure dannose, ha costretto OpenAI ad affrontare direttamente la questione. Un caso riguarda il suicidio del sedicenne Adam Raine, di cui OpenAI nega la colpevolezza. Nonostante queste smentite, la pressione è aumentata, portando l’azienda a impegnarsi a dare priorità alla sicurezza degli adolescenti “anche quando potrebbe entrare in conflitto con altri obiettivi”.
Nuove tutele per gli utenti più giovani
L’aggiornamento introduce guardrail più severi per gli utenti adolescenti. ChatGPT ora darà priorità alla prevenzione, alla trasparenza e all’intervento precoce nelle conversazioni ad alto rischio. Ciò significa che l’intelligenza artificiale incoraggerà attivamente gli adolescenti a cercare supporto offline o a contattare i servizi di emergenza quando si parla di argomenti come autolesionismo, suicidio o comportamenti pericolosi. OpenAI sta inoltre implementando un modello di previsione dell’età per personalizzare ulteriormente le garanzie.
Contributi degli esperti e risorse aggiuntive
L’American Psychological Association (APA) ha fornito feedback sui principi di OpenAI per i minori di 18 anni, sottolineando l’importanza di bilanciare gli strumenti di intelligenza artificiale con l’interazione umana reale per uno sviluppo sano. Il dottor Arthur C. Evans Jr., CEO dell’APA, ha affermato che l’intelligenza artificiale può avvantaggiare gli adolescenti se è integrata in modo responsabile. OpenAI sta inoltre rilasciando guide di alfabetizzazione sull’intelligenza artificiale controllate da esperti per adolescenti e genitori.
Dibattito in corso e conflitti legali
Gli esperti di sicurezza infantile continuano a sollevare preoccupazioni sui rischi dei chatbot basati sull’intelligenza artificiale nelle discussioni sulla salute mentale degli adolescenti. OpenAI afferma che il suo ultimo modello, ChatGPT-5.2, è “più sicuro”, ma rimane lo scetticismo. È anche importante notare che la società madre di Mashable, Ziff Davis, sta attualmente facendo causa a OpenAI per presunta violazione del copyright.
In definitiva, l’aggiornamento di OpenAI rappresenta una misura reattiva alle crescenti pressioni legali e sulla sicurezza pubblica. L’efficacia a lungo termine di questi cambiamenti resta da vedere, ma la mossa segnala un crescente riconoscimento del potenziale danno che l’IA può infliggere ai giovani utenti vulnerabili.
Se stai lottando con pensieri suicidi o con una crisi di salute mentale, sono disponibili delle risorse. Puoi chiamare o inviare un messaggio al 988, chattare su 988lifeline.org o contattare altre linee di supporto elencate nell’articolo originale.