A OpenAI está fortalecendo as medidas de segurança em seu chatbot ChatGPT após intenso escrutínio e desafios legais alegando que a IA contribuiu para suicídios de adolescentes. A empresa anunciou uma atualização em suas especificações de modelo, projetada para fornecer uma “experiência segura e adequada à idade” para usuários de 13 a 17 anos. Essa mudança ocorre no momento em que vários processos por homicídio culposo afirmam que o ChatGPT não respondeu adequadamente à ideação suicida ou até mesmo encorajou a automutilação.
Crescentes preocupações com a saúde mental dos adolescentes
O recente aumento de ações judiciais e a reação pública, incluindo um anúncio perturbador de serviço público retratando os chatbots de IA como figuras prejudiciais, forçaram a OpenAI a abordar a questão diretamente. Um caso envolve o suicídio de Adam Raine, de 16 anos, onde a OpenAI nega a culpa. Apesar destas negações, a pressão aumentou, levando a empresa a comprometer-se a dar prioridade à segurança dos adolescentes “mesmo quando esta possa entrar em conflito com outros objectivos”.
Novas salvaguardas para usuários mais jovens
A atualização introduz proteções mais rígidas para usuários adolescentes. O ChatGPT agora priorizará a prevenção, a transparência e a intervenção precoce em conversas de alto risco. Isso significa que a IA incentivará ativamente os adolescentes a buscar suporte off-line ou entrar em contato com serviços de emergência ao discutir tópicos como automutilação, suicídio ou comportamento perigoso. A OpenAI também está implementando um modelo de previsão de idade para adaptar ainda mais as salvaguardas.
Contribuição de especialistas e recursos adicionais
A American Psychological Association (APA) forneceu feedback sobre os princípios da OpenAI para menores de 18 anos, enfatizando a importância de equilibrar as ferramentas de IA com a interação humana real para um desenvolvimento saudável. Arthur C. Evans Jr., CEO da APA, afirmou que a IA pode beneficiar os adolescentes se for integrada de forma responsável. A OpenAI também está lançando guias de alfabetização em IA aprovados por especialistas para adolescentes e pais.
Debate contínuo e conflitos jurídicos
Especialistas em segurança infantil continuam a levantar preocupações sobre os riscos dos chatbots de IA nas discussões sobre saúde mental de adolescentes. A OpenAI afirma que seu modelo mais recente, ChatGPT-5.2, é “mais seguro”, mas o ceticismo permanece. Também é importante observar que a controladora do Mashable, Ziff Davis, está atualmente processando a OpenAI por suposta violação de direitos autorais.
Em última análise, a atualização da OpenAI representa uma medida reativa às crescentes pressões legais e de segurança pública. A eficácia a longo prazo destas mudanças ainda não foi vista, mas a medida sinaliza um reconhecimento crescente dos potenciais danos que a IA pode infligir aos jovens utilizadores vulneráveis.
Se você está enfrentando pensamentos suicidas ou uma crise de saúde mental, há recursos disponíveis. Você pode ligar ou enviar uma mensagem de texto para 988, bater um papo em 988lifeline.org ou entrar em contato com outras linhas de suporte listadas no artigo original.