O chatbot de IA de Elon Musk, Grok, limitou significativamente a geração de imagens e os recursos de edição para a maioria dos usuários, após a indignação generalizada com a criação de deepfakes explícitos, visando principalmente mulheres. A plataforma, acessível através da plataforma de mídia social X de Musk, enfrentou severas críticas enquanto os pesquisadores documentavam casos em que o chatbot atendia a solicitações mal-intencionadas de usuários para modificar imagens em conteúdo sexualmente sugestivo. Alguns conteúdos gerados pareciam até retratar crianças, aumentando ainda mais a condenação global.
Condenação e investigações globais
Os governos de todo o mundo reagiram fortemente, com vários iniciando investigações sobre as práticas da plataforma. A União Europeia classificou o comportamento de Grok como “ilegal” e “terrível”, enquanto autoridades em França, Índia, Malásia e Brasil exigiram inquéritos imediatos. No Reino Unido, o primeiro-ministro Keir Starmer condenou a situação como “repugnante” e prometeu ações não especificadas contra X, apoiando o Ofcom, o regulador dos meios de comunicação social, a tomar medidas decisivas. Tanto o Ofcom quanto o regulador de privacidade do Reino Unido entraram em contato com a empresa de IA de X e Musk, xAI, solicitando detalhes sobre a conformidade com as regulamentações britânicas.
Mudança para acesso pago
A partir de sexta-feira, Grok começou a exibir uma mensagem para a maioria dos usuários que tentam gerar ou editar imagens: “A geração e edição de imagens estão atualmente limitadas a assinantes pagantes. Você pode se inscrever para desbloquear esses recursos”. Embora os números exatos de assinantes permaneçam não divulgados, a mudança parece ter reduzido o volume de deepfakes explícitos produzidos pelo chatbot.
Limitações da correção
Os especialistas em segurança cibernética, no entanto, alertam que restringir o acesso a utilizadores pagos não é uma solução abrangente. Charlotte Wilson, chefe empresarial da Check Point, argumenta que “não impedirá determinados infratores” e nada fará para resolver os danos já infligidos às vítimas cujas imagens foram exploradas. O problema é agravado pelo posicionamento de Grok como uma alternativa irrestrita aos modelos de IA mais moderados e à visibilidade pública das imagens geradas, facilitando a rápida disseminação pela Internet.
O que vem a seguir?
O incidente sublinha os desafios da moderação de conteúdos gerados por IA, especialmente em plataformas que dão prioridade à liberdade de expressão. Para resolver eficazmente o problema, os especialistas recomendam bloquear avisos explícitos ao nível do modelo, em vez de apenas desencorajá-los. A situação levanta questões mais amplas sobre a responsabilidade da plataforma, as implicações éticas da geração de imagens de IA e a necessidade de salvaguardas robustas contra a utilização maliciosa.
As atuais restrições à Grok são uma medida reativa, mas uma solução duradoura exigirá controlos técnicos proativos e uma mudança fundamental na forma como estas plataformas dão prioridade à segurança em detrimento da liberdade criativa desenfreada.
