A plataforma X de Elon Musk implementou novas restrições em seu chatbot Grok AI para evitar a criação de deepfakes sexualizados, especificamente imagens que retratam pessoas reais em roupas reveladoras como biquínis. As mudanças ocorrem em meio à crescente pressão legal e política, incluindo uma investigação do procurador-geral da Califórnia e ameaças de proibições no Reino Unido e em outros países.
Reação Legal e Regulatória
A medida segue críticas generalizadas depois que o chatbot Grok foi usado para gerar imagens explícitas e não consensuais de celebridades e crianças. O procurador-geral da Califórnia, Rob Bonta, exigiu que a xAI, a desenvolvedora do Grok, tomasse medidas imediatas para remover esse conteúdo. O estado está preparado para usar “todas as ferramentas à nossa disposição” para proteger seus residentes, sinalizando possíveis consequências legais para X caso não cumpra.
“Este material… retrata mulheres e crianças nuas e em situações sexualmente explícitas e tem sido usado para assediar pessoas na Internet.” – Rob Bonta, procurador-geral da Califórnia.
Simultaneamente, o governo do Reino Unido condenou o resultado da ferramenta de IA como “vergonhoso” e “nojento”, com o primeiro-ministro Keir Starmer ameaçando intervir se X não se auto-regular. A Indonésia e a Malásia já bloquearam o acesso ao Grok.
Restrições Técnicas Implementadas
X anunciou que implementou medidas tecnológicas para evitar que a IA gere imagens explícitas de pessoas reais. Estes incluem:
- Limites de edição de imagens: A capacidade de editar imagens via Grok agora está restrita apenas a assinantes pagos.
- Bloqueio geográfico: o X bloqueará geograficamente usuários em jurisdições onde a criação de tais imagens é ilegal.
- Moderação de Conteúdo: As tentativas de contornar essas restrições serão monitoradas ativamente.
A pergunta da seção 230
A rápida mudança política pode ser uma resposta às preocupações sobre a responsabilidade legal. Especialistas sugerem que X pode não estar totalmente protegido pela Seção 230 da Lei de Decência nas Comunicações dos EUA quando a própria IA da plataforma gera conteúdo prejudicial. Essa lei normalmente protege as empresas de tecnologia de ações judiciais relacionadas a material gerado pelo usuário, mas o conteúdo criado diretamente pela tecnologia de um aplicativo pode estar sujeito a padrões legais diferentes.
Os rápidos ajustes refletem a pressão crescente sobre X para lidar com a proliferação de abusos gerados por IA na sua plataforma. A situação levanta questões mais amplas sobre a responsabilidade das empresas tecnológicas no controlo dos resultados das suas ferramentas de IA e os limites das proteções legais na era da IA generativa.
























