Додому Últimas notícias e artigos X proíbe imagens explícitas geradas por IA após pressão legal

X proíbe imagens explícitas geradas por IA após pressão legal

A plataforma X de Elon Musk implementou novas restrições em seu chatbot Grok AI para evitar a criação de deepfakes sexualizados, especificamente imagens que retratam pessoas reais em roupas reveladoras como biquínis. As mudanças ocorrem em meio à crescente pressão legal e política, incluindo uma investigação do procurador-geral da Califórnia e ameaças de proibições no Reino Unido e em outros países.

Reação Legal e Regulatória

A medida segue críticas generalizadas depois que o chatbot Grok foi usado para gerar imagens explícitas e não consensuais de celebridades e crianças. O procurador-geral da Califórnia, Rob Bonta, exigiu que a xAI, a desenvolvedora do Grok, tomasse medidas imediatas para remover esse conteúdo. O estado está preparado para usar “todas as ferramentas à nossa disposição” para proteger seus residentes, sinalizando possíveis consequências legais para X caso não cumpra.

“Este material… retrata mulheres e crianças nuas e em situações sexualmente explícitas e tem sido usado para assediar pessoas na Internet.” – Rob Bonta, procurador-geral da Califórnia.

Simultaneamente, o governo do Reino Unido condenou o resultado da ferramenta de IA como “vergonhoso” e “nojento”, com o primeiro-ministro Keir Starmer ameaçando intervir se X não se auto-regular. A Indonésia e a Malásia já bloquearam o acesso ao Grok.

Restrições Técnicas Implementadas

X anunciou que implementou medidas tecnológicas para evitar que a IA gere imagens explícitas de pessoas reais. Estes incluem:

  • Limites de edição de imagens: A capacidade de editar imagens via Grok agora está restrita apenas a assinantes pagos.
  • Bloqueio geográfico: o X bloqueará geograficamente usuários em jurisdições onde a criação de tais imagens é ilegal.
  • Moderação de Conteúdo: As tentativas de contornar essas restrições serão monitoradas ativamente.

A pergunta da seção 230

A rápida mudança política pode ser uma resposta às preocupações sobre a responsabilidade legal. Especialistas sugerem que X pode não estar totalmente protegido pela Seção 230 da Lei de Decência nas Comunicações dos EUA quando a própria IA da plataforma gera conteúdo prejudicial. Essa lei normalmente protege as empresas de tecnologia de ações judiciais relacionadas a material gerado pelo usuário, mas o conteúdo criado diretamente pela tecnologia de um aplicativo pode estar sujeito a padrões legais diferentes.

Os rápidos ajustes refletem a pressão crescente sobre X para lidar com a proliferação de abusos gerados por IA na sua plataforma. A situação levanta questões mais amplas sobre a responsabilidade das empresas tecnológicas no controlo dos resultados das suas ferramentas de IA e os limites das proteções legais na era da IA ​​generativa.

Exit mobile version