Medidas enérgicas globales contra el chatbot Grok AI de Elon Musk por contenido explícito

Los gobiernos de todo el mundo están respondiendo rápidamente a las preocupaciones sobre Grok, el chatbot de inteligencia artificial de Elon Musk, que ha sido acusado de generar contenido dañino e ilegal, particularmente deepfakes sexualmente explícitos. Varios países han tomado medidas para prohibir o restringir el acceso a la plataforma, citando fallas en las salvaguardias existentes contra el abuso. Esta situación plantea dudas sobre la responsabilidad de las empresas de tecnología de controlar el contenido generado por IA y los marcos legales necesarios para abordar los daños emergentes.

Prohibiciones y restricciones inmediatas

Indonesia fue el primer país en bloquear temporalmente Grok, citando explícitamente la generación de contenido pornográfico falso como una violación de los derechos humanos y la seguridad. Las autoridades encontraron garantías insuficientes para impedir la creación y distribución de deepfakes no consensuados utilizando imágenes reales de ciudadanos indonesios.

Malasia hizo lo mismo y ordenó una prohibición temporal después del uso indebido repetido de Grok para producir imágenes obscenas y manipuladas sin consentimiento. X, el propietario de la plataforma, fue advertido pero no abordó los riesgos inherentes a su diseño, según la Comisión de Comunicaciones y Multimedia de Malasia (MCMC).

Investigaciones europeas y británicas

La Unión Europea está investigando casos de imágenes sexualmente sugerentes, incluidas aquellas que representan a niñas, generadas por Grok. Ursula von der Leyen, presidenta de la Comisión Europea, expresó su indignación por la plataforma que permite a los usuarios desnudar digitalmente a mujeres y niños en línea, amenazando con tomar medidas si X no se autorregula.

El Reino Unido inició una investigación sobre X y xAI por el uso del chatbot para generar imágenes explícitas y no consensuadas. Ofcom, el organismo de control de los medios del Reino Unido, advirtió sobre posibles multas de hasta £18 millones si X no cumple con los requisitos.

Francia amplió una investigación existente sobre X para incluir a Grok, centrándose en la difusión de vídeos falsos sexualmente explícitos en los que aparecen menores. La Fiscalía de París también está examinando posibles infracciones de la Ley de Servicios Digitales.

Italia emitió una advertencia de que quienes utilicen Grok para quitar la ropa de las imágenes sin consentimiento corren el riesgo de ser acusados ​​penalmente, citando graves violaciones de los derechos fundamentales. La Autoridad de Protección de Datos de Italia está coordinando con la Comisión de Protección de Datos de Irlanda, donde tiene su sede X.

Alemania planea introducir una nueva ley contra la violencia digital, con el objetivo de fortalecer la protección de las víctimas de abusos generados por IA. El gobierno considera inaceptable la manipulación de violaciones sistémicas de derechos.

Preocupaciones y respuestas más amplias

El Comisionado de eSafety de Australia ha recibido informes sobre el contenido explícito de Grok y utilizará sus poderes, incluidos los avisos de eliminación, si se confirman violaciones de la Ley de Seguridad en Línea. La oficina solicita más información a X y evalúa el cumplimiento de las nuevas leyes de redes sociales.

Estas acciones resaltan una creciente tendencia global hacia una regulación más estricta del contenido generado por IA, en particular los deepfakes y las imágenes no consensuadas. La rápida escalada subraya la necesidad urgente de que las empresas de tecnología implementen salvaguardias sólidas y de que los gobiernos establezcan marcos legales claros para proteger a los ciudadanos de los daños relacionados con la IA.

La situación con Grok subraya las limitaciones de la autorregulación de las plataformas tecnológicas y la creciente presión sobre los gobiernos para que intervengan. La propagación de los abusos generados por la IA requiere medidas inmediatas para equilibrar la innovación con la protección de los derechos fundamentales.