Додому Dernières nouvelles et articles Répression mondiale contre le chatbot Grok AI d’Elon Musk pour contenu explicite

Répression mondiale contre le chatbot Grok AI d’Elon Musk pour contenu explicite

Répression mondiale contre le chatbot Grok AI d’Elon Musk pour contenu explicite

Les gouvernements du monde entier réagissent rapidement aux inquiétudes concernant Grok, le chatbot IA d’Elon Musk, accusé de générer des contenus préjudiciables et illégaux, en particulier des deepfakes sexuellement explicites. Plusieurs pays ont décidé d’interdire ou de restreindre l’accès à la plateforme, invoquant les défaillances des garanties existantes contre les abus. Cette situation soulève des questions sur la responsabilité des entreprises technologiques dans le contrôle du contenu généré par l’IA et sur les cadres juridiques nécessaires pour remédier aux préjudices émergents.

Interdictions et restrictions immédiates

L’Indonésie a été le premier pays à bloquer temporairement Grok, citant explicitement la génération de faux contenus pornographiques comme une violation des droits de l’homme et de la sécurité. Les autorités ont trouvé des garanties insuffisantes pour empêcher la création et la distribution de deepfakes non consensuels utilisant des images de vrais citoyens indonésiens.

La Malaisie a emboîté le pas, ordonnant une interdiction temporaire après une utilisation abusive répétée de Grok pour produire des images manipulées obscènes et non consensuelles. X, le propriétaire de la plateforme, a été averti mais n’a pas pris en compte les risques inhérents à sa conception, selon la Commission malaisienne des communications et du multimédia (MCMC).

Enquêtes européennes et britanniques

L’Union européenne enquête sur des cas d’images à caractère sexuel, notamment celles représentant des jeunes filles, générées par Grok. Ursula von der Leyen, présidente de la Commission européenne, s’est déclarée indignée par la plateforme permettant aux utilisateurs de déshabiller numériquement des femmes et des enfants en ligne, menaçant de prendre des mesures si X ne s’autorégule pas.

Le Royaume-Uni a lancé une enquête sur X et xAI concernant l’utilisation du chatbot pour générer des images explicites et non consensuelles. L’Ofcom, l’organisme de surveillance des médias du Royaume-Uni, a mis en garde contre des amendes potentielles pouvant atteindre 18 millions de livres sterling si X ne se conforme pas aux exigences.

La France a élargi une enquête existante sur X pour inclure Grok, en se concentrant sur la diffusion de fausses vidéos sexuellement explicites mettant en scène des mineurs. Le parquet de Paris examine également de potentiels manquements à la loi sur le numérique.

L’Italie a émis un avertissement indiquant que ceux qui utilisent Grok pour retirer des vêtements d’images sans consentement s’exposent à des poursuites pénales, invoquant de graves violations des droits fondamentaux. L’autorité italienne de protection des données se coordonne avec la commission irlandaise de protection des données, où X a son siège.

L’Allemagne prévoit d’introduire une nouvelle loi contre la violence numérique, visant à renforcer la protection des victimes d’abus générés par l’IA. Le gouvernement considère que la manipulation en vue de violations systémiques des droits est inacceptable.

Préoccupations et réponses plus larges

Le commissaire australien à la sécurité électronique a reçu des rapports sur le contenu explicite de Grok et utilisera ses pouvoirs, y compris les avis de suppression, si des violations de la loi sur la sécurité en ligne sont confirmées. Le bureau demande plus d’informations à X et évalue la conformité avec les nouvelles lois sur les médias sociaux.

Ces actions mettent en évidence une tendance mondiale croissante vers une réglementation plus stricte du contenu généré par l’IA, en particulier les deepfakes et les images non consensuelles. Cette escalade rapide souligne la nécessité urgente pour les entreprises technologiques de mettre en œuvre des mesures de protection solides et pour les gouvernements d’établir des cadres juridiques clairs pour protéger les citoyens des méfaits liés à l’IA.

La situation avec Grok souligne les limites de l’autorégulation par les plateformes technologiques et la pression croissante exercée sur les gouvernements pour qu’ils interviennent. La propagation des abus générés par l’IA nécessite une action immédiate pour équilibrer l’innovation et la protection des droits fondamentaux.

Exit mobile version