La plateforme X d’Elon Musk a mis en place de nouvelles restrictions sur son chatbot Grok AI pour empêcher la création de deepfakes sexualisés, en particulier d’images représentant de vraies personnes portant des vêtements révélateurs comme des bikinis. Les changements surviennent dans un contexte de pression juridique et politique croissante, notamment une enquête du procureur général de Californie et des menaces d’interdiction au Royaume-Uni et dans d’autres pays.
Contrecoup juridique et réglementaire
Cette décision fait suite à de nombreuses critiques après que le chatbot Grok ait été utilisé pour générer des images explicites et non consensuelles de célébrités et d’enfants. Le procureur général de Californie, Rob Bonta, a exigé que xAI, le développeur de Grok, prenne des mesures immédiates pour supprimer ce contenu. L’État est prêt à utiliser « tous les outils à notre disposition » pour protéger ses résidents, signalant des conséquences juridiques potentielles pour X s’il ne s’y conforme pas.
“Ce matériel… représente des femmes et des enfants nus et dans des situations sexuellement explicites, a été utilisé pour harceler les gens sur Internet.” – Rob Bonta, procureur général de Californie.
Dans le même temps, le gouvernement britannique a condamné les résultats de l’outil d’IA comme étant « honteux » et « dégoûtants », le Premier ministre Keir Starmer menaçant d’intervenir si X ne s’autorégule pas. L’Indonésie et la Malaisie ont déjà bloqué l’accès à Grok.
Restrictions techniques mises en œuvre
X a annoncé avoir déployé des mesures technologiques pour empêcher l’IA de générer des images explicites de personnes réelles. Ceux-ci incluent :
- Limites d’édition d’images : La possibilité d’éditer des images via Grok est désormais réservée aux abonnés payants uniquement.
- Géoblocage : X géobloquera les utilisateurs dans les juridictions où la création de telles images est illégale.
- Modération du contenu : Les tentatives visant à contourner ces restrictions seront activement surveillées.
La question de l’article 230
Le changement rapide de politique pourrait être une réponse aux préoccupations concernant la responsabilité juridique. Les experts suggèrent que X n’est peut-être pas entièrement protégé par l’article 230 de la loi américaine sur la décence en matière de communications lorsque la propre IA de la plateforme génère du contenu préjudiciable. Cette loi protège généralement les entreprises technologiques des poursuites liées au matériel généré par les utilisateurs, mais le contenu créé directement par la technologie d’une application pourrait être soumis à des normes juridiques différentes.
Ces ajustements rapides reflètent la pression croissante exercée sur X pour lutter contre la prolifération des abus générés par l’IA sur sa plateforme. La situation soulève des questions plus larges sur la responsabilité des entreprises technologiques dans le contrôle des résultats de leurs outils d’IA et sur les limites des protections juridiques à l’ère de l’IA générative.
























