Het X-platform van Elon Musk heeft nieuwe beperkingen geïmplementeerd op zijn Grok AI-chatbot om de creatie van geseksualiseerde deepfakes te voorkomen, met name afbeeldingen van echte mensen in onthullende kleding zoals bikini’s. De veranderingen komen onder toenemende juridische en politieke druk, waaronder een onderzoek door de procureur-generaal van Californië en dreigementen met verboden in Groot-Brittannië en andere landen.

Wettelijke en regelgevende reacties

Deze stap volgt op wijdverbreide kritiek nadat de Grok-chatbot werd gebruikt om niet-consensuele, expliciete beelden van beroemdheden en kinderen te genereren. De procureur-generaal van Californië, Rob Bonta, heeft geëist dat xAI, de ontwikkelaar van Grok, onmiddellijk actie onderneemt om dergelijke inhoud te verwijderen. De staat is bereid om “alle middelen die ons ter beschikking staan” te gebruiken om zijn inwoners te beschermen, wat mogelijke juridische gevolgen voor X aangeeft als deze niet hieraan voldoet.

“Dit materiaal… toont vrouwen en kinderen in naakte en seksueel expliciete situaties, en is gebruikt om mensen op internet lastig te vallen.” – Rob Bonta, procureur-generaal van Californië.

Tegelijkertijd heeft de Britse regering de output van de AI-tool veroordeeld als “schandelijk” en “walgelijk”, waarbij premier Keir Starmer dreigt met interventie als X niet zelfregulerend is. Indonesië en Maleisië hebben de toegang tot Grok al geblokkeerd.

Technische beperkingen geïmplementeerd

X kondigde aan dat het technologische maatregelen heeft ingezet om te voorkomen dat de AI expliciete beelden van echte mensen genereert. Deze omvatten:

  • Limieten voor het bewerken van afbeeldingen: De mogelijkheid om afbeeldingen via Grok te bewerken is nu beperkt tot uitsluitend betalende abonnees.
  • Geoblocking: X zal gebruikers geoblokkeren in rechtsgebieden waar het maken van dergelijke afbeeldingen illegaal is.
  • Contentmoderatie: Pogingen om deze beperkingen te omzeilen worden actief gecontroleerd.

De Sectie 230-vraag

De snelle beleidsverandering kan een reactie zijn op zorgen over juridische aansprakelijkheid. Experts suggereren dat X mogelijk niet volledig wordt beschermd door Sectie 230 van de Amerikaanse Communications Decency Act wanneer de eigen AI van het platform schadelijke inhoud genereert. Deze wet beschermt technologiebedrijven doorgaans tegen rechtszaken met betrekking tot door gebruikers gegenereerd materiaal, maar inhoud die rechtstreeks door de technologie van een app wordt gemaakt, kan aan verschillende wettelijke normen onderworpen zijn.

De snelle aanpassingen weerspiegelen de escalerende druk op X om de proliferatie van door AI gegenereerd misbruik op zijn platform aan te pakken. De situatie roept bredere vragen op over de verantwoordelijkheid van technologiebedrijven bij het controleren van de output van hun AI-instrumenten en de grenzen van wettelijke bescherming in het tijdperk van generatieve AI.