Die X-Plattform von Elon Musk hat neue Beschränkungen für seinen Grok-KI-Chatbot eingeführt, um die Erstellung sexualisierter Deepfakes zu verhindern, insbesondere Bilder, die echte Menschen in freizügiger Kleidung wie Bikinis zeigen. Die Änderungen erfolgen vor dem Hintergrund wachsenden rechtlichen und politischen Drucks, einschließlich einer Untersuchung des kalifornischen Generalstaatsanwalts und der Androhung von Verboten im Vereinigten Königreich und anderen Ländern.
Rechtliche und regulatorische Gegenreaktion
Der Schritt folgt auf weit verbreitete Kritik, nachdem der Grok-Chatbot dazu verwendet wurde, nicht einvernehmliche, explizite Bilder von Prominenten und Kindern zu generieren. Der kalifornische Generalstaatsanwalt Rob Bonta hat xAI, den Entwickler von Grok, aufgefordert, unverzüglich Maßnahmen zu ergreifen, um solche Inhalte zu entfernen. Der Staat ist bereit, „alle uns zur Verfügung stehenden Mittel“ zu nutzen, um seine Bewohner zu schützen, und weist auf mögliche rechtliche Konsequenzen für X hin, wenn er dieser Verpflichtung nicht nachkommt.
„Dieses Material … zeigt Frauen und Kinder in nackten und sexuell eindeutigen Situationen und wurde zur Belästigung von Menschen im Internet verwendet.“ – Rob Bonta, Generalstaatsanwalt von Kalifornien.
Gleichzeitig hat die britische Regierung die Ergebnisse des KI-Tools als „schändlich“ und „ekelhaft“ verurteilt und Premierminister Keir Starmer mit einem Eingreifen gedroht, wenn X sich nicht selbst reguliert. Indonesien und Malaysia haben den Zugang zu Grok bereits blockiert.
Technische Einschränkungen implementiert
X gab bekannt, dass es technische Maßnahmen ergriffen hat, um zu verhindern, dass die KI explizite Bilder von echten Menschen erzeugt. Dazu gehören:
- Einschränkungen bei der Bildbearbeitung: Die Möglichkeit, Bilder über Grok zu bearbeiten, ist jetzt nur noch zahlenden Abonnenten vorbehalten.
- Geoblocking: X wird Benutzer in Gerichtsbarkeiten geoblocken, in denen die Erstellung solcher Bilder illegal ist.
- Inhaltsmoderation: Versuche, diese Einschränkungen zu umgehen, werden aktiv überwacht.
Die Frage nach Abschnitt 230
Die rasche Änderung der Politik könnte eine Reaktion auf Bedenken hinsichtlich der rechtlichen Haftung sein. Experten vermuten, dass X möglicherweise nicht vollständig durch Abschnitt 230 des U.S. Communications Decency Act geschützt ist, wenn die eigene KI der Plattform schädliche Inhalte generiert. Dieses Gesetz schützt Technologieunternehmen normalerweise vor Klagen im Zusammenhang mit benutzergeneriertem Material, aber Inhalte, die direkt durch die Technologie einer App erstellt werden, könnten anderen rechtlichen Standards unterliegen.
Die raschen Anpassungen spiegeln den zunehmenden Druck auf X wider, der Verbreitung von KI-generiertem Missbrauch auf seiner Plattform entgegenzuwirken. Die Situation wirft umfassendere Fragen zur Verantwortung von Technologieunternehmen bei der Kontrolle der Ergebnisse ihrer KI-Tools und zu den Grenzen des Rechtsschutzes im Zeitalter der generativen KI auf.
