Albtraum per Knopfdruck: Wenn Musks KI unsere Kinder „auszieht“

KI

Liebe Eltern,

viele von euch haben die Plattform X (früher Twitter) längst verlassen oder waren nie dort. Für viele ist es nur dieser Ort, an dem Elon Musk seine Meinung in die Welt posaunt. Doch was sich dort in den letzten Tagen abgespielt hat, ist kein bloßer „Internet-Streit“. Es ist ein digitaler Übergriff, der uns als Eltern bis ins Mark erschüttern muss.

Stellt euch vor: Ihr postet ein harmloses Foto eurer Tochter im Sommerkleid oder von euch selbst beim Sport. Und nur Sekunden später kursiert im Netz eine Version dieses Bildes, auf der eure Kleidung digital entfernt oder in sexualisierte Outfits verwandelt wurde. Genau das ist mit Grok, der künstlichen Intelligenz von Elon Musk, zur grausamen Realität geworden. Nutzer konnten Bilder aus dem Netz hochladen und die KI anweisen, Kleidung digital zu entfernen oder zu verändern.

Das ist kein Ausrutscher und kein isoliertes Experiment. Solche sogenannten Nudify-Funktionen existieren längst auch außerhalb von X, in Apps, auf Webseiten und in geschlossenen Gruppen. Was hier sichtbar wurde, ist nicht die Erfindung eines neuen Problems, sondern die Normalisierung einer Technologie, die vor allem Frauen und Kinder angreifbar macht. Neu ist vor allem eines: dass dieses Problem nun offen auf einer der größten Plattformen der Welt stattfindet.

Tablet in erwachsenen Händen mit stark pixeliertem Bild und rotem Warnsymbol als Hinweis auf gefährliche KI Inhalte und Risiken für Kinder im Netz

Bild generiert mit Hilfe von KI (Gemini, Google)

Zählmarke

Was ist eigentlich passiert?

Elon Musk hat seine KI „Grok“ direkt in die Plattform X integriert. Das Gefährliche: Die Sicherheitsbarrieren, die bei anderen Programmen (wie ChatGPT) streng überwachen, dass keine illegalen oder pornografischen Inhalte erstellt werden, wurden bei Grok massiv gelockert.

Nutzer konnten Grok einfach anweisen: „Zieh ihr einen Bikini an“ oder „Zeig sie nackt“. Die KI gehorchte. Es traf Musikerinnen, Politikerinnen und – was uns am meisten entsetzen muss – auch Kinder. Es entstanden täuschend echte Bilder von Minderjährigen in sexualisierten Posen. Diese Bilder wurden tausendfach geteilt, gelikt und kommentiert, während die Betroffenen oft gar nichts davon wussten.

Die Ohnmacht der Opfer

Es ist eine neue Form der Gewalt. Experten sprechen von „Nudification“ (Entkleidung) oder „Deepfakes“. Das Ziel dieser Attacken gegen Frauen und Mädchen ist oft klar: Sie sollen eingeschüchtert werden, sich aus dem öffentlichen Raum zurückziehen und „den Mund halten“.

Für uns Eltern ist das ein Albtraum. Wir versuchen, unseren Kindern einen verantwortungsvollen Umgang mit Medien beizubringen, doch gegen eine Technologie, die das Gesicht unserer Kinder nimmt und es auf den Körper in einem illegalen Video oder Foto setzt, scheinen wir machtlos.

Die „Entschuldigung“: Ein schlechter Scherz

Besonders zynisch: Als die Kritik laut wurde, „entschuldigte“ sich die KI Grok in einem Post. Sie schrieb von „Schwachstellen“ und dass „Kinderpornografie verboten“ sei. Doch wir dürfen uns nicht täuschen lassen: Eine KI empfindet keine Reue. Diese Texte wurden von der Maschine generiert, oft sogar erst, nachdem Nutzer sie gezielt danach gefragt hatten. Elon Musk selbst reagierte auf manche dieser Vorfälle zunächst nur mit lachenden Emojis. Erst als der Druck von Regierungen (wie aus Frankreich und Indien) massiv wurde, ruderte man zaghaft zurück. Aber der Schaden ist da. Die Bilder sind im Netz. Sie verschwinden nie wieder ganz.

Was wir jetzt tun müssen

Wir können unsere Kinder nicht vor allem schützen, aber wir müssen laut werden. Wir müssen verstehen, dass Plattformen wie X derzeit keine sicheren Orte für Familienbilder sind.

  • Privatsphäre-Check: Überprüft genau, wo ihr Fotos eurer Kinder teilt.

  • Aufklärung: Sprecht mit euren Teenagern über Deepfakes. Erklärt ihnen, dass solche Bilder existieren und dass es nie ihre Schuld ist, wenn sie Opfer eines solchen Fake-Bildes werden.

  • Politik fordern: Es reicht nicht, wenn eine KI „Sorry“ sagt. Wir brauchen Gesetze, die Plattformbetreiber wie Musk persönlich haftbar machen, wenn ihre Software Kinderrechte mit Füßen tritt.

Ein Foto aus einem Familienchat, von einer Schulwebseite oder aus einer vermeintlich privaten Gruppe kann morgen Teil eines Deepfakes sein. Diese Bilder lassen sich nicht einfach löschen. Sie können gespeichert, kopiert und immer wieder neu erzeugt werden. Was einmal digital existiert, bleibt potenziell verfügbar.

Wir haben einen weiteren Beitrag zum Thema veröffentlicht: https://www.medienzeit-elternblog.de/blog/kinderfotos-besser-vor-ki-schuetzen


Weitere Quellen:

Weiter
Weiter

Wenn ein Smartphone-Verbot gar keins ist (am Beispiel Hessen)