Fake-Nacktbilder durch KI: So schützen wir unsere Kinder

Was ist passiert?

Stellt euch vor: Ein ganz normales Selfie Ihres Kindes – harmlos, freundlich, vielleicht aus dem Urlaub oder der Schule. Doch plötzlich kursiert im Klassenchat ein Bild, das Ihr Kind angeblich nackt zeigt. Das Gesicht stimmt. Der Hintergrund sieht vertraut aus. Doch der Körper? Gefälscht – erstellt von einer sogenannten „Nudify-App“.

Mädchen weint mit Smartphone in der Hand

Bild erstellt mit künstlicher Intelligenz (ChatGPT / DALL·E von OpenAI)

Zählmarke

Was wie ein Science-Fiction-Szenario klingt, ist leider Realität. Mit Hilfe von Künstlicher Intelligenz (KI) lassen sich mittlerweile in Sekunden Fake-Nacktbilder von echten Personen erzeugen. Oft genügt ein einziges Foto, um ein digitales Nacktbild zu erstellen – ohne dass die betroffene Person etwas davon weiß oder zugestimmt hat.

Dabei kommen Apps zum Einsatz wie UnidreamNudify AI oder Nake.ai – sie versprechen mit wenigen Klicks „KI-generierte Kunst“ oder sogar „Deepnudes“ und sind über App-Stores, Telegram oder Websites leicht zu finden. Viele tarnen sich als harmlose Bildbearbeitungsprogramme, hinter denen sich jedoch eine gefährliche Funktion versteckt: das digitale Entkleiden realer Menschen.

Warum dieser Artikel wichtig ist

Diese Apps verbreiten sich rasant. Sie sind leicht zugänglich, funktionieren auf dem Handy und treffen unsere Kinder in ihrer empfindlichsten Phase: der Pubertät. Wer betroffen ist, erlebt massive Scham, Angst und in vielen Fällen soziale Ausgrenzung oder Mobbing. Die Täter? Oft andere Jugendliche – manchmal aus Neugier, manchmal aus Rache oder Gruppenzwang.

Als Eltern ist es unsere Aufgabe, zu verstehen, was da gerade passiert – und wie wir unsere Kinder davor schützen können. Dieser Artikel erklärt einfach, was Nudify-Apps sind, wie sie funktionieren, warum sie so gefährlich sind und was Eltern konkret tun können.

Was bedeutet "Undress AI"?

„Undress AI“ bedeutet übersetzt: „Ausziehen mit künstlicher Intelligenz“. Es handelt sich dabei um Programme, die aus einem harmlosen Portraitfoto ein täuschend echtes Nacktfoto erstellen. Die KI berechnet auf Basis von Gesicht, Hautfarbe und Kleidung, wie der Körper unter der Kleidung aussehen könnte. Dabei greift sie auf riesige Bilddatenbanken zu – und ergänzt das Portraitfoto um erfundene, nackte Körperteile.

Das Ergebnis: Deepfake-Nacktbilder. Also Bilder, die es in Wirklichkeit nie gegeben hat – aber so aussehen, als wären sie echt.

Solche Bilder werden auch als „DeepNudes“ bezeichnet und fallen in die Kategorie der sogenannten Deepfakes – also KI-generierter Fälschungen.

Wie funktionieren Nudify-Apps – und warum breiten sie sich so schnell aus?

Der Markt für sogenannte Nudify-Apps wächst stark: Über 60 solcher KI-Dienste sind allein in den letzten zwei Jahren entstanden – Tendenz steigend. Viele von ihnen werden in China oder Russland entwickelt, aber auch in Europa und den USA sprießen neue Angebote aus dem Boden.

Die Funktionsweise ist erschreckend einfach: Man lädt ein Foto hoch – oft reicht ein normales Selfie – und die KI „zieht“ die Person mithilfe trainierter Bildmodelle digital aus. Die künstliche Intelligenz analysiert das Gesicht, passt Hauttöne an und setzt den Kopf dann auf einen computergenerierten nackten Körper. Dabei wirkt das Ergebnis für Laien oft täuschend echt – gerade auf kleinen Smartphone-Bildschirmen oder in schlechter Bildqualität.

Manche Dienste gehen noch weiter: Sie bieten sogar animierte Videos oder interaktive Bilder an, lassen sich über Telegram-Bots steuern oder direkt in soziale Netzwerke integrieren. Einige Apps arbeiten mit Abo-Modellen, andere verdienen Geld mit Werbung oder verlangen Einmalzahlungen für besonders „realistische“ Ergebnisse.

Was früher noch Wochen an Photoshop-Arbeit bedeutete, geht heute in Sekunden. Kein technisches Wissen nötig. Kein Skrupel eingebaut.

Warum Kinder und Jugendliche besonders betroffen sind

1. Digitale Grenzverletzung mit echtem Schmerz

Für betroffene Kinder fühlt sich ein Fake-Nacktbild genauso schlimm an wie ein echtes. Es ist eine massive Grenzüberschreitung. Sie erleben Scham, Ekel, Hilflosigkeit – und in vielen Fällen Spott und Mobbing. Denn auch wenn es sich technisch um ein „gefälschtes“ Bild handelt, fühlt sich die Demütigung real an.

Die Opfer werden häufig geächtet, bloßgestellt oder sogar bedroht. Studien zeigen: Solche digitalen Übergriffe können zu Depressionen, Angststörungen, Schulvermeidung oder im schlimmsten Fall zu Suizidgedanken führen.

2. Vertrauensbruch im Freundeskreis

Erschreckend viele Täter sind selbst Kinder oder Jugendliche – aus Neugier, aus Langeweile oder als „Racheakt“ nach einem Streit oder einer Trennung. Die Hemmschwelle ist niedrig, denn: „Ich habe ja nur eine App benutzt.“ Das Bewusstsein, dass hier echtes Leid entsteht, fehlt oft völlig.

Zugleich geraten Kinder auch ungewollt in solche Bilder hinein. Es reicht, wenn jemand ein Selfie klaut oder aus einem Social-Media-Profil ein öffentliches Bild speichert. Gerade Mädchen sind überproportional betroffen – nicht nur, weil viele Apps auf weibliche Körper optimiert sind, sondern auch, weil Nacktbilder bei Mädchen stärker sexualisiert werden.

3. Kaum Schutz, kaum Hilfe

Die meisten dieser Dienste sitzen im Ausland, agieren anonym und reagieren nicht auf Beschwerden. Eltern und Kinder stoßen schnell an Grenzen: Die Polizei ist oft überfordert oder kann technisch nicht helfen. Plattformen wie Instagram oder TikTok reagieren zwar auf Meldungen – aber oft zu spät.

Noch gravierender: Viele Eltern erfahren überhaupt nichts davon, weil sich ihre Kinder aus Scham nicht trauen, über die Bilder zu sprechen.

Was sagt das Gesetz? Und wo reicht es (noch) nicht?

In Deutschland sind solche Bilder in vielen Fällen bereits strafbar – selbst wenn sie „nur“ digital erstellt wurden. Wer ein Nacktbild erstellt oder verbreitet, das den Eindruck erweckt, eine echte Person sei nackt abgebildet, kann wegen Verletzung des Rechts am eigenen BildVerleumdungBeleidigung oder sogar Sexualdelikten belangt werden – insbesondere, wenn Minderjährige betroffen sind.

Doch es gibt eine Lücke: Wenn das Bild nicht als "real" erkennbar ist, sondern als "künstlich erzeugt", greifen viele Gesetze noch nicht. Juristen fordern deshalb klare Regelungen für sogenannte Deepfake-Pornografie, insbesondere zum Schutz von Kindern und Jugendlichen. Auch Plattformen sollen gesetzlich stärker verpflichtet werden, solche Inhalte schnell zu löschen und die Täter zu identifizieren.

Junge hält Smartphone in den Händen

Bild erstellt mit künstlicher Intelligenz (ChatGPT / DALL·E von OpenAI)

Was Eltern konkret tun können

1. Offen reden – ohne Scham

Sprechen Sie mit Ihrem Kind frühzeitig über digitale Grenzverletzungen – genau wie über andere Formen von Mobbing oder Gewalt. Wichtig ist: Ihr Kind muss wissen, dass es sich an Sie wenden kann, ohne Angst vor Schuldzuweisungen oder Strafen zu haben. Auch wenn Ihr Kind selbst etwas weitergeleitet oder aus Neugier ausprobiert hat: Bleiben Sie ruhig und verständnisvoll.

2. Privatsphäre schützen

Erklären Sie Ihrem Kind, warum es wichtig ist, keine öffentlich sichtbaren Fotos von sich zu posten – vor allem keine Selfies in Badebekleidung, Sportklamotten oder enger Kleidung. Je weniger Angriffsfläche ein Bild bietet, desto schwerer fällt es den Apps, es zu missbrauchen.

3. Verdachtsmomente ernst nehmen

Wenn Ihr Kind sich zurückzieht, ängstlich wirkt oder plötzlich nicht mehr in die Schule will, sprechen Sie es sensibel darauf an. Fragen Sie direkt, ob etwas im Netz passiert ist. Zeigen Sie, dass Sie helfen wollen – nicht strafen.

4. Beweise sichern – und Hilfe holen

Falls ein gefälschtes Bild auftaucht: Speichern Sie Screenshots und Links. Melden Sie die Inhalte sofort bei der Plattform und informieren Sie ggf. die Schule oder die Polizei. Kontaktieren Sie auch Beratungsstellen wie Nummer gegen Kummerjugendschutz.net oder Hassmelden.de.

5. Politisch Druck machen

Viele Eltern fragen sich: Warum gibt es diese Apps überhaupt noch? Warum tut die Politik nichts? Die Antwort: Das Thema ist noch neu – aber es braucht uns Eltern als Stimme. Schreiben Sie an Abgeordnete, unterstützen Sie Petitionen oder sprechen Sie das Thema in Elternabenden und Schulen an. Je mehr wir darüber reden, desto größer wird der Druck auf Gesetzgeber, Plattformen und Anbieter.

Was tun, wenn es passiert ist?

Wenn Ihr Kind Opfer eines solchen Bildes geworden ist, zählt vor allem eines: Ruhe bewahren und handeln. Zeigen Sie Ihrem Kind, dass es nicht allein ist und keine Schuld trägt.

Für viele Kinder bricht in diesem Moment eine Welt zusammen. Die Scham ist oft überwältigend, das Gefühl der Bloßstellung kaum zu ertragen. Nicht selten verbreiten sich die Bilder rasant – über Klassenchats, soziale Netzwerke und Messenger-Gruppen. Innerhalb weniger Stunden können sie nicht nur die Schule, sondern eine ganze Stadt erreichen.

Besonders bitter: Diese Bilder lassen sich nie wieder vollständig aus dem Internet entfernen. Selbst wenn sie gelöscht werden, können sie längst gespeichert, weitergeleitet oder erneut hochgeladen worden sein. Für Betroffene ist das eine digitale Katastrophe – mit langfristigen Folgen.

Deshalb gilt: Sichern Sie Beweise, dokumentieren Sie die Verbreitung, und informieren Sie Schule sowie ggf. die Polizei. Melden Sie das Bild auf allen Plattformen, auf denen es auftaucht, und nutzen Sie professionelle Hilfe – etwa durch psychologische Beratung oder spezialisierte Hotlines.

Erklären Sie Ihrem Kind, dass es Unterstützung gibt – und dass der erste Schritt aus der Krise immer im offenen Gespräch liegt. Die wichtigste Botschaft ist: Wir stehen das gemeinsam durch.

Weitere Tipps (basierend auf juuuport.de):

  • 📸 Beweise sichern – mithilfe von Screenshots und Notizen: Wer hat was wann geschickt? Wo ist das Bild aufgetaucht?

  • 🚨 Melden – direkt auf der Plattform (z. B. Instagram, TikTok oder Snapchat) und ggf. über offizielle Meldeformulare.

  • ⚖️ Anzeige erstatten – Denn es handelt sich um eine Straftat, die nicht hingenommen werden darf.

  • 🧡 Hilfe holen – Zum Beispiel bei JUUUPORT. Die Scouts dort beraten Jugendliche vertraulich, kostenlos und online.

Mehr Infos: www.juuuport.de

Fazit: Unser Schutz beginnt mit Wissen – und mit Haltung

Was du nicht willst, das man dir tu', das füg auch keinem anderen zu.

Sprecht mit euren Kindern über solche Apps und macht ihnen klar, wie weitreichend die Folgen einer Nutzung sind. Täter werden rechtlich verfolgt, für Opfer bricht die ganze Welt zusammen. Niemand möchte so etwas selbst erleben.

Fake-Nacktbilder sind kein Randphänomen. Sie sind Ausdruck einer digitalen Gewaltform, die immer perfider wird – und unsere Kinder mitten ins Visier nimmt.

Wir können diese Apps nicht vollständig aufhalten. Aber wir können aufklären, schützen, unterstützen und gemeinsam laut werden, wenn Unrecht geschieht.

Denn ob digital oder analog: Respekt, Würde und Grenzen gelten überall – auch im Netz.**

Zurück
Zurück

Falschinformationen auf TikTok, Instagram, Facebook & Co – Warum jede Generation anders betroffen ist

Weiter
Weiter

JugendNotmail – Wenn niemand sonst zuhört