Wenn Minions töten - Gewalt getarnt durch KI
Ein gelber Minion mit Messer, Peppa Pig mit leerem Blick, Mario daneben: harmlos sieht das nicht aus und ist es auch nicht. Doch genau solche Videos tauchen derzeit massenhaft auf YouTube, TikTok und Instagram auf. Sie wirken wie lustige Clips für Kinder, sind aber in Wahrheit etwas ganz anderes: verstörende, teilweise brutale Gewaltszenen, die mit Hilfe von Künstlicher Intelligenz (KI) verfälscht wurden.
Wichtig: Wir zeigen auf dem Foto zu diesem Artikel bewusst nur ein Comic-Motiv. Wir wollen die grausamen Bilder, die im Netz kursieren, nicht weiterverbreiten. Es reicht, dass Kinder sie ohnehin zu leicht zu sehen bekommen. Unser Ziel ist Aufklärung – ohne Reproduktion.
Bild generiert mit Hilfe von KI (ChatGPT/DALL·E, OpenAI)
Wenn KI Gewalt bunt färbt
Was aussieht wie Kinderunterhaltung, ist oft digital getarnte Gewalt, auch Gore Videos genannt. In den Videos werden reale Folter- oder Mordaufnahmen mit KI-Tools bearbeitet. Manchmal verwandelt sich das Ganze in einen bunten Comic. Manchmal bleibt das echte Video fast vollständig erhalten, nur der Kopf der Menschen wurde ersetzt. Das Ergebnis: Ein Mensch mit Minion-Kopf, der misshandelt oder getötet wird. Alles andere, wie Körper, Blut, Umgebung und oft auch der Ton, bleiben sichtbar und hörbar.
Diese Videos wirken auf den ersten Blick harmlos, weil sie gelb, grell und kindlich aussehen. Doch die Gewalt ist real. Und genau das macht sie so gefährlich: Die KI-Maskierung sorgt dafür, dass die automatischen Filter der Plattformen sie nicht erkennen. Sie gelten technisch nicht mehr als „Gewaltvideo“, weil der Algorithmus in der Szene eine Comicfigur sieht.
Wenn Filter versagen
Plattformen wie YouTube, TikTok und Instagram setzen auf automatische Erkennungssysteme, um Gewaltdarstellungen zu blockieren. Doch die KI-Übermalungen lassen diese Systeme scheitern. Die Videos „fallen durch die Filter“, wie Fachleute sagen. Denn sie enthalten auf den ersten Blick weder Blutmengen noch bekannte oder erkennbare Gesichter, nur um ein paar Erkennungsmerkmale für gewaltbezogene Inhalte zu nennen.
Das Technikmagazin Wired berichtet, dass auf YouTube Dutzende solcher KI-Gore-Kanäle existieren, die trotz Meldungen weiter online bleiben. Auch 404 Media beschreibt, wie echte Gewaltvideos mit Minion-Köpfen versehen werden, um die Plattformregeln zu umgehen. Japanische Medien wie Gigazine berichten sogar von realen Aufnahmen von Massenschießereien, die auf diese Weise getarnt verbreitet wurden.
Warum Kinder das besonders trifft
Kinder klicken auf diese Clips, weil sie ihnen vertraut vorkommen. Sie sehen ihre Lieblingsfiguren, sie sind bunt, fröhlich, niedlich und Kinder erwarten harmlose Unterhaltung. Wenn plötzlich Gewalt oder Schreie auftauchen, verstehen sie nicht, was passiert. Viele Kinder bekommen Angst, andere schauen aus Neugier weiter. Manche erzählen es niemandem, weil sie glauben, selbst etwas falsch gemacht zu haben.
Studien zeigen, dass vertraute Figuren in unnatürlichen, bedrohlichen Situationen besonders stark wirken. Schon die Untersuchung Disturbed YouTube for Kids (arXiv, 2019) belegte, dass Kinderinhalte auf YouTube regelmäßig gefährliche oder sexuelle Motive enthielten. Mit generativer KI hat dieses Problem eine neue Dimension erreicht: Gewalt wird nicht mehr so leicht erkannt, weil sie „verkünstlicht“ ist.
Warum es solche Videos überhaupt gibt
Hinter diesem perfiden Trend steckt reine Profitlogik. Jedes Video bringt Klicks, jede Sekunde Aufmerksamkeit wird in Werbegeld umgerechnet. Die Täter, oft anonyme Nutzer aus Ländern ohne Regulierung, generieren in kürzester Zeit hunderte Videos. KI macht es möglich: Gesichter tauschen, Figuren übermalen, Geräusche verzerren. Das dauert heute Sekunden und kostet fast nichts.
Selbst wenn ein Kanal gesperrt wird, entsteht direkt der nächste. Plattformen reagieren zu spät, weil die (menschliche) Kontrolle kaum hinterherkommt.
Wenn Gewaltvideos in Gruppen weitergereicht werden
Besonders gefährlich wird es, wenn solche Videos über Klassenchats oder Freundesgruppen geteilt werden. Kinder schicken sie oft weiter, ohne zu wissen, was sie da eigentlich verbreiten, manchmal aus Neugier, manchmal, um zu schockieren oder „dazuzugehören“. Doch schon das Ansehen oder Weiterleiten kann andere Kinder traumatisieren. Viele dieser Videos enthalten reale Gewalt und sind in Deutschland strafrechtlich relevant, auch wenn sie von Minderjährigen geteilt werden.
Eltern sollten wissen, was in den Gruppen ihrer Kinder passiert. Nicht mitlesen, aber immer wieder ansprechen: „Wenn du mal ein Video bekommst, das dir komisch vorkommt, bitte schick es nicht weiter. Komm zu mir.“ Kinder müssen wissen, dass sie nicht Ärger bekommen, wenn sie etwas melden, sondern dass sie das Richtige tun.
Was Eltern tun können
Wir können solche Videos nicht ganz verhindern, aber wir können Kinder davor schützen, sie allein zu erleben.
Kinder nie unbeaufsichtigt auf YouTube oder TikTok schauen lassen.
Nutzt lieber YouTube Kids oder begleitete Modi. Sie sind nicht perfekt, aber besser als nichts. Achtet darauf, dass die Kinder auch eingeloggt sind, ohne Login gibt es keine Filter.Geräte sichern.
Mit Apple Bildschirmzeit oder Google Family Link lassen sich Apps und Websites gezielt einschränken.Offen reden statt verbieten.
Wenn euer Kind sagt: „Ich hab was Komisches gesehen“, reagiert ruhig. Fragt:
„Wie hat sich das angefühlt?“ „Was war daran schlimm?“
So lernt es, dass es über Angst sprechen darf.Erklärt, dass nicht alles echt ist, aber vieles absichtlich schockiert.
Kinder müssen verstehen, dass Plattformen auf Aufmerksamkeit setzen. Nicht alles, was bunt ist, ist harmlos.Wenn ein Kind Angst hat:
Zuwendung, Nähe, Sicherheit. Keine Scham, keine Schuldzuweisung.
Falls die Angst bleibt, kann ein Gespräch mit einer Kinderpsychologin helfen.
Verantwortung liegt bei den Plattformen
Eltern können nur begrenzt schützen, wenn Konzerne ihre Systeme nicht ernsthaft anpassen. Es braucht Regeln für KI-generierte Inhalte, Warnhinweise, Herkunftskennzeichnungen und Meldepflichten. Solange Plattformen KI als Filter umgehen lassen, werden immer wieder Kinder auf diese Videos stoßen. Und das darf nicht sein.
Wir müssen auf unsere Kinder aufpassen – alle gemeinsam
Diese Entwicklung betrifft uns alle. Kein Filter, keine App und kein Algorithmus kann so viel Schutz bieten wie eine wache, aufgeklärte Gemeinschaft von Eltern, Lehrkräften und Kindern selbst. Wir müssen unseren Kindern zeigen, dass sie nicht allein sind, wenn sie im Netz etwas Verstörendes sehen. Sie sollen wissen, dass sie jederzeit darüber sprechen dürfen – mit Eltern, Lehrerinnen, Schulsozialarbeit oder Freunden.
Wenn ein Kind so ein Video sieht: nicht wegsehen, sondern handeln. Auf jeder Plattform gibt es eine Melden-Funktion (meist mit drei Punkten „⋯“ oder über das Menü „Inhalt melden“). Dort kann man Gewalt, Hass oder Missbrauch anonym melden. Jede einzelne Meldung hilft, die Plattformen zu zwingen, genauer hinzuschauen.
Wir können das Problem nicht allein lösen. Aber wir können gemeinsam Verantwortung übernehmen und unseren Kindern beibringen, dass das Internet kein Ort sein darf, an dem Gewalt zur Unterhaltung wird.
Weiterführende Artikel auf Medienzeit: