KI flutet TikTok mit Sex, Hass und Fake News

TikTok verändert sich gerade grundlegend. Nicht durch neue Trends oder prominente Creator, sondern durch eine wachsende Industrie aus KI-gesteuerten Accounts. Und die werden jeden Tag besser darin, unbemerkt zu bleiben. Eine neue Studie von AI Forensics zeigt, wie groß dieses Problem geworden ist und warum Kinder und Jugendliche davon besonders betroffen sind.

Die Ergebnisse sind eindeutig. Und sie werden von zahlreichen internationalen Medien bestätigt.

Ein Smartphone mit TikTok App Symbol steht inmitten einer großen Welle aus vielen kleinen KI erzeugten Video Vorschaubildern, die wie eine Flut aus dem Hintergrund auf das Gerät zulaufen.

Bild generiert mit Hilfe von KI (ChatGPT/DALL·E, OpenAI)

Zählmarke

KI ersetzt Creator und testet sich selbst zum Erfolg

AI Forensics hat in einer umfassenden Untersuchung 354 automatisierte KI-Accounts auf TikTok analysiert.

Diese Accounts veröffentlichten:

  • 43000 Videos in nur 30 Tagen

  • teilweise bis zu 70 Videos pro Tag

  • insgesamt 4,5 Milliarden Aufrufe

Quelle: AI Forensics https://aiforensics.org/work/agentic-ai-accounts

Diese KI Systeme arbeiten wie Fabriken. Sie testen in hoher Geschwindigkeit, welche Inhalte am meisten Wirkung erzeugen. Sie passen sich an, optimieren sich selbst und verdrängen dadurch nach und nach menschliche Creator. Kinder und Jugendliche erkennen nicht, dass sie in vielen Fällen nicht mit echten Menschen interagieren, sondern mit künstlichen Mustern, die nur ein Ziel haben: maximale Aufmerksamkeit.


Thirst Traps als neues KI Muster

Eine Watson-Analyse zeigt ein Phänomen, das genau in dieses Muster passt. KI erzeugt nicht nur beliebige Videos. Sie erzeugt eine neue Art von Thirst Trap Inhalt.

Diese KI Thirst Traps sind:

  • sexualisierte Darstellungen

  • überwiegend weibliche Körper

  • künstlich erzeugt und hochgradig optimiert für Reichweite

Viele der abgebildeten Figuren wirken minderjährig. AI Forensics beschreibt sie als Figuren mit kindlichen Zügen. Das macht den Trend besonders gefährlich für Kinder und Jugendliche, die solche Inhalte nicht richtig einordnen können.


Der gefährlichste Inhalt bleibt am längsten online

Die Studie zeigt, dass gerade die problematischsten KI Inhalte oft besonders lange online bleiben. Dazu gehören:

  • sexualisierte Darstellungen vermeintlich minderjähriger Personen

  • extrem verzerrte Körperbilder

  • KI Clips im Stil von Nachrichten, die Fake News verbreiten

  • gezielte Hetze gegen Gruppen wie Migranten, Schwarze, Juden oder Muslime

  • antisemitische und rassistische Narrative

Watson bestätigt, dass viele dieser KI Videos wie echte Medienberichte aussehen. Sie kopieren den Stil von Nachrichtenseiten, nutzen künstliche Moderatoren und bauen gezielt Angst und Hass auf.

Viele dieser Accounts blieben über einen Monat online, obwohl sie eindeutig gegen Richtlinien verstoßen. All diese Berichte zeichnen das gleiche Bild: TikTok erkennt viele der gefährlichsten Inhalte nicht und entfernt sie zu langsam.


TikTok erkennt KI kaum noch

Die Studie kommt zu einem besonders ernüchternden Ergebnis:

  • Laut AI Forensics bleiben 55 Prozent der untersuchten KI-Inhalte unmarkiert, während TikTok selbst weniger als 1,38 Prozent dieser Inhalte als KI-generiert kennzeichnete.

Das bedeutet: Kinder und Jugendliche scrollen durch eine künstliche Realität, ohne zu wissen, dass sie künstlich ist.

TikTok nutzt inzwischen mehrere Wege zur Kennzeichnung von KI-Inhalten. Creator können Inhalte selbst markieren, TikTok setzt eigene Labels ein und nutzt zusätzlich C2PA-Metadaten sowie neue technische Verfahren wie unsichtbare Wasserzeichen. Das Problem ist also nicht mehr allein, dass Creator freiwillig markieren sollen. Das Problem ist, dass die Durchsetzung und Erkennung trotz dieser Systeme weiterhin nicht ausreichen. Kinder und Jugendliche sehen Gesichter und Körper, die echt wirken. Sie erkennen nicht, dass diese Figuren künstlich erzeugt sind und oft manipulativ eingesetzt werden.

Plattformen haben große Schwierigkeiten, mit der Geschwindigkeit von KI mitzuhalten. Die Systeme werden täglich besser darin, zu täuschen. Die Erkennung bleibt zurück.

Kind steht vor großem Smartphone, aus dem eine Flut von KI-generierten TikTok-Videos strömt und es sichtbar überfordert

Bild generiert mit Hilfe von KI (ChatGPT/DALL·E, OpenAI)

Was TikTok sagt und warum das nicht reicht

TikTok weist die Vorwürfe zurück. Das Unternehmen sagt, es entferne schädliche KI-Inhalte und verhindere die Erstellung hunderter Millionen Bot Accounts. TikTok betont, es investiere in Erkennungstechnologien und arbeite an neuen Werkzeugen, um Nutzerinnen und Nutzer zu schützen.

Nach Veröffentlichung der AI-Forensics-Studie hat TikTok auf die Kritik reagiert und seine bestehenden KI-Kennzeichnungssysteme weiter ausgebaut. Die Plattform testet unsichtbare Wasserzeichen, nutzt C2PA-Metadaten und verweist auf eigene Erkennungssysteme. Trotzdem zeigt die Untersuchung weiterhin, dass problematische KI-Inhalte enorme Reichweiten erzielen und Kennzeichnung wie Moderation bislang nicht zuverlässig genug greifen.

Doch diese Maßnahmen lösen das zentrale Problem nicht. Denn:

  • die Kennzeichnung ist bisher kaum sichtbar

  • die Erkennung ist zu schwach

  • viele Creator markieren KI Inhalte nicht

  • die Systeme reagieren zu spät, oft erst nach massiver Reichweite

Für Kinder und Jugendliche ändert sich dadurch wenig.

Inzwischen kommt die Kritik nicht mehr nur von Forschenden und Eltern. Die EU-Kommission hat am 6. Februar 2026 vorläufig festgestellt, dass TikToks süchtig machendes Design gegen den Digital Services Act verstoßen könnte. Genannt werden unter anderem Infinite Scroll, Autoplay, Push-Nachrichten und das stark personalisierte Empfehlungssystem. Besonders relevant ist dabei: Die Kommission verweist ausdrücklich auch auf Risiken für Minderjährige.


Kinder sind nicht naiv. Die Plattformen sind manipulativ

Kinder sind aufmerksam, wissbegierig und oft sehr digital kompetent. Das Problem liegt nicht bei ihnen. Das Problem liegt bei Plattformen, die mit Mechanismen arbeiten, die selbst Erwachsene kaum durchschauen.

Kinder bewegen sich hier auf Plattformen, deren Systeme auf maximale Bindung, Aufmerksamkeit und Wiederkehr optimiert sind. Wenn zusätzlich künstliche Gesichter, sexualisierte KI-Figuren, Fake-News-Clips und algorithmisch verstärkte Hetze dazukommen, treffen Kinder nicht auf ein neutrales Umfeld, sondern auf ein System, das deutlich manipulativer ist, als viele Erwachsene überhaupt erkennen

Es geht nicht darum, Kindern etwas abzusprechen. Es geht darum, anzuerkennen, dass kein junger Mensch gegen die Macht dieser Systeme ankommt.

Darum braucht es klare Regeln, die Kinder schützen.


Warum wir uns für Social Media ab 16 aussprechen

Junge Kinder sind den Mechanismen sozialer Plattformen nicht gewachsen. Sie können auch KI Inhalte schwer einordnen. Sie erkennen Fakes nicht. Sie verstehen nicht, warum bestimmte Inhalte immer wieder erscheinen. Und sie bemerken leider gar nicht, wie sie beeinflusst werden.

Aus unserer Sicht brauchen Kinder bis mindestens 16 einen deutlich stärkeren Schutz vor sozialen Plattformen. Die AI-Forensics-Studie zeigt, wie schwer selbst klar problematische KI-Inhalte zu erkennen und zu kennzeichnen sind. Das ist keine rein technische Frage, sondern eine Frage von Entwicklung, Schutz und Verantwortung.

Ein Start ab 16 schützt Kinder in einer Phase, in der sie besonders verletzlich sind. Er gibt ihnen Zeit zu reifen, bevor sie in eine globale Öffentlichkeit treten, in der Milliarden künstlicher Inhalte auf sie warten. Neben vielen anderen Gefahren, über die wir regelmäßig berichten.


Was Eltern jetzt tun können

Solange Plattformen nicht zuverlässig schützen, bleibt die Verantwortung bei Familien und Schulen. Das ist nicht fair, aber es ist die Realität.

Eltern können:

  • erklären, wie leicht KI Inhalte gefälscht werden

  • gemeinsam anschauen, was Kinder sehen

  • klare Regeln und Nutzungszeiten vereinbaren

  • sensibel über Körperbilder, Sexualisierung und Online Risiken sprechen

  • Alternativen anbieten, besonders im Grundschulalter

Kinder brauchen Begleitung, nicht Kontrolle. Sie brauchen Orientierung. Und sie brauchen Erwachsene, die auch wirklich verstehen, was online passiert.


Was Politik und Plattformen endlich tun müssen

Die Studie zeigt klar, dass freiwillige Maßnahmen nicht reichen. Plattformen müssen verpflichtet werden:

  • KI Inhalte sichtbar und zuverlässig zu kennzeichnen

  • riskante Inhalte schneller zu entfernen

  • unabhängige Prüfungen zu ermöglichen

  • kinderfreundliche Standards einzuhalten

  • echte Alterskontrollen zu nutzen

Solange Plattformen wie TikTok für Kinder so leicht erreichbar sind, ohne sie zuverlässig zu schützen, bleibt jede Altersdebatte Symbolpolitik. Die Plattformen müssen zu Kinder- und Jugendschutz verpflichtet werden und diesen auch endlich durchsetzen.


Ein Fazit für Medienzeit

Seit Erscheinen der Studie hat TikTok seine Werkzeuge zur KI-Kennzeichnung weiterentwickelt. Doch genau das macht den Befund nicht kleiner, sondern größer. Wenn eine Plattform trotz eigener Labels, Metadaten und neuer technischer Verfahren problematische KI-Inhalte weiter in großem Stil durchlässt, reicht technische Nachbesserung allein offenkundig nicht aus.

Die digitale Öffentlichkeit wird bereits heute von KI überrollt. TikTok ist voll mit künstlichen Bildern, künstlichen Meinungen und künstlichen Körpern, die junge Nutzerinnen und Nutzer nicht erkennen können. Die Plattform reagiert zu langsam. Und Kinder stehen in der ersten Reihe.

Diese Entwicklung lässt sich nicht zurückdrehen. Aber sie lässt sich regulieren. Und bis das passiert, müssen Familien wissen, womit ihre Kinder konfrontiert sind.

Darum sprechen wir bei Medienzeit klar aus, was viele längst fühlen: Kinder brauchen Schutz vor diesen Systemen. Und Social Media gehört erst ab 16 in ihr Leben.


Quellen

Die Aussagen und Analysen dieses Artikels stützen sich auf eine umfassende Studie der Non-Profit-Forschungsorganisation AI Forensics sowie auf bestätigende Berichte internationaler Medien und seriöser Institutionen der Medienpädagogik.

Studie

  • AI Forensics:Prompt, Upload, Repeat: Agentic AI Accounts Flood TikTok. (Veröffentlicht als Teil der Untersuchung "AI-Generated Algorithmic Virality"). Die Studie belegt die Existenz, Reichweite und fehlende Kennzeichnung von automatisierten KI-Accounts auf TikTok, darunter die Zahlen zu 354 analysierten Accounts, über 43.000 Videos und 4,5 Milliarden Aufrufen.

Unterstützende Medienberichte

Fachliche Kontextualisierung

Die Argumente zur Anfälligkeit Minderjähriger und der Notwendigkeit von Jugendschutzbestimmungen werden durch etablierte medienpädagogische und sozialwissenschaftliche Forschung gestützt:

  • Medienpädagogischer Forschungsverbund Südwest (mpfs):JIM-Studie (Jugend, Information, Medien) und KIM-Studie (Kindheit, Internet, Medien). (Langzeitstudien zur Mediennutzung von Kindern und Jugendlichen in Deutschland, die die Relevanz der Plattform und die Konfrontation mit problematischen Inhalten belegen).

  • klicksafe: (Initiative zur Förderung der Medienkompetenz im Rahmen des EU-Programms Digitales Europa). (Veröffentlichte Materialien und Studien zur Herausforderung von Fake News und Manipulation für junge Nutzer).

Zurück
Zurück

“Ich will das können!” – Warum Selbstwirksamkeit für Kinder so wichtig ist

Weiter
Weiter

Julia von Weiler – seit vielen Jahren eine Stimme für den Kinderschutz