KI flutet TikTok mit Sex, Hass und Fake News

TikTok verändert sich gerade grundlegend. Nicht durch neue Trends oder prominente Creator, sondern durch eine wachsende Industrie aus KI-gesteuerten Accounts. Und die werden jeden Tag besser darin, unbemerkt zu bleiben. Eine neue Studie von AI Forensics zeigt, wie groß dieses Problem geworden ist und warum Kinder und Jugendliche davon besonders betroffen sind.

Die Ergebnisse sind eindeutig. Und sie werden von zahlreichen internationalen Medien und Fachstellen bestätigt.

Ein Smartphone mit TikTok App Symbol steht inmitten einer großen Welle aus vielen kleinen KI erzeugten Video Vorschaubildern, die wie eine Flut aus dem Hintergrund auf das Gerät zulaufen.

Bild generiert mit Hilfe von KI (ChatGPT/DALL·E, OpenAI)

Zählmarke

KI ersetzt Creator und testet sich selbst zum Erfolg

AI Forensics hat in einer umfassenden Untersuchung 354 automatisierte KI-Accounts auf TikTok analysiert.

Diese Accounts veröffentlichten:

  • 43000 Videos in nur 30 Tagen

  • teilweise bis zu 70 Videos pro Tag

  • insgesamt 4,5 Milliarden Aufrufe

Quelle: AI Forensics https://aiforensics.org/work/agentic-ai-accounts

Diese KI Systeme arbeiten wie Fabriken. Sie testen in hoher Geschwindigkeit, welche Inhalte am meisten Wirkung erzeugen. Sie passen sich an, optimieren sich selbst und verdrängen dadurch nach und nach menschliche Creator. Kinder und Jugendliche erkennen nicht, dass sie in vielen Fällen nicht mit echten Menschen interagieren, sondern mit künstlichen Mustern, die nur ein Ziel haben: maximale Aufmerksamkeit.

Thirst Traps als neues KI Muster

Eine Watson-Analyse zeigt ein Phänomen, das genau in dieses Muster passt. KI erzeugt nicht nur beliebige Videos. Sie erzeugt eine neue Art von Thirst Trap Inhalt.

Diese KI Thirst Traps sind:

  • sexualisierte Darstellungen

  • überwiegend weibliche Körper

  • künstlich erzeugt und hochgradig optimiert für Reichweite

Viele der abgebildeten Figuren wirken minderjährig. AI Forensics beschreibt sie als Figuren mit kindlichen Zügen. Das macht den Trend besonders gefährlich für Kinder und Jugendliche, die solche Inhalte nicht richtig einordnen können.

Der gefährlichste Inhalt bleibt am längsten online

Die Studie zeigt, dass gerade die problematischsten KI Inhalte oft besonders lange online bleiben. Dazu gehören:

  • sexualisierte Darstellungen vermeintlich minderjähriger Personen

  • extrem verzerrte Körperbilder

  • KI Clips im Stil von Nachrichten, die Fake News verbreiten

  • gezielte Hetze gegen Gruppen wie Migranten, Schwarze, Juden oder Muslime

  • antisemitische und rassistische Narrative

Watson bestätigt, dass viele dieser KI Videos wie echte Medienberichte aussehen. Sie kopieren den Stil von Nachrichtenseiten, nutzen künstliche Moderatoren und bauen gezielt Angst und Hass auf.

Viele dieser Accounts blieben über einen Monat online, obwohl sie eindeutig gegen Richtlinien verstoßen. All diese Berichte zeichnen das gleiche Bild: TikTok erkennt viele der gefährlichsten Inhalte nicht und entfernt sie zu langsam.

TikTok erkennt KI kaum noch

Die Studie kommt zu einem besonders ernüchternden Ergebnis:

  • 55 Prozent aller KI Videos sind nicht als KI gekennzeichnet

  • TikTok kennzeichnet selbst nur 1,38 Prozent

Das bedeutet: Kinder und Jugendliche scrollen durch eine künstliche Realität, ohne zu wissen, dass sie künstlich ist.

TikTok verlässt sich oft darauf, dass Creator ihre Inhalte freiwillig markieren. Doch viele tun das nicht. Darum bleiben die meisten KI Inhalte unkennzeichnet und werden als echte Videos wahrgenommen. Kinder und Jugendliche sehen Gesichter und Körper, die echt wirken. Sie erkennen nicht, dass diese Figuren künstlich erzeugt sind und oft manipulativ eingesetzt werden.

Plattformen können mit der Geschwindigkeit von KI nicht mehr mithalten. Die Systeme werden täglich besser im Täuschen. Die Erkennung bleibt zurück.

Was TikTok sagt und warum das nicht reicht

TikTok weist die Vorwürfe zurück. Das Unternehmen sagt, es entferne schädliche KI-Inhalte und verhindere die Erstellung hunderter Millionen Bot Accounts. TikTok betont, es investiere in Erkennungstechnologien und arbeite an neuen Werkzeugen, um Nutzerinnen und Nutzer zu schützen.

Nach Veröffentlichung der AI Forensics Studie hat TikTok tatsächlich reagiert:

  • zwei der kritisierten Accounts wurden gelöscht

  • die Plattform kündigte ein unsichtbares Wasserzeichen an, das KI Inhalte künftig kennzeichnen soll

Doch diese Maßnahmen lösen das zentrale Problem nicht. Denn:

  • die Kennzeichnung ist bisher kaum sichtbar

  • die Erkennung ist zu schwach

  • viele Creator markieren KI Inhalte nicht

  • die Systeme reagieren zu spät, oft erst nach massiver Reichweite

Für Kinder und Jugendliche ändert sich dadurch wenig.

Kinder sind nicht naiv. Die Plattformen sind manipulativ

Kinder sind aufmerksam, wissbegierig und oft sehr digital kompetent. Das Problem liegt nicht bei ihnen. Das Problem liegt bei Plattformen, die mit Mechanismen arbeiten, die selbst Erwachsene kaum durchschauen.

Empfehlungssysteme, künstliche Gesichter, KI Avatare, psychologische Tricks zur Bindung an die App und eine Flut von Videos, die genau darauf optimiert sind, möglichst lange festzuhalten. Kinder treffen nicht auf ein neutrales Umfeld. Sie treffen auf Systeme, die sie gezielt beeinflussen und überfordern.

Es geht nicht darum, Kindern etwas abzusprechen. Es geht darum, anzuerkennen, dass kein junger Mensch gegen die Macht dieser Systeme ankommt.

Darum braucht es klare Regeln, die Kinder schützen.

Warum wir uns für Social Media ab 16 aussprechen

Junge Kinder sind den Mechanismen sozialer Plattformen nicht gewachsen. Sie können auch KI Inhalte schwer einordnen. Sie erkennen Fakes nicht. Sie verstehen nicht, warum bestimmte Inhalte immer wieder erscheinen. Und sie bemerken leider gar nicht, wie sie beeinflusst werden. Jugendliche ab etwa 16 Jahren können deutlich besser unterscheiden. Sie können Manipulation deutlich besser erkennen und Gefährdungen benennen. Sie haben ein stärkeres Selbstbild und mehr Möglichkeiten, Druck auszuhalten.

Ein Start ab 16 schützt Kinder in einer Phase, in der sie besonders verletzlich sind. Er gibt ihnen Zeit zu reifen, bevor sie in eine globale Öffentlichkeit treten, in der Milliarden künstlicher Inhalte auf sie warten. Neben vielen anderen Gefahren, über die wir regelmäßig berichten.

Was Eltern jetzt tun können

Solange Plattformen nicht zuverlässig schützen, bleibt die Verantwortung bei Familien und Schulen. Das ist nicht fair, aber es ist die Realität.

Eltern können:

  • erklären, wie leicht KI Inhalte gefälscht werden

  • gemeinsam anschauen, was Kinder sehen

  • klare Regeln und Nutzungszeiten vereinbaren

  • sensibel über Körperbilder, Sexualisierung und Online Risiken sprechen

  • Alternativen anbieten, besonders im Grundschulalter

Kinder brauchen Begleitung, nicht Kontrolle. Sie brauchen Orientierung. Und sie brauchen Erwachsene, die auch wirklich verstehen, was online passiert.

Was Politik und Plattformen endlich tun müssen

Die Studie zeigt klar, dass freiwillige Maßnahmen nicht reichen. Plattformen müssen verpflichtet werden:

  • KI Inhalte sichtbar und zuverlässig zu kennzeichnen

  • riskante Inhalte schneller zu entfernen

  • unabhängige Prüfungen zu ermöglichen

  • kinderfreundliche Standards einzuhalten

  • echte Alterskontrollen zu nutzen

Solange Plattformen wie TikTok für Kinder so leicht erreichbar sind, ohne sie zuverlässig zu schützen, bleibt jede Altersdebatte Symbolpolitik. Die Plattformen müssen zu Kinder- und Jugendschutz verpflichtet werden und diesen auch endlich durchsetzen.

Ein Fazit für Medienzeit

Die digitale Öffentlichkeit wird bereits heute von KI überrollt. TikTok ist voll mit künstlichen Bildern, künstlichen Meinungen und künstlichen Körpern, die junge Nutzerinnen und Nutzer nicht erkennen können. Die Plattform reagiert zu langsam. Und Kinder stehen in der ersten Reihe.

Diese Entwicklung lässt sich nicht zurückdrehen. Aber sie lässt sich regulieren. Und bis das passiert, müssen Familien wissen, womit ihre Kinder konfrontiert sind.

Darum sprechen wir bei Medienzeit klar aus, was viele längst fühlen: Kinder brauchen Schutz vor diesen Systemen. Und Social Media gehört erst ab 16 in ihr Leben.



Quellen

Die Aussagen und Analysen dieses Artikels stützen sich auf eine umfassende Studie der Non-Profit-Forschungsorganisation AI Forensics sowie auf bestätigende Berichte internationaler Medien und seriöser Institutionen der Medienpädagogik.

Studie

  • AI Forensics: Prompt, Upload, Repeat: Agentic AI Accounts Flood TikTok. (Veröffentlicht als Teil der Untersuchung "AI-Generated Algorithmic Virality"). Die Studie belegt die Existenz, Reichweite und fehlende Kennzeichnung von automatisierten KI-Accounts auf TikTok, darunter die Zahlen zu 354 analysierten Accounts, über 43.000 Videos und 4,5 Milliarden Aufrufen.

Unterstützende Medienberichte

Fachliche Kontextualisierung

Die Argumente zur Anfälligkeit Minderjähriger und der Notwendigkeit von Jugendschutzbestimmungen werden durch etablierte medienpädagogische und sozialwissenschaftliche Forschung gestützt:

  • Medienpädagogischer Forschungsverbund Südwest (mpfs): JIM-Studie (Jugend, Information, Medien) und KIM-Studie (Kindheit, Internet, Medien). (Langzeitstudien zur Mediennutzung von Kindern und Jugendlichen in Deutschland, die die Relevanz der Plattform und die Konfrontation mit problematischen Inhalten belegen).

  • klicksafe: (Initiative zur Förderung der Medienkompetenz im Rahmen des EU-Programms Digitales Europa). (Veröffentlichte Materialien und Studien zur Herausforderung von Fake News und Manipulation für junge Nutzer).

Zurück
Zurück

“Ich will das können!” – Warum Selbstwirksamkeit für Kinder so wichtig ist

Weiter
Weiter

Julia von Weiler – seit vielen Jahren eine Stimme für den Kinderschutz