KI flutet TikTok mit Sex, Hass und Fake News
TikTok verändert sich gerade grundlegend. Nicht durch neue Trends oder prominente Creator, sondern durch eine wachsende Industrie aus KI-gesteuerten Accounts. Und die werden jeden Tag besser darin, unbemerkt zu bleiben. Eine neue Studie von AI Forensics zeigt, wie groß dieses Problem geworden ist und warum Kinder und Jugendliche davon besonders betroffen sind.
Die Ergebnisse sind eindeutig. Und sie werden von zahlreichen internationalen Medien und Fachstellen bestätigt.
Bild generiert mit Hilfe von KI (ChatGPT/DALL·E, OpenAI)
KI ersetzt Creator und testet sich selbst zum Erfolg
AI Forensics hat in einer umfassenden Untersuchung 354 automatisierte KI-Accounts auf TikTok analysiert.
Diese Accounts veröffentlichten:
43000 Videos in nur 30 Tagen
teilweise bis zu 70 Videos pro Tag
insgesamt 4,5 Milliarden Aufrufe
Quelle: AI Forensics https://aiforensics.org/work/agentic-ai-accounts
Diese KI Systeme arbeiten wie Fabriken. Sie testen in hoher Geschwindigkeit, welche Inhalte am meisten Wirkung erzeugen. Sie passen sich an, optimieren sich selbst und verdrängen dadurch nach und nach menschliche Creator. Kinder und Jugendliche erkennen nicht, dass sie in vielen Fällen nicht mit echten Menschen interagieren, sondern mit künstlichen Mustern, die nur ein Ziel haben: maximale Aufmerksamkeit.
Thirst Traps als neues KI Muster
Eine Watson-Analyse zeigt ein Phänomen, das genau in dieses Muster passt. KI erzeugt nicht nur beliebige Videos. Sie erzeugt eine neue Art von Thirst Trap Inhalt.
Diese KI Thirst Traps sind:
sexualisierte Darstellungen
überwiegend weibliche Körper
künstlich erzeugt und hochgradig optimiert für Reichweite
Viele der abgebildeten Figuren wirken minderjährig. AI Forensics beschreibt sie als Figuren mit kindlichen Zügen. Das macht den Trend besonders gefährlich für Kinder und Jugendliche, die solche Inhalte nicht richtig einordnen können.
Der gefährlichste Inhalt bleibt am längsten online
Die Studie zeigt, dass gerade die problematischsten KI Inhalte oft besonders lange online bleiben. Dazu gehören:
sexualisierte Darstellungen vermeintlich minderjähriger Personen
extrem verzerrte Körperbilder
KI Clips im Stil von Nachrichten, die Fake News verbreiten
gezielte Hetze gegen Gruppen wie Migranten, Schwarze, Juden oder Muslime
antisemitische und rassistische Narrative
Watson bestätigt, dass viele dieser KI Videos wie echte Medienberichte aussehen. Sie kopieren den Stil von Nachrichtenseiten, nutzen künstliche Moderatoren und bauen gezielt Angst und Hass auf.
Viele dieser Accounts blieben über einen Monat online, obwohl sie eindeutig gegen Richtlinien verstoßen. All diese Berichte zeichnen das gleiche Bild: TikTok erkennt viele der gefährlichsten Inhalte nicht und entfernt sie zu langsam.
TikTok erkennt KI kaum noch
Die Studie kommt zu einem besonders ernüchternden Ergebnis:
55 Prozent aller KI Videos sind nicht als KI gekennzeichnet
TikTok kennzeichnet selbst nur 1,38 Prozent
Das bedeutet: Kinder und Jugendliche scrollen durch eine künstliche Realität, ohne zu wissen, dass sie künstlich ist.
TikTok verlässt sich oft darauf, dass Creator ihre Inhalte freiwillig markieren. Doch viele tun das nicht. Darum bleiben die meisten KI Inhalte unkennzeichnet und werden als echte Videos wahrgenommen. Kinder und Jugendliche sehen Gesichter und Körper, die echt wirken. Sie erkennen nicht, dass diese Figuren künstlich erzeugt sind und oft manipulativ eingesetzt werden.
Plattformen können mit der Geschwindigkeit von KI nicht mehr mithalten. Die Systeme werden täglich besser im Täuschen. Die Erkennung bleibt zurück.
Was TikTok sagt und warum das nicht reicht
TikTok weist die Vorwürfe zurück. Das Unternehmen sagt, es entferne schädliche KI-Inhalte und verhindere die Erstellung hunderter Millionen Bot Accounts. TikTok betont, es investiere in Erkennungstechnologien und arbeite an neuen Werkzeugen, um Nutzerinnen und Nutzer zu schützen.
Nach Veröffentlichung der AI Forensics Studie hat TikTok tatsächlich reagiert:
zwei der kritisierten Accounts wurden gelöscht
die Plattform kündigte ein unsichtbares Wasserzeichen an, das KI Inhalte künftig kennzeichnen soll
Doch diese Maßnahmen lösen das zentrale Problem nicht. Denn:
die Kennzeichnung ist bisher kaum sichtbar
die Erkennung ist zu schwach
viele Creator markieren KI Inhalte nicht
die Systeme reagieren zu spät, oft erst nach massiver Reichweite
Für Kinder und Jugendliche ändert sich dadurch wenig.
Kinder sind nicht naiv. Die Plattformen sind manipulativ
Kinder sind aufmerksam, wissbegierig und oft sehr digital kompetent. Das Problem liegt nicht bei ihnen. Das Problem liegt bei Plattformen, die mit Mechanismen arbeiten, die selbst Erwachsene kaum durchschauen.
Empfehlungssysteme, künstliche Gesichter, KI Avatare, psychologische Tricks zur Bindung an die App und eine Flut von Videos, die genau darauf optimiert sind, möglichst lange festzuhalten. Kinder treffen nicht auf ein neutrales Umfeld. Sie treffen auf Systeme, die sie gezielt beeinflussen und überfordern.
Es geht nicht darum, Kindern etwas abzusprechen. Es geht darum, anzuerkennen, dass kein junger Mensch gegen die Macht dieser Systeme ankommt.
Darum braucht es klare Regeln, die Kinder schützen.
Warum wir uns für Social Media ab 16 aussprechen
Junge Kinder sind den Mechanismen sozialer Plattformen nicht gewachsen. Sie können auch KI Inhalte schwer einordnen. Sie erkennen Fakes nicht. Sie verstehen nicht, warum bestimmte Inhalte immer wieder erscheinen. Und sie bemerken leider gar nicht, wie sie beeinflusst werden. Jugendliche ab etwa 16 Jahren können deutlich besser unterscheiden. Sie können Manipulation deutlich besser erkennen und Gefährdungen benennen. Sie haben ein stärkeres Selbstbild und mehr Möglichkeiten, Druck auszuhalten.
Ein Start ab 16 schützt Kinder in einer Phase, in der sie besonders verletzlich sind. Er gibt ihnen Zeit zu reifen, bevor sie in eine globale Öffentlichkeit treten, in der Milliarden künstlicher Inhalte auf sie warten. Neben vielen anderen Gefahren, über die wir regelmäßig berichten.
Was Eltern jetzt tun können
Solange Plattformen nicht zuverlässig schützen, bleibt die Verantwortung bei Familien und Schulen. Das ist nicht fair, aber es ist die Realität.
Eltern können:
erklären, wie leicht KI Inhalte gefälscht werden
gemeinsam anschauen, was Kinder sehen
klare Regeln und Nutzungszeiten vereinbaren
sensibel über Körperbilder, Sexualisierung und Online Risiken sprechen
Alternativen anbieten, besonders im Grundschulalter
Kinder brauchen Begleitung, nicht Kontrolle. Sie brauchen Orientierung. Und sie brauchen Erwachsene, die auch wirklich verstehen, was online passiert.
Was Politik und Plattformen endlich tun müssen
Die Studie zeigt klar, dass freiwillige Maßnahmen nicht reichen. Plattformen müssen verpflichtet werden:
KI Inhalte sichtbar und zuverlässig zu kennzeichnen
riskante Inhalte schneller zu entfernen
unabhängige Prüfungen zu ermöglichen
kinderfreundliche Standards einzuhalten
echte Alterskontrollen zu nutzen
Solange Plattformen wie TikTok für Kinder so leicht erreichbar sind, ohne sie zuverlässig zu schützen, bleibt jede Altersdebatte Symbolpolitik. Die Plattformen müssen zu Kinder- und Jugendschutz verpflichtet werden und diesen auch endlich durchsetzen.
Ein Fazit für Medienzeit
Die digitale Öffentlichkeit wird bereits heute von KI überrollt. TikTok ist voll mit künstlichen Bildern, künstlichen Meinungen und künstlichen Körpern, die junge Nutzerinnen und Nutzer nicht erkennen können. Die Plattform reagiert zu langsam. Und Kinder stehen in der ersten Reihe.
Diese Entwicklung lässt sich nicht zurückdrehen. Aber sie lässt sich regulieren. Und bis das passiert, müssen Familien wissen, womit ihre Kinder konfrontiert sind.
Darum sprechen wir bei Medienzeit klar aus, was viele längst fühlen: Kinder brauchen Schutz vor diesen Systemen. Und Social Media gehört erst ab 16 in ihr Leben.
Quellen
Die Aussagen und Analysen dieses Artikels stützen sich auf eine umfassende Studie der Non-Profit-Forschungsorganisation AI Forensics sowie auf bestätigende Berichte internationaler Medien und seriöser Institutionen der Medienpädagogik.
Studie
AI Forensics: Prompt, Upload, Repeat: Agentic AI Accounts Flood TikTok. (Veröffentlicht als Teil der Untersuchung "AI-Generated Algorithmic Virality"). Die Studie belegt die Existenz, Reichweite und fehlende Kennzeichnung von automatisierten KI-Accounts auf TikTok, darunter die Zahlen zu 354 analysierten Accounts, über 43.000 Videos und 4,5 Milliarden Aufrufen.
Online verfügbar: aiforensics.org/work/agentic-ai-accounts
Unterstützende Medienberichte
Cybernews: TikTok's AI 'slop' is aimed at minors: study. (Analyse des Phänomens und der Auswirkungen auf junge Nutzer).
Online verfügbar: cybernews.com/ai-news/tiktok-ai-slop-minors/
Watson: KI-Videos auf TikTok: Forscher warnen vor neuer, gefährlicher Entwicklung. (Zusammenfassung der Studienergebnisse und Einordnung der Gefahr).
Fachliche Kontextualisierung
Die Argumente zur Anfälligkeit Minderjähriger und der Notwendigkeit von Jugendschutzbestimmungen werden durch etablierte medienpädagogische und sozialwissenschaftliche Forschung gestützt:
Medienpädagogischer Forschungsverbund Südwest (mpfs): JIM-Studie (Jugend, Information, Medien) und KIM-Studie (Kindheit, Internet, Medien). (Langzeitstudien zur Mediennutzung von Kindern und Jugendlichen in Deutschland, die die Relevanz der Plattform und die Konfrontation mit problematischen Inhalten belegen).
klicksafe: (Initiative zur Förderung der Medienkompetenz im Rahmen des EU-Programms Digitales Europa). (Veröffentlichte Materialien und Studien zur Herausforderung von Fake News und Manipulation für junge Nutzer).