Warum bestimmt ein Algorithmus, was unsere Kinder sehen?
Wer Social Media nutzt – also Instagram, TikTok, YouTube oder Snapchat – kommt an einem Begriff nicht vorbei: dem Algorithmus. Für viele klingt das nach komplizierter Technik oder nach etwas, das man ohnehin nicht versteht. Dabei lässt sich das Prinzip ganz einfach erklären – und es ist wichtig, dass wir Eltern (und auch wir selbst) verstehen, wie diese Systeme funktionieren. Denn der Algorithmus entscheidet maßgeblich mit, was unsere Kinder – und wir selbst – täglich sehen.
Bild erstellt mit künstlicher Intelligenz (ChatGPT / DALL·E von OpenAI)
Was ist ein Algorithmus?
Ein Algorithmus ist eine Art Regelsystem. Er besteht aus vielen kleinen Wenn-dann-Anweisungen, die einer App sagen, wie sie sich verhalten soll.
Ein paar einfache Beispiele:
Wenn jemand ein Video bis zum Ende schaut,
dann wird es als besonders interessant bewertet.Wenn jemand einen Beitrag liked oder kommentiert,
dann zeige ihm mehr von dieser Art.Wenn jemand häufig auf Inhalte einer bestimmten Person klickt,
dann spiele mehr Beiträge dieser Person aus.Wenn jemand oft traurige oder wütende Beiträge konsumiert,
dann folgen weitere Inhalte mit ähnlichen Emotionen.
Das Ziel: Die Plattform möchte, dass wir möglichst lange dranbleiben. Denn je länger wir scrollen, desto mehr Werbung kann uns angezeigt werden – und genau damit wird Geld verdient.
Warum ist das ein Problem?
Auf den ersten Blick wirkt es logisch: Die App zeigt mehr von dem, was uns gefällt – das klingt doch erst mal ganz praktisch.
Aber genau das ist der Kern des Problems:
Wir sehen nicht das, was ausgewogen oder wichtig ist – sondern das, was uns möglichst lange fesselt.
Das betrifft Kinder genauso wie Erwachsene.
Ob Schminktipps, Fitness-Hacks, politische Meinungen oder Weltuntergangs-Stories: Der Algorithmus merkt, worauf wir reagieren – und zeigt uns immer mehr davon.
So entsteht das, was man eine digitale Echokammer nennt.
So funktioniert eine Echokammer
Social Media zeigt uns vor allem Inhalte, die zu unserem bisherigen Verhalten passen.
Wenn jemand zum Beispiel öfter Beiträge zu Ernährung oder Fitness anschaut, wird er bald mit immer mehr Inhalten zu Kalorien, Diäten und Körpervergleichen gefüttert.
Was harmlos beginnt, kann schnell in eine gefährliche Richtung kippen:
Irgendwann zeigt der Algorithmus fast nur noch schlanke Körper, strenge Diätpläne oder „What I eat in a day“-Videos.
So entsteht der Eindruck: Alle sehen so aus. Alle essen so wenig. Das ist normal.
Gerade bei Jugendlichen kann das zu Essstörungen, Magersucht oder extremen Schönheitsidealen führen – ohne dass es jemand sofort bemerkt.
Oder nehmen wir Politik:
Wer Videos mit einer bestimmten Meinung schaut, bekommt bald fast nur noch Beiträge, die diese Meinung bestätigen. Die Gegenseite? Wird kaum noch angezeigt. So wirkt die eigene Sichtweise plötzlich wie die einzig richtige – und jede andere wie ein Angriff. Das verzerrt die Wirklichkeit und kann zu Spaltung oder Radikalisierung führen.
Das Problem:
Was wir oft sehen, halten wir für normal.
(→ Psycholog:innen nennen das den Mere-Exposure-Effekt: Je öfter wir etwas wahrnehmen, desto vertrauter – und damit auch richtiger – erscheint es uns.)
Was nicht dazu passt, fällt raus.
Und weil wir kaum merken, wie gefiltert unser Blick geworden ist, glauben wir: So ist die Welt.
Bild erstellt mit künstlicher Intelligenz (ChatGPT / DALL·E von OpenAI)
Warum diese Mechanismen gerade bei Kindern so gut funktionieren
Kinder und Jugendliche sind besonders empfänglich für die Logik sozialer Medien – und das ist kein Zufall. Plattformen wie TikTok, Instagram oder YouTube sind gezielt so gestaltet, dass sie das Belohnungssystem im Gehirn aktivieren. Jeder Like, jeder neue Kommentar, jeder neue Clip ist wie ein kleiner Reiz, der Dopamin ausschüttet – ein Stoff, der für Motivation, Glücksgefühle und Suchtverhalten zuständig ist.
Gerade bei jungen Menschen, deren Gehirn sich noch in der Entwicklung befindet, wirkt das besonders stark:
Sie sind schneller beeindruckt,
sie reagieren sensibler auf soziale Anerkennung,
sie verlieren schneller das Zeitgefühl,
und sie haben weniger Kontrolle über Impulse.
Diese Schwächen werden nicht zufällig ausgenutzt – sie sind Teil des Geschäftsmodells. Die Plattformen testen kontinuierlich, welche Inhalte besonders stark fesseln, emotional aufwühlen oder zum ständigen Scrollen verleiten. Alles ist darauf ausgelegt, Nutzer:innen möglichst lange zu halten – egal, ob das für die psychische Gesundheit schädlich ist oder nicht.
Die Betreiber wissen um diese Risiken. Sie haben eigene Forschungen, interne Berichte, Warnungen von Expert:innen – und entscheiden sich dennoch bewusst dafür, diese Dynamiken nicht zu begrenzen.
Warum?
Weil sie davon profitieren. Mehr Aufmerksamkeit bedeutet mehr Werbung. Mehr Werbung bedeutet mehr Umsatz.
Die Folgen – wie Sucht, Selbstzweifel, Essstörungen oder Radikalisierung – tragen die Familien, nicht die Plattformen.
Was hilft?
Aufklärung hilft. Gespräche helfen. Aber das reicht allein nicht.
Wir müssen verstehen: Kinder können diese Mechanismen nicht durchschauen – sie werden davon erfasst, emotional und psychologisch. Und deshalb ist es unsere Aufgabe, ihnen nicht nur zu erklären, wie Social Media funktioniert, sondern sie vor allem so lange wie möglich davon fernzuhalten.
Denn wer Kindern heute Zugang zu TikTok, Instagram oder Snapchat erlaubt, öffnet ihnen ein Tor zu einer Welt, in der es keinen funktionierenden Jugendschutz gibt.
Was Kinder dort sehen können:
Gewalt in nie dagewesener Offenheit – bis hin zu Folter und Tötung,
pornografische Inhalte, sexualisierte Gewalt,
Kriegsverbrechen, Hassreden,
extremistische Botschaften,
Rassismus, Mobbing, Selbstverletzung – oft in verharmloster oder ästhetisierter Form.
Und das alles mobil, unkontrolliert und rund um die Uhr – direkt im Kinderzimmer.
Deshalb gilt:
Jüngere Kinder gehören nicht in Social Media. Punkt.
Kein Algorithmus fragt nach dem Alter, kein Filter ist wirklich sicher.Mit älteren Kindern müssen wir ins Gespräch kommen.
Je besser sie verstehen, wie Algorithmen wirken, desto eher können sie Inhalte einordnen – und sich schützen.Wir sollten zeigen, dass man Social Media auch nutzen kann, ohne sich ausliefern zu lassen.
Indem wir bewusst Accounts folgen, die Wissen, Kreativität oder Vielfalt fördern. Und indem wir lernen, Inhalte zu hinterfragen, statt ihnen blind zu vertrauen.
Nicht alles lässt sich kontrollieren. Aber wir können Kindern helfen, nicht allein und unvorbereitet in eine Welt voller manipulativer Mechanismen zu stolpern.
Denn: Auf Social Media regiert nicht das Richtige – sondern das, was klickt.