Warum Instagram und Facebook Kinder nicht schützen – und die EU jetzt eingreift

Zählmarke

Fast alle Eltern kennen diese Situation. Das eigene Kind ist noch keine 13 Jahre alt. Und trotzdem ist Instagram plötzlich da. Oder TikTok. Oder YouTube mit eigenen Accounts. Oft beginnt es harmlos. Ein falsches Geburtsdatum. Ein schneller Account. „Alle anderen haben das auch.“ Und genau in diesem Moment wird aus einer kleinen Entscheidung etwas, das sich später nur schwer zurückdrehen lässt. Und dann ist das Kind drin.

Genau darüber spricht jetzt auch die Europäische Kommission. Und sie wird deutlich. Nach vorläufigen Ermittlungen verstoßen Facebook und Instagram gegen den Digital Services Act, weil sie Kinder nicht wirksam von ihren Plattformen fernhalten.

Das ist keine Randnotiz, das ist ein klares Signal. Denn zum ersten Mal wird ein Problem, das viele Eltern als Alltag erleben, auf europäischer Ebene konkret benannt und rechtlich bewertet.

Ein Kind steht im Dunkeln und schaut auf ein Smartphone, während im Hintergrund unscharf die Logos von Meta, Facebook und Instagram sichtbar sind und eine bedrückende, digitale Atmosphäre entsteht.

Bild generiert mit Hilfe von KI (ChatGPT/DALL·E, OpenAI)

Worum geht es konkret?

Die Regel ist eigentlich eindeutig. Instagram und Facebook sind erst ab 13 Jahren erlaubt. In der Realität reicht oft ein falsches Geburtsdatum und ein Kind ist angemeldet. Dieser Schritt dauert wenige Sekunden und wird von den Plattformen kaum hinterfragt.

Die EU sagt klar, dass diese Altersangaben nicht wirksam überprüft werden. Genau darin sieht sie einen zentralen Schwachpunkt des Systems.

Hinzu kommt, dass erkannte Kinderkonten nicht konsequent entfernt werden. Auch das Melden solcher Accounts ist kompliziert. In manchen Fällen braucht es mehrere Klicks und selbst dann passiert häufig nichts.

Das Problem ist nicht, dass es keine Regeln gibt. Das Problem ist, dass sie nicht greifen. Und genau diese Lücke zwischen Regel und Realität steht jetzt im Fokus der Ermittlungen.


Warum das mehr ist als ein technisches Problem

Grundlage der Ermittlungen ist der Digital Services Act. Dieses Gesetz verpflichtet Plattformen dazu, Risiken aktiv zu erkennen und zu reduzieren, besonders für Kinder. Es geht dabei nicht nur um Inhalte, sondern auch um Strukturen und Funktionsweisen.

Die EU sagt nun, dass Meta dieser Verantwortung nicht ausreichend nachkommt. Die Kritik richtet sich also nicht gegen einzelne Fehler, sondern gegen das System insgesamt. Das verändert die Perspektive.

Es geht nicht mehr nur darum, was Eltern erlauben oder verbieten. Es geht darum, dass Plattformen Kinder erreichen und gleichzeitig nicht ausreichend schützen. Damit wird aus einem privaten Thema ein politisches.


Wie viele Kinder sind betroffen?

Die EU geht davon aus, dass etwa zehn bis zwölf Prozent der Kinder unter 13 Jahren Instagram oder Facebook nutzen. Viele Eltern werden sofort merken, dass sich das nach wenig anfühlt. Im Alltag wirkt es oft so, als wären es deutlich mehr Kinder.

Dieses Gefühl ist nicht zufällig. Es zeigt, dass Zahlen und Lebensrealität oft auseinandergehen.


Einordnung der Zahl

Die genannte Zahl bezieht sich konkret auf Facebook und Instagram und ist deshalb für das Verfahren wichtig. Sie zeigt aber nicht die ganze Realität.

Wer Kinder begleitet, weiß, dass sie längst früher online sind. Studien aus Deutschland und anderen Ländern zeigen, dass schon Grundschulkinder regelmäßig digitale Plattformen nutzen.

Das bedeutet

  • Die EU-Zahl beschreibt ein konkretes Problem bei Meta.

  • Die tatsächliche Nutzung ist deutlich breiter.

Kinder bewegen sich viel früher in digitalen Räumen, als es die Plattformregeln vorsehen. Und genau deshalb greifen viele Schutzmechanismen zu spät.


Meta widerspricht den Vorwürfen

Meta weist die Vorwürfe zurück und betont, bereits Maßnahmen zur Erkennung von Kinderkonten zu nutzen. Gleichzeitig kündigt der Konzern neue Lösungen an. Ein zentrales Argument lautet, dass Alterskontrollen schwierig seien. Technisch und datenschutzrechtlich ist das auch nicht trivial. Und das stimmt auch.

Aber genau hier setzt die EU an. Schwierigkeit entbindet nicht von Verantwortung. Plattformen profitieren wirtschaftlich von Nutzung und müssen deshalb auch die Risiken ernst nehmen.

Wenn Plattformen Kinder erreichen, müssen sie sie auch schützen.


Es geht nicht nur um Altersangaben

Ein wichtiger Punkt wird oft unterschätzt. Die EU schaut nicht nur darauf, wie Kinder auf die Plattform kommen. Sie schaut auch darauf, was dort passiert.

  • Wie lange bleiben Kinder dort.

  • Welche Inhalte sehen sie.

  • Wie stark wirken Algorithmen.

Damit wird klar, dass es nicht nur um Zugang geht, sondern um das gesamte System. Und genau dieses System steht zunehmend in der Kritik.


Was jetzt passieren kann

Wenn sich die Einschätzung der EU bestätigt, drohen hohe Strafen. Bis zu sechs Prozent des weltweiten Jahresumsatzes sind möglich. Zusätzlich können tägliche Strafzahlungen verhängt werden.

Für Meta geht es damit um Milliarden. Das ist ein Druck, der nicht ignoriert werden kann.

Noch wichtiger ist aber, dass der Druck steigt. Und zwar nicht nur auf Meta, sondern auf alle großen Plattformen. Die Regeln werden ernster genommen und stärker kontrolliert.


Eine mögliche Lösung

Die EU arbeitet bereits an einer eigenen Lösung für Alterskontrollen.

Die Idee ist, dass Nutzer ihr Alter nachweisen können, ohne persönliche Daten unnötig preiszugeben. Plattformen sollen so verlässlich prüfen können, ob jemand alt genug ist. Das klingt sinnvoll, ist aber noch nicht fertig und wird auch kritisch diskutiert. Fragen zu Datenschutz und Sicherheit sind noch offen.

Es zeigt aber, dass die Politik beginnt, konkrete Lösungen zu entwickeln.


Warum das auch andere Plattformen betrifft

Das Problem beschränkt sich nicht auf Instagram oder Facebook. Auch TikTok, Snapchat und YouTube haben Altersgrenzen. Auch dort lassen sie sich umgehen. Deshalb wird diese Diskussion weitergehen. Und sie wird nicht bei einem einzelnen Unternehmen stehen bleiben.

Die EU signalisiert deutlich, dass sie die gesamte Branche in den Blick nimmt.


Was bedeutet das für uns als Eltern?

Bild generiert mit Hilfe von KI (ChatGPT/DALL·E, OpenAI)

Die wichtigste Erkenntnis ist unbequem. Wir können uns aktuell nicht darauf verlassen, dass Plattformen unsere Kinder schützen.

Und genau daraus ergibt sich aus unserer Sicht eine klare Haltung: Social Media ist kein guter Ort für Kinder & Jugendliche.

Wir sehen das jeden Tag. In Gesprächen mit Eltern. In Schulen. In unseren Recherchen.

Es geht nicht um Einzelfälle.

  • Kinder stoßen auf Gewalt.

  • Sie sehen sexualisierte Inhalte.

  • Sie werden angesprochen und manipuliert.

  • Grooming passiert.

  • Rassismus und Mobbing gehören für viele zum Alltag.

Das sind keine Ausnahmen. Das passiert regelmäßig und überall. Kinder und Jugendliche treffen dort auf Inhalte und Dynamiken, die sie noch nicht einordnen können. Und genau das macht diese Plattformen so problematisch.

Deshalb sagen wir klar

  • Kein Social Media vor 16.

  • Und wenn überhaupt ab 14, dann nur mit enger Begleitung.

Das ist keine Ideologie. Das ist eine Konsequenz aus der Realität.


Warum diese Entwicklung wichtig ist

Zum ersten Mal wird das, was viele Eltern seit Jahren beobachten, politisch ernst genommen.

  • Nicht als Einzelfall.

  • Nicht als Erziehungsfrage.

  • Sondern als strukturelles Problem.

Auch international zeigt sich, wie ernst die Lage ist.

In den USA laufen zahlreiche Klagen gegen Meta und Alphabet Inc.. Eltern werfen den Unternehmen vor, dass Plattformen wie Instagram und YouTube ihre Kinder abhängig gemacht und ihnen geschadet haben. Gerichte haben bereits in einzelnen Fällen hohe Schadensersatzzahlungen zugesprochen. Es geht dabei um Suchtmechaniken, psychische Belastungen und bewusst gestaltete Systeme, die Nutzer möglichst lange binden sollen.

Diese Verfahren stehen noch am Anfang. Aber sie zeigen sehr deutlich, wohin sich die Debatte entwickelt.

Es geht nicht mehr nur um Nutzung. Es geht um Verantwortung.


Fazit

Die EU wirft Meta vor, Kinder nicht ausreichend zu schützen. Im Kern geht es um etwas sehr Einfaches.

  • Altersgrenzen existieren.

  • Aber sie funktionieren nicht.

Für Eltern ist das keine neue Erkenntnis. Neu ist, dass daraus Konsequenzen entstehen könnten. Und vielleicht ist genau das der entscheidende Punkt. Solange Plattformen nicht sicher sind, müssen wir Entscheidungen treffen, die unsere Kinder schützen.


Weiter
Weiter

YouTube für Kinder sicher machen? Warum viele Tipps zu kurz greifen