Warum Altersfreigaben bei App-Stores nicht ausreichen – ein Weckruf an Eltern, Politik und Plattformbetreiber
Marieke Junge
Blickt als Philosophin und Pädagogin für Medienzeit kritisch auf aktuelle Phänomene der Internetgesellschaft.
Gastbeitrag von Marieke Junge
Schon mal von Skibidi Toilets gehört? Diese Köpfe, die aus Toiletten kommen wie geisteskranke Zombies, deren Anblick einen unwillkürlich am menschlichen Verstand, an Sitte und Moral der Entwickler zweifeln lässt, gehören in vielen deutschen Grundschulen heute neben Fortnite und anderen viralen Phänomenen zum Alltag.
Eine persönliche Erfahrung im App Store
Gerade habe ich gemeinsam mit meinem Sohn wieder eine Erfahrung im App Store gemacht, die mich nachdenklich – und ehrlich gesagt betroffen – zurücklässt. Wir stießen auf eine App, die offiziell mit „ab 0 Jahren“ gekennzeichnet war. Nach wenigen Klicks jedoch tauchten im Trailer verstörende, eindeutig nicht kindgerechte Inhalte auf. Unsere Reaktion war klar: sofort melden – direkt im App Store und zusätzlich an die Verbraucherzentrale.
Digitale Plattformen als kritische Infrastruktur
Diese Situation zeigt mir auf drastische Weise, dass digitale Plattformen eine wirklich kritische Infrastruktur sind. Sie prägen Meinungen, Verhalten und Entwicklung – insbesondere die von Kindern. Und sie können, wenn sie keine echten Schutzmechanismen bieten, genauso wirkmächtig sein wie politische oder mediale Plattformen: Ob nun App-Stores, soziale Netzwerke oder selbst Internetseiten – alle kontrollieren sie, welche Inhalte Kinder und Jugendliche sehen und wie diese Inhalte wahrgenommen werden. Gatekeeperfunktion bedeutet Macht – und mit Macht kommt Verantwortung.
Bild generiert mit Hilfe von KI (Gemini, Google)
Der trügerische Schutz von Altersfreigaben
Als Mutter, Philosophin und Pädagogin beobachte ich seit Jahren, wie Kinder und Jugendliche zunehmend allein mit digitalen Inhalten gelassen werden, die sie weder kognitiv noch emotional verarbeiten können. Die meisten Eltern vertrauen dabei auf die scheinbare Sicherheit von App-Stores: ein grünes Symbol, eine Altersfreigabe, ein Hinweis „ab 6“ oder „ab 12“ – und schon glaubt man, das Kind sei geschützt. Doch diese Alterskennzeichnungen sind weder verlässlich noch ausreichend. Sie sind häufig reine Marketinginstrumente, die den Anschein von Sicherheit erwecken, während die inhaltliche Realität eine ganz andere ist.
App-Stores als Gatekeeper – und ihr Versagen
App-Stores wie Google Play, Apple App Store oder vergleichbare Plattformen agieren als Gatekeeper einer digitalen Kinderwelt – und scheitern gleichzeitig an der Verantwortung, die sie dadurch auf sich laden. Immer wieder finden Kinder auf diesen Plattformen Apps, Spiele oder Videos, die inhaltlich völlig ungeeignet sind: Inhalte, die überreizen, verstören, Gewalt normalisieren, sexualisieren oder schlicht inhaltsleer sind. Es reicht nicht, dass die App „offiziell als jugendfrei“ gekennzeichnet ist. Was dort als harmlos gilt, kann für Kinder in einem bestimmten Alter oder Entwicklungsstadium bereits problematisch sein. Das Problem wird verschärft durch Algorithmen, die das Kind permanent zu neuen Inhalten führen, die nach denselben Reiz- und Aufmerksamkeitsmechanismen gestaltet sind. Kinder geraten so in einen Kreislauf von permanenter Überstimulation und Belohnungsflut – und niemand kontrolliert, wie stark dies ihre Aufmerksamkeit, Konzentration und emotionale Stabilität beeinflusst.
Bild generiert mit Hilfe von KI (Gemini, Google)
Verantwortung endet nicht beim Label
Die Verantwortung der App-Stores endet hier nicht bei der Kennzeichnung von Altersstufen. Sie beginnt bei der kuratorischen Auswahl und Bewertung von Inhalten, bevor diese überhaupt in die Hände von Kindern gelangen. Wenn Plattformen sich darauf beschränken, Inhalte mit einem Label zu versehen, verlagern sie die Fürsorgepflicht vollständig auf die Eltern – eine Aufgabe, die viele Eltern nicht leisten können, weil sie die Inhalte, Algorithmen oder psychologischen Effekte nicht beurteilen können. In der Praxis bedeutet dies: Kinder navigieren durch eine digitale Wildnis ohne Schutz, ohne Orientierung, oft allein gelassen in einer Welt, die profitgetrieben und auf Aufmerksamkeit optimiert ist.
Manipulation, Belohnung und der Verlust von Reflexion
Hinzu kommt ein weiteres Problem: Kinder erkennen Inhalte nicht immer als manipulativ oder problematisch. Spiele, Videos und Apps sind oft so gestaltet, dass sie sich harmlos, lustig oder „cool“ anfühlen. Durch Belohnungsmechanismen wie Sammeln, Punkte, virtuelle Währungen oder Avatare wird Reflexion ausgeschaltet, die kritische Auseinandersetzung mit dem Inhalt verhindert. Es entsteht eine Situation, die Philosophen wie Neil Postman als „Überwucherung der Unterhaltung“ beschrieben haben: Unterhaltung ersetzt kritisches Denken, Reiz überschattet Reflektion. Für Kinder bedeutet dies, dass sie nicht nur passiv konsumieren, sondern ihr Gehirn in einer Art Dauerzustand von Reiz und Reaktion konditioniert wird. Die so entstehenden Gewohnheiten betreffen nicht nur die Freizeitgestaltung, sondern langfristig auch Lernfähigkeit, Sozialverhalten und emotionale Entwicklung.
In-App-Käufe und soziale Funktionen als zusätzliches Risiko
Ein weiteres Versäumnis liegt in der unzureichenden Kontrolle von In-App-Käufen und sozialen Funktionen. Selbst in Apps, die als „kindgerecht“ beworben werden, finden Kinder oft Mikrotransaktionen oder Chatfunktionen, die eine Verbindung zu fremden Erwachsenen ermöglichen. Die Kombination aus Reizüberflutung, Belohnungsmechanismen und fehlender sozialer oder regulatorischer Kontrolle schafft ein hochgradig riskantes Umfeld. Eltern werden formal entlastet, doch die reale Verantwortung wird auf die Kinder selbst verschoben – Kinder, die in ihrer kognitiven und emotionalen Entwicklung noch nicht über die nötige Kompetenz verfügen, um sich zu schützen.
Warum Alterskennzeichnungen nicht ausreichen
Bild generiert mit Hilfe von KI (ChatGPT/DALL·E, OpenAI)
Angesichts dieser systemischen Probleme reichen einfache Alterskennzeichnungen nicht. Wir benötigen eine echte Kuratorenschaft: eine verantwortliche Auswahl, Bewertung und Einordnung von Inhalten, die über Labels hinausgeht. Kuratierung bedeutet nicht Zensur.
Was Standard sein sollte:
Inhalte werden auf pädagogische und psychologische Eignung geprüft.
Überreizung, Gewaltverherrlichung und manipulative Mechanismen werden bewertet und transparent gemacht.
Algorithmen, die Inhalte pushen, werden so gestaltet, dass sie nicht automatisch die Aufmerksamkeit ausbeuten, sondern die Entwicklung der Kinder berücksichtigen. Das Melden von verstörenden Inhalten muss leicht zugänglich und möglich sein.
Eltern und Pädagog:innen erhalten zugängliche Informationen und Werkzeuge, um Kinder sinnvoll zu begleiten.
Kinder sind keine normalen Nutzer
Angesichts der aktuell dramatischen Situation müssen App-Stores ihre rechtlichen und ethischen Pflichten endlich ernst nehmen. Kinder sind keine Kunden wie jeder andere: Sie sind besonders schutzbedürftig. Das Geschäftsmodell von Plattformen darf nicht auf Kosten der kindlichen Entwicklung gehen. Meiner Ansicht nach sind staatliche Regulierung, klare Standards und unabhängige Kontrollinstanzen notwendig, um diese Verantwortung abzusichern.
Schutzmechanismen müssen voreingestellt sein
Deshalb wäre für mich erste Priorität, dass die voreingestellten Schutzmechanismen von App-Stores standardmäßig auf höchstem Sicherheitsniveau aktiviert sein müssen. Jede App, die nicht explizit als altersgerecht geprüft wurde, sollte von vornherein für Kinder gesperrt sein und aktiv von Erwachsenen freigeschaltet werden müssen. Es darf nicht sein, dass Kinder durch unzureichende Voreinstellungen Zugang zu Inhalten erhalten, die sie überfordern oder verstören können. Die Verantwortung darf vor allem nicht auf Eltern abgewälzt werden, die oft gar nicht erkennen, welche Risiken hinter scheinbar harmlosen Apps stecken.
Verständliche Einstellungen statt Umsatzlogik
Ebenso muss es für Eltern sofort sichtbar und einfach umsetzbar sein, den App Store vollständig unzugänglich zu machen oder unumgängliche Jugendschutzeinstellungen zu aktivieren. Menüs, Beschriftungen und Einstellungen müssen klar, verständlich und für alle Eltern zugänglich sein – unabhängig von technischem Wissen. Umsatz darf hierbei nicht über Sicherheit und Schutz der Kinder gestellt werden. Digitale Kindheit ist kein Markt für maximale Klickzahlen oder Mikrotransaktionen; sie muss genau wie reale Kindheit ein Raum für Entwicklung, Lernen und gesunde Aufmerksamkeit sein dürfen. App-Stores tragen meiner Ansicht nach die Pflicht, diese Prioritäten in ihrer Gestaltung und Voreinstellung deutlich zu verankern – oder eben leicht unzugänglich zu machen.
Ein Appell an alle Beteiligten
Als Mutter, Pädagogin und Philosophin appelliere ich daher an alle Beteiligten: Wir können Kinder nicht allein lassen, nur weil Technologie als selbstregulierend oder harmlos etikettiert wird. Wir müssen digitale Räume kuratieren, Kinder begleiten, Transparenz einfordern und Inhalte aktiv prüfen. Erst dann wird aus einer digitalen Wildnis der Reize ein sicherer, entwicklungsförderlicher Raum, in dem Kinder spielen, lernen und wachsen können – ohne dass ihre Aufmerksamkeit, ihre Kreativität oder ihre psychische Stabilität zum Spielball von Algorithmen und Marketing wird.
Verantwortung beginnt nicht beim Label, sondern beim Menschen
Mein Appell: Menschliche Fürsorgepflicht endet nicht bei der Einschätzung durch einen Algorithmus oder ein Label – sie beginnt dort erst recht. App-Stores müssen Verantwortung übernehmen, Eltern müssen informiert bleiben, und Kinder verdienen eine digitale Welt, die nicht nur unterhält, sondern auch geschützt ist.
Im Digital Services Act im Artikel 28 wird übrigens der Umgang von Plattformen mit Jugendlichen auf Europäischer Ebene geregelt.
Meine Quellen:
Adorno, Theodor W.: Kulturindustrie. Aufklärung als Massenbetrug. In: Adorno u. Horkheimer: Dialektik der Aufklärung. Amsterdam 1944.
Heidegger, Martin: Sein und Zeit. Tübingen 1927.
Postman, Neil: Das Verschwinden der Kindheit. Fischer Taschenbuch Verlag, Frankfurt am Main 1983.
Postman, Neil: Wir amüsieren uns zu Tode.Urteilsbildung im Zeitalter der Unterhaltungsindustrie. Frankfurt am Main 1988.