Roblox: Scheinsicherheit und reale Risiken – warum wir Kinder dort raushalten sollten

Bild generiert mit Hilfe von KI (ChatGPT/DALL·E, OpenAI)

Zählmarke

Roblox verspricht Schutz für Kinder und schiebt die Verantwortung weiter auf Eltern ab

Roblox kündigt neue Alterskonten, strengere Regeln und mehr Elternkontrollen an. Gleichzeitig führt die Plattform neue Hürden für Entwickler ein, darunter eine Abo-Pflicht, um überhaupt Kinder und Jugendliche erreichen zu können.

Auf den ersten Blick wirkt das wie ein großer Schritt in Richtung mehr Sicherheit. Schaut man genauer hin, entsteht ein anderes Bild. Viele Risiken bleiben bestehen. Und an entscheidenden Stellen zeigt sich, dass Roblox weiterhin auf ein Prinzip setzt, das im Kinderschutz nicht funktionieren kann. Das Prinzip, dass alle im Internet ausnahmslos ehrlich sein müssen.


Roblox ist kein Spiel

Ein zentraler Punkt wird in der gesamten Diskussion oft übersehen: Roblox ist kein Spiel. Roblox ist eine Plattform. Und das ist ein himmelweiter Unterschied.

Ein klassisches Spiel ist ein abgeschlossenes Produkt mit klar definierten Inhalten. Roblox dagegen ist ein offenes System, in dem Millionen Nutzer eigene Inhalte (Räume) erstellen, miteinander interagieren und ständig neue Welten entstehen lassen. Jeder kann sehr leicht Räume erstellen und sie mit relativ geringen Hürden auch für Kinder zugänglich machen

Außerdem entstehen viele Risiken nicht nur durch Inhalte, sondern durch Menschen. Und durch die Dynamiken zwischen ihnen.


Was Roblox jetzt verändert

Roblox führt zwei neue Kontotypen ein. Kinder zwischen fünf und acht Jahren sollen stärker eingeschränkt werden, mit deaktivierter Kommunikation und klar gefilterten Inhalten. Für die große Gruppe zwischen neun und fünfzehn Jahren gibt es ein zweites Modell mit etwas mehr Freiheiten.

Zusätzlich werden Eltern mehr Steuerungsmöglichkeiten gegeben. Inhalte können blockiert oder freigegeben werden, Chats lassen sich verwalten, Nutzungszeiten kontrollieren.

Parallel verschärft Roblox die Regeln für Entwickler. Wer Inhalte für jüngere Nutzer zugänglich machen will, muss künftig nicht nur verifiziert sein und Sicherheitsmaßnahmen erfüllen, sondern auch ein kostenpflichtiges Plus-Abonnement abschließen.

Einordnung

Auf den ersten Blick wirkt das wie ein konsequenter Schritt in Richtung mehr Sicherheit. Tatsächlich bleibt das System in seiner Grundlogik unverändert.

Die stärkeren Einschränkungen betreffen vor allem die jüngsten Kinder. Für die deutlich größere und besonders sensible Gruppe zwischen neun und fünfzehn Jahren ändert sich dagegen wenig an den zentralen Risiken. Gleichzeitig verschiebt Roblox Verantwortung weiter auf die Eltern. Mehr Einstellungen bedeuten nicht automatisch mehr Schutz. Sie bedeuten vor allem mehr Aufwand und mehr Verantwortung im Alltag.

Auch die neuen Hürden für Entwickler sind ambivalent. Sie sollen Missbrauch erschweren, koppeln den Zugang zu jüngeren Zielgruppen aber gleichzeitig an ein Bezahlmodell. Sicherheit und Monetarisierung greifen hier ineinander.

Insgesamt entsteht der Eindruck eines Systems, das nach außen mehr Kontrolle zeigt, ohne die grundlegenden Probleme wirklich zu lösen.


Jugendschutz oder Geschäftsmodell

Die Abo-Pflicht für Entwickler wird als Sicherheitsmaßnahme verkauft. Tatsächlich bedeutet sie vor allem eines: Zugang zur größten Zielgruppe wird an ein Bezahlmodell geknüpft. Ein zahlender Entwickler ist jedoch nicht automatisch ein sicherer Entwickler. Ein verifizierter Account ist kein Garant für kindgerechte Inhalte.

Hier zeigt sich deutlich, dass Roblox nicht nur reguliert, sondern auch kontrolliert und monetarisiert.


Die größte Schwäche bleibt bestehen

Die zentrale Lücke liegt weiterhin bei den neun- bis fünfzehnjährigen Nutzern. Diese Gruppe wird in ein gemeinsames Modell gepackt, obwohl die Unterschiede enorm sind.

Noch schwerer wiegt, dass die Kommunikationsfunktionen hier weitgehend bestehen bleiben. Und genau dort entstehen die größten Risiken: Kontakte mit Fremden, Gruppendruck, Manipulation, Grooming. All das passiert nicht nur über Inhalte allein, sondern über viel über Interaktion.


Ein System, das Ehrlichkeit voraussetzt

Das gesamte Schutzmodell basiert auf Altersangaben und Altersprüfungen. Damit funktioniert es nur unter einer Voraussetzung: Dass alle Nutzer ehrlich sind.

Das ist im Kontext von Kinderschutz eine gefährliche Annahme, denn genau das Gegenteil ist Realität. Täter suchen gezielt nach Orten, an denen Kinder unterwegs sind, passen sich Systemen an, umgehen Regeln, geben sich als Gleichaltrige aus. Ein „Kinderbereich“ ist nur dann sicher, wenn dort auch wirklich nur Kinder sind.

Solange sich Erwachsene als Minderjährige ausgeben können, entsteht vor allem eines: eine gefährliche Scheinsicherheit.


Die Realität: Fälle, Klagen und tausende Verdachtsmeldungen

Person mit Kapuze sitzt vor einem Computerbildschirm mit roter, pixelartiger Roblox-ähnlicher Darstellung, die auf digitale Risiken, Manipulation und Gefahren für Kinder auf Plattformen hinweist

Bild generiert mit Hilfe von KI (Gemini, Google)

Dass es sich hier nicht um theoretische Risiken handelt, zeigen reale Fälle und aktuelle Entwicklungen.

  • Ein besonders aktueller Fall aus Großbritannien zeigt, wie ernst die Lage ist. Ein 19-Jähriger wurde 2026 zu einer Haftstrafe verurteilt, nachdem er ein Mädchen über Roblox kennengelernt, manipuliert und später auch im echten Leben getroffen hatte. (The Guardian)

  • Gleichzeitig stehen in den USA zahlreiche Klagen gegen Roblox im Raum. Dutzende Verfahren wurden gebündelt, in denen der Plattform vorgeworfen wird, Kinder nicht ausreichend vor sexueller Ausbeutung geschützt zu haben. (Reuters)

  • Auch Behörden ermitteln. In Europa prüfen Regulierer, ob Roblox den Schutz von Minderjährigen ausreichend gewährleistet. (Reuters)

Und selbst Roblox nennt Zahlen, die aufhorchen lassen.

Im ersten Halbjahr 2025 wurden rund 1.200 Hinweise auf mögliche Versuche sexueller Ausbeutung gemeldet. (Roblox)
Das sind nicht alles bestätigte Fälle. Aber es sind auch keine Einzelfälle.


Die Dunkelziffer ist vermutlich deutlich höher

Viele Vorfälle werden nie bekannt. Kinder erzählen ihren Eltern häufig nicht, was sie online erleben. Auch dann nicht, wenn vorher offen darüber gesprochen wurde.

Die Angst ist groß, dass Roblox eingeschränkt oder verboten wird. Der soziale Druck ist enorm.

Und genau das macht es für Täter besonders einfach.


Die Probleme gehen weit über Grooming hinaus

Kinder stoßen auf der Plattform auch auf viele andere problematische Inhalte und Situationen.

  • Rassismus

  • Antisemitismus

  • Sexualisierte Inhalte

  • Gewalt

  • Das Nachspielen realer Attentate

Diese Inhalte entstehen in einem System, das genau solche Dynamiken ermöglicht.

Wir haben schon einige Artikel auf Medienzeit, die das zeigen und aufgreifen:


Nein, auch private Server sind kein sicherer Raum

Ein häufiges Argument lautet, dass Kinder ja nur mit Freunden in privaten Servern spielen. Das vermittelt Sicherheit, die so nicht existiert. Die Dynamiken bleiben dieselben, die Risiken bleiben dieselben. Ein privater Raum ändert nichts an einem offenen System.

Weiter lesen: Mythos „Private Games-Server” - Gutes Gefühl für Eltern, aber keine Sicherheit für Kinder


Dark Patterns und Sucht sind Teil des Systems

Roblox ist wie viele Plattformen darauf ausgelegt, genutzt zu werden. Und zwar möglichst lange. Belohnungen, soziale Mechaniken und permanente Reize sorgen dafür, dass Kinder immer wieder zurückkehren. Diese Mechaniken sind kein Zufall. Sie sind Teil des Designs.

Für Kinder bedeutet das hohe Nutzungszeiten, starke emotionale Bindung und Schwierigkeiten beim Aufhören. Und genau das verstärkt alle anderen Risiken zusätzlich.


Roblox ist längst keine Kinderplattform mehr

Roblox ist eine Plattform mit Millionen Nutzern aller Altersgruppen. Mehr als die Hälfte der Nutzer ist älter als 13 Jahre. Der Anteil älterer Nutzer wächst weiter. Kinder bewegen sich also nicht in einem geschlossenen Raum. Sie bewegen sich in einem offenen System, in dem auch ältere Jugendliche und auch Erwachsene sind.


Was bei Roblox systematisch unterschätzt wird

Ein zentraler Fehler in der Diskussion ist die Unterschätzung der Dynamik solcher Plattformen. Viele Eltern bewerten Risiken einzeln und denken in einzelnen Funktionen. Chat. Spiele. Inhalte. In Wirklichkeit wirkt alles zusammen.

Ein Kind bewegt sich in einem System aus Belohnung, sozialer Interaktion und permanenter Verfügbarkeit. Selbst wenn einzelne Risiken reduziert werden, bleibt das Gesamtsystem problematisch.


Warum einzelne Einstellungen das Problem nicht lösen

Viele Maßnahmen setzen auf Einstellungen, die Eltern vornehmen sollen/können. Doch ein dynamisches System lässt sich nicht zuverlässig über Optionen steuern.

  • Kinder verändern ihr Verhalten.

  • Gruppen verändern ihre Dynamik.

  • Inhalte verändern sich ständig.

Schutzmaßnahmen laufen hier immer nur hinterher. Echter Jugendschutz muss Risiken von Anfang an begrenzen.


Verantwortung wird wieder an Eltern abgegeben

Roblox gibt Eltern mehr Kontrolle. Aber damit auch mehr Verantwortung. Eltern sollen Inhalte freigeben oder blockieren, Chats verwalten und Nutzungszeiten im Blick behalten. Das klingt nach Unterstützung, bedeutet im Alltag aber vor allem zusätzliche Aufgaben und Entscheidungen.

Das Grundproblem bleibt bestehen. Die Risiken sind weiterhin Teil des Systems und werden nicht konsequent reduziert, sondern in die Verantwortung der Familien verschoben. Viele Eltern können diese Rolle im Alltag kaum erfüllen, weil ihnen Zeit, Wissen oder Einblick in die Dynamiken der Plattform fehlen. Gleichzeitig bewegen sich Kinder nicht isoliert. Sie stehen im Austausch mit Freunden, werden von Gruppen beeinflusst und erleben Situationen, die sich nicht über Einstellungen kontrollieren lassen..


„Safety by Design“ sieht anders aus

Echter Jugendschutz würde Risiken reduzieren, bevor sie entstehen. Plattformen müssten so gestaltet sein, dass problematische Inhalte, Kontakte und Dynamiken gar nicht erst entstehen oder zumindest stark begrenzt werden.

Stattdessen setzt Roblox weiterhin auf Moderation, Filter und Meldesysteme, die erst greifen, wenn etwas bereits passiert ist. Das ist kein präventiver Schutz, sondern eine nachgelagerte Reaktion. Ein System, das auf nachträgliche Kontrolle setzt, kann Kinder nicht zuverlässig schützen, weil Schäden und Grenzüberschreitungen oft schon stattgefunden haben, bevor eingegriffen wird.

Bild generiert mit Hilfe von KI (Gemini, Google)


Warum sich jetzt etwas bewegt

Der Druck ist gestiegen. Eltern, Öffentlichkeit und Politik haben in den vergangenen Jahren immer deutlicher gemacht, dass die bisherigen Systeme nicht ausreichen. Medienberichte, Studien und konkrete Fälle haben gezeigt, dass Risiken nicht nur theoretisch existieren, sondern im Alltag von Kindern eine Rolle spielen.

Die aktuellen Änderungen sind deshalb nicht losgelöst zu betrachten, sondern als Reaktion auf diesen Druck. Plattformen bewegen sich selten freiwillig in Richtung strengerer Regeln. Sie reagieren, wenn Kritik sichtbar wird und regulatorische Konsequenzen drohen. Genau deshalb ist es wichtig, dass dieser Druck bestehen bleibt.


Was jetzt zu tun ist

Eltern sollten sich von solchen Updates nicht in falscher Sicherheit wiegen lassen. Wenn Zweifel bestehen, ist es sinnvoll, die Nutzung kritisch zu hinterfragen und Kinder aus solchen Systemen herauszunehmen oder zumindest deutlich zu begrenzen.

Gleichzeitig ist der Austausch mit anderen Eltern entscheidend. Viele wissen nicht, wie diese Plattformen funktionieren oder welche Risiken bestehen. Wer informiert ist, kann bewusster entscheiden und auch andere sensibilisieren. Nur wenn Wissen geteilt wird, entsteht ein gemeinsames Verständnis.

Und nur wenn viele Eltern handeln und ihre Erwartungen klar formulieren, entsteht Veränderung. Druck von außen ist einer der wenigen Faktoren, die Plattformen dazu bringen, ihre Systeme wirklich anzupassen.

Konkrete Tipps

1. Hinterfrage die Nutzung kritisch Wenn du dich unsicher fühlst oder bemerkst, dass dein Kind mit den sozialen Dynamiken (Gruppendruck, Belohnungssysteme) überfordert ist, zieh die Reißleine. Es ist völlig legitim, den Zugang zu solchen Systemen komplett zu unterbinden oder zeitlich stark zu begrenzen.

2. Begleite die Nutzung, statt dein Kind isoliert spielen zu lassen Echter Schutz lässt sich nicht durch Einstellungen delegieren.

  • Bleib dabei: Lass dein Kind nicht allein im Zimmer „robloxen“. Der Bildschirm sollte im Gemeinschaftsraum einsehbar sein.

  • Spiel mit: Lass dir die Welten zeigen. Wer sind die Freunde? Worüber wird im Chat gesprochen? Wenn du Interesse zeigst, sinkt die Hemmschwelle deines Kindes, sich dir bei Problemen anzuvertrauen.

3. Nutze radikale Privatsphäre-Einstellungen Verlass dich nicht auf die Standardvorgaben. Geh aktiv in die Einstellungen und:

  • Deaktiviere den Chat komplett (wo möglich).

  • Beschränke die Kontaktmöglichkeiten auf „Niemand“ oder ausschließlich real bekannte Freunde.

  • Nutze die neuen Eltern-Dashboards, um die Aktivitäten deines Kindes nicht nur zu begrenzen, sondern regelmäßig zu prüfen.

4. Aufklärung und Austausch Sprich mit deinem Kind über Themen wie Grooming und Datenweitergabe – kindgerecht, aber ehrlich. Erklär ihm, warum du bestimmte Einschränkungen vornimmst. Gleichzeitig ist der Austausch mit anderen Eltern entscheidend: Oft wissen Familien gar nicht, welchen Risiken ihre Kinder ausgesetzt sind. Erst wenn wir ein gemeinsames Verständnis für die Problematik entwickeln, entsteht der nötige Druck auf die Plattformbetreiber.

Zusammenfassend gilt:

  • Im Zweifel: Nimm dein Kind aus dem System heraus.

  • Im Alltag: Kläre auf, begleite und schränke technisch maximal ein.

  • Vernetzung: Sprich mit anderen Eltern. Nur gemeinsam lässt sich die „Normalität“ hinterfragen, die Roblox in Kinderzimmern beansprucht.


Fazit

Roblox ist kein Spiel, sondern eine Plattform mit offenen Strukturen, sozialen Dynamiken und systemischen Risiken. Genau darin liegt das grundlegende Problem. Wo Inhalte, Kontakte und Interaktionen weitgehend von Nutzern selbst gestaltet werden, entstehen Räume, die sich nur schwer kontrollieren lassen.

Ein System, das darauf angewiesen ist, dass alle Beteiligten ehrlich handeln, kann Kinder nicht zuverlässig schützen. Gleichzeitig schafft eine offene Kommunikationsstruktur immer neue Risiken, weil Kontakte und Gespräche nicht vollständig vorhersehbar oder kontrollierbar sind. Wenn Schutzmechanismen erst nachträglich greifen, also nachdem etwas bereits passiert ist, bleibt das System grundsätzlich unsicher.

Hinzu kommt, dass viele Vorfälle unsichtbar bleiben. Die Dunkelziffer ist vermutlich hoch, weil Kinder ihre Erfahrungen oft nicht teilen. Aus Angst, dass ihnen die Nutzung verboten wird, oder weil sie Situationen selbst nicht richtig einordnen können, behalten sie vieles für sich. Dadurch entsteht ein verzerrtes Bild, das die tatsächlichen Risiken unterschätzt.

Deshalb ist es entscheidend, wachsam zu bleiben, Entwicklungen einzuordnen und sich nicht von vermeintlicher Sicherheit beruhigen zu lassen. Gleichzeitig braucht es Druck von Eltern, Öffentlichkeit und Politik, damit sich grundlegende Strukturen verändern.

Echter Jugendschutz entsteht nicht durch Ankündigungen oder zusätzliche Einstellungen, sondern durch klare Regeln und Systeme, die Risiken von Anfang an begrenzen und für alle verbindlich gelten.

Weiter
Weiter

Hanno Lenz und Schutzraum Medienkompetenz: Aufklärung mit Haltung und Herz