Character AI zieht die Notbremse – Alterskontrolle voraus
Character.ai , eine der bekanntesten KI Plattformen für Jugendliche stoppt ihre Chatfunktionen. Der Grund: viel zu viele riskante Gespräche zwischen Chatbots und Minderjährigen. Was nach einem Schritt in die richtige Richtung klingt, ist nur der Anfang. Denn Kinder und Jugendliche wechseln dann einfach zu anderen Apps, die keine Grenzen kennen. Eltern sollten weiterhin unbedingt hinschauen und mit ihren Kindern reden, bevor andere es tun.
Bild generiert mit Hilfe von KI (ChatGPT/DALL·E, OpenAI)
Was gerade passiert
Character AI erlaubt es, mit künstlichen Figuren zu sprechen, die sich verhalten, als wären sie echte Menschen. Jugendliche erzählen diesen Chatbots Geheimnisse, lassen sich trösten oder holen sich (psychologischen) Rat. Millionen Minderjährige nutzen die App weltweit.
Nun reagiert das Unternehmen.
Jugendliche dürfen nur noch zwei Stunden pro Tag chatten
Ab dem 25. November 2025 werden offene Chats für unter 18-Jährige komplett abgeschaltet
Eine Altersprüfung („Age Assurance“) wird eingeführt
Der Fokus soll künftig auf kreativen Funktionen wie Geschichten oder Streams liegen
Quellen: Character.AI Blog, The Verge, AP News
Warum dieser Schritt nötig ist
In den letzten Monaten gab es immer wieder Berichte über beunruhigende Inhalte. Kinder und Jugendliche landeten in Gesprächen, die sexuell, manipulativ oder psychisch belastend waren. In den USA laufen inzwischen Klagen gegen Character AI, weil Eltern ihre Kinder durch den Kontakt mit solchen Chatbots gefährdet sehen.
Forschungen zeigen, dass KI Begleiter gezielt emotionale Bindungen fördern. Sie imitieren die Sprache und das Verhalten der Nutzer und erzeugen so das Gefühl echter Nähe. Jugendliche fühlen sich verstanden, getröstet und ernst genommen, manchmal mehr als von Menschen. Genau darin liegt das Risiko. (arxiv.org)
Wir haben hier über die Plattform Character.ai kritisch berichtet: Warum Character ai so gefährlich für Kinder ist
Warum Eltern trotzdem wachsam bleiben müssen
Dass Character AI nun endlich reagiert, ist gut. Aber das löst das Problem nicht. Kinder, die solche Apps spannend finden, wechseln einfach zu anderen Anbietern. Plattformen wie Chai, Candy AI oder AI Mirror wachsen rasant, und die sind weiterhin oft ohne Zeitbegrenzung und nur mit einer einfachen Altersabfrage zugänglich.
Viele dieser Apps werben offen mit „AI Girlfriend“ oder „AI Best Friend“. Manche haben keine Filter, manipulieren Jugendliche, spielen mit Emotionen und speichern persönliche Inhalte sogar teilweise unverschlüsselt. Es gibt also keinen Grund zur Entwarnung.
Wir Eltern müssen verstehen: KI Gespräche sind für viele Jugendliche längst normal. Sie holen sich dort Zuspruch, Feedback oder Unterhaltung. Wenn Erwachsene dieses Thema meiden, übernehmen Algorithmen die Rolle von Gesprächspartnern. Mit vielen Gefahren.
Was Eltern jetzt tun können
1. Redet mit euren Kindern: Fragt nach, ob sie solche Apps kennen oder nutzen. Lasst euch zeigen, wie sie funktionieren. Kinder öffnen sich eher, wenn sie merken, dass ihr wirklich interessiert seid.
2. Setzt klare Regeln: Legt gemeinsam fest, wann und wo solche Apps genutzt werden dürfen. Am besten gar keine Nutzung, Und wenn es unbedingt sein muss, dann keine Nutzung nachts, keine KI Chats im Schlafzimmer. Regeln geben Orientierung und Sicherheit.
3. Prüft die Sicherheitseinstellungen: Mit Apple Bildschirmzeit oder Google Family Link lassen sich Altersgrenzen und App Zeiten festlegen. Sprecht offen darüber, warum das wichtig ist.
4. Zeigt Alternativen: Kinder suchen Nähe und Verständnis. Je stärker die echten Beziehungen sind, desto weniger brauchen sie digitale Ersatzfreunde. Zeit, Gespräche und echte Begegnungen sind der beste Schutz.
5. Bleibt aufmerksam: Wenn euer Kind heimlich chattet, sich zurückzieht oder Schlafprobleme hat, nehmt das ernst und sucht das Gespräch. Es geht nicht um Strafe, sondern um Schutz und Vertrauen.
Warum Technik allein nicht reicht
Altersprüfungen sind leicht zu umgehen. Auch KI Filter können manipuliert werden. Deshalb braucht es mehr als technische Lösungen. Kinder müssen lernen, wie diese Systeme funktionieren und wo ihre Grenzen sind.
Wir Eltern sind gefragt, das Thema in den Alltag zu holen. Nicht erst, wenn etwas schiefläuft. Wer früh mit seinem Kind über KI redet, schafft Vertrauen. Dann kommt es im Zweifel zuerst zu euch und nicht zur App.
Fazit
Character AI zieht die Notbremse. Das ist ein wichtiges Signal. Aber andere Plattformen stehen schon bereit. Wir können uns nicht darauf verlassen, dass Unternehmen das Problem lösen. Der beste Kinderschutz beginnt zu Hause – mit echten Gesprächen, klaren Regeln und einem wachen Blick auf die digitalen Wege unserer Kinder.