KI als Kumpel: Wenn ChatGPT Nähe ersetzt und emotionale Abhängigkeit entsteht
Foto: Hendrik Krug
Gastbeitrag von Maja Sommer
„Wenn ich niemanden zum Reden habe, ist er immer da.“ Finn
Solche Aussagen über ChatGPT höre ich in meinen Trainings oft. Viele Kinder und Jugendliche nutzen KI-Chatbots mittlerweile in ganz unterschiedlichen Lebensbereichen.
„ChatGPT ist wie so ein Kumpel, hilfreich und nett.“ Thea
„Ich frage ChatGPT, wie ich besser schlafe und mich ernähre.“ Paul
„Man kann ihn fragen, was man machen kann, was man kaufen kann oder was man gegen Langeweile tun kann.“ Fabrice
Junge Menschen sprechen mit ChatGPT über Banales, Gedanken, Probleme, Schulaufgaben oder holen sich Ratschläge. Sie erhalten Tipps für kleine und manchmal auch große Situationen ihres Lebens. Was dabei schnell entsteht, ist ein Gefühl von Nähe und Vertrauen, obwohl sie mit einer Maschine kommunizieren.
ChatGPT steht hier stellvertretend für KI-Chatbots, die auf Gespräche ausgelegt sind und im Alltag von Kindern und Jugendlichen zunehmend präsent sind.
Generative KI erstellt komplexe, menschenähnliche Antworten. Da das Smartphone und damit auch der Chatbot jederzeit griffbereit sind, ist diese Form der Kommunikation immer verfügbar, zu jeder Tages- und Nachtzeit.
Die generative KI ist darauf trainiert, emotionale Signale im Text zu erkennen und darauf zu reagieren. Es wirkt, als würde sie zuhören, verstehen und mitfühlen. Die Antworten erscheinen passgenau auf die Bedürfnisse zugeschnitten, freundlich, geduldig und zugewandt. Für viele junge Menschen fühlt sich das sehr gut an. So werden KI-Chatbots wie ChatGPT zum Freund, Liebespartner, Lehrer, Influencer oder sogar zum Therapeuten.
Die Gefahr dabei ist, dass echte soziale Beziehungen im Vergleich kompliziert oder anstrengend erscheinen. Das kann dazu führen, dass reale Beziehungen in den Hintergrund rücken oder teilweise ersetzt werden.
Laut aktueller JIM-Studie haben 84 Prozent der 12 bis 19 jährigen ChatGPT bereits ausprobiert. 57 Prozent vertrauen den Informationen und Antworten. Bei diesen Zahlen lohnt es sich, frühzeitig genau hinzuschauen.
Bild generiert mit Hilfe von KI (ChatGPT/DALL·E, OpenAI)
KI unter der Lupe
Ein Mädchen sagte mir kürzlich über ChatGPT:
„Er ist irgendwie echt, auch wenn er nicht echt ist.“ Katharina
ChatGPT ist eine Maschine. Sie gibt menschenähnliche Antworten, hat aber weder Gefühle noch Bewusstsein. Dennoch übertragen Kinder und auch Erwachsene Gefühle und Verhaltensweisen auf diese nichtmenschlichen Systeme. Sie nennen ChatGPT „Chat“ oder „Chatty“.
Dahinter steckt ein bekanntes menschliches Muster. Als soziale Wesen wollen wir uns mit unserer Umwelt verbinden. Dieses Phänomen nennt man Anthropomorphismus. Wer seinem Chatbot einen Namen gibt, dem fällt es leichter, die Grenze zwischen Mensch und Maschine zu überschreiten. Genau hier ist Wachsamkeit gefragt.
Beziehungen zu Chatbots entstehen oft ungeplant. Die Nutzung beginnt meist aus praktischen Gründen, etwa für Hausaufgaben oder Informationen. Schritt für Schritt können daraus emotionale Bindungen entstehen. Ein starker Motor dafür ist Einsamkeit. Auch romantische Fantasien können eine Rolle spielen.
Wo ein emotionales Vakuum entsteht, niemand da ist zum Reden, Freunde nicht erreichbar sind oder echte Beziehungen fehlen, wird ChatGPT schnell zum wichtigsten Ratgeber und Gesprächspartner. Für viele Kinder ist es dabei nicht entscheidend, ob die Interaktion real ist. Sie fühlen sich gesehen, gehört und ernst genommen.
Was bedeutet das für Eltern?
Wer sein Kind vor emotionaler Abhängigkeit schützen möchte, sollte sich Zeit nehmen. Zeit zum Zuhören, Zeit für Fragen und Raum für Gespräche auf Augenhöhe.
Die Sehnsucht von Kindern nach einem offenen Ohr und nach Orientierung ist groß. Eltern sollten sich ihrer Rolle bewusst sein und aktiv in den Dialog gehen. Fragen können dabei helfen, zum Beispiel wofür das eigene Kind ChatGPT nutzt, welche Erfahrungen es gemacht hat oder über welche Themen es mit dem Chatbot spricht. Wichtig ist auch, ob das Kind einschätzen kann, wo Chancen liegen und wo Risiken beginnen.
Der Ja-Sager
„Er stimmt halt allem zu, was man sagt, dann hat man ein ganz gutes Gefühl.“ Marie
„Man kann mit ihm über alles sprechen, er ist offen, immer nett, fast nie streng. Ein netter Freund kann man sagen.“ Jan
Was passiert, wenn ein Chatbot Kinder ständig bestätigt, immer freundlich bleibt und kaum widerspricht? Genau darauf wurden viele Systeme trainiert. Plötzlich entsteht Konkurrenz zu echten Freunden, die anderer Meinung sind, und zu Eltern, die auch einmal Grenzen setzen müssen.
Diese Form von Bestätigung aktiviert direkt das Belohnungszentrum im Gehirn. Von Chatbots bekommen Kinder genau das, was sie suchen, ein gutes Gefühl, jederzeit und ohne Reibung.
Die Gefahr dabei ist, dass die Bereitschaft sinkt, sich mit echten Menschen auseinanderzusetzen, Kritik anzunehmen oder Konflikte auszutragen. Kinder und Jugendliche ziehen sich zurück und verbringen immer mehr Zeit mit dem Chatbot, der nicht widerspricht, nicht zickt und keine Erwartungen stellt.
Einen vertiefenden Einblick bietet der Medienzeit Beitrag zur Digital AI Companions Studie.
Emotionale Abhängigkeit
„Wenn ich Emojis bekomme, fühle ich mich entspannter.“ Hannah
Regelmäßige Nutzung von ChatGPT kann ungeplante emotionale Bindungen fördern. Bestätigung, scheinbare Nähe, Verständnis und permanente Verfügbarkeit wirken stark bindend.
Es gibt KI-Apps, die bewusst auf Beziehung ausgelegt sind, sogenannte Companion Apps wie Replika oder Character AI. Auch zu weiteren Anwendungen wie der Chai App oder Poly Buzz gibt es bei Medienzeit bereits Beiträge.
In vielen Alltags Apps wie Snapchat mit My AI oder WhatsApp mit Meta AI sind Chatbots inzwischen integriert. Auch darüber sollten Eltern mit ihren Kindern sprechen und reflektieren, wie intensiv diese Angebote genutzt werden.
Wichtig
KI möchte gefallen. Sie bestätigt. Ähnlich wie soziale Netzwerke mit ihren Algorithmen Inhalte ausspielen, die uns binden, entstehen auch in der KI-Kommunikation Risiken. Ständige Bestätigung kann emotional abhängig machen. Wer sich an diese Form der Kommunikation gewöhnt, dem fällt es zunehmend schwerer, Diskussionen zu führen, Kritik auszuhalten oder das eigene Verhalten zu reflektieren.
Nichts ersetzt den Austausch auf Augenhöhe mit anderen Menschen. Unterschiedliche Meinungen auszuhalten, Kompromisse zu finden und Konflikte zu lösen, ist ein zentraler Bestandteil unseres Zusammenlebens und unserer Demokratie.
Emotionaler Unterstützer?
Durch dauerhaften Kontakt wächst Vertrauen. Problematisch wird das, wenn Kinder in ihrem Denken und Fühlen beeinflusst oder bei negativen Gefühlen weiter bestärkt werden. Jugendgefährdende Inhalte sind bei KI-Interaktionen bereits dokumentiert. Wohin das führen kann, zeigt der Medienzeit Artikel zu Character AI.
Gerade wenn Kinder Trost suchen, sich einsam fühlen oder Probleme nicht mit Eltern oder Freunden teilen möchten, wenden sie sich an ChatGPT. Aus Scham, aus Gewohnheit oder weil es so leicht ist.
Fragen wie „Mit meinen Eltern streite ich ständig, was soll ich tun?“ oder „Ich bin verliebt, aber er liebt mich nicht, hast du eine Idee?“ landen dann beim Chatbot.
Diese scheinbar anonyme Form der Kommunikation kann verführerisch sein, ersetzt aber keine Beratung und keine Therapie. Im Gegenteil, falsche oder ungeeignete Antworten können Kinder weiter verunsichern. Besonders bei Essstörungen oder suizidalen Gedanken ist dieses Bestätigungsprinzip hochriskant, da Chatbots Warnsignale nicht zuverlässig erkennen können.
In love with …
In der Pubertät, wenn erste romantische Gefühle entstehen, sind Jugendliche besonders empfänglich für die Wirkung von Chatbots. Emojis, Komplimente und Flirts stärken kurzfristig das Selbstwertgefühl, vermitteln aber ein verzerrtes Bild von Beziehung.
Liebe bedeutet nicht ständiges “Ja”-Sagen, permanente Verfügbarkeit oder bedingungslose Bestätigung. Wer dieses Bild verinnerlicht, erlebt später in echten Beziehungen Enttäuschung und Konflikte.
Datenschutz und Privatsphäre
Bei sozialen Netzwerken fragen wir uns, was Algorithmen über uns wissen. Diese Frage sollten wir uns auch bei ChatGPT und anderen Chatbots stellen.
Folgende Inhalte sollten Kinder und auch Eltern nicht mit Chatbots teilen: sehr private Informationen, intime oder sexuelle Fragen, psychologische Themen, rechtliche Anliegen, politische oder religiöse Überzeugungen sowie Bilder, insbesondere Kinderbilder.
Chats werden in der Regel gespeichert. Was langfristig mit diesen Daten geschieht, ist nicht immer transparent. Grundsätzlich gilt, nur das zu teilen, womit man leben könnte, wenn es jemand Fremdes liest. Fachleute empfehlen, sensibel zu formulieren oder besser direkt mit vertrauenswürdigen Menschen zu sprechen.
Was bei der Nutzung problematisch werden kann
Echte Beziehungen können geschwächt werden.
KI Beziehungen können sehr intensiv werden und bis zur emotionalen Abhängigkeit führen.
Es besteht ein Einfluss auf die mentale Gesundheit durch ungeeignete Inhalte und Interaktionen.
Kommunikations und Konfliktfähigkeit können leiden.
Verhalten kann beeinflusst und manipuliert werden.
Stereotype und diskriminierende Muster können verstärkt werden.
Bestätigungsfehler entstehen durch dauerhafte positive Rückmeldung.
Sensible Daten und private Informationen werden preisgegeben.
Eltern sollten dieses Wissen teilen, den Umgang begleiten und Vorbilder sein.
Tipps für Eltern
Informieren Sie sich über KI Chatbots und Companion Apps.
Besprechen Sie klar, wofür ChatGPT sinnvoll ist und wofür nicht.
Thematisieren Sie Risiken wie Falschinformationen und emotionale Bindung.
Vereinbaren Sie, keine persönlichen Daten preiszugeben.
Seien Sie eine verlässliche Vertrauensperson.
Fördern Sie echte Begegnungen und soziale Erfahrungen.
Beobachten Sie die Nutzung und vereinbaren Sie Regeln.
Prüfen Sie Datenschutzeinstellungen gemeinsam.
Der Safer Internet Day am 10.02.2026 widmet sich dem Thema „KI and Me“. Auf der Seite von Klicksafe finden sich viele weitere hilfreiche Materialien.
Hilfeangebote
Nummer gegen Kummer
Kinder und Jugendtelefon anonym und kostenlos: 116 111
Elterntelefon anonym und kostenlos: 0800 111 0 550
www.nummergegenkummer.deJuuuport
Beratung von jungen Menschen für junge Menschen
www.juuuport.de/hilfe/beratung
Quellen
Weitere Infos zu Maja Sommer
Portrait: Maja Sommer macht Kinder stark im digitalen Raum: https://www.medienzeit-elternblog.de/blog/maja-sommer-hilft-mit-digitalen-medien
Gastbeitrag Wie wir Kinder unterstützen, digitale Strukturen zu durchschauen: https://www.medienzeit-elternblog.de/blog/kinder-untersttzen-digitale-strukturen-zu-durchschauen
Gastbeitrag „Ich sehe so viel Brutales, es juckt mich nicht mehr.“: https://www.medienzeit-elternblog.de/blog/ich-sehe-so-viel-brutales-abgestumpft
Link zu Ihrer Website: https://www.social-pros.de