KI ist sexistisch & prägt unsere Kinder – Was Bias bedeutet.

Kinder wachsen heute mit KI auf, ob wir das wollen oder nicht. Sie begegnen ihr in den Apps, die sie nutzen, in Filtern, die ihre Gesichter verändern, in Suchergebnissen, die ihre Welt sortieren, und immer häufiger auch in Lernprogrammen oder Chats. KI ist längst kein Zukunftsthema mehr. Sie ist Teil des Alltags unserer Kinder. Teil ihrer sozialen Realität.

Und genau deshalb müssen wir darüber sprechen, was viele Eltern noch nicht wissen. KI ist nicht neutral. KI ist nicht objektiv. KI ist sexistisch. Nicht, weil das jemand absichtlich programmiert hätte, sondern weil KI aus Daten lernt, die voller Ungleichheiten sind. Daten, die Frauen seit Jahrzehnten benachteiligen. Daten, die stereotype Rollen zeigen. Daten, die männliche Körper zur Norm machen. Daten, die Mädchen und Jungen sehr unterschiedliche Welten zeigen.

Wenn wir wollen, dass unsere Kinder in einer gerechten und selbstbestimmten Zukunft leben, dann müssen wir ihnen erklären, wie KI funktioniert und warum sie verzerrte Bilder von der Welt erzeugt. Denn die Systeme, die sie täglich nutzen, prägen ihr Weltbild mehr, als vielen bewusst ist.

Drei Kinder sitzen auf dem Boden und benutzen Tablet Computer, während über ihnen bunte KI Symbole schweben, die stereotype Rollenbilder für Mädchen und Jungen zeigen.

Bild generiert mit Hilfe von KI (Gemini, Google)

Zählmarke

Wie sich die eigene Wahrnehmung ändert, wenn man hinschaut

Ich arbeite seit vielen Jahren mit KI. Mit Technologien, die im Hintergrund Entscheidungen treffen. Mit Algorithmen, die vorhersagen, sortieren, bewerten. Für meine Arbeit ist das Alltag. Lange habe ich KI als eine Maschine ohne Meinung gesehen. Einfach als ein Werkzeug.

Das änderte sich vor ungefähr zwei Jahren. In einem Gespräch mit meiner Geschäftspartnerin ging es um Bias, also um Verzerrungen in Daten. Sie machte mich darauf aufmerksam, dass KI an vielen Stellen ein großes Ungleichgewicht zwischen Männern und Frauen reproduziert. Dass Frauen anders dargestellt werden. Anders behandelt. Anders bewertet. Nicht, weil die KI das so will, sondern weil die Daten genau das zeigen.

Seit diesem Moment sehe ich es überall. In Bildern. In Filtern. In Antworten von Chatbots. In Suchergebnissen. In Rollen, die Mädchen und Jungen zugeschrieben werden. Wenn man einmal verstanden hat, wie groß die Verzerrung ist, kann man sie nicht mehr übersehen.

Wie KI sexistische Muster lernt

KI Systeme lernen aus allem, was wir im Internet hinterlassen. Aus Bildern, Texten, Videos, Kommentaren und Artikeln. Das klingt praktisch, führt aber zu einem großen Problem. Unsere Gesellschaft hat jahrzehntelang überwiegend Männer sichtbar gemacht. Frauen sind in vielen Bereichen unterrepräsentiert. Und wenn sie sichtbar sind, dann oft auf eine stereotype oder sexualisierte Art.

Eine Analyse der Antidiskriminierungsstelle des Bundes zeigt, dass Algorithmen genau solche Muster übernehmen und verstärken. Quelle: Antidiskriminierungsstelle des Bundes, Risiken von Diskriminierung durch Algorithmen.

KI bewertet diese Muster nicht. Sie erkennt nur, was häufig vorkommt, und übernimmt es als normal.

Der Männer-Daten-Norm-Effekt

Besonders deutlich wird das zum Beispiel in der Medizin. Dort fehlten über Jahrzehnte hinweg Daten über weibliche Körper. In vielen klinischen Studien wurden fast nur Männer untersucht. Frauen galten lange als zu kompliziert oder als störend für die Auswertung.

Das Bundesministerium für Gesundheit schreibt, dass dadurch Dosierungen, Nebenwirkungen und Diagnosen bei Frauen oft falsch eingeschätzt wurden. Quelle: Bundesministerium für Gesundheit, Geschlechtersensible Medizin.

Die Bundesstiftung Gleichstellung weist darauf hin, dass weibliche Körper noch immer nicht gleichwertig erforscht sind. Frauen wurden also über lange Zeit nicht als eigene medizinische Norm betrachtet.

Wenn KI auf solchen historischen Daten trainiert wird, übernimmt sie automatisch diese männliche Norm. Frauen werden zu einer Abweichung. Und genau das zeigt sich in vielen digitalen Systemen, die Kinder heute nutzen.

Nicht nur Frauen sind betroffen

Sexistische Verzerrungen sind nicht das einzige Problem. KI trägt viele ungerechte Muster weiter, weil in den Daten ganze Gruppen unterrepräsentiert sind oder falsch dargestellt werden. Das betrifft zum Beispiel Menschen mit dunklerer Hautfarbe. Solche Daten fehlen in vielen Bereichen fast komplett oder sind stark verzerrt. In vielen Datensätzen sind weiße Menschen überproportional häufig vertreten, während Menschen mit dunklerer Haut entweder kaum auftauchen oder in sehr stereotypen Situationen. Das führt dazu, dass KI dunklere Haut schlechter erkennt, falsch bewertet oder sogar kriminalisierende Muster übernimmt.

Eine Untersuchung der US Forscherin Joy Buolamwini hat gezeigt, dass KI Systeme Menschen mit sehr dunkler Hautfarbe zum Teil um ein Vielfaches schlechter erkennen als Menschen mit heller Haut. Auch wenn diese Studie nicht aus Deutschland stammt, ist das Grundproblem bekannt und gut dokumentiert. Die Verzerrung kommt aus der Datenlage, nicht aus der Technologie. Und dieses Muster findet sich in vielen Bereichen wieder.

Auch Menschen mit Behinderungen, queere Menschen oder Menschen aus ärmeren Regionen tauchen in manchen Datensätzen kaum auf. Sie werden seltener fotografiert, seltener erwähnt, seltener in Medien sichtbar gemacht. Das bedeutet: KI weiß wenig über diese Lebensrealitäten und versteht sie schlechter. Die Systeme spiegeln also nicht die Vielfalt unserer Gesellschaft, sondern nur das, was historisch sichtbar war. Und das ist oft ein sehr einseitiges Bild.

Wir greifen in diesem Artikel nicht alle Verzerrungen auf, aber wichtig ist: Diese Systeme sind nicht neutral. Sie sind nicht fair. Und sie zeigen unseren Kindern eine Welt, die nicht vollständig und nicht gerecht ist.

Drei Jungen stehen in einer Schulklasse in stereotypen Berufen, während über ihnen eine leuchtende KI Darstellung schwebt, die ihnen typische Rollenbilder zuordnet.

Bild generiert mit Hilfe von KI (Gemini, Google)

Was Kinder konkret erleben

Kinder merken sehr schnell, was KI ihnen zeigt, aber nicht, warum das passiert.

Mädchen bekommen zum Beispiel häufiger Filter, die sie schlanker, heller oder älter aussehen lassen. Sie sehen mehr Inhalte zu Schönheit und Körpern. Bildgeneratoren stellen Mädchen oft auf eine sexualisierte Weise dar, selbst wenn harmlose Begriffe verwendet werden. In Lernprogrammen werden Mädchen automatisch bestimmten Berufen zugeordnet, die eher pflegend oder sozial sind.

Jungen erleben das Gegenteil. Sie sehen mehr Gewalt, mehr Action, mehr Dominanz. Sie bekommen Videos vorgeschlagen, die Stärke mit Härte gleichsetzen. Empathie taucht seltener auf.

Eine Studie der Universität Hamburg zeigt, dass KI Modelle in der deutschen Sprache klare Geschlechterrollen reproduzieren.
Quelle: Universität Hamburg, Measuring Gender Bias in German Language Generation.

Diese Muster wirken still, aber tief. Kinder entwickeln ihre Identität. Und das, was KI ihnen täglich vorlebt, prägt sie stark.

Was Bias bedeutet und wie Algorithmen funktionieren

Bias heißt Verzerrung. Ein Algorithmus erkennt Muster und übernimmt sie. Wenn viele Daten zeigen, dass Männer häufig in Technik und Führung auftauchen, nimmt die KI das als Standard. Wenn viele Daten zeigen, dass Frauen oft sexualisiert dargestellt werden, übernimmt die KI auch das.

Algorithmen verstehen keine Gerechtigkeit. Sie verstehen nur Häufigkeit. Sie zeigen, was vorkommt, nicht was richtig wäre.

Warum das gefährlich ist

Kinder wachsen in einer Phase auf, in der sie herausfinden, wer sie sind. Wenn Mädchen täglich sehen, dass KI ihr Gesicht verändert, kann das ihr Körperbild verzerren. Wenn Jungen ständig Videos sehen, in denen Gefühle schwach wirken, verlernen sie, sie zu zeigen.

Dazu kommt ein sehr reales Risiko. Deepfake Technologien treffen vor allem Mädchen. Schon jetzt sind die meisten Opfer weiblich. Ein einzelnes Foto kann reichen, um daraus sexuelle Inhalte zu erzeugen. Mädchen schämen sich oft, darüber zu sprechen, und Eltern erfahren es häufig viel zu spät.

Was Eltern tun können

  • Wir können unsere Kinder nicht von KI fernhalten. Aber wir können ihnen helfen, damit umzugehen.

  • Wir können ihnen erklären, dass Filter nicht echt sind. Dass viele Bilder verändert sind. Dass Algorithmen nicht wissen, was gut für sie ist. Dass Chatbots Muster wiederholen und keine Wahrheit sprechen.

  • Wir können mit ihnen gemeinsam anschauen, was ihnen vorgeschlagen wird. Und darüber sprechen, warum das so ist.

  • Wir können ihnen Selbstvertrauen geben. Mädchen müssen hören, dass sie mehr sind als ihr Aussehen. Jungen müssen hören, dass Gefühle ein Teil von Stärke sind.

  • Wir können ihnen sagen, dass sie mit jedem Thema zu uns kommen dürfen. Auch mit peinlichen. Auch mit schwierigen.

  • Und wir können uns selbst weiterbilden, damit wir verstehen, was die Systeme tun, die unsere Kinder prägen.

Warum dieser Artikel nötig ist

KI wird in den nächsten Jahren überall sein. In Schulen. In Apps. In Lernprogrammen. In sozialen Netzwerken. Sie steckt in Spielen, die Kinder lieben, in Hausaufgaben Werkzeugen und sogar in den Suchergebnissen, die Kinder nutzen, um Referate zu machen. Unsere Kinder wachsen in einer Welt auf, in der KI nicht nur ein Werkzeug ist, sondern ein Teil ihres Alltags, ein Teil ihrer Gespräche und mit der Zeit auch ein Teil ihrer Identität.

Viele Kinder wissen heute schon gar nicht mehr, ob ein Bild gefiltert ist oder echt. Sie merken nicht, warum ihnen bestimmte Videos vorgeschlagen werden oder warum ein Chatbot ihnen Dinge sagt, die sich vertraut anfühlen. Sie erleben KI oft als eine freundliche Stimme, die erklärt, zeigt und Antworten gibt. Und sie hinterfragen das nicht. Für Kinder wirken diese Systeme wie natürliche Autoritäten, die einfach wissen, wie die Welt funktioniert. Sie sehen nicht, dass KI aus alten und verzerrten Daten lernt und dass diese Muster ungerecht oder gefährlich sein können.

Wenn wir wollen, dass Kinder selbstbewusst, frei und ohne verzerrte Vorstellungen über sich selbst aufwachsen, dann müssen wir ihnen erklären, wie diese neue Welt funktioniert. Wir müssen ihnen zeigen, dass KI nicht böse ist, aber auch nicht neutral. Dass sie nur wiederholt, was die Welt ihr gezeigt hat. Und dass sie deshalb oft Rollen, Körperbilder und Erwartungen reproduziert, die wir längst hinter uns lassen wollten.

Genau deshalb müssen wir unseren Kindern beibringen, diese Muster zu erkennen. Zu verstehen, warum etwas plötzlich so aussieht. Zu merken, wenn ein Bild sie verunsichert. Zu spüren, wenn eine Antwort unfair ist. Und zu wissen, dass ihr Wert nicht von Algorithmen bestimmt wird. Nur so können sie lernen, sicher und selbstbestimmt in einer Welt zu wachsen, in der KI ihnen täglich begegnet.

Quellen

Weiter
Weiter

Italien führt ein Influencer Register ein