Neue App “Instants”: Instagram kopiert Snapchat – und schafft damit neue Risiken für Kinder

Zählmarke

Instagram testet aktuell eine neue App mit dem Namen „Instants“.

Die Idee dahinter ist nicht neu. Sie kommt direkt von Snapchat. Fotos und Videos werden verschickt, einmal angesehen und verschwinden dann wieder.

Was nach einem harmlosen Feature klingt, gehört zu den riskantesten Mechaniken, die wir im digitalen Raum kennen.

Kind sitzt im dunklen Raum und nutzt Smartphone mit Instants App von Meta, während im Hintergrund eine unscharfe bedrohliche Figur steht und auf Risiken privater Nachrichtenräume hinweist

Bild generiert mit Hilfe von KI (ChatGPT/DALL·E, OpenAI)

Was genau wird getestet?

„Instants“ wird aktuell in ersten Versionen getestet, unter anderem in Italien und Spanien. Parallel existieren interne Prototypen bei Meta Platforms, die noch gar nicht öffentlich ausgerollt sind.

Die Funktionen:

  • Fotos und Videos können nur einmal angesehen werden

  • Inhalte löschen sich automatisch nach spätestens 24 Stunden

  • Versand nur an enge Kontakte (gegenseitige Follower, Close Friends)

  • Kaum Bearbeitungsmöglichkeiten

In Deutschland gibt es aktuell keinen offiziellen Rollout als eigene App. Einzelne Funktionen rund um verschwindende Inhalte existieren aber bereits innerhalb von Instagram (z. B. im Direktnachrichten-Bereich).

Das heißt: Die Mechanik ist längst da. Sie wird jetzt nur weiter ausgebaut.


Warum der Vergleich mit Snapchat so wichtig ist

Snapchat war die Plattform, die genau dieses Prinzip groß gemacht hat:

  • Inhalte verschwinden

  • Kommunikation passiert im Privaten

  • Kontrolle wird reduziert

Genau diese Struktur hat massive Probleme erzeugt. Und diese Probleme sind gut dokumentiert.

Wir haben schon oft darüber berichtet:


Die Risiken von Snapchat – und warum sie hier wieder relevant werden

Studien und auch die Praxis zeigen seit Jahren, was in solchen Umgebungen passiert:

  • Sexting unter Minderjährigen wird normalisiert

  • Nacktbilder werden verschickt, weitergeleitet oder als Druckmittel genutzt

  • Grooming findet gezielt über private Kontakte statt

  • Täter bauen Vertrauen auf und verschieben Gespräche schnell in geschlossene Räume

  • Cybermobbing wird schwerer nachweisbar, weil Inhalte verschwinden

Strafverfolgungsbehörden und Kinderschutzorganisationen weisen immer wieder darauf hin, dass genau diese Funktionen Täter begünstigen. Verschwindende Inhalte bedeuten nicht weniger Risiko. Sie bedeuten weniger Beweise.


Ein Raum, der für Täter ideal ist

Jugendliches Mädchen sitzt im dunklen Raum und schaut konzentriert auf ihr Smartphone, während im Hintergrund eine unscharfe bedrohliche Person steht und die Risiken unsichtbarer privater Chats symbolisiert

Bild generiert mit Hilfe von KI (ChatGPT/DALL·E, OpenAI)

Man muss es klar benennen. Private, nicht einsehbare Kommunikationsräume gehören zu den größten Risikofaktoren für Kinder im Netz. Dort passieren die schwerwiegendsten Vorfälle und nicht im öffentlichen Feed und auch nicht im sichtbaren Kommentarbereich.

Sondern genau hier:

  • in Direktnachrichten

  • in kleinen Gruppen

  • in temporären, verschwindenden Formaten

Diese Räume sind für Eltern kaum zugänglich. Für Schulen praktisch unsichtbar. Und für Plattformen schwer zu kontrollieren.

Wenn eine neue App genau darauf optimiert wird, verschiebt sich das Risiko nicht. Es wächst.


Was in solchen Räumen passiert

Im Grunde begünstigen die Features leider immer wieder pädokriminelle Netzwerke. Der Begriff ist hart, aber er beschreibt ein reales Problem. Die Risiken sind keine Theorie. Sie sind seit Jahren dokumentiert und werden in der Praxis immer wieder sichtbar.

Digitale Räume, in denen Inhalte verschwinden, Kontakte privat bleiben und Kommunikation kaum nachvollziehbar ist, werden gezielt ausgenutzt.

Das betrifft:

  • Grooming

  • Erpressung

  • sexuelle Ausbeutung

  • Aufbau von Abhängigkeiten

Wenn ein Konzern wie Meta diese Mechaniken weiter ausbaut, stellt sich zwangsläufig die Frage: Warum wird ein System verstärkt, das genau solche Dynamiken begünstigt?


Warum Meta diesen Weg trotzdem geht

Die Antwort ist einfach: Nutzung. Social Media hat sich verändert. Weniger öffentliche Posts und mehr private Kommunikation.

Für Plattformen bedeutet das:

  • längere Nutzungszeiten

  • stärkere Bindung

  • intensivere Interaktion

Das Problem dabei ist nicht die Technik an sich. Das Problem ist, dass Schutzmechanismen nicht Schritt halten.


Was Eltern jetzt wissen sollten

Die wichtigste Erkenntnis: Gefahr entsteht nicht durch einzelne Apps, sie entsteht durch bestimmte Mechaniken.

Und „Instants“ bündelt gleich mehrere davon:

  • Verschwindende Inhalte

  • private Kommunikation

  • reduzierte Nachvollziehbarkeit

  • schnelle, impulsive Interaktion

Das ist eine Kombination, die für Kinder hochriskant ist.


Fazit

Ob „Instants“ nach Deutschland kommt, ist aktuell offen. Dass sich diese Form der Kommunikation weiter verbreitet, ist dagegen sehr wahrscheinlich. Und damit auch die Risiken, die wir von Snapchat längst kennen.

Deshalb braucht es eine klare Haltung.

Kinder bewegen sich nicht einfach in digitalen Räumen. Sie bewegen sich in Systemen, die Verhalten gezielt steuern. Und genau deshalb reicht es nicht, nur zu begleiten. Es braucht Schutz und auch klare Grenzen.


Weiter
Weiter

“Helmit”-App im Test: Erkennt Risiken und warnt Eltern