Jede Person hat schon einmal bereut, etwas ausgesprochen zu haben. Instagram will dem nun entgegenwirken und warnt Nutzer, bevor sie "potenziell beleidigende" Bildtexte online stellen. Das berichtet Instagram auf dem eigenen Blog.

Foto: Instagram/Screenshot

Wie funktioniert der Mechanismus?

Instagram hat eine künstliche Intelligenz implementiert, die unterschiedliche Mobbingformen erkennen soll. Dafür wurde sie mit Postings gefüttert, die aus genau diesen Gründen gemeldet wurden. Wenn nun ein User ein neues Bild in seiner Timeline postet, gleicht die KI diesen Text mit ihrer Datenbank ab. Ähnelt er den wegen Mobbings gemeldeten Postings, wird der User darüber informiert und kann den Text nochmals abändern. Großes Aber zum Schluss: Der Nutzer kann den ursprünglichen Text trotzdem posten.

Instagram will mit der neuen Funktion ein größeres Bewusstsein für Cybermobbing schaffen. Die KI soll Leute "erziehen". Fürs Erste startet diese Funktion in ausgewählten, namentlich nicht genannten Ländern. (red, 17.12.2019)