Facebook: 97 Prozent der gelöschten Hassreden von Software erkannt
Facebook lobt sich: Im vergangenen Quartal seien 97 Prozent aller gelöschten Hass-Posts von Software erkannt worden.
Das Wichtigste in Kürze
- Facebook macht Fortschritte in Sachen künstliche Intelligenz.
- Immer mehr Hassreden werden direkt von Software als solche erkannt.
Facebook macht weitere Fortschritte dabei, auf der Plattform untersagte Inhalte mit Hilfe künstlicher Intelligenz herauszufiltern. So seien im vergangenen Quartal 97 Prozent der entfernten Hassreden von Software entdeckt worden, bevor Menschen sie gesehen hätten, teilte Facebook am Donnerstag mit.
Im Vierteljahr davor habe der Anteil bei 94 Prozent gelegen und ein Jahr zuvor lediglich bei gut 80 Prozent. Das Online-Netzwerk zeigt sich auch zuversichtlich, auf diese Weise nicht nur bei Text-Beiträgen vorgehen zu können.
«Wir verstehen Audio und Video, wir verstehen die Inhalte», sagte Technikchef Mike Schroepfer. Unter anderem dadurch, wer was teile, könne die Software auch Äusserungen in einen breiteren Kontext einordnen.
In der Corona-Pandemie hatte Facebook zum Teil Probleme, die Teams, die Inhalte prüfen, von Zuhause aus genauso effizient wie aus den Büros arbeiten zu lasen.