Künftig sollen deutlich mehr Menschen die Inhalte filtern.
Facebook
will nach dem Schock über Gewaltvideos bei dem Online-Netzwerk 3.000 weitere Mitarbeiter zum Herausfiltern von Inhalten einstellen. Sie sollen im Laufe eines Jahres weltweit dazukommen, schrieb Gründer und Chef Mark Zuckerberg am Mittwoch.
Es ist eine drastische Ausweitung des Teams: Facebook enthüllte bei der Ankündigung auch, dass die "Millionen Hinweise pro Woche" bisher von 4.500 Mitarbeitern geprüft würden.
Gewaltvideos teils stundenlang online
Das Online-Netzwerk mit rund 1,9 Milliarden Nutzern war in den vergangenen Wochen massiv in die Kritik geraten, nachdem mehrfach Videos mit Gewalttaten stundenlang auf der Plattform blieben. Erst filmte ein Amerikaner, wie er einen Passanten erschoss. Dann übertrug ein Mann in Thailand live bei Facebook, wie er seine Tochter tötete, und brachte sich dann selbst um. Facebook verlässt sich bei verbotenen Inhalten in den meisten Fällen auf Hinweise von Nutzern, die dann von Mitarbeitern geprüft werden. Lediglich bei Kinderpornografie wird Software eingesetzt, die sie automatisch herausfiltert.
"Wenn wir eine sichere Gemeinschaft aufbauen wollen, müssen wir schnell reagieren", schrieb Zuckerberg. Die zusätzlichen Prüfer sollen auch Hinweisen auf andere Probleme wie Hassrede nachgehen. In den vergangenen Monaten hatte Facebook bereits zusätzliche Möglichkeiten geschaffen, auf Nutzer hinzuweisen, die bei Livestreams Anzeichen für Selbstmordgedanken zeigen. Vergangene Woche sei nach einem solchen Hinweis die Polizei alarmiert worden und habe einen Nutzer gestoppt, bevor er sich etwas antun konnte, hob Zuckerberg als positives Beispiel hervor. "In anderen Fällen hatten wir weniger Glück", räumte er ein.