Facebook hat in den ersten drei Monaten des Jahres 2018 Moderationsmassnahmen gegen fast 1,5 Milliarden Konten und Beiträge ergriffen, die gegen die eigenen Community-Standards verstossen haben, hat das Unternehmen bekannt gegeben.
In seinem ersten vierteljährlichen Community Standards Enforcement Report gibt
Facebook bekannt, dass die überwältigende Mehrheit der Moderationsmassnahmen gegen Spam-Posts und gefälschte Konten gerichtet sei: So habe man Massnahmen gegen 837 Millionen Spam-Mails ergriffen und in den drei Monaten weitere 583 Millionen gefälschte Konten geschlossen. Aber Facebook moderierte auch 2,5 Millionen Fälle von Hassreden, 1,9 Millionen Fälle von terroristischer Propaganda, 3,4 Millionen Fälle von grafischer Gewalt und 21 Millionen Inhalte mit Nacktheit und sexueller Aktivität von Erwachsenen.
Facebook schaffte es auch, die Menge der Inhalte zu erhöhen, die mit neuen KI-basierten Tools entdeckt wurden, um Inhalte zu finden und zu moderieren, ohne dass einzelne Nutzer sie als verdächtig markieren mussten. Diese Tools funktionierten besonders gut für Inhalte wie gefälschte Konten und Spam: So habe man es geschafft, mit den Tools 98,5 Prozent der gefälschten Konten zu finden, die im Ganzen geschlossen wurden und fast 100 Prozent des Spam.
(swe)