Facebook erweitert die Definition von terroristischen Organisationen

Facebook enthüllte eine Reihe von Änderungen, um Hassreden und Extremismus auf seiner Website zu begrenzen, da die Untersuchung darüber, wie das soziale Netzwerk Menschen radikalisieren kann, zunimmt.

Das Unternehmen begann seine Ankündigungen Anfang Dienstag mit dem Hinweis, dass es seine Definition von terroristischen Organisationen erweitern würde, und fügte hinzu, dass es den Einsatz künstlicher Intelligenz plante, um Live-Videos von Dreharbeiten besser zu erkennen und zu blockieren. Stunden später, in einem Brief an den Vorsitzenden eines House Panels, sagte Facebook, dass es verhindern würde, dass Links von den Randseiten 8chan und 4chan auf seiner Plattform veröffentlicht würden. Und zu später Stunde wurde dargelegt, wie ein Aufsichtsgremium von mindestens 11 Mitgliedern eingerichtet werden sollte, um Inhaltsentscheidungen zu überprüfen und zu überwachen.

Facebook, mit Sitz im Silicon Valley, enthüllte die Änderungen einen Tag bevor das Senatshandelskomitee das Unternehmen, Google und Twitter auf dem Capitol Hill befragen wird, wie sie mit gewalttätigen Inhalten umgehen. Das Problem des Online-Extremismus ist beim Gesetzgeber zunehmend aufgeflammt, wobei der Gerichtsausschuss des Hauses im April eine Anhörung über den Aufstieg des weißen Nationalismus und die Rolle, die Technologieplattformen bei der Verbreitung von Hassreden gespielt haben, abhielt. Am Dienstag schickte eine parteiübergreifende Gruppe von Kongressabgeordneten auch einen Brief an Twitter, Facebook und YouTube über die Präsenz internationaler terroristischer Organisationen auf den Websites und darüber, wie diese Gruppen Hass schüren.

Insbesondere Facebook stand unter starkem Druck, die Verbreitung von Hassbotschaften, Bildern und Videos über seine Website und Apps zu begrenzen. Als weltweit größtes soziales Netzwerk mit mehr als zwei Milliarden Nutzern sowie Eigentümer der Foto-Sharing-Site Instagram und des Messaging-Dienstes WhatsApp hat Facebook die Größe und das Publikum, damit sich gewalttätige Inhalte schnell und global verbreiten können.

Das wurde in den letzten Massenschüssen deutlich, bei denen Facebook zur Verbreitung gewalttätiger Nachrichten verwendet wurde. Im März wurde das soziale Netzwerk heftig kritisiert, weil es das Live-Video der Ermordungen von 51 Menschen in Christchurch, Neuseeland, nicht erkannt und entfernt hat. Und bei Dreharbeiten in den Vereinigten Staaten in diesem Jahr, einschließlich des letzten Monats in El Paso, wurden die Pläne im Voraus auf 8chan angekündigt und dann über andere Social Media, einschließlich Facebook, vorangetrieben.

"Keine dieser Änderungen sind Silberkugeln", sagte Brian Fishman, Direktor der gefährlichen Organisationen und Richtlinien von Facebook, auf Twitter. "Es gibt noch viel zu tun." Aber er fügte hinzu: "Es gibt viele Fortschritte unter der Haube und wir wollten einen Einblick in einige dieser Arbeiten geben."

Einige Experten, die den Extremismus online untersuchen, begrüßten die erweiterten Bemühungen von Facebook, insbesondere die breitere Definition des Terrorismus. Sie betonten jedoch, dass die Wirksamkeit des Plans von den Details abhängt - wo Facebook in der Praxis die Grenze zieht und wie das Unternehmen über seine eigene Arbeit berichtet.

"Es ist unglaublich schwierig zu wissen, wie sich diese Updates in der Praxis auswirken werden, und oft haben wir in der Vergangenheit gesehen, dass die Realität nicht mit der ersten Ankündigung übereinstimmt", sagte Becca Lewis, eine Forscherin in Stanford, die extremistische Gruppen untersucht.

Sie fügte hinzu, dass Facebook sich damit abfinden müsste, dass weniger Menschen Inhalte konsumieren, während es diese Änderungen vornimmt. "Das ist viel schwieriger, zum Teil, weil es Social Media Plattformen erfordern würde, sich mit ihren Geschäftsmodellen besser auseinanderzusetzen", sagte sie.

Evelyn Douek, eine Doktorandin an der Harvard Law School, die weltweit Online-Rechtgesetzgebung studiert, sagte, sie schaue nach zukünftigen Transparenzberichten, die Facebook bereitstellt, die Daten über extremistische Inhalte enthalten, um zu sehen, ob die Änderungen einen Unterschied machen.

"Viele dieser Berichte können ein "Transparenz-Theater" sein, in dem sie Informationen und Statistiken liefern, aber ohne genügend Kontext oder Informationen, um sie sinnvoll zu machen", sagte sie. Obwohl die Ankündigungen vielversprechend sind, fügte sie hinzu: "Ich werde das Urteil zurückhalten, bis ich wirklich sehe, wie sie es machen."

Facebook hat seine Fähigkeit, terrorismusbezogene Inhalte zu erfassen, längst unter Beweis gestellt. In den letzten zwei Jahren, sagte das Unternehmen, hat es 99 Prozent der extremistischen Beiträge - etwa 26 Millionen Inhalte - entdeckt und gelöscht, bevor sie ihm gemeldet wurden.Aber Facebook sagte, dass es sich hauptsächlich darauf konzentriert habe, Organisationen wie Separatisten, islamistische Militante und weiße Rassisten zu identifizieren. Es sagte, dass es jetzt Menschen und Organisationen berücksichtigen würde, die sich an Gewaltversuchen gegen Zivilisten als Terroristen beteiligen, im Gegensatz zu ihrer alten Art, Terrorismus zu definieren, indem sie sich auf Gewaltakte konzentrieren, die darauf abzielen, politische oder ideologische Ziele zu erreichen.

Das Team, das seine Arbeit zur Bekämpfung des Extremismus auf seiner Website leitet, ist auf 350 Personen angewachsen, fügte Facebook hinzu und umfasst Experten für Strafverfolgung, nationale Sicherheit und Terrorismusbekämpfung sowie Wissenschaftler, die sich mit Radikalisierung beschäftigen.

Um mehr Inhalte in Bezug auf reale Schäden zu identifizieren, sagte Facebook, dass es seine künstliche Intelligenz aktualisierte, um First-Person-Shootings von Videos besser zu erfassen. Die Firma sagte, dass sie mit amerikanischen und britischen Strafverfolgungsbehörden zusammenarbeitet, um Kameramaterial von ihren Schusswaffen-Trainingsprogrammen zu erhalten, um ihrer KI zu helfen, zu erfahren, wie echte, gewalttätige Ereignisse in der ersten Person aussehen.

Um Menschen von extremistischen Inhalten abzulenken, sagte Facebook, es erweitert ein Programm, das Benutzer, die nach solchen Beiträgen suchen, auf Ressourcen umleitet, die ihnen helfen sollen, Hass-Gruppen hinter sich zu lassen. Seit März kanalisiert das Unternehmen Menschen, die nach Begriffen suchen, die mit der weißen Vorherrschaft verbunden sind, zu Ressourcen wie Life After Hate, einer Organisation, die Krisenintervention und Öffentlichkeitsarbeit anbietet. Facebook sagte, dass Menschen in Australien und Indonesien nun an die Organisationen EXIT Australia und ruangobrol.id umgeleitet würden.

In einem Brief an den Repräsentanten Max Rose of New York, den Vorsitzenden des Unterausschusses für Nachrichtendienste und Terrorismusbekämpfung des House Committee on Homeland Security, sagte Facebook am Dienstag auch, dass es "blockierende Links zu Orten auf 8chan und 4chan sei, die der Verbreitung abscheulicher Inhalte gewidmet sind". Dazu gehören alle Inhalte von 8chans berüchtigtem /Pol-Board, einer Seite, die für den Handel mit gewalttätigen, rassistischen Reden bekannt ist.

Diese Seite ist seit der Schießerei von El Paso, bei der 22 Menschen getötet wurden, offline. Fredrick Brennan, einer der Gründer der 8chan, hatte nach den Dreharbeiten gesagt, dass die Anlage stillgelegt werden sollte. Der Inhaber von 8chan, Jim Watkins, bezeugte vor Gesetzgebern in einer geschlossenen Anhörung in diesem Monat.

"Wir haben gesehen, wie Terroristen 8chan-Links auf Facebook gepostet haben, um breite Aufmerksamkeit auf Massenaufnahmen zu lenken, weshalb ich ermutigt bin, die Bereitschaft von Facebook zu sehen, mit mir zusammenzuarbeiten und diese Links zu verbieten", sagte Herr Rose. "Wir alle müssen mehr tun, um die Ausbreitung des Terrorismus zu bekämpfen und unsere Gemeinschaften sicher zu halten - Kongress, Technologieunternehmen, alle."

Innerhalb von Facebook entwickelt das Unternehmen zudem seit mehr als einem Jahr ein Aufsichtsgremium - von Außenstehenden umgangssprachlich als Facebook Supreme Court bezeichnet -. Das Unternehmen sagte am Dienstag, dass sich der Vorstand aus einem "vielfältigen" Kreis von Experten zusammensetzen würde, die jeweils für drei Jahre tätig sind und maximal drei Dienstzeiten haben.

Die Mitglieder werden überwachen und interpretieren, wie die bestehenden Community-Standards von Facebook von den Content-Moderatoren durchgesetzt werden, können Facebook anweisen, Inhalte zuzulassen oder zu entfernen, und werden gebeten, Bezeichnungen für die Entfernung von Inhalten beizubehalten oder rückgängig zu machen. Die Mitglieder werden auch "unverzügliche" schriftliche Erklärungen zu allen Entscheidungen abgeben.

"Der Aufbau von Institutionen zum Schutz der freien Meinungsäußerung und von Online-Communities ist für die Zukunft des Internets wichtig", sagte Facebook-Chef Mark Zuckerberg in einer Erklärung. "Wir gehen davon aus, dass der Vorstand zunächst nur eine geringe Anzahl von Fällen hören wird, aber im Laufe der Zeit hoffen wir, dass er seinen Anwendungsbereich erweitern und möglicherweise auch mehr Unternehmen aus der gesamten Branche einbeziehen wird."