Sie sind hier: Home > Digital > Internet & Sicherheit > Internet >

Training für Facebook: Britische Polizei dreht Egoshooter-Videos

Training für Facebook  

Britische Polizei dreht Terror-Videos

25.10.2019, 15:34 Uhr | jnm, t-online.de

Training für Facebook: Britische Polizei dreht Egoshooter-Videos. A Metropolitan Police Medic on duty in London PUBLICATIONxINxGERxSUIxAUTxONLY Copyright xGordonxSc (Quelle: imago images/Gordon Scammell/ LOOP IMAGES)

Angehörige der britischen Metropolitan Police. Eine Anti-Terroreinheit unterstützt Facebook beim Kampf gegen Terror-Videos. (Quelle: Gordon Scammell/ LOOP IMAGES/imago images)

Eine Anti-Terror-Abteilung der Polizei dreht Videos im Stile der Attentäter von Christchurch oder Halle. Das Material soll Facebook dabei helfen, solche Videos in Zukunft automatisch zu löschen.

Schreie gellen, eine Hand ist aus der Ich-Perspektive zu sehen, wie sie mehrfach eine Waffe abfeuert. Obwohl die Szenen gestellt sind, wirken die Ausschnitte aus dem Video bedrohlich und echt – und das sollen sie auch. 

Gedreht wurden sie von einer britischen Anti-Terror-Einheit, berichtet der britische TV-Sender BBC. Sie sollen helfen, derlei Videos online künftig automatisch löschen zu können.

Vorbild ist das Video von Christchurch

Als Vorbild dienten dabei Videos wie das vom rechtsextremistischen Terroristen Brenton Tarrant, der im März dieses Jahres bei  einem Anschlag auf zwei Moscheen in Christchurch 51 Menschen tötete.

Er filmte seine Tat dabei mit einer Helmkamera und streamte die Aufnahmen ins Internet. Facebook und andere Videoplattformen hatten große Mühe, die Verbreitung des Videos anschließend zu unterbinden. Denn vielfach werden die Videos von Nutzern bearbeitet und wieder hochgeladen, damit sie nicht automatisch gesperrt werden können.

Bekämpfung der Videos ist schwierig

"Wir haben über 800 verschiedene Variationen von diesem Video gesehen, die aggressiv geteilt wurden. Da haben regelrecht Teams von Nutzern versucht, das Video zu manipulieren und immer wieder neu hochzuladen", berichtet Erin Saltman, die Anti-Terror-Beauftragte von Facebook gegenüber dem britischen TV-Sender Sky News.

Deshalb sei Facebook auf britische und amerikanische Polizeibehörden zugegangen und habe sie um Hilfe gebeten, ähnliches Videomaterial zu erstellen, damit das Unternehmen seine künstliche Intelligenz (KI) damit trainieren könne.


Facebooks KI-System soll die Videos dabei tatsächlich inhaltlich analysieren und so terroristisches Material im besten Fall direkt beim Upload löschen können. Nach eigener Aussage hat Facebook in den vergangenen zwei Jahren bereits über 26 Millionen terroristische Inhalte gelöscht.

Liebe Leserinnen und Leser,

Leider können wir Ihnen nicht zu  allen Artikeln einen Kommentarbereich zur Verfügung stellen. Mehr dazu erfahren Sie in der Stellungnahme der Chefredaktion.

Eine Übersicht der aktuellen Leserdebatten finden Sie hier.

Gerne können Sie auch auf Facebook und Twitter zu unseren Artikeln diskutieren.

Ihr Community-Team

Leserbrief schreiben

Für Kritik oder Anregungen füllen Sie bitte die nachfolgenden Felder aus. Damit wir antworten können, geben Sie bitte Ihre E-Mail-Adresse an. Vielen Dank für Ihre Mitteilung.

Name
E-Mail
Betreff
Nachricht
Artikel versenden

Empfänger

Absender

Name
Name
E-Mail
E-Mail

Ulla Popkenbonprix.deOTTOhappy-sizetchibo.deLIDLBabistadouglas.deBAUR
Mehr zum Thema
Sie sind hier: Home > Digital > Internet & Sicherheit > Internet

shopping-portal