• Home
  • Digital
  • Internet & Sicherheit
  • Internet
  • Deepfake-Video: Mordopfer sucht selbst nach seinem Mörder


Schlagzeilen
AlleAlle anzeigen

Symbolbild für einen TextInflationsrate sinktSymbolbild für einen TextDrosten zeigt "Querdenker" anSymbolbild für ein VideoHochwasser und Erdrutsche in ÖsterreichSymbolbild für einen TextGesundheitskarte kommt aufs HandySymbolbild für einen TextWellbrock holt nächste WM-MedailleSymbolbild für einen TextDirndl bei G7-Gipfel? Söder sauerSymbolbild für einen TextNeue ARD-Partnerin für SchweinsteigerSymbolbild für einen TextFKK-Gaffer blockieren Retter – Mann totSymbolbild für einen TextStummer Schlaganfall: So tückisch ist erSymbolbild für einen TextHackerangriff legt Lieferdienst lahmSymbolbild für einen TextKapituliert Sylt jetzt vor den Punks?Symbolbild für einen Watson TeaserPocher will übertriebenes SchmerzensgeldSymbolbild für einen TextSchlechtes Hören erhöht das Demenzrisiko

Mordopfer sucht selbst nach seinem Mörder

Von dpa, arg

23.05.2022Lesedauer: 2 Min.
Junge auf dem Fußballplatz: Durch ein Deepfake-Video wurde der ermordete Sedar digital wieder zum Leben erweckt.
Junge auf dem Fußballplatz: Durch ein Deepfake-Video wurde der ermordete Sedar digital wieder zum Leben erweckt. (Quelle: Politie Eenheid Rotterdam)
Facebook LogoTwitter LogoPinterest LogoWhatsApp Logo

In einer weltweit einmaligen Aktion sucht ein Mordopfer selbst nach seinem Mörder. Mithilfe der Deepfake-Technologie hat die niederländische Polizei den Verstorbenen digital wieder zum Leben erweckt.

Fast 20 Jahre nach dem gewaltsamen Tod eines niederländischen Jungen sucht das Opfer nun dank moderner Technik scheinbar selbst seinen Mörder. Die Polizei setzte erstmals die sogenannte Deepfake-Technik ein, um ein Verbrechen aufzuklären. Dank dieser Technik erschien der 2003 in Rotterdam getötete Sedar Soares am Sonntagabend in einem Video-Aufruf der Polizei im TV.

Nach Angaben der Polizei wurde diese Technik erstmals für einen Zeugenaufruf eingesetzt. "Es ist eine Weltpremiere", sagte der Polizeiexperte Daan Annegarn. Deepfakes nennt man Videos, Bilder oder auch Audio-Dateien, die mit Hilfe künstlicher Intelligenz (KI) produziert wurden. Stimme, Gesicht und Bewegungen einer Person erscheinen echt, sind es aber nicht.

Empfohlener externer Inhalt
Youtube

Wir benötigen Ihre Einwilligung, um den von unserer Redaktion eingebundenen Youtube-Inhalt anzuzeigen. Sie können diesen (und damit auch alle weiteren Youtube-Inhalte auf t-online.de) mit einem Klick anzeigen lassen und auch wieder deaktivieren.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen übermittelt werden. Mehr dazu in unseren Datenschutzhinweisen.

"Weißt du mehr? Dann sprich jetzt."

Die Polizei produzierte das Video auf der Grundlage eines Fotos des getöteten Jungen. Man sieht den 13-jährigen Sedar auf einem Fußballplatz im Trainingsanzug. Er geht durch ein Ehrenspalier von Familie, Freunden, Lehrern und Trainern.

ANZEIGEN
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Meistgelesen
Es schlug ein wie eine Bombe
Erdoğan und seine Frau Emine kommen in Madrid an: Für seine Zustimmung zum Nato-Beitritt Finnlands und Schwedens kassiert der türkische Präsident viele Zugeständnisse.


"Er wollte Profifußballer werden", sagt seine Schwester Janet in dem Film. "Der Traum ist weg. Denn Sedar lebt nicht mehr." Um endlich die Wahrheit zu erfahren, sei er "speziell für diesen Film zum Leben erweckt worden". Und dann scheint der Junge gemeinsam mit seiner Schwester an die Zuschauer zu appellieren: "Weißt du mehr? Dann sprich jetzt."

Sedar war im Winter 2003 in Rotterdam erschossen worden. Jahrelang war die Polizei davon überzeugt, dass er von einem wütenden Autofahrer erschossen wurde, weil er mit seinen Freunden Schneebälle auf Autos geworfen hatte. Doch nun gehen Ermittler davon aus, dass er zufällig Opfer wurde, als ein Betrugsversuch von Kriminellen schief lief.

Das Video sei gemeinsam mit der Familie entwickelt worden, sagte der Polizei-Experte. "Wir sind davon überzeugt, dass es auch im kriminellen Umfeld Menschen berühren kann. Dass Zeugen und vielleicht der Täter sich melden werden."

Wie lassen sich Deepfakes erkennen?

Die täuschend echten Fälschungen, die durch künstliche Intelligenz erstellt werden, lassen sich bei normalem Hinsehen oder Hören kaum noch von echten Medien unterscheiden, warnt das Bundesamt für Sicherheit in der Informationstechnik (BSI). Die Fälschungen werden auch als Deepfakes bezeichnet, weil die Verfahren zu ihrer Erstellung auf tiefen neuronalen Netzen (deep neural networks) basieren.

Technisch kann es Hinweise geben, die Fälschungen entlarven können. Dazu zählen dem BSI zufolge etwa Artefakte (Bildrückstände) bei Gesichtsübergängen, verwaschene Konturen, begrenzte Mimik oder unstimmige Belichtung bei Videos. Metallischer oder monotoner Klang, falsche oder undeutliche Aussprache oder unnatürliche Sprechweise sowie unnatürliche Geräusche oder Verzögerungen sind typische Fehler bei Stimmfälschungen.

Laut BSI genügt aber schon allein das Wissen um die Existenz von Deepfakes, um nicht mehr sofort jeder Video- oder Audioaufnahme zu vertrauen. Die Experten raten dazu, Aussagen auf ihre Plausibilität hin kritisch zu hinterfragen. Zudem hilft es, bei Zweifeln nach weiteren Quellen hinter der angeblich echten Information zu suchen.

Facebook LogoTwitter LogoPinterest LogoWhatsApp Logo
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...

ShoppingANZEIGEN

Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
PolizeiRotterdam

t-online - Nachrichten für Deutschland
t-online folgen
FacebookTwitterInstagram

Das Unternehmen
Ströer Digital PublishingJobs & KarrierePresseWerbenKontaktImpressumDatenschutzhinweiseDatenschutzhinweise (PUR)Jugendschutz



Telekom
Telekom Produkte & Services
KundencenterFreemailSicherheitspaketVertragsverlängerung FestnetzVertragsverlängerung MobilfunkHilfeFrag Magenta


TelekomCo2 Neutrale Website