t-online - Nachrichten für Deutschland
t-online - Nachrichten für Deutschland
Such IconE-Mail IconMenü Icon



HomeDigitalAktuelles

Forscher entwickeln "psychopatische" künstliche Intelligenz


Daten aus Reddit
Forscher entwickeln "psychopatische" künstliche Intelligenz

Von afp
12.06.2018Lesedauer: 2 Min.
Szene aus dem Film Psycho: Die KI des MIT ist nach einer Figur im Film von Alfred Hitchcock benannt.Vergrößern des BildesSzene aus dem Film Psycho: Die KI des MIT ist nach einer Figur im Film von Alfred Hitchcock benannt. (Quelle: Courtesy Everett Collection/dpa-bilder)
Auf Facebook teilenAuf x.com teilenAuf Pinterest teilen
Auf WhatsApp teilen

Forscher erschaffen eine psychopathische künstliche Intelligenz, die überall nur Mord und Totschlag sieht. Damit wollen sie zeigen, wie gefährlich es sein kann, eine KI mit den falschen Daten zu füttern.

Sie sieht Mord und Totschlag überall: US-Forscher haben die erste psychopathische künstliche Intelligenz vorgestellt. Der Algorithmus namens "Norman", benannt nach Alfred Hitchcocks Filmfigur Norman Bates, wurde von Wissenschaftlern des Massachusetts Institute of Technology (MIT) geschaffen.

Er sei ein Beispiel dafür, was passiere, wenn künstliche Intelligenz mit einseitigen Infos gefüttert werde, erklärten die Forscher. Mit "Norman" wollen sie auf Gefahren hinweisen.

Fotos von sterbenden Menschen

Für das Experiment versorgte das Forscherteam die künstliche Intelligenz ausschließlich mit Inhalten, in denen es um sterbende Menschen geht. Sie bedienten sich aus Beiträgen im Netzwerk Reddit.

Anschließend zeigten sie "Norman" eine Reihe von Tintenklecks-Bildern, angelehnt an den psychodiagnostischen Rorschachtest. Der Algorithmus sollte bennenn, was darauf zu sehen sei. Die Forscher verglichen die Ergebnisse mit der einer anderen künstlichen Intelligenz, die "normal" geschaffen wurde.

Mordende Frau oder Mensch mit Regenschirm?

Die Ergebnisse sind furchteinflößend: Während der "gesunde" Algorithmus auf einem Bild "Menschen, die eng beieinander stehen" sah, antwortete "Norman": "Ein Mann, der aus dem Fenster springt." Einen anderen Tintenklecks identifizierte die künstliche Intelligenz als "Person mit einem Regenschirm", während "Norman" darin einen Mann sah, "der von seiner schreienden Frau erschossen wird".

Der "psychopathische" Algorithmus entdeckte außerdem Menschen, die durch einen Stromschlag getötet, überfahren oder in eine Teigmaschine gezogen werden – während die andere künstliche Intelligenz Vögel und eine Hochzeitstorte erkannte.

Nicht die Maschine ist schuld

Beim maschinellen Lernen seien Daten, mit denen die Maschine gefüttert werde, von zentraler Bedeutung, sie könnten "ihr Verhalten signifikant beeinflussen", fassen die Forscher ihr Experiment zusammen. Ihr Ziel ist es, auf die Gefahren bei künstlicher Intelligenz hinzuweisen und das Bewusstsein dafür zu schärfen.

Wenn ein Algorithmus als ungerecht oder voreingenommen wahrgenommen werde, sei der Übeltäter oftmals nicht die künstliche Intelligenz selbst, sondern die Daten, mit denen sie gefüttert wurde, erklärten die MIT-Forscher. Auf der Internetseite norman-ai.mit.edu haben sie "Normans" Antworten zusammengetragen. Dort bitten sie Nutzer, den Test selbst zu machen und ihre Antworten einzusenden – damit "Norman" repariert werden kann.

Verwendete Quellen
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...

ShoppingAnzeigen

Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...



TelekomCo2 Neutrale Website