Sie sind hier: Home > Digital >

Microsoft erlebt Debakel mit "Tay": Chatbot pries Adolf Hitler

Chatbot blamiert Microsoft  

"Tay" muss nach rassistischen Entgleisungen abgeschaltet werden

27.03.2016, 11:07 Uhr | dpa

Microsoft erlebt Debakel mit "Tay": Chatbot pries Adolf Hitler. Microsoft musste seinen Twitter-Chatbot "Tay" nach einem Debakel abschalten. (Quelle: AP/dpa/Ted S. Warren)

Microsoft musste seinen Twitter-Chatbot "Tay" nach einem Debakel abschalten. (Quelle: Ted S. Warren/AP/dpa)

Dieser Versuch mit künstlicher Intelligenz ging gewaltig schief: Microsoft hat seine Chatbot-Software "Tay" nach kurzer Zeit vom Netz nehmen müssen. Nutzer verleiteten das Programm durch Tricks massenhaft zu rassischen Entgleisungen – für Microsoft ein Debakel.

Microsoft hat eine Chatbot-Software nach kurzer Zeit von Netz nehmen müssen, nachdem Nutzer sie durch Tricks massenhaft zu rassistischen Entgleisungen verleiten konnten. Das am Mittwoch eingeschaltete Programm mit dem Namen "Tay" sollte mit Hilfe einfacher Antwort-Algorithmen über Twitter den Anschein einer Konversation mit Menschen aufrechterhalten, aber auch aus Unterhaltungen lernen. Nutzer brachten "Tay" unter anderem dazu, Adolf Hitler zu preisen, den Holocaust zu verneinen und Schwarze zu beleidigen.

Microsoft löscht Tweets von "Tay"

Ein Großteil dieser Tweets wurde später gelöscht. Nach einigen Stunden verkündete die Maschine über ihren Twitter-Account "@TayandYou", sie müsse nach so vielen Gesprächen schlafen und ging vom Netz. Microsoft erklärte, bei "Tay" würden "einige Anpassungen" gemacht. Während die Software lerne, seien einige ihrer Antworten unangemessen und spiegelten die Äußerungen der Menschen wider, die mit ihr interagierten.

Nach Informationen der Website "Buzzfeed", die vor dem Start ein Interview mit der führenden Entwicklerin geführt hatte, hatte "Tay" zwar Filter gegen obszöne Ausdrücke. Aber das Team unterschätzte ganz offensichtlich die destruktive Energie von Internet-Nutzern bei politischen Themen sowie ihren Erfindungsreichtum. So erwies sich ein simples "Sprich mir nach!" als sichere Falle: Man konnte "Tay" damit dazu bringen, alle möglichen Parolen zu wiederholen.

Chatbot von Comedians aufgepeppt

"Tay" sollte im Netz ursprünglich die Persönlichkeit einer jungen Frau simulieren und als Zielgruppe auf Internet-Nutzer im Alter von 18 bis 24 Jahre ausgerichtet sein. Dafür sei die Software unter anderem mit Sprüchen von Comedians aufgepeppt worden, hieß es.

Die Idee von Chatbots ist nicht neu: Vor 50 Jahren hatte erstmals das Programm "Eliza" Aufsehen erregt. Es konnte eine Unterhaltung aufrechterhalten, indem es passende Sätze zu erkannten Schlüsselwörtern zusammenstellte. Mit der fortschreitenden Entwicklung selbstlernender Maschinen und künstlicher Intelligenz gelten Chatbots jetzt aber unter anderem als aussichtsreiches Modell für die Kommunikation von Unternehmen mit Kunden. So entwickelt Facebook für seinen Messenger einen Concierge-Service mit künstlicher Intelligenz, der aktuell noch von Menschen angelernt wird.

Liebe Leserinnen und Leser,

Leider können wir Ihnen nicht zu  allen Artikeln einen Kommentarbereich zur Verfügung stellen. Mehr dazu erfahren Sie in der Stellungnahme der Chefredaktion.

Eine Übersicht der aktuellen Leserdebatten finden Sie hier.

Gerne können Sie auch auf Facebook und Twitter zu unseren Artikeln diskutieren.

Ihr Community-Team

Leserbrief schreiben

Für Kritik oder Anregungen füllen Sie bitte die nachfolgenden Felder aus. Damit wir antworten können, geben Sie bitte Ihre E-Mail-Adresse an. Vielen Dank für Ihre Mitteilung.

Name
E-Mail
Betreff
Nachricht
Artikel versenden

Empfänger

Absender

Name
Name
E-Mail
E-Mail

Ulla Popkenbonprix.deOTTOhappy-sizetchibo.deLIDLBabistadouglas.deBAUR

shopping-portal