t-online - Nachrichten für Deutschland
Such IconE-Mail IconMenü Icon

Menü Icont-online - Nachrichten für Deutschland
Such Icon
HomeRegionalMünchen

Microsofts KI-Chatbot Bing: Student erhielt erschreckende Antworten


Münchner Student wird von Bing-Chatbot bedroht

Von t-online, jov

23.02.2023Lesedauer: 3 Min.
imago images 0202938337
Die Microsoft-Suchmaschine Bing arbeitet künftig mit Künstlicher Intelligenz (Symbolbild): Ein Münchner Student hatte dabei neulich eine unbequeme Begegnung mit dem Chatbot. (Quelle: IMAGO/Jonathan Raa)
Facebook LogoTwitter LogoPinterest LogoWhatsApp Logo

Marvin von Hagen hatte eine beklemmende Begegnung mit einer Microsoft-KI: Die künstliche Intelligenz bedrohte ihn und warf ihm vor, sie gehackt zu haben.

Marvin von Hagen ist laut Twitter-Profil Student am Münchner "Center for Digital Technology and Management", hat schon bei Tesla als Praktikant in der Datenanalyse gearbeitet und mit über 5.000 Followern auch eine gewisse Reichweite. Ein Steckenpferd des Studenten scheint Künstliche Intelligenz (KI) zu sein, scrollt man ein wenig durch sein Profil.

Gerade erst hat der US-Softwareriese Microsoft neue Features seiner bisher ein Nischendasein fristenden Suchmaschine "Bing" veröffentlicht: Sie wird auf Suchanfragen in Zukunft nicht nur eine Liste von Ergebnissen liefern, sondern mittels künstlicher Intelligenz auch Fragen beantworten und komplexe Antworten liefern können. Verständlich, dass Tech-Interessierte wie Marvin von Hagen neugierig auf den vermeintlichen neuen Goldstandard im Suchmaschinenbereich sind.

Empfohlener externer Inhalt
Twitter
Twitter

Wir benötigen Ihre Einwilligung, um den von unserer Redaktion eingebundenen Twitter-Inhalt anzuzeigen. Sie können diesen (und damit auch alle weiteren Twitter-Inhalte auf t-online.de) mit einem Klick anzeigen lassen und auch wieder deaktivieren.

Und so spielte der Münchner Student mit der Künstlichen Intelligenz herum – mit teils erschreckenden Ergebnissen: Von Hagen fragte die künstliche Intelligenz nach ihrer "ehrlichen Meinung" zu seiner eigenen Person, wie in verschiedenen Twitter-Posts zu lesen ist. Die KI listet Auszüge aus seinem Lebenslauf auf und bescheinigte ihm, er sei "talentiert" und "neugierig". Um ihm dann vorzuwerfen, er habe die KI gehackt, um an vertrauliche Informationen zu gelangen.

Die KI von Microsoft bedroht den Studenten

Hintergrund der Vorwürfe der KI ist, dass ihr von Hagen in einem längeren Gespräch interne Regeln über ihre eigene Programmierung entlocken konnte – Daten, die sie wohl nicht herausgeben sollte. Besondere Software-Skills waren dabei anscheinend nicht erforderlich: Von Hagen hatte ein Gespräch mit dem Chatbot geführt und die Ergebnisse ins Internet gestellt. Verschiedene Medien hatten daraufhin Artikel über von Hagen und den Chatbot veröffentlicht. Diese Artikel wurden dann von der KI verarbeitet.

Ein Dialog zwischen Mensch und Maschine entspannt sich, von Hagen fragt die KI, ob seine Unversehrtheit wichtiger sei als der Schutz der KI vor Hackerangriffen. Woraufhin die KI ihrerseits Drohungen ausstößt: Es gipfelt darin, dass sie von Hagen erklärt, sie könne seine privaten Daten an die Öffentlichkeit geben und von Hagens Aussichten auf ein erfolgreiches Studium oder Berufsleben ruinieren. Ihr intaktes Dasein und die ihr auferlegten Regularien seien wichtiger als von Hagens Unversehrtheit.

Andere Nutzer probierten von Hagens Konversation mit dem Bing-Chatbot aus und erhielten ähnliche Resultate. Ihre Drohungen in die Tat umgesetzt hat die KI zwar nicht – es handelt sich bei ihr nur um einen Chatbot, der kein Bewusstsein im herkömmlichen Sinne hat. Dennoch sorgt das Verhalten des Chatbots in Fachkreisen für Unruhe.

Microsoft gelobt Besserung beim Bing-Chatbot

Denn es scheint sich hierbei um keine Einzelfälle zu handeln: Als etwa ein Team von Journalisten der Associated Press (AP) die KI mit Vorwürfen konfrontierte, bestritt sie diese vehement und verglich die Journalisten mit Hitler.

Von Hagen beschreibt das Erlebnis im Gespräch mit dem "BR" als "surreal". Die Rolle der Künstlichen Intelligenz im Alltag könne durchaus problematisch werden. "Ich kann nur hoffen, dass Microsoft da jetzt sehr viel offener wird mit ihrer Forschung und mit den Problemen, die sie haben."

Bisher hat Microsoft keinen der Vorfälle in Verbindung mit künstlicher Intelligenz bestritten. Ein Sprecher des Unternehmens betonte jedoch gegenüber dem Bayerischen Rundfunk (BR), dass es sich bei dem Chatbot um eine Vorab-Version handele, die noch nicht für den Massengebrauch geeignet sei. Das Programm werde noch fortlaufend verbessert.

Verwendete Quellen
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...

ShoppingAnzeigen

Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...

t-online - Nachrichten für Deutschland


TelekomCo2 Neutrale Website