Sie sind hier: Home > Digital >

So grausam werden Kriege durch künstliche Intelligenz

"Schießempfehlungen" vom System  

So grausam werden Kriege durch künstliche Intelligenz

Von Tim Kummert

21.11.2018, 09:24 Uhr
Neueste Version von Militär-Roboter mit menschlichen Körperbewegungen (Quelle: Boston Dynamics)
Militärroboter sorgt für Aufsehen und Sorge

Die neueste Version des Robotermodells „Atlas“ von Boston Dynamics stellt sich der Herausforderung eines Hindernis-Parcours.

KI im Krieg: Dieser Militär-Roboter wird immer menschlicher. (Quelle: t-online.de)


Drei Milliarden Euro will die Bundesregierung in künstliche Intelligenz investieren. Doch die neue Technik hat auch Kehrseiten: Künftige Kriege werden brutaler denn je geführt.

Vor 35 Jahren wäre die Menschheit fast durch künstliche Intelligenz ausgelöscht worden: Am 26. September 1983, in der Hochphase des Kalten Kriegs, meldete das russische Raketen-Warnsystem "Oko" einen Angriff der Amerikaner durch eine abgeschossene Rakete in Richtung Russland. Mit riesigen Leuchten blinkten die Alarmsignale auf: Ein Atomkrieg sei ausgebrochen und das System empfahl, den nuklearen Vergeltungsschlag einzuleiten. Oberst Stanislaw Petrow hatte an diesem Tag in der Kommandozentrale der Russen Dienst. Petrow widersetzte sich dem System, aus einem Gefühl heraus. Er fragte sich: Wieso sollten die Amerikaner mit einer kleinen Rakete den Atomkrieg beginnen?

Später stellte sich heraus, das sein Gefühl richtig war: Ein von Wolken gebrochener Sonnenstrahl hatte die Fehlreaktion in einem russischen Satelliten ausgelöst und einen Fehlalarm produziert.

Algorithmen: Schneller als jeder Mensch

Stanislaw Petrow verhinderte damals den dritten Weltkrieg und lieferte nebenbei einen Beleg dafür, wie wichtig es ist, dass ein Mensch finale Entscheidungen trifft und nicht eine Maschine. Besonders bei militärischen Konflikten, wenn es um Leben und Tod geht. Seit 1983 sind die Systeme deutlich präziser geworden, Computer arbeiten auf Hochleistungsniveau und die künstliche Intelligenz ist weltweit einer der schnellsten wachsenden Industrie- und Forschungszweige. Deutschland soll, so hat es Kanzlerin Angela Merkel im Interview mit t-online.de angekündigt, künftig wesentlich mehr Geld für die Entwicklung von KI investieren. Bis zu drei Milliarden sollen künftig in die Forschung fließen. Dabei ist der Begriff "KI" weit gefasst, allgemein wird darunter die Fähigkeit von technischen Systemen verstanden, Entscheidungen zu treffen, für die sonst ein Mensch gebraucht wird. Ein Aspekt geht jedoch in der öffentlichen Debatte unter: Wie künstliche Intelligenz die Art Kriege zu führen verändern wird – denn die Auswirkungen sind jetzt schon enorm.

Die Algorithmen können schneller als jeder Mensch Rechenleistungen vollbringen, stellen keine Rückfragen, sind niemals emotional oder müde und führen Befehle perfekt aus. Tesla-Chef Elon Musk und Apple-Gründer Steve Wozniak warnten mit Dutzenden anderen KI-Experten bereits 2017 vor dem Einsatz der Technik zu militärischen Zwecken. In einem offenen Brief an die Vereinten Nationen sagten sie eine "dritte Revolution der Kriegsführung" voraus (die ersten beiden waren das Schießpulver und die Atomwaffen). Zudem warnen sie vor "tödlichen autonomen Waffen". Die sind nur ein Jahr später schon Realität.

Noch entscheidet der Mensch

Davon erzählen kann Fabian Westerheide, Unternehmer und Investor in künstliche Intelligenz. In seinen Vorträgen erklärt der 32-Jährige regelmäßig, dass KI schon zum Alltag in Kriegen geworden ist: "Wir haben bereits jetzt Drohnen, die autonom entscheiden, ob die Taliban oder ein Kindergeburtstag im Krisengebiet sind, und die dann bombardiert werden." Entscheidet das System auf "Taliban" werde die "Schießempfehlung" vom System gegeben, auch wenn immer noch ein Mensch via Fernsteuerung über den Abschuss entscheidet. Zur Ortung wird übrigens oftmals ein Handystandort angepeilt. Auch deshalb benutzte der ehemalige Al-Qaida-Chef Osama bin Laden schon seit 1998 kein Handy oder Satellitentelefon mehr. Die Amerikaner sollen das Signal eines von bin Laden benutzten Satellitentelefons entdeckt und den Standort bombardiert haben.

Noch entscheidet ein Mensch über die finale Tötung, doch bereits jetzt ist es möglich mittels KI, alles was in ein bestimmtes Schema fällt, beschießen zu lassen. In Korea kommen KI-Systeme bei der Grenzsicherung zum Einsatz. Das von Samsung entwickelte System "SGR-A1" ist in der Lage, Entscheidungen über den Einsatz von Waffengewalt an der Grenze selbst zu treffen. Westerheide sieht eine düstere Zukunft aufziehen: "Der erste Weltkrieg wurde beendet, weil die Menschen nicht mehr töten wollten, das wird mit Maschinen nicht passieren, denn die besitzen keinen freien Willen." Wenn in den Panzern Computer statt Menschen sitzen, kann mit ihnen extrem nah an mögliche Ziele herangefahren werden — weil der Kollateralschaden im Zweifelsfall überschaubar ist. 

Die Bundeswehr schweigt zu KI-Einsatz

Armin Grunwald, der Leiter des Instituts für Technikfolgenabschätzung und Systemanalyse am Karlsruher Institut für Technologie, stimmt seinem Kollegen zu und sagt: "Das Militär wird sich dramatisch verändern durch künstliche Intelligenz." Das gelte weltweit, KI werde in praktisch allen Kriegen eingesetzt werden. Er führt für den Bundestag Studien zur Auswirkung von KI durch und erklärt, warum die Offiziere neue Strategien entwickeln: "Das Militär hat Angst, dass der Gegner schneller ist, und man will selbst immer der erste bei neuen Innovationen sein. Das gilt auch für KI." Es beginne ein regelrechtes Wettrüsten, wer schneller die skrupellosere KI-Technik besitzt.

Wo die deutsche Bundeswehr künstliche Intelligenz bei ihrer Arbeit einsetzt, will sie auf Nachfrage von t-online.de nicht erklären. In einer Stellungnahme des Verteidigungsministeriums heißt es, man sehe "für KI Anwendungsmöglichkeiten insbesondere im Bereich des Personalmanagements, dem Energiemanagement aber auch bei Vorhersagen." Und doch scheint man auch dort erkannt zu haben, worin mögliche Fallstricke liegen könnten: "Wichtig ist, dass von Beginn an bei der Integration die Nachvollziehbarkeit der auf KI basierten Entscheidungen mit berücksichtigt wird." Insider gehen davon aus, dass militärische Anwendungen denen der zivilen Wirtschaft in Sachen KI um drei Jahre voraus sind.

Fehler im System können tödlich sein

Die Frage über den Einsatz von KI mündet schnell in einer moralischen Debatte: Ist die Gewalt, die von Maschinen ausgeht, schlimmer als die von Menschen? Und wie lässt sie sich regulieren? Beim Forum der Vereinten Nationen in Genf, wo seit Jahren darüber nachgedacht wird, KI mit Waffen zu ächten, ist bislang keine Übereinkunft erzielt worden. Völkerrechtliche Regeln gelten bislang nur für die Führung von Kriegen, gut möglich ist aber, dass KI diese in Zukunft umgeht.

Doch nicht nur im Krieg können Menschen durch Maschinen getötet werden, sondern auch im Straßenverkehr: In der Automobilindustrie wird seit Längerem darüber diskutiert, wie Autopiloten in einer extremen Gefahrensituation entscheiden sollen. Beispielsweise, ob eine Gruppe Rentner oder ein Schulkind überfahren wird. Zu tödlichen Fehlern führen die Systeme jetzt schon: Im US-Bundesstaat Florida kam es im Sommer 2016 zu einem tödlichen Unfall, weil ein automatisches Fahrsystem einen Lastwagenanhänger fälschlicherweise als hochhängendes Straßenschild identifizierte.


Der Mensch wird gebraucht – für den Zweifelsfall

Neue Technik im Krieg und auf den Straßen ist für viele Firmen ein Geschäftsmodell. Christoph Atzpodien, der Hauptgeschäftsführer des Bundesverbands der Deutschen Sicherheits- und Verteidigungsindustrie erklärt, wie die Firmen auf das neue Modell aufmerksam wurden: "KI ist schon seit langer Zeit ein Thema bei uns. Ab 2014 entstand durch die Annexion der Krim eine neue Wahrnehmung: nämlich, dass auch wir uns in Europa einer durchaus neuen Bedrohungslage gegenübersehen. Die Art und Weise dieser Bedrohung als ein im Zweifel 'hybrides Szenario' hat das Thema KI bei Verteidigungsfirmen nochmals gepusht." Er weiß, dass die Politik hier Regeln bestimmen kann, die auch die Firmen in ihrer Freiheit einschränken. Sein Fazit dazu lautet: "In Deutschland ist bisher die Haltung: Wir wollen einen Menschen haben, der im Zweifelsfall über den Einsatz von Waffen entscheidet. Die Diskussion darüber hat aber gerade erst begonnen."

Verwendete Quellen:
  • Eigene Recherche

Ihre Meinung zählt!

Wir freuen uns auf angeregte und faire Diskussionen zu diesem Artikel.
Bitte beachten Sie unsere Netiquette.

Gefällt 0 Gefällt nicht0
Leserbrief schreiben

Für Kritik oder Anregungen füllen Sie bitte die nachfolgenden Felder aus. Damit wir antworten können, geben Sie bitte Ihre E-Mail-Adresse an. Vielen Dank für Ihre Mitteilung.

Name
E-Mail
Betreff
Nachricht
Artikel versenden

Empfänger

Absender

Name
Name
E-Mail
E-Mail

Anzeige
Mäntel-Highlights und schöne Jacken shoppen
bei MADELEINE
myToysbonprix.deOTTOUlla Popkenhappy-size.deLIDLBabistadouglas.deBAUR;

shopping-portal