Sie sind hier: Home > Digital > Netzpolitik >

KI-Experte von Google: "Ein Arzt kann nie das Wissen unserer KI haben"

INTERVIEWGoogle und die Künstliche Intelligenz  

Sieben Prinzipien sollen vor Missbrauch schützen

Von Helge Denker

22.12.2018, 14:34 Uhr
KI-Experte von Google: "Ein Arzt kann nie das Wissen unserer KI haben". Künstliche Intelligenz (Symbolbild): Einzug in die Medizin (Quelle: imago images)

Künstliche Intelligenz (Symbolbild): Einzug in die Medizin (Quelle: imago images)

Kaum ein IT-Begriff wurde 2018 so oft und gern verwendet, wie "Künstliche Intelligenz". Sie wird bestenfalls als Jobkiller, schlimmstenfalls als Menschentöter beschrieben. Was KI wirklich ist und kann, erklärt Googles Experte Alexander Krock. 

Künstliche Intelligenz ist ein gern und viel verwendetes Modewort geworden. Was bedeutet KI für Sie – Fluch oder Segen?

Alexander Krock: Wenn wir von Künstlicher Intelligenz (KI) sprechen, dann meinen wir Systeme, die Aufgaben erledigen können, die nach Ansicht des Menschen Intelligenz erfordern. Künstliche Intelligenz ist im Moment vor allem ein Werkzeug und eine Möglichkeit, einfache und datengetriebene Aufgaben besser und schneller zu erledigen. KI ist also "neutral". Es kommt darauf an, wie wir die Technologie einsetzen. Ich bin optimistisch, dass der positive Nutzen von künstlicher Intelligenz überwiegt und auch künftig überwiegen wird.

Wobei kann KI Menschen helfen und wobei nicht?

KI wird als eng ("narrow"), allgemein ("general") oder "super" eingestuft. Enge KI gibt es bereits heute. Viele Google-Produkte enthalten enge KI- Komponenten und sind in der Lage, zum Beispiel die Fähigkeit eines Menschen zur Erkennung von Krankheiten oder Spam-E-Mails zu übertreffen.

Was unterscheidet KI von Maschinellem Lernen?

Maschinelles Lernen (ML) bezeichnet den Vorgang, aus einer großen Menge Daten zu lernen und Muster zu erkennen. Dies geschieht häufig durch mathematische oder statistische Methoden. Eine enge KI ist dank maschinellem Lernen besonders gut darin, bestimmte Sachverhalten zu klassifizieren oder vorherzusagen, die auf dem Erlernen und Ableiten vorliegender Daten beruht. 

Alexander Krock, der Experte für KI bei Google. (Quelle: Hersteller/Google)Alexander Krock, der Experte für KI bei Google. (Quelle: Google/Hersteller)

Alexander Krock, Head of Google Cloud Customer Engineering ist seit mehr als sieben Jahren bei Google. In seiner jetzigen Position als "Head of Google Cloud Customer Engineering" leitet er die "Customer Engineering Services" von Google Cloud in Deutschland, Österreich und der Schweiz. Das Team arbeitet als Teil des Sales-Teams mit dem Fokus, die Ziele der Kunden durch die Anwendung von Google Cloud Technologien zu erreichen. Vor seiner aktuellen Position leitete Alexander Krock ein Team von technisch orientierten Ad-Tech-Spezialisten, das den größten Agenturen und Werbetreibenden in Zentraleuropa bei der Integration von "DoubleClick" in die Marketingstrategie unterstützte.

Haben Sie dafür ein Beispiel?

YouTube ist ein gutes Exempel: Ich spiele seit über 25 Jahren Schlagzeug und schaue mir auf YouTube viele Videos dazu an. Mit dem Wissen, dass ich mir Snaredrum-Techniken angesehen habe, kann KI die Videos, die ich mir als nächstes ansehen möchte, gut einschätzen – vielleicht etwas über Schlagzeuger, die bestimmte Techniken weiterentwickelt haben.

KI übernimmt die Aufgaben, für die sie entwickelt wurde. Diese Anwendungen haben einen klaren Rahmen, in dem sie sich bewegen.

Ein anderes Beispiel ist "AlphaGo" von DeepMind. Diese künstliche Intelligenz hat sich selbst das komplexeste Brettspiel der Welt – das aus Japan stammende Go – beigebracht und konnte schließlich den besten Go-Spieler ohne Mühe besiegen. Doch setzen Sie dieses System einmal vor ein Schachspiel. Die KI verstünde das Spiel nicht und würde wohl kaum ein Match gewinnen.

Wie setzt Google Künstliche Intelligenz ein? 

Ein sehr interessantes Beispiel beschäftigt sich mit der Erkennung von diabetischer Retinopathie (DR). Diese Krankheit ist die am schnellsten wachsende Ursache für Erblindung. Weltweit sind fast 415 Millionen Diabetiker davon gefährdet. Wird sie nicht frühzeitig diagnostiziert, kann sie zur Erblindung führen. Leider sind Fachärzte, die dies erkennen können, vor allem in unterentwickelten Regionen selten.

Wir haben gemeinsam mit Spezialisten einen großen Datensatz mit Bildern dieser Erkrankung erstellt und unser maschinelles Lernmodell, also unsere KI, mit den Daten trainiert. Das System kann die Merkmale von DR viel früher und schneller identifizieren als die Spezialisten. Warum? Die KI hat mehrere Tausend Aufnahmen von Augäpfeln mit der Krankheit betrachtet. Ein einzelner Arzt, egal wie tief er in der Materie steckt, kann nie so einen Wissensstand aufbauen wie ihn sich unsere KI anhand der Daten angeeignet hat.

Was kann ein Mensch denn besser als KI?

Der Mensch ist der Maschine in Bereichen überlegen, wo allgemeine oder Super-KI benötigt würde. Die enge KI kann nicht aus dem ihr vorgegebenen Rahmen ausbrechen, um Lösungen für neue Probleme zu finden. Wir Menschen hingegen finden neue Lösungsansätze, die nicht "im System" sind. Wir Menschen können um die Ecke denken, sind kreativ und lassen auch manchmal unsere Gefühle oder Instinkte entscheiden.

Wofür wird KI bei Google garantiert nicht eingesetzt?

Genau dieser Frage haben wir uns ausführlich gewidmet und unsere sieben Prinzipien aufgestellt, wie wir KI einsetzen wollen und welchen Zweck sie erfüllen soll. Anhand dieser Basis haben wir bei Google vier Bereiche identifiziert, in denen wir KI nicht einsetzen wollen.
Die Ergebnisse unserer KI-Forschung werden nicht in Technologien, die (wahrscheinlich) generell schädlich sind, die Informationen zu Überwachungszwecken sammeln oder nutzen und deren Zweck im Widerspruch zu allgemein akzeptierten Grundsätzen internationalen Rechts und der Menschenrechte steht. Außerdem haben wir uns verpflichtet, dass unsere KI nicht in Waffen oder vergleichbaren Technologien eingesetzt werden dürfen.


Ganz im Gegenteil wollen wir, dass KI der Gesellschaft nützt und den Menschen etwas zurückgibt. Wir vermeiden bei unserer Entwicklung die Entstehung oder Verstärkung unfairer Tendenzen oder Voreingenommenheiten – anders gesagt: Unsere KI soll Diskriminierung abbauen. Gleichzeitig haben wir uns einem sicheren Umgang verschrieben, sowohl beim generellen Einsatz von KI als auch beim Schutz von Daten.

Vielen Dank für das Gespräch!

Ihre Meinung zählt!

Wir freuen uns auf angeregte und faire Diskussionen zu diesem Artikel.
Bitte beachten Sie unsere Netiquette.

Live-Diskussion öffnen (0 Kommentare)

Leserbrief schreiben

Für Kritik oder Anregungen füllen Sie bitte die nachfolgenden Felder aus. Damit wir antworten können, geben Sie bitte Ihre E-Mail-Adresse an. Vielen Dank für Ihre Mitteilung.

Name
E-Mail
Betreff
Nachricht
Artikel versenden

Empfänger

Absender

Name
Name
E-Mail
E-Mail

Ulla Popkentchibo.deOTTOmyToysbonprix.deLIDLBabistadouglas.deXXXLutz

shopping-portal