t-online - Nachrichten für Deutschland
t-online - Nachrichten für Deutschland
Such IconE-Mail IconMenü Icon



HomeDigitalNetzpolitik

ChatGPT und KI in der Kritik: So schätzt eine KI-Expertin die Gefahren ein


ChatGPT in der Kritik
"Wir sind auf einem gefährlichen Weg"

  • Peter Schink
InterviewVon Peter Schink

Aktualisiert am 06.06.2023Lesedauer: 4 Min.
Interview
Unsere Interview-Regel

Der Gesprächspartner muss auf jede unserer Fragen antworten. Anschließend bekommt er seine Antworten vorgelegt und kann sie autorisieren.

Zum journalistischen Leitbild von t-online.
imago images 0258740775Vergrößern des Bildes
Meredith Whittaker während ihrer Eröffnungsrede bei der re:publica: "Kaum jemand versteht, welche gesellschaftlichen Auswirkungen mit KI einhergehen." (Quelle: IMAGO/dts Nachrichtenagentur)

Meredith Whittaker arbeitete lange bei Google. Die KI-Expertin äußert sich im Interview mit t-online alles andere als zuversichtlich bei dem Thema.

Sie hielt am Montag die Auftaktrede bei der Digitalkonferenz re:publica, und sie mahnt eindringlich: Wir müssten dringend sehen, dass wir die gesellschaftlichen Auswirkungen beim Einsatz Künstlicher Intelligenz (KI) nicht unterschätzen, sagt Meredith Whittaker. Die KI-Expertin wirft den großen Tech-Konzernen vor, eine rosige Zukunft zu suggerieren. Dabei gehe es um knallharte Marktinteressen.

Meredith Whittaker

Sie begann Ihre Karriere 2006 bei Google und ist Mitgründerin des AI Now Instituts an der New York University. 2018 war sie eine der maßgeblichen Organisatorinnen von Mitarbeiter-Protesten bei Google. Ein Jahr später verließ sie das Unternehmen. Heute ist sie Präsidentin der Signal-Stiftung, die die gleichlautende Messenger-App betreibt. Whittaker berät die US-Regierung und die EU-Kommission.

t-online: Alle reden im Moment über ChatGPT. Sie beschäftigen sich seit Jahren mit Künstlicher Intelligenz. Fällt es schwer, über etwas zu reden, das alle nur so halb verstehen?

Meredith Whittaker: Das vielleicht nicht. Aber wir müssen wirklich klar benennen, worum es konkret geht. Die großen Konzerne erzählen irgendwelche Geschichten, sodass es schwer ist, wirklich bei den Fakten zu bleiben. Wir sind auf einem gefährlichen Weg. Kaum jemand versteht, welche gesellschaftlichen Auswirkungen mit KI einhergehen.

Sie haben gesagt, "Künstliche Intelligenz" ist ein Hype. Was genau meinen Sie damit?

Erst mal können Unternehmen heute alles so nennen. Aber es geht auch darum, dass "Intelligenz" ja schon suggeriert, das Ganze sei irgendwie besonders smart. Und müsse schon irgendwie richtig und gut sein. Aber: Wir müssen wirklich über Details reden. Künstliche Intelligenz hat enorme gesellschaftliche Auswirkungen: beim Datenschutz, bei Arbeitnehmerrechten.

Sie sagen von sich selbst, sie seien ein sehr positiv eingestellter Mensch. Das, was sie schildern, klingt nicht sehr positiv.

Interessant. Nein, das sehe ich ganz anders. Ich sehe nicht nur die Risiken. Wir haben jetzt die Chance, einen positiven Wandel herbeizuführen. Technik kann in vielerlei Hinsicht helfen, Dinge besser zu machen. Nehmen wir nur den Klimawandel oder die Ungleichheit, das sind die großen Fragen unserer Zeit. Aber die Anreize für Firmen oder Regierungen, die richtigen Entscheidungen zu treffen, müssen stimmen. Wir haben nur wenig Zeit, uns den drängenden Aufgaben wie dem Klimawandel zu stellen.

Das heißt konkret?

Ich mache mir vor allem Sorgen um das "Wir". Im Moment gibt es nur eine Handvoll Unternehmen, die groß genug sind, das Thema "KI" voranzutreiben. Daten und Rechenleistung sind einfach sehr teuer. Deshalb bleibt das gesellschaftliche "Wir" auf der Strecke. Es geht den Firmen nur um Gewinn und möglichst schnelles Wachstum. Dem Rest der Gesellschaft, dem eigentlichen "Wir", werden irgendwelche Marketinggeschichten über KI erzählt. Große Tech-Firmen verdienen ihr Geld vor allem damit, dass sie Profile ihrer Nutzer anlegen und verkaufen.

Das klingt nach großer Kapitalismuskritik.

Nein, ganz konkret: Wir müssen über Fragen der Privatsphäre, des Datenschutzes, des Urheberschutzes und auch der Arbeitnehmerrechte reden. Nehmen wir das Beispiel der Writers Guild of America: Die Autoren der Filmindustrie müssen nicht zuletzt wegen KI massiv schlechtere Arbeitsverhältnisse in Kauf nehmen. Die Autoren von Drehbüchern drohen, zu KI-Editoren zu verkümmern.

Wir brauchen deutlich mehr gesetzliche Regelungen. Heute ist kein Konzernchef wirklich für sein Handeln verantwortlich. Aber klar ist auch: Wir werden eine erhebliche Automatisierungswelle erleben.

ChatGPT lässt sich ja nicht mehr wegdiskutieren. Italien beispielsweise hat ChatGPT zeitweise verboten. Ist es schlau, einfach die Mauer hochzuziehen?

In Italien haben sie schlicht gesagt: Was in aller Welt macht ihr da? ChatGPT ist gefüttert mit jeder Menge urheberrechtlich geschütztem Material. Und dann heißt es, ChatGPT sei intelligent. Dabei sprechen wir eigentlich von potenziellem Diebstahl. Ich frage mich, ob es den Willen gibt, das alles zu regulieren. Vor allem in den USA, wo wir das Problem haben, dass alle, die gewählt werden wollen, extrem wohlhabende Sponsoren brauchen. Große Tech-Firmen geben extrem viel Geld für Lobbyisten aus.

Wo würden Sie denn anfangen, wenn Sie beispielsweise die EU wären?

Ich würde bei den Urheberrechtsfragen anfangen. Möglichkeiten gibt es viele. Aber ich fürchte, es gibt im Moment überhaupt nicht genug Druck auf die Regierungen, sich mit solchen Fragen auseinanderzusetzen. Aber Europa hat noch ein ganz anderes Problem: Es gibt hier gar keine ernst zu nehmende Konkurrenz zu US-Firmen, weil wir die Tendenz sehen, dass die Monopolisten immer noch größer werden.

Und hey, wollt ihr am Ende von einer Handvoll amerikanischer oder chinesischer Firmen kontrolliert werden? Das sind die wirklich wichtigen Fragen. Nicht, ob Künstliche Intelligenz uns alle glücklicher macht oder uns irgendwann in einer fernen Zukunft vernichtet. Wir müssen heute unsere Hausaufgaben machen.

Das ist das Plädoyer für eine Art Gegenlobby?

Ja, doch. Es gibt schon eine ganze Reihe von Organisationen wie EDRi (Anmerkung der Redaktion: Abkürzung für European Digital Rights). Aber wir als Gesellschaft müssen da noch besser werden.

Kann politische Regulierung überhaupt ausreichend effektiv sein? Müssen nicht am Ende auch die Unternehmen ihren Teil beitragen?

Wenn dein Unternehmen irgendein Geschäftsmodell hat, gibt es am Ende immer Geldgeber. Und die üben Druck aus, dass du mehr Gewinn machst, und immer noch mehr. Immer auf Kosten der Privatsphäre, auf Kosten deiner Nutzer.

Wäre es zum Beispiel eine Möglichkeit, zum Beispiel Universitäten besser mit Geld auszustatten?

Auf jeden Fall. Dort gibt es viel Kompetenz beim Thema Künstliche Intelligenz. Aber es ist nicht trivial, denn auch die müssen ihre Modelle wieder auf großen Datenmengen und Rechenleistung aufbauen. Und auch die müssen größere Rechenleistung in Anspruch nehmen. Und die wird aktuell von einigen wenigen Unternehmen kontrolliert.

Wenn wir über die nächsten 20 bis 30 Jahre reden. Was für eine Zukunft erwartet uns da? Neuralink, eine Firma von Elon Musk, hat gerade die Erlaubnis erhalten, Chips in die Gehirne von Menschen einzupflanzen ...

Ich bin keine Zukunftsforscherin. Es gibt gerade so viele verschiedene Entwicklungen weltweit, und alles beeinflusst sich gegenseitig. Aber ich habe da schon eine klare Haltung: Unsere Zukunft ist nicht vorherbestimmt. Wir können vieles ändern, wir müssen uns nur auf die wesentlichen Fragen konzentrieren. Künstliche Intelligenz hat nicht das Recht, Entscheidungen zu treffen. Ohne unseren Input, ohne einen gesellschaftlichen Konsens, in welche Richtung wir gehen wollen.

Verwendete Quellen
  • Interview auf der re:publica
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...

ShoppingAnzeigen

Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...



TelekomCo2 Neutrale Website