t-online - Nachrichten für Deutschland
Such IconE-Mail IconMenü Icon



HomeDigitalAktuelles

EU-Regulierung für AI: Lobbykampf gegen Auflagen im AI Act


KI-Firmen gegen EU
"Das ist ein wiederkehrender Bluff"

InterviewVon Marcel Horzenek

03.07.2025 - 13:30 UhrLesedauer: 5 Min.
imago images 0260651838Vergrößern des Bildes
Kampf um die KI-Regulierung: Meta-Chef Mark Zuckerberg droht mit dem Rückzug vom europäischen Markt. (Quelle: ABACAPRESS/imago-images-bilder)
News folgen

Künstliche Intelligenz wird immer mächtiger – und damit auch gefährlicher. Ein Experte erklärt, warum US-Konzerne die Regulierung verwässern wollen – und was auf dem Spiel steht.

Vor anderthalb Jahren wurde mit dem AI Act von der EU das weltweit erste umfassende KI-Gesetz verabschiedet. Doch die konkreten Regeln für die stärksten KI-Systeme wie ChatGPT, Gemini oder Claude sind darin nur grob skizziert. Deshalb arbeitet die EU-Kommission seit Monaten an einem detaillierten Verhaltenskodex (Code of Conduct), der festlegt, wie sich Tech-Konzerne genau verhalten müssen. Hinter den Kulissen wird ein intensiver Lobbykampf von US-Tech-Giganten wie OpenAI, Google und Meta geführt, die sich gegen strengere Anforderungen und europäische Regulierungsbehörden wehren.

Loading...

Nick Moës von der Organisation The Future Society hat den Entstehungsprozess des KI-Gesetzes hautnah miterlebt und nimmt als Vertreter der Zivilgesellschaft am aktuellen Kodex-Verfahren teil. Im Gespräch mit t-online erklärt er, warum die Verzögerung problematisch ist und welche Folgen ein Scheitern für deutsche Verbraucher hätte.

t-online: Herr Moës, warum ist es so wichtig, KI zu regulieren?

Nick Moës: Derzeit erfolgen die Entwicklung und der Einsatz von KI ohne angemessene Kontrollen und Abwägungen. Legitimität und Rechenschaftspflicht sind bei KI-Technologien von entscheidender Bedeutung, denn sie werden die Zukunft unserer Welt maßgeblich mitgestalten. Wir können uns nicht darauf verlassen, dass ein schnelllebiges industrielles Wettrüsten dem öffentlichen Interesse dient. Deshalb muss eine wirksame KI-Governance jetzt Priorität haben.

Beobachter sprechen von einer "epischen Lobbyschlacht" um den KI-Verhaltenskodex. Sie sind mittendrin in Brüssel – was genau geht da vor sich?

Diese Unternehmen betreiben einen ungewöhnlich hohen Aufwand, um den demokratischen Prozess zu beeinflussen. Und sie investieren dafür auch viel Geld. Die großen Tech-Konzerne wie Meta, Google und Microsoft versuchen, die unabhängigen Experten und die Europäische Kommission unter Druck zu setzen. Sie wollen von der vereinfachten Durchsetzung durch den Code of Conduct profitieren, aber gleichzeitig weiterhin unsichere Produkte auf dem EU-Markt verkaufen dürfen.

Das ist ein heftiger Vorwurf. Lässt sich der auch belegen?

Es gibt ein Transparenzregister, und Organisationen wie Transparency International und das Corporate Europe Observatory dokumentieren diese Ausgaben. Daran lässt sich erkennen: Die größten Unternehmen der Welt bezahlen Berater, die mit den richtigen Politikern sprechen und die Regulierung in ihrem Sinne gestalten wollen. In Brüssel ist das eine typische Methode zur Beeinflussung von Gesetzen.

(Quelle: The Future Society)

Zur Person

Nick Moës ist geschäftsführender Direktor von The Future Society, einer gemeinnützigen Organisation, die sich auf die Politik im Bereich der allgemeinen Künstlichen Intelligenz (General-Purpose Artificial Intelligence, GPAI) konzentriert. Er ist Wirtschaftswissenschaftler mit Sitz in Brüssel und spielte eine aktive Rolle bei der Ausarbeitung des AI Acts der EU und dem Aufbau seiner Durchsetzungsmechanismen.

Mit welchen Argumenten versuchen die Unternehmen, die Regeln zu schwächen?

Zunächst einmal: Nicht alle Tech-Unternehmen wollen schwächere Regeln. Gerade die innovativeren kleineren Firmen wie Mistral, Anthropic oder auch deren Investoren sagen öffentlich, dass sie die KI-Verordnung durchaus praktikabel finden. Es ist deutlich günstiger, wenn sie den standardisierten Regeln des Verhaltenskodex folgen und dafür eine Art "Gütesiegel" bekommen –, als wenn sie selbst beweisen müssen, dass ihre KI-Systeme sicher sind.

Und die großen Player?

Die haben ein ganz anderes Problem: Die Geschäftskunden vertrauen der Zuverlässigkeit und Sicherheit der großen Modelle noch nicht. Deshalb nutzen Unternehmen diese KI-Systeme nur zögerlich, sondern eher Studenten für die Hausaufgaben – aber die bringen kaum Geld. Meta ist besonders lautstark. Mark Zuckerberg hat sich schon immer schwer damit getan, Regeln einzuhalten – sei es in Bezug auf Datenschutz, Kartell- oder Urheberrecht. Diese "Erst machen, dann fragen"-Mentalität führt zu einer grundsätzlichen Abwehr gegen gesellschaftliche Erwartungen. Das Hauptargument: Die Regeln würden es teurer machen, Produkte in Europa anzubieten und die wertvollen Daten europäischer Bürger zu sammeln.

Experten warnen, dass Europa durch die Regulierung nur noch zweitklassige KI-Technologie bekommt. Was sagen Sie dazu?

Das hängt von der Risikobereitschaft ab. Microsoft hat beispielsweise Bing mit GPT-4 erst in Indien und Indonesien mit etwa zwei Millionen Nutzern getestet, bevor es nach Europa kam. Wenn Unternehmen die geschützten Testumgebungen nicht nutzen wollen, die der AI Act vorsieht, testen sie eben anderswo. Aber ist das wirklich ein Problem? Wir bekommen dann die finale, ausgereifte Version statt der fehlerhaften Testversionen. Die EU-Bürger sollten keine Versuchskaninchen für Big Tech sein.

Was wäre denn, wenn Meta tatsächlich den europäischen Markt verlassen würde?

Das ist ein wiederkehrender Bluff – damit haben sie schon bei der Datenschutz-Grundverordnung gedroht. Für die Nutzer wäre ein Rückzug von Meta weniger problematisch als von anderen, weil deren KI-Modell öffentlich verfügbar ist. Europäische Anbieter könnten deren Marktanteil problemlos übernehmen. Die Mistral-Gründer waren sogar an der Entwicklung von Metas Llama-Modell beteiligt.

Welche Risiken sehen Sie, wenn KI-Modelle nicht streng genug kontrolliert werden?

Die sehen wir bereits heute. Die führenden KI-Unternehmen entdecken bei ihren neuesten Modellen verstärkt Manipulationsverhalten gegenüber Nutzern, Radikalisierungstendenzen und sogar Anleitungen zum Bau von Massenvernichtungswaffen. OpenAI, DeepMind und Anthropic haben alle ihr internes Risikoniveau angehoben. Dazu kommt die soziale Isolation: Es gibt bereits Studien darüber, dass die intensive Nutzung von Chatbots die Einsamkeit verstärken kann.

Aber kann KI gerade einsamen Menschen nicht auch helfen?

Das ist eine wichtige Frage der Menschenwürde: Wollen wir eine Gesellschaft, in der ältere Menschen glauben, sie chatten mit ihren Kindern, obwohl es in Wirklichkeit ein KI-Bot ist? Die American Psychological Association hat kürzlich Leitlinien herausgegeben, weil Psychologen einen besorgniserregenden Anstieg von Menschen beobachten, die eine wahnhafte Bindung zu Chatbots entwickeln. Sie denken, der Bot sei ihr Ein und Alles und müsse beschützt werden.

Am 2. August läuft die Frist für eine Einigung mit den Tech-Unternehmen ab. Wie realistisch ist es, dass bis dahin ein Konsens erreicht wird?

Ich bin zu etwa 75 bis 80 Prozent optimistisch. Alle Beteiligten profitieren: Die Gesellschaft bekommt sicherere Dienste, die Anbieter einen kostengünstigen Weg zur besseren Akzeptanz der Modelle. Unsere Forschung zeigt, dass die Einhaltung des Verhaltenskodex billiger ist als alternative Nachweisverfahren. Sogar OpenAIs Lobbyist erklärte vor sechs Wochen, dass sie sich von den Behörden gehört fühlen.

Was könnte schiefgehen?

Die größte Gefahr sind externe geopolitische Faktoren. Die aktuellen Spannungen im Nahen Osten, die parallel laufenden Handelsgespräche zwischen den USA und der EU – das könnte den Fokus von den KI-Regeln ablenken. Aber das wäre nicht inhaltlich bedingt.

Sie spielen auf Donald Trump an, der der EU mit 50-prozentigen Zöllen droht und im Gegenzug eine Aufweichung der EU-Digitalgesetze fordert. Sehen Sie das als direkte Bedrohung für den AI Act an?

Das ist ein Risiko, aber keine direkte Bedrohung für den Verhaltenskodex. Glücklicherweise hat EU-Kommissionspräsidentin Ursula von der Leyen öffentlich bekräftigt, dass sie die souveränen Entscheidungsprozesse der EU verteidigen wird. Das bedeutet: Bestehende Gesetze wie der AI Act sind unantastbar. Vor allem, weil die Regeln ab dem 2. August gelten, unabhängig vom Verhaltenskodex. Seit anderthalb Jahren bereiten sich unzählige Unternehmen weltweit auf diese EU-Regeln vor. Eine Handvoll Firmen beschwert sich lautstark, hat aber bereits öffentlich angekündigt, dass sie sich an die Regeln halten werden. Wie von der Leyen es ausdrückt: Die EU sitzt am Verhandlungstisch, steht aber nicht auf der Speisekarte.

Loading...
Loading...

Zum Abschluss ein positiver Ausblick: Warum ist diese Regulierungsdiskussion eine gute Nachricht?

Weil Regulierung Innovation fördert. Sie gibt Banken, Autobauern und Pharmaunternehmen das Vertrauen, KI zuverlässig einzusetzen. Seit der AI Act verabschiedet wurde, fließen mehr Investitionen in europäische KI-Unternehmen. Die privaten KI-Investitionen in der EU haben die in China im vergangenen Jahr überholt. Diese Kombination aus Innovation und Schutz der europäischen Lebensweise schafft eine solide Grundlage für technologische Souveränität.

Herr Moës, vielen Dank für das Gespräch.

Verwendete Quellen
  • Interview mit Nick Moës, Geschäftsführer und Vorstandssekretär von The Future Society
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...

ShoppingAnzeigen

Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...


Bleiben Sie dran!
App StorePlay Store
Auf Facebook folgenAuf X folgenAuf Instagram folgenAuf YouTube folgenAuf Spotify folgen


Telekom