t-online - Nachrichten für Deutschland
t-online - Nachrichten für Deutschland
Such IconE-Mail IconMenü Icon



HomePolitikAuslandEuropäische Union

Gesetz zur Regulierung von Künstlicher Intelligenz: Und auf einmal ist die EU Vorreiter


Zukunftstechnologie im Blick
Und plötzlich ist die EU mal Vorreiter

  • David Schafbuch
Von David Schafbuch

14.06.2023Lesedauer: 4 Min.
Nachrichten
Wir sind t-online

Mehr als 150 Journalistinnen und Journalisten berichten rund um die Uhr für Sie über das Geschehen in Deutschland und der Welt.

Zum journalistischen Leitbild von t-online.
IMAGO0244988093Vergrößern des Bildes
Biometrische Gesichtserkennung von künstlichen Intelligenzen könnte in der EU künftig verboten werden. (Symbolfoto) (Quelle: imago images)

Die Verhandlungen waren kompliziert. Doch die EU ist einem Gesetz zur Regulierung künstlicher Intelligenz einen Schritt nähergekommen. Wie soll das funktionieren?

Die Organe der Europäischen Union sind nicht gerade bekannt für ihre Geschwindigkeit. Doch am heutigen Mittwoch betrat das EU-Parlament tatsächlich weltweites Neuland: Die Abgeordneten stimmten für einen Entwurf, der im gesamten EU-Raum den Umgang mit künstlicher Intelligenz (KI) regeln soll. Tritt das Gesetz in Kraft, würde die EU damit zum ersten Erdteil der Welt, der KI reguliert.

Die Präsidentin des Parlaments, Roberta Metsola, sprach von "Rechtsvorschriften, die in den kommenden Jahren weltweit Maßstäbe setzen werden". Doch was genau steht drin in dem sogenannten AI-Act – und welche Probleme gibt es noch mit den Vorgaben? t-online gibt Ihnen einen Überblick:

Wie soll künstliche Intelligenz reguliert werden?

Allgemein sieht der Entwurf vor, künstliche Intelligenzen in verschiedene Risikobereiche einzuordnen. Je nachdem, wie hoch das Risiko ist, gelten unterschiedliche Auflagen: Künstliche Intelligenzen, die ein inakzeptables Risiko darstellen, werden verboten. Dazu gehören etwa alle Arten von Social-Scoring-Technologien. Diese werden in China schon seit einigen Jahren dazu genutzt, Menschen anhand ihres sozialen Verhaltens zu bewerten und zu klassifizieren. Ebenfalls nicht erlaubt sind Echtzeitnutzungen von biometrischen Daten, zum Beispiel KI-gestützte Gesichtserkennungssoftware. Aufzeichnungen dürfen dagegen genutzt werden, allerdings nur in der Strafverfolgung und wenn ein Richter die Erlaubnis erteilt.

Die höchste Sicherheitsstufe ist der Hochrisikobereich. Dazu gehören etwa KIs, die in der kritischen Infrastruktur zum Einsatz kommen. Ebenfalls zu diesem Bereich zählen KIs, die zur Beeinflussung von Wahlen genutzt werden können oder solche, die in großen sozialen Netzwerken mit mehr als 45 Millionen Nutzern eingesetzt werden, etwa um den Usern neue Inhalte zu empfehlen. Hier soll es strenge Kontrollen geben: Eine ständige menschliche Kontrolle muss gewährleistet sein, ebenso wie spezielle Sicherheitsmaßnahmen. Zudem muss dokumentiert werden, mit welchen Datensätzen die KI "trainiert" wurde, also welche Rohdaten in das System eingespeist wurden.

Bei Anwendungen mit limitiertem Risiko wie etwa Chatbots soll es ausreichen, die Nutzer darauf hinzuweisen, dass sie eine KI nutzen. Denn es ist wahrscheinlich, dass vielen Menschen die Nutzung von KI im Alltag gar nicht mehr bewusst ist.

Spätestens durch das Aufkommen von ChatGPT, das erstmals einem sehr breiten Publikum die Funktionen von KI nähergebracht hat, ist allerdings deutlich geworden, dass sich viele KIs nicht allgemein in Risikobereiche eingrenzen lassen, weil sie ein extrem breites Anwendungsfeld besitzen. Für solche sogenannten Foundation Models sollen gesonderte Regeln gelten: Produziert eine künstliche Intelligenz zum Beispiel Bilder oder Texte, muss immer ersichtlich sein, dass die Inhalte nicht von Menschenhand gefertigt wurden. Auch muss die KI so gestaltet sein, dass das Erzeugen illegaler Inhalte nicht möglich ist.

Welche Positionen gab es im EU-Parlament?

Bereits 2021 hatte die EU-Kommission einen ersten Vorschlag zur Regulierung von KI vorgelegt. Das Papier wurde dann von den EU-Parlamentariern an einigen Stellen nachgeschärft und in der jetzigen Form im Mai im Justiz- und Binnenmarktausschuss beschlossen. Die Regelungen für "Foundation Models" wurden zudem neu mit aufgenommen.

Die führenden Fraktionen im EU-Parlament (EVP, Sozialdemokraten, Grüne und Liberale) hatten sich ursprünglich darauf geeinigt, einen gemeinsamen Vorschlag zu präsentieren. Die konservative EVP-Fraktion hatte sich allerdings schon früh eine weniger strenge Auslegung bei der Nutzung von biometrischen Daten gewünscht und daher einen Vorschlag eingereicht, der in bestimmten Situationen für die Strafverfolgung eine Echtzeitnutzung erlaubt.

Kurz vor der Abstimmung in Straßburg wurde dann deutlich, dass sich auch andere Fraktionen nicht an die Absprache hielten: Insgesamt wurden mehr als 30 Änderungsanträge für den Kompromiss aus den Ausschüssen eingereicht, auch aus den Reihen der Sozialdemokraten und Grünen. Letztendlich stimmte das Parlament jedoch für den ursprünglichen Vorschlag.

Wo liegen die Schwachstellen des Gesetzes?

Der Grundgedanke des Vorschlags, dass künstliche Intelligenz in großen Teilen von menschlicher Hand überwacht und in Risikobereiche eingeteilt werden soll, wirft mehrere Fragen auf: Erstens ist noch unklar, welche Behörden in welchem Umfang diese Aufgaben übernehmen. Im Gespräch ist etwa, dass die EU eine übergreifende Kontrollinstanz schafft. Genauso könnten aber die Länder einzeln die Regelung umsetzen. Zweitens ist kaum absehbar, wie und wohin sich künstliche Intelligenzen in den kommenden Jahren entwickeln werden, wodurch die Regularien möglicherweise permanent angepasst werden müssen.

In der Kritik steht die Regelungen auch generell, weil nicht nur die Entwicklerseite eine Überregulierung befürchtet. Vor allem die Vorgaben für "Foundation Models" könnten mit enormen Kosten verbunden sein, die es auf europäischem Boden erheblich erschweren würden, KI-Start-ups zu gründen und zu betreiben. In der Folge könnten Entwickler weiter ihr Glück eher in Asien oder den USA suchen. Gleichzeitig steht zu befürchten, dass die Vorgaben die großen Techriesen wie Microsoft, Apple oder Google bevorteilen, die mit ihrem enormen Finanzkapital die EU-Vorgaben leichter erfüllen können.

Wie geht es nach der Abstimmung weiter?

Angenommen ist das Gesetz noch nicht. Im nächsten Schritt folgt jetzt der sogenannte Trilog. Dabei stimmen sich die drei EU-Organe Parlament, Kommission und Rat für eine gemeinsame Position ab. Die Verhandlungen dazu sollen bereits heute Abend beginnen. Geplant ist, sich bis Jahresende auf ein gemeinsames Gesetz zu einigen.

Verwendete Quellen
  • Eigene Recherche
  • europarl.europa.eu: "Proposal for a regulation of the European Parliament and of the Council on harmonised rules on Artificial Intelligence (Artificial Intelligence Act) and amending certain Union Legislative Acts" (englisch)
  • europarl.europa.eu: "Vorschlag für eine Verordnung des europäischen Parlaments und des Rates zur Festlegung harmonisierter Vorschriften für Künstliche Intelligenz und zur Änderung bestimmter Rechtsakte der Union"
  • europarl.europa.eu: "KI-Gesetz: Ein Schritt näher an ersten Regeln für künstliche Intelligenz"
  • europarl.europa.eu: "KI-Gesetz: erste Regulierung der künstlichen Intelligenz"
  • table.media: "AI-Act: Der Kompromiss wackelt" (kostenpflichtig)
  • zeit.de: "So kriegen wir nie ein europäisches ChatGPT"
  • welt.de: "Der Drahtseil-Act" (kostenpflichtig)
  • euractiv.com: "AI Act: EU Parliament fine-tunes text ahead of key committee vote" (englisch)
  • zeit.de. "Hey ChatGPT, hier gelten Regeln" (kostenpflichtig)
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...

ShoppingAnzeigen

Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...



TelekomCo2 Neutrale Website