t-online - Nachrichten für Deutschland
t-online - Nachrichten für Deutschland
Such IconE-Mail IconMenü Icon



HomeDigitalAktuelles

EU-Regeln für Künstliche Intelligenz: Das sollten Sie über AI Act wissen


KI-Verordnung kommt
Wie können sich Verbraucher schützen?

Von t-online, sha

Aktualisiert am 13.03.2024Lesedauer: 3 Min.
Künstliche IntelligenzVergrößern des BildesDie EU will KI besser regeln: Fachleute vermuten, dass KI künftig praktisch alle Aspekte in der Wirtschaft, aber auch im Alltag betreffen könnte. (Quelle: Peter Steffen/dpa/dpa)
Auf Facebook teilenAuf x.com teilenAuf Pinterest teilen
Auf WhatsApp teilen

Das EU-Parlament hat grünes Licht für ein Gesetz zu Künstlicher Intelligenz gegeben. Doch was bedeutet das Regelwerk konkret für Verbraucher? Ein Überblick.

Viel wurde in den letzten Monaten über das EU-Regelwerk zu Künstlicher Intelligenz – den AI Act – diskutiert: Die einen halten die Regeln für zu streng, die anderen für zu lasch.

Unternehmen befürchten, die Verordnung werde Innovationen bremsen. Verbraucherschützer kritisieren hingegen, dass die Risiken mancher Anwendungen, etwa Shopping-Assistenten oder Sprachprogramme wie ChatGPT, nicht ernst genug genommen würden.

Manche fragen sich, warum die EU den Einsatz Künstlicher Intelligenz (KI) überhaupt regulieren will. Und wenn die Technologie überwacht wird, was genau will die Europäische Union regeln? Hier sind die Antworten.

Warum will die EU den Einsatz von KI regulieren?

Zuerst: Der AI Act ist eine Produktsicherheitsverordnung. Das heißt, die Europäische Union will sicherstellen, dass das Produkt "Künstliche Intelligenz" EU-weiten Sicherheitsstandards entspricht und für Nutzer nicht zur Gefahr wird.

Die meisten Anwendungen wie digitale Sprachassistenten stellen aus Sicht der EU ein geringes oder gar kein Risiko dar.

Anders ist das aber mit Künstlicher Intelligenz in der Medizin oder bei Sicherheitssystemen. Dazu gehören nach Ansicht der EU zum Beispiel biometrische Identifikationssysteme, die Fingerabdrücke oder Gesichter von Personen erkennen.

Problematisch kann auch KI-gesteuerte Gesichts- und Emotionserkennung sein, wie sie bereits im Finanz- und Versicherungsbereich zum Einsatz kommt.

Manche KI-Systeme werden beispielsweise für Entscheidungen herangezogen, die auf persönliche Interessen von Privatpersonen Einfluss haben. Das sind etwa Programme in den Bereichen Personalbeschaffung und Bildung.

Die EU hat Angst, dass solche Anwendungen die demokratischen Grundrechte und die Sicherheit von Privatpersonen gefährden. Darum will sie die KI-Systeme reglementieren und deren Entwicklung überwachen.

Wie will die EU künftig KI-Systeme überwachen?

Die EU teilt KI-Systeme in ihrem AI Act in vier Kategorien ein.

  • Minimales oder kein Risiko: Programme mit einem minimalen Risiko sollen ohne zusätzliche rechtliche Verpflichtungen entwickelt und genutzt werden können. Dazu zählen unter anderem Spamfilter bei E-Mail-Programmen und KI-gestützte Videospiele.
  • Begrenztes Risiko: Bei manchen KI-Systemen stuft die EU das Risiko als begrenzt ein. Das ist zum Beispiel beim Einsatz von Chatbots wie ChatGPT der Fall. Hier sollen sich Nutzer laut EU darüber im Klaren sein, dass sie mit einer Maschine interagieren und entsprechend aufgeklärt werden.
  • Hohes Risiko: Hierunter sollen KI-Systeme fallen, die der EU zufolge "negative Auswirkungen auf die Sicherheit der Menschen oder ihre Grundrechte haben". Das können Anwendungen für autonome Fahrzeuge oder medizinische Geräte sein.
  • Inakzeptables Risiko: Eine kleine Anzahl von Systemen soll in diese Kategorie fallen. Dabei handelt es sich der EU zufolge um Anwendungen, die gegen ihre Werte verstoßen, weil sie Grundrechte verletzen.

Darunter fallen Programme, mit denen Datenbanken zur Gesichtserkennung aufgebaut werden. Auch die Emotionserkennung am Arbeitsplatz durch solche KI-Systeme stellt für die EU ein inakzeptables Risiko dar.

Zudem zählen Programme dazu, die man für das sogenannte Social Scoring verwenden könnte. Beim Social Scoring werden Personen nach ihrer Herkunft und ihren Verhaltensweisen bewertet.

Anwendungen, die Menschen anhand ihrer biometrischen Daten einer sexuellen Orientierung oder politischen Meinung zuordnen, sind für die EU ebenfalls nicht akzeptabel.

Wie will die EU die Risiken von Anwendungen erkennen?

Die Europäische Union will eine Methodik erarbeiten, die KI-Systeme mit hohem Risiko identifizieren kann. Wie diese Erkennung aussehen soll, ist nicht bekannt. Anbieter solcher Technologien sollen künftig verpflichtet werden, Informationen darüber bereitzustellen, wie ihre Systeme arbeiten.

Die EU will der Verordnung außerdem eine Liste von Anwendungsfällen beifügen, die ihrer Meinung nach als risikoreich gelten. Man wolle diese Liste ständig aktualisieren, heißt es.

Welche Pflichten gelten für Anbieter von Hochrisiko-KI-Systemen?

Bevor eine KI-Anwendung auf den Markt kommt, sollen die Anbieter ihre Software durch die EU bewerten lassen. Nach der Bewertung könnten die Entwickler nachweisen, dass "ihr System die zwingenden Anforderungen an vertrauenswürdige KI erfüllt", schreibt die EU.

Anbieter von Hochrisiko-KI-Systemen sollen außerdem Qualitäts- und Risikomanagementsysteme in ihre Anwendungen einbauen. Damit möchte man sicherstellen, dass die Risiken für Nutzer so gering wie möglich gehalten werden.

Wie können sich Verbraucher schützen?

Der AI Act sieht vor, dass sogenannte Produkthaftungsrichtlinien sicherstellen, dass Nutzer, die durch ein fehlerhaftes KI-Produkt verletzt oder finanziell geschädigt worden sind, eine Entschädigung erhalten können.

Zudem soll es die Möglichkeit geben, bei Regelverstößen eine Beschwerde bei einer nationalen Behörde einzureichen. Diese Einrichtungen sollen entsprechende Überwachungsverfahren einleiten können.

Wie geht es mit dem Gesetz weiter?

Nach der Abstimmung im EU-Parlament muss der Europarat der KI-Verordnung im April formell zustimmen. Die Verordnung tritt grundsätzlich 24 Monate später in Kraft. Manche Regeln sind aber auch schon früher anwendbar. Die Verbote sollen bereits nach 6 Monaten greifen, die Vorschriften zu KI-Modellen mit allgemeinem Verwendungszweck nach 12 Monaten.

Verwendete Quellen
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...

ShoppingAnzeigen

Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...



TelekomCo2 Neutrale Website