t-online - Nachrichten für Deutschland
t-online - Nachrichten für Deutschland
Such IconE-Mail IconMenü Icon



Menü Icon
t-online - Nachrichten für Deutschland
HomeDigitalAktuelles

Gemini: Google-KI erstellt keine Bilder von Personen mehr – aus diesem Grund


Probleme mit Diversität
Googles KI erstellt keine Personenbilder mehr – das ist der Grund

Von t-online, sha

25.02.2024Lesedauer: 2 Min.
GoogleVergrößern des BildesGoogles KI-Software Gemini erzeugt bis auf Weiteres keine Darstellungen von Menschen mehr. (Quelle: Rolf Vennenbernd/dpa/dpa)
Auf Facebook teilenAuf x.com teilenAuf Pinterest teilen
Auf WhatsApp teilen

Schwarze deutsche Soldaten im 2. Weltkrieg: Googles KI-Tool Gemini ist bei Personenfotos über das Ziel hinausgeschossen. Der Konzern zieht Konsequenzen.

Google lässt seine KI-Software Gemini vorerst keine Bilder von Menschen mehr erzeugen, nachdem sie Nutzern nicht-weiße Nazi-Soldaten und amerikanische Siedler angezeigt hatte. Der Internetkonzern räumte ein, dass die Darstellung in einigen Fällen nicht dem historischen Kontext entsprach.

"Wir arbeiten bereits daran, aktuelle Probleme mit der Bildgenerierungsfunktion von Gemini zu beheben", schreibt Google auf dem Kurznachrichtendienst X. Währenddessen sei die Erstellung von Personen mit dem Tool bis zur Veröffentlichung einer verbesserten Version nicht möglich.

Zugleich verteidigte Google grundsätzlich die Diversität bei der Erzeugung von KI-Bildern: Das sei eine gute Sache, da Menschen rund um die Welt die Software nutzten. Aber in diesem konkreten Fall sei man übers Ziel hinausgeschossen.

"Peinlich und falsch"

Google Gemini hatte vor drei Wochen eine neue Funktion zum Erzeugen von Bildern aus Textvorgaben bekommen. Auch andere ähnliche Software auf Basis Künstlicher Intelligenz hat diese Fähigkeit.

In einem Blogeintrag am Freitag erläuterte Google, man habe es versäumt, Ausnahmen für die Fälle zu programmieren, in denen Diversität definitiv fehl am Platze wäre. Die dadurch erzeugten Bilder seien "peinlich und falsch" gewesen. Zugleich sei die Software mit der Zeit zu vorsichtig geworden und habe sich geweigert, manche Vorgaben zu erfüllen.

Aber wenn Nutzer sich etwa Bilder von einem "weißen Tierarzt mit Hund" anzeigen lassen wollten, müsse das Programm dies auch erfüllen. Die Fehler seien unbeabsichtigt gewesen, betonte Google-Manager Prabhakar Raghavan.

Entwickler bemühen sich um mehr Diversität

In verschiedenen Anwendungen mit Künstlicher Intelligenz gab es in den vergangenen Jahren oft ein Problem mit Stereotypen und Diskriminierung. So war zum Beispiel Software zur Gesichtserkennung zunächst schlecht darin, Menschen mit schwarzer Hautfarbe zu erkennen. Bei der Erzeugung von Bildern durch KI wurden anfangs oft Weiße dargestellt.

Entwickler auch bei anderen Unternehmen bemühen sich daher um mehr Diversität in verschiedenen Szenarien. Sie geraten damit manchmal – wie in diesem Fall – zwischen die Fronten: Gerade in den USA gibt es eine laute Bewegung, zu der etwa auch Tech-Milliardär Elon Musk gehört, die angeblichen Rassismus gegenüber Weißen anprangert.

Verwendete Quellen
  • Mit Material der Nachrichtenagentur dpa
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...

ShoppingAnzeigen

Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...



TelekomCo2 Neutrale Website