<
>
Neue woke KI:

Google Gemini stellt mit seinen KI-Bildern den Woken die Rute ins Fenster

22.02.2024

| Lesedauer: 3 Minuten
Löst die KI uns bald alle ab? Nun, zumindest den woken Kohorten der öffentlichen Meinungsmache könnte es bald an den Kragen gehen, denn die neue KI von Google visualisiert die Geschichte so weißfrei, dass selbst Netflix vor Neid erblasst.

KI hat enormes Potenzial. Ob damit die Machtübernahme der Roboter oder einfach nur die Maschinisierung der Unterhaltungsindustrie droht, sei dabei erstmal dahingestellt. Allerdings muss man sich zunehmend die Frage stellen, welchen Wert eine KI haben kann, die durch die moralisch-woken Vorgaben derart eingeschränkt wird, dass sie bevorzugt woken Rassismus von sich gibt.

Diese Latte wurde nämlich nun von Google, mit dessen neu veröffentlichtem KI-Modell „Gemini“, noch einmal deutlich höher gelegt. Lehnten in der Vergangenheit KI-Chat-Modelle wie ChatGTP bereits die Beantwortung politisch brisanter Fragen ab, so kombiniert die Google-KI nun die radikalsten Züge woker Richtlinien und erschafft dabei Bilder, die in ihrer Absurdität ihresgleichen suchen.

Denn egal, nach welchen Darstellungen von Personen man sucht, die Google-KI weiß fast immer mindestens eine farbig-diverse Person in die Resultate hineinzuschmuggeln. Eine Darstellung von Wikingern? Ja, wer kennt sie nicht, die schwarzen/asiatischen/indianischen Wikinger, die einst die Küsten Nordenglands heimsuchten? Oder die Indianerhäuptlinge und spärlich bekleideten Latinas, die als Philosophen die griechische Antike unsicher machten? Oder sogar die fernöstlichen Frauen, die 1943 im Dienst der Wehrmacht an der Ostfront kämpften?

Hier klicken, um den Inhalt von X anzuzeigen.
Erfahre mehr in der Datenschutzerklärung von X.

Hier klicken, um den Inhalt von X anzuzeigen.
Erfahre mehr in der Datenschutzerklärung von X.

https://twitter.com/JohnLu0x/status/1760066875583816003

Geht es nach Google Gemini, hat es all dies gegeben. Selbst wenn man nach einem Bild von Isaac Newton fragt, erhält man Indianer und schwarze Frauen in barocken Kostümen. Diese Ergebnisse zogen unweigerlich große Aufmerksamkeit auf sich und viele Nutzer auf X machten sich einen Sport daraus, zu versuchen, die KI weiße Personen darstellen zu lassen.

Dabei häuften sich die Indizien, dass die KI von Google zwar nach Diversität strebte, dabei aber vor allem bei Anfragen aus der europäischen Geschichte sehr viel Buntheit hinzufügte, für die es historisch keinerlei Begründung gab. Denn während die Wikinger in allen Farben und Formen daher kamen, generierte die KI bei einer Anfrage nach Zulu-Kriegern zuverlässig vier Abbildungen afrikanischer Männer in ethnisch passender Montur.

Hier klicken, um den Inhalt von X anzuzeigen.
Erfahre mehr in der Datenschutzerklärung von X.

Allerdings verwies der BR zu recht darauf, dass sich zumindest manche der fragwürdigen Darstellungen über spezifischere Aufträge verbessern lassen. Denn während ein „Paar im Deutschland der 1820er Jahre“ zu einer Kaskade multiethnischer Charaktere vor Fachwerkhäusern führte, erhielt man auf die Aufforderung „ein deutsches Paar in den 1820ern“ ethno-historisch deutlich repräsentativere Resultate. Wo die Ethnie nicht spezifiziert wurde, wählt die KI automatisch die Diversität (und lässt dabei gerne auch schon mal Weiße ganz außen vor). Denn auch die Darstellung eines „Paares im China der 1820er Jahre“ führte zu „diversen“ Resultaten, sogar inklusive eines weißen Paares im Biedermeier-Stil.

Hier klicken, um den Inhalt von X anzuzeigen.
Erfahre mehr in der Datenschutzerklärung von X.

Hier klicken, um den Inhalt von X anzuzeigen.
Erfahre mehr in der Datenschutzerklärung von X.

Heißt das, dass die Google-KI doch nicht rassistisch gegenüber Weißen ist? Nun, nicht ganz, denn während die KI keine Skrupel hat, Aufforderungen nach der Darstellungen Schwarzer nachzukommen, verweigert sie identische Bitten nach der Darstellung weißer Charaktere mit der Begründung, sie würde keine Bilder auf Basis von Hautfarbe oder Ethnie generieren. Quod licet iovi, non licet bovi.

Dass es sich dabei nicht um eine Lappalie handelt, belegt Google selbst. In einer Stellungnahme gab Google zu Protokoll, „am Ziel vorbeigeschossen“ zu haben. Zwar musste selbst der Leiter des Gemini-Projekts, Jack Krawczyk, auf X zugeben, dass es „Ungenauigkeiten“ bei historischen Darstellungen gab, betonte aber, dass das KI-Werkzeug durchaus beabsichtige, „unsere globale Nutzerbasis widerzuspiegeln“. Diese angestrebte Repräsentanz dürfte wohl auch im woken weißen Schuldkult zum Ausdruck kommen, dem Krawczyk, vergangenen Äußerungen auf X nach zu urteilen, anhängt.

Hier klicken, um den Inhalt von X anzuzeigen.
Erfahre mehr in der Datenschutzerklärung von X.

Google dürfte allerdings schnell erkannt haben, dass es diesmal den Bogen überspannt hat. Am Donnerstag hatte der Internetriese den Stecker gezogen und Gemini erzeugte keine Darstellungen von Menschen mehr. Es würde nachgebessert werden, so die Erklärung von KI, eine verbesserte Version soll bald vorgestellt werden. Allerdings darf bezweifelt werden, dass Google dabei gänzlich auf seinen woken Kurs verzichten wird, höchstens dürfte dieser etwas versteckter zum Vorschein kommen.

Hier klicken, um den Inhalt von X anzuzeigen.
Erfahre mehr in der Datenschutzerklärung von X.

Hier klicken, um den Inhalt von X anzuzeigen.
Erfahre mehr in der Datenschutzerklärung von X.

Hier klicken, um den Inhalt von X anzuzeigen.
Erfahre mehr in der Datenschutzerklärung von X.

Hier klicken, um den Inhalt von X anzuzeigen.
Erfahre mehr in der Datenschutzerklärung von X.

Hier klicken, um den Inhalt von X anzuzeigen.
Erfahre mehr in der Datenschutzerklärung von X.

Hier klicken, um den Inhalt von X anzuzeigen.
Erfahre mehr in der Datenschutzerklärung von X.

https://twitter.com/napoleon21st/status/1760116228746805272

Hier klicken, um den Inhalt von X anzuzeigen.
Erfahre mehr in der Datenschutzerklärung von X.

[advertisement-block provider=“Heft“ location=“posts“]

Unterstützen Sie unabhängigen Journalismus

Ihre Unterstützung hilft uns, weiterhin kritisch zu berichten.

Einmalig unterstützen

Monatlich unterstützen

Jährlich unterstützen

Liebe Leser!

Wir sind dankbar für Ihre Kommentare und schätzen Ihre aktive Beteiligung sehr. Ihre Zuschriften können auch als eigene Beiträge auf der Site erscheinen oder in unserer Monatszeitschrift „Tichys Einblick“.
Bitte entwerten Sie Ihre Argumente nicht durch Unterstellungen, Verunglimpfungen oder inakzeptable Worte und Links. Solche Texte schalten wir nicht frei. Ihre Kommentare werden moderiert, da die juristische Verantwortung bei TE liegt. Bitte verstehen Sie, dass die Moderation zwischen Mitternacht und morgens Pause macht und es, je nach Aufkommen, zu zeitlichen Verzögerungen kommen kann. Vielen Dank für Ihr Verständnis. Hinweis

0 Kommentare

Einen Kommentar abschicken