Künstliche Intelligenz: Frauen auch hier benachteiligt?

Schlimm: Sogar die künstliche Intelligenz kommt ohne "Titten" aus. - Foto: Imago

Die Entwicklung der Künstlichen Intelligenz (KI) schreitet voran. Aber schreitet sie auch „geschlechtergerecht“ voran? Eine Robotik-Expertin äußert Zweifel. Zumindest unter zweifelnden Experten scheint es also „Geschlechtergerechtigkeit“ zu geben. Dennoch gibt es keine Entwarnung.

von Max Erdinger

Lange vor der Erfindung der Künstlichen Intelligenz haben Männer bereits die künstliche Waschmaschine und die künstliche Spülmaschine erfunden. Das war sehr „geschlechtergerecht“, was man schon daran erkennen kann, daß es zwar „der Erfinder“ heißt, aber „die Erfindung“. Das ist oft so. Es heißt „der Buchdruck“, aber „die Frauenzeitschrift“. Können „wir“ also ganz beruhigt sein? – Mitnichten.

Die Nachrichtenagentur dts berichtet von einer Robotik-Expertin namens Kenza Ait Si Abbou. Die Expertin warnt vor einer Benachteiligung von Frauen und Minderheiten durch künstliche Intelligenz. Völlig zu Recht, übrigens. Denn Frauen und Minderheiten werden von Erfindern seit jeher um die Geschlechtergerechtigkeit betrogen. Das ist leicht zu beweisen. Obwohl es „die Monatsblutung“ heißt, war es ein Mann, der in Denver praktizierende Arzt Earle Cleveland Haas, welcher 1931 die gepresste Watterolle erfand, und nur, um sie fortan „der Tampon“ zu nennen. Eine Nebenwirkung seiner Erfindung ist „die Argwöhnische“, die seither ständig mutmaßt, dies und das habe doch „bestimmt wieder ein Mann erfunden“. Besonders häufig ist diese Vermutung dann zu hören, wenn die Argwöhnische als Angehörige des vermeintlich empathischeren Geschlechts Sinn, Zweck und Wirkungsweise einer Erfindung nicht mit dem Gefühl erfassen kann, wie das beim kreisrunden, in Wagenfarbe lackierten Zierdeckel auf dem Ladeluftschlauch für den Turbolader des Kleinwagens „Smart“ der Fall gewesen ist. Reihenweise verwechselten ihn die Argwöhnischen mit dem Tankdeckel auf der anderen Seite des Wägelchens und rissen ihn mit aller Gewalt vom Wägelchen ab, um dann 100 Liter Sprit durch den Ladeluftschlauch in das Turboladerchen einzufüllen. Zum Glück hatten Männer aber auch sehr geschlechtsneutral „das Bindemittel“ erfunden, „den Tankstellen-Tampon“ also, mit welchem die brandgefährlichen Benzinlachen auf dem Tankstellengelände unschädlich gemacht werden konnten. Das Design des Zierdeckels wurde dann auch geändert. Das kreisrunde Plastikdeckelchen an der Außenseite des Wägelchens wurde im Rahmen einer Modellpflege – wieder von Männern – ersetzt durch ein viereckiges Lüftungsgitter, welches seither auch mit dem Gefühl sofort als ein solches zu identifizieren ist. Womit nebenbei auch bewiesen wurde, daß es männliche Erfinder sind, die dem empathischeren Geschlecht angehören.

Nun aber von unserem kleinen Ausflug in die Geschichte der Erfindung zurück zum Argwohn der Frau Robotik-Expertin Kenza Ait Si Abbou hinsichtlich der sexistischen Unterdrückungstücken von Künstlicher Intelligenz.

Den Zeitungen der „Funke-Mediengruppe“ (Der Funke, die Mediengruppe) sagte Frau Kenza Ait Si Abbou, neben „mehr Bequemlichkeit für Gesellschaft und Konsumenten steckten in von Menschen trainierten KI-Systemen auch Risiken der Ungleichbehandlung.„. Die Nachrichtenagentur dts zitiert die Expertin: „Zum Beispiel die Gesichtserkennung, die bei dunkelhäutigen Menschen weniger gut funktioniert. Spracherkennung, die bei Frauen schlechter funktioniert. Kreditwürdigkeit, die abhängig vom Geschlecht entschieden wird.“ Die Expertin für KI und Robotik, heißt es in der Meldung, habe darauf hingewiesen, daß künstliche Intelligenz nicht per se neutral oder fair sei, „sondern in vielen Fällen etwa Frauen und Minderheiten benachteilige.“ Weiters heißt es in der Meldung, Frau Kenza Ait Si Abbou gehöre zu den „wenigen sichtbaren Frauen in der IT-Branche„, obwohl sie Expertin und Buchautorin sei. Dem Manne sagt seine natürliche Intelligenz, daß es dann, wenn das zutrifft, jede Menge unsichtbarer Frauen in der IT-Branche geben muß. Sofort mutmaßt er, daß es sich dabei um die Putzfrauen handeln muß, welche als „Raumkosmetikerinnen“ die Räumlichkeiten der IT-Branche sauber halten, wenn die vielen sichtbaren Männer in der IT-Branche Feierabend gemacht haben, um sich von ihren Frauen zuhause ein kühles Bier servieren zu lassen.

Tatsächlich interessiert sich kaum jemand für Putzfrauen, wenn es um Künstliche Intelligenz geht. Das weiß der Mann einfach so. Umso mehr erstaunt ihn eine andere Einlassung der Frau Robotik-Expertin Kenza Ait Si Abbou. Den Zeitungen der „Funke-Mediengruppe“ steckte sie nämlich: „Wir Frauen müssen die Entwicklung der KI mitbestimmen. Momentan wird diese Technologie sehr einseitig entwickelt. Das können wir nicht zulassen.“ Ein Grund für die drohende Fehlentwicklung bei der KI hinsichtlich der Geschlechter- und Minderheitengerechtigkeit: „KI-Systeme bauten auf bestehenden Daten aus der Vergangenheit auf.“ Der männliche Meldungsleser schließt messerscharf: Wenn KI-Systeme auf bestehenden Daten aus der Vergangenheit aufbauen, dann fordert Frau Kenza Ait Si Abou ihre Geschlechtsgenossinnen implizit dazu auf, weniger zu putzen und stattdessen mehr Künstliche Intelligenz zu entwickeln. Bezüglich der altbackenen Daten aus der Vergangenheit erfährt der Meldungsleser: „Diese Daten beinhalten in der Regel bereits Diskriminierungen. Denn unsere Gesellschaft ist nicht gerecht, das müssen wir einfach mal akzeptieren.“ Und da der männliche Meldungsleser in seiner ganzen geschlechtsimmanenten Friedfertigkeit mitdenkt, wenn ihm eine Frau Kenza Ait Si Abbou etwas erklärt, akzeptiert er eben, daß die Gesellschaft der Robotik-Expertin mit dem ungewöhnlichen Namen nicht gerecht ist. Voller Empathie freut er sich für Frau Kenza Ait Si Abou, daß sie ihre ungerechte Gesellschaft offensichtlich verlassen konnte, um in Deutschland Fuß zu fassen. Seine Spannung steigt. „Bestimmt hat die freundliche Frau Robotik-Expertin noch andere interessante Dinge geäußert“, denkt er sich – und liest weiter. Er wird nicht enttäuscht.

Die KI lerne also die Diskriminierungen und wiederhole sie„, liest er bei dts. Und: „Außerdem werden die Systeme meistens von den männlichen Entwicklern getestet.“ Bestürzt erkennt er die Geschlechterungerechtigkeit, welche die Frau Robotik-Expertin ausgemacht hat – und fragt sich, ob sie nicht vielleicht eine noch viel bessere Gerechtigkeits-Expertin geworden wäre. Oder Raumkosmetikerin. So sehr er sich auch grämt – , nicht und nicht will es ihm gelingen, die Ungerechtigkeit zu erkennen, welche darin zu bestehen scheint, daß männliche Entwickler ihre Entwickungen auch noch selber testen. Vielmehr findet er, daß es Ungerechtigkeiten gibt, mit denen man leben kann, ohne gleich auf die Barrikaden zu gehen. Erinnerungsdaten aus seiner Vergangenheit tauchen auf. Er hatte früher schon einmal einen generellen Beischlafplan entwickelt, den er von seiner Frau testen lassen wollte. Sie hatte aber kein Interesse daran, seine Entwicklung zu testen, und er hatte sich einfach damit abgefunden, obwohl er es für ungerecht hielt, daß seine Interessen nicht berücksichtigt worden waren. Überhaupt stellt er fest, daß Männerinteressen seit mindestens einem halben Jahrhundert keine Rolle mehr spielen in der andauernden Debatte um Gerechtigkeiten aller Art. Alles dreht sich ständig um die Nasenspitzen der feministisch tickenden Nörgelweiber.

Und wie er so ins Grübeln kommt zur künstlichen Intelligenz, fällt ihm auch ein, daß es eigentlich schon genügend künstliche Weiblichkeitsroboter gibt – und wie sie heißen. „Noch mehr so herbeientwickelte, künstliche Intelligenz, die auf Namen wie Kenza Ait Si Abou, Merkel, Roth, Künast, Chebli, von der Leyen und Baerbock hört, braucht kein Mensch“, denkt er sich. Und daß die Entwicklung der natürlichen Intelligenz jeder Entwicklung einer künstlichen vorzuziehen sei. Weswegen man besser die Erstere entwickeln sollte. Dann könnte die künstliche Robotik-Expertin aus der ungerechten Gesellschaft ganz einfach natürliche Raumkosmetikerin in Deutschland werden – und alle wären zufrieden. Tja, das empathische Erfindergeschlecht denkt eben bisweilen auch mit dem Gefühl. Was haben „wir“ also wieder einmal gelernt? – Genau. Es gibt Meldungen, die man besser gar nicht erst zu lesen anfangen sollte, weil man nur „Vorurteile“ davon bekommt.