Social Credit (Bild: shutterstock.com/Skorzewiak)
Digitale Diskriminierung durch Social Scoring (Bild: shutterstock.com/Skorzewiak)

Atamans Visionen: Jetzt stehen auch Roboter und KI unter Rassismusverdacht

Die “Antidiskriminierungsbeauftragte” des Bundes, Ferda Ataman, war mal wieder kreativ darin, die nächste “neue Form von Diskriminierung” auszumachen: Jetzt nimmt sie die digitale Automatisierung ins Visier. Wenn öffentliche und private Stellen zunehmend Entscheidungen durch automatisierte Systeme und sogenannte “Künstliche Intelligenz” (KI) treffen lassen, drohte “digitale Diskriminierung”. Angesichts von Regelungslücken müsse die Bundesregierung die anstehende Reform des Allgemeinen Gleichbehandlungsgesetzes nutzen, um die Gesellschaft davor zu schützen, so die “Kartoffel”-Hetzerin gegenüber den Zeitungen der Funke-Mediengruppe laut dts.

“Digitalisierung, künstliche Intelligenz und Algorithmen machen vieles leichter – leider auch Diskriminierung. Wir dürfen die Gefahren digitaler Diskriminierung auf keinen Fall unterschätzen”, faselt sie. Immer öfter würden automatisierte Systeme oder Künstliche Intelligenz über Fragen entscheiden, die für Menschen im Alltag wichtig seien, etwa bei Bewerbungsverfahren, Bankkrediten, Versicherungen oder staatlichen Leistungen. “Menschen müssen darauf vertrauen können, dass sie durch KI nicht benachteiligt werden – und sich wehren können, wenn es doch passiert”, sagte die Antidiskriminierungsbeauftragte. Es brauche daher “klare und nachvollziehbare Regeln” – also im Klartext: Noch mehr Bevormundung und staatliche Überwachung. Vor allem aber stellt sich die Frage, wie eine auf Ausgleich, Gleichbehandlung und “Neutralität” basierte KI, die quasi eine “Maschine mit Gewissen” oder eine digitale Wertebasiertheit darstellen müsste, aussehen soll.

Lechzen nach dienstlicher Selbstbestätigung

Vermutlich hatte Ataman bei ihrer nächsten Rassismusphobie einen Fall aus den USA im Hinterkopf, in dem fehlerhaft programmierte Algorithmen bei Apple-Kreditkarten Frauen “systematisch benachteiligt” hatten; das ist natürlich Zucker für eine nach ständiger dienstlicher Selbstbestätigung lechzende Regierungsbeauftragte, die das, was sie angeblich verhindern und bekämpfen soll, an jeder Ecke wittert (und wittern muss, weil sie sich sonst entbehrlich machte). Auch dass in den Niederlanden Menschen vor allem mit doppelter Staatsbürgerschaft “durch einen Algorithmus in einer Behörden-Software diskriminiert” wurden, was zum wesentlicher Auslöser für ungerechtfertigte Rückforderungen von Kindergeld bei mehr als 20.000 Menschen wurde (die sogenannte  “Kindergeld-Affäre”, die 2021 zum Rücktritt der Regierung führte), würde Ataman wohl am liebsten in Deutschland erleben – um sich einmal mehr wichtig machen zu können.

So verweist sie auf ein von ihr in Auftrag gegebenes Rechtsgutachten, das große Lücken im deutschen Recht aufzeige. Das Gutachten mit dem Titel “Automatisch benachteiligt” warnt vor der Fehleranfälligkeit algorithmischer Entscheidungssysteme und spricht von einem “unumstrittenen Diskriminierungspotenzial.” Bislang sei das Allgemeine Gleichbehandlungsgesetz den Herausforderungen “nur bedingt gewachsen” – obwohl der Einsatz solcher Systeme nahezu alle Bereiche des privaten und öffentlichen Lebens umfasse.

Diskriminierung durch KI droht eher allen Antiglobalisiten und Nichtlinken

Problematisch seien etwa die Zuschreibung von Gruppenmerkmalen, die Wahrscheinlichkeitsaussagen über Personen ermögliche und zu “Diskriminierung durch Statistik” führen könne. Bei mangelnder Datenqualität sei das Diskriminierungspotenzial bereits im System selbst angelegt, ohne dass Nutzer und Betroffene dies nachvollziehen könnten. Der technologische Fortschritt mache diskriminierende Datensätze unkontrollierbar in der Weitergabe und Verwendung. Für Betroffene sei es aber mangels Ressourcen unmöglich, den Ursachen einer Benachteiligung auf die Spur zu kommen. Das Gutachten empfiehlt unter anderem, den Anwendungsbereich des Antidiskriminierungsgesetzes zu erweitern, umfassende Auskunfts- und Untersuchungsrechte zu automatisierten Entscheidungssystemen zu verankern und eine Schlichtungsstelle einzurichten.

Erstaunlich an alldem ist, dass die Automatisierung und KI bislang ja eher ein globalistisches und tendenziell linksradikales, anarchistisches Projekt war. Will Ataman ihren Brüdern und Schwestern im Geiste etwa in den Rücken fallen? Ihr müsste auch bewusst sein, dass jede KI nur so “intelligent” ist wie ihre Programmierer oder die, die sie steuern und mit Daten füttern. ein “digital bias” wäre daher weniger ein Problem der Software oder der Maschinen, sondern derer, die sie lenken – und wer das im systemisch-linksdominierten Mainstream und den westlichen Wissenschaftsdomänen wohl ist, bedarf wohl keiner weiteren Erklärung. Insofern drohen “Diskriminierung” in Wahrheit eher jenen, die der großen Transformation und den Versuchen, Meinungen zu lenken, zuwiderhandeln. Und genau dies zeigt sich ja auch schon beim fatalen Zensurtreiben der Social-Media-Plattformen mit ihren Löschalgorithmen. Ob sich Ataman wohl auch dazu äußert? (DM)

2374bb403a2348bc889b0de729d7b959