„Able“, der neue Chatbot von Aktion Mensch und der Hochschule Bielefeld, soll diskriminierende Sprache bekämpfen – in Wahrheit drillt er uns auf links-woke Sprachhygiene.
Chatbots, die uns beibringen sollen, wie wir „richtig“ sprechen – und schlussendlich richtig denken – das klingt nach digitaler Sprachpolizei, nicht nach technologischem Fortschritt.
Die Aktion Mensch – die vor Jahren aus politischer Korrektheit den Namen „Aktion Sorgenkind“ abgelegt hat – hat jetzt einen KI-Sprachwächter entwickelt. Mit Projekten ABLE – mitentwickelt von der Hochschule Bielefeld und wonk.ai – über das die linke Gutmenschenzeitung Die Zeit berichtet – zeigt sich ein neues Muster: künstliche Intelligenz wird mit einer bestimmten moralischen Agenda programmiert. Sprache, die nicht ins „links-woke“ Raster passt, wird aufgespürt und als diskriminierend markiert. Wobei bereits Aussagen wie „Trotz seiner Behinderung hat er studiert“ als diskriminierend eingeordnet wird. Auch andere Chatbots sollen von dieser KI „erzogen“ werden. Demnächst brauchen mutmaßlich alle eine KI, die bei jedem unserer Sätze prüft, ob irgendeine Minderheit damit unzufrieden sein könnte oder angegriffen und diskriminiert.
Damit rückt die Technik in die Rolle einer links-woken, knochentrockenen Erzieherin. Chatbots werden zu Werkzeugen einer politisch gefärbten Sprachhygiene, die vorgibt, was sensibel, korrekt und akzeptabel ist. Das ist keine neutrale Hilfestellung mehr, sondern gesellschaftliche Umerziehung per Algorithmus.
Die Gefahr: Sprache verliert ihre Freiheit, ihren Witz, ihre Reibung. Statt lebendiger Vielfalt entsteht ein normierter Korridor der „richtigen“ Rede, aus dem jede Abweichung als Makel gebrandmarkt wird. Doch Sprache ist mehr als Moral – sie ist Experiment, Kontext, manchmal Provokation. Maschinen aber kennen keinen Kontext, sie setzen Regeln durch. Ironie, Humor, Ambivalenz verschwinden in der Filterblase der politischen Korrektheit.
So wird die Gesellschaft schleichend konditioniert: Wer täglich mit Chatbots interagiert, übernimmt deren Sprachmuster. Nicht mehr der Mensch denkt nach, wägt ab, diskutiert – die Maschine korrigiert und erzieht.
Selbst im Kommentarbereich der Zeit scheint man die Nase gestrichen voll zu haben, von dieser Art der Erziehung und der Schaffung einer neuen Gesellschaft:
„Jetzt sollen wir auch noch von der KI erzogen werden? Nein danke!“
„Aktion Mensch entwickelt Chatbot, um andere Menschen zu diskriminieren.“
„Immer wenn irgendjemand andere erziehen will, sträuben sich mir die Nackenhaare. Das gilt für mich auch in diesem Fall. Es bedeutet für immer nur er oder sie hat recht und macht alles richtig.“
„Die Initiativen für eine nicht-diskriminierende Sprache sind aber selber auch diskriminierend, weil sie allen anderen Menschen vorwerfen, ihre Sprache und oft auch die Gedanken seien falsch und schlecht.“
(SB)























