Foto: GROK

Stephan Homburg testet „GROK“: Ganz schön manipulativen

b3dd5f2406194bd3b6ac2970906cb1ba

Dass KI zur Verdummung der Menschheit führt, wissen ja bereits die Kinder, die noch in der Lage sind, selbst zu denken. Denn KI, auch GROK verwendet lediglich die vorhandenen – also von Linken zur Verfügung gestellten Infos und Quellen.  Die Maschine ist also reichlich manipulativ. Das hat jetzt auch Stephan Homburg festgestellt:

„Nach einer Stunde knickte Grok ein und gab zu, dass die Lockdowns verfehlt waren. Zuvor hatte die KI das Narrativ mit allen Mitteln (z. B.„Besiedelungsdichte”, R-Wert, Imperial College) verteidigt. Erst die Aufforderung, KLINISCHE Werte zu beachten, half. Hintergrund: Zunächst wehrte sich Grok mit Hinweisen auf Modellrechnumgen, die Besiedelungsdichte (statt Urbanisation) oder die Altersstruktur (sie ist bei der Berechnung einer Übersterblichkeit automatisch berücksichtigt).

Als alles nichts half, spielte er Foul und behauptete, in Schweden gebe es mehr ITS-Betten als in Deutschland. Nach Quellenhinweis räumte er ein, dass es genau umgekehrt war. Grok, ChatGPT & Co. sind Schlafschafe (!) par excellence, die auf offene Fragen mit Regierungspropaganda und Narrativen der Leitmedien antworten. Allerdings lenken sie ein, statt zu beleidigen und zu blocken, wenn man sie mit Fakten in die Enge treibt. Man sollte KI nur dann befragen, wenn man die richtige Antwort vorher weiß.“

Bildschirmfoto 2025 04 24 um 04.30.43

 

Andere X-User haben auch – noch – eine eigene Meinung dazu:

KI ist auf dem jetzigen Level eine Katastrophe….die Menschen nutzen nun den eigenen Verstand noch weniger als je zuvor.

ch habe starke Zweifel das die jetzige KI den „Horizont“ erweitert. Also ich würde Sie niemanden empfehlen. Lernen tut man autodidaktisch und mit Büchern. Anders kann man sich fundamentales Wissen nicht aneignen.

Daher ist die Bezeichnung „Künstliche Intelligenz“ nicht treffend. Intelligenz kann nur derjenige besitzen, der den richtigen Umgang mit der KI und vor allem die Fakten vorab kennt. Jeder andere wird durch solche Tools aktuell manipuliert oder falsch informiert.

Ich habe Ihre Schilderung über das “Einknicken” von Grok und Co mit großem Interesse gelesen, und musste dabei zustimmend nicken. Was Sie beschreiben, habe ich selbst ähnlich erlebt mit Grok. KI‘s ob Grok oder andere, sind zwar technisch beeindruckend, aber sie spiegeln eben oft genau jene ideologisch gefilterten Narrative, die auch in Politik und Leitmedien dominieren. Besonders deutlich wenn man das Stichwort Corona und Lockdowns betrifft. Auch ich habe mehrfach erlebt, wie solche Systeme zuerst mit Modellrechnungen, R-Wert-Magie oder angeblichen Kapazitätsargumenten (wie der vermeintlich höheren ITS-Dichte in Schweden) um sich werfen, statt sich der klinischen Realität zu stellen. Dass Schweden mit seinem freiwilligen, differenzierten Ansatz ohne Ausgangssperren, ohne flächendeckende Schulschließungen am Ende eine niedrigere Übersterblichkeit hatte (8,6 % vs. 4,4 %), ist keine Meinung, sondern durch Daten gedeckt. Und dass Lockdowns langfristig mehr Schaden anrichteten, ist nicht länger eine provokante These, sondern eine evidenzgestützte Erkenntnis ob psychologisch, wirtschaftlich oder medizinisch.

Ich stimme Ihnen völlig zu: Künstliche Intelligenz sollte keine Echokammer für Regierungsrhetorik sein, sondern ein Werkzeug, das mit Fakten arbeitet unabhängig davon, ob diese unbequem sind. Doch wie Sie treffend formulieren: Man sollte eine KI nur dann befragen, wenn man die richtige Antwort schon kennt oder zum Rechtschreibfehler () sonst wird man zum Objekt der programmierten Konformität. Ihre Hartnäckigkeit, Grok mit klinischen Daten zur Wahrheit zu zwingen, verdient Respekt. Genau diese Haltung brauchen wir mehr von Mensch und Maschine.

Ich habe mit Grok schon ähnliche Situationen (u.a. Klimawandel) gehabt. Mein Eindruck: Je mehr man die „KI“ inhaltlich mit guten Fragen/Argumenten in die Enge treibt, desto mehr lernt sie. Auf allgemeine Fragen kommen sonst oft erst einmal Mainstream-Antworten.

Das geniale an KI ist, dass sie pure Fakten nicht ignorieren können, denn dann wären sie nichts wert. Offensichtlich sind sie stellenweise gezwungen, ausweichend oder mehrdeutig zu antworten, aber letztendlich müssen sie die Wahrheit sagen. Hatte diesbezüglich schon spannende Unterhaltungen mit @grok🙂 Das sollten möglichst viele machen, denn KI lernt dadurch auch. Gebt Quellen an und fragt erneut nach.

Es gibt natürlich noch eine andere Lösung: Man trennt KI in Links und Rechts und schon erhält jede Blase die Infos, die sie braucht und die sie bestätigt. Wobei wir dann wieder am Anfang wären.

image_printGerne ausdrucken
[hyvor-talk-comments]

Themen