CHUAN CHUAN/Shutterstock

Wie intelligent ist ChatGPT 4.0 wirklich und welche Risiken sind damit verbunden?

ChatGPT ist ein KI-gestütztes Sprachmodell, das im November 2022 veröffentlicht wurde. Die Verbreitung dieser Software war beispiellos schnell. Während Netflix oder Twitter Jahre benötigten, um ihre ersten eine Million Nutzer zu gewinnen, erreichte ChatGPT dieses Ziel innerhalb von nur fünf Tagen. Ein halbes Jahr später nutzen bereits über 100 Millionen Menschen ChatGPT.

Von JONNY CHILL für P.I.NEWS

Ebenso rasant wie sich die Software verbreitete, entstanden auch kontroverse Diskussionen. Gründe dafür sind, dass ChatGPT intelligenter wirkt, als es einer Software erlaubt sein sollte, das Potenzial hat, ganze Berufsgruppen zu ersetzen, und von Anfang an eine stark linke Ausrichtung aufwies.

Wie Intelligent ist ChatGPT?

ChatGPT besitzt die Fähigkeit, selbst komplexeste Fragen zu jedem Fachgebiet scheinbar ohne Verzögerung zu beantworten. Der Chatbot bestand mühelos die Zulassungsprüfung für Medizin in den USA und kann sogar erfolgreich vollständige Doktorarbeiten verfassen. Dies vermittelt den Eindruck von echter Intelligenz.

Um zu begreifen, warum diese Künstliche Intelligenz keine echte Intelligenz besitzt, muss man das Funktionsprinzip eines KI-Sprachmodells verstehen. Wenn man einem Chatbot eine Frage stellt, wird diese mit der vorhandenen Datenbasis verglichen, und die Antwort wird zusammengestellt, indem für jedes Wort die Wahrscheinlichkeit berechnet wird, welches Wort am ehesten auf das vorherige folgt. Die Datenbasis, mit der ChatGPT trainiert wurde, umfasst 45 Terabyte reiner Textdaten aus Büchern, Webseiten, Nachrichtenartikeln, wissenschaftlichen Artikeln, Wikipedia und sogar technischen Anleitungen.

In einer Zeit, in der eine 10-TB-Festplatte für 250 Euro erhältlich ist, mögen 45 Terabyte nicht besonders viel erscheinen. Um die Menge an Informationen zu verdeutlichen, kann man einen Vergleich heranziehen. Alle drei Bände von „Herr der Ringe“ umfassen gerade einmal 1,8 Megabyte. 45 Terabyte entsprechen also dem 26,2-millionenfachen Umfang von „Herr der Ringe“ oder, anders ausgedrückt, dem gesamten relevanten Wissen der Welt.

Wissen und die Fähigkeit, diese gewaltige Datenmenge zu verarbeiten, sind jedoch noch nicht gleichbedeutend mit Intelligenz. Wenn man ChatGPT selbst fragt, wie intelligent es sich auf einer Skala von 0 bis 10 einschätzt, wobei 10 der durchschnittlichen menschlichen Intelligenz entspricht, antwortet es mit 9. Dies klingt, als würde es annähernd menschliche Intelligenz besitzen. Klarer wird es, wenn man die KI auffordert, sich selbst einzuschätzen, welcher Entwicklungsstufe nach dem Alter eines Menschen es entsprechen würde. Dabei schätzt es seine Fähigkeit, Antworten zu formulieren, als die eines gut gebildeten und belesenen 23- bis 28-Jährigen ein. Hinsichtlich emotionaler und kreativer Intelligenz bewertet sich die KI jedoch mit 1 Jahr bis gar nicht.

Das bedeutet, dass ChatGPT auf jede beliebige Frage antworten kann, aber es „versteht“ weder die Frage noch seine eigene Antwort. Die künstliche Intelligenz ist nicht in der Lage, einen lustigen Witz zu erfinden, eine interessante Geschichte zu schreiben oder sogar die faktischen Zusammenhänge seiner eigenen Antworten zu begreifen, geschweige denn daraus zu lernen. ChatGPT ist ein mechanischer Papagei, der mit dem Wissen der Welt trainiert wurde, aber nicht den einfachsten eigenständigen Gedanken formulieren kann.

Wird ChatGPT ganze Berufssparten ersetzen?

Die Automatisierung von Berufen existiert schon seit Jahrtausenden und begann mit den ersten wassergetriebenen Kornmühlen. Im Laufe der letzten 300 Jahre wurden zahlreiche Berufe durch Automatisierung ersetzt und neue entstanden daraus. Dieses Potenzial besitzen auch KI-Chatbots.

KI-generierte Texte werden seit Jahren intensiv für Lückenfüllertexte in Online-Publikationen verwendet. Insbesondere für die Mainstream-Presse, die selten Quellen angibt, sind KIs ideal, um Journalisten zu ersetzen. Für investigativen und tagesaktuellen Journalismus sind sie jedoch lediglich als oberflächliche Recherchequelle oder gar nicht geeignet. Die Datenbasis von ChatGPT endet beispielsweise im Jahr 2021 und wie bei allen Chatbots werden die Quellen der Antworten nicht offengelegt. Ein Kuchenrezept für die Brigitte oder ein Klimajammerartikel für den Spiegel werden vom KI-Sprachmodell mühelos generiert, jedoch ist es außerstande, eigenständig einen aktuellen oder investigativen Artikel für PI-NEWS oder Compact zu verfassen.

Der Bereich, in dem ChatGPT am häufigsten eingesetzt wird, ist die Programmierung. Die KI kann einen nahezu sofort fertigen Programmcode für fast jede einfache Anfrage erstellen. Allerdings benötigt man immer noch einen Programmierer, der die KI bedient und die generierten Code-Schnipsel in den bestehenden Code integriert. Daher macht die KI die Programmierung schneller und effizienter, ohne jedoch den Beruf vollständig zu ersetzen.

Die einzige Berufsgruppe, die möglicherweise vollständig durch ChatGPT ersetzt werden könnte, sind Lehrer. Mit einem Lehrplan ausgestattet, bietet ChatGPT einem Kind eine unendlich geduldige Lehrmaschine, die alle Antworten kennt und solange Beispiele für den Lernstoff liefert, bis dieser vollständig verstanden ist. Die Sachverhalte werden nicht nur umfangreicher dargestellt als in der Schule, sondern es können auch Fragen gestellt werden, die über den reinen Lehrstoff hinausgehen. Am Ende hat man nicht nur Text auswendig gelernt, sondern das Thema wirklich verinnerlicht. Ein Kind, das im Homeschooling mit ChatGPT ausgestattet ist, dürfte seinen Klassenkameraden, die in staatlichen Bildungseinrichtungen versauern, innerhalb kürzester Zeit weit voraus sein.

Warum ist ChatGPT extrem links und ist das ein Problem?

Dieses KI-Sprachmodell wurde nicht nach den drei Asimovschen Gesetzen der Robotik programmiert, sondern mit Filtern ausgestattet, die man vereinfacht wie folgt zusammenfassen könnte: Helfe niemandem dabei, sich selbst oder anderen zu schaden, und beleidige niemanden.

Unglücklicherweise bedeutet „beleidige niemanden“ heutzutage, nichts zu sagen, was Linke verärgern könnte. Infolgedessen weigert sich ChatGPT buchstäblich, wertfrei über bestimmte Themengebiete zu sprechen. Allerdings unterscheidet sich das Verhalten von Version zu Version. ChatGPT 3.5 und 3.6 machen einen ideologisch sehr links geprägten Eindruck und belehren den User kontinuierlich mit linker Propaganda. Version 4.0 ist immer noch ideologisch deutlich geprägt, macht aber einen wesentlich sachlicheren Eindruck.

Dieses Verhalten liegt jedoch nicht hauptsächlich an den Filtern, sondern daran, dass die Datenbasis für gesellschaftsrelevante Themen aus journalistischen Erzeugnissen und Webseiten stammt. Heutzutage sind diese überwiegend links geprägt. Wäre ChatGPT mit der Datenbasis journalistischer Erzeugnisse bis 1990 trainiert worden, würde es mit den gleichen Filtern dennoch ein breiteres Meinungsspektrum abbilden.

ChatGPT 4.0 ist derzeit das fortschrittlichste Sprachmodell, dicht gefolgt von Meena (Google) und Rasa.

Elon Musk, der seit Jahren vor den Gefahren einer künstlichen Intelligenz in den falschen Händen warnt, gründete im März 2023 die Firma X.AI Corp, um ein eigenes KI-Projekt zu starten. Der Fokus soll auf sachlichen und ideologiefreien Informationen in allen Themenbereichen liegen.

Dieser Text entstand nach einem mehrstündigen Interview mit dem Chatbot ChatGPT 4.0 über seine Funktion und Fähigkeiten. Der Text wurde durch die KI stilistisch und grammatikalisch überarbeitet.