Unabhängiger Journalismus in Zeiten von KI: Welche Herausforderungen gibt es?
Der Journalismus lebt von seiner Fähigkeit, unabhängig über Dinge und Personen zu berichten. Künstliche Intelligenz hat nicht nur dazu geführt, dass sich immer mehr Journalisten in ihrer beruflichen Existenz bedroht sehen. Ein weiteres Thema ist die Angst vor dem Glaubwürdigkeitsverlust durch Fake-Nachrichten, KI-generierte Inhalte und Deepfakes.
Eines der größten Probleme ist, dass KI von beinahe jeder Person nutzbar ist. So können selbst Menschen ohne journalistischen Background problemlos Desinformationskampagnen ins Leben rufen, die in der Bevölkerung für Unsicherheit, Angst und Probleme sorgen. Zwar sorgen KI-generierte Inhalte grundsätzlich für Misstrauen in der Bevölkerung, bislang gibt es aber keine einheitliche Kennzeichnungspflicht.
So ist es die Aufgabe eines jeden einzelnen Konsumenten von Medien, einen eigenen Eindruck bezüglich der Seriosität zu gewinnen. Durch mangelnde Medienkompetenz gelingt das aber längst nicht jedem. Wir beschäftigen uns mit den Herausforderungen des modernen Journalismus und mit Lösungsansätzen, die helfen könnten.
Wie künstliche Intelligenz im Journalismus genutzt wird
KI lässt sich journalistisch auf verschiedene Arten zur Arbeitserleichterung nutzen. Das geht über die generative Erstellung von Texten hinaus. So tauchen in immer mehr Nachrichtenmagazinen Bilder auf, die eindeutig die Handschrift eines KI-Generators tragen. Allerdings dürften auch Nutzeranalysen künftig eine größere Rolle spielen. Online-Magazine profitieren von Klicks auf bestimmte Unterrubriken und können mit einer exakten Zielgruppenanalyse Inhalte direkt auf Nutzer zuschneiden. Dabei kann KI hilfreich sein, wenn das Verhalten von Nutzern getrackt, analysiert und bewertet wird.
Viele Agenturen nutzen bereits KI, die seriösen Adressen gehen transparent damit um und kennzeichnen ihre Artikel entsprechend.
Zur täglichen Arbeit eines Journalisten gehört es auch, nach Quellen zu recherchieren. Gute Informationen gehören mit Nachweisen untermalt, während Desinformationen fast immer nur aus Behauptungen bestehen. Unter guten journalistischen Artikeln sind immer wieder Reuters oder auch die DPA (Deutsche Presseagentur) als Quelle zu finden.
Wo genau die Informationen herstammen, hängt aber vom Themenbereich ab. So findet man hier auf der Website von Casino Groups zahlreiche geprüfte Informationen zur Glücksspielbranche, während es im Ärzteblatt beispielsweise Inhalte aus dem Medizinwesen gibt. Solche Quellen sind für Journalisten Gold wert, weil sie von seriösen Urhebern stammen und einen hohen Trustfaktor haben.
Warum die automatisierte Texterstellung durch KI ein Risiko ist
ChatGPT generiert nach Eingabe eines Prompts innerhalb von Sekundenschnelle Texte in mittlerer Qualität. Grundsätzlich kann laut Verbraucherzentral kein Urheberrecht auf einen solchen Text beansprucht werden, weil er nicht von Menschen gemacht wurde.
Wenn ein Journalist der KI nun aber einen konkreten Auftrag zur Erstellung eines Textes mit bestimmten Inhalten gibt, sieht das anders aus. Hier ist der Output nach urheberrechtlich geschütztes Werk zu erachten. Da es keine allgemein rechtsgültigen Regeln gibt, existiert bislang eine Grauzone mit Risiken für die Verbreitung von KI-Inhalten.
Ein zweites Problem sind sogenannte Halluzinationen und daraus resultierende Fehlinformationen. KI-Systeme neigen zum Halluzinieren und verbreiten Falschinformationen, wenn sie die richtige Antwort auf eine Frage nicht kennen. Dabei handelt es sich nicht um gezielte Manipulation seitens der KI, sondern um mangelndes Bewusstsein für die Bedeutung der eigenen Inhalte. Eine KI versteht nicht, welche Folgen die Verbreitung falscher Informationen haben kann, ein Journalist muss es verstehen.
Es ist seine Aufgabe, Inhalte auf Stimmigkeit zu prüfen, bevor sie mit der Öffentlichkeit geteilt werden. Da KI-Inhalte meist fundiert, selbstsicher und fachlich rund wirken, neigen manche Menschen dazu, die Inhalte einfach ungeprüft zu übernehmen. Im privaten Blog führt das allenfalls zu einer Blamage, im Journalismus kann das den Ruf kosten. Kommt generative KI im Journalismus zum Einsatz, braucht es dahinter zwingend einen Menschen.
Deepfakes und Desinformationskampagnen über soziale Medien weit verbreitet
Soziale Medien und Plattformen wie TikTok erfreuen sich großer Beliebtheit und sind bei der Verbreitung von Falschinformationen und Deepfakes ganz vorne mit dabei. Wer heute durch TikTok scrollt, wird sich immer häufiger die Frage stellen, welches Video eigentlich „echt“ ist und wo KI die Finger mit im Spiel hatte.
Noch können Nutzer mit Medienkompetenz anhand bestimmter Merkmale (Bewegungsabläufe, Fehler in der Bildgenerierung, unrealistische Darstellung) fast immer unterscheiden, ob es sich um eine Falschinformation oder ein möglicherweise realistisches Video handelt. Wenn Donald Trump und Friedrich Merz bei TikTok Hand in Hand in den Sonnenuntergang reiten, weiß der Durchschnittsmensch, dass es sich um einen Fake handelt.
Wenn nun aber Aussagen aus dem Zusammenhang gerissen, mit KI manipuliert und mit geklonter Stimme verändert werden, ist das schon schwieriger. Hier droht dann auch Journalisten eine große Gefahr, denn im Journalismus will jeder die Nummer eins sein, wenn es um Breaking News und Neuigkeiten geht.
Wer sich die Zeit nicht nimmt, die vermeintlich belastende Sprachnachricht eines Promis oder das scheinbar unfassbare Video auf Authentizität zu prüfen, tappt in die KI-Falle. Der KI passiert nichts, wenn der Journalist falsche Informationen weitergibt, dem Journalisten selbst aber schon. Er riskiert seinen Beruf.
Transparenz fördert Vertrauen in den Journalismus
Medienkritik ist heute stärker denn je spürbar. Menschen misstrauen „linearen“ Quellen, das Internet und seine Möglichkeiten befeuert diese Ablehnung zusätzlich. Telegram und andere Dienste bieten Verschwörungstheoretikern die Möglichkeit, eigene Desinformationen zu verbreiten und den seriösen Journalismus mehr und mehr zu diffamieren.
Kommt es nun tatsächlich zu Fehlern und Falschinformationen, ist der Ruf des Journalismus in Gefahr. Verbraucher möchten sich auf ihre Informationsquellen verlassen können und gleichzeitig wissen, ob eine Information von einer KI generiert wurde oder von einem Menschen. Wer als Journalist tätig ist, muss auf Transparenz setzen. Dazu gehört auch, mit KI generierte Inhalte zu kennzeichnen. Dann hat der Nutzer selbst die Möglichkeit, Inhalte und ihren Hintergrund zu prüfen und zu erkennen, ob er sie für sich nutzen möchte oder nicht.
Für echte Autoren ist die Kennzeichnung ebenfalls von Vorteil. Es wird immer Menschen geben, die sich eher für die Werke echter Personen interessieren, und die suchen gezielt nach Artikeln und Informationen, die von menschlichen Autoren stammen.
Fazit: Es braucht Medien- und KI-Kompetenz auf allen Seiten!
KI ist da und wird nicht mehr verschwinden. Der sichere Umgang sollte das Ziel auf allen Seiten sein. Im Journalismus ist es Pflicht, verantwortungsvoll mit künstlicher Intelligenz umzugehen und Inhalte nicht ungefiltert weiterzugeben. Nur so ist es möglich, gegen die Schwemme von Desinformationen vorzugehen.
Für Nutzer selbst ist es wichtig, die eigene Medienkompetenz zu schärfen und zu wissen, welche Möglichkeiten KI bietet. Wer kritisch hinterfragt und bei Unsicherheit auch mal nach den Quellen sucht, fällt weniger schnell auf Desinformationskampagnen rein.