
Gerichte sind notorisch überlastet. Hinzu kommen lange Pausen während laufender Verfahren, die immer wieder erneutes Einarbeiten in den Fall erfordern. Zudem sind Richter zwar formal unabhängig und externe Einmischung kaum nachweisbar (wenn auch im Fall des BVerfG inzwischen viele daran zweifeln), aber auch bei Don Corleone war Erpressung nicht nachweisbar – er hat Leuten nur Angebote gemacht, die sie nicht ablehnen konnten. Es gibt also eine Reihe von Faktoren, die ein Gericht veranlassen können, eine “Abkürzung” zur Urteilsfindung zu verwenden.
Das Problem dabei ist die Machtfülle, mit der Richter letztlich ausgestattet sind. Zwar gibt es im Rechtsweg die Mittel der Berufung und der Revision, aber weder ist damit gesagt, dass sich die nächste Instanz verantwortungsvoller mit der Sache beschäftigt, noch können sich alle Beschuldigten das Beschreiten des Rechtswegs überhaupt leisten. Wie kann man die Willkür, die insbesondere in politischen Fragen nicht selten zu vermuten ist – wie bei diesem Fall durch einen gutachtenähnlichen Artikel nahegelegt –, besser unter Kontrolle bringen?
Kein Urteil, sondern vollständige Beweisführung und Begründung
Möglicherweise bietet die Künstliche Intelligenz (KI) hier einen Ausweg. In dem angesprochenen Artikel sind die zu berücksichtigenden Gesichtspunkte, die die Instanzen hätten berücksichtigen müssen, dargelegt. Da der Artikel von einem Richter geschrieben wurde, darf man wohl davon ausgehen, dass er den Rahmen korrekt beschrieben hat. Würde man nun eine KI darauf trainieren, Fälle zu bewerten und mit den Urteilen zu vergleichen, dürfte mit einiger Wahrscheinlichkeit dabei herauskommen, dass gewisse Gesichtspunkte im Urteil nicht berücksichtigt wurden. Dabei soll die KI nicht selbst zu einem Urteil kommen, sondern nur die Vollständigkeit der Beweisführung analysieren.
Macht man die KI-Bewertung öffentlich, wäre das Gericht zumindest gehalten, zu erläutern, weshalb es zu bestimmten Auffassungen gelangt ist, die damit nur bedingt harmonieren, beziehungsweise es müsste sich in einer Berufung oder Revision unangenehmer Kritik stellen (das Gegenteil gilt natürlich auch: will das Berufungs-/Revisionsgericht bestimmte Sachverhalte respektive Einzelheiten der Urteilsfindung anders sehen, müsste es auch dies deutlich ausführlicher begründen, als dies heute der Fall ist). Zumindest politisch motivierte Urteile wären so deutlich schwerer durchzusetzen – und vermutlich würden Berufungs- und Revisionsgerichte sogar entlastet, weil mangelnde Sorgfalt auf der unteren Instanz kaum noch eine wirksame Begründung wäre.
KI darf nicht in den falschen Händen landen
Wie wäre eine solche KI zu trainieren? Natürlich darf solch eine Ertüchtigung der KI nicht in den falschen Händen landen, etwa von solchen, die irgendwie doch mit der Politik verbandelt sind – denn dann wäre der Parteilichkeit Tür und Tor geöffnet. Zwei Möglichkeiten bieten sich an:
- Training anhand von Urteilen in abgeschlossenen Verfahren, wobei hier alle Instanzen zu berücksichtigen sind. Dabei sollte der KI im Testbetrieb bereits auffallen, dass ein Urteil (etwa das oben erwähnte) von anderen Urteilen abweicht, weil es verfahrenstechnisch bestimmte Gesichtspunkte nicht berücksichtigt. Da Urteile stets öffentlich sind, bestünden keine Probleme des Datenschutzes. Vielleicht etwas spezieller, aber auch denkbar wäre eine Hinzunahme der Fallakten, was aber aus Sicht des Datenschutzes strenger zu bewerten wäre. Hier würde aber auch sichtbar werden, wenn die Ermittlungsbehörden in bestimmten Fällen schlampig arbeiten.
- Training anhand von “Fallgutachten”: Hierzu können an Hochschulen Examensarbeiten erstellt werden, die Fälle nach allen juristischen Regeln auseinandernehmen und speziell Verfahrensversäumnisse aufzeigen und von den Professoren auf Vollständigkeit und Korrektheit bewertet werden. Solche Gutachten könnten unabhängig von Zeitfaktoren und sonstigem Druck erstellt werden, würden auch keinen wesentlichen Kostenfaktor ausmachen und könnten sich möglicherweise in späteren Karrieren als Richter oder Staatsanwälte positiv auswirken.
Potentiale nutzen
Im Prinzip gibt es solche Ansätze heute bereits, wenn auch oft mit kritischen Kommentaren versehen, etwa dem Hinweis, eine KI könnte es unter ethischen Aspekten nicht mit dem Menschen aufnehmen oder ihn gar ersetzen. Das soll sie aber gar nicht (abgesehen davon, dass man über die ethischen Maßstäbe so manches Staatsjuristen unterschiedliche Ansichten haben kann).
Wenn es solche Werkzeuge wie die KI jedoch gibt, sollte man sich Gedanken machen, ihr Potential sinnvoll zu nutzen, statt sie von vornherein abzulehnen.