Preußische Allgemeine Zeitung Zeitung für Deutschland · Das Ostpreußenblatt · Pommersche Zeitung
Künstliche Intelligenz soll überarbeitete Gerichte entlasten, schlagen Experten vor. Doch es lauern Risiken, die sich bereits zeigen
Die Gerichte sind heutzutage chronisch überlastet. Das resultiert nicht zuletzt aus der stetig zunehmenden importierten Gewaltkriminalität sowie aus dem Drang, auch Nichtigkeiten juristisch zu verfolgen, wenn die weisungsgebundenen Staatsanwaltschaften dies politisch für opportun halten, was immer öfter vorkommt.
Dabei werden im Falle der Anwendung der Strafgesetzbuch-Paragraphen 130 (Volksverhetzung) und 188 (Gegen Personen des politischen Lebens gerichtete Beleidigung, üble Nachrede und Verleumdung) mittlerweile auch krasse Fehlurteile produziert. Doch nach Meinung von Matthias Guericke vom Netzwerk Kritische Richter und Staatsanwälte könnte die Nutzung von Künstlicher Intelligenz die Justiz entscheidend entlasten: So würde die KI für eine Beschleunigung von Routinevorgängen sorgen und zudem wäre deren nüchterne Herangehensweise auch das beste Mittel gegen politisch motivierte Urteile, bei denen durch das willkürliche Vorgehen der Richter relevante Aspekte unter den Tisch fallen.
Allerdings besteht dabei die Gefahr, dass die KI bereits mit dem falschen Material trainiert und so von Anfang an auf Parteilichkeit getrimmt wird. Guericke hält es daher für geboten, die KI vor allem anhand korrekter Urteile in echten Verfahren und neutral erstellter Fallgutachten zu „ertüchtigen“. Die Realität in anderen Ländern, wo der KI-Einsatz in der Justiz schon des Längeren üblich ist, zeigt jedoch, dass auch dies kein Allheilmittel ist, weil KI-Modelle zu Halluzinationen neigen, um ihre Nutzer zufriedenzustellen. Hierzu drei Beispiele.
Der kalifornische Richter Michael Wilner wollte sich unlängst die Mühe machen, die in einer Klageschrift zitierten juristischen Aufsätze und Entscheidungen im Original nachzulesen. Wie er verwundert feststellen musste, existieren diese aber gar nicht. Daraufhin verpflichtete Wilner die Anwälte der Elitekanzlei Ellis George, unter Eid auszusagen, woher ihre Falschinformationen stammen. Dabei kam heraus, dass die Advokaten auf den KI-Assistenten Google Gemini zurückgegriffen hatten. Der Richter verhängte daraufhin eine Geldstrafe von 31.000 Dollar gegen deren Kanzlei.
In einem weiteren Fall halluzinierte das KI-Modell Claude des US-Anbieters Anthropic, welches angeblich ethische Standards und Anwendungssicherheit kombiniert. Die Anwälte von Anthropic verwiesen im Rahmen eines Urheberrechtsstreites des Unternehmens mit Musikverlegern auf rechtswissenschaftliche Beiträge, bei denen selbst die Autoren und Titel nur in der „Phantasie“ von Claude existierten.
Das dritte Beispiel wiederum stammt aus Israel. Nachdem die dortige Polizei eine Person unter Geldwäscheverdacht verhaftet hatte, beantragte die Staatsanwaltschaft die richterliche Erlaubnis zur Beschlagnahme des Telefons des Verdächtigen. Dabei stützte sie sich auf Paragraphen, welche eine Erfindung der verwendeten Sprach-KI darstellten. So kann also nicht ausgeschlossen werden, dass eine entsprechend programmierte KI auch Grundlagen für politisch gefärbte Urteile ersinnt.