Richterhammer neben Waage und Handy
"Ein ledigliches Abzeichnen von fertigen KI-Urteilen muss unterbunden werden", lautet die Stellungnahme der Rechtsanwaltschaft.
Getty Images/iStockphoto

Hat Maria Wittmann-Tiwald, die Präsidentin des Handelsgerichts Wien, gelogen?

Dieser Frage gingen Dissertantinnen und Dissertanten der Johannes-Kepler-Universität vergangene Woche am Anwaltstag nach. Sie schlossen die Richterin an einen Lügendetektor mit künstlicher Intelligenz (KI) an, um herauszufinden, in welcher von mehreren Boxen sie einen Geldschein versteckt hält. Die Auflösung ließ nicht lange auf sich warten. "Ja, das ist richtige Box", gestand Wittmann-Tiwald wenig später vor Live-Publikum ein.

Mit dem Experiment wollten die Juristen bei der jährlichen Versammlung der Rechtsanwältinnen und Rechtsanwälte zeigen, wozu KI mittlerweile fähig ist. Zwar lehnt der Oberste Gerichtshof (OGH) den Einsatz sogenannter Polygrafen ab; in vielen anderen Bereichen der Justiz ist KI aber längst Standard.

Schwierige Abgrenzungen

Weitgehend unproblematisch ist das, wenn die KI nur zur Unterstützung eingesetzt wird – etwa in Suchprogrammen oder bei der Aktenverwaltung. Ein automatisierter "KI-Strafrichter" wäre dagegen mit der Verfassung unvereinbar, sagte Susanne Reindl-Krauskopf, Professorin für Strafrecht an der Universität Wien, auf der Veranstaltung.

In der Praxis könnte die Abgrenzung zwischen einer bloßen Unterstützung der Richterinnen und der tatsächlichen Entscheidung jedoch schwierig werden, gibt Reindl-Krauskopf zu bedenken.

Möglich wäre etwa, dass eine KI das Urteil vorbereitet und das Gericht dieses nur mehr "abstempelt". Zwar läge die Entscheidung dann offiziell weiterhin bei einem menschlichen Richter, de facto würde dieser der vorbereitenden Entscheidung aber meist folgen. Die Hürde, davon abzuweichen, wäre höher.

Verbot für Stempelurteile?

Aus Sicht von Reindl-Krauskopf sind auch derartige KI-Urteilsvorbereitungen mit der aktuellen Strafprozessordnung (StPO) nicht vereinbar. Es fehle sowohl an der menschlichen Beweiswürdigung als auch an einer ordentlichen Urteilsbegründung. Schließlich agiert KI oft wie eine Blackbox, deren Entscheidungsfindung nicht transparent ist.

Auf europäischer Ebene wird derzeit über eine KI-Verordnung (AI Act) verhandelt. Laut dem aktuellen Verordnungsentwurf sollen KI-Anwendungen in der Justiz als "Hochrisikobereich" eingestuft werden. Sie würden damit strengen Auflagen unterliegen und müssten etwa regelmäßig evaluiert werden. Die Anwaltschaft hat sich dafür ausgesprochen, "Stempelurteile" explizit zu verbieten. Ein ledigliches "Abzeichnen" von Entscheidungen durch Richterinnen müsse "organisatorisch unterbunden werden". (Jakob Pflügl, 25.9.2023)