Ein Fall entfacht erneut die Debatte über den Einsatz künstlicher Intelligenz in Gerichten: In Spanien hat der Allgemeine Rat der Justiz (CGPJ) gegen einen Richter eine Geldbuße von 1.000 Euro verhängt, weil er ChatGPT bei der Ausarbeitung eines Urteils verwendet hatte.
Die Sanktion, die mit der Mehrheit der Disziplinarkommission des Justizorgans beschlossen wurde, betrifft einen „schweren Verstoß“ gemäß dem Organischen Gesetz über die Ordnung der Justiz. Konkret wurde dem Richter vorgeworfen, externe Hilfsmittel genutzt zu haben und dadurch Informationen und Verfahrensdaten außerhalb der zulässigen Kanäle offengelegt zu haben.
Die Entdeckung: Die „Spuren“ von ChatGPT im Urteil
Nach Berichten der Zeitung El Español sei der Fall beinahe zufällig ans Licht gekommen: Der Richter habe vergessen, die Anfragen an ChatGPT aus dem endgültigen Text zu löschen, wodurch eindeutige Spuren der Nutzung künstlicher Intelligenz im Text verblieben. Ein Element, das im Disziplinarverfahren gewichtet wurde, auch weil es darauf hindeutet, dass die KI dazu verwendet worden war, Akten zu analysieren, die dem Richter direkt vorlagen.
Die Linie der Staatsanwaltschaft und die endgültige Entscheidung
Das Disziplinarverfahren verlief keineswegs geradlinig. Die Staatsanwaltschaft hatte beantragt, den Fall einzustellen, und war der Ansicht, dass die Taten keinen Disziplinarverstoß darstellen würden.
Anders die Haltung des Staatsanwalts, der die Maßnahme forderte: Er sah das Verhalten als weitaus gravierender an und schlug eine Suspendierung von 15 Tagen wegen einer „unakzeptablen Unkenntnis bei der Ausübung richterlicher Funktionen“ sowie eine Geldstrafe vor.
Letzten Endes wählte der CGPJ jedoch eine mittlere Linie: Keine Suspendierung, aber eine Geldbuße von 1.000 Euro. Entscheidend war die Bewertung, dass der Richter die künstliche Intelligenz „als Hilfsmittel und Ergänzung, aber nicht als Ersatz seiner Funktionen“ eingesetzt habe.
Der zentrale Rahmen: Unterstützung oder Ersetzung?
In der Begründung des Vorschlags zur Sanktion hatte der Staatsanwalt einen Schlüsselaspekt klargestellt: Nicht der bloße Einsatz von KI ist verboten, sondern die Art und Weise, wie sie verwendet wird. Im konkreten Fall lag die Anklage darin, eine „scheinbare Entscheidung“ erzeugt zu haben, die durch automatisierte Verfahren erstellt wurde statt durch eine eigenständige juristische Bewertung.
Eine feine, aber entscheidende Grenze: Die KI kann dem Richter assistieren, aber sie kann ihn nicht ersetzen. Nicht zufällig hatte der Allgemeine Rat der Justiz am 28. Januar desselben Jahres eine Richtlinie zum Einsatz von künstlicher Intelligenz in Gerichten verabschiedet. Das Dokument ist eindeutig: KI-Systeme dürfen keine Urteile fällen, Beweismittel bewerten oder das Gesetz anwenden, ohne menschliche Kontrolle, die „ständig, real, bewusst und wirksam“ ist.
Die Leitlinien verbieten außerdem, dass algorithmische Werkzeuge die Richter in ihren Funktionen ersetzen. Sie betonen die Risiken im Hinblick auf den Schutz grundrechtlicher Rechte, Vertraulichkeit und mögliche Verzerrungen automatischer Systeme. Und: Richter dürfen nur genehmigte Anwendungen verwenden, die von den zuständigen Justizbehörden bereitgestellt werden.
Der Fall gehört zu den ersten disziplinarischen Maßnahmen in Europa, die im Zusammenhang mit dem Einsatz von künstlicher Intelligenz im Justizwesen ergriffen wurden. Und er eröffnet eine Frage, die weiter wachsen wird: Wie lässt sich der Einsatz immer leistungsfähigerer Instrumente in Entscheidungsprozesse integrieren, ohne Autonomie, Verantwortung und Garantien zu gefährden?