idw – Informationsdienst Wissenschaft

Nachrichten, Termine, Experten

Grafik: idw-Logo
Grafik: idw-Logo

idw - Informationsdienst
Wissenschaft

Science Video Project
idw-Abo

idw-News App:

AppStore

Google Play Store



Instanz:
Teilen: 
05.09.2024 11:07

Künstliche Intelligenz im Rechtswesen: „KI-Systeme können Gerichte entlasten und zu gerechte(re)n Urteilen beitragen“

Birgit Obermeier Geschäftsstelle
Lernende Systeme - Die Plattform für Künstliche Intelligenz

    Das Justizsystem in Deutschland ist überlastet: Zwischen 2021 und 2023 ist die Zahl der offenen Strafverfahren laut dem Deutschen Richterbund um knapp 30 Prozent gestiegen. Die Zahl der RichterInnen und StaatsanwältInnen in Deutschland wird indessen in den kommenden Jahren aufgrund von Ruhestand deutlich abnehmen. KI-Systeme versprechen für das Rechtwesen vielfältige Einsatzmöglichkeiten und mehr Effizienz. Zudem können sie für BürgerInnen den Zugang zum Recht vereinfachen sowie gerechte und transparente Verfahren und Urteile unterstützen. Demgegenüber stehen aktuell noch qualitative Schwächen von KI-Systemen in Rechtsanwendungen sowie ethische und rechtliche Bedenken.

    Wo die größten Potenziale von KI für das Rechtswesen liegen und wie sich verantwortungsvoll nutzen lassen, erläutert Frauke Rostalski im Interview. Sie ist Professorin am Lehrstuhl für Strafrecht, Strafprozessrecht, Rechtsphilosophie und Rechtsvergleichung sowie geschäftsführende Direktorin des Instituts für Strafrecht und Strafprozessrecht an der Universität zu Köln. Zudem ist Frauke Rostalski Mitglied des Deutschen Ethikrates, Leiterin der Arbeitsgruppe „Recht und Ethik“ der Plattform Lernende Systeme und Co-Autorin eines dort kürzlich erschienenen Whitepapers zum Thema KI und Recht.

    Frau Rostalski, wo unterstützt KI bereits heute im Rechtswesen? Wo liegen (noch) technologische Grenzen?

    Frauke Rostalski: Neben der allgemein wachsenden Bedeutung von KI in nahezu allen gesellschaftlichen Bereichen finden KI-Systeme auch im Rechtswesen immer häufiger Anwendung. Für Privatpersonen können KI-Systeme vor allem eine unterstützende Funktion im Bereich der juristischen Selbsthilfe einnehmen und dabei helfen, die konkrete Rechtslage einzuordnen und zu bewerten, ohne dass es einer kostspieligen Konsultation durch einen Rechtsanwalt bedarf. Technologische Grenzen ergeben sich dabei jedoch aus der (noch) mangelhaften generativen Tätigkeit und Fehleranfälligkeit entsprechender Systeme, weshalb eine vollständige Auslagerung der Rechtsberatung schon aus diesem Grund nicht möglich erscheint. Für Kanzleien und AnwältInnen liegt das Potenzial entsprechender KI-Systeme vor allem in der Unterstützung bei zeitintensiven Aufgaben wie der Dokumentenprüfung, dem Zusammenfassen oder Durchsuchen von Dokumenten und der juristischen Recherche im Allgemeinen. Auch hier erweist sich die Fehleranfälligkeit insofern als problematisch und damit als technologische Grenze, als diese Systeme oftmals imaginative Resultate („Halluzinationen“) liefern, die bei mangelnder Überprüfung weitreichende (juristische) Konsequenzen haben können. Sowohl aufgrund der Fehleranfälligkeit als auch aufgrund etwaiger Datenschutzprobleme qualifizieren sich KI-Systeme in diesem Einsatzbereich (noch) nicht als wahrhafte Entlastung für AnwältInnen und Kanzleien. In der Justiz können KI-Systeme zur Unterstützung von Gerichten zum Einsatz kommen, z.B. bei der Auswertung von Beweismitteln, der Protokollierung oder der Strafzumessung. Durch entsprechende Anwendungen können die Effizienz und Geschwindigkeit der Justiz erhöht und zudem RichterInnen bei ihrer Arbeit entlastet werden. Als bedeutsamste Herausforderung kristallisiert sich hierbei die (mangelhafte) Qualität der Trainingsdaten solcher KI-Systeme heraus, die die Gefahr ungerechtfertigter Diskriminierungen birgt. Hinzu kommt, dass es aufgrund mangelnder Digitalisierung – beispielsweise von Urteilen – an einer ausreichenden Menge von Trainingsdaten mangelt.

    Wie können KI-Systeme die Gerichte entlasten und zu gerechten Urteilen beitragen?

    Frauke Rostalski: Der Einsatz von KI-Systemen bei Gericht ist in zweierlei Hinsicht denkbar: Im Rahmen der Entscheidungsunterstützungs-Systeme ist die Nutzung bei der Dokumentenanalyse oder -erstellung denkbar, was die Durchsuchung und Analyse großer Datenmengen in kurzer Zeit ermöglicht. Entsprechende KI-Systeme können RichterInnen perspektivisch dabei helfen, einschlägige Urteile oder anderweitige Daten schneller und zuverlässiger zu finden. Darüber hinaus können KI-Systeme auch unterstützend bei der Entscheidungsfindung, beispielsweise im Strafrecht bei der Ermittlung des angemessenen Strafmaßes, zum Einsatz kommen. So genannte Strafzumessungsdatenbanken, die es RichterInnen ermöglichen, möglichst viele Urteile zu sichten, die darin aufgeführten Strafzumessungserwägungen miteinander zu vergleichen und zu kategorisieren, können Gerichte entlasten und vor allem zu gerechte(re)n Urteilen beitragen – siehe hierzu das von mir betreute Forschungsprojekt Smart Sentencing.
    Höchste denkbare Stufe des KI-Einsatzes im Rechtswesen sind so genannte Entscheidungsersetzungs-Systeme. Hier geht es um KI-Systeme, die die Tätigkeit der RichterInnen als solche ersetzen sollen, so genannte „Robo-Richter“. In technischer Hinsicht sind derartige Systeme besonders voraussetzungsreich. Ein „Robo-Richter“ bzw. „Iudex ex machina“ müsste die klassische Tätigkeit der Rechtsfindung beherrschen. Gegen die Zulässigkeit einer Entscheidungsersetzungs-Software bestehen bedeutsame verfassungsrechtliche Bedenken. Ausweislich Art. 101 Abs. 1 S. 2 GG darf niemand seinem bzw. seiner gesetzlichen RichterIn entzogen werden. Darunter wird herkömmlich eine natürliche Person verstanden. Nicht zuletzt spricht gegen die Delegation menschlicher Entscheidungsfindung an technische Systeme das mit jedem Urteil einhergehende Risiko von Fehlern. Zweifel können nie restlos ausgeschlossen werden – selbst bei noch so umfassender Tatsachenfeststellung. Dieses Risiko wird allgemein unter bestimmten Bedingungen in Kauf genommen, wenn nämlich der rechtsgenügende Beweis einer Verurteilung erbracht wurde. Dieses Risiko erscheint allerdings gesellschaftlich nur dann akzeptabel, wenn die Entscheidung durch ein gleichberechtigtes Gesellschaftsmitglied – einen Menschen – getroffen wird. Die Delegation dieses Risikos an die Technik erweist sich demgegenüber zumindest dann als nicht tragbar, wenn es sich um bedeutsame Entscheidungen, insbesondere um solche im Bereich des Strafrechts, handelt.

    Vertrauen in eine unabhängige Justiz ist Grundvoraussetzung für eine funktionierende Demokratie. Was bedeutet das für den Einsatz von KI im Rechtswesen?

    Frauke Rostalski: Grundsätzlich ist Transparenz ein Faktor, der das Vertrauen der BürgerInnen in den Staat entscheidend prägt. KI-Systeme bergen die Gefahr, so genannte Black Boxes zu sein. Beim unterstützenden Einsatz in der Urteilsfindung muss umso mehr auf eine hinreichende Erklärung und Begründung etwaiger Vorschläge geachtet werden. Nur auf diese Weise kann gesellschaftliche Akzeptanz für die Entscheidung und somit Rechtsfrieden geschaffen werden. Vertrauen in neue Technologien wird zudem durch Regulierung geschaffen. Hier setzen die Aufstellung von Gesetzen, Normen und Standards sowie die Zertifizierung an. Letztere ermächtigt die VerbraucherInnen dazu, KI-Systeme anhand klarer Kriterien einzuordnen und die eigene Nutzungsentscheidung daran auszurichten.
    Art. 97 Abs. 1 GG garantiert die Unabhängigkeit der Justiz. Dies wirkt sich bereits bei der Entwicklung von KI-Systemen aus, die durch die Justiz genutzt werden sollen. Ein Ankauf von privatwirtschaftlichen Unternehmen würde dazu führen, dass die Justiz in eine Abhängigkeit geriete. Ein unabhängiges Verfahren erschiene kaum noch möglich. Vorzugswürdig erscheint daher die Entwicklung eines eigenen staatlichen Systems. Hierbei muss jedoch der Gewaltenteilungsgrundsatz beachtet werden, weil die Finanzierung regelmäßig in den Händen der Exekutive liegt. Auch die Unabhängigkeit der einzelnen RichterInnen muss gewährleistet werden. Die Möglichkeit des KI-Einsatzes zur Entscheidungsunterstützung darf in keinem Fall zu einer Nutzungsverpflichtung oder gar zu einem Zwang zur Übernahme automatisiert generierter Entscheidungsvorschläge führen.


    Originalpublikation:

    https://www.plattform-lernende-systeme.de/files/Downloads/Publikationen/Whitepap...


    Bilder

    Frauke Rostalski, Professorin für Strafrecht, Strafprozessrecht, Rechtsphilosophie und Rechtsvergleichung an der Universität zu Köln
    Frauke Rostalski, Professorin für Strafrecht, Strafprozessrecht, Rechtsphilosophie und Rechtsverglei ...

    Universität zu Köln


    Anhang
    attachment icon Künstliche Intelligenz und Recht - Auf dem Weg zum Robo-Richter?

    Merkmale dieser Pressemitteilung:
    Journalisten, jedermann
    Gesellschaft, Informationstechnik, Recht
    überregional
    Forschungs- / Wissenstransfer, Wissenschaftliche Publikationen
    Deutsch


     

    Hilfe

    Die Suche / Erweiterte Suche im idw-Archiv
    Verknüpfungen

    Sie können Suchbegriffe mit und, oder und / oder nicht verknüpfen, z. B. Philo nicht logie.

    Klammern

    Verknüpfungen können Sie mit Klammern voneinander trennen, z. B. (Philo nicht logie) oder (Psycho und logie).

    Wortgruppen

    Zusammenhängende Worte werden als Wortgruppe gesucht, wenn Sie sie in Anführungsstriche setzen, z. B. „Bundesrepublik Deutschland“.

    Auswahlkriterien

    Die Erweiterte Suche können Sie auch nutzen, ohne Suchbegriffe einzugeben. Sie orientiert sich dann an den Kriterien, die Sie ausgewählt haben (z. B. nach dem Land oder dem Sachgebiet).

    Haben Sie in einer Kategorie kein Kriterium ausgewählt, wird die gesamte Kategorie durchsucht (z.B. alle Sachgebiete oder alle Länder).