idw – Informationsdienst Wissenschaft

Nachrichten, Termine, Experten

Grafik: idw-Logo
Science Video Project
idw-Abo

idw-News App:

AppStore

Google Play Store



Instanz:
Teilen: 
31.08.2023 09:26

Neue Erkenntnisse zur Erklärbarkeit von KI: Studie der TU Dortmund stellt Menschen in den Mittelpunkt

Lena Reil Referat Hochschulkommunikation
Technische Universität Dortmund

    Eine Untersuchung von Prof. Christian Janiesch von der Fakultät für Informatik der TU Dortmund stellt eine gängige Annahme der KI-Forschung in Frage: „Je leistungsfähiger die Methodik, umso schwerer ist sie erklärbar.“ Anhand von Tests mit medizinischer Bilddiagnostik konnte er gemeinsam mit Kollegen aus Würzburg und Magdeburg zeigen, dass Mediziner*innen einzelne KI-Analysen teils besser, teils schlechter verständlich fanden, als auf der Basis mathematischer und programmatischer Überlegungen bisher angenommen wurde. Die Ergebnisse sind im „International Journal of Information Management“ veröffentlicht.

    Hinter dem Oberbegriff Künstliche Intelligenz stecken verschiedene Verfahren, die heutzutage de facto alle auf Maschinellem Lernen fußen, d.h. die Programme haben eigenständig gelernt, wie sie entscheiden sollen. Die meisten bisherigen wissenschaftlichen Studien, die sich damit beschäftigen, wie erklärbar diese Systeme sind, verwenden dazu Annahmen, die auf mathematischen Prinzipien basieren. Dabei kamen sie zu dem Schluss, dass die Erklärbarkeit (explainability) sinkt, wenn die Leistung (performance) steigt. Sprich: Je komplexer die Anwendung, desto schwieriger ist sie zu erklären. Tiefe künstliche neuronale Netze sind demnach zwar überaus leistungsstark, aber für den Menschen nicht nachvollziehbar, während Entscheidungsbäume üblicherweise leistungsschwächer, aber gut erklärbar sind.

    Prof. Janiesch und sein Team gingen die Frage nach der Erklärbarkeit aus einer anderen Perspektive an: Anstatt auf theoretische Modelle zu setzen, analysierten sie die Einschätzung von Fachleuten, die tagtäglich mit KI arbeiten. „Technologische Lösungen können nur dann dauerhaft erfolgreich sein, wenn sie von Menschen angewendet werden, die das Problem auch verstehen“, erläutert der Wirtschaftsinformatiker. Dieser sozio-technische Ansatz ermöglichte es, die Erklärbarkeit aus einer realen Anwendungs- und Praxisperspektive zu betrachten. Dafür arbeiteten die Forscher mit Mediziner*innen zusammen, die einschätzten, wie nachvollziehbar verschiedene KI-Verfahren Symptome von Herzkrankheiten oder Hirnscans verarbeiteten.

    Während die bisherigen Studien eine lineare oder kurvenförmige Beziehung zwischen Leistung und Erklärbarkeit vermuteten, zeigten die Untersuchungen von Prof. Janiesch und seinem Team ein gruppenartiges Muster in der Erklärbarkeit von KI-Systemen. Die Annahmen zur Leistungsfähigkeit der Systeme wurde grundsätzlich bestätigt, bei der Erklärbarkeit gab es jedoch abweichende Ergebnisse. Einige Modelle, die bisher als besser erklärbar galten, konnten die Fachleute eher schlecht nachvollziehen, oder umgekehrt. Während die tiefen künstlichen neuronalen Netze gleich bewertet wurden, gab es insbesondere bei Entscheidungsbäumen Unterschiede. Die Anwender*innen stuften sie als deutlich besser erklärbar ein, als die bisherigen Überlegungen dies suggerierten. Prof. Janiesch fügt an: „Unsere Forschung zeigt, dass die Erklärbarkeit von KI nicht nur auf mathematischen Analysen basieren sollte, sondern auf der Perspektive derjenigen, die mit dieser Technologie in der Praxis arbeiten. Denn wenn KI eingesetzt wird, müssen die Anwender*innen zunächst Vertrauen aufbauen und das geht nur, wenn nachvollziehbar gearbeitet wird.“

    Die Ergebnisse verdeutlichen die Notwendigkeit einer stärkeren Einbindung von Fachanwender*innen in den Prozess der KI-Entwicklung und Einführung, um sicherzustellen, dass die Technologie nicht nur leistungsstark, sondern auch erklärbar und praktisch nutzbar ist. Dies ist besonders relevant, wenn es um kritische Entscheidungen auf Basis von KI-Vorhersagen geht, wie etwa in der Medizin.


    Wissenschaftliche Ansprechpartner:

    Prof. Christian Janiesch
    Lehrstuhl für Enterprise Computing
    Fakultät für Informatik
    Telefon: (0231) 755-6634
    E-Mail: christian.janiesch@tu-dortmund.de


    Originalpublikation:

    https://doi.org/10.1016/j.ijinfomgt.2022.102538


    Bilder

    Prof. Christian Janiesch hat die Professur für Enterprise Computing an der Fakultät für Informatik der TU Dortmund inne.
    Prof. Christian Janiesch hat die Professur für Enterprise Computing an der Fakultät für Informatik d ...
    Anastasia Aulbach

    Links die bisherige Annahme über den Zusammenhang zwischen Leistung und Erklärbarkeit, rechts die Ergebnisse der Studie. Fünf Klassen von KI-Algorithmen werden nach ihrer gemessenen Leistung (y-Achse) und wahrgenommenen Erklärbarkeit (x-Achse) geordnet.
    Links die bisherige Annahme über den Zusammenhang zwischen Leistung und Erklärbarkeit, rechts die Er ...

    TU Dortmund


    Merkmale dieser Pressemitteilung:
    Journalisten, Wissenschaftler
    Informationstechnik, Medizin
    überregional
    Forschungsergebnisse, Wissenschaftliche Publikationen
    Deutsch


     

    Prof. Christian Janiesch hat die Professur für Enterprise Computing an der Fakultät für Informatik der TU Dortmund inne.


    Zum Download

    x

    Links die bisherige Annahme über den Zusammenhang zwischen Leistung und Erklärbarkeit, rechts die Ergebnisse der Studie. Fünf Klassen von KI-Algorithmen werden nach ihrer gemessenen Leistung (y-Achse) und wahrgenommenen Erklärbarkeit (x-Achse) geordnet.


    Zum Download

    x

    Hilfe

    Die Suche / Erweiterte Suche im idw-Archiv
    Verknüpfungen

    Sie können Suchbegriffe mit und, oder und / oder nicht verknüpfen, z. B. Philo nicht logie.

    Klammern

    Verknüpfungen können Sie mit Klammern voneinander trennen, z. B. (Philo nicht logie) oder (Psycho und logie).

    Wortgruppen

    Zusammenhängende Worte werden als Wortgruppe gesucht, wenn Sie sie in Anführungsstriche setzen, z. B. „Bundesrepublik Deutschland“.

    Auswahlkriterien

    Die Erweiterte Suche können Sie auch nutzen, ohne Suchbegriffe einzugeben. Sie orientiert sich dann an den Kriterien, die Sie ausgewählt haben (z. B. nach dem Land oder dem Sachgebiet).

    Haben Sie in einer Kategorie kein Kriterium ausgewählt, wird die gesamte Kategorie durchsucht (z.B. alle Sachgebiete oder alle Länder).