idw – Informationsdienst Wissenschaft

Nachrichten, Termine, Experten

Grafik: idw-Logo
Grafik: idw-Logo

idw - Informationsdienst
Wissenschaft

Science Video Project
idw-Abo

idw-News App:

AppStore

Google Play Store



Instanz:
Teilen: 
25.06.2025 10:08

Nachvollziehbare KI: Ergebnisse zielgruppengerecht und transparent gestalten

Petra Brücklmeier Geschäftsstelle
Lernende Systeme - Die Plattform für Künstliche Intelligenz

    Mit der Verbreitung von Chatbots ist Künstliche Intelligenz (KI) für viele Menschen greifbar geworden. Wie und warum ChatGPT und andere KI-basierte Systeme zu ihren Ergebnissen kommen, bleibt für die Nutzenden dabei häufig undurchsichtig. Was genau passiert in der „Black Box“ zwischen der Modelleingabe und -ausgabe? Um die Resultate und die Entscheidungsfindung komplexer KI-Systeme nachvollziehbar zu machen, müssen algorithmische Entscheidungen erklärbar sein. So lässt sich die Modellqualität verbessern und das Vertrauen in KI stärken. Ein aktuelles Whitepaper der Plattform Lernende Systeme zeigt, mit welchen Methoden KI-Ergebnisse erklärbar gemacht werden und vermittelt Gestaltungsoptionen.

    In vielen KI-Anwendungsgebieten wie der medizinischen Diagnostik, im Auswahlverfahren bei Bewerbungen oder der Qualitätskontrolle in der Produktion ist die Nachvollziehbarkeit entscheidend, um die Ergebnisse einordnen und hinterfragen zu können. So erhalten Entwicklerinnen und Entwickler Informationen, um KI-Systeme zu verbessern, und Nutzende können in Erfahrung bringen, welche Faktoren für die Zu- oder Absage einer Bewerbung entscheidend waren.

    Die Forschung zum Thema Erklärbare KI (englisch: XAI) adressiert dabei hauptsächlich zwei Bereiche: Der erste konzentriert sich auf die Verbesserung von Daten und Modellen. In der Praxis werden XAI-Methoden häufig von KI-Ingenieurinnen und -Ingenieuren verwendet, um KI-Modelle vor ihrer Implementierung zu testen und um die Qualität von KI-Modellen zu verbessern. Der zweite Bereich beschäftigt sich mit den ethischen Kriterien für verantwortungsvolle KI. Sie dienen dazu, den Nutzenden Erklärungen zu liefern und damit Transparenz und Vertrauen in die Technologie zu ermöglichen.

    Mit XAI Vertrauen stärken und Qualität verbessern

    Transparenz ist besonders dann relevant, wenn maschinelles Lernen in gesellschaftlichen Bereichen eingesetzt wird, in denen Vertrauen in Personen, Institutionen oder Technologien besonders wichtig ist –wenn es etwa um die Sicherheit von Menschen geht. In Unternehmen wiederum kann das Wissen über das „Warum“ von KI-gestützten Vorhersagen wichtige Erkenntnisse für die Geschäftsentwicklung liefern oder zur Verbesserung von Produktionsprozessen beitragen. Zusätzlich ist Erklärbarkeit ein wichtiges Kriterium bei der Einführung von KI-Technologie im Unternehmen und für eine menschengerechte Gestaltung der KI-unterstützten Arbeitswelt.

    Die Anforderungen und Erwartungen an XAI können dementsprechend sehr unterschiedlich ausfallen. Anhand von sieben verschiedenen Personengruppen – von KI-Spezialisten bis hin zu technisch unerfahrenen Nutzenden – zeigt das neue Whitepaper der Plattform Lernende Systeme, wie individuelle Rahmenbedingungen die Formen und Methoden der Erklärbarkeit beeinflussen.

    "Erklärbare KI ist ein wichtiger Baustein für die Transparenz von KI-Systemen und die Möglichkeit, nachzuvollziehen, aufgrund welcher Information ein KI-System zu einer bestimmten Ausgabe gekommen ist", so Prof. Dr. Ute Schmid, Inhaberin des Lehrstuhls für Kognitive Systeme an der Otto-Friedrich-Universität Bamberg sowie Co-Autorin des neuen Whitepapers der Plattform Lernende Systeme. "Nachvollziehbarkeit ist auch eine wesentliche Voraussetzung für menschliche Kontrolle und Aufsicht. Durch die Kombination von erklärbarer KI und interaktivem maschinellen Lernen können Modelle durch Rückmeldung gezielt verbessert werden. So können maschinelles Lernen und menschliche Expertise sinnvoll zusammenspielen."

    Die Frage nach dem „wie“ und „warum“ KI-Anwendungen zu ihren Ergebnissen kommen, eine Chatbot-Eingabe zu einer bestimmten Wortfolge führt oder ein Bildgenerator genau dieses und kein anderes Bild erstellt, kann mittels erklärbarer KI beantwortet werden: XAI-Methoden können helfen, Rückschlüsse auf die Qualität der Datenbasis zu ziehen, indem untersucht wird, wie stark welche Merkmale die Modellausgabe beeinflussen. Sie können im Modell Einblicke in künstliche neuronale Netzwerke gewähren, in dem sie Aufschluss über die Funktion bestimmter Bestandteile geben. XAI-Methoden helfen dabei, herauszufinden welche Merkmale der Daten dafür verantwortlich sind, dass eine bestimmte Vorhersage oder Klassifikation berechnet wird.

    Forschung zu XAI-Methoden weiterentwickeln

    Die Autorinnen und Autoren des Whitepapers weisen darauf hin, dass XAI – sowohl als Basis für vertrauenswürdige KI als auch als Werkzeug zur Verbesserung von Modellen – in der öffentlichen Diskussion als Chance begriffen werden sollte. Um die weitere Entwicklung dieser KI-Technologie voranzutreiben und ihr Potenzial noch besser auszuschöpfen, werden allgemeine sowie speziell auf die Zielgruppenorientierung ausgerichtete Gestaltungsoptionen vorgeschlagen. So sollte die Forschung etablierte Methoden verbessern und XAI-Methoden für neue Arten von KI weiterentwickeln. Möglich sind Instrumente zur Inspizier- und Kontrollierbarkeit großer KI-Modelle oder Standardwerkzeugkästen für eine Modellkorrektur auch ohne erneutes Training. In der Lehre sollte XAI im Sinne eines Engineering-Tools stärker in KI- und Data-Science-Studiengängen verankert werden. Unternehmen könnten vermehrt auf XAI setzen, um beispielsweise interne Kommunikationshürden abzubauen und sich von Wettbewerbern abzugrenzen.


    Über das Whitepaper

    Das Whitepaper „Nachvollziehbare KI: Erklären, für wen, was und wofür" wurde von Mitgliedern der Arbeitsgruppe „Technologische Wegbereiter und Data Science“ der Plattform Lernende Systeme verfasst. Es steht zum kostenfreien Download bereit.

    Ein Interview mit Wojciech Samek, Mit-Autor des Whitepapers und Mitglied der Plattform Lernende Systeme, steht zur redaktionellen Verwendung zur Verfügung.



    Über die Plattform Lernende Systeme

    Die Plattform Lernende Systeme ist ein Netzwerk von Expertinnen und Experten zum Thema Künstliche Intelligenz (KI). Sie bündelt vorhandenes Fachwissen und fördert als unabhängiger Makler den interdisziplinären Austausch und gesellschaftlichen Dialog. Die knapp 200 Mitglieder aus Wissenschaft, Wirtschaft und Gesellschaft entwickeln in Arbeitsgruppen Positionen zu Chancen und Herausforderungen von KI und benennen Handlungsoptionen für ihre verantwortliche Gestaltung. Damit unterstützen sie den Weg Deutschlands zu einem führenden Anbieter von vertrauenswürdiger KI sowie den Einsatz der Schlüsseltechnologie in Wirtschaft und Gesellschaft. Die Plattform Lernende Systeme wurde 2017 vom Bundesforschungsministerium auf Anregung von acatech – Deutsche Akademie der Technikwissenschaften gegründet und wird von einem Lenkungskreis gesteuert. Die Leitung der Plattform liegt bei Dorothee Bär (Bundesministerin für Forschung, Technologie und Raumfahrt) und Jan Wörner (Präsident acatech).


    Originalpublikation:

    https://www.plattform-lernende-systeme.de/files/Downloads/Publikationen/Whitepap... - Whitepaper "Nachvollziehbare KI: Erklären, für wen, was und wofür"


    Weitere Informationen:

    https://www.plattform-lernende-systeme.de/id-3-fragen-an-newsreader/erklaerbare-... - Interview mit Wojciech Samek, Professor für maschinelles Lernen und Kommunikation an der TU Berlin, Leiter der Abteilung für Künstliche Intelligenz und der Explainable AI Group am Fraunhofer Heinrich-Hertz-Institut (HHI) Berlin und Mitglied der Platform Lernende Systeme


    Bilder

    Nachvollziehbare KI. Erklären, für wen, was und wofür
    Nachvollziehbare KI. Erklären, für wen, was und wofür

    Copyright: Plattform Lernende Systeme

    Zentrale Fragestellungen zu XAI nach Zielgruppen
    Zentrale Fragestellungen zu XAI nach Zielgruppen

    Copyright: Plattform Lernende Systeme


    Merkmale dieser Pressemitteilung:
    Journalisten, jedermann
    Elektrotechnik, Gesellschaft, Informationstechnik, Maschinenbau, Wirtschaft
    überregional
    Forschungs- / Wissenstransfer, Wissenschaftliche Publikationen
    Deutsch


     

    Hilfe

    Die Suche / Erweiterte Suche im idw-Archiv
    Verknüpfungen

    Sie können Suchbegriffe mit und, oder und / oder nicht verknüpfen, z. B. Philo nicht logie.

    Klammern

    Verknüpfungen können Sie mit Klammern voneinander trennen, z. B. (Philo nicht logie) oder (Psycho und logie).

    Wortgruppen

    Zusammenhängende Worte werden als Wortgruppe gesucht, wenn Sie sie in Anführungsstriche setzen, z. B. „Bundesrepublik Deutschland“.

    Auswahlkriterien

    Die Erweiterte Suche können Sie auch nutzen, ohne Suchbegriffe einzugeben. Sie orientiert sich dann an den Kriterien, die Sie ausgewählt haben (z. B. nach dem Land oder dem Sachgebiet).

    Haben Sie in einer Kategorie kein Kriterium ausgewählt, wird die gesamte Kategorie durchsucht (z.B. alle Sachgebiete oder alle Länder).