idw - Informationsdienst
Wissenschaft
Mit der Verbreitung von Chatbots ist Künstliche Intelligenz (KI) für viele Menschen greifbar geworden. Wie und warum ChatGPT und andere KI-basierte Systeme zu ihren Ergebnissen kommen, bleibt für die Nutzenden dabei häufig undurchsichtig. Was genau passiert in der „Black Box“ zwischen der Modelleingabe und -ausgabe? Um die Resultate und die Entscheidungsfindung komplexer KI-Systeme nachvollziehbar zu machen, müssen algorithmische Entscheidungen erklärbar sein. So lässt sich die Modellqualität verbessern und das Vertrauen in KI stärken. Ein aktuelles Whitepaper der Plattform Lernende Systeme zeigt, mit welchen Methoden KI-Ergebnisse erklärbar gemacht werden und vermittelt Gestaltungsoptionen.
In vielen KI-Anwendungsgebieten wie der medizinischen Diagnostik, im Auswahlverfahren bei Bewerbungen oder der Qualitätskontrolle in der Produktion ist die Nachvollziehbarkeit entscheidend, um die Ergebnisse einordnen und hinterfragen zu können. So erhalten Entwicklerinnen und Entwickler Informationen, um KI-Systeme zu verbessern, und Nutzende können in Erfahrung bringen, welche Faktoren für die Zu- oder Absage einer Bewerbung entscheidend waren.
Die Forschung zum Thema Erklärbare KI (englisch: XAI) adressiert dabei hauptsächlich zwei Bereiche: Der erste konzentriert sich auf die Verbesserung von Daten und Modellen. In der Praxis werden XAI-Methoden häufig von KI-Ingenieurinnen und -Ingenieuren verwendet, um KI-Modelle vor ihrer Implementierung zu testen und um die Qualität von KI-Modellen zu verbessern. Der zweite Bereich beschäftigt sich mit den ethischen Kriterien für verantwortungsvolle KI. Sie dienen dazu, den Nutzenden Erklärungen zu liefern und damit Transparenz und Vertrauen in die Technologie zu ermöglichen.
Mit XAI Vertrauen stärken und Qualität verbessern
Transparenz ist besonders dann relevant, wenn maschinelles Lernen in gesellschaftlichen Bereichen eingesetzt wird, in denen Vertrauen in Personen, Institutionen oder Technologien besonders wichtig ist –wenn es etwa um die Sicherheit von Menschen geht. In Unternehmen wiederum kann das Wissen über das „Warum“ von KI-gestützten Vorhersagen wichtige Erkenntnisse für die Geschäftsentwicklung liefern oder zur Verbesserung von Produktionsprozessen beitragen. Zusätzlich ist Erklärbarkeit ein wichtiges Kriterium bei der Einführung von KI-Technologie im Unternehmen und für eine menschengerechte Gestaltung der KI-unterstützten Arbeitswelt.
Die Anforderungen und Erwartungen an XAI können dementsprechend sehr unterschiedlich ausfallen. Anhand von sieben verschiedenen Personengruppen – von KI-Spezialisten bis hin zu technisch unerfahrenen Nutzenden – zeigt das neue Whitepaper der Plattform Lernende Systeme, wie individuelle Rahmenbedingungen die Formen und Methoden der Erklärbarkeit beeinflussen.
"Erklärbare KI ist ein wichtiger Baustein für die Transparenz von KI-Systemen und die Möglichkeit, nachzuvollziehen, aufgrund welcher Information ein KI-System zu einer bestimmten Ausgabe gekommen ist", so Prof. Dr. Ute Schmid, Inhaberin des Lehrstuhls für Kognitive Systeme an der Otto-Friedrich-Universität Bamberg sowie Co-Autorin des neuen Whitepapers der Plattform Lernende Systeme. "Nachvollziehbarkeit ist auch eine wesentliche Voraussetzung für menschliche Kontrolle und Aufsicht. Durch die Kombination von erklärbarer KI und interaktivem maschinellen Lernen können Modelle durch Rückmeldung gezielt verbessert werden. So können maschinelles Lernen und menschliche Expertise sinnvoll zusammenspielen."
Die Frage nach dem „wie“ und „warum“ KI-Anwendungen zu ihren Ergebnissen kommen, eine Chatbot-Eingabe zu einer bestimmten Wortfolge führt oder ein Bildgenerator genau dieses und kein anderes Bild erstellt, kann mittels erklärbarer KI beantwortet werden: XAI-Methoden können helfen, Rückschlüsse auf die Qualität der Datenbasis zu ziehen, indem untersucht wird, wie stark welche Merkmale die Modellausgabe beeinflussen. Sie können im Modell Einblicke in künstliche neuronale Netzwerke gewähren, in dem sie Aufschluss über die Funktion bestimmter Bestandteile geben. XAI-Methoden helfen dabei, herauszufinden welche Merkmale der Daten dafür verantwortlich sind, dass eine bestimmte Vorhersage oder Klassifikation berechnet wird.
Forschung zu XAI-Methoden weiterentwickeln
Die Autorinnen und Autoren des Whitepapers weisen darauf hin, dass XAI – sowohl als Basis für vertrauenswürdige KI als auch als Werkzeug zur Verbesserung von Modellen – in der öffentlichen Diskussion als Chance begriffen werden sollte. Um die weitere Entwicklung dieser KI-Technologie voranzutreiben und ihr Potenzial noch besser auszuschöpfen, werden allgemeine sowie speziell auf die Zielgruppenorientierung ausgerichtete Gestaltungsoptionen vorgeschlagen. So sollte die Forschung etablierte Methoden verbessern und XAI-Methoden für neue Arten von KI weiterentwickeln. Möglich sind Instrumente zur Inspizier- und Kontrollierbarkeit großer KI-Modelle oder Standardwerkzeugkästen für eine Modellkorrektur auch ohne erneutes Training. In der Lehre sollte XAI im Sinne eines Engineering-Tools stärker in KI- und Data-Science-Studiengängen verankert werden. Unternehmen könnten vermehrt auf XAI setzen, um beispielsweise interne Kommunikationshürden abzubauen und sich von Wettbewerbern abzugrenzen.
Über das Whitepaper
Das Whitepaper „Nachvollziehbare KI: Erklären, für wen, was und wofür" wurde von Mitgliedern der Arbeitsgruppe „Technologische Wegbereiter und Data Science“ der Plattform Lernende Systeme verfasst. Es steht zum kostenfreien Download bereit.
Ein Interview mit Wojciech Samek, Mit-Autor des Whitepapers und Mitglied der Plattform Lernende Systeme, steht zur redaktionellen Verwendung zur Verfügung.
Über die Plattform Lernende Systeme
Die Plattform Lernende Systeme ist ein Netzwerk von Expertinnen und Experten zum Thema Künstliche Intelligenz (KI). Sie bündelt vorhandenes Fachwissen und fördert als unabhängiger Makler den interdisziplinären Austausch und gesellschaftlichen Dialog. Die knapp 200 Mitglieder aus Wissenschaft, Wirtschaft und Gesellschaft entwickeln in Arbeitsgruppen Positionen zu Chancen und Herausforderungen von KI und benennen Handlungsoptionen für ihre verantwortliche Gestaltung. Damit unterstützen sie den Weg Deutschlands zu einem führenden Anbieter von vertrauenswürdiger KI sowie den Einsatz der Schlüsseltechnologie in Wirtschaft und Gesellschaft. Die Plattform Lernende Systeme wurde 2017 vom Bundesforschungsministerium auf Anregung von acatech – Deutsche Akademie der Technikwissenschaften gegründet und wird von einem Lenkungskreis gesteuert. Die Leitung der Plattform liegt bei Dorothee Bär (Bundesministerin für Forschung, Technologie und Raumfahrt) und Jan Wörner (Präsident acatech).
https://www.plattform-lernende-systeme.de/files/Downloads/Publikationen/Whitepap... - Whitepaper "Nachvollziehbare KI: Erklären, für wen, was und wofür"
https://www.plattform-lernende-systeme.de/id-3-fragen-an-newsreader/erklaerbare-... - Interview mit Wojciech Samek, Professor für maschinelles Lernen und Kommunikation an der TU Berlin, Leiter der Abteilung für Künstliche Intelligenz und der Explainable AI Group am Fraunhofer Heinrich-Hertz-Institut (HHI) Berlin und Mitglied der Platform Lernende Systeme
Nachvollziehbare KI. Erklären, für wen, was und wofür
Copyright: Plattform Lernende Systeme
Zentrale Fragestellungen zu XAI nach Zielgruppen
Copyright: Plattform Lernende Systeme
Merkmale dieser Pressemitteilung:
Journalisten, jedermann
Elektrotechnik, Gesellschaft, Informationstechnik, Maschinenbau, Wirtschaft
überregional
Forschungs- / Wissenstransfer, Wissenschaftliche Publikationen
Deutsch
Sie können Suchbegriffe mit und, oder und / oder nicht verknüpfen, z. B. Philo nicht logie.
Verknüpfungen können Sie mit Klammern voneinander trennen, z. B. (Philo nicht logie) oder (Psycho und logie).
Zusammenhängende Worte werden als Wortgruppe gesucht, wenn Sie sie in Anführungsstriche setzen, z. B. „Bundesrepublik Deutschland“.
Die Erweiterte Suche können Sie auch nutzen, ohne Suchbegriffe einzugeben. Sie orientiert sich dann an den Kriterien, die Sie ausgewählt haben (z. B. nach dem Land oder dem Sachgebiet).
Haben Sie in einer Kategorie kein Kriterium ausgewählt, wird die gesamte Kategorie durchsucht (z.B. alle Sachgebiete oder alle Länder).