idw – Informationsdienst Wissenschaft

Nachrichten, Termine, Experten

Grafik: idw-Logo
Grafik: idw-Logo

idw - Informationsdienst
Wissenschaft

Science Video Project
idw-Abo

idw-News App:

AppStore

Google Play Store



Instance:
Share on: 
03/13/2024 10:15

Verantwortung nicht in Algorithmen auflösen / ISM-Informatiker Marcus Becker: KI-Black-Box ließe sich öffnen

Maxie Strate Marketing & Communications
International School of Management (ISM)

    Dortmund, 13.03.2024. Menschliche Anlageberater können schadensersatzpflichtig werden – prinzipiell gilt das auch für automatisierte Berater. Doch wer steckt dahinter? An diesem Beispiel greift Prof. Dr. Marcus Becker eine zentrale Frage auf, die sich beim Einsatz von künstlicher Intelligenz (KI) immer eindringlicher stellt. Umso mehr, als die auffällige Intransparenz von KI-Prozessen nahelegt, dass dies fast methodischen Charakter hat. Der Experte der International School of Management (ISM) zeigt, wo sich praktisch ansetzen lässt, um KI-Black Boxen zu öffnen.

    Mit Methoden des maschinellen Lernens beschäftigt sich Marcus Becker seit mehr als fünf Jahren. Bei der Analyse der Lernmethoden von KI fasziniert den Mathematiker am meisten die Anwendung seiner Disziplin: „Machine Learning Algorithmen verbinden mehrere Teilbereiche der Mathematik auf überaus elegante Weise. Was mich überrascht, wie einfach es heutzutage ist, komplexe Programmier-Codes schnell zu erzeugen – mit Chat GPT sogar ohne die Programmiersprache zu beherrschen.“

    Ergebnisse der KI faszinieren Fachwelt wie Öffentlichkeit, die viel Hoffnungen auf diese Methode setzen, mit der vorhandene Sachverhalte herausgesucht und nach dem Wahrscheinlichkeitsprinzip auf verblüffend brauchbare Weise kombiniert werden. Hier hakt Becker ein. Will man diese komplexen Modelle nachvollziehen, kommen ernste Fragen auf: „Künstliche neuronale Netze zählen zu den sogenannten Black Box Algorithmen. Wir können im Vorhinein also nicht genau feststellen, wie das Modell mit gegebenen Input-Informationen umgehen wird.“

    Fluch und Segen zugleich?

    Deshalb regt Becker an, herauszufinden, nach welchen Kriterien der Algorithmus Informationen als „beste oder passende Sachverhalte“ identifiziert. Zumal es quasi sich selbstverstärkende Algorithmen gibt: „Das geschieht durch kontinuierliche Wechselwirkungen mit ihrer Umwelt. Hier spielt die Einschätzung der Wahrscheinlichkeit, in welcher Art und Weise Algorithmen in Zukunft mit ihrer Umwelt weiter interagieren können, natürlich eine maßgebende Rolle.“

    Als Stochastiker freut Becker sich darüber, wie gut die Anwendung von Wahrscheinlichkeitstheorie in der Praxis funktioniert. Aber als Forscher fühlt er sich auch der Wahrheitssuche verpflichtet. Es geht ihm dabei vor allem um das Problem der Überprüfbarkeit. Künstlich erzeugte Vorhersagen durch KI sollte man nicht ungeprüft übernehmen, zumal, wenn es um tragende Entscheidungen geht. Wichtig wäre ein dokumentierter Nachweis für die Richtigkeit der KI-Ergebnisse: „Nur so können Black Box Algorithmen als Hebel der menschlichen Entscheidungskompetenz sinnvoll eingesetzt werden.“

    Becker geht der Frage konkret am Fall der automatisierten Anlageberatung nach, die auf KI-Methoden fußt. Ungeklärt sind dabei etwa die Haftbarkeit und die Frage des Verschuldens. Becker verweist darauf, dass das deutsche Haftungsrecht von einer Pflichtverletzung ausgeht, welche zu einem Schaden führt. Doch wie soll das geklärt werden, wenn selbst Entwickler der KI-Methoden oft nicht mehr den Fehler finden können: „Dieses Kausalitätsproblem bereitet große Probleme. Eines davon ist die Beweisbarkeit von Pflichtverletzungen. Daran knüpft sich die Frage, wer in solchen Konstellationen die Beweislast trägt. Da KI-Systeme nicht als eine eigenständige Rechtspersönlichkeit gelten, ist nach aktueller Rechtslage daher auf das Fehlverhalten des Nutzers abzustellen, der sich des Black Box Algorithmus bedient, nach §280 Abs. 1 Bürgerliches Gesetzbuch.“ Anders gesagt: Der Nutzer ist selbst schuld, wenn er Black Box Algorithmen vertraut.

    Wenn sich Wissensblasen verfestigen

    Gesetzgeber oder Regulierungsstellen sind gefragt. Den kürzlichen Vorstoß der EU zur KI-Regulierung, den sogenannten „EU AI Act“, begrüßt Becker, bleibt aber auch skeptisch: „Der Regulierungsvorstoß zur KI-Haftung weist in die richtige Richtung. Eine einheitliche KI-Regelung ist begrüßenswert. Ob sie jedoch die Risiken beim Einsatz von KI verringern, bleibt offen, zum Beispiel, weil die Frage nach der eigenständigen Rechtspersönlichkeit ungeklärt ist.

    Weiterhin führt der Mathematik-Professor vor Augen, wohin sich die Gesellschaft entwickelt, wenn sie sich den Black Box Algorithmen ohne Hinterfragung ergibt. Auch gibt Becker zu bedenken, dass eine Technik, die kontinuierlich das bereits Vorhandene und Erlernte abgreift und zusammenstellt, „Auswirkungen auf unseren Erkenntnisstand im Allgemeinen hat, wenn sich unser Informationsstand nicht mehr erweitern wird. Wir bewegen uns dann in einer Wissensblase. Das dürfte den Fortschritt zumindest verlangsamen.“

    Transparenzalgorithmen einsetzen

    Dabei liegt ein Ausweg nahe, wie Marcus Becker hinzufügt - die Überhand über die Algorithmen zu behalten: „Ich fordere, Transparenzalgorithmen einzusetzen, sogenannte Explainable AI oder kurz XAI.“ So ließe sich die Black Box von KI-Methoden öffnen. Denn: „Es gibt eine Vielzahl von Erklärungsmodellen (wie z.B. LIME und SHAP), die quasi universal anwendbar sind. Allerdings nutzen die Firmen diese kaum, auch weil sie nicht gesetzlich vorgeschrieben sind. Sie würden allerdings das Nutzervertrauen erhöhen.

    KI gesteuerte finanzielle Planungsinstrumente, sogenannte „Robo Advisor“, ließen sich grundsätzlich in Einklang mit Datenschutzbestimmungen bringen. Dennoch gilt: „Ohne zusätzliche Erklärungssysteme kann man die Entscheidungen der Black Boxen nicht interpretieren und auf ihre ökonomische Gültigkeit hin prüfen“.

    Bild:
    Prof. Dr. Marcus Becker leitet den Studiengang "Business Intelligence & Data Science" M.Sc. und den Fernstudiengang "Applied Business Data Science" M.Sc. an der privaten Businesshochschule ISM.


    Contact for scientific information:

    Prof. Dr. Marcus Becker, Marcu.Becker@ism.de


    More information:

    http://presse@ism.de


    Images

    Prof. Dr. Marcus Becker leitet den Studiengang "Business Intelligence & Data Science" M.Sc. und  den Fernstudiengang "Applied Business Data Science" M.Sc. an der privaten Businesshochschule ISM.
    Prof. Dr. Marcus Becker leitet den Studiengang "Business Intelligence & Data Science" M.Sc. und den ...


    Criteria of this press release:
    Business and commerce, Journalists
    Economics / business administration, Information technology
    transregional, national
    Transfer of Science or Research
    German


     

    Help

    Search / advanced search of the idw archives
    Combination of search terms

    You can combine search terms with and, or and/or not, e.g. Philo not logy.

    Brackets

    You can use brackets to separate combinations from each other, e.g. (Philo not logy) or (Psycho and logy).

    Phrases

    Coherent groups of words will be located as complete phrases if you put them into quotation marks, e.g. “Federal Republic of Germany”.

    Selection criteria

    You can also use the advanced search without entering search terms. It will then follow the criteria you have selected (e.g. country or subject area).

    If you have not selected any criteria in a given category, the entire category will be searched (e.g. all subject areas or all countries).