idw – Informationsdienst Wissenschaft

Nachrichten, Termine, Experten

Grafik: idw-Logo
Science Video Project
idw-Abo

idw-News App:

AppStore

Google Play Store



Instance:
Share on: 
10/22/2025 12:05

Wenn Menschen KI-Entscheidungen verschlimmbessern

Stefanie Terp Stabsstelle Kommunikation, Events und Alumni
Technische Universität Berlin

    TU Berlin Studie zeigt auf, warum Mensch und Maschine noch kein gutes Team sind

    Die Technische Universität Berlin hat in einem neuen Positionspapier ein unbequemes Ergebnis zusammengefasst: Mensch-KI-Teams treffen oft schlechtere Entscheidungen als die KI allein. Was paradox klingt, zeigt sich in vielen Feldern wie Radiologie, Sicherheitstechnik oder Prozessüberwachung. Je zuverlässiger die Systeme, desto größer die Gefahr, dass Menschen die korrekten Empfehlungen der KI überstimmen oder ignorieren.

    Die Ursachen sind vielfältig, zwei aber stechen heraus. Erstens: Menschen wollen ihrer Rolle als Entscheider*innen gerecht werden. Wer nur abnickt, fühlt sich überflüssig und greift ein, auch wenn das System recht hat. Zweitens: Die Zuverlässigkeit moderner KI wird unterschätzt. Seltene Fehler erscheinen überbewertet, während die hohe Gesamtleistung kaum wahrgenommen wird. So entsteht ein Muster, das die Autor*innen der TU Berlin in zahlreichen Studien beobachten: „Menschen greifen unnötig ein und verschlimmbessern so die Gesamtleistung“, sagt Dr. Tobias Rieger, Psychologe am Fachgebiet Handlungs- und Automationspsychologie der TU Berlin und Erstautor des Positionspapiers. So überschreiben Radiolog*innen korrekte Befunde, weil sie ihrer Rolle als finale Entscheider*innen gerecht werden wollen. Und am Flughafen entscheiden Gepäckscreener*innen zwar besser mit KI-Assistenz, jedoch häufig auch nicht so gut wie das System allein.

    Konflikt mit EU-Regulierung

    Brisant ist das auch mit Blick auf das EU Gesetz zur Regulierung von KI (AI Act). Dieser fordert „wirksame menschliche Aufsicht“ für Hochrisikoanwendungen. Doch wie soll ein Radiologe oder eine Personalabteilung Verantwortung übernehmen, wenn die Maschine statistisch klar überlegen ist? Wenn Menschen systematisch schlechter entscheiden als die KI, stellt sich die Frage, wie Aufsicht in der Praxis gestaltet werden kann, ohne die Gesamtleistung zu verschlechtern.

    Erklärbare KI als Schlüssel

    Welche Lösungen sind denkbar? Ein Weg ist laut der Forscher*innen mehr Transparenz. Doch klassische Ansätze der „erklärbaren KI“ reichten nicht: Zu wissen, was ein tiefes neuronales Netzwerk ist, nützt der Radiologin wenig. Stattdessen müsse es um verhaltensleitende Erklärungen gehen. Systeme sollten ihre Stärken und Schwächen klar kommunizieren, zum Beispiel: „Bei dieser Patientengruppe ist meine Prognose für eine Krebserkrankung besonders zuverlässig.“ So wüssten Nutzer*innen, wann Zustimmung angebracht ist und wann sich ein kritischer Blick lohnt.

    Auf dem Weg zur Synergie

    Noch weiter reichen adaptive Konzepte. Die Maschine könnte lernen, wo der Mensch stark ist und ihm in diesen Fällen die Entscheidung überlassen. Umgekehrt könnte sie nur bei Unsicherheiten Empfehlungen geben. „Das Ziel ist eine echte Synergie, in der Mensch und Maschine sich sinnvoll ergänzen. Dafür gibt es keine One-Size-Fits-All-Lösung, sondern es braucht maßgeschneiderte Ansätze für unterschiedliche Anwendungsfelder“, betont Rieger. Deswegen sollten die späteren Nutzer*innen einer KI bereits in ihre Entwicklung mit eingebunden werden.

    Bis dahin ist es ein weiter Weg. Doch das Positionspapier macht deutlich: Der Schlüssel liegt nicht darin, Menschen aus dem Prozess zu drängen, sondern Systeme so zu gestalten, dass beide Partner*innen einander ergänzen. Erst dann können Mensch und KI gemeinsam tatsächlich bessere Entscheidungen treffen.


    Contact for scientific information:

    Dr. Tobias Rieger
    Fachgebiet Handlungs- und Automatenpsychologie
    Fakultät V - Verkehrs- und Maschinensysteme
    E-Mail: t.rieger@tu-berlin.de

    Prof. Dr. Linda Onnasch
    Fachgebietsleiterin Handlungs- und Automatenpsychologie
    Fakultät V - Verkehrs- und Maschinensysteme
    E-Mail: linda.onnasch@tu-berlin.de
    Tel.: +49 30 314-77037


    More information:

    https://ieeexplore.ieee.org/abstract/document/11111703 Positionspapier mit weiteren Ergebnissen


    Images

    Criteria of this press release:
    Journalists, Scientists and scholars, all interested persons
    Information technology, Medicine, Psychology
    transregional, national
    Research results, Scientific Publications
    German


     

    Help

    Search / advanced search of the idw archives
    Combination of search terms

    You can combine search terms with and, or and/or not, e.g. Philo not logy.

    Brackets

    You can use brackets to separate combinations from each other, e.g. (Philo not logy) or (Psycho and logy).

    Phrases

    Coherent groups of words will be located as complete phrases if you put them into quotation marks, e.g. “Federal Republic of Germany”.

    Selection criteria

    You can also use the advanced search without entering search terms. It will then follow the criteria you have selected (e.g. country or subject area).

    If you have not selected any criteria in a given category, the entire category will be searched (e.g. all subject areas or all countries).