idw – Informationsdienst Wissenschaft

Nachrichten, Termine, Experten

Grafik: idw-Logo
Grafik: idw-Logo

idw - Informationsdienst
Wissenschaft

Science Video Project
idw-Abo

idw-News App:

AppStore

Google Play Store



Instance:
Share on: 
09/04/2023 13:32

Beratende KI-Assistenten: In die Verantwortung genommen

LMU Stabsstelle Kommunikation und Presse
Ludwig-Maximilians-Universität München

    Auch wenn Menschen KI-basierte Assistenten als reine Werkzeuge betrachten, schreiben sie ihnen Mitverantwortung für Entscheidungen zu, wie eine neue Studie zeigt.

    In Zukunftsszenarien navigieren KI-basierte Systeme autonome Fahrzeige völlig selbständig durch den Verkehr. Experimentelle Ergebnisse haben gezeigt, dass solche futuristischen KI-Systeme von Probandinnen und Probanden als ebenso verantwortlich wie Menschen eingestuft werden, wenn sie eigenständig Verkehrsentscheidungen treffen. Von dieser Art von Autonomie sind derzeit gängige KI-Assistenten jedoch weit entfernt. Sie versorgen menschliche Nutzer lediglich mit unterstützenden Informationen wie Navigations- und Fahrhilfen. Wer ist also in diesen alltäglichen Fällen verantwortlich, wenn etwas richtig oder falsch läuft? Der menschliche Nutzer? Oder der KI-Assistent? Ein Team um Louis Longin vom Lehrstuhl für Philosophie des Geistes hat nun eben diese Fragen untersucht.

    "Wir alle haben intelligente Assistenten in unseren Taschen", sagt Longin. „Aber ein Großteil der experimentellen Ergebnisse, die wir zu Verantwortungslücken haben, konzentriert sich auf Roboter oder autonome Fahrzeuge, bei denen die KI buchstäblich auf dem Fahrersitz sitzt und für uns entscheidet. Die Untersuchung von Fällen, in denen wir zwar immer noch die endgültigen Entscheidungen treffen, die KI aber eher wie ein ausgeklügeltes Instrument einsetzen, ist daher wichtig.“

    Der auf die Interaktion zwischen Mensch und KI spezialisierte Philosoph Longin untersuchte gemeinsam mit seinen Kollegen Dr. Bahador Bahrami und Prof. Ophelia Deroy, Inhaberin des Lehrstuhls für Philosophy of Mind, wie 940 Versuchspersonen einen menschlichen Fahrer beurteilten, der entweder einen intelligenten KI-gestützten verbalen Assistenten, einen intelligenten KI-gestützten taktilen Assistenten oder ein KI-freies Navigationsinstrument benutzte. Zudem gaben die Teilnehmenden an, ob sie die Navigationshilfe als verantwortlich oder als bloßes Hilfsmittel einschätzten.

    Ambivalenter Status von KI-Assistenten

    Die Ergebnisse zeigen eine Ambivalenz auf: Einerseits wurden die intelligenten Assistenten nur als Hilfsmittel betrachtet, andererseits wurde ihnen aber auch Mitverantwortung für den Erfolg oder Misserfolg der menschlichen Fahrer zugeschrieben. Bei der nicht von einer KI gesteuerten Navigationshilfe dagegen gab es keine derartige Aufteilung der Verantwortung.

    Nicht weniger überraschend für die Autoren war, dass die intelligenten Assistenten eher für positive als für negative Ereignisse verantwortlich gemacht wurden. "Die Menschen legen vielleicht unterschiedliche moralische Maßstäbe für Lob und Tadel an. Wenn ein Unfall abgewendet wird und kein Schaden entsteht, werden die Standards gelockert. Dadurch weisen Menschen nichtmenschlichen Systemen eher Lob als Tadel zu", vermutet Bahrami, Experte für kollektive Verantwortung.

    Sprache spielt keine Rolle

    In der Studie fanden die Autoren keinen Unterschied zwischen intelligenten Assistenten, die Sprache verwendeten, und solchen, die ihre Nutzer nur durch ein taktiles Vibrieren des Rads alarmierten. „Beide lieferten in diesem Fall die gleichen Informationen: 'Hey, Vorsicht, da vorne ist etwas', aber natürlich liefert ChatGPT in der Praxis viel mehr Informationen", sagt Ophelia Deroy, die die widersprüchliche Haltung von Menschen gegenüber künstlicher Intelligenz als eine Form animistischen Glaubens erforscht. Neuartige sprachbasierte KI-Systeme wie ChatGPT lieferten in der Praxis jedoch viel mehr Informationen. "Je reichhaltiger die Interaktion ist, desto einfacher ist es, sie zu vermenschlichen", sagt Deroy.

    „Zusammenfassend lässt sich sagen, dass unsere Ergebnisse die Idee unterstützen, dass KI-Assistenten als etwas mehr als bloße Empfehlungswerkzeuge angesehen werden, aber dennoch weit von menschlichen Standards entfernt bleiben", sagt Longin.

    Die Autoren sind überzeugt, dass die Ergebnisse der neuen Studie weitreichende Auswirkungen auf die Gestaltung und den gesellschaftlichen Diskurs rund um KI-Assistenten haben werden: „Auch bei der Entwicklung und dem Einsatz intelligenter Assistenten sollte deren Einfluss auf soziale und moralische Normen berücksichtigt werden", schließt Longin.


    Contact for scientific information:

    Dr. Louis Longin
    Cognition, Values and Behaviour (CVBE)
    Fakultät für Philosophie, Wissenschaftstheorie und Religionswissenschaften
    Philosophy of Mind
    Louis.Longin@lrz.uni-muenchen.de
    https://www.philosophie.uni-muenchen.de/lehreinheiten/phil_of_mind/personen/loui...


    Original publication:

    L. Longin, B. Bahrami, O. Deroy: Intelligence brings responsibility - Even smart AI assistants are held responsible. iScience 2023
    https://www.cell.com/iscience/fulltext/S2589-0042(23)01571-7


    Images

    Criteria of this press release:
    Journalists
    Philosophy / ethics, Psychology, Social studies
    transregional, national
    Research results
    German


     

    Help

    Search / advanced search of the idw archives
    Combination of search terms

    You can combine search terms with and, or and/or not, e.g. Philo not logy.

    Brackets

    You can use brackets to separate combinations from each other, e.g. (Philo not logy) or (Psycho and logy).

    Phrases

    Coherent groups of words will be located as complete phrases if you put them into quotation marks, e.g. “Federal Republic of Germany”.

    Selection criteria

    You can also use the advanced search without entering search terms. It will then follow the criteria you have selected (e.g. country or subject area).

    If you have not selected any criteria in a given category, the entire category will be searched (e.g. all subject areas or all countries).