idw - Informationsdienst
Wissenschaft
Menschen vertrauen medizinischen Ratschlägen weniger, wenn sie vermuten, dass eine künstliche Intelligenz an deren Erstellung beteiligt ist. Das ist das zentrale Ergebnis einer Studie Würzburger Psychologen.
Früher haben die Menschen Dr. Google befragt, wenn sie wissen wollten, ob ihre Symptome für eine leichte Magenverstimmung sprechen oder doch für Krebs im Endstadium; heute wenden sich dafür zunehmend an ChatGPT. Mit der Folge, dass niedergelassene Mediziner sich über Patientinnen und Patienten beschweren, die mit fertigen Diagnosen aus dem Internet in die Sprechzimmer kommen und sich nur mit Mühe davon überzeugen lassen, dass sie nicht schwer erkrankt sind.
Tatsächlich ist das Vertrauen in die medizinische Kompetenz einer künstlichen Intelligenz (KI) längst nicht so ausgeprägt, wie es den Anschein hat. Das ist zumindest das Ergebnis einer neuen Studie, die jetzt in der Fachzeitschrift Nature Medicine veröffentlicht wurde.
Ein ausgeprägtes Misstrauen gegenüber der KI
Sie zeigt, dass Menschen medizinische Ratschläge als weniger zuverlässig und empathisch beurteilen, wann immer eine KI daran beteiligt war. Das war selbst dann der Fall, wenn die Studienteilnehmer annehmen konnten, dass ein Arzt oder eine Ärztin unter Zuhilfenahme einer KI diese Empfehlungen erstellt hatte. Konsequenterweise waren die Befragten bei KI-unterstützten Entscheidungen auch in geringerem Maße dazu bereit, diesen zu folgen – verglichen mit Ratschlägen, die ausschließlich auf ärztlicher Expertise basierten.
Verantwortlich für diese Studie von Seiten der Julius-Maximilians-Universität (JMU) sind Moritz Reis und Professor Wilfried Kunde vom Lehrstuhl für Psychologie III. Die Studie entstand in Zusammenarbeit mit Florian Reis von der Pfizer Pharma GmbH.
„Das Setting unserer Studie ist angelehnt an eine Digital Health-Plattform, auf der Informationen zu medizinischen Fragestellungen eingeholt werden können – also ein Setting, welches mit der zunehmenden Digitalisierung an Relevanz dazugewinnen wird“, beschreiben die Autoren ihr Vorgehen.
Keine Unterschiede in der Verständlichkeit
Mehr als 2.000 Studienteilnehmerinnen und -teilnehmer erhielten im Rahmen des Experiments identische medizinische Ratschläge und sollten diese auf ihre Verlässlichkeit, Verständlichkeit und Empathie bewerten. Der einzige Unterschied: Während eine Gruppe die Information erhielt, diese Ratschläge stammten von einem Arzt beziehungsweise einer Ärztin, hieß es für die zweite Gruppe, ein KI-gestützter Chatbot sei dafür verantwortlich. Die dritte Gruppe wurde in dem Glauben gelassen, ein Arzt oder eine Ärztin habe die Empfehlung unter Zuhilfenahme einer KI erstellt.
Die Ergebnisse sind eindeutig: Menschen vertrauen medizinischen Empfehlungen weniger, wenn sie vermuten, dass KI beteiligt ist. Das gilt auch dann, wenn sie glauben, dass ärztliches Personal daran mitgewirkt hat. Auch in der Kategorie „Empathie“ schneidet der ärztliche Rat besser ab als die beiden KI-Varianten. Einzig unter dem Aspekt der Verständlichkeit zeigen sich kaum Unterschiede zwischen den drei Gruppen. Anscheinend haben Menschen unter diesem Gesichtspunkt keine Vorbehalte gegen die Technik.
Vertrauen ist wichtig für den Behandlungserfolg
„Das ist ein wichtiger Befund, da Vertrauen in medizinische Diagnosen und Therapieempfehlungen bekanntermaßen ein sehr wichtiger Faktor für den Behandlungserfolg ist“, bewerten die Autoren das Studienergebnis. Gerade vor dem Hintergrund einer möglichen Entbürokratisierung und Entlastung des ärztlichen Arbeitsalltags durch eine Kooperation mit KI erhalten diese Erkenntnisse einen besonderen Stellenwert. Ihrer Ansicht nach bildet die Studie somit einen Startpunkt für eine detaillierte Erforschung der Bedingungen dafür, wie KI in Diagnostik und Therapie eingesetzt werden kann, ohne das Vertrauen und die Mitwirkung von Patientinnen und Patienten zu gefährden.
Moritz Reis, Lehrstuhl für Psychologie III, T: +49 931 31-81629, moritz.reis@uni-wuerzburg.de
Influence of believed AI involvement on the perception of digital medical advice. Moritz Reis, Florian Reis, Wilfried Kunde. DOI: 10.1038/s41591-024-03180-7
Criteria of this press release:
Journalists, Scientists and scholars
Information technology, Medicine, Psychology
transregional, national
Research results
German
You can combine search terms with and, or and/or not, e.g. Philo not logy.
You can use brackets to separate combinations from each other, e.g. (Philo not logy) or (Psycho and logy).
Coherent groups of words will be located as complete phrases if you put them into quotation marks, e.g. “Federal Republic of Germany”.
You can also use the advanced search without entering search terms. It will then follow the criteria you have selected (e.g. country or subject area).
If you have not selected any criteria in a given category, the entire category will be searched (e.g. all subject areas or all countries).