idw – Informationsdienst Wissenschaft

Nachrichten, Termine, Experten

Grafik: idw-Logo
Grafik: idw-Logo

idw - Informationsdienst
Wissenschaft

Science Video Project
idw-Abo

idw-News App:

AppStore

Google Play Store



Instance:
Share on: 
02/13/2025 12:30

KI in der Medizin – eine Gefahr für die Patientenautonomie?

Dr. Julia Hagn Wissenschaftskommunikation
Max-Planck-Institut für Sozialrecht und Sozialpolitik

    Der Einsatz künstlicher Intelligenz (KI) in der Medizin droht die Fähigkeit von Patient*innen zu untergraben, personalisierte Entscheidungen zu treffen. Eine neue Forschungsarbeit von Dr. Christian Günther, Wissenschaftler am Max-Planck-Institut für Sozialrecht und Sozialpolitik, analysiert anhand der Fallstudien von Großbritannien und Kalifornien, ob und wie das Recht dieser Gefahr für die Patientenautonomie begegnen kann.

    Der Rechtswissenschaftler kommt zu dem Ergebnis, dass das Recht eine proaktive Dynamik besitzt, mit der es sehr gut auf Innovationen reagieren kann – und dies sogar besser als außerrechtliche Regulierungsansätze. "Das Recht ist entgegen weit verbreiteter Annahmen eben kein Hindernis, das der Entwicklung und dem Einsatz zukunftsweisender Technik nur im Weg steht. Im Gegenteil: Es gestaltet die Entwicklung aktiv mit und spielt eine zentrale Rolle bei der Steuerung neuer Technologien", erklärt Günther.

    Derzeit wird eine Vielzahl klinischer KI-Systeme für den Einsatz in Gesundheitssystemen weltweit zugelassen. KI wird dabei als eine Technologie definiert, die in der Lage ist, Aufgaben zu übernehmen, die bislang von menschlichen Expert*innen mithilfe ihres Wissens, ihrer Fähigkeiten und ihrer Intuition gelöst wurden. Besonders der Ansatz des maschinellen Lernens hat die Entwicklung klinischer KI, die derartige Fähigkeiten besitzt, maßgeblich vorangetrieben. Bei allen damit verbundenen Vorteilen können KI-Systeme aber eine potenzielle Bedrohung im Hinblick auf die gesetzlich vorgeschriebene Patientenaufklärung und -einwilligung darstellen. Diese Verpflichtung verlangt von medizinischem Fachpersonal, Patient*innen ausreichend Informationen offenzulegen, um das Ungleichgewicht der Fachkenntnisse zwischen beiden Seiten auszugleichen.

    In seiner Forschung identifiziert Christian Günther vier spezifische Probleme, die in diesem Zusammenhang auftreten können:
    1. Der Einsatz klinischer KI erzeugt ein gewisses Maß an Unsicherheit, das auf der Eigenart von KI-generiertem Wissen und den Schwierigkeiten bei der wissenschaftlichen Überprüfung dieses Wissens beruht.
    2. Einige ethisch bedeutsame Entscheidungen können von der KI relativ unabhängig getroffen werden, das heißt, ohne wesentliche Einbindung der Patient*innen.
    3. Die Fähigkeit der Patient*innen, im Rahmen des medizinischen Entscheidungsprozesses rationale Entscheidungen zu treffen, kann erheblich beeinträchtigt werden.
    4. Patient*innen könnten Schwierigkeiten haben, angemessen zu reagieren, wenn nicht offensichtlich ist, dass menschliche Expertise durch KI ersetzt wurde.

    Um diesen Problemen zu begegnen, untersuchte Günther die Normen, die dem Prinzip der informierten Patienteneinwilligung in Großbritannien und Kalifornien zugrunde liegen, und zeigt anhand eines konkreten Regulierungsvorschlags auf, wie gesetzliche Regelungen gezielt weiterentwickelt werden können, um sowohl den technologischen Fortschritt zu fördern als auch die Rechte von Patient*innen zu wahren.


    Contact for scientific information:

    Dr. Christian Günther
    Wissenschaftlicher Mitarbeiter

    Dr. Julia Hagn
    Wissenschaftskommunikation
    Tel.: 089/38602428
    Email: presse@mpisoc.mpg.de


    Original publication:

    Günther, Christian: Artificial Intelligence, Patient Autonomy and Informed Consent, Nomos: Baden-Baden 2024.

    Open Access: https://www.nomos-elibrary.de/10.5771/9783748948919/artificial-intelligence-pati...


    Images

    Criteria of this press release:
    Journalists, Scientists and scholars, Students
    Law, Medicine
    transregional, national
    Research results
    German


     

    Help

    Search / advanced search of the idw archives
    Combination of search terms

    You can combine search terms with and, or and/or not, e.g. Philo not logy.

    Brackets

    You can use brackets to separate combinations from each other, e.g. (Philo not logy) or (Psycho and logy).

    Phrases

    Coherent groups of words will be located as complete phrases if you put them into quotation marks, e.g. “Federal Republic of Germany”.

    Selection criteria

    You can also use the advanced search without entering search terms. It will then follow the criteria you have selected (e.g. country or subject area).

    If you have not selected any criteria in a given category, the entire category will be searched (e.g. all subject areas or all countries).