• LMU-Forscherinnen und -Forscher diskutieren im Rahmen der KI Lectures ethische Herausforderungen durch Künstliche Intelligenz.
• Im Zentrum der Veranstaltung stand die Frage, wer Verantwortung für KI-gesteuerte Handlungen trägt und was vertrauenswürdige KI ausmacht.
• An KI selbst kann Verantwortung nicht delegiert werden, da sie durch Algorithmen gesteuert ist und keine eigenen Entscheidungen trifft. Stattdessen sollte von Verantwortungsdiffusion und kollektiver Verantwortung gesprochen werden.
Im Rahmen der virtuellen Veranstaltungsreihe „KI Lectures“ an der LMU diskutierten LMU-Wissenschaftlerinnen und -Wissenschaftler über ethische Aspekte von Künstlicher Intelligenz. Zentrales Thema war dabei die Frage nach der Verantwortung. Um sie beantworten zu können, ist es hilfreich, sich mit dem Unterschied zwischen Mensch und Maschine aus philosophischer Sicht auseinanderzusetzen, wie Timo Greger, Wissenschaftlicher Koordinator an der Fakultät für Philosophie, Wissenschaftstheorie und Religionswissenschaft, ausführte. „Zusammenfassend kann man sagen, wir Menschen sind von Gründen geleitet. Eine KI dagegen ist durch Algorithmen gesteuert“, so Greger. „Dieser kategoriale Unterschied hilft, einordnen zu können, wer in gewissen Fällen die Verantwortung trägt, etwa bei Diskriminierungen oder Fehlverhalten durch Künstliche Intelligenz.“
Im Zusammenhang mit KI kommt die Frage nach der Verantwortung vor allem dann auf, wenn es um die Folgen ihres Einsatzes geht, insbesondere wenn Fehler eintreten. Die mit einem Forschungspreis ausgezeichnete Absolventin Felicia Kuckertz diskutierte dieses Thema im Kontext von Militärrobotern und anderen vollautonomen Systemen. „Um Verantwortung tragen zu können, muss ein Subjekt im klassischen Sinne handlungsfähig sein, also Entscheidungen treffen können“, so Kuckertz. Ihrer Ansicht nach trifft all dies auf eine KI nicht zu, deshalb lasse sich eine Verantwortung für das Verhalten nicht an die KI selbst delegieren. Stattdessen sieht sie verschiedene Instanzen in der Verantwortung, zu denen unterschiedliche Personengruppen gehören, etwa Entwickler, Hersteller sowie politische und gesellschaftliche Akteure.
Damit möglichst wenig Fehler beim Einsatz etwa von autonomen Fahrzeugen oder Pflegerobotern auftreten, muss KI-gesteuerte Software vertrauenswürdig sein. Fiorella Battaglia, Privatdozentin am Lehrstuhl für Philosophie und politische Theorie, führte aus, dass dieser Begriff mit normativen Erwartungen verbunden ist: „Vertrauenswürdige KI zeichnet sich durch drei Komponenten aus: Sie sollte rechtmäßig, ethisch und robust sein.“ In der Praxis könne es allerdings zu Spannungen kommen, etwa weil das System nicht durchschaubar ist oder es zu Diskriminierungen führt.
Die Vorträge und die Diskussion, moderiert von Prof. Dr. Dr. h.c. Martin Wirsing, Professor für Informatik und Experte im Bereich Programmierung, Softwaretechnik und -Entwicklung, sind ab sofort auf dem Youtube-Kanal der LMU unter https://youtu.be/m8vPb96ZXrs zu finden.
Criteria of this press release:
Journalists
Philosophy / ethics, Social studies
transregional, national
Research projects, Transfer of Science or Research
German
You can combine search terms with and, or and/or not, e.g. Philo not logy.
You can use brackets to separate combinations from each other, e.g. (Philo not logy) or (Psycho and logy).
Coherent groups of words will be located as complete phrases if you put them into quotation marks, e.g. “Federal Republic of Germany”.
You can also use the advanced search without entering search terms. It will then follow the criteria you have selected (e.g. country or subject area).
If you have not selected any criteria in a given category, the entire category will be searched (e.g. all subject areas or all countries).