idw - Informationsdienst
Wissenschaft
• LMU-Forscherinnen und -Forscher diskutieren im Rahmen der KI Lectures ethische Herausforderungen durch Künstliche Intelligenz.
• Im Zentrum der Veranstaltung stand die Frage, wer Verantwortung für KI-gesteuerte Handlungen trägt und was vertrauenswürdige KI ausmacht.
• An KI selbst kann Verantwortung nicht delegiert werden, da sie durch Algorithmen gesteuert ist und keine eigenen Entscheidungen trifft. Stattdessen sollte von Verantwortungsdiffusion und kollektiver Verantwortung gesprochen werden.
Im Rahmen der virtuellen Veranstaltungsreihe „KI Lectures“ an der LMU diskutierten LMU-Wissenschaftlerinnen und -Wissenschaftler über ethische Aspekte von Künstlicher Intelligenz. Zentrales Thema war dabei die Frage nach der Verantwortung. Um sie beantworten zu können, ist es hilfreich, sich mit dem Unterschied zwischen Mensch und Maschine aus philosophischer Sicht auseinanderzusetzen, wie Timo Greger, Wissenschaftlicher Koordinator an der Fakultät für Philosophie, Wissenschaftstheorie und Religionswissenschaft, ausführte. „Zusammenfassend kann man sagen, wir Menschen sind von Gründen geleitet. Eine KI dagegen ist durch Algorithmen gesteuert“, so Greger. „Dieser kategoriale Unterschied hilft, einordnen zu können, wer in gewissen Fällen die Verantwortung trägt, etwa bei Diskriminierungen oder Fehlverhalten durch Künstliche Intelligenz.“
Im Zusammenhang mit KI kommt die Frage nach der Verantwortung vor allem dann auf, wenn es um die Folgen ihres Einsatzes geht, insbesondere wenn Fehler eintreten. Die mit einem Forschungspreis ausgezeichnete Absolventin Felicia Kuckertz diskutierte dieses Thema im Kontext von Militärrobotern und anderen vollautonomen Systemen. „Um Verantwortung tragen zu können, muss ein Subjekt im klassischen Sinne handlungsfähig sein, also Entscheidungen treffen können“, so Kuckertz. Ihrer Ansicht nach trifft all dies auf eine KI nicht zu, deshalb lasse sich eine Verantwortung für das Verhalten nicht an die KI selbst delegieren. Stattdessen sieht sie verschiedene Instanzen in der Verantwortung, zu denen unterschiedliche Personengruppen gehören, etwa Entwickler, Hersteller sowie politische und gesellschaftliche Akteure.
Damit möglichst wenig Fehler beim Einsatz etwa von autonomen Fahrzeugen oder Pflegerobotern auftreten, muss KI-gesteuerte Software vertrauenswürdig sein. Fiorella Battaglia, Privatdozentin am Lehrstuhl für Philosophie und politische Theorie, führte aus, dass dieser Begriff mit normativen Erwartungen verbunden ist: „Vertrauenswürdige KI zeichnet sich durch drei Komponenten aus: Sie sollte rechtmäßig, ethisch und robust sein.“ In der Praxis könne es allerdings zu Spannungen kommen, etwa weil das System nicht durchschaubar ist oder es zu Diskriminierungen führt.
Die Vorträge und die Diskussion, moderiert von Prof. Dr. Dr. h.c. Martin Wirsing, Professor für Informatik und Experte im Bereich Programmierung, Softwaretechnik und -Entwicklung, sind ab sofort auf dem Youtube-Kanal der LMU unter https://youtu.be/m8vPb96ZXrs zu finden.
Merkmale dieser Pressemitteilung:
Journalisten
Gesellschaft, Philosophie / Ethik
überregional
Forschungs- / Wissenstransfer, Forschungsprojekte
Deutsch
Sie können Suchbegriffe mit und, oder und / oder nicht verknüpfen, z. B. Philo nicht logie.
Verknüpfungen können Sie mit Klammern voneinander trennen, z. B. (Philo nicht logie) oder (Psycho und logie).
Zusammenhängende Worte werden als Wortgruppe gesucht, wenn Sie sie in Anführungsstriche setzen, z. B. „Bundesrepublik Deutschland“.
Die Erweiterte Suche können Sie auch nutzen, ohne Suchbegriffe einzugeben. Sie orientiert sich dann an den Kriterien, die Sie ausgewählt haben (z. B. nach dem Land oder dem Sachgebiet).
Haben Sie in einer Kategorie kein Kriterium ausgewählt, wird die gesamte Kategorie durchsucht (z.B. alle Sachgebiete oder alle Länder).