Künstliche Intelligenz (KI) verbessert Prozesse und ermöglicht neue Geschäftsmodelle, birgt aber auch Risiken. Damit sichere Anwendungen zum Einsatz kommen, will die EU-Kommission KI-Systeme entsprechend ihrer Risiken regulieren. Expertinnen und Experten der Plattform Lernende Systeme halten diesen Ansatz für notwendig, aber nicht ausreichend, um vertrauenswürdige KI-Systeme zu schaffen. Sie fordern, den konkreten Anwendungskontext eines Systems zu berücksichtigen sowie Beschwerdestellen und klare Haftungsregeln. In einem aktuellen Whitepaper benennen sie zusätzliche Kriterien, um das Gefahrenpotenzial eines KI-Systems beurteilen zu können.
KI-Systeme können die medizinische Behandlung verbessern, zu einer nachhaltigeren Mobilität beitragen und Beschäftigte am Arbeitsplatz entlasten. Ihr Einsatz kann aber auch mit ethischen und sicherheitstechnischen Risiken verbunden sein, etwa wenn die Empfehlung einer Assistenz-Software zu diskriminierenden Personalentscheidungen führt oder ein autonomes Fahrzeug einen Unfall verursacht. Ziel des aktuellen Regulierungsvorschlags der Europäischen Kommission ist es daher, den Einsatz von KI-Systemen sicher und vertrauenswürdig zu machen, ohne Innovationen zu hemmen. Die EU hat dazu KI-Anwendungen nach ihrem Gefahrenpotenzial (der sogenannten Kritikalität) klassifiziert. So gehen etwa von Systemen zur intelligenten Wartung von Industriemaschinen keinerlei Gefahren aus. Sie entsprechen der niedrigsten von vier Risikostufen und bedürfen laut EU-Vorschlag keiner Regulierung. Andere denkbare KI-Anwendungen bergen indessen Risiken und müssen reguliert werden – bis hin zum Verbot, falls ihre Risiken als unannehmbar eingestuft werden, etwa Social Scoring durch staatliche Stellen.
Im Whitepaper „Kritikalität von KI-Systemen in ihren jeweiligen Anwendungskontexten“ analysieren Expertinnen und Experten der Plattform Lernende Systeme den Vorschlag zur KI-Regulierung, den die Europäische Kommission im April 2021 vorlegte und der nun im Europäischen Parlament und Ministerrat diskutiert wird. Sie konkretisieren die Kriterien, anhand derer sich die Risiken von KI-Systemen beurteilen lassen und betonen, dass KI-Systeme immer als Einzelfall und vor dem Hintergrund ihres jeweiligen Anwendungskontextes bewertet werden müssen. „Das gleiche System kann in einem Zusammenhang unproblematisch und in einem anderen höchst kritisch sein. KI für die Detektion von Hate Speech dürfte zum Beispiel zunächst als vergleichsweise unbedenklich gelten. Wenn die gleiche Anwendung aber von einem totalitären Staat genutzt wird, um kritische Stellungnahmen ausfindig zu machen und zu eliminieren, dann fällt die Bewertung gegenteilig aus“, so Jessica Heesen, Medienethikerin der Eberhard Karls Universität Tübingen und Co-Leiterin der Arbeitsgruppe „IT-Sicherheit, Privacy, Recht und Ethik“ der Plattform Lernende Systeme.
Wie kritisch ein System zu bewerten ist und wie stark es reguliert werden sollte, will die EU-Kommission im Vorhinein durch bestimmte Kriterien festlegen. Das Whitepaper der Plattform Lernende Systeme empfiehlt, folgende Fragen stärker in den Blick zu nehmen: ob die Empfehlungen oder Entscheidungen eines KI-Systems Menschenleben oder Rechtsgüter wie die Umwelt gefährden und wieviel Handlungsspielraum dem Menschen bei der Auswahl und Nutzung der Anwendung bleibt, etwa um bestimmte Funktionen abzuschalten. Nach Ansicht der Autorinnen und Autoren müssen die Kontroll- und Entscheidungsmöglichkeiten der Nutzer von KI-Systemen bei der Bewertung der Kritikalität stärker berücksichtigt werden. So ist es etwa ein Unterschied, ob eine KI-Software für den Aktienhandel Verkäufe automatisiert durchführt oder dem Aktienbesitzer lediglich Empfehlungen dafür gibt.
Ihr Fazit: Der Ansatz der Europäischen Kommission, KI-Systeme entsprechend ihres Gefahrenpotenzials zu regulieren, ist ein notwendiger Schritt auf dem Weg zu vertrauenswürdigen KI-Systemen. Insbesondere für Anwendungen mit höheren Autonomiegraden ist er jedoch nicht ausreichend. Es bestehe die Gefahr, dass die Risikoeinstufung eine Sicherheit vorgaukele, die ohne flankierende nicht-technische Maßnahmen nicht gewährleistet werden könne, so Peter Dabrock, Ethikprofessor an der Friedrich-Alexander-Universität Erlangen-Nürnberg und Mitglied der Plattform Lernende Systeme.
Beschwerdemöglichkeiten und Haftungsregeln
Generell lassen sich die Risiken von KI-Systemen nur bedingt vorhersehen. Anders als bei der Risikoeinschätzung von konventioneller Software lernen KI-Systeme selbstständig während ihres Einsatzes dazu und verändern sich laufend. Die Autorinnen und Autoren fordern, die Regulierung anhand des Risikopotenzials um weitere Mechanismen zu ergänzen, die während und nach der Anwendung des KI-Systems greifen. Sie schlagen ein Verbraucherschutzregime vor, das Nutzerinnen und Nutzern niedrigschwellige und zeitnahe Beschwerdemöglichkeiten bietet, etwa bei Diskriminierung durch ein KI-System. Zudem müsse die Verantwortung für die Risiken von KI-Systemen klar über Haftungsregeln aufgeteilt werden. So sollte im B2B-Bereich grundsätzlich der Anwender entsprechend dem Vertragsrecht verantwortlich für die von KI-Systemen gelieferten Ergebnisse sein. Für Anwendungen im öffentlichen Bereich sollte die öffentliche Hand die volle Verantwortung für diskriminierende oder schädliche Konsequenzen im Rahmen des öffentlichen Rechts tragen.
Über das Whitepaper
Das Whitepaper „Kritikalität von KI-Systemen in ihren jeweiligen Anwendungskontexten. Ein notwendiger, aber nicht hinreichender Baustein für Vertrauenswürdigkeit“ wurde von Expertinnen und Experten der Arbeitsgruppe „IT-Sicherheit, Privacy, Recht und Ethik“ sowie der Arbeitsgruppe „Technologische Wegbereiter und Data Science“ der Plattform Lernende Systeme verfasst. Es steht zum kostenfreien Download zur Verfügung.
Über die Plattform Lernende Systeme
Die Plattform Lernende Systeme ist ein ExpertInnen-Netzwerk zum Thema Künstliche Intelligenz (KI). Ihr Ziel ist es, als unabhängiger Makler den interdisziplinären Austausch und gesellschaftlichen Dialog zu KI zu fördern. Die knapp 200 Mitglieder aus Wissenschaft, Wirtschaft und Gesellschaft entwickeln in Arbeitsgruppen Positionen zu Chancen und Herausforderungen und benennen Handlungsoptionen für den verantwortlichen Einsatz von Lernenden Systemen. Die Plattform Lernende Systeme wurde 2017 vom Bundesministerium für Bildung und Forschung (BMBF) auf Anregung des Fachforums Autonome Systeme des Hightech-Forums und acatech gegründet. Die Leitung der Plattform liegt bei Bundesministerin Anja Karliczek (BMBF) und Karl-Heinz Streibich (Präsident acatech).
https://www.plattform-lernende-systeme.de/files/Downloads/Publikationen/AG3_WP_K...
https://5d1r9.r.a.d.sendibm1.com/mk/cl/f/lLotnAdv8aNHHdg0wWjgLIYKNILu093GjW5cQe-...
Neues Whitepaper der Plattform Lernende Systeme: Wie lässt sich beurteilen, ob KI-Systeme vertrauens ...
Plattform Lernende Systeme
Merkmale dieser Pressemitteilung:
Journalisten
Informationstechnik, Politik, Recht, Wirtschaft
überregional
Forschungsergebnisse, Wissenschaftspolitik
Deutsch
Neues Whitepaper der Plattform Lernende Systeme: Wie lässt sich beurteilen, ob KI-Systeme vertrauens ...
Plattform Lernende Systeme
Sie können Suchbegriffe mit und, oder und / oder nicht verknüpfen, z. B. Philo nicht logie.
Verknüpfungen können Sie mit Klammern voneinander trennen, z. B. (Philo nicht logie) oder (Psycho und logie).
Zusammenhängende Worte werden als Wortgruppe gesucht, wenn Sie sie in Anführungsstriche setzen, z. B. „Bundesrepublik Deutschland“.
Die Erweiterte Suche können Sie auch nutzen, ohne Suchbegriffe einzugeben. Sie orientiert sich dann an den Kriterien, die Sie ausgewählt haben (z. B. nach dem Land oder dem Sachgebiet).
Haben Sie in einer Kategorie kein Kriterium ausgewählt, wird die gesamte Kategorie durchsucht (z.B. alle Sachgebiete oder alle Länder).