idw – Informationsdienst Wissenschaft

Nachrichten, Termine, Experten

Grafik: idw-Logo
Science Video Project
idw-Abo

idw-News App:

AppStore

Google Play Store



Instance:
Share on: 
11/23/2021 15:22

KI-Regulierung: Wie sich vertrauenswürdige Systeme gestalten lassen

Linda Treugut Geschäftsstelle
Lernende Systeme - Die Plattform für Künstliche Intelligenz

    Künstliche Intelligenz (KI) verbessert Prozesse und ermöglicht neue Geschäftsmodelle, birgt aber auch Risiken. Damit sichere Anwendungen zum Einsatz kommen, will die EU-Kommission KI-Systeme entsprechend ihrer Risiken regulieren. Expertinnen und Experten der Plattform Lernende Systeme halten diesen Ansatz für notwendig, aber nicht ausreichend, um vertrauenswürdige KI-Systeme zu schaffen. Sie fordern, den konkreten Anwendungskontext eines Systems zu berücksichtigen sowie Beschwerdestellen und klare Haftungsregeln. In einem aktuellen Whitepaper benennen sie zusätzliche Kriterien, um das Gefahrenpotenzial eines KI-Systems beurteilen zu können.

    KI-Systeme können die medizinische Behandlung verbessern, zu einer nachhaltigeren Mobilität beitragen und Beschäftigte am Arbeitsplatz entlasten. Ihr Einsatz kann aber auch mit ethischen und sicherheitstechnischen Risiken verbunden sein, etwa wenn die Empfehlung einer Assistenz-Software zu diskriminierenden Personalentscheidungen führt oder ein autonomes Fahrzeug einen Unfall verursacht. Ziel des aktuellen Regulierungsvorschlags der Europäischen Kommission ist es daher, den Einsatz von KI-Systemen sicher und vertrauenswürdig zu machen, ohne Innovationen zu hemmen. Die EU hat dazu KI-Anwendungen nach ihrem Gefahrenpotenzial (der sogenannten Kritikalität) klassifiziert. So gehen etwa von Systemen zur intelligenten Wartung von Industriemaschinen keinerlei Gefahren aus. Sie entsprechen der niedrigsten von vier Risikostufen und bedürfen laut EU-Vorschlag keiner Regulierung. Andere denkbare KI-Anwendungen bergen indessen Risiken und müssen reguliert werden – bis hin zum Verbot, falls ihre Risiken als unannehmbar eingestuft werden, etwa Social Scoring durch staatliche Stellen.

    Im Whitepaper „Kritikalität von KI-Systemen in ihren jeweiligen Anwendungskontexten“ analysieren Expertinnen und Experten der Plattform Lernende Systeme den Vorschlag zur KI-Regulierung, den die Europäische Kommission im April 2021 vorlegte und der nun im Europäischen Parlament und Ministerrat diskutiert wird. Sie konkretisieren die Kriterien, anhand derer sich die Risiken von KI-Systemen beurteilen lassen und betonen, dass KI-Systeme immer als Einzelfall und vor dem Hintergrund ihres jeweiligen Anwendungskontextes bewertet werden müssen. „Das gleiche System kann in einem Zusammenhang unproblematisch und in einem anderen höchst kritisch sein. KI für die Detektion von Hate Speech dürfte zum Beispiel zunächst als vergleichsweise unbedenklich gelten. Wenn die gleiche Anwendung aber von einem totalitären Staat genutzt wird, um kritische Stellungnahmen ausfindig zu machen und zu eliminieren, dann fällt die Bewertung gegenteilig aus“, so Jessica Heesen, Medienethikerin der Eberhard Karls Universität Tübingen und Co-Leiterin der Arbeitsgruppe „IT-Sicherheit, Privacy, Recht und Ethik“ der Plattform Lernende Systeme.

    Wie kritisch ein System zu bewerten ist und wie stark es reguliert werden sollte, will die EU-Kommission im Vorhinein durch bestimmte Kriterien festlegen. Das Whitepaper der Plattform Lernende Systeme empfiehlt, folgende Fragen stärker in den Blick zu nehmen: ob die Empfehlungen oder Entscheidungen eines KI-Systems Menschenleben oder Rechtsgüter wie die Umwelt gefährden und wieviel Handlungsspielraum dem Menschen bei der Auswahl und Nutzung der Anwendung bleibt, etwa um bestimmte Funktionen abzuschalten. Nach Ansicht der Autorinnen und Autoren müssen die Kontroll- und Entscheidungsmöglichkeiten der Nutzer von KI-Systemen bei der Bewertung der Kritikalität stärker berücksichtigt werden. So ist es etwa ein Unterschied, ob eine KI-Software für den Aktienhandel Verkäufe automatisiert durchführt oder dem Aktienbesitzer lediglich Empfehlungen dafür gibt.

    Ihr Fazit: Der Ansatz der Europäischen Kommission, KI-Systeme entsprechend ihres Gefahrenpotenzials zu regulieren, ist ein notwendiger Schritt auf dem Weg zu vertrauenswürdigen KI-Systemen. Insbesondere für Anwendungen mit höheren Autonomiegraden ist er jedoch nicht ausreichend. Es bestehe die Gefahr, dass die Risikoeinstufung eine Sicherheit vorgaukele, die ohne flankierende nicht-technische Maßnahmen nicht gewährleistet werden könne, so Peter Dabrock, Ethikprofessor an der Friedrich-Alexander-Universität Erlangen-Nürnberg und Mitglied der Plattform Lernende Systeme.

    Beschwerdemöglichkeiten und Haftungsregeln
    Generell lassen sich die Risiken von KI-Systemen nur bedingt vorhersehen. Anders als bei der Risikoeinschätzung von konventioneller Software lernen KI-Systeme selbstständig während ihres Einsatzes dazu und verändern sich laufend. Die Autorinnen und Autoren fordern, die Regulierung anhand des Risikopotenzials um weitere Mechanismen zu ergänzen, die während und nach der Anwendung des KI-Systems greifen. Sie schlagen ein Verbraucherschutzregime vor, das Nutzerinnen und Nutzern niedrigschwellige und zeitnahe Beschwerdemöglichkeiten bietet, etwa bei Diskriminierung durch ein KI-System. Zudem müsse die Verantwortung für die Risiken von KI-Systemen klar über Haftungsregeln aufgeteilt werden. So sollte im B2B-Bereich grundsätzlich der Anwender entsprechend dem Vertragsrecht verantwortlich für die von KI-Systemen gelieferten Ergebnisse sein. Für Anwendungen im öffentlichen Bereich sollte die öffentliche Hand die volle Verantwortung für diskriminierende oder schädliche Konsequenzen im Rahmen des öffentlichen Rechts tragen.

    Über das Whitepaper
    Das Whitepaper „Kritikalität von KI-Systemen in ihren jeweiligen Anwendungskontexten. Ein notwendiger, aber nicht hinreichender Baustein für Vertrauenswürdigkeit“ wurde von Expertinnen und Experten der Arbeitsgruppe „IT-Sicherheit, Privacy, Recht und Ethik“ sowie der Arbeitsgruppe „Technologische Wegbereiter und Data Science“ der Plattform Lernende Systeme verfasst. Es steht zum kostenfreien Download zur Verfügung.

    Über die Plattform Lernende Systeme
    Die Plattform Lernende Systeme ist ein ExpertInnen-Netzwerk zum Thema Künstliche Intelligenz (KI). Ihr Ziel ist es, als unabhängiger Makler den interdisziplinären Austausch und gesellschaftlichen Dialog zu KI zu fördern. Die knapp 200 Mitglieder aus Wissenschaft, Wirtschaft und Gesellschaft entwickeln in Arbeitsgruppen Positionen zu Chancen und Herausforderungen und benennen Handlungsoptionen für den verantwortlichen Einsatz von Lernenden Systemen. Die Plattform Lernende Systeme wurde 2017 vom Bundesministerium für Bildung und Forschung (BMBF) auf Anregung des Fachforums Autonome Systeme des Hightech-Forums und acatech gegründet. Die Leitung der Plattform liegt bei Bundesministerin Anja Karliczek (BMBF) und Karl-Heinz Streibich (Präsident acatech).


    More information:

    https://www.plattform-lernende-systeme.de/files/Downloads/Publikationen/AG3_WP_K...
    https://5d1r9.r.a.d.sendibm1.com/mk/cl/f/lLotnAdv8aNHHdg0wWjgLIYKNILu093GjW5cQe-...


    Images

    Neues Whitepaper der Plattform Lernende Systeme: Wie lässt sich beurteilen, ob KI-Systeme vertrauenswürdig sind?
    Neues Whitepaper der Plattform Lernende Systeme: Wie lässt sich beurteilen, ob KI-Systeme vertrauens ...

    Plattform Lernende Systeme


    Criteria of this press release:
    Journalists
    Economics / business administration, Information technology, Law, Politics
    transregional, national
    Research results, Science policy
    German


     

    Neues Whitepaper der Plattform Lernende Systeme: Wie lässt sich beurteilen, ob KI-Systeme vertrauenswürdig sind?


    For download

    x

    Help

    Search / advanced search of the idw archives
    Combination of search terms

    You can combine search terms with and, or and/or not, e.g. Philo not logy.

    Brackets

    You can use brackets to separate combinations from each other, e.g. (Philo not logy) or (Psycho and logy).

    Phrases

    Coherent groups of words will be located as complete phrases if you put them into quotation marks, e.g. “Federal Republic of Germany”.

    Selection criteria

    You can also use the advanced search without entering search terms. It will then follow the criteria you have selected (e.g. country or subject area).

    If you have not selected any criteria in a given category, the entire category will be searched (e.g. all subject areas or all countries).