Expertengruppe veröffentlicht Ethikrichtlinien für die Umsetzung menschzentrierter und vertrauenswürdiger Künstlicher Intelligenz (KI) in Europa
Um die exzellente und vertrauenswürdige Anwendung von Künstlicher Intelligenz (KI) europaweit weiter voranzutreiben, hat die »High-Level Expert Group on Artificial Intelligence« ihre im letzten Jahr erarbeiteten Ergebnisse konkretisiert, weiterentwickelt und anwendbar gemacht. Institutsleiter Professor Wilhelm Bauer bringt als Mitglied der Expertengruppe die Erfahrungen des Fraunhofer IAO zur menschzentrierten Anwendung von KI in die Gruppe mit ein.
Die »High-Level Expert Group on Artificial Intelligence« (kurz AI HLEG) wurde im Juni 2018 von der Europäischen Kommission initiiert mit dem Ziel, die Umsetzung der europäischen Strategie für Künstliche Intelligenz zu unterstützen. Dazu gehört die Ausarbeitung von Empfehlungen zur zukunftsbezogenen Politikentwicklung und zu ethischen, rechtlichen und gesellschaftlichen Fragen, einschließlich sozioökonomischer Herausforderungen. Nach einem offenen Auswahlverfahren hat die Kommission 52 Mitglieder in die unabhängige Expertengruppe berufen, die sich aus Vertreterinnen und Vertretern aus Wissenschaft, Zivilgesellschaft und Industrie zusammensetzt. Dazu gehört auch Prof. Dr.-Ing. Prof. e. h. Wilhelm Bauer, Leiter des Fraunhofer-Instituts für Arbeitswirtschaft und Organisation IAO in Stuttgart, einer der deutschen Vertreter aus der Wissenschaft. »Durch langjährige Forschungslinien im Bereich der KI-Forschung, die Initiative für das KI-Fortschrittszentrum ›Lernende Systeme‹ und die Mitwirkung im Cyber Valley, Europas größter Forschungskooperation auf dem Gebiet der KI, kann das Fraunhofer IAO fundierte Erfahrungen und Expertise aus der angewandten Forschung in die Arbeit der Expertengruppe einbringen«, so Professor Bauer.
Mitte 2019 legte die AI HLEG bereits erste Ergebnisse vor, die nun zum Abschluss ihrer Arbeit konkretisiert, weiterentwickelt und für Unternehmen sowie öffentliche Organisationen anwendbar gemacht wurden.
Ethikrichtlinien: 7 Schlüsselanforderungen zur Selbstbewertung
Seit dem 17. Juli liegen mit der Veröffentlichung der »Assessment List for Trustworthy Artificial Intelligence (ALTAI) for self-assessment« die finalen Richtlinien der Expertengruppe für einen menschenzentrierten Ansatz von KI vor. Darin sind sieben Schlüsselanforderungen formuliert, die ein KI-System erfüllen sollte, um vertrauenswürdig zu sein. Diese beinhalten (1) menschliche Entscheidungsfreiheit und Kontrolle, (2) technische Robustheit und Sicherheit, (3) Datenschutz und Data Governance, (4) Transparenz, (5) Diversität, Nichtdiskriminierung sowie Fairness, (6) ökologisches und gesellschaftliches Wohlergehen und (7) Rechenschaftspflicht. Mit der ALTAI wollen die Expertinnen und Experten sicherstellen, dass die Anwender von KI profitieren, ohne unnötigen Risiken ausgesetzt zu sein, indem eine Reihe konkreter Schritte zur Selbstbewertung der KI-Anwendung durch deren Anbieter vorgestellt wird.
Dynamische Checkliste zur direkten Anwendung per Web-Tool
Um die Leistungsfähigkeit einer solchen Bewertungsliste zu demonstrieren, hat die KI-Expertengruppe ein prototypisches Tool entwickelt. Ziel ist es, Entwickler und Anwender von KI bei der Umsetzung dieser Prinzipien in die Praxis zu unterstützen und bei der Bewertung ihrer eigenen KI-Systeme anzuleiten. Dafür wurden die Schlüsselanforderungen der ALTAI in Detailanforderungen heruntergebrochen und in Form einer frei verfügbaren Checkliste sowie des begleitenden webbasierten Tools bereitgestellt. Letzteres kann direkt durch interessierte Unternehmen online genutzt werden.
Politik- und Investitionsempfehlungen für eine vertrauenswürdige KI
Bereits im Juni 2019 legte die Expertengruppe 33 Empfehlungen vor, die vertrauenswürdige KI zu mehr Nachhaltigkeit, Wachstum und Wettbewerbsfähigkeit in Europa führen und gleichzeitig die Menschen in diesem Kontext stärken, fördern und schützen können. Professor Bauer erklärt den Bezug zur aktuellen Lage: »Die COVID-19-Pandemie hat einmal mehr sowohl die Möglichkeit einer verstärkten Nutzung von Daten und vertrauenswürdiger KI als auch die damit verbundenen Herausforderungen und Risiken in Zeiten schneller Veränderungen hervorgehoben.« Die Expertengruppe will mit ihren Arbeitsergebnissen zu einer angemessenen und sorgfältigen Prüfung der Perspektiven von KI sowie zu einer öffentlichen Debatte beitragen.
Yeama Bangali
Marketing und Kommunikation
IAT der Universität Stuttgart
(Kooperationsinstitut des Fraunhofer IAO)
Universität Stuttgart IAT
Nobelstraße 12
70569 Stuttgart
Telefon: +49 711 970-5196
E-Mail: yeama.bangali@iao.fraunhofer.de
https://www.iao.fraunhofer.de/lang-de/presse-und-medien/aktuelles/2328-kuenstlic...
Merkmale dieser Pressemitteilung:
Journalisten, Wirtschaftsvertreter, Wissenschaftler
Informationstechnik, Wirtschaft
überregional
Forschungsergebnisse, Forschungsprojekte
Deutsch
Sie können Suchbegriffe mit und, oder und / oder nicht verknüpfen, z. B. Philo nicht logie.
Verknüpfungen können Sie mit Klammern voneinander trennen, z. B. (Philo nicht logie) oder (Psycho und logie).
Zusammenhängende Worte werden als Wortgruppe gesucht, wenn Sie sie in Anführungsstriche setzen, z. B. „Bundesrepublik Deutschland“.
Die Erweiterte Suche können Sie auch nutzen, ohne Suchbegriffe einzugeben. Sie orientiert sich dann an den Kriterien, die Sie ausgewählt haben (z. B. nach dem Land oder dem Sachgebiet).
Haben Sie in einer Kategorie kein Kriterium ausgewählt, wird die gesamte Kategorie durchsucht (z.B. alle Sachgebiete oder alle Länder).