Datenschutz-, Risiko- oder Compliance-Management: Neue KI-Technologien stellen Unternehmen und Entwickler*innen vor neue Herausforderungen. Damit sie diese systematisch und strukturiert angehen können, arbeiten verschiedene Institutionen an Leitlinien und Standards zum Management von Künstlicher Intelligenz (KI). Das Fraunhofer IAIS hat in der jetzt veröffentlichten Studie »Management System Support for Trustworthy Artificial Intelligence« den Standard-Entwurf für KI-Managementsysteme der International Organization for Standardization (ISO) und die bisherigen Richtlinien miteinander verglichen.
Die von Microsoft beauftragte Studie zeigt, inwieweit KI-Managementsysteme Unternehmen beim vertrauenswürdigen Einsatz von KI-Systemen unterstützen und gleichzeitig das Vertrauen in KI-Anwendungen stärken können.
Als Schlüsseltechnologie der Zukunft birgt Künstliche Intelligenz enormes Innovationspotenzial für Wirtschaft und Gesellschaft. Besonders leistungsstarke KI-Systeme, die künftig auch wichtige Aufgaben z. B. beim Autonomen Fahren übernehmen sollen, basieren auf der Verarbeitung großer Datenmengen. Um die damit verbundenen Risiken zu handhaben, eine sichere Nutzung zu gewährleisten und die internationale Kompatibilität zu ermöglichen, sind behördliche Richtlinien und internationale Standards notwendig, an denen sich Unternehmen und andere Organisationen bei der Nutzung und Entwicklung neuer KI-Technologien orientieren können. Ein bisher in anderen Unternehmensbereichen geläufiges Werkzeug, um mit sensiblen Aspekten wie z. B. Informationssicherheit erfolgreich umzugehen, sind normierte Managementsysteme. Im Kontext von KI-Technologien befinden sich derlei Managementsysteme noch in der Entwicklung. Ein internationaler Standard für KI-Managementsysteme (engl. AI Management Systems, kurz AIMS) wird aktuell von der gemeinsamen Arbeitsgruppe der Normungsorganisationen International Organization for Standardization (ISO) und International Electrotechnical Commission (IEC) erarbeitet. Derzeit besteht er als Arbeitsentwurf.
In der nun veröffentlichten Studie »Management System Support for Trustworthy Artificial Intelligence« hat das Fraunhofer IAIS den Arbeitsentwurf des AIMS-Standards dahingehend untersucht, inwieweit er Unternehmen und andere Organisationen dabei unterstützen kann, KI-Technologien auf vertrauenswürdige Weise zu nutzen und zu entwickeln. Zu diesem Zweck haben die KI-Wissenschaftler*innen den Entwurf mit den aktuellen Anforderungen und Empfehlungen für vertrauenswürdige Künstliche Intelligenz verglichen, die bisher von der Europäischen Kommission, der von ihr beauftragten Expertengruppe High-Level-Expert Group on AI (HLEG) sowie dem Bundesamt für Sicherheit in der Informationstechnik (BSI) formuliert wurden.
Die Studie des Fraunhofer IAIS zeigt, dass die Einführung eines KI-Managementsystems für Unternehmen künftig ein wichtiger und angemessener Schritt sein kann, um geeignete Strategien und Prozesse für die vertrauenswürdige Entwicklung und Nutzung von KI-Technologien zu definieren. »Für Organisationen, die KI einsetzen, sollte das Ziel, verantwortungsvoll, vertrauenswürdig und rechtskonform zu sein, in ihrer Governance-, Risk- und Compliance-Strategie deutlich zum Ausdruck kommen«, empfiehlt Dr. Michael Mock, Co-Autor der Studie, der am Fraunhofer IAIS das vom Bundesministerium für Wirtschaft und Energie geförderte Projekt »KI-Absicherung« für sichere KI im Autonomen Fahren leitet. Dabei können KI-Managementsysteme Unternehmen und Entwickler*innen auch langfristig bei der Einhaltung von aktuellen und kommenden Richtlinien und Gesetzen unterstützen. »Selbst bei Vorhandensein mehrerer Interessensgruppen und komplexer Lieferketten erleichtert der Einsatz von KI-Managementsystemen die Einhaltung von Vorschriften über den gesamten Lebenszyklus von KI-Systemen hinweg«, sagt Mock.
Die Wissenschaftler*innen des Fraunhofer IAIS heben in ihrer Studie hervor, dass die Implementierung von KI-Managementsystemen in Unternehmen auch einen positiven Einfluss auf die Akzeptanz und das Vertrauen von KI-Technologien in der Gesellschaft haben kann. »Unserer Einschätzung nach sind KI-Managementsysteme ein wichtiger Baustein, um das Vertrauen von Stakeholdern – wie zum Beispiel Kund*innen oder Mitarbeitende – in KI-Anwendungen wesentlich zu stärken«, sagt Dr. Maximilian Poretschkin, Co-Autor der Studie und Teamleiter KI-Absicherung und Zertifizierung am Fraunhofer IAIS.
Als eines der führenden Forschungsinstitute im Bereich Künstlicher Intelligenz in Europa befasst sich das Fraunhofer IAIS ebenfalls mit der Vertrauenswürdigkeit und Zuverlässigkeit von KI-Systemen und ist u. a. im Projekt »ZERTIFIZIERTE KI« an der Definition von praxistauglichen Prüfgrundlagen und Kriterienwerken beteiligt. Insbesondere diese Expertise ermöglicht es den Wissenschaftler*innen, den bisherigen Norm-Entwurf zu KI-Managementsystemen zu bewerten. »Mit dem Regulierungsentwurf der EU-Kommission, aber auch anderen Dokumenten wie etwa den Empfehlungen der HLEG bilden sich wichtige Leitplanken für den Einsatz von KI-Anwendungen heraus. Es ist daher sehr wichtig, entstehende Standards mit diesen zu vergleichen«, sagt Dr. Maximilian Poretschkin. Darüber hinaus geben die KI-Expert*innen in ihrer Studie konkrete Handlungsempfehlungen ab, inwiefern sich der Norm-Entwurf noch verbessern lässt.
Die über 60-seitige Studie fasst zunächst den Standard-Entwurf sowie die KI-Leitlinien der Europäischen Kommission (Proposal for AI Regulation), der HLEG (Assessment List for Trustworthy AI) und des BSI (AIC4-Katalog) zusammen. In der detaillierten Gegenüberstellung aller Dokumente werden neben organisatorischen auch die technischen Anforderungen miteinander verglichen. Hier orientiert sich die Struktur des Vergleichs an dem vom Fraunhofer IAIS kürzlich veröffentlichten KI-Prüfkatalog, einem Leitfaden für die Gestaltung vertrauenswürdiger Künstlicher Intelligenz. Darüber hinaus behandelt die Studie eine mögliche Zertifizierung von KI-Managementsystemen und schließt mit einer Zusammenfassung der Erkenntnisse sowie Empfehlungen zur weiteren Ausarbeitung ab.
Finanziert wurde die Studie »Management System Support for Trustworthy Artificial Intelligence« von Microsoft.
PD Dr. Michael Mock
michael.mock@iais.fraunhofer.de
Telefon 02241 14-2576
Dr. Maximilian Poretschkin
maximilian.poretschkin@iais.fraunhofer.de
Telefon 02241 14-2260
https://www.iais.fraunhofer.de/ki-management-studie Zur Studie (Englisch)
https://www.iais.fraunhofer.de Fraunhofer IAIS
https://www.iais.fraunhofer.de/de/forschung/kuenstliche-intelligenz/projekt-ki-a... Projekt KI-Absicherung
https://www.iais.fraunhofer.de/ki-pruefkatalog KI-Prüfkatalog
https://www.zertifizierte-ki.de Projekt Zertifizierte KI
https://www.zertifizierte-ki.de/uk2710/ 27.10.21: Vorstellung der Studie bei der Online-Tagung der Universität Köln
Auf über 60 Seiten untersuchen die Fraunhofer-Wissenschaftler*innen den Einfluss von KI-Managementsy ...
© Alex – stock.adobe.com/Fraunhofer IAIS
Criteria of this press release:
Business and commerce, Journalists, Scientists and scholars, Students, all interested persons
Economics / business administration, Electrical engineering, Information technology, Mathematics, Social studies
transregional, national
Research results, Transfer of Science or Research
German
Auf über 60 Seiten untersuchen die Fraunhofer-Wissenschaftler*innen den Einfluss von KI-Managementsy ...
© Alex – stock.adobe.com/Fraunhofer IAIS
You can combine search terms with and, or and/or not, e.g. Philo not logy.
You can use brackets to separate combinations from each other, e.g. (Philo not logy) or (Psycho and logy).
Coherent groups of words will be located as complete phrases if you put them into quotation marks, e.g. “Federal Republic of Germany”.
You can also use the advanced search without entering search terms. It will then follow the criteria you have selected (e.g. country or subject area).
If you have not selected any criteria in a given category, the entire category will be searched (e.g. all subject areas or all countries).