idw – Informationsdienst Wissenschaft

Nachrichten, Termine, Experten

Grafik: idw-Logo
Grafik: idw-Logo

idw - Informationsdienst
Wissenschaft

Science Video Project
idw-Abo

idw-News App:

AppStore

Google Play Store



Instanz:
Teilen: 
30.11.2020 17:18

Ethische Grundlagen für Künstliche Intelligenz in der Luftfahrt

Dipl.-Journ. Constantin Schulte Strathaus Presse- und Öffentlichkeitsarbeit
Katholische Universität Eichstätt-Ingolstadt

    Nicht nur für den Betrieb autonomer Fahrzeuge, sondern auch für die Luft-fahrtbranche bietet der Einsatz von Künstlicher Intelligenz neue Perspektiven. Während der Autopilot bereits seit Jahrzehnten Standard ist, arbeitet man heute an einer vereinfachten Befehlseingabe via Spracherkennung oder gar Konzepten für elektronische Co-Piloten. Dabei werden nicht nur technische Fragen aufgeworfen, sondern auch ethische: „Es gilt, ethische Grundrechte und gesellschaftliche Normen und Werte zu wahren, wenn die Möglichkeiten von Künstlicher Intelligenz gleichzeitig auch die Kontrollmacht der Nutzenden mindern“, betont Prof. Dr. Alexis Fritz von der Katholischen Universität Eichstätt-Ingolstadt (KU).

    Gerade die Reflexion eines ethischen Rahmens für KI biete die Möglichkeit, das Potenzial dieser innovativen Technologie voll auszuschöpfen. Rechtliche Normen oder Richtlinien müssten in Einklang mit ethischen stehen. An den Grundlagen dafür forschen der Moraltheologe Fritz und sein Team nun ihm Rahmen des Projektes „Künstliche Intelligenz Europäisch Zertifizieren unter Industrie 4.0“, das von der Airbus Defence and Space GmbH geleitet und vom Bundeswirtschaftsministerium gefördert wird. Neben Airbus sind an dem dreijährigen Vorhaben weitere technische Partner, wie mehrere Fraunhofer-Institute, sowie unter anderem die Deutsche Flugsicherung und die Europäische Agentur für Flugsicherheit beteiligt.

    Eine grundlegende Herausforderung für den Einsatz von Künstlicher Intelligenz in der Luftfahrt besteht in der zwingend erforderlichen Zertifizierung solcher Technologien. Denn Komponenten eines Flugzeugs sind sicherheitskritisch und unterliegen somit hohen Qualitätsstandards, da Fehler fatale Folgen haben können. Komplexe KI kann jedoch bislang nicht eingesetzt werden, da entsprechende Zertifizierungsverfahren fehlen. Derzeit gibt es nur Regelwerke für Systeme, die deterministisch ausgelegt sind. Es gilt also, Standards für Technologien zu schaffen, die nicht starr programmiert sind, sondern in Echtzeit flexibel reagieren.

    „Zertifikationsmethoden haben das Ziel, hinreichend zu überprüfen, ob die Systeme zuverlässig sind. Darüber hinaus sind sie unverzichtbar, um die Öffentlichkeit von dieser Zuverlässigkeit zu überzeugen“, so Fritz. Aufgrund des Schadenrisikos im Luftfahrtbereich gehe es nicht darum Risiko zu minimieren, sondern auszuschließen.

    Die Debatte um den Einsatz von KI ist insbesondere geprägt vom konkreten Zusammenwirken von Mensch und Maschine sowie der Frage, wie sich Verantwortung zuordnen lässt, wenn Mensch und Computer miteinander interagieren. Der Moraltheologe schildert: „Im strengen Sinn des Wortes kann KI nicht ethisch entscheiden oder agieren. Sie kann daher auch keine Verantwortung tragen. Dennoch besteht im Geflecht der Mensch-Maschine-Interaktion die Gefahr, dass mit dem Delegieren von Aufgaben nicht mehr klar ist, wer für was Verantwortung trägt.“ Daher seien die Zuschreibung von personalen Fähigkeiten und Eigenschaften sowie alle Versuche, Technik zu vermenschlichen, zu hinterfragen. „In unserem Forschungsverbund beschäftigen wir uns alle mit einer ethisch validen Zertifizierung von KI-Technologien als Beitrag zu einer verantwortlichen Nutzung. Hierbei muss man nicht nur an Menschenwürde oder Diskriminierung denken. Auch die Robustheit und Sicherheit von KI oder auch Datenqualität sind ethische Ziele“, betont Fritz. Ziel seines Projektes sei es daher, zu erforschen, wie und unter welchen Prämissen künftig ethischen Grundrechten und gesellschaftlichen Werten eine Schlüsselrolle beim Design und Einsatz von KI in der Luftfahrt zukommen kann.

    Als Folge einer Diskussion um die Erwartungen und Befürchtungen rund um Künstliche Intelligenz haben mittlerweile auf nationaler, europäischer sowie internationaler Ebene sehr viele Regierungs- und renommierte Nichtregierungsorganisationen ihre jeweils eigenen ethischen Kriterienkataloge für die Entwicklung und Nutzung von KI entwickelt. Fritz hat zusammen mit seinem Projektmitarbeiter Felix Steinbrecher und einem studentischen Team mittlerweile 380 Leitlinien zur KI gefunden. Die Bandbreite der Urheber ist beeindruckend: Sie reicht von einem Katalog, den lateinamerikanische feministischen Organisationen verfasst haben, bis hin zu internationalen Stakeholdern wie Google oder Microsoft. Für das KIEZ-Projekt ist besonders die Initiative „Trustworthy AI“ in der Europäischen Union zentral.

    „Aufgrund der Dynamik ist eine fortlaufende systematische Erfassung, Bestandsaufnahme, Sichtung und Gegenüberstellung all dieser Initiativen zwar sehr aufwendig, aber auch sehr fruchtbar wie sehr wichtig“, so Fritz. In einem ersten Schritt recherchiert das Projektteam momentan weltweit weiter nach entsprechende Regelwerke, um diese zu sichten und gegenüberzustellen. Zudem gelte es, eine gemeinsame Sprache für zentrale Begriffe wie „Werte“, „Ziele“ oder „Kriterien“ zu finden, die Ingenieure, Juristinnen, Theologinnen und Philosophen gleichermaßen verstehen können. Anschließend soll ein eigenständiger Konzeptentwurf entstehen, der ethisch-technologische Kriterien, Prinzipien und Leitlinien enthält. Diese entstehen auch im laufenden Austausch mit den technischen und juristischen Partnern des Gesamtprojektes. „Rechtliche Normen müssen im Einklang mit den ethischen stehen. Deshalb wollen wir die ethischen Kriterien mit bestehenden Rechtsvorschriften und Bestimmungen in diesem Feld abzugleichen und aufzeigen, wenn Weiterentwicklungen nötig sind. Der Forschungsverbund bietet die Möglichkeit, moral-ethische Fragen bereits in der Entwicklungsphase einzubringen – im engen Austausch mit technischen und juristischen Partner. Das macht das Projekt für uns so spannend“, betont Professor Fritz.


    Wissenschaftliche Ansprechpartner:

    Für Fragen zu diesem Forschungsprojekt steht Ihnen Prof. Dr. Alexis Fritz (alexis.fritz@ku.de) zur Verfügung.


    Bilder

    Prof. Dr. Alexis Fritz (Inhaber des Lehrstuhls für Moraltheologie an der KU)
    Prof. Dr. Alexis Fritz (Inhaber des Lehrstuhls für Moraltheologie an der KU)
    Schulte Strathaus
    Schulte Strathaus/upd


    Merkmale dieser Pressemitteilung:
    Journalisten
    Gesellschaft, Informationstechnik, Philosophie / Ethik, Verkehr / Transport
    überregional
    Forschungsprojekte, Kooperationen
    Deutsch


     

    Hilfe

    Die Suche / Erweiterte Suche im idw-Archiv
    Verknüpfungen

    Sie können Suchbegriffe mit und, oder und / oder nicht verknüpfen, z. B. Philo nicht logie.

    Klammern

    Verknüpfungen können Sie mit Klammern voneinander trennen, z. B. (Philo nicht logie) oder (Psycho und logie).

    Wortgruppen

    Zusammenhängende Worte werden als Wortgruppe gesucht, wenn Sie sie in Anführungsstriche setzen, z. B. „Bundesrepublik Deutschland“.

    Auswahlkriterien

    Die Erweiterte Suche können Sie auch nutzen, ohne Suchbegriffe einzugeben. Sie orientiert sich dann an den Kriterien, die Sie ausgewählt haben (z. B. nach dem Land oder dem Sachgebiet).

    Haben Sie in einer Kategorie kein Kriterium ausgewählt, wird die gesamte Kategorie durchsucht (z.B. alle Sachgebiete oder alle Länder).