idw – Informationsdienst Wissenschaft

Nachrichten, Termine, Experten

Grafik: idw-Logo
Science Video Project
idw-Abo

idw-News App:

AppStore

Google Play Store



Instanz:
Teilen: 
20.09.2019 10:30

Wann darf man Künstlicher Intelligenz vertrauen? Öffentliche Diskussion nach mehrtägigem Workshop

Thorsten Mohr Pressestelle der Universität des Saarlandes
Universität des Saarlandes

    Künstliche Intelligenz bietet enormes Potenzial: Selbstfahrende Autos, automatisierte Bewerberauswahl, OP-Roboter... Die vorstellbaren Einsatzgebiete sind grenzenlos. Fast ebenso grenzenlos ist die Skepsis den intelligenten Computersystemen gegenüber: Warum fährt das selbstfahrende Auto hierhin und nicht dahin? Wenn der OP-Roboter einen Fehler macht, wieso? Diskriminiert der Algorithmus Minderheiten? An der Universität des Saarlandes diskutieren vom 30. September bis 2. Oktober Expertinnen und Experten aus Philosophie, Informatik, Rechtswissenschaft und Psychologie über dieses thematische Spannungsfeld. Zum Abschluss laden die Initiatoren zu einer öffentlichen Podiumsdiskussion ein.

    Man stelle sich den öffentlichen Aufschrei vor: Ein Roboter soll Mediziner im Alltag unterstützen, indem er Standardoperationen eigenständig durchführt. Der Chirurg muss sich also nicht mehr mit lästigen Blinddarm-OPs herumschlagen, sondern kann sich besser auf schwierige Tumoroperationen konzentrieren. Nun macht der OP-Roboter aber einen folgenschweren Fehler, und ein Patient stirbt bei der üblicherweise risikoarmen OP. Das Vertrauen in die „intelligente“ Maschine wäre dahin, und fürs Erste würde sich kein Patient mehr dafür entscheiden, vom Roboter operiert zu werden, egal wieviel besser er statistisch im Vergleich zu Menschen operieren mag.

    „Klar, Künstliche Intelligenz kann die Welt ein Stück besser machen“, erklärt Kevin Baum, Philosoph und Informatiker an der Universität des Saarlandes. „Aber wir müssen dem System auch vertrauen können, verstehen, warum es wie handelt und warum es womöglich gar versagt.“ Sonst ist das Vertrauen schnell dahin. „Verstehen wir nicht, warum ein Algorithmus dieses und nicht jenes empfiehlt, hilft auch der Mensch am Ende der Entscheidungskette nicht. Wir würden schnell zu willfährigen Knöpfchendrückern degradiert und Verantwortung ginge verloren.“ Wenn dann noch Daten ins Innere von KI verschwinden und wir das Zusammenspiel der Systeme nicht mehr durchschauen, wird aus dem nützlichen Helfer schnell ein dystopischer Alptraum: Maschinen, die außer Kontrolle geraten, Menschen, die keinen Job mehr bekommen, und Algorithmen, die unsere Daten miteinander verknüpfen und uns so zum gläsernen Bürger werden lassen – Nachrichten um die Kameraüberwachung im öffentlichen Raum und das Social-Scoring-System in China, das staatlich definiertes Wohlverhalten belohnt, geben einen Vorgeschmack darauf, wie komplex Abhängigkeiten werden können.

    Wie wichtig daher Regeln im Umgang mit und vor allem für den Bau von intelligenten Computersystemen sind, wird immer offenkundiger, je mehr Anwendungsfelder sich für Künstliche Intelligenz auftun. Dabei ist die Regulierung alles andere als ein trivialer Selbstläufer, und selbst die Voraussetzungen für eine solche stellen uns vor Herausforderungen. Informatiker alleine können die Fragen, die sich aus den technischen Möglichkeiten ergeben, nicht beantworten. Dazu müssen viele Gruppen zusammenkommen, um sich über Voraussetzungen für einen regelbaren und geregelten Umgang mit den „intelligenten“ Computersystemen zu verständigen.

    In Saarbrücken diskutieren nun Philosophen, Informatiker, Juristen und Psychologen gemeinsam in einem dreitägigen Workshop über „Erklärbare Intelligente Systeme“ und den Umgang mit ihnen in rechtlicher, ethischer und psychologischer Dimension. An der Universität des Saarlandes gibt es seit einigen Jahren einen dynamischen Austausch an der Schnittstelle zwischen Philosophie und Informatik, der sich um die ethischen Fragen des technisch Machbaren kümmert. Unter anderem die Vorlesungsreihe „Ethics for Nerds“, in welcher angehende Informatiker das moralische Rüstzeug für ihr technisches Wirken erhalten, hat sich inzwischen fest im Lehrplan etabliert und erfreut sich großer Beliebtheit.

    Der jetzige Workshop geht aus dem Forschungsprojekt „Explainable Intelligent Systems“ hervor, welches derzeit von der Volkswagen-Stiftung im Rahmen ihres Förderprogramms „Artificial Intelligence and the Society of the Future“ finanziert wird. Die Akteure wollen an der interdisziplinären Schnittstelle den Umgang mit Künstlicher Intelligenz in einem Umfang diskutieren, der der gesellschaftlichen Bedeutung des Themas Rechnung trägt. Weitere Veranstaltungen gemeinsam mit internationalen Kooperationspartnern unter anderem in Cambridge und Delft sind bereits geplant.

    Angesichts der hohen Relevanz des Themas für unseren zukünftigen Alltag laden die Organisatoren alle Interessierten zu einer öffentlichen Podiumsdiskussion im Saarbrücker Rathaus St. Johann am 2. Oktober als Abschluss des Workshops ein. Der Eintritt ist frei. Beginn ist um 18 Uhr mit einer Begrüßung durch Universitätspräsident Prof. Manfred Schmitt sowie einer Festrede der Juristin Prof. Silja Vöneky (Juristin) von der Universität Freiburg. Im Anschluss diskutieren: Juniorprofessorin Lena Kästner (Philosophin, Universität des Saarlandes), Dr. Steffen-Werner Meyer (Stellvertretender Landesdatenschutzbeauftragter), Dr. Clemens Stachl (Psychologe, LMU München) und Prof. Silja Vöneky. Moderiert wird die Diskussion von Kevin Baum (Informatiker und Philosoph, Universität des Saarlandes).


    Wissenschaftliche Ansprechpartner:

    Kevin Baum
    Tel.: (0681) 302-2351
    E-Mail: kevin.baum@uni-saarland.de

    Timo Speith
    Tel.: (0681) 302-3651
    E-Mail: timo.speith@uni-saarland.de


    Weitere Informationen:

    https://explainable-intelligent.systems/
    https://explainable-intelligent.systems/workshop/
    https://explainable-intelligent.systems/offentliche-veranstaltungen/


    Bilder

    Merkmale dieser Pressemitteilung:
    Journalisten, jedermann
    Informationstechnik, Philosophie / Ethik, Psychologie, Recht
    regional
    Buntes aus der Wissenschaft, Wissenschaftliche Tagungen
    Deutsch


     

    Hilfe

    Die Suche / Erweiterte Suche im idw-Archiv
    Verknüpfungen

    Sie können Suchbegriffe mit und, oder und / oder nicht verknüpfen, z. B. Philo nicht logie.

    Klammern

    Verknüpfungen können Sie mit Klammern voneinander trennen, z. B. (Philo nicht logie) oder (Psycho und logie).

    Wortgruppen

    Zusammenhängende Worte werden als Wortgruppe gesucht, wenn Sie sie in Anführungsstriche setzen, z. B. „Bundesrepublik Deutschland“.

    Auswahlkriterien

    Die Erweiterte Suche können Sie auch nutzen, ohne Suchbegriffe einzugeben. Sie orientiert sich dann an den Kriterien, die Sie ausgewählt haben (z. B. nach dem Land oder dem Sachgebiet).

    Haben Sie in einer Kategorie kein Kriterium ausgewählt, wird die gesamte Kategorie durchsucht (z.B. alle Sachgebiete oder alle Länder).