idw – Informationsdienst Wissenschaft

Nachrichten, Termine, Experten

Grafik: idw-Logo
Science Video Project
idw-Abo

idw-News App:

AppStore

Google Play Store



Instance:
Share on: 
09/20/2019 10:30

Wann darf man Künstlicher Intelligenz vertrauen? Öffentliche Diskussion nach mehrtägigem Workshop

Thorsten Mohr Pressestelle der Universität des Saarlandes
Universität des Saarlandes

    Künstliche Intelligenz bietet enormes Potenzial: Selbstfahrende Autos, automatisierte Bewerberauswahl, OP-Roboter... Die vorstellbaren Einsatzgebiete sind grenzenlos. Fast ebenso grenzenlos ist die Skepsis den intelligenten Computersystemen gegenüber: Warum fährt das selbstfahrende Auto hierhin und nicht dahin? Wenn der OP-Roboter einen Fehler macht, wieso? Diskriminiert der Algorithmus Minderheiten? An der Universität des Saarlandes diskutieren vom 30. September bis 2. Oktober Expertinnen und Experten aus Philosophie, Informatik, Rechtswissenschaft und Psychologie über dieses thematische Spannungsfeld. Zum Abschluss laden die Initiatoren zu einer öffentlichen Podiumsdiskussion ein.

    Man stelle sich den öffentlichen Aufschrei vor: Ein Roboter soll Mediziner im Alltag unterstützen, indem er Standardoperationen eigenständig durchführt. Der Chirurg muss sich also nicht mehr mit lästigen Blinddarm-OPs herumschlagen, sondern kann sich besser auf schwierige Tumoroperationen konzentrieren. Nun macht der OP-Roboter aber einen folgenschweren Fehler, und ein Patient stirbt bei der üblicherweise risikoarmen OP. Das Vertrauen in die „intelligente“ Maschine wäre dahin, und fürs Erste würde sich kein Patient mehr dafür entscheiden, vom Roboter operiert zu werden, egal wieviel besser er statistisch im Vergleich zu Menschen operieren mag.

    „Klar, Künstliche Intelligenz kann die Welt ein Stück besser machen“, erklärt Kevin Baum, Philosoph und Informatiker an der Universität des Saarlandes. „Aber wir müssen dem System auch vertrauen können, verstehen, warum es wie handelt und warum es womöglich gar versagt.“ Sonst ist das Vertrauen schnell dahin. „Verstehen wir nicht, warum ein Algorithmus dieses und nicht jenes empfiehlt, hilft auch der Mensch am Ende der Entscheidungskette nicht. Wir würden schnell zu willfährigen Knöpfchendrückern degradiert und Verantwortung ginge verloren.“ Wenn dann noch Daten ins Innere von KI verschwinden und wir das Zusammenspiel der Systeme nicht mehr durchschauen, wird aus dem nützlichen Helfer schnell ein dystopischer Alptraum: Maschinen, die außer Kontrolle geraten, Menschen, die keinen Job mehr bekommen, und Algorithmen, die unsere Daten miteinander verknüpfen und uns so zum gläsernen Bürger werden lassen – Nachrichten um die Kameraüberwachung im öffentlichen Raum und das Social-Scoring-System in China, das staatlich definiertes Wohlverhalten belohnt, geben einen Vorgeschmack darauf, wie komplex Abhängigkeiten werden können.

    Wie wichtig daher Regeln im Umgang mit und vor allem für den Bau von intelligenten Computersystemen sind, wird immer offenkundiger, je mehr Anwendungsfelder sich für Künstliche Intelligenz auftun. Dabei ist die Regulierung alles andere als ein trivialer Selbstläufer, und selbst die Voraussetzungen für eine solche stellen uns vor Herausforderungen. Informatiker alleine können die Fragen, die sich aus den technischen Möglichkeiten ergeben, nicht beantworten. Dazu müssen viele Gruppen zusammenkommen, um sich über Voraussetzungen für einen regelbaren und geregelten Umgang mit den „intelligenten“ Computersystemen zu verständigen.

    In Saarbrücken diskutieren nun Philosophen, Informatiker, Juristen und Psychologen gemeinsam in einem dreitägigen Workshop über „Erklärbare Intelligente Systeme“ und den Umgang mit ihnen in rechtlicher, ethischer und psychologischer Dimension. An der Universität des Saarlandes gibt es seit einigen Jahren einen dynamischen Austausch an der Schnittstelle zwischen Philosophie und Informatik, der sich um die ethischen Fragen des technisch Machbaren kümmert. Unter anderem die Vorlesungsreihe „Ethics for Nerds“, in welcher angehende Informatiker das moralische Rüstzeug für ihr technisches Wirken erhalten, hat sich inzwischen fest im Lehrplan etabliert und erfreut sich großer Beliebtheit.

    Der jetzige Workshop geht aus dem Forschungsprojekt „Explainable Intelligent Systems“ hervor, welches derzeit von der Volkswagen-Stiftung im Rahmen ihres Förderprogramms „Artificial Intelligence and the Society of the Future“ finanziert wird. Die Akteure wollen an der interdisziplinären Schnittstelle den Umgang mit Künstlicher Intelligenz in einem Umfang diskutieren, der der gesellschaftlichen Bedeutung des Themas Rechnung trägt. Weitere Veranstaltungen gemeinsam mit internationalen Kooperationspartnern unter anderem in Cambridge und Delft sind bereits geplant.

    Angesichts der hohen Relevanz des Themas für unseren zukünftigen Alltag laden die Organisatoren alle Interessierten zu einer öffentlichen Podiumsdiskussion im Saarbrücker Rathaus St. Johann am 2. Oktober als Abschluss des Workshops ein. Der Eintritt ist frei. Beginn ist um 18 Uhr mit einer Begrüßung durch Universitätspräsident Prof. Manfred Schmitt sowie einer Festrede der Juristin Prof. Silja Vöneky (Juristin) von der Universität Freiburg. Im Anschluss diskutieren: Juniorprofessorin Lena Kästner (Philosophin, Universität des Saarlandes), Dr. Steffen-Werner Meyer (Stellvertretender Landesdatenschutzbeauftragter), Dr. Clemens Stachl (Psychologe, LMU München) und Prof. Silja Vöneky. Moderiert wird die Diskussion von Kevin Baum (Informatiker und Philosoph, Universität des Saarlandes).


    Contact for scientific information:

    Kevin Baum
    Tel.: (0681) 302-2351
    E-Mail: kevin.baum@uni-saarland.de

    Timo Speith
    Tel.: (0681) 302-3651
    E-Mail: timo.speith@uni-saarland.de


    More information:

    https://explainable-intelligent.systems/
    https://explainable-intelligent.systems/workshop/
    https://explainable-intelligent.systems/offentliche-veranstaltungen/


    Images

    Criteria of this press release:
    Journalists, all interested persons
    Information technology, Law, Philosophy / ethics, Psychology
    regional
    Miscellaneous scientific news/publications, Scientific conferences
    German


     

    Help

    Search / advanced search of the idw archives
    Combination of search terms

    You can combine search terms with and, or and/or not, e.g. Philo not logy.

    Brackets

    You can use brackets to separate combinations from each other, e.g. (Philo not logy) or (Psycho and logy).

    Phrases

    Coherent groups of words will be located as complete phrases if you put them into quotation marks, e.g. “Federal Republic of Germany”.

    Selection criteria

    You can also use the advanced search without entering search terms. It will then follow the criteria you have selected (e.g. country or subject area).

    If you have not selected any criteria in a given category, the entire category will be searched (e.g. all subject areas or all countries).