idw – Informationsdienst Wissenschaft

Nachrichten, Termine, Experten

Grafik: idw-Logo
Grafik: idw-Logo

idw - Informationsdienst
Wissenschaft

Science Video Project
idw-Abo

idw-News App:

AppStore

Google Play Store



Instance:
Share on: 
01/29/2019 12:59

Das Vorurteil der Maschine

Matthias Fejes Pressestelle und Crossmedia-Redaktion
Technische Universität Chemnitz

    Nachvollziehbarkeit und Verantwortlichkeit als Herausforderungen im Umgang mit Künstlicher Intelligenz

    Die gängigen Bedrohungsszenarien zur Künstlichen Intelligenz (KI) warnen vor ihren vermeintlich überlegenen Fähigkeiten. Die wahre Gefahr liegt aber momentan eher in ihrer Überschätzung und im blinden Vertrauen in die scheinbare Objektivität maschineller Entscheidungsprozesse. Die Chemnitzer Professoren Wolfgang Einhäuser-Treyer und Alexandra Bendixen plädieren für eine nachvollziehbare KI.

    KI ist kein neues Thema. Die theoretischen und philosophischen Betrachtungen zu KI reichen bis in die Anfänge der Informatik in der Mitte des 20. Jahrhunderts zurück. Trotz erster Erfolge in den frühen 1980ern, etwa im Bereich der Handschriftenerkennung, findet KI erst heute Beachtung in der breiten Öffentlichkeit. Dabei ist der aktuelle Fortschritt der KI weniger auf grundlegend neue Konzepte zurückzuführen als vielmehr auf eine gebündelte Verfügbarkeit riesiger Datenmengen – den Big Data.

    Das Versprechen: Erkennen von verborgenen Mustern und Informationen

    KI kann in riesigen Datenmengen Muster erkennen: Beispielsweise lernt sie anhand unzähliger Fotos von Haustieren, die mit dem Etikett (Label) „Hund“ oder „Katze“ verknüpft sind, diese Tierarten auseinanderzuhalten. Dafür muss man der KI nicht beibringen, was einen Hund von einer Katze unterscheidet - es genügen die Fotos und deren Labels. Die KI erlernt daraus selbständig die relevanten Unterscheidungsmerkmale. Interessant wird diese selbstlernende KI dann, wenn sie Muster erkennt, die dem Menschen selbst bisher verborgen blieben. Welche Merkmale unterscheiden beispielsweise kreditwürdige von weniger kreditwürdigen Personen?

    Entsprechend groß sind die Hoffnungen auf mögliche Anwendungen. Gesellschaftlich und individuell hoch bedeutsame Entscheidungen sollen der KI überlassen werden: von der Kreditvergabe über die medizinische Behandlung bis hin zur Vorhersage von potentiell gefährlichen Handlungen im öffentlichen Raum anhand von Videomaterial. Durch den scheinbar objektiven Algorithmus – so die Hoffnung – sollen „bessere“, „schnellere“ und vor allem „gerechtere“ Entscheidungen getroffen werden als bei der Beurteilung durch vermeintlich vorurteilsbehaftete Menschen.

    Die unvermeidliche Schwäche: eine verzerrte Datenbasis

    Das klingt zunächst vielversprechend – aber sind die Entscheidungen der KI wirklich objektiv und neutral? Das können sie nur sein, wenn die verfügbare Datenbasis keine Verzerrungen beinhaltete. Wenn eine bestimmte Katzenart in der Datenbasis viel zu selten vertreten war, kann es passieren, dass der Algorithmus solche Katzen nicht korrekt zu erkennen lernt. Dieses Beispiel ist nicht zufällig gewählt: Ein besonders schwerer KI-Fehler genau dieser Art führte vor einigen Jahren völlig zu Recht zu einem öffentlichen Aufschrei – die automatische Bilderkennungssoftware einer großen Softwarefirma hatte ein Foto einer Gruppe von Afroamerikanern fälschlicherweise als „Gorillas“ klassifiziert. Wie kann eine derart gravierende Fehlklassifikation passieren? In der zugrundeliegenden Datenbank war die Kategorie „Mensch“ vermutlich massiv in Richtung hellhäutiger Personen verzerrt – mit anderen Worten: Es waren viel mehr Bilder hellhäutiger als dunkelhäutiger Menschen vertreten. Dieses tragische Beispiel zeigt, wie aus der verzerrten Zusammensetzung einer Datenbank ein dramatisches Fehlurteil entstehen kann, das man einem Menschen zu Recht als schlimmste Diskriminierung vorwerfen würde.

    Die Vorurteile der Maschine

    Wenn sich aber KI-Systeme schon bei solch einfachen Fragestellungen (Ist ein Mensch abgebildet oder nicht?) irren können, wie sieht es dann bei komplexeren Fragestellungen aus? Wie verhält es sich zum Beispiel mit Entscheidungen über Kreditwürdigkeit, die im Bank- und Versicherungswesen durchaus bereits Anwendung finden? Die Datenbasis besteht hier aus einer Sammlung von Informationen über Personen, die Kredite erhalten haben, und über deren spätere Zahlungsfähigkeit. Wenn das KI-System „gelernt“ hat, dass Personen mit bestimmten Eigenschaften besonders häufig zahlungsunfähig werden, wird es daraus die Entscheidung ableiten, dass andere Personen mit denselben Eigenschaften keinen Kredit mehr erhalten sollten. Wie bei der Bildklassifikation irrt der Algorithmus unweigerlich, wenn die Datenbasis verzerrt ist. Zwei Dinge sind in diesem Fall aber anders: Erstens kann der Mensch das Fehlurteil des KI-Systems nicht mehr erkennen, weil die „richtige“ Antwort nicht klar ist – niemand weiß, ob die betreffende Person vielleicht doch kreditwürdig gewesen wäre. Zweitens verletzt die Entscheidung nicht mehr allein die Würde der Person, sondern behindert sie auch in ihren gesellschaftlichen Entwicklungsmöglichkeiten – die Diskriminierung wird unter Umständen zu einem existenzbedrohenden Problem.

    Abwälzen von Verantwortung und Mangel an Nachvollziehbarkeit

    Verzerrungen in den Datenbanken, mit denen selbstlernende Algorithmen trainiert werden, führen also im wahrsten Wortsinn zu Vorurteilen bei der Bewertung individueller Fälle. Die Problematik solcher vorurteilsbehafteten Entscheidungen wird weiter verstärkt, wenn sich die Ausführenden dieser Verzerrungen nicht bewusst sind oder die Verantwortung auf die scheinbar objektiv urteilende KI abwälzen: „Der Computer hat auf Basis Ihrer Daten entschieden, dass Sie keinen Kredit erhalten, da kann ich als Bankangestellter nichts machen.“

    Man könnte gegen diese Kritik zunächst einwenden, dass auch Menschen ihren eigenen Vorurteilen unterliegen. Dieser Einwand ist zweifelsfrei berechtigt, doch kann der Mensch gezwungen werden, sich mit diesen Vorurteilen auseinanderzusetzen und Verantwortung für seine Entscheidungen zu übernehmen. Solch eine Zuschreibung von Verantwortung bleibt selbst dann möglich, wenn sich der Entscheider der Quelle seiner Vorurteile und dem Ablauf seiner Entscheidungsprozesse nicht vollumfänglich bewusst ist. Bei der selbstlernenden KI liegen die Verzerrungen – also die Vorurteile – schon in der Datenbank begründet, mit der sie trainiert wird. Hinzu kommt, dass bei hinreichend komplexen Systemen in der Regel nicht mehr nachvollziehbar ist, auf welcher Grundlage eine Entscheidung getroffen wurde – auf welchen Merkmalen die Entscheidung also basierte und wie diese miteinander verknüpft wurden. Nachvollziehbarkeit von und Verantwortlichkeit für Entscheidungsprozesse sind aber die zentralen Voraussetzungen für die Akzeptanz von Entscheidungen und Grundlage jeder gesellschaftlichen und rechtlichen Ordnung, der solche Entscheidungen zu Grunde liegen.

    Keine Korrekturmöglichkeit maschineller Vorurteile

    Man könnte weiter einwenden, dass mit hinreichenden Datenmengen das Problem der Verzerrung der Datenbanken nach und nach vernachlässigbar werde. Gerade am Beispiel der Kreditwürdigkeit stellt man jedoch schnell fest, dass sich die Verzerrungen der Datenbank nicht mehr rückgängig machen lassen, sobald man beginnt, den Entscheidungen der KI zu folgen. Wenn Kredite also an bestimmte Personengruppen nicht mehr vergeben werden, so wird man auch keine Daten mehr zu der Frage sammeln, ob die Personen am Ende doch kreditwürdig gewesen wären. Die Datenbasis bleibt verzerrt; die Entscheidungen bleiben vorurteilsbehaftet. Dasselbe Problem führt übrigens auch beim Menschen in vielen Fällen zur hartnäckigen Festsetzung von Vorurteilen, die sich durch eine größere Datenbasis leicht abbauen ließen.

    Die wahre Chance: Vernetzung großer Datenmengen unter Verantwortung des Menschen

    Die bisherigen Ausführungen sollen keinesfalls bedeuten, dass der Einsatz von selbstlernender KI immer von Nachteil sein muss. Im Gegenteil – es gibt Bereiche, in denen das Erkennen von Zusammenhängen in großen Datenbanken für den Einzelnen gewaltige Vorteile mit sich bringen kann. So kann ein Patient mit einer seltenen Symptomatik sehr davon profitieren, nicht nur auf die Erfahrung einer einzelnen Ärztin oder eines einzelnen Arztes zugreifen zu können, sondern auf den gewichteten Erfahrungsschatz der gesamten Ärzteschaft. Im besten Fall ergeben sich durch die KI neue Ideen zur Einordnung der Symptome und zur geeigneten Behandlung. Bevor Therapieentscheidungen für die einzelne Person abgeleitet werden, muss aber auch hier wieder das Risiko von Verzerrungen der Datenbasis bedacht werden.

    Die zentrale Herausforderung: Nachvollziehbarkeit

    Wie können die Vorteile selbstlernender KI-Systeme für die Gesellschaft und für den Einzelnen genutzt werden, ohne sich die erwähnten Nachteile einzuhandeln? Auf der Seite der Forschenden an selbstlernenden Systemen und auf Seiten der Öffentlichkeit ist das Bewusstsein für die unvermeidlichen Verzerrungen von Datenbanken zu schärfen. Scheinbar objektive Algorithmen unterliegen genau wie Menschen „Vorurteilen“, deren Quellen häufig schwer nachzuvollziehen sind. Das Abwälzen der Verantwortung für Entscheidungen auf ein KI-System ist daher nicht hinnehmbar. Gleichzeitig sind Verfahren weiter voranzutreiben, die Entscheidungsprozesse in KI-Systemen nachvollziehbar machen. Die Nachvollziehbarkeit von Datenverarbeitungs- und Entscheidungsprozessen ist die Grundvoraussetzung dafür, dass der Einzelne den Umgang mit seinen Daten einordnen und somit sein Recht auf informationelle Selbstbestimmung effektiv ausüben kann.

    Die Rolle der Schulen und Hochschulen: Verantwortlichkeit lehren und leben

    Nachvollziehbare KI wird nicht zuletzt von der Wechselwirkung mit denjenigen Disziplinen profitieren, die sich seit jeher mit der Vorurteilsbehaftung von Entscheidungen befassen – der Psychologie, den Kognitionswissenschaften sowie Teilen der Wirtschaftswissenschaften. Schulen und Hochschulen müssen sich der Herausforderung stellen, eine umfassende Betrachtung von KI-Systemen zu vermitteln. In den technischen und informationstechnischen Disziplinen erfordert dies eine Diskussion der gesellschaftlichen Konsequenzen verzerrter Daten, in den human- und sozialwissenschaftlichen Disziplinen eine Schärfung des nötigen Technikverständnisses. Eine solide Bildung in den menschlichen, gesellschaftlichen und technischen Aspekten selbstlernender informationsverarbeitender Systeme bildet die beste Voraussetzung, die Chancen und Risiken von KI einzuordnen, entsprechende Systeme mitzugestalten und ihren verantwortungsvollen Einsatz sicherzustellen.

    Hintergrund: Prof. Dr. Wolfgang Einhäuser-Treyer und Prof. Dr. Alexandra Bendixen

    Wolfgang Einhäuser-Treyer (mytuc.org/zndx) studierte Physik in Heidelberg und Zürich. Nach Promotion an der ETH Zürich im Gebiet Neuroinformatik, Postdoktorandentätigkeit am California Institute of Technology und wiederum der ETH u. a. zum Thema maschinelles Lernen sowie einer Juniorprofessur für Neurophysik an der Universität Marburg ist er seit 2015 Professor für die Physik kognitiver Prozesse an der TU Chemnitz.

    Alexandra Bendixen (mytuc.org/gmrx) studierte Psychologie in Leipzig und Grenoble und promovierte an der Universität Leipzig im Bereich der Kognitions- und Neurowissenschaften. Nach einer Forschungstätigkeit an der Ungarischen Akademie der Wissenschaften in Budapest, Habilitation an der Universität Leipzig sowie einer Juniorprofessur für Psychophysiologie des Hörens an der Carl-von-Ossietzky-Universität Oldenburg ist sie seit 2015 Professorin für Struktur und Funktion kognitiver Systeme an der TU Chemnitz.

    Im Studiengang Sensorik und kognitive Psychologie (mytuc.org/ngwk) an der TU Chemnitz ist es beiden ein Anliegen, die Verknüpfungen zwischen physikalischen-technischen und menschlich-psychologischen Inhalten auch ihren Studierenden zu vermitteln.

    (Autoren: Prof. Dr. Wolfgang Einhäuser-Treyer und Prof. Dr. Alexandra Bendixen)


    Contact for scientific information:

    Prof. Dr. Wolfgang Einhäuser-Treyer, Physik kognitiver Prozesse: wolfgang.einhaeuser-treyer@physik.tu-chemnitz.de

    Prof. Dr. Alexandra Bendixen, Struktur und Funktion kognitiver Systeme: alexandra.bendixen@physik.tu-chemnitz.de


    Images

    Prof. Dr. Wolfgang Einhäuser-Treyer und Prof. Dr. Alexandra Bendixen plädieren für einen verantwortungsvollen Einsatz von KI-Technologie.
    Prof. Dr. Wolfgang Einhäuser-Treyer und Prof. Dr. Alexandra Bendixen plädieren für einen verantwortu ...
    Foto und Bearbeitung: Jacob Müller
    None


    Criteria of this press release:
    Journalists, Scientists and scholars
    Information technology, Physics / astronomy
    transregional, national
    Transfer of Science or Research
    German


     

    Help

    Search / advanced search of the idw archives
    Combination of search terms

    You can combine search terms with and, or and/or not, e.g. Philo not logy.

    Brackets

    You can use brackets to separate combinations from each other, e.g. (Philo not logy) or (Psycho and logy).

    Phrases

    Coherent groups of words will be located as complete phrases if you put them into quotation marks, e.g. “Federal Republic of Germany”.

    Selection criteria

    You can also use the advanced search without entering search terms. It will then follow the criteria you have selected (e.g. country or subject area).

    If you have not selected any criteria in a given category, the entire category will be searched (e.g. all subject areas or all countries).