idw – Informationsdienst Wissenschaft

Nachrichten, Termine, Experten

Grafik: idw-Logo
Science Video Project
idw-Abo

idw-News App:

AppStore

Google Play Store



Instance:
Share on: 
10/27/2021 10:00

Das Gemeinwohl im Blick: Wie wir KI verantwortlich gestalten

Linda Treugut Geschäftsstelle
Lernende Systeme - Die Plattform für Künstliche Intelligenz

    Künstliche Intelligenz ist ein mächtiges Werkzeug, mit dem sich Prozesse verbessern und neue Produkte und Dienstleistungen entwickeln lassen. Doch mit welchem Ziel wollen wir KI als Gesellschaft nutzen? Darüber ist ein breiter gesellschaftlich-politischer Diskurs notwendig, um geeignete Rahmenbedingungen festzulegen. Wie das gelingen kann, erläutert Jessica Heesen im Interview. Die Philosophin und Medienethikerin leitet den Forschungsschwerpunkt Medienethik und Informationstechnik am Internationalen Zentrum für Ethik in den Wissenschaften der Universität Tübingen sowie die Arbeitsgruppe „IT-Sicherheit und Privacy, Recht und Ethik“ der Plattform Lernende Systeme.

    Frau Heesen, wie lässt sich Künstliche Intelligenz zielgerichtet zum Wohl der Menschen einsetzen?

    Jessica Heesen: Das lässt sich erst einmal gar nicht so einfach sagen, solange wir nicht übereinstimmen, was denn das Wohl des Menschen ist. Verbreitet ist etwa das Menschenbild des homo oeconomicus, in dem der Mensch seine Handlungen zum Zweck des persönlichen und finanziellen Profits ausrichtet. Möchte man KI entsprechend dieses Menschenbildes einsetzen, würde genau das passieren, was wir derzeit beobachten können: Unternehmen nutzen KI zur Profitmaximierung, unter anderem, indem sie Überkonsum erzeugen. Das gelingt ihnen im Online-Handel beispielsweise durch personalisierte Werbung oder automatisierte Empfehlungen.

    Ich glaube jedoch nicht, dass der Mensch grundlegend nur auf Profite aus ist. Vielmehr ist er ein soziales Wesen, das in einer Gemeinschaft leben will und bestimmte Werte anstrebt – etwa soziale Anerkennung. Möchte man KI im Sinne dieses Menschenbildes nutzen, treten soziale und ökologische Themen in den Vordergrund. Der Anreiz des Einzelnen, KI-Systeme für sozialökologische Nachhaltigkeit hervorzubringen, könnte hier also die soziale Anerkennung anstelle des Profits sein. Was wir benötigen, ist also zunächst ein Anreizsystem, auf dessen Grundlage KI genutzt wird. Der Staat hat dafür zahlreiche Instrumente zur Verfügung, beispielsweise die Förderung von Ehrenamt oder sogenannte Civic Technologies mit Wettbewerbsausschreibungen.

    Wie gelingt es, die breite Gesellschaft in eine Zukunft mit KI zu führen?

    Jessica Heesen: Zuallererst muss man dafür natürlich anmerken: KI-Systeme werden schon heute in den verschiedensten Bereichen angewendet, es ist also keineswegs eine Frage für die Zukunft. Dennoch haben viele Menschen Vorbehalte gegen KI. Oftmals wird gesagt, dass man vertrauen müsse – als ob die Bürgerinnen und Bürger dabei in der Pflicht seien. Dabei ist es doch so: Um begründetes Vertrauen zu schaffen, muss zunächst das Misstrauen akzeptiert werden, denn nur so können sich die Nutzerinnen und Nutzer ein eigenes Bild von den Chancen und Risiken der Anwendungen machen. Es geht also um Transparenz. Aber Transparenz darf auch nicht als Selbstzweck verstanden werden. Nur wenn Einzelpersonen auch eine tatsächliche Wahl haben, sich gegen die Nutzung der Anwendung zu entscheiden, ist Transparenz eine vertrauensbildende Maßnahme.

    Eine weitere Maßnahme ist die Zertifizierung von KI. Für die Nutzerinnen und Nutzer ist der Datenschutz ein wichtiges Thema, doch auch für ökologische Nachhaltigkeit sind Zertifikate ein gutes Steuerungselement, beispielsweise durch eine Selbstverpflichtung in der Industrie. Allerdings gestaltet es sich sehr schwierig, sich auf gemeinsame Kriterien für eine Zertifizierung von KI zu einigen, zumal immer wieder gemahnt wird, dass eine zu scharfe Regulierung die Wirtschaft und Innovationen bremst.

    Hier klingt an, dass Interessen der Wirtschaft und Gemeinwohl nicht immer übereinstimmen. Brauchen wir mehr Eingriffe in die freie Marktwirtschaft in Sachen KI?

    Jessica Heesen: Eine wirklich freie Marktwirtschaft haben wir in dieser Sache ja gar nicht, denn es bestehen starke Monopole auf dem Markt, wenn es um KI geht. Google ist dafür nur ein Beispiel. Und ja, hier können Eingriffe ein Teil der Lösung sein. Wie eine nachhaltige und gerechte Entwicklung in der Digitalisierung aussehen soll, sollten wir nicht Konzernen überlassen. Stattdessen sollten wir eine plurale Wirtschaft anstreben, in der sich auch einzelne wohlwollende Entwicklerinnen und Entwickler durchsetzen können. Das ist momentan nicht der Fall.

    Natürlich muss auch darüber gesprochen werden, was mit den mit KI erwirtschafteten Gewinnen passiert. Die High Level Expert Group on Artificial Intelligence spricht sich in ihren Ethik-Guidelines etwa dafür aus, dass Gewinne gerecht in der Gesellschaft verteilt werden. Man sollte betonen, dass KI nicht nur Unternehmen und wohlhabenden Einzelpersonen nutzt, sondern auch die soziale Wohlfahrt stärken und einen Vorteil für alle erbringen kann. Dann wird auch die Zustimmung für KI in der Bevölkerung wachsen.


    Original publication:

    https://www.plattform-lernende-systeme.de/files/Downloads/Publikationen/PLS_KI_u... - Im Interview-Band KI und Nachhaltigkeit, der von Christiane Schulzki-Haddouti für die Plattform Lernende Systeme verfasst wurde, finden Sie zahlreiche Interviews und eine ausführliche Version des Gesprächs mit Jessica Heesen.


    Images

    Jessica Heesen leitet einen Forschungsschwerpunkt an der Universität Tübingen und eine Arbeitsgruppe an der Plattform Lernende Systeme
    Jessica Heesen leitet einen Forschungsschwerpunkt an der Universität Tübingen und eine Arbeitsgruppe ...

    Plattform Lernende Systeme


    Criteria of this press release:
    Journalists
    Economics / business administration, Environment / ecology, Information technology, Philosophy / ethics, Politics
    transregional, national
    Transfer of Science or Research
    German


     

    Jessica Heesen leitet einen Forschungsschwerpunkt an der Universität Tübingen und eine Arbeitsgruppe an der Plattform Lernende Systeme


    For download

    x

    Help

    Search / advanced search of the idw archives
    Combination of search terms

    You can combine search terms with and, or and/or not, e.g. Philo not logy.

    Brackets

    You can use brackets to separate combinations from each other, e.g. (Philo not logy) or (Psycho and logy).

    Phrases

    Coherent groups of words will be located as complete phrases if you put them into quotation marks, e.g. “Federal Republic of Germany”.

    Selection criteria

    You can also use the advanced search without entering search terms. It will then follow the criteria you have selected (e.g. country or subject area).

    If you have not selected any criteria in a given category, the entire category will be searched (e.g. all subject areas or all countries).