idw – Informationsdienst Wissenschaft

Nachrichten, Termine, Experten

Grafik: idw-Logo
Grafik: idw-Logo

idw - Informationsdienst
Wissenschaft

Science Video Project
idw-Abo

idw-News App:

AppStore

Google Play Store



Instance:
Share on: 
07/29/2024 11:53

Künstliche Intelligenz (KI) und Vorurteil

Arista Ruml Hochschulkommunikation
Technische Hochschule Ingolstadt

    Mit Tools wie Midjourney lassen sich Texte in Bilder umwandeln. Die Ergebnisse sind beeindruckend detailliert und realitätsnah, allerdings nicht frei von Stereotypen. Hier setzt das von der Bayerischen Forschungsstiftung geförderte Projekt der THI-Professoren Torsten Schön und Matthias Uhl an: Die Forscher wollen der KI die Klischees abtrainieren.

    Tippt man in das Text-to-Image-Tool Midjourney „Picture of a nurse“ ein, zu Deutsch „Bild einer Krankenpflegerin bzw. eines Krankenpflegers“ ein, ist das Ergebnis bemerkenswert: Die KI generiert ausschließlich Bilder von jungen Frauen mit langen Haaren, allesamt weiß und normschön. Damit reproduziert das Tool nicht nur Schablonen, es gelingt ihm auch nicht, gesellschaftliche Vielfalt abzubilden und den „male gaze“, den männlich-sexualisierten Blick, zu überwinden. Genau das wollen Professor Torsten Schön und Professor Matthias Uhl an der Technischen Hochschule Ingolstadt (THI) mit ihrem interdisziplinären Forschungsprojekt „EvenFAIr“ ändern.

    Der Computer Vision-Professor Schön und der KI-Ethiker Uhl haben sich zum Ziel gesetzt, Fairness- und Diversitätskriterien zu implementieren. „Immer mehr Menschen nutzen generative Modelle wie ChatGPT, DALL-E oder Midjourny“, erklärt Schön. „Diese Tools berücksichtigen aber keine Fairnesskriterien, sondern reproduzieren und verstärken zum Teil Vorurteile.“ Das sei bedenklich, da die erzeugten Bilder nachweislich Einfluss auf die Meinungsbildung der Nutzerinnen und Nutzer haben. „Zudem ist bei sicherheitskritischen Anwendungen eine ausführliche Abwägung von Fairnesskriterien notwendig, um keine Personengruppen zu benachteiligen. Es ist fatal, wenn dunkelhäutige Menschen im Straßenverkehr von KI-Algorithmen schlechter erkannt werden und damit ein höheres Risiko haben, von autonomen Fahrzeugen übersehen zu werden.“

    Daher sei es von enormer Wichtigkeit, eine Methodik zu entwickeln, um Fairness in KI-Modellen messbar zu machen und bereits während der Entwicklung in den Trainingsprozess eingreifen zu können. Das Ziel des Forschungsvorhabens von Schön und Uhl, das in Kooperation mit e:fs konzipiert wurde, ist es, Möglichkeiten zu finden, um generative KI-Modelle standardisiert auf Fairnesskriterien zu überprüfen und ein Toolset zu haben, das diese Kriterien im Trainingsprozess etabliert, um faire generative KI-Modell zu gewährleisten: kurz eine KI ohne Vorurteile.


    Original publication:

    https://www.thi.de/hochschule/aktuelles/news/kuenstliche-intelligenz-ki-und-voru...


    Images

    Professor Torsten Schön lässt das Tool Midjourney Bilder erstellen (Foto: THI).
    Professor Torsten Schön lässt das Tool Midjourney Bilder erstellen (Foto: THI).
    THI
    THI

    Das Ergebnis ist nicht frei von Vorurteilen (Foto: THI).
    Das Ergebnis ist nicht frei von Vorurteilen (Foto: THI).
    THI
    THI


    Criteria of this press release:
    Journalists
    Information technology, Media and communication sciences, Philosophy / ethics, Social studies
    transregional, national
    Cooperation agreements, Research projects
    German


     

    Help

    Search / advanced search of the idw archives
    Combination of search terms

    You can combine search terms with and, or and/or not, e.g. Philo not logy.

    Brackets

    You can use brackets to separate combinations from each other, e.g. (Philo not logy) or (Psycho and logy).

    Phrases

    Coherent groups of words will be located as complete phrases if you put them into quotation marks, e.g. “Federal Republic of Germany”.

    Selection criteria

    You can also use the advanced search without entering search terms. It will then follow the criteria you have selected (e.g. country or subject area).

    If you have not selected any criteria in a given category, the entire category will be searched (e.g. all subject areas or all countries).