idw – Informationsdienst Wissenschaft

Nachrichten, Termine, Experten

Grafik: idw-Logo
Science Video Project
idw-Abo

idw-News App:

AppStore

Google Play Store



Instance:
Share on: 
11/30/2020 10:00

Handlungsempfehlungen für eine »vertrauenswürdige KI«

Anne-Catherine Jung Pressestelle
Fraunhofer-Institut für System- und Innovationsforschung (ISI)

    »Künstliche Intelligenz« (KI) beeinflusst schon heute unser Leben und wird dies in Zukunft noch stärker tun. KI-basierte Technologien bringen viele Vorteile, aber ebenso Risiken mit sich. Ein neues Impulspapier des vom Fraunhofer ISI koordinierten Forschungsverbunds Forum Privatheit gibt in diesem Kontext 15 Empfehlungen, wie die menschliche Selbstbestimmung trotz Künstlicher Intelligenz nicht nur erhalten, sondern sogar gefördert werden kann.

    In den letzten Jahren haben KI-Technologien rasante Fortschritte gemacht und werden bereits in den unterschiedlichsten Ausprägungen in Wirtschaft, Industrie oder der Medizin sowie vielen anderen Bereichen eingesetzt. Im Fokus stehen häufig die Vorteile, welche KI unbestritten mit sich bringt: So kann der Einsatz von KI-Technologien im Gesundheitswesen etwa bei Menschen mit Seh- oder Hörbehinderungen Wahrnehmungseinschränkungen ausgleichen. Ein weiteres, weit verbreitetes Einsatzgebiet ist personalisierte Werbung, die etwa auf das persönliche Profil von Nutzerinnen und Nutzern von Social-Media-Plattformen zugeschnitten ist.

    Wenn personalisierte Werbung allerdings in Abhängigkeit von psychometrisch ermittelten Persönlichkeitseigenschaften individualisiert, also mittels »Micro-Targeting« ein psychologisches Profil erstellt bzw. die Persönlichkeit eines Menschen digital ausgelesen wird, ist dies durchaus problematisch. Die auf solche Weise erzeugten individualisierten Marketing- oder Wahlkampfbotschaften können Verhaltensmanipulation begünstigen, was in fundamentalem Widerspruch zur Idee menschlicher Selbstbestimmtheit steht. Dies gilt ebenfalls, wenn Algorithmen über Kreditwürdigkeit und Bildungschancen von Menschen »entscheiden« oder selbstlernende Computersysteme täuschend echte Bilder, Texte oder Videos synthetisch erstellen und diese dazu eingesetzt werden, um Menschen zu schaden (»Deepfakes«).
    Grundlagen für eine »vertrauenswürdige KI«

    Um einem derartigen missbräuchlichen Einsatz vorzubeugen, sollte KI der Idee einer gemeinwohlorientierten Technikentwicklung folgen, die den Erhalt und Ausbau demokratischer Werte und Grundrechte zum Ziel haben. Daher ist es besonders wichtig, schon heute die Grundlagen für eine vertrauenswürdige KI zu legen, gerade weil eine vollständige Transparenz und Kontrolle über KI – so wie auch über andere komplexe Technologien – gar nicht möglich und auch nicht realistisch ist. Dennoch sollten Menschen KI-basierte Entscheidungslogiken verstehen können, weshalb Prinzipien wie Transparenz und Nachvollziehbarkeit eine wichtige Rolle zukommt.

    Der vom Fraunhofer ISI koordinierte Forschungsverbund Forum Privatheit hat in diesem Kontext ein Impulspapier zum Thema »Künstliche Intelligenz und Selbstbestimmung« verfasst und dabei 15 Handlungsempfehlungen für eine vertrauenswürdige KI formuliert, welche menschliche Selbstbestimmung trotz Künstlicher Intelligenz nicht nur erhalten, sondern sogar fördern können.
    Handlungsempfehlungen

    Eine der Empfehlungen lautet, dass algorithmischen Entscheidungssystemen mit Auswirkungen auf das menschliche Zusammenleben demokratisch festgelegte Fairnesskriterien zugrunde liegen müssen. Zudem sollte der Grad an Schutzmechanismen – etwa durch Regulierung seitens des Gesetzgebers – mit steigendem Schädigungspotenzial einer KI zunehmen. Neben verstärkten Pflichten für Produkt- bzw. Technologiehersteller potentiell gefährlicher KI-Anwendungen sollte auch die Vertretung von Betroffeneninteressen gestärkt werden. Zivilgesellschaftliche Initiativen und Intermediäre wie Datenschutz-Aufsichtsbehörden oder Verbraucherschutzorganisationen würden bei einer derartigen Konzeption einerseits Beratung über Risiken durch KI anbieten und andererseits bei der kritischen Bewertung von KI-Anwendungen, ihrer Zertifizierung und der Vertretung von Betroffeneninteressen mitwirken.
    Kritische Bewertungskompetenzen stärken

    Murat Karaboga, Privacy-Forscher am Fraunhofer ISI und Mitautor des Impulspapiers, unterstreicht: »Künftig sollte die kollektive Beteiligung an der Gestaltung von KI ein stärkeres Gewicht erhalten. Neben der Förderung der kritischen Bewertungskompetenz bei den Verbraucherinnen und Verbrauchern meint dies insbesondere die Stärkung von Einrichtungen wie Datenschutzbehörden oder Verbraucherschutzorganisationen, um unabhängige Kontrollen im KI-Bereich durchführen zu können. Schließlich möchte Deutschland und Europa den so genannten ‚dritten Weg‘ gemeinwohlorientierter KI und nicht den des rein profitorientierten Digitalkapitalismus weltweit dominanter IT-Firmen oder des totalitären Digitalautoritarismus chinesischer Spielart gehen.«

    Das Impulspapier ist Teil der Forschungsaktivitäten des Fraunhofer ISI im Bereich Künstliche Intelligenz. Dabei werden die Entwicklung und Implementierung von KI aus einer Innovationsperspektive analysiert. Der KI-Forschung am Fraunhofer ISI liegt ein systemischer Ansatz zugrunde, der die technischen, wirtschaftlichen, politischen und gesellschaftlichen Aspekte in den Blick nimmt und sowohl Potenziale als auch kritische Effekte von KI benennt.


    Contact for scientific information:

    Murat Karaboga
    Wissenschaftlicher Mitarbeiter
    Competence Center Neue Technologien des Fraunhofer ISI
    Telefon +49 721 6809-453
    murat.karaboga@isi.fraunhofer.de


    Original publication:

    Impulspapier "Künstliche Intelligenz und Selbstbestimmung": https://www.forum-privatheit.de/wp-content/uploads/Forum-Privatheit-Risiken-kuen...


    Images

    Criteria of this press release:
    Business and commerce, Journalists, Scientists and scholars, Students, Teachers and pupils, all interested persons
    Economics / business administration, Information technology, Media and communication sciences, Politics, Social studies
    transregional, national
    Research projects, Transfer of Science or Research
    German


     

    Help

    Search / advanced search of the idw archives
    Combination of search terms

    You can combine search terms with and, or and/or not, e.g. Philo not logy.

    Brackets

    You can use brackets to separate combinations from each other, e.g. (Philo not logy) or (Psycho and logy).

    Phrases

    Coherent groups of words will be located as complete phrases if you put them into quotation marks, e.g. “Federal Republic of Germany”.

    Selection criteria

    You can also use the advanced search without entering search terms. It will then follow the criteria you have selected (e.g. country or subject area).

    If you have not selected any criteria in a given category, the entire category will be searched (e.g. all subject areas or all countries).