idw - Informationsdienst
Wissenschaft
Abituraufsätze von ChatGPT oder KI-generierte Fotos des Papstes in weißer Daunenjacke – solche Beispiele zeigen, dass künstliche Intelligenz das Potenzial hat, die menschliche Wahrnehmung und die Vertrauenswürdigkeit von digitalen Medien zu verändern. Welche Potenziale und Gefahren ergeben sich aus KI-generierten Medien? Wie lassen sich künstliche und menschengemachte Inhalte unterscheiden? Diese und weitere Fragen diskutieren Expert*innen aus Forschung, Industrie und Behörden auf dem 12. Anwendertag IT-Forensik am 14.9. am Fraunhofer SIT in Darmstadt. Mehr Informationen und Anmeldung unter https://www.sit.fraunhofer.de/anwendertag-it-forensik/.
„Seit ChatGPT auf dem Markt ist, ist das Thema künstliche Intelligenz in der breiten Öffentlichkeit angekommen, doch auch Kriminelle nutzen KI bereits für ihre Zwecke, und KI-generierte Daten stellen deshalb bereits jetzt für viele Bereiche eine große Herausforderung dar“, sagt die IT-Forensikerin Ann-Katrin Riedel, Organisatorin des Anwendertags IT-Forensik und Wissenschaftlerin am Fraunhofer SIT. Unter dem Motto „KI-generierte Daten auf dem Prüfstand“ widmet sich der Anwendertag am 14. September deshalb den Chancen und Risiken, die sich aus KI-genierten Daten für verschiedene Bereiche ergeben, zum Beispiel für die Vertrauenswürdigkeit von Beweismitteln oder biometrischen Gesichtsbildern. Im Vortrag „Grenzen von ChatGPT in der Regulatorik“ beleuchtet Sarah Holschneider von der eloquest GmbH die Einsatzmöglichkeiten von ChatGPT in der Finanzwirtschafts-Regulatorik.
Straftaten mit Deepfakes
Nicht nur Texte, auch synthetisch erzeugte Bilder, Audio- und Video-Daten können missbräuchlich zum Einsatz kommen – Deepfakes, also täuschend echt aussehende Manipulationen von Videos, sind zunehmend ein Problem in Videoverhandlungen bei Gericht. Hierüber sprechen Simone Salemi und Bianca Steffens vom Zentrum für Recht und Digitalisierung. Wie über Deepfakes auch Straftaten begangen werden können, etwa zur Vortäuschung einer falschen Identität im Video-PostIdent-Verfahren, und wie sich Deepfakes erkennen lassen, darüber spricht Ermittlerin und Cybercrime-Spezialistin Antje Marschall.
Auch die Manipulation von Audiodateien ist mit KI-Anwendungen einfach und schnell möglich geworden. Patrick Aichroth vom Fraunhofer IDMT zeigt in seinem Vortrag technische Ansätze, wie Audio-Fakes und Desinformationen erkannt und analysiert werden können. Weitere Vorträge behandeln die synthetische Generierung von Gesichtsbildern (Dominik Lawatsch, secunet Security Networks), sowie aktuelle Themen der Mediensynthese (Andreas Blattmann, Stability AI).
Der Anwendertag IT-Forensik wendet sich an IT-Sicherheitsexpert*innen, Ermittelnde aus Sicherheitsbehörden und Unternehmen, Forschende aus IT-Sicherheit und KI sowie Expert*innen und Anwender*innen aus den Bereichen Data Science und Data Analytics. Die Veranstaltung findet am 14. September 2023 von 10 bis 19 Uhr in hybrider Form statt; eine Teilnahme ist online oder vor Ort möglich. Mehr Informationen und Anmeldung unter https://www.sit.fraunhofer.de/anwendertag-it-forensik/
https://www.sit.fraunhofer.de/anwendertag-it-forensik/
Criteria of this press release:
Journalists, Scientists and scholars, all interested persons
Information technology, Law, Social studies
transregional, national
Advanced scientific education, Scientific conferences
German
You can combine search terms with and, or and/or not, e.g. Philo not logy.
You can use brackets to separate combinations from each other, e.g. (Philo not logy) or (Psycho and logy).
Coherent groups of words will be located as complete phrases if you put them into quotation marks, e.g. “Federal Republic of Germany”.
You can also use the advanced search without entering search terms. It will then follow the criteria you have selected (e.g. country or subject area).
If you have not selected any criteria in a given category, the entire category will be searched (e.g. all subject areas or all countries).