Eine neue künstliche Intelligenz (KI) kann schwer zu lesende Texte auf Keilschrifttafeln entschlüsseln. Entwickelt wurde diese von einem Team der Martin-Luther-Universität Halle-Wittenberg (MLU), der Hochschule Mainz und der Johannes Gutenberg-Universität Mainz. Statt Fotos nutzt die KI 3D-Modelle der Tafeln und liefert deutlich zuverlässigere Ergebnisse als bisherige Methoden. So wird es möglich, den Inhalt vieler Tafeln zu durchsuchen und miteinander zu vergleichen. Das eröffnet völlig neue Perspektiven für die Forschung.
Die Forscher nutzten für ihren neuen Ansatz 3D-Modelle von knapp 2.000 Keilschrifttafeln, darunter etwa 50 aus einer Sammlung der MLU. Weltweit gibt es Schätzungen zufolge noch etwa eine Million solcher Tafeln. Viele davon sind über 5.000 Jahre alt und gehören damit zu den ältesten erhaltenen Schrifterzeugnissen der Menschheit. Ihr Inhalt deckt ein extrem breites Themenspektrum ab: "Auf ihnen ist alles zu finden: vom Einkaufszettel bis hin zu Gerichtsurteilen. Die Tafeln ermöglichen einen Blick in die Vergangenheit des Menschen vor mehreren Jahrtausenden. Allerdings sind sie stark verwittert und selbst für geübte Augen nur schwer zu entziffern", sagt Jun.-Prof. Dr. Hubert Mara von der MLU. Denn bei den Keilschrifttafeln handelt es sich um ungebrannte Tonklumpen, in die mit Hilfe von Keilen Schriftzeichen eingedrückt wurden. Erschwerend kommt hinzu, dass das damalige Schriftsystem sehr komplex war und für mehrere Sprachen benutzt wurde. Um die Zeichen richtig zu deuten, sind daher nicht nur optimale Lichtverhältnisse, sondern auch viel Hintergrundwissen nötig. "Bislang ist der Zugriff auf den Inhalt der Keilschrifttafeln schwierig - man muss schon genau wissen, wonach man wo sucht", so Mara weiter.
In seiner Arbeitsgruppe entstand daher die Idee, eine künstliche Intelligenz zu entwickeln, die anhand von 3D-Modellen die Schriftzeichen besser als bisherige Verfahren erkennt. Im Prinzip arbeitet die KI wie die sogenannte OCR-Methode (Optical Character Recognition, deutsch: optische Zeichenerkennung), bei der eine Software Schrift und Text in Bildern ermittelt. Das hat viele Vorteile: Einmal in Computertext umgewandelt, lässt sich die Schrift leichter lesen und ist zugleich durchsuchbar. "OCR arbeitet in der Regel mit Fotografien oder Scans. Für Tinte auf Papier oder Pergament ist das kein großes Problem mehr. Bei Keilschrifttafeln ist die Sache aber schwieriger, da das Licht und der Betrachtungswinkel einen großen Einfluss darauf haben, wie gut bestimmte Zeichen zu erkennen sind", erklärt Ernst Stötzner von der MLU. Er entwickelte die neue KI im Rahmen seiner Masterarbeit bei Hubert Mara.
Die neue KI trainierte das Team mit dreidimensionalen Scans und zusätzlichen Angaben, die zu großen Teilen von der Universität und der Hochschule Mainz zur Verfügung gestellt wurden. Dort ist die von der Deutschen Forschungsgemeinschaft geförderte "Digitale Edition der Keilschrifttexte aus Haft Tappeh" angesiedelt. Und tatsächlich gelang es der KI anschließend, die Schriftzeichen auf den Tafeln zuverlässig zu erkennen. "Überraschenderweise funktioniert unser System sogar sehr gut bei Fotografien, die eigentlich ein schlechteres Ausgangsmaterial darstellen", sagt Stötzner.
Die Arbeit der Forscher aus Halle und Mainz eröffnet einen neuen Zugang zu einem bislang eher exklusiven Material und damit auch zu vielen neuen Forschungsfragen. Bisher handelt es sich dabei um einen Prototyp, der Schriftzeichen von zwei Sprachen zuverlässig erkennt. Insgesamt sind aber zwölf Keilschriftsprachen bekannt. Perspektivisch könnte die Software auch dabei helfen, verwitterte Inschriften zum Beispiel auf Friedhöfen zu erkennen, die wie die Keilschrift dreidimensional angelegt sind.
Ihre Arbeit konnten die Wissenschaftler der MLU gemeinsam mit Timo Homburg von der Hochschule Mainz bereits auf mehreren international renommierten Fachkonferenzen präsentieren, zuletzt auf der "International Conference on Computer Vision". Vor wenigen Wochen erhielt das Team den "Best Paper Award" der Konferenz "Graphics and Cultural Heritage".
Zum Paper: Stötzner E., Homburg T., Bullenkamp J.P. & Mara H. R-CNN based Polygonal Wedge Detection Learned from Annotated 3D Renderings and Mapped Photographs of Open Data Cuneiform Tablets. GCH 2023 - Eurographics Workshop on Graphics and Cultural Heritage. doi: 10.2312/gch.20231157
https://diglib.eg.org/handle/10.2312/gch20231157
Ernst Stötzner beim Scannen
Uni Halle / Maike Glöckner
Scan einer Tafel
Uni Halle / Maike Glöckner
Criteria of this press release:
Journalists, all interested persons
Cultural sciences, History / archaeology, Information technology, Social studies
transregional, national
Research results
German
You can combine search terms with and, or and/or not, e.g. Philo not logy.
You can use brackets to separate combinations from each other, e.g. (Philo not logy) or (Psycho and logy).
Coherent groups of words will be located as complete phrases if you put them into quotation marks, e.g. “Federal Republic of Germany”.
You can also use the advanced search without entering search terms. It will then follow the criteria you have selected (e.g. country or subject area).
If you have not selected any criteria in a given category, the entire category will be searched (e.g. all subject areas or all countries).