CoMET - ein Ergebnis des THESEUS-Projekts, gefördert vom Bundesministerium für Wirtschaft und Technologie (BMWi), zeigt, wie mehrere Nutzer über gesprochene Sprache und Gestik gemeinsam und intuitiv an einem Multitouchterminal Informationen und Medien austauschen: Bild-, Video- und Musikdateien können gruppiert, annotiert, gemeinsam betrachtet oder einfach nur abgespielt werden. Präsentiert wird das CoMET-System auf dem DFKI-Stand im future parc der CeBIT 2009 (Halle 9, Stand B45).
Das am DFKI Saarbrücken entwickelte CoMET-System (Collaborative Media Exchange Terminal) macht die Faszination des Social Semantic Web oder Web 3.0 erfahrbar. CoMET und seine verschiedenen Modalitäten vermitteln einen Eindruck, wie zukünftige Interaktionen mit dem semantischen Internet aussehen könnten.
Als Eingabemenge für das CoMET-System werden auf einem mobilen Endgerät gespeicherte Medien genutzt. Mit dieser für gewöhnlich heterogenen Datenmenge kann per Geste oder Sprache interagiert werden. Zur weiteren Verarbeitung eines oder mehrerer Medienobjekte dienen intelligente Agenten (Spotlets), die diverse Interaktionsmöglichkeiten bieten, zum Beispiel die Aktivierung semantischer Operationen oder die Abfrage von externen Webservices.
Mittels des einfachen und intuitiven Interaktionskonzepts von CoMET soll der Benutzer in die Lage versetzt werden, mit diesen Technologien umzugehen, ohne dass die Darstellung der Details verwendeter semantischer Technologien dies unnötig verkompliziert. Dazu bietet das Framework Schnittstellen zur multimodalen Interaktion, wie zum Beispiel eine Kombination aus Sprache und Gestik.
Ziel des CoMET-Projekts ist die Entwicklung eines Frameworks, das auf der Grundlage von Technologien des semantischen Internet Medieninhalte unterschiedlichster Art verarbeiten und austauschen kann. Dieser Ansatz ermöglicht eine flexible Integration des Systems in zahlreiche Kontexte und Anwendungen. Das Framework unterstützt den Benutzer durch einen intuitiven, GUI-basierten Zugang mit gängigen Social Software-Funktionalitäten und intelligenten Tag Recommendation-Verfahren.
Das multimodale Dialogsystem basiert auf ODP-Technologie (Ontology-based Dialogue Platform). Es interpretiert die Eingabemodalitäten Sprache und Gestik, und ermöglicht zudem einen schnellen Zugriff auf die ontologische Repräsentation von extrahierten Mediendaten wie MP3 und Video.
Weitere Informationen und Video
www.dfki.de/iui/advanti/lab
http://tr.im/cometvideo
Projektkontakt
Simon Bergweiler und Mathieu Deru
Forschungsbereich Intelligente Benutzerschnittstellen
E-Mail: advantilab@dfki.de
Tel. +49 (0)681 302-5266
Eine Beschreibung sämtlicher Exponate des DFKI finden Sie online unter http://www.dfki.de/web/aktuelles/cebit2009
DFKI Team Unternehmenskommunikation. Email: uk-sb@dfki.de
DFKI-Pressekontakt:
Reinhard Karger, M.A.
Deutsches Forschungszentrum für Künstliche Intelligenz (DFKI) GmbH
Campus, Geb. D 3.2, D-66123 Saarbrücken
Tel.: +49 (0)681-302 5253, Fax: +49 (0)681-302 5485, Mobil: +49 (0)151 15674571
E-Mail: reinhard.karger@dfki.de
http://www.dfki.de
http://www.dfki.de/web/aktuelles/cebit2009
http://twitter.com/dfki
http://www.dfki.de/iui/advanti/lab
http://tr.im/cometvideo
http://www.cebit.de/homepage_d
http://www.dfki.de/web/aktuelles/dfki-newsletter/Newsletter23.pdf
Merkmale dieser Pressemitteilung:
Informationstechnik
überregional
Forschungs- / Wissenstransfer, Forschungsprojekte
Deutsch
Sie können Suchbegriffe mit und, oder und / oder nicht verknüpfen, z. B. Philo nicht logie.
Verknüpfungen können Sie mit Klammern voneinander trennen, z. B. (Philo nicht logie) oder (Psycho und logie).
Zusammenhängende Worte werden als Wortgruppe gesucht, wenn Sie sie in Anführungsstriche setzen, z. B. „Bundesrepublik Deutschland“.
Die Erweiterte Suche können Sie auch nutzen, ohne Suchbegriffe einzugeben. Sie orientiert sich dann an den Kriterien, die Sie ausgewählt haben (z. B. nach dem Land oder dem Sachgebiet).
Haben Sie in einer Kategorie kein Kriterium ausgewählt, wird die gesamte Kategorie durchsucht (z.B. alle Sachgebiete oder alle Länder).