SmartKomEine der wichtigsten Herausforderungen für die Wissensgesellschaft ist
derzeit die Schaffung intelligenter multimodaler Benutzerschnittstellen,
die den natürlichen Kommunikationsstil von Computerlaien akzeptieren und
so unterstützen, dass eine für den Menschen intuitive und benutzergerechte
Interaktion entsteht. Computeranwendungen nehmen in allen Lebensbereichen
ebenso stark zu wie die Komplexität der Systeme. Hinzu kommt, dass die
Benutzer immer weniger Zeit haben, sich in neue Bedienkonzepte
einzuarbeiten, und dass die Kosten für die Entwicklung intelligenter
Benutzerschnittstellen reduziert werden müssen.Im Leitprojekt SmartKom wurden Konzepte für die Entwicklung völlig
neuartiger Formen der Mensch-Technik-Interaktion erprobt. Solche Konzepte
bauen die bestehenden Hemmschwellen von Computerlaien bei der Nutzung der
Informationstechnologie ab und leisten somit einen Beitrag zur
Nutzerfreundlichkeit - damit auch zur Akzeptanz - und zur
Nutzerzentrierung in der Wissensgesellschaft. Die Leitvorstellung des
SmartKom-Projekts war es, die Vorteile sprachlich-dialogischer
Kommunikation mit den Vorteilen graphischer Bedienoberflächen und taktiler
Interaktionsformen zu einem höherwertigen, oft multimodal genannten
Bedienparadigma zu verschmelzen. Der Lehrstuhl für Informatik 5 (Mustererkennung) entwickelte in SmartKom
Module zur multi-modalen Verarbeitung von Sprache, Mimik und Gestik. Dabei
handelt es sich zum einen um die Erkennung semantischer Information bei
Sprache und Gestik (Akzent- sowie syntaktisch-prosodische Grenzerkennung
bei Sprache, Erkennung von Zeigegesten), zum anderen um die Erkennung von
emotionalen Benutzerzuständen in allen drei Modalitäten. In Zusammenarbeit
mit anderen SmartKom-Partnern werden sog. Use Cases (exemplarische
Anwendungs-Konstellationen und -Aufgaben) entwickelt, deren
Randbedingungen geeignet sind, den Nutzen der Verarbeitung von emotionalen
Benutzerzuständen im Gesamtsystem zu demonstrieren. | Projektleitung: Prof. em. Dr.-Ing. Dr.-Ing. h.c. Heinrich Niemann, Prof. Dr.-Ing. Elmar Nöth
Beteiligte: Dr. phil. Anton Batliner, Dipl.-Inf. Carmen Frank, Dipl.-Inf. Johann Adelhardt, Ruiping Shi, M.S., Dr.-Ing. Viktor Zeissler
Stichwörter: Dialog; Mensch-Maschine-Interaktion; Sprachverarbeitung; Prosodie; Mimik; Gestik
Laufzeit: 1.9.1999 - 31.12.2003
Förderer: Bundesministerium für Bildung und Forschung
Mitwirkende Institutionen: DaimlerChrysler AG European Media Lab ICSI Universität Stuttgart Universität München MediaInterface Dresden GmbH Philips GmbH Siemens AG ZT Sony International GmbH Sympalog AG DFKI
Kontakt: Nöth, Elmar Telefon +49 9131 85 27888, Fax +49 9131 85 27270, E-Mail: elmar.noeth@fau.de
|