"Das ist eine Grundlagentechnologie, an der wir arbeiten, die vielleicht zu Anfang insofern überschätzt wurde, als man gesagt hat, da kann man vielleicht innerhalb der nächsten drei, vier Jahre zum Beispiel Gebärdensprachdolmetscher komplett ersetzen."
Thomas Hanke vom Institut für deutsche Gebärdensprache der Universität Hamburg arbeitet seit über 15 Jahren an computerbasierten Systemen, die Gebärdensprache darstellen, verstehen und übersetzen können. Die vollmundigen Versprechungen vor einigen Jahren, sagt er, die hätten seinerzeit Journalisten in die Welt gesetzt.
"Jetzt ist man vielleicht von allen Seiten ein Bisschen realistischer als man war. Was uns die Arbeit eigentlich erleichtert."
Virtual Guido, so hieß der dolmetschende Avatar, der im 2004 ausgelaufenen EU-Projekt eSIGN unter Beteiligung des Hamburger Linguistik-Experten entwickelt wurde: Ein virtueller junger Mann im blauen T-Shirt, den Thomas Hanke per Mausklick dazu bringen kann, Wörter der deutschen Schriftsprache in Gebärdensprache darzustellen. Dabei bewegt die animierte Bildschirmpuppe Arme, Hände, Oberkörper, Kopf und Mund und zuckt auch mal mit der Augenbraue. Triebfeder für die Entwicklung waren unter anderem Kostenargumente. Mit Virtual Guido sollten sich barrierefreie Internetseiten aktualisieren lassen, ohne – wie heute üblich – jedes mal ein neues Video mit einem menschlichen Gebärdensprachen-Dolmetscher aufnehmen zu müssen.
"Immer dann, wenn Texte häufig variiert werden müssen, sind sie eigentlich für die Darstellung durch menschliche Dolmetscher auf Video ungeeignet. Und die Avatartechnologie kommt dann zum Zuge, weil es dafür kein Problem ist."
Einer der Lackmus-Tests war die Internetseite des Integrationsamtes der Stadt Hamburg. Virtual Guido sollte deren Texte für Gehörlose darstellen, nachdem menschliche Dolmetscher sie zuvor in Gebärdensprache übersetzt hatten. Der Mann im blauen T-Shirt musste also lediglich deren Gesten und Mimik nachahmen. Doch selbst das gelang nicht zufrieden stellend. Guidos Zeichen blieben oft kryptisch. Die Nutzer der Hamburger Webseite machten ihrer Enttäuschung in Internetforen Luft.
Guido konnte man nichts von den Lippen ablesen. Wegen der abgehackten und steifen Bewegungen konnte ihn niemand verstehen.
Ein Avatar ohne Gefühle dürfte auf Gehörlose wirken wie eine monotone Computerstimme für Hörende. Auf die Dauer unerträglich!
Eine kalte, grausige Gestalt! Niemals ersetzt so eine einen menschlichen Dolmetscher.
Für die schlechte Resonanz macht Thomas Hanke auch die staubtrockenen Behördentexte verantwortlich, die Virtual Guido darstellen musste. Ein sperriger Text wird durchs Übersetzen nicht besser.
"Da hätte man sicherlich spannendere Texte nehmen können, die also für Gehörlose eher so im Fokus stehen. Dann hätte das Ganze ganz anders ausgesehen."
Die fehlende Emotionalität des Avatars sei aber auch ein Manko, räumt Hanke ein, weil sie zu Missverständnissen führe. Etwa bei dem Satz: "Gehörlose integrieren sich toll in die Gesellschaft.
"Und dieses "toll" ist nun wirklich eine Sache, die man mit gewisser Emotion rüber bringen muss. Wenn sie also "toll" gebärden und dazu die finsterste Miene zeigen, dann kann man das eventuell als Ironie oder sonst was interpretieren – aber nicht so, wie’s wirklich gemeint war. Das war also ein ganz krasses Beispiel, wo rein sprachliche Äußerung ohne die zugehörige emotionale Mimik überhaupt nicht funktionierte."
Aber war das nicht absehbar? Sicher, räumt Thomas Hanke ein. Nur weiß bislang eben keiner, in welchem Verhältnis man Information und Emotion im Gesichtsausdruck des Avatars mischen muss, damit die Botschaft rüber kommt. Im Anfang Februar gestarteten EU-Projekt Dicta-Sign sollen nun die Grundlagen dafür erarbeitet werden. Das Fernziel: Ein virtueller Guido, der bei der Wiedergabe eines Textes automatisch erkennt, wann ein ironisches Zucken der rechten Augenbraue angebracht wäre.
Greifbarer scheinen sehr simple Anwendungen wie die Darstellung von Datenbankinhalten, bei denen der Wortschatz eng begrenzt ist und der Kontext klar definiert. Ein aktuelles Beispiel dafür ist ein zweijähriges Pilotprojekt der französischen Eisenbahn. Am Pariser Gare de l’Est erprobt die SNCF Avatare, die Lautsprecherdurchsagen auf speziellen Displays anzeigen. Gebärdensprachliche Meisterleistungen sollte freilich keiner erwarten. Die elektronischen Dolmetscher fügen bloß vorgefertigte Satzbausteine zusammen.
Weblinks
http://www.abendblatt.de/daten/2003/07/15/186357.html
http://www.stern.de/computer-technik/internet/:Barrierefreies-Internet-Guido-Geh%F6rlosen-Web/528998.html
http://www.lbmagazin.de/page1.php?rub=7&id=233
http://www.barrierekompass.de/weblog/index.php?itemid=343
http://www.sign-lang.uni-hamburg.de/
http://www.dictasign.eu/
Thomas Hanke vom Institut für deutsche Gebärdensprache der Universität Hamburg arbeitet seit über 15 Jahren an computerbasierten Systemen, die Gebärdensprache darstellen, verstehen und übersetzen können. Die vollmundigen Versprechungen vor einigen Jahren, sagt er, die hätten seinerzeit Journalisten in die Welt gesetzt.
"Jetzt ist man vielleicht von allen Seiten ein Bisschen realistischer als man war. Was uns die Arbeit eigentlich erleichtert."
Virtual Guido, so hieß der dolmetschende Avatar, der im 2004 ausgelaufenen EU-Projekt eSIGN unter Beteiligung des Hamburger Linguistik-Experten entwickelt wurde: Ein virtueller junger Mann im blauen T-Shirt, den Thomas Hanke per Mausklick dazu bringen kann, Wörter der deutschen Schriftsprache in Gebärdensprache darzustellen. Dabei bewegt die animierte Bildschirmpuppe Arme, Hände, Oberkörper, Kopf und Mund und zuckt auch mal mit der Augenbraue. Triebfeder für die Entwicklung waren unter anderem Kostenargumente. Mit Virtual Guido sollten sich barrierefreie Internetseiten aktualisieren lassen, ohne – wie heute üblich – jedes mal ein neues Video mit einem menschlichen Gebärdensprachen-Dolmetscher aufnehmen zu müssen.
"Immer dann, wenn Texte häufig variiert werden müssen, sind sie eigentlich für die Darstellung durch menschliche Dolmetscher auf Video ungeeignet. Und die Avatartechnologie kommt dann zum Zuge, weil es dafür kein Problem ist."
Einer der Lackmus-Tests war die Internetseite des Integrationsamtes der Stadt Hamburg. Virtual Guido sollte deren Texte für Gehörlose darstellen, nachdem menschliche Dolmetscher sie zuvor in Gebärdensprache übersetzt hatten. Der Mann im blauen T-Shirt musste also lediglich deren Gesten und Mimik nachahmen. Doch selbst das gelang nicht zufrieden stellend. Guidos Zeichen blieben oft kryptisch. Die Nutzer der Hamburger Webseite machten ihrer Enttäuschung in Internetforen Luft.
Guido konnte man nichts von den Lippen ablesen. Wegen der abgehackten und steifen Bewegungen konnte ihn niemand verstehen.
Ein Avatar ohne Gefühle dürfte auf Gehörlose wirken wie eine monotone Computerstimme für Hörende. Auf die Dauer unerträglich!
Eine kalte, grausige Gestalt! Niemals ersetzt so eine einen menschlichen Dolmetscher.
Für die schlechte Resonanz macht Thomas Hanke auch die staubtrockenen Behördentexte verantwortlich, die Virtual Guido darstellen musste. Ein sperriger Text wird durchs Übersetzen nicht besser.
"Da hätte man sicherlich spannendere Texte nehmen können, die also für Gehörlose eher so im Fokus stehen. Dann hätte das Ganze ganz anders ausgesehen."
Die fehlende Emotionalität des Avatars sei aber auch ein Manko, räumt Hanke ein, weil sie zu Missverständnissen führe. Etwa bei dem Satz: "Gehörlose integrieren sich toll in die Gesellschaft.
"Und dieses "toll" ist nun wirklich eine Sache, die man mit gewisser Emotion rüber bringen muss. Wenn sie also "toll" gebärden und dazu die finsterste Miene zeigen, dann kann man das eventuell als Ironie oder sonst was interpretieren – aber nicht so, wie’s wirklich gemeint war. Das war also ein ganz krasses Beispiel, wo rein sprachliche Äußerung ohne die zugehörige emotionale Mimik überhaupt nicht funktionierte."
Aber war das nicht absehbar? Sicher, räumt Thomas Hanke ein. Nur weiß bislang eben keiner, in welchem Verhältnis man Information und Emotion im Gesichtsausdruck des Avatars mischen muss, damit die Botschaft rüber kommt. Im Anfang Februar gestarteten EU-Projekt Dicta-Sign sollen nun die Grundlagen dafür erarbeitet werden. Das Fernziel: Ein virtueller Guido, der bei der Wiedergabe eines Textes automatisch erkennt, wann ein ironisches Zucken der rechten Augenbraue angebracht wäre.
Greifbarer scheinen sehr simple Anwendungen wie die Darstellung von Datenbankinhalten, bei denen der Wortschatz eng begrenzt ist und der Kontext klar definiert. Ein aktuelles Beispiel dafür ist ein zweijähriges Pilotprojekt der französischen Eisenbahn. Am Pariser Gare de l’Est erprobt die SNCF Avatare, die Lautsprecherdurchsagen auf speziellen Displays anzeigen. Gebärdensprachliche Meisterleistungen sollte freilich keiner erwarten. Die elektronischen Dolmetscher fügen bloß vorgefertigte Satzbausteine zusammen.
Weblinks
http://www.abendblatt.de/daten/2003/07/15/186357.html
http://www.stern.de/computer-technik/internet/:Barrierefreies-Internet-Guido-Geh%F6rlosen-Web/528998.html
http://www.lbmagazin.de/page1.php?rub=7&id=233
http://www.barrierekompass.de/weblog/index.php?itemid=343
http://www.sign-lang.uni-hamburg.de/
http://www.dictasign.eu/