"Wir arbeiten schon viele Jahre mit blinden Menschen zusammen. In dieser Zeit haben wir gemerkt, dass in der Forschung und Technologie viel zu wenig gemacht wird, um Blinden mehr Selbstständigkeit zu ermöglichen."
Amir Amedi ist Neurowissenschaftler an der Hebräischen Universität Jerusalem. Das Prinzip, dass er in seiner Forschung verfolgt, kennt man seit Jahrzehnten. Es ist der Versuch, Blinden die Welt über andere Sinnesreize – allen voran Fühlen und Hören – nahezubringen. Das bekannteste Beispiel hierfür ist wohl die Brailleschrift, mit der Blinde Buchstaben ertasten können.
"Ich mag Musik einfach. Früher war ich Jazzmusiker. Ich dachte mir einfach, es könnte ganz lustig werden, damit ein bisschen zu spielen. Das ist natürlich kein wissenschaftlicher Grund, aber naja."
Amedi und seine Mitarbeiter übersetzen Bilder, die eine Kamera aufnimmt, in eine international anerkannte Sprache: Musik. Dafür gibt es auch einen wichtigen, wissenschaftlichen Grund.
"Mit Musik kann man am besten Farbe beschreiben. Unterschiedliche Instrumente, unterschiedliche Klänge können ein Gefühl verschiedener Farben vermitteln."
So klingt rot wie eine Orgel, grün wie eine Art Saxophon, gelb wie eine Geige und weiß wie Gesang. Schwarz ist Stille. Ein bunter Regenbogen klingt wie ein durcheinander spielendes Orchester. Bei einer schwarz-weiß Aufnahme des Regenbogens bekommt man vor allem grollende Stimmen zu hören.
"Bei dem Regenbogen hört man auch deutlich: Tonhöhe nimmt erst zu und dann wieder ab."
Die Tonhöhe beschreibt im Groben die Form des Gegenstandes von links nach rechts. Denn das Bild wird in diese Richtung abgescannt.
Eine aufsteigende, dreistufige, weiße Treppe klingt also anders, als eine absteigende, aber sonst identische:
Die Lautstärke steht stellvertretend für die Helligkeit. Leise ist dunkel, Laut ist hell. Damit das funktioniert, wird per Algorithmus jedem Bildpixel eine bestimmte Farbe beziehungsweise Instrument, Lage im Bild beziehungsweise Tonhöhe und Helligkeit beziehungsweise Lautstärke zugeordnet.
"Man muss sich die Pixel wie akustische Mosaikstücke vorstellen, die man kombinieren muss."
Das Gesamtbild muss im Gehirn zusammengebastelt werden. Ganz trivial ist das nicht. Es ist eine Sprache, die die Versuchspersonen und Blinde erst einmal lernen müssen.
"Tatsächlich verstehen sie zunächst nicht, was das überhaupt soll. Doch schon nach zwei bis drei Stunden Training können sie damit umgehen und erhören komplexere Bilder oder Gegenstände."
Es ist ein akustisches, sehr akkurates Abtasten von Gegenständen. Man hört, analysiert die Information und kommt zu dem Schluss: Ich höre eine blaue Blume. Auch Buchstaben sind möglich, Geübte können auf diese Weise auch Wörter und kurze Sätze erkennen.
"Das Schöne daran ist, man kann einfach eine kleine Kamera und einen kleinen Lautsprecher an die Sonnebrille heften oder sie einfach per Hand auf die Umgebung richten. So kann man die Welt um sich herum erkunden."
Amir Amedi sieht die Chancen seiner Erfindung, die er EyeMusic, also Augenmusik genannt hat, vor allem in der Kombination mit anderen Blindenhilfen. EyeMusic ist nicht intuitiv im Gegensatz zu den meisten anderen Hilfsmitteln, die über den Tastsinn funktionieren. Dafür können, hat man die Musiksprache erst einmal gelernt, damit viel komplexere Bilder verarbeitet werden. Ein lächelndes Gesicht zum Beispiel.
Obwohl das durchaus auch weniger beängstigend klingen könnte.
Amir Amedi ist Neurowissenschaftler an der Hebräischen Universität Jerusalem. Das Prinzip, dass er in seiner Forschung verfolgt, kennt man seit Jahrzehnten. Es ist der Versuch, Blinden die Welt über andere Sinnesreize – allen voran Fühlen und Hören – nahezubringen. Das bekannteste Beispiel hierfür ist wohl die Brailleschrift, mit der Blinde Buchstaben ertasten können.
"Ich mag Musik einfach. Früher war ich Jazzmusiker. Ich dachte mir einfach, es könnte ganz lustig werden, damit ein bisschen zu spielen. Das ist natürlich kein wissenschaftlicher Grund, aber naja."
Amedi und seine Mitarbeiter übersetzen Bilder, die eine Kamera aufnimmt, in eine international anerkannte Sprache: Musik. Dafür gibt es auch einen wichtigen, wissenschaftlichen Grund.
"Mit Musik kann man am besten Farbe beschreiben. Unterschiedliche Instrumente, unterschiedliche Klänge können ein Gefühl verschiedener Farben vermitteln."
So klingt rot wie eine Orgel, grün wie eine Art Saxophon, gelb wie eine Geige und weiß wie Gesang. Schwarz ist Stille. Ein bunter Regenbogen klingt wie ein durcheinander spielendes Orchester. Bei einer schwarz-weiß Aufnahme des Regenbogens bekommt man vor allem grollende Stimmen zu hören.
"Bei dem Regenbogen hört man auch deutlich: Tonhöhe nimmt erst zu und dann wieder ab."
Die Tonhöhe beschreibt im Groben die Form des Gegenstandes von links nach rechts. Denn das Bild wird in diese Richtung abgescannt.
Eine aufsteigende, dreistufige, weiße Treppe klingt also anders, als eine absteigende, aber sonst identische:
Die Lautstärke steht stellvertretend für die Helligkeit. Leise ist dunkel, Laut ist hell. Damit das funktioniert, wird per Algorithmus jedem Bildpixel eine bestimmte Farbe beziehungsweise Instrument, Lage im Bild beziehungsweise Tonhöhe und Helligkeit beziehungsweise Lautstärke zugeordnet.
"Man muss sich die Pixel wie akustische Mosaikstücke vorstellen, die man kombinieren muss."
Das Gesamtbild muss im Gehirn zusammengebastelt werden. Ganz trivial ist das nicht. Es ist eine Sprache, die die Versuchspersonen und Blinde erst einmal lernen müssen.
"Tatsächlich verstehen sie zunächst nicht, was das überhaupt soll. Doch schon nach zwei bis drei Stunden Training können sie damit umgehen und erhören komplexere Bilder oder Gegenstände."
Es ist ein akustisches, sehr akkurates Abtasten von Gegenständen. Man hört, analysiert die Information und kommt zu dem Schluss: Ich höre eine blaue Blume. Auch Buchstaben sind möglich, Geübte können auf diese Weise auch Wörter und kurze Sätze erkennen.
"Das Schöne daran ist, man kann einfach eine kleine Kamera und einen kleinen Lautsprecher an die Sonnebrille heften oder sie einfach per Hand auf die Umgebung richten. So kann man die Welt um sich herum erkunden."
Amir Amedi sieht die Chancen seiner Erfindung, die er EyeMusic, also Augenmusik genannt hat, vor allem in der Kombination mit anderen Blindenhilfen. EyeMusic ist nicht intuitiv im Gegensatz zu den meisten anderen Hilfsmitteln, die über den Tastsinn funktionieren. Dafür können, hat man die Musiksprache erst einmal gelernt, damit viel komplexere Bilder verarbeitet werden. Ein lächelndes Gesicht zum Beispiel.
Obwohl das durchaus auch weniger beängstigend klingen könnte.