"Achtung: Die folgende Sendung hören Sie am besten über Stereolautsprecher oder über Kopfhörer."
Welche Melodie hören Sie hier ?
Kommt der Ton von rechts oder von links?
Geht der Ton nach oben oder nach unten?
"Wir leben in einer chaotischen akustischen Umgebung. Von überall her dringen Klänge, Töne und Geräusche auf uns ein. Um aus diesem Chaos etwas Sinnvolles herausfiltern zu können, muss unser Gehirn laufend interpretieren, abschätzen und vermuten. Dabei verlässt es sich auf das, was es in der Vergangenheit gelernt hat. Normalerweise funktioniert das bestens, und wir finden uns in unserer Umgebung gut zurecht. Aber manchmal erzeugt dieser Prozess des Interpretierens auch bemerkenswerte Illusionen."
Sie ist eine Pionierin. Seit drei Jahrzehnten widmet sie sich akustischen Täuschungen und musikalischen Illusionen: Diana Deutsch, Professorin für Psychologie an der University of California in San Diego.
"Ich war schon immer fasziniert von den Unterschieden, wie wir die Welt wahrnehmen und was da draußen wirklich ist."
Die Kluft zwischen Realität und Wahrnehmung – sie zeigt sich zum Beispiel an einem Phänomen, das Diana Deutsch Tonleiter-Illusion getauft hat.
"Man hört zwei kurze Tonleitern – eine hohe und eine tiefe. Beide laufen endlos auf und ab. Wenn die eine runter läuft, läuft die andere hoch, und umgekehrt. Im Stereobild neigt man dazu, die hohe Melodie eher auf der einen Seite zu hören, zum Beispiel links. Die andere scheint dann von rechts zu kommen."
Doch was, wenn man die beiden Stereokanäle nicht gleichzeitig abspielt, sondern einzeln? Dann wird klar, was den Ohren wirklich präsentiert wird.
"Das rechte Ohr empfängt ein Muster von Tönen, die in ihrer Tonhöhe sehr stark auf und abspringen. Das hört sich so an. Dem linken Ohr wird ein ganz ähnliches Muster präsentiert. Doch wenn er beide Kanäle gleichzeitig hört, nimmt der Hörer etwas anderes wahr: Und zwar reorganisiert das Gehirn die Töne so, dass aus den sprunghaften Tonfolgen zwei glatte Melodien werden – zwei gegenläufige Tonleitern . Und: Die hohe Melodie scheint von der einen Seite zu kommen, die tiefe Melodie von der anderen."
Ähnlich verhält es sich mit der chromatischen Illusion, wie Diana Deutsch sie nennt. Auch hier hören wir zwei glatte, gegenläufige Tonleitern, die eine nach links verschoben, die andere nach rechts. Doch die Signale für sich betrachtet muten ziemlich chaotisch an. Warum lässt sich unser Gehirn auf diese Weise narren? Deutsch:
"Sobald unsere Ohren ein Signal empfangen, versucht unser Hirn abzuschätzen, welchen Ursprung das Signal hat. Und da es in der echten Welt ziemlich unwahrscheinlich ist, dass Klangquellen so extrem in ihrer Tonhöhe springen, scheint es dem Gehirn viel plausibler, dass die Quellen glatte Melodien produzieren: Die eine erzeugt die hohen Töne, die andere ist für die tiefen zuständig. So schafft unser Gehirn Ordnung im Chaos."
Nur: Die Mechanismen, die im Hirn für Ordnung sorgen, sind nicht bei allen Menschen gleich. Man kann zwei Leuten ein- und dasselbe Signal vorspielen – und sie hören etwas ganz Unterschiedliches. Der Beweis? Das Tritonus-Paradoxon. In der Musik entspricht der Tritonus einem Intervall von drei ganzen Tönen – genau eine halbe Oktave. Deutsch:
"Das Grundmuster dieser Illusion besteht aus orgelähnlichen Tönen, die vom Computer erzeugt werden. Ihre Tonhöhe ist zwar genau definiert, also ob es ein c ist, ein f oder ein a. Aber wegen der Struktur ihrer Obertöne ist es unklar, in welcher Oktave die Töne liegen. Nun spielt man dem Hörer zwei dieser Töne vor, und zwar in einem Intervallabstand von einer halben Oktave, einem Tritonus. Zum Beispiel erst ein c, dann ein fis. Oder erst ein cis, gefolgt von einem g. Das Verblüffende: Bei jedem dieser Tonpaare hören manche Leute eine aufsteigende Tonfolge, andere dagegen eine absteigende. Also manche hören bei, dass der zweite Ton höher ist als der erste. Anderen hingegen kommt es so vor, als würde er tiefer sein."
Ein rätselhafter Effekt. Doch dann stieß Deutsch auf einen interessanten Zusammenhang. Offenbar hängt das Hörempfinden maßgeblich ab von der Herkunft des Hörers. Deutsch:
"Leute aus dem Süden Englands hören die Tonfolgen in der Regel anders als Leute, die aus Kalifornien kommen. Wo Menschen aus Südengland einen aufsteigenden Ton hören, hören Kalifornier oft einen absteigenden. Das hängt also offenbar davon ab, mit welchen Sprachmustern und Sprachmelodien die Menschen in ihrer Kindheit aufgewachsen sind. Leute aus Südengland sprechen im Schnitt in einer höheren Tonlage als Kalifornier. Aber auch die Leute aus Nordengland hören die Töne oft anders als die aus dem Süden, denn sie sprechen einen anderen Dialekt."
Menschen hören nicht alle gleich. Ihre Wahrnehmung wird unter anderem durch die Muttersprache geprägt, und sogar durch den Dialekt. Oder aber durch die Erwartungshaltung:
"Ein Phänomen, das wir wahrscheinlich alle kennen: Wenn wir viel unterwegs sind, haben wir das Gefühl, gerade unser Handy klingeln gehört zu haben. Wir gehen ans Handy ran, wir schauen: Es hat niemand angerufen! Dieses Phänomen ist nicht selten. Es rührt daher, dass wir in unserer Wahrnehmung mittlerweile sehr auf unseren Handyklingelton geeicht sind. Besonders in angespannten Situationen, wenn wir einen Anruf erwarten, ist die Selektionsstärke so massiv, dass wir auch aus Klängen, die nur annähernd dem Klingelton ähnlich sind, das heraushören."
Professor Holger Schulze, Leiter des Studiengangs Sound Studies an der Universität der Künste Berlin.
"Dieses Phantomklingeln hat vor allem damit zu tun, dass wir als Menschen im Hören auf Erkennung aus sind. Wir suchen nach Signalen, nach Zeichen, die uns warnen könnten. Wir haben vielleicht eine derart überreizte Wahrnehmung, dass wir in einer akustisch dichten Umgebung, einer Straßensituation, aus der Fülle von Frequenzen, von Signalen, von Klängen das herauslösen, was annähernd dem entspricht – obwohl gar nichts da ist."
Phantomklänge können gefährliche Missverständnisse heraufbeschwören – etwa in einem Operationssaal. Hier ist das OP-Team von lauter technischen Geräten umringt. Viele davon piepsen und fiepen ständig vor sich hin. Holger Schulze:
"Die akustischen Täuschungen leiten sich in dem Fall daher, dass sehr viele Geräte vor Ort sind – teilweise mit sich überlagernden Klängen, und das Alarmsignal des einen Geräts relativ nahe an dem Alarmsignal des anderen Gerätes ist."
In einer solchen Umgebung kann es schon mal passieren, dass das Personal auf eine akustische Fata Morgana reinfällt: Der Chirurg hört dann plötzlich einen Warnton, der in diesem Augenblick gar nicht da ist. Schulze:
"Diese Gefahr besteht. Und die wird natürlich größer, je mehr Geräte es gibt. Die Arbeitssituation wird akustisch immer anstrengender und verlangt nach einer Gestaltung."
Gemeinsam mit der Industrie denken Schulze und seine Studenten darüber nach, wie sich das Phantomklang-Risiko im OP-Saal minimieren ließe. So könnte man auf manches Geräusch verzichten – auf das Bestätigungs-Piepsen etwa, wenn man eine Taste drückt. Und es sind andere Warntöne denkbar – intelligentere Warntöne. Schulze:
"Man kann mit einem zeitlichen Verlauf arbeiten. Dass also Klänge nicht permanent die gleiche Lautstärke haben. Sondern beim ersten Auftreten diese Lautstärke haben und sich dann abschwächen."
Damit sinkt der Geräuschpegel – und das Risiko, von einem Phantomklang genarrt zu werden. Der intelligente Signalton ist zwar weiterhin präsent. Aber er ist so leise, dass man ihn nur dann wahrnimmt, wenn man sich bewusst auf ihn konzentriert.
"Man muss streng unterscheiden zwischen der physikalischen Welt und der psychologischen Welt. Man mag annehmen, dass ein direkter Zusammenhang besteht, dass wir tatsächlich hören, was als akustisches Ereignis vorhanden ist. Tatsächlich sind diese Zusammenhänge aber sehr lose. Wie haben nur wenige Veränderungen in der physikalischen Welt, nämlich Schalldruckpegel, die sich mit der Zeit verändern. Und daraus konstruieren wir in der Wahrnehmung eine Vielzahl von Merkmalen: den Ort des akustischen Geschehens, die Klangfarbe, die Tonhöhe, die Lautstärke, um nur einige zu nennen. Und natürlich auch assoziative Merkmale: Emotionen, Bedeutung, Sprachverständnis."
Hans-Joachim Maempel, Fachgebiet Audiokommunikation, TU Berlin. Das Gehirn leistet beim Hören Enormes, sagt er. Im Grunde ist Schall nichts anderes als eine schnelle Folge von Luftdruckschwankungen. Aus diesen Schwankungen schaffen Ohr und Gehirn einen räumlichen, differenzierten Höreindruck. Doch die Mechanismen, die das Gehirn dazu nutzt, können ausgetrickst werden.
"Ein Beispiel wäre der Franssen-Effekt , wo ich einen Ton im linken Lautsprecher starte, ihn sofort aber in den rechten Lautsprecher überblende. Unser Wahrnehmungseindruck ist aber so, dass die ganze Zeit aus dem linken Lautsprecher der dort eigentlich nur begonnene Ton wahrgenommen wird. Das liegt daran, dass wir Unterschieden in der Reizänderung grundsätzlich höhere Aufmerksamkeit schenken und dieser mehr glauben als langsamen Veränderungen. Wir glauben einfach aus Erfahrung, dass da, wo der Schall entstanden ist, auch die Quelle sein muss, und nehmen deshalb an, dass der Ton letztendlich auch von da kommen muss."
Auch wenn es sich so anhört, als käme der Ton die ganze Zeit von links: In Wirklichkeit hat er nur links begonnen, um dann komplett in den rechten Lautsprecher zu wandern. Nicht weniger verrückt ist das, was Fachleute wie Maempel als intermodale Effekte bezeichnen.
"Das meint einfach, dass die Informationen verschiedener Sinne, zum Beispiel Hören und Sehen, zu einer gemeinsamen Information zusammengefasst werden. Das Gehirn tendiert also zur Bildung einer Informationseinheit. Zum Beispiel gibt es diesen schönen McGurk-Effekt."
Auf dem Bildschirm erscheint ein kurzes Video: Ein Sprecher macht den Mund auf, und man versteht:
"dada, dada, dada."
Sprecher: Hört man sich dann dasselbe Video noch einmal mit geschlossenen Augen an, versteht man:
"baba, baba, baba."
Und noch verrückter wird’s, wen man erfährt, welche Silben die Lippen des Mannes auf dem Bild wirklich geformt hatten – und zwar:
"gaga, gaga, gaga."
Wie haben die Macher des Videos das hinbekommen? Nun, sie haben den Mann zuerst "gaga" sagen lassen und seine Mimik mit der Kamera gefilmt. Danach musste er "baba" sagen, und das wurde mit dem Mikrofon aufgenommen. Dann wurden Bild und Ton aufeinander montiert, und zwar völlig synchron. Das Resultat: Der Zuschauer, der mit den Ohren hört und zugleich mit den Augen von den Lippen liest, versteht weder "gaga" noch "baba", sondern etwas völlig anderes – nämlich "dada". Maempel:
"Man kann feststellen, dass man weder den akustischen noch den optischen Reiz richtig erkennt, sondern etwas wahrnimmt, das sozusagen einen Kompromiss darstellt. Wir haben tatsächlich dann ein intermodales Wahrnehmungs-Erlebnis, nämlich die Wahrnehmung einer Silbe, die gar nicht gesagt wurde, weder in Bild noch im Ton!"
Dann zeigt Maempel auf den Bildschirm seines Computers: Dort blinkt gleich einem Leuchtfeuer ein Lichtpunkt auf, mal oben rechts, mal unten links. Synchron zum Blinken ist ein Piepton zu hören. Und obwohl dieser Ton immer von der gleichen Stelle kommt, und zwar aus dem Lautsprecher des Monitors, meint man, der Ton würde mit dem Lichtpunkt über den Bildschirm wandern. Fängt dann der Ton an, schneller zu pulsieren, glaubt man, auch der Lichtpunkt auf dem Monitor würde schneller blinken. Wieder ist man auf eine Sinnestäuschung hereingefallen: Der Lichtpunkt blinkt genauso schnell wie vorher; man lässt sich vom schneller werdenden Ton an der Nase herumführen. Maempel:
"Man kann sagen: Bei der Ortsbestimmung glauben wir den Augen. Umgekehrt nehmen wir die Tempoänderung eines Lichtblitzes mit einem Piepton so wahr, dass wir dem Ton glauben. Das heißt, meine Zeit-Wahrnehmung führt das Ohr. Die Sinne täuschen sich, je nachdem, um welche Aufgabe es geht, gegenseitig."
Eine unerwartete Spielart dieser intermodalen Sinnestäuschung hat jüngst Takayuki Ito entdeckt, ein Japaner in Diensten der amerikanischen Haskins Laboratories in New Haven. Ito:
"Wir stellten uns die Frage, welche Mechanismen für die Sprachverarbeitung im Gehirn eine Rolle spielen. Am wichtigsten für das Verstehen von Sprache ist natürlich das Hören. Aber zusätzlich nutzen wir auch andere Sinne, etwa indem wir von den Lippen ablesen. Und wir wollten herausfinden, ob auch die Mimik einen Einfluss auf das Verstehen von Sprache hat. Dazu haben wir ein einfaches Experiment gemacht. Wir haben zwei sehr ähnlich klingende Wörter genommen, und zwar ‚head‘ – also ‚Kopf‘ – und ‚had‘, also ‚hatte‘. Dann haben wir eine Computerstimme einen allmählichen Übergang zwischen den beiden Wörtern sprechen lassen. Irgendwo in der Mitte gab es eine Grenze, wo sich die Bedeutung für den Zuhörer änderte. Unsere Probanden mussten nun sagen, bis zu welchem Zeitpunkt sie das Wort ‚head‘ verstanden und ab wann sie ‚had‘ hörten."
Hängt dieser Übergangspunkt von der Mimik ab – also davon, ob ich beim Hören grinse oder aber schmollend die Mundwinkel nach unten verziehe? Um das herauszufinden, ersann Ito eine spezielle Apparatur. Ito:
"Wir klebten einen Roboterarm an den Wangen der Probanden fest. Dieser Arm konnte so an der Gesichtshaut ziehen, dass er den Hörern ein Grinsen oder einen Schmollmund aufzwang. Als wir die Haut nach oben schoben zu einem künstlichen Grinsen, tendierten die Leute eher zum ‚head‘. Zog unser Roboter die Mundwinkel nach unten, tendierten sie zum ‚had‘. Das bedeutet: Unsere Mimik beeinflusst tatsächlich unseren Höreindruck."
Ito glaubt, dass das etwas mit der Vokalbildung beim Sprechen zu tun hat: Formen wir das Wort "head", "Kopf", so heben wir den Kiefer deutlich höher als beim Sprechen von "had". Oder anders gesagt: Bei der Aussprache von "head" grinsen wir, bei "had" schmollen wir. Genau das macht sich offenbar auch beim Hören bemerkbar: Grinsen wir beim Hören und heben dabei unweigerlich den Kiefer, verstehen wir eher "head". Ist der Kiefer dagegen unten, weil wir schmollen, tendieren wir zum "had". Ob das bloß so eine Art Pawlowscher Reflex ist oder aber irgendeinen Nutzen mit sich bringt, das weiß Ito noch nicht. Jedenfalls hofft er, dass seine Erkenntnisse eines Tages Sprachtherapeuten und Logopäden helfen werden. Doch nicht nur die fünf Sinne kommen sich zuweilen in die Quere. Auch unsere Psyche haut uns ein ums andere Mal übers Ohr – vor allem, wenn es darum geht, Klänge zu beurteilen.
"Wir haben Leute in ein Auto gesetzt. Die bekamen eine Test-CD in die Hand, haben diese CD über das Radiosystem des Autos abgespielt. Gleichzeitig hatten sie einen kleinen Computer in der Hand und mussten die Klangqualität der Tracks beurteilen, die abgespielt wurden."
Eigentlich hatte Hugo Fastl von der TU München herausfinden wollen, inwieweit teure Autostereoanlagen besser klingen als billige. Dazu mussten sich seine Probanden in ein Auto setzen und die Qualität von unterschiedlichen Klängen beurteilen – von den satten Tiefen eines Basses bis hin zu den Höhen eines Schlagzeugbeckens. Mit diesen Tests fand Fastl heraus, dass teure Anlagen tatsächlich besser klingen als preiswerte. Doch nebenbei stieß er auf einen verblüffenden Zusammenhang. Fastl:
"Bei den Beurteilungen dieser Audiosysteme in Autos war es so, dass diejenigen, die mit dem Hersteller zu tun haben, sei es, dass sie dort beschäftigt sind oder dass sie ein Produkt dieser Firma fahren, im Schnitt diese Wiedergabesysteme besser beurteilt haben als diejenigen, die mit diesen Systemen nichts zu tun haben."
Das bedeutet: Allein das Bewusstsein, in einem Auto meiner Marke zu sitzen, färbt das Klangerlebnis positiv. Dann höre ich alles durch ein rosarotes Hörgerät. Das Bewusstsein kann die Wahrnehmung also regelrecht trüben, sagt Hugo Fastl.
"Wir haben immer die gleichen Geräusche vorgespielt von einem Sportwagen und zusätzlich Bilder von einem Sportwagen gezeigt, die unterschiedlich eingefärbt waren. Obwohl das Geräusch haarscharf das gleiche war: Wenn wir einen roten Sportwagen gezeigt haben, erschien er den Leuten als lauter. Und was sich gezeigt hat war, dass hellgrüne Sportwagen recht leise sind."
Ferraris müssen rot sein. Und unsere Erwartung flüstert uns ein, dass rote Sportwagen besonders PS-stark sind – und damit besonders laut. Und auch an anderer Stelle spielt uns unsere Erwartungshaltung akustische Streiche.
"Es ist in der klassischen Musik so, dass der Tonmeister an seinem eigenen Tabu arbeitet: Er manipuliert sehr wohl","
sagt Hans-Joachim Maempel von der TU Berlin. Von einer Klassik-CD erwarten sich die meisten eine unverfälschte, authentische Aufnahme. Alles soll genauso klingen wie im Konzertsaal. Also am besten zwei hochwertige Mikrofone aufstellen und das Konzert einfach nur mitschneiden. Nur: Das Resultat dieser puristischen Vorgehensweise würde die meisten Hörer schlicht enttäuschen. Maempel:
""Weil gewisse zusätzliche Eindrücke, die beim Konzert da waren, fehlen: der Bildeindruck, die ganze Atmosphäre. Das fällt beim Hören über Lautsprecher flach. Deswegen versucht man in der Regel, das zu kompensieren, indem man ein bisschen übertreibt: die Klangfarbe, die Räumlichkeit, bestimmte Lautstärkeunterschiede ein bisschen herausarbeitet. Wenn’s um die Atmosphäre geht, würde ich das Publikum ein bisschen lauter machen. Ich würde insgesamt das Orchester ein bisschen näher heranholen akustisch, damit es ein bisschen eindrücklicher wird. Ich würde Solisten unterstützen, indem ich das Mikrofon ein bisschen hochziehe. Ich würde eine unzureichende Raumakustik verschönern, indem ich den Nachhall mit elektronischen Hallgeräten verlängere. Im Gegensatz zum puristischen Ideal versuche ich mit diesen Maßnahmen, eine Illusion der Aufführung zu erzeugen. Das heißt ich versuche das Erleben zu reproduzieren und nicht die physikalische Situation."
Also: Wichtig ist nicht, was authentisch ist, sondern was authentisch wirkt. Damit der Klassikfan das Gefühl hat, er lausche einer unverfälschten Aufnahme, muss sie der Tonmeister dezent manipulieren.
"Die Leute wollen betrogen werden."
Und: Es gibt Menschen, die unser Ohr ganz bewusst übers Ohr hauen – und zwar um uns möglichst perfekt zu unterhalten. Jörg Höhne ist einer von ihnen, Tonmischmeister vom Studio Mitte in Berlin. Er macht das Sound Design – also die Klanggestaltung – für Kinofilme. Wir sitzen in einem Tonstudio, das anmutet wie ein Kinosaal. Die Rollläden sind heruntergezogen, auf der Leinwand vor uns läuft gerade eine Szene aus einem Film, der bald in die Kinos kommt: Harald, die Hauptfigur, stolpert verwirrt über einen belebten Platz. Die Geräusche, die man hört, die Autos und die Straßenbahnen, scheinen ganz normal am Drehort aufgenommen worden zu sein. Höhne:
"Nein, das stimmt nicht. Bei Dokumentarfilmen mag das so sein. Aber bei Spielfilmproduktionen ist es so, dass ein Großteil des gesamten Soundtracks komplett neu gebaut wird, dass das, was wir im Kino hören, nur zum kleinen Teil Originaltöne sind. Wenn man einen Film im Ton komplett dekonstruiert und danach neu zusammenbaut, hat man völlig freie Gestaltungsmöglichkeiten im Umgang mit den klanglichen Elementen."
Das Ziel: Eine möglichst eindrucksvolle Klangatmosphäre, die zwar glaubwürdig erscheint, es in Wirklichkeit aber gar nicht ist. Höhne:
"Wir übertreiben die Realität. Die Sounds sind alle sehr fett, sehr opulent. Viel dichter, als man das in Realität so erleben würde. Im Ton kann man relativ dick auf tragen, bevor ein Zuschauer überhaupt merkt, dass er manipuliert wird. Das ist anfänglich einfach eine sehr kraftvolle Straßenszene, die dann nach und nach kippt und den inneren Zustand von Harald erzählt. Da wurde mit Alltagsgeräuschen gearbeitet, die aber verstärkt und verfremdet wurden und eine sehr hohe Dynamik generiert haben."
So klingt das, was die Kameramikrofone während des Drehs aufgenommen haben – ein diffuses Verkehrsrauschen, nicht besonders eindrucksvoll. Deshalb hat Höhne die Originaltöne weggelassen und eine neue Szene komponiert. Das Rumpeln der Straßenbahn ist, damit es fetter klingt, nach unten verstimmt. Das Quietschen der Schienen ist künstlich verlängert und viel lauter als im Original. Und zum Schluss fährt ein Laster durchs Bild. Nur: Das Originalgeräusch war viel zu schlapp. Also hat Sounddesigner Sebastian Morsch tief in die Trickkiste gegriffen.
"Der Lkw säbelt unserem Hauptdarsteller fast den Kopf ab. Er fährt ganz dicht an ihm vorbei. Wenn man sich das anguckt, sieht man: Erst ist es das Führerhaus, dann kommt die Kupplung. Verschiedene Reifen sieht man groß durchs Bild fahren. Das ist so ein Moment, wo ich wirklich eines nach dem anderen inszeniere: Dann fange ich mit dem Motor an, der vorbeifährt. Später hat so ein Lkw ein Kühlaggregat, da kommen Pfeiftöne raus. Auch die fahren vorbei – natürlich mit Doppler-Effekt. Ich versuche das Ganze zuzuspitzen, dass es möglichst wirkungsvoll ist und zeige nacheinander, was da durchs Bild fährt. Das ist ein Aneinanderreihen von Einzelsounds."
Höhne:
"Normale Lkws klingen anders. Diese Lkw-Sounds bestehen aus 20, 30 Einzelelementen, die sich aufaddieren und letztendlich das abbilden, was man im Kino von einem Lkw erwartet, der jemand fast umfährt. Aber es hat mit einem realistischen Lkw-Sound ganz wenig zu tun."
Immer wieder fallen wir auf akustische Illusionen herein – und zwar aus ganz verschiedenen Gründen: Manchmal will das Hirn Ordnung in ein chaotisches Klangmuster bringen. Manchmal versucht es, Bedeutung in etwas hineinzuinterpretieren, wo gar keine Bedeutung ist. Und manchmal lässt sich unser Ohr ganz einfach durch andere Sinne täuschen. Einige Phänomene aber warten noch auf ihre Erklärung. Selbst den Experten sind sie bislang ein Rätsel. Diana Deutsch:
"Eine dieser Illusionen widmet sich dem mysteriösen Niemandsland zwischen Sprache und Musik. Sie zeigt, wie dünn die Grenze zwischen ihnen ist. In dieser Illusion wird Sprache allmählich als Melodie wahrgenommen. Das funktioniert einfach dadurch, indem man die Phrase mehrmals wiederholt."
Beim Hören der sich wiederholenden Phrase gewinnt man irgendwann den Eindruck, dass die Worte zur Melodie werden. Für Diana Deutsch, die Pionierin der akustischen Illusionen, ein Hinweis auf die gemeinsame Wurzel von Sprache und Musik.
""I do believe that it shows that speech and song have deep roots in common.”"
Welche Melodie hören Sie hier ?
Kommt der Ton von rechts oder von links?
Geht der Ton nach oben oder nach unten?
"Wir leben in einer chaotischen akustischen Umgebung. Von überall her dringen Klänge, Töne und Geräusche auf uns ein. Um aus diesem Chaos etwas Sinnvolles herausfiltern zu können, muss unser Gehirn laufend interpretieren, abschätzen und vermuten. Dabei verlässt es sich auf das, was es in der Vergangenheit gelernt hat. Normalerweise funktioniert das bestens, und wir finden uns in unserer Umgebung gut zurecht. Aber manchmal erzeugt dieser Prozess des Interpretierens auch bemerkenswerte Illusionen."
Sie ist eine Pionierin. Seit drei Jahrzehnten widmet sie sich akustischen Täuschungen und musikalischen Illusionen: Diana Deutsch, Professorin für Psychologie an der University of California in San Diego.
"Ich war schon immer fasziniert von den Unterschieden, wie wir die Welt wahrnehmen und was da draußen wirklich ist."
Die Kluft zwischen Realität und Wahrnehmung – sie zeigt sich zum Beispiel an einem Phänomen, das Diana Deutsch Tonleiter-Illusion getauft hat.
"Man hört zwei kurze Tonleitern – eine hohe und eine tiefe. Beide laufen endlos auf und ab. Wenn die eine runter läuft, läuft die andere hoch, und umgekehrt. Im Stereobild neigt man dazu, die hohe Melodie eher auf der einen Seite zu hören, zum Beispiel links. Die andere scheint dann von rechts zu kommen."
Doch was, wenn man die beiden Stereokanäle nicht gleichzeitig abspielt, sondern einzeln? Dann wird klar, was den Ohren wirklich präsentiert wird.
"Das rechte Ohr empfängt ein Muster von Tönen, die in ihrer Tonhöhe sehr stark auf und abspringen. Das hört sich so an. Dem linken Ohr wird ein ganz ähnliches Muster präsentiert. Doch wenn er beide Kanäle gleichzeitig hört, nimmt der Hörer etwas anderes wahr: Und zwar reorganisiert das Gehirn die Töne so, dass aus den sprunghaften Tonfolgen zwei glatte Melodien werden – zwei gegenläufige Tonleitern . Und: Die hohe Melodie scheint von der einen Seite zu kommen, die tiefe Melodie von der anderen."
Ähnlich verhält es sich mit der chromatischen Illusion, wie Diana Deutsch sie nennt. Auch hier hören wir zwei glatte, gegenläufige Tonleitern, die eine nach links verschoben, die andere nach rechts. Doch die Signale für sich betrachtet muten ziemlich chaotisch an. Warum lässt sich unser Gehirn auf diese Weise narren? Deutsch:
"Sobald unsere Ohren ein Signal empfangen, versucht unser Hirn abzuschätzen, welchen Ursprung das Signal hat. Und da es in der echten Welt ziemlich unwahrscheinlich ist, dass Klangquellen so extrem in ihrer Tonhöhe springen, scheint es dem Gehirn viel plausibler, dass die Quellen glatte Melodien produzieren: Die eine erzeugt die hohen Töne, die andere ist für die tiefen zuständig. So schafft unser Gehirn Ordnung im Chaos."
Nur: Die Mechanismen, die im Hirn für Ordnung sorgen, sind nicht bei allen Menschen gleich. Man kann zwei Leuten ein- und dasselbe Signal vorspielen – und sie hören etwas ganz Unterschiedliches. Der Beweis? Das Tritonus-Paradoxon. In der Musik entspricht der Tritonus einem Intervall von drei ganzen Tönen – genau eine halbe Oktave. Deutsch:
"Das Grundmuster dieser Illusion besteht aus orgelähnlichen Tönen, die vom Computer erzeugt werden. Ihre Tonhöhe ist zwar genau definiert, also ob es ein c ist, ein f oder ein a. Aber wegen der Struktur ihrer Obertöne ist es unklar, in welcher Oktave die Töne liegen. Nun spielt man dem Hörer zwei dieser Töne vor, und zwar in einem Intervallabstand von einer halben Oktave, einem Tritonus. Zum Beispiel erst ein c, dann ein fis. Oder erst ein cis, gefolgt von einem g. Das Verblüffende: Bei jedem dieser Tonpaare hören manche Leute eine aufsteigende Tonfolge, andere dagegen eine absteigende. Also manche hören bei, dass der zweite Ton höher ist als der erste. Anderen hingegen kommt es so vor, als würde er tiefer sein."
Ein rätselhafter Effekt. Doch dann stieß Deutsch auf einen interessanten Zusammenhang. Offenbar hängt das Hörempfinden maßgeblich ab von der Herkunft des Hörers. Deutsch:
"Leute aus dem Süden Englands hören die Tonfolgen in der Regel anders als Leute, die aus Kalifornien kommen. Wo Menschen aus Südengland einen aufsteigenden Ton hören, hören Kalifornier oft einen absteigenden. Das hängt also offenbar davon ab, mit welchen Sprachmustern und Sprachmelodien die Menschen in ihrer Kindheit aufgewachsen sind. Leute aus Südengland sprechen im Schnitt in einer höheren Tonlage als Kalifornier. Aber auch die Leute aus Nordengland hören die Töne oft anders als die aus dem Süden, denn sie sprechen einen anderen Dialekt."
Menschen hören nicht alle gleich. Ihre Wahrnehmung wird unter anderem durch die Muttersprache geprägt, und sogar durch den Dialekt. Oder aber durch die Erwartungshaltung:
"Ein Phänomen, das wir wahrscheinlich alle kennen: Wenn wir viel unterwegs sind, haben wir das Gefühl, gerade unser Handy klingeln gehört zu haben. Wir gehen ans Handy ran, wir schauen: Es hat niemand angerufen! Dieses Phänomen ist nicht selten. Es rührt daher, dass wir in unserer Wahrnehmung mittlerweile sehr auf unseren Handyklingelton geeicht sind. Besonders in angespannten Situationen, wenn wir einen Anruf erwarten, ist die Selektionsstärke so massiv, dass wir auch aus Klängen, die nur annähernd dem Klingelton ähnlich sind, das heraushören."
Professor Holger Schulze, Leiter des Studiengangs Sound Studies an der Universität der Künste Berlin.
"Dieses Phantomklingeln hat vor allem damit zu tun, dass wir als Menschen im Hören auf Erkennung aus sind. Wir suchen nach Signalen, nach Zeichen, die uns warnen könnten. Wir haben vielleicht eine derart überreizte Wahrnehmung, dass wir in einer akustisch dichten Umgebung, einer Straßensituation, aus der Fülle von Frequenzen, von Signalen, von Klängen das herauslösen, was annähernd dem entspricht – obwohl gar nichts da ist."
Phantomklänge können gefährliche Missverständnisse heraufbeschwören – etwa in einem Operationssaal. Hier ist das OP-Team von lauter technischen Geräten umringt. Viele davon piepsen und fiepen ständig vor sich hin. Holger Schulze:
"Die akustischen Täuschungen leiten sich in dem Fall daher, dass sehr viele Geräte vor Ort sind – teilweise mit sich überlagernden Klängen, und das Alarmsignal des einen Geräts relativ nahe an dem Alarmsignal des anderen Gerätes ist."
In einer solchen Umgebung kann es schon mal passieren, dass das Personal auf eine akustische Fata Morgana reinfällt: Der Chirurg hört dann plötzlich einen Warnton, der in diesem Augenblick gar nicht da ist. Schulze:
"Diese Gefahr besteht. Und die wird natürlich größer, je mehr Geräte es gibt. Die Arbeitssituation wird akustisch immer anstrengender und verlangt nach einer Gestaltung."
Gemeinsam mit der Industrie denken Schulze und seine Studenten darüber nach, wie sich das Phantomklang-Risiko im OP-Saal minimieren ließe. So könnte man auf manches Geräusch verzichten – auf das Bestätigungs-Piepsen etwa, wenn man eine Taste drückt. Und es sind andere Warntöne denkbar – intelligentere Warntöne. Schulze:
"Man kann mit einem zeitlichen Verlauf arbeiten. Dass also Klänge nicht permanent die gleiche Lautstärke haben. Sondern beim ersten Auftreten diese Lautstärke haben und sich dann abschwächen."
Damit sinkt der Geräuschpegel – und das Risiko, von einem Phantomklang genarrt zu werden. Der intelligente Signalton ist zwar weiterhin präsent. Aber er ist so leise, dass man ihn nur dann wahrnimmt, wenn man sich bewusst auf ihn konzentriert.
"Man muss streng unterscheiden zwischen der physikalischen Welt und der psychologischen Welt. Man mag annehmen, dass ein direkter Zusammenhang besteht, dass wir tatsächlich hören, was als akustisches Ereignis vorhanden ist. Tatsächlich sind diese Zusammenhänge aber sehr lose. Wie haben nur wenige Veränderungen in der physikalischen Welt, nämlich Schalldruckpegel, die sich mit der Zeit verändern. Und daraus konstruieren wir in der Wahrnehmung eine Vielzahl von Merkmalen: den Ort des akustischen Geschehens, die Klangfarbe, die Tonhöhe, die Lautstärke, um nur einige zu nennen. Und natürlich auch assoziative Merkmale: Emotionen, Bedeutung, Sprachverständnis."
Hans-Joachim Maempel, Fachgebiet Audiokommunikation, TU Berlin. Das Gehirn leistet beim Hören Enormes, sagt er. Im Grunde ist Schall nichts anderes als eine schnelle Folge von Luftdruckschwankungen. Aus diesen Schwankungen schaffen Ohr und Gehirn einen räumlichen, differenzierten Höreindruck. Doch die Mechanismen, die das Gehirn dazu nutzt, können ausgetrickst werden.
"Ein Beispiel wäre der Franssen-Effekt , wo ich einen Ton im linken Lautsprecher starte, ihn sofort aber in den rechten Lautsprecher überblende. Unser Wahrnehmungseindruck ist aber so, dass die ganze Zeit aus dem linken Lautsprecher der dort eigentlich nur begonnene Ton wahrgenommen wird. Das liegt daran, dass wir Unterschieden in der Reizänderung grundsätzlich höhere Aufmerksamkeit schenken und dieser mehr glauben als langsamen Veränderungen. Wir glauben einfach aus Erfahrung, dass da, wo der Schall entstanden ist, auch die Quelle sein muss, und nehmen deshalb an, dass der Ton letztendlich auch von da kommen muss."
Auch wenn es sich so anhört, als käme der Ton die ganze Zeit von links: In Wirklichkeit hat er nur links begonnen, um dann komplett in den rechten Lautsprecher zu wandern. Nicht weniger verrückt ist das, was Fachleute wie Maempel als intermodale Effekte bezeichnen.
"Das meint einfach, dass die Informationen verschiedener Sinne, zum Beispiel Hören und Sehen, zu einer gemeinsamen Information zusammengefasst werden. Das Gehirn tendiert also zur Bildung einer Informationseinheit. Zum Beispiel gibt es diesen schönen McGurk-Effekt."
Auf dem Bildschirm erscheint ein kurzes Video: Ein Sprecher macht den Mund auf, und man versteht:
"dada, dada, dada."
Sprecher: Hört man sich dann dasselbe Video noch einmal mit geschlossenen Augen an, versteht man:
"baba, baba, baba."
Und noch verrückter wird’s, wen man erfährt, welche Silben die Lippen des Mannes auf dem Bild wirklich geformt hatten – und zwar:
"gaga, gaga, gaga."
Wie haben die Macher des Videos das hinbekommen? Nun, sie haben den Mann zuerst "gaga" sagen lassen und seine Mimik mit der Kamera gefilmt. Danach musste er "baba" sagen, und das wurde mit dem Mikrofon aufgenommen. Dann wurden Bild und Ton aufeinander montiert, und zwar völlig synchron. Das Resultat: Der Zuschauer, der mit den Ohren hört und zugleich mit den Augen von den Lippen liest, versteht weder "gaga" noch "baba", sondern etwas völlig anderes – nämlich "dada". Maempel:
"Man kann feststellen, dass man weder den akustischen noch den optischen Reiz richtig erkennt, sondern etwas wahrnimmt, das sozusagen einen Kompromiss darstellt. Wir haben tatsächlich dann ein intermodales Wahrnehmungs-Erlebnis, nämlich die Wahrnehmung einer Silbe, die gar nicht gesagt wurde, weder in Bild noch im Ton!"
Dann zeigt Maempel auf den Bildschirm seines Computers: Dort blinkt gleich einem Leuchtfeuer ein Lichtpunkt auf, mal oben rechts, mal unten links. Synchron zum Blinken ist ein Piepton zu hören. Und obwohl dieser Ton immer von der gleichen Stelle kommt, und zwar aus dem Lautsprecher des Monitors, meint man, der Ton würde mit dem Lichtpunkt über den Bildschirm wandern. Fängt dann der Ton an, schneller zu pulsieren, glaubt man, auch der Lichtpunkt auf dem Monitor würde schneller blinken. Wieder ist man auf eine Sinnestäuschung hereingefallen: Der Lichtpunkt blinkt genauso schnell wie vorher; man lässt sich vom schneller werdenden Ton an der Nase herumführen. Maempel:
"Man kann sagen: Bei der Ortsbestimmung glauben wir den Augen. Umgekehrt nehmen wir die Tempoänderung eines Lichtblitzes mit einem Piepton so wahr, dass wir dem Ton glauben. Das heißt, meine Zeit-Wahrnehmung führt das Ohr. Die Sinne täuschen sich, je nachdem, um welche Aufgabe es geht, gegenseitig."
Eine unerwartete Spielart dieser intermodalen Sinnestäuschung hat jüngst Takayuki Ito entdeckt, ein Japaner in Diensten der amerikanischen Haskins Laboratories in New Haven. Ito:
"Wir stellten uns die Frage, welche Mechanismen für die Sprachverarbeitung im Gehirn eine Rolle spielen. Am wichtigsten für das Verstehen von Sprache ist natürlich das Hören. Aber zusätzlich nutzen wir auch andere Sinne, etwa indem wir von den Lippen ablesen. Und wir wollten herausfinden, ob auch die Mimik einen Einfluss auf das Verstehen von Sprache hat. Dazu haben wir ein einfaches Experiment gemacht. Wir haben zwei sehr ähnlich klingende Wörter genommen, und zwar ‚head‘ – also ‚Kopf‘ – und ‚had‘, also ‚hatte‘. Dann haben wir eine Computerstimme einen allmählichen Übergang zwischen den beiden Wörtern sprechen lassen. Irgendwo in der Mitte gab es eine Grenze, wo sich die Bedeutung für den Zuhörer änderte. Unsere Probanden mussten nun sagen, bis zu welchem Zeitpunkt sie das Wort ‚head‘ verstanden und ab wann sie ‚had‘ hörten."
Hängt dieser Übergangspunkt von der Mimik ab – also davon, ob ich beim Hören grinse oder aber schmollend die Mundwinkel nach unten verziehe? Um das herauszufinden, ersann Ito eine spezielle Apparatur. Ito:
"Wir klebten einen Roboterarm an den Wangen der Probanden fest. Dieser Arm konnte so an der Gesichtshaut ziehen, dass er den Hörern ein Grinsen oder einen Schmollmund aufzwang. Als wir die Haut nach oben schoben zu einem künstlichen Grinsen, tendierten die Leute eher zum ‚head‘. Zog unser Roboter die Mundwinkel nach unten, tendierten sie zum ‚had‘. Das bedeutet: Unsere Mimik beeinflusst tatsächlich unseren Höreindruck."
Ito glaubt, dass das etwas mit der Vokalbildung beim Sprechen zu tun hat: Formen wir das Wort "head", "Kopf", so heben wir den Kiefer deutlich höher als beim Sprechen von "had". Oder anders gesagt: Bei der Aussprache von "head" grinsen wir, bei "had" schmollen wir. Genau das macht sich offenbar auch beim Hören bemerkbar: Grinsen wir beim Hören und heben dabei unweigerlich den Kiefer, verstehen wir eher "head". Ist der Kiefer dagegen unten, weil wir schmollen, tendieren wir zum "had". Ob das bloß so eine Art Pawlowscher Reflex ist oder aber irgendeinen Nutzen mit sich bringt, das weiß Ito noch nicht. Jedenfalls hofft er, dass seine Erkenntnisse eines Tages Sprachtherapeuten und Logopäden helfen werden. Doch nicht nur die fünf Sinne kommen sich zuweilen in die Quere. Auch unsere Psyche haut uns ein ums andere Mal übers Ohr – vor allem, wenn es darum geht, Klänge zu beurteilen.
"Wir haben Leute in ein Auto gesetzt. Die bekamen eine Test-CD in die Hand, haben diese CD über das Radiosystem des Autos abgespielt. Gleichzeitig hatten sie einen kleinen Computer in der Hand und mussten die Klangqualität der Tracks beurteilen, die abgespielt wurden."
Eigentlich hatte Hugo Fastl von der TU München herausfinden wollen, inwieweit teure Autostereoanlagen besser klingen als billige. Dazu mussten sich seine Probanden in ein Auto setzen und die Qualität von unterschiedlichen Klängen beurteilen – von den satten Tiefen eines Basses bis hin zu den Höhen eines Schlagzeugbeckens. Mit diesen Tests fand Fastl heraus, dass teure Anlagen tatsächlich besser klingen als preiswerte. Doch nebenbei stieß er auf einen verblüffenden Zusammenhang. Fastl:
"Bei den Beurteilungen dieser Audiosysteme in Autos war es so, dass diejenigen, die mit dem Hersteller zu tun haben, sei es, dass sie dort beschäftigt sind oder dass sie ein Produkt dieser Firma fahren, im Schnitt diese Wiedergabesysteme besser beurteilt haben als diejenigen, die mit diesen Systemen nichts zu tun haben."
Das bedeutet: Allein das Bewusstsein, in einem Auto meiner Marke zu sitzen, färbt das Klangerlebnis positiv. Dann höre ich alles durch ein rosarotes Hörgerät. Das Bewusstsein kann die Wahrnehmung also regelrecht trüben, sagt Hugo Fastl.
"Wir haben immer die gleichen Geräusche vorgespielt von einem Sportwagen und zusätzlich Bilder von einem Sportwagen gezeigt, die unterschiedlich eingefärbt waren. Obwohl das Geräusch haarscharf das gleiche war: Wenn wir einen roten Sportwagen gezeigt haben, erschien er den Leuten als lauter. Und was sich gezeigt hat war, dass hellgrüne Sportwagen recht leise sind."
Ferraris müssen rot sein. Und unsere Erwartung flüstert uns ein, dass rote Sportwagen besonders PS-stark sind – und damit besonders laut. Und auch an anderer Stelle spielt uns unsere Erwartungshaltung akustische Streiche.
"Es ist in der klassischen Musik so, dass der Tonmeister an seinem eigenen Tabu arbeitet: Er manipuliert sehr wohl","
sagt Hans-Joachim Maempel von der TU Berlin. Von einer Klassik-CD erwarten sich die meisten eine unverfälschte, authentische Aufnahme. Alles soll genauso klingen wie im Konzertsaal. Also am besten zwei hochwertige Mikrofone aufstellen und das Konzert einfach nur mitschneiden. Nur: Das Resultat dieser puristischen Vorgehensweise würde die meisten Hörer schlicht enttäuschen. Maempel:
""Weil gewisse zusätzliche Eindrücke, die beim Konzert da waren, fehlen: der Bildeindruck, die ganze Atmosphäre. Das fällt beim Hören über Lautsprecher flach. Deswegen versucht man in der Regel, das zu kompensieren, indem man ein bisschen übertreibt: die Klangfarbe, die Räumlichkeit, bestimmte Lautstärkeunterschiede ein bisschen herausarbeitet. Wenn’s um die Atmosphäre geht, würde ich das Publikum ein bisschen lauter machen. Ich würde insgesamt das Orchester ein bisschen näher heranholen akustisch, damit es ein bisschen eindrücklicher wird. Ich würde Solisten unterstützen, indem ich das Mikrofon ein bisschen hochziehe. Ich würde eine unzureichende Raumakustik verschönern, indem ich den Nachhall mit elektronischen Hallgeräten verlängere. Im Gegensatz zum puristischen Ideal versuche ich mit diesen Maßnahmen, eine Illusion der Aufführung zu erzeugen. Das heißt ich versuche das Erleben zu reproduzieren und nicht die physikalische Situation."
Also: Wichtig ist nicht, was authentisch ist, sondern was authentisch wirkt. Damit der Klassikfan das Gefühl hat, er lausche einer unverfälschten Aufnahme, muss sie der Tonmeister dezent manipulieren.
"Die Leute wollen betrogen werden."
Und: Es gibt Menschen, die unser Ohr ganz bewusst übers Ohr hauen – und zwar um uns möglichst perfekt zu unterhalten. Jörg Höhne ist einer von ihnen, Tonmischmeister vom Studio Mitte in Berlin. Er macht das Sound Design – also die Klanggestaltung – für Kinofilme. Wir sitzen in einem Tonstudio, das anmutet wie ein Kinosaal. Die Rollläden sind heruntergezogen, auf der Leinwand vor uns läuft gerade eine Szene aus einem Film, der bald in die Kinos kommt: Harald, die Hauptfigur, stolpert verwirrt über einen belebten Platz. Die Geräusche, die man hört, die Autos und die Straßenbahnen, scheinen ganz normal am Drehort aufgenommen worden zu sein. Höhne:
"Nein, das stimmt nicht. Bei Dokumentarfilmen mag das so sein. Aber bei Spielfilmproduktionen ist es so, dass ein Großteil des gesamten Soundtracks komplett neu gebaut wird, dass das, was wir im Kino hören, nur zum kleinen Teil Originaltöne sind. Wenn man einen Film im Ton komplett dekonstruiert und danach neu zusammenbaut, hat man völlig freie Gestaltungsmöglichkeiten im Umgang mit den klanglichen Elementen."
Das Ziel: Eine möglichst eindrucksvolle Klangatmosphäre, die zwar glaubwürdig erscheint, es in Wirklichkeit aber gar nicht ist. Höhne:
"Wir übertreiben die Realität. Die Sounds sind alle sehr fett, sehr opulent. Viel dichter, als man das in Realität so erleben würde. Im Ton kann man relativ dick auf tragen, bevor ein Zuschauer überhaupt merkt, dass er manipuliert wird. Das ist anfänglich einfach eine sehr kraftvolle Straßenszene, die dann nach und nach kippt und den inneren Zustand von Harald erzählt. Da wurde mit Alltagsgeräuschen gearbeitet, die aber verstärkt und verfremdet wurden und eine sehr hohe Dynamik generiert haben."
So klingt das, was die Kameramikrofone während des Drehs aufgenommen haben – ein diffuses Verkehrsrauschen, nicht besonders eindrucksvoll. Deshalb hat Höhne die Originaltöne weggelassen und eine neue Szene komponiert. Das Rumpeln der Straßenbahn ist, damit es fetter klingt, nach unten verstimmt. Das Quietschen der Schienen ist künstlich verlängert und viel lauter als im Original. Und zum Schluss fährt ein Laster durchs Bild. Nur: Das Originalgeräusch war viel zu schlapp. Also hat Sounddesigner Sebastian Morsch tief in die Trickkiste gegriffen.
"Der Lkw säbelt unserem Hauptdarsteller fast den Kopf ab. Er fährt ganz dicht an ihm vorbei. Wenn man sich das anguckt, sieht man: Erst ist es das Führerhaus, dann kommt die Kupplung. Verschiedene Reifen sieht man groß durchs Bild fahren. Das ist so ein Moment, wo ich wirklich eines nach dem anderen inszeniere: Dann fange ich mit dem Motor an, der vorbeifährt. Später hat so ein Lkw ein Kühlaggregat, da kommen Pfeiftöne raus. Auch die fahren vorbei – natürlich mit Doppler-Effekt. Ich versuche das Ganze zuzuspitzen, dass es möglichst wirkungsvoll ist und zeige nacheinander, was da durchs Bild fährt. Das ist ein Aneinanderreihen von Einzelsounds."
Höhne:
"Normale Lkws klingen anders. Diese Lkw-Sounds bestehen aus 20, 30 Einzelelementen, die sich aufaddieren und letztendlich das abbilden, was man im Kino von einem Lkw erwartet, der jemand fast umfährt. Aber es hat mit einem realistischen Lkw-Sound ganz wenig zu tun."
Immer wieder fallen wir auf akustische Illusionen herein – und zwar aus ganz verschiedenen Gründen: Manchmal will das Hirn Ordnung in ein chaotisches Klangmuster bringen. Manchmal versucht es, Bedeutung in etwas hineinzuinterpretieren, wo gar keine Bedeutung ist. Und manchmal lässt sich unser Ohr ganz einfach durch andere Sinne täuschen. Einige Phänomene aber warten noch auf ihre Erklärung. Selbst den Experten sind sie bislang ein Rätsel. Diana Deutsch:
"Eine dieser Illusionen widmet sich dem mysteriösen Niemandsland zwischen Sprache und Musik. Sie zeigt, wie dünn die Grenze zwischen ihnen ist. In dieser Illusion wird Sprache allmählich als Melodie wahrgenommen. Das funktioniert einfach dadurch, indem man die Phrase mehrmals wiederholt."
Beim Hören der sich wiederholenden Phrase gewinnt man irgendwann den Eindruck, dass die Worte zur Melodie werden. Für Diana Deutsch, die Pionierin der akustischen Illusionen, ein Hinweis auf die gemeinsame Wurzel von Sprache und Musik.
""I do believe that it shows that speech and song have deep roots in common.”"