Das ist der älteste aller Klänge, Schwingungen des entstehenden Universums, das weniger mit einem Urknall als einem Urschrei in die Welt kam, hörbar gemacht von Mark Whittle, Professor an der University of Virginia. Dem Klang liegen eine detailliierte Karte der kosmischen Hintergrundstrahlung und Computersimulationen zugrunde, und das mit dem Schall, sagt Mark Whittle, könne man durchaus wörtlich nehmen:
Zu Beginn sei das Universum dicht genug gewesen, Schall zu tragen, der mit 110 Dezibel laut wie ein Rockkonzert gewesen sei. Der wahre Klang aber habe 40 Oktaven unter diesem Kunstklang gelegen, und der Schall habe eine wichtige Wirkung gehabt: An seinen Druckmaxima sei die kosmische Materie hinreichend verdichtet worden, um zu Galaxien zusammenfallen zu können, so, wie lokale Tiefdruckgebiete Wolken entstehen lassen.
In den Galaxien bildeten sich die ersten Sterne, in denen die schwereren Elemente entstanden, die Sterne zerfielen und entließen fruchtbaren Staub in den Weltraum, aus dem sich wieder Sterne bildeten und schließlich Planeten wie die Erde, mit einem großen chemischen Repertoire, aus dem Leben entstehen konnte. Milliarden Jahre später:
Laute der Nacht in einem Sumpf im Süden der Vereinigten Staaten von Amerika. Das Konzert hat aufmerksame Zuhörer, wie Alligatorenweibchen, die durch das Bellen der Männchen schwach werden, oder Fledermäuse, die die Frösche fressen wollen. Musik also war schon vor dem Menschen da, vornehmlich niederen Beweggründen dienend ...
Als aber die Menschen in Erscheinung traten, kam mit Gesang, Klapperstein und Knochenflöte mehr System in die Sache, setzte die Entwicklung komplexer Musik ein, die der Wissenschaft heute noch Rätsel aufgibt:
Menschen komponieren Musik, nur Menschen verbringen tausende von Stunden damit, ein Musikinstrument zu lernen, und nur Menschen spielen Musikinstrumente zusammen in Gruppen.
Aber warum? (Abgesehen davon, dass es Spaß macht) Was sagt die Wissenschaft? Was macht das Hirn, wenn es von Wohlklang gespeist wird?
Und was, wenn ihm die Moderne nahe tritt? (Die Suche nach Missklängen hat schöne Erfolge vorzuweisen.)
Was kann die Wissenschaft für die moderne Oper tun? Wenn es etwa den Mord an einem Judaistikprofessor mit einem mittelalterlichen Vorderlader durch eine vermeintliche Braut Mick Jaggers, die Husserl studiert und Wasserschildkröten aufgezogen hatte, zu vertonen gilt?
Ganz unmittelbar tangiert ist die Wissenschaft natürlich immer dann, wenn es etwas zu messen gibt, wie in der Akustik. Was kann die tun, wenn die Herrschaften auf den hinteren Rängen eines Konzertsaales keine Bässe wahrnehmen können? Dann werden Akustiker wie Manfred Schroeder bemüht, lange Zeit Forschungsdirektor an den Bell Laboratories, USA, zugleich Professor in Göttingen und mit Auszeichnungen überhäuft:
Der beste Konzertsaal der Welt ist nach allgemeiner Übereinstimmung der Große Musikvereinssaal in Wien, und der ist eben, wie die Akustiker sagen, wie ein Schuhkarton gemacht, also relativ schmal und hohe Decke, und das ist, wie wir feststellen konnten, gut für die Akustik. Also, nicht zu breit der Saal, im Gegensatz zu den meisten modernen Sälen, und nicht zu niedrig, wieder im Gegensatz zu vielen modernen Sälen, denn wir haben heute Klimaanlagen, wir brauchen die Luft da oben nicht mehr, aber vor zweihundert Jahren musste man die Säle genügend hoch bauen, damit die Leute genügend Luft hatten zum Atmen, und man baute sie nicht zu breit, es gab eben nicht soviel Leute und der einzelne Mensch war damals ein bisschen dünner als heute.
Der zitierte Frequenzeinbruch bei 200Hz hatte tatsächlich stattgefunden, in einem großen amerikanischen Konzertsaal. Schuld waren an der Decke angebrachte Plastikquader, die als Schallreflektoren und Beleuchtungskörper zugleich dienen sollten,
Die nannte mein Freund, wenn ich so sagen darf, George Szell, der Dirigent des Cleveland Orchesters, schwangere Frösche mit beleuchtetem Bauchnabel, die waren zu klein und in einem zu regelmäßigen Muster an der Decke angeordnet, so dass sie die tiefen Frequenzen um 200Hz, also die Celli, nicht gut reflektierten, so das also die Celli in Tutti-Passagen überhaupt nicht gehört werden konnten, und Herr Szell sagte dann, das Ganze hier sieht aus wie ein Kino für Stummfilme. Das wurde alles rausgenommen und es wurde eine solide Decke eingezogen, die also wirklich auch die tiefen Frequenzen reflektiert und das Problem war damit beseitigt, man konnte also nun die Celli sehr gut hören.
Die Decke reflektiert besonders vorteilhaft, wenn sie mit Schallreflektoren unterschiedlicher Dicke belegt ist, die einem zahlentheoretischen Muster folgt. Mitunter ist die Akustik in einem Konzertsaal so tückisch, dass das Musikempfinden metergenau von der Platzierung des Hörers abhängig ist:
Also in der Philharmonic Hall in New York beschwerte sich der Hauptkritiker der New York Times, Harold Schonberg hieß er, über Echos an seinem Sitz, und dann haben wir - wir haben immer ernst genommen, was er gesagt hat, denn dieser Mann, der Doyen der amerikanischen Musikkritiker, was der hörte, stimmte sozusagen. Wir haben dann seinen Sitz durchgemessen und tatsächlich genau an seinem Sitz gab es ein störendes Echo, an anderen Sitzen nicht, wir haben das dann identifiziert, wo das herkam, nämlich einer Balkonvorderwand und haben da absorbierendes Material angebracht, und das Echo an seinem Platz beseitigt.
Der Klang eines Raumes wird nicht nur von seiner Form und den Reflektionseigenschaften der Decken, Wände und Böden bestimmt, auch das Gestühl spielt eine Rolle und sogar die der Sitzverteilung der Hörerschaft:
Wenn Sie relativ flache Sitzreihen haben und die sind besetzt, dann ist zwischen zwei Sitzreihen eine Art akustischer Resonator - der Physiker sagt Wellenlängenresonator - der die Eigenschaft hat, die tiefen Frequenzen zu absorbieren, und wie kann man das verhindern? Indem man die Sitzreihen steiler ansteigen lässt, dann taucht der Effekt nicht mehr auf.
Dem steht der wirtschaftliche Zwang zum flachen Raum entgegen, den die Antike so nicht kannte: Deren Amphitheatern mit steiler Sitzreihenstaffelung, nach oben hin offen, wird denn auch die beste Akustik zugeschrieben. Eine Lösung, die in England nicht in Frage kommt, hier muss Technik helfen.
Das ist in den sechziger Jahren das erste Mal in der Royal Festival Hall in London gemacht worden, aber eben der London County Council, dem Royal Festival gehört, hat das nicht bekannt gegeben, es wurden dort dreihundert Lautsprecher und Verstärker und Mikrofone und so weiter angebracht, und erst, nachdem die Musikkritiker schrieben, "die Akustik wird ja besser und besser hier, vielleicht altert das Holz", hat der London County Council gesagt, nee, wir haben da ... wenn Sie's umgekehrt gemacht hätten, hätte natürlich alles geschrieen, ja, Verstärker und Lautsprecher in einem Konzertsaal! Aber so hatten sie sich bereits festgelegt, die Akustik ist besser.
Konzertbesucher müssen den Einzug der Wissenschaft in ihre Räume also nicht fürchten, und was moderne Tonträger angeht: Besser als auf CDs hat Musik noch nie geklungen. Musiker dagegen - nicht die Stars, wohl aber die breite Basis - haben womöglich bald Grund zur Klage: Derzeit entsteht in Wien eine große Sammlung von Klängen aller möglichen Instrumente, die sich computergesteuert wieder zu allen möglichen Musikstücken zusammensetzen lassen. Die Produzenten werben so:
Die "Vienna Symphonic Library" kennzeichnet den Beginn einer Bahn brechenden Entwicklung in der Produktion virtueller Orchestersounds. Mit den DVD-Editionen startet eine Serie von hochwertigen Kollektionen, die durch die Synthese von Wiener Musiktradition mit intelligenter Hochtechnologie konventionelle Sample Libraries weit hinter sich lassen. Die einzelnen Releases bis zum Symphonic Cube III werden es Komponisten, Arrangeuren und Musikproduzenten ermöglichen, jede Nuance künstlerischer Ausführung von Orchestermusikern absolut authentisch zu replizieren.
Die auf dem Web bereit gestellten, so produzierten Musikstücke freilich lassen den Computer noch deutlich durchschimmern. Dennoch: Die Programmierer müssen die neuen Möglichkeiten ja auch erst einmal verinnerlichen, und es ist wohl nur eine Frage der Zeit, bis Rechner selbst Feinheiten wie die Arthrose des Ersten Geigers simulieren können. Und für den stillen kleinen Film reicht die Musik jetzt schon allemal.
Natürlich inspiriert der Computer auch ganz neue Arten von Musik, etwa Georg Hajdus in Halle vorgestellte Oper "Der Sprung" mit einem Text des Lyrikers Thomas Brasch. Die Oper zeichnet eine wahre - und schauerliche - Begebenheit nach: Mitte 1984 erschießt eine akademische Angestellte der Kölner Universität Professor Hermann Greive, 48, Spezialist für Philosophiegeschichte des Judentums am Martin-Buber-Institut der Kölner Uni. Die Täterin leidet an einem absurden Verfolgungswahn, ist andererseits aber zu akademischen Leistungen fähig, die strikte Logik erfordern. Die Konstruktion der Oper folgt diesem Muster, das Gerüst bildet der von Thomas Brasch auf Georg Hajdus Anrufbeantworter gesprochene Satz:
Eine Oper schreiben heißt: Keinen anderen Ausweg wissen.
Dieser Satz wird durch eine Fourieranalyse spektral zerlegt, die stärksten Spektralkomponenten werden zur Synthese von 540 jeweils 10 Millisekunden langen Soundschnipseln verwendet, die in der Summe wieder den Ursprungssatz ergeben:
Eine Oper schreiben heißt: Keinen anderen Ausweg wissen.
Dieser Satz nun wird vom Computer zeitlich auf 90 Minuten gestreckt, die Länge der Oper.
Das entstehende Klanggewebe wird jetzt höchst komplex mit Text, Musik und Bedeutungen beladen. Der offensichtliche Nachteil des Verfahrens: Es erklärt sich nicht selbst, man muss den Hintergrund schon kennen.
Was passiert eigentlich im Gehirn eines Menschen, wenn wohl oder weh klingende Laute in dessen Ohren strömen? Hier ist durch Forschungen des Max-Planck-Instituts für Kognitive Neurowissenschaft in Leipzig ein altes Verfahren zu neuen Ehren gekommen, das EEG, das Elektroenzephalogramm. Wenn nämlich Klänge vom Gehirn verarbeitet werden, haben Teile des Denkapparats, so genannte Module, die auf die Wahrnehmung der erlernten Richtigkeit eines Klangs geeicht sind, so viel zu tun, dass auf der Kopfhaut elektrische Signale messbar werden, sagt Stephan Kölsch:
Mit unseren Experimenten versuchen wir jetzt rauszubekommen, mit welchem Zeitverlauf dieses Modul aktiv ist und wo dieses Modul im Gehirn lokalisiert ist. Und was wir in diesem Experiment gemacht haben, war, dass wir das EEG gemessen haben, also das Elektroenzephalogramm, und die Idee, die dahinter steht, ist einfach die, dass Neurone im Gehirn, wenn sie aktiv sind, elektrische Potentiale produzieren, und diese elektrischen Potentiale können wir auch außerhalb der Schädeloberfläche noch mit Elektroden und daran angeschlossenen Messapparaturen erfassen.
Die Module, die sich bei als falsch erkannten Klängen erregen, sind die gleichen, die auf grammatische Fehler beim Sprechen hin aktiv werden. Auch unerwartete Bedeutungs-Schräglagen rufen EEG-Reaktionen hervor, etwa den "N400" genannte Effekt. Er tritt - gut messbar - auf, wenn dem Gehirn Unerwartetes widerfährt, etwa beim Lesen. Folgt auf den Satz " Die Blicke schweifen in die Ferne" das Wort "Weite" auf einem Bildschirm, so ist alles in Ordnung. Lesen die Testpersonen jedoch danach ein offenbar zusammenhangloses Wort wie Wort "Nadel", dann stimmt etwas nicht.
Das Gehirn drückt seine Verwirrung mit einem so genannten ereigniskorrelierten Potenzial aus: Ungefähr 400 Millisekunden nach der Wahrnehmung - daher "N400" - weichen die mit dem Elektroenzephalogramm (EEG) gemessenen Hirnströme deutlich vom Normalen ab. Ähnliches passiert, wenn ein Brief vom Finanzamt mit "Rückzahlung" beschriftet ist.
Verblüffender noch: Wenn das Gehirn musikalisch auf eine Bedeutung eingestimmt wird, wie etwa Weite
Und dann etwas ganz Unpassendes hören muss, wie "Enge" - zeigt das EEG zeigt die berühmte N400-Anomalie:
Die Tatsache, dass wir eine N400 auf dem Zielwort finden, wenn das Zielwort keinen Bezug hat zu dem vorhergehenden musikalischen Kontext, demonstriert, das Musik einen Effekt hat auf die semantische Verarbeitung eines nachfolgenden Wortes. Und das demonstriert, das Musik Repräsentationen bedeutungsvoller Konzepte aktivieren kann. Was heißt, das Musik erheblich mehr Bedeutung tragende Informationen übermitteln kann als wir das vorher so gedacht haben, und die Ergebnisse zeigen auch, das die Effekte, die Musik auf semantische Verarbeitungsprozesse eines Wortes hat, genau die gleichen sind wie die, die Sätze haben.
Die Max-Planck-Leute haben auch Trost für Menschen, die fürchten, an Teilen der akademischen musikalischen Moderne physisch Schaden zu nehmen, dies aber nicht zu offenbaren wagen, da ihnen das den Vorwurf der Einfalt eintragen könnte, mindestens. Aber es ist schon so: Das Durchschnittshirn reagiert auf empfundene musikalische Misslichkeiten messbar, auch im Kernspin-Tomographen.
Mit diesem Experiment haben wir Emotion mit Musik untersucht, und das haben wir so gemacht, dass wir angenehme und unangenehme Musik gespielt haben. Als angenehme Musik haben wir fröhliche Tanzmusik aus den letzten vier Jahrhunderten vorgespielt, und die haben wir elektronisch so verfremdet, das sie dissonant wurde und damit unangenehm. Konsonant für die angenehmen und dissonant für die unangenehmen heißt, akustisch gesprochen, das es einen Unterschied in der Rauigkeit der akustischen Information gibt. Die angenehmen Stimmen haben eine niedrige Rauigkeit, die unangenehmen haben eine hohe Rauigkeit. Jetzt spiele ich erstmal ein Beispiel hier vor. So für eine Minute. Und das ist das Unangenehme. Und wenn Sie das eine Minute hören müssen, dann wird Ihnen schon anders dabei, vor allem, wenn das dann über 'ne Dreiviertel Stunde im Experiment geht.
Und dann zeigt das "Functional Magnetic Resonance Imaging"-Verfahren die Zonen des Gehirns mit vermehrtem Blutfluss, Zeichen erhöhter Aktivität, und die Muster für gewohnte und ungewohnte, schöne und schräge Klänge sehen deutlich anders aus.
Was sehr erstaunlich war, die angenehmen Stücke haben außerdem eine Repräsentation des Larynx, also des Kehlkopfes, aktiviert obwohl die Versuchspersonen nicht tatsächlich mitgesungen haben. Und auch nicht instruiert wurden, mitzusingen. Und alle haben gesagt, nee, natürlich, hab' ich nicht gemacht, ich habe ja den Takt geklopft, wie Sie mir gesagt haben. Entschuldigung, denn die Kernspinexperimente sind teuer. Also ohne dass die da eine Aufgabe zu hatten wird die Aktivierung des Larynx vorbereitet, das heißt es wird sozusagen innerlich mitgesungen, ohne dass es da einen motorischen Output gibt.
Natürlich, betont Stefan Kölsch, hänge die Empfindung "angenehm" und "unangenehm" auch mit den Hörerfahrungen zusammen, Jazz etwa würde durch Dissonanzen schnell als langweilig empfunden.
Wie mögen solche Eigenarten in die Welt gekommen sein? Die Evolution wird die Anlage dazu für nützlich, überlebenswichtig befunden haben; eine Menge, sagt Ulrich Eysholdt, Leiter der Abteilung für Phoniatrie und Pädaudiologie am Universitätsklinikum Erlangen, sei aber auch Erfahrungen zu danken:
Das "wenig vorprogrammiert" hängt damit zusammen, dass einfach die Nervenverbindungen, die programmierbar sind, so viele sind, dass sie nicht auf dem Erbgut des Menschen untergebracht werden können. Also der Mensch hat etwa Zehn hoch Zehn bis Zehn hoch Elf verschiedene Nervenzellen, und jede einzelne von diesen Nervenzellen hat etwa zehn hoch vier Synapsen, also Verbindungen, Verschaltungen, zu anderen Nervenzellen. Es dreht sich also um wenigstens Zehn hoch Vierzehn Nervenverbindungen, die programmiert werden müssten, und das ist mit unserem Erbgut nicht zu übertragen, und also hilft sich die Natur da mit einer Selbstorganisation, das Nervensystem organisiert sich selbst als, wie die Techniker sagen, als neuronales Netz und es verstärkt die Eindrücke, die wichtig sind, und es unterdrückt die Bahnen, die nicht wichtig sind. Das nennt man Reifung, aber im Einzelfall ist das natürlich nicht nach zu verfolgen.
Es kann einer also zu Schönberg ebenso hinreifen wie zu Schubert, so befremdlich das Ungeschulten auch vorkommen mag:
Das musikalische Gehör muss genau so trainiert werden wie das sprachliche Gehör, und das passiert in jungen Jahren etwa bis zum zehnten Lebensjahr, die Frage ist, ob es sich permanent entwickelt oder ob diese Reifung in irgendwelchen Schüben vor sich geht, also mal zwischendurch schneller vonstatten geht, und ob es möglich ist, beispielsweise diese Schübe auszulösen. Man weiß, musikalisches Gehör muss geübt werden, etwa absolutes Gehör lernt der Mensch zwischen dem vierten und siebenten Lebensjahr, danach sicher nicht mehr, und man kann bezüglich dieser Reifungsphasen eigentlich nur auf Tierversuche zurück greifen. Da gibt es keine Experimente beim Menschen.
Und bei Tierversuchen, gibt's 'ne ganze Reihe, und der eindrücklichste ist der mit dem Waldkauz. Käuze sind Nachtjäger, und müssen, um eine Maus erlegen zu können, ihre visuellen und auditiven Eindrücke übereinstimmend haben, müssen, wie man sagt, "die Map zur Deckung bringen", und das lernen sie in jungen Jahren. Wenn man einem jungen Waldkauz zwischen seinem 26. und 28. Lebenstag die Ohren mit Oropax verschließt, dann lernt er das nicht und lernt es auch nie mehr in seinem Leben. Er kann völlig normal hören, aber er schafft es nicht, seine visuellen und seine Höreindrücke zur Deckung zu bringen und wird bei der Jagd keinen Erfolg haben und verhungern.
Wenn das beim Menschen ähnlich ist - was Hänschen nicht lernt, lernt Hans nimmermehr -, wäre da nicht einige Anstrengung nötig, die Kinder zur Musik zu treiben? Man solle da nicht zu hoch ansetzen, sagt Ulrich Eysholdt:
Klassische Musik ist für Kinder schon sehr, sehr anspruchsvoll, und es ist kein Zufall, dass man bei Kindern, um dieses Hören zur Reifung zu bringen, eben Kinderlieder verwendet, Lieder, die eine ganz einfache Struktur haben, ein Teil wird zweimal wiederholt, dann kommt ein anderer und dann kommt der erste Teil wieder, dann - etwa "Alle meine Entchen", kurze Tonleiter rauf, dann ein fester Ton, dann wieder die Tonleiter runter. Schluss. Und das Ganze nur über eine Quinte. Ein Tonumfang von etwa einer Oktave ist für ein kleines Kind schon nicht mehr zu erfassen, und alle Kinderlieder, die wir kennen, "Fuchs, Du hast die Gans gestohlen" und wie sie alle heißen, die gehorchen diesen Gesetzmäßigkeiten.
Und was offenbar sehr gut ist für diese Selbstorganisation der Hörbahn ist Beschränkung, aber laufende Wiederholung, damit ein Muster, was erst einmal gelernt wird, immer wieder kommt und damit an Wichtigkeit gewinnt, dann kriegt es mehr Synapsen zugeteilt, mehr Rechenkapazität des Hirns und damit prägt es sich ein, damit geht es dann ins akustische Langzeitgedächtnis über. Wenn man zu viel macht, das ist das Schlagwort der Reizüberflutung heute, dann kann sich das kindliche Gehör dem nicht anpassen.
Alte Kirchenmusik sei genau nach diesem Schema gemacht, die Choräle wandten sich in aller Regel an Leute, die keinerlei musikalische Schulung hatten:
Die also in dem Sinne musikalisch noch Kinder waren und die das aber einbläuen mussten, und wie stark das die Leute auch angerührt hat - da gibt es ja auch reichlich Berichte drüber, dass die Soldaten Friedrichs des Großen nach der Schlacht von Leuthen noch auf dem Schlachtfeld den Choral angestimmt haben "Nun danket alle Gott", was alle konnten und was den Ausdruck tiefster Befreiung in sich trug.
Schlichtheit muss kein Makel sein. Es gibt Klänge, die 350 Jahre alt, ohne raffinierte Technik zustande gekommen und immer noch für ein Remake gut sind. Und durch die Arbeit des Leipziger Max-Planck-Instituts für Kognitions- und Neurowissenschaften weiß man jetzt auch: Es ist schon in Ordnung, wenn man das gut findet.
Zu Beginn sei das Universum dicht genug gewesen, Schall zu tragen, der mit 110 Dezibel laut wie ein Rockkonzert gewesen sei. Der wahre Klang aber habe 40 Oktaven unter diesem Kunstklang gelegen, und der Schall habe eine wichtige Wirkung gehabt: An seinen Druckmaxima sei die kosmische Materie hinreichend verdichtet worden, um zu Galaxien zusammenfallen zu können, so, wie lokale Tiefdruckgebiete Wolken entstehen lassen.
In den Galaxien bildeten sich die ersten Sterne, in denen die schwereren Elemente entstanden, die Sterne zerfielen und entließen fruchtbaren Staub in den Weltraum, aus dem sich wieder Sterne bildeten und schließlich Planeten wie die Erde, mit einem großen chemischen Repertoire, aus dem Leben entstehen konnte. Milliarden Jahre später:
Laute der Nacht in einem Sumpf im Süden der Vereinigten Staaten von Amerika. Das Konzert hat aufmerksame Zuhörer, wie Alligatorenweibchen, die durch das Bellen der Männchen schwach werden, oder Fledermäuse, die die Frösche fressen wollen. Musik also war schon vor dem Menschen da, vornehmlich niederen Beweggründen dienend ...
Als aber die Menschen in Erscheinung traten, kam mit Gesang, Klapperstein und Knochenflöte mehr System in die Sache, setzte die Entwicklung komplexer Musik ein, die der Wissenschaft heute noch Rätsel aufgibt:
Menschen komponieren Musik, nur Menschen verbringen tausende von Stunden damit, ein Musikinstrument zu lernen, und nur Menschen spielen Musikinstrumente zusammen in Gruppen.
Aber warum? (Abgesehen davon, dass es Spaß macht) Was sagt die Wissenschaft? Was macht das Hirn, wenn es von Wohlklang gespeist wird?
Und was, wenn ihm die Moderne nahe tritt? (Die Suche nach Missklängen hat schöne Erfolge vorzuweisen.)
Was kann die Wissenschaft für die moderne Oper tun? Wenn es etwa den Mord an einem Judaistikprofessor mit einem mittelalterlichen Vorderlader durch eine vermeintliche Braut Mick Jaggers, die Husserl studiert und Wasserschildkröten aufgezogen hatte, zu vertonen gilt?
Ganz unmittelbar tangiert ist die Wissenschaft natürlich immer dann, wenn es etwas zu messen gibt, wie in der Akustik. Was kann die tun, wenn die Herrschaften auf den hinteren Rängen eines Konzertsaales keine Bässe wahrnehmen können? Dann werden Akustiker wie Manfred Schroeder bemüht, lange Zeit Forschungsdirektor an den Bell Laboratories, USA, zugleich Professor in Göttingen und mit Auszeichnungen überhäuft:
Der beste Konzertsaal der Welt ist nach allgemeiner Übereinstimmung der Große Musikvereinssaal in Wien, und der ist eben, wie die Akustiker sagen, wie ein Schuhkarton gemacht, also relativ schmal und hohe Decke, und das ist, wie wir feststellen konnten, gut für die Akustik. Also, nicht zu breit der Saal, im Gegensatz zu den meisten modernen Sälen, und nicht zu niedrig, wieder im Gegensatz zu vielen modernen Sälen, denn wir haben heute Klimaanlagen, wir brauchen die Luft da oben nicht mehr, aber vor zweihundert Jahren musste man die Säle genügend hoch bauen, damit die Leute genügend Luft hatten zum Atmen, und man baute sie nicht zu breit, es gab eben nicht soviel Leute und der einzelne Mensch war damals ein bisschen dünner als heute.
Der zitierte Frequenzeinbruch bei 200Hz hatte tatsächlich stattgefunden, in einem großen amerikanischen Konzertsaal. Schuld waren an der Decke angebrachte Plastikquader, die als Schallreflektoren und Beleuchtungskörper zugleich dienen sollten,
Die nannte mein Freund, wenn ich so sagen darf, George Szell, der Dirigent des Cleveland Orchesters, schwangere Frösche mit beleuchtetem Bauchnabel, die waren zu klein und in einem zu regelmäßigen Muster an der Decke angeordnet, so dass sie die tiefen Frequenzen um 200Hz, also die Celli, nicht gut reflektierten, so das also die Celli in Tutti-Passagen überhaupt nicht gehört werden konnten, und Herr Szell sagte dann, das Ganze hier sieht aus wie ein Kino für Stummfilme. Das wurde alles rausgenommen und es wurde eine solide Decke eingezogen, die also wirklich auch die tiefen Frequenzen reflektiert und das Problem war damit beseitigt, man konnte also nun die Celli sehr gut hören.
Die Decke reflektiert besonders vorteilhaft, wenn sie mit Schallreflektoren unterschiedlicher Dicke belegt ist, die einem zahlentheoretischen Muster folgt. Mitunter ist die Akustik in einem Konzertsaal so tückisch, dass das Musikempfinden metergenau von der Platzierung des Hörers abhängig ist:
Also in der Philharmonic Hall in New York beschwerte sich der Hauptkritiker der New York Times, Harold Schonberg hieß er, über Echos an seinem Sitz, und dann haben wir - wir haben immer ernst genommen, was er gesagt hat, denn dieser Mann, der Doyen der amerikanischen Musikkritiker, was der hörte, stimmte sozusagen. Wir haben dann seinen Sitz durchgemessen und tatsächlich genau an seinem Sitz gab es ein störendes Echo, an anderen Sitzen nicht, wir haben das dann identifiziert, wo das herkam, nämlich einer Balkonvorderwand und haben da absorbierendes Material angebracht, und das Echo an seinem Platz beseitigt.
Der Klang eines Raumes wird nicht nur von seiner Form und den Reflektionseigenschaften der Decken, Wände und Böden bestimmt, auch das Gestühl spielt eine Rolle und sogar die der Sitzverteilung der Hörerschaft:
Wenn Sie relativ flache Sitzreihen haben und die sind besetzt, dann ist zwischen zwei Sitzreihen eine Art akustischer Resonator - der Physiker sagt Wellenlängenresonator - der die Eigenschaft hat, die tiefen Frequenzen zu absorbieren, und wie kann man das verhindern? Indem man die Sitzreihen steiler ansteigen lässt, dann taucht der Effekt nicht mehr auf.
Dem steht der wirtschaftliche Zwang zum flachen Raum entgegen, den die Antike so nicht kannte: Deren Amphitheatern mit steiler Sitzreihenstaffelung, nach oben hin offen, wird denn auch die beste Akustik zugeschrieben. Eine Lösung, die in England nicht in Frage kommt, hier muss Technik helfen.
Das ist in den sechziger Jahren das erste Mal in der Royal Festival Hall in London gemacht worden, aber eben der London County Council, dem Royal Festival gehört, hat das nicht bekannt gegeben, es wurden dort dreihundert Lautsprecher und Verstärker und Mikrofone und so weiter angebracht, und erst, nachdem die Musikkritiker schrieben, "die Akustik wird ja besser und besser hier, vielleicht altert das Holz", hat der London County Council gesagt, nee, wir haben da ... wenn Sie's umgekehrt gemacht hätten, hätte natürlich alles geschrieen, ja, Verstärker und Lautsprecher in einem Konzertsaal! Aber so hatten sie sich bereits festgelegt, die Akustik ist besser.
Konzertbesucher müssen den Einzug der Wissenschaft in ihre Räume also nicht fürchten, und was moderne Tonträger angeht: Besser als auf CDs hat Musik noch nie geklungen. Musiker dagegen - nicht die Stars, wohl aber die breite Basis - haben womöglich bald Grund zur Klage: Derzeit entsteht in Wien eine große Sammlung von Klängen aller möglichen Instrumente, die sich computergesteuert wieder zu allen möglichen Musikstücken zusammensetzen lassen. Die Produzenten werben so:
Die "Vienna Symphonic Library" kennzeichnet den Beginn einer Bahn brechenden Entwicklung in der Produktion virtueller Orchestersounds. Mit den DVD-Editionen startet eine Serie von hochwertigen Kollektionen, die durch die Synthese von Wiener Musiktradition mit intelligenter Hochtechnologie konventionelle Sample Libraries weit hinter sich lassen. Die einzelnen Releases bis zum Symphonic Cube III werden es Komponisten, Arrangeuren und Musikproduzenten ermöglichen, jede Nuance künstlerischer Ausführung von Orchestermusikern absolut authentisch zu replizieren.
Die auf dem Web bereit gestellten, so produzierten Musikstücke freilich lassen den Computer noch deutlich durchschimmern. Dennoch: Die Programmierer müssen die neuen Möglichkeiten ja auch erst einmal verinnerlichen, und es ist wohl nur eine Frage der Zeit, bis Rechner selbst Feinheiten wie die Arthrose des Ersten Geigers simulieren können. Und für den stillen kleinen Film reicht die Musik jetzt schon allemal.
Natürlich inspiriert der Computer auch ganz neue Arten von Musik, etwa Georg Hajdus in Halle vorgestellte Oper "Der Sprung" mit einem Text des Lyrikers Thomas Brasch. Die Oper zeichnet eine wahre - und schauerliche - Begebenheit nach: Mitte 1984 erschießt eine akademische Angestellte der Kölner Universität Professor Hermann Greive, 48, Spezialist für Philosophiegeschichte des Judentums am Martin-Buber-Institut der Kölner Uni. Die Täterin leidet an einem absurden Verfolgungswahn, ist andererseits aber zu akademischen Leistungen fähig, die strikte Logik erfordern. Die Konstruktion der Oper folgt diesem Muster, das Gerüst bildet der von Thomas Brasch auf Georg Hajdus Anrufbeantworter gesprochene Satz:
Eine Oper schreiben heißt: Keinen anderen Ausweg wissen.
Dieser Satz wird durch eine Fourieranalyse spektral zerlegt, die stärksten Spektralkomponenten werden zur Synthese von 540 jeweils 10 Millisekunden langen Soundschnipseln verwendet, die in der Summe wieder den Ursprungssatz ergeben:
Eine Oper schreiben heißt: Keinen anderen Ausweg wissen.
Dieser Satz nun wird vom Computer zeitlich auf 90 Minuten gestreckt, die Länge der Oper.
Das entstehende Klanggewebe wird jetzt höchst komplex mit Text, Musik und Bedeutungen beladen. Der offensichtliche Nachteil des Verfahrens: Es erklärt sich nicht selbst, man muss den Hintergrund schon kennen.
Was passiert eigentlich im Gehirn eines Menschen, wenn wohl oder weh klingende Laute in dessen Ohren strömen? Hier ist durch Forschungen des Max-Planck-Instituts für Kognitive Neurowissenschaft in Leipzig ein altes Verfahren zu neuen Ehren gekommen, das EEG, das Elektroenzephalogramm. Wenn nämlich Klänge vom Gehirn verarbeitet werden, haben Teile des Denkapparats, so genannte Module, die auf die Wahrnehmung der erlernten Richtigkeit eines Klangs geeicht sind, so viel zu tun, dass auf der Kopfhaut elektrische Signale messbar werden, sagt Stephan Kölsch:
Mit unseren Experimenten versuchen wir jetzt rauszubekommen, mit welchem Zeitverlauf dieses Modul aktiv ist und wo dieses Modul im Gehirn lokalisiert ist. Und was wir in diesem Experiment gemacht haben, war, dass wir das EEG gemessen haben, also das Elektroenzephalogramm, und die Idee, die dahinter steht, ist einfach die, dass Neurone im Gehirn, wenn sie aktiv sind, elektrische Potentiale produzieren, und diese elektrischen Potentiale können wir auch außerhalb der Schädeloberfläche noch mit Elektroden und daran angeschlossenen Messapparaturen erfassen.
Die Module, die sich bei als falsch erkannten Klängen erregen, sind die gleichen, die auf grammatische Fehler beim Sprechen hin aktiv werden. Auch unerwartete Bedeutungs-Schräglagen rufen EEG-Reaktionen hervor, etwa den "N400" genannte Effekt. Er tritt - gut messbar - auf, wenn dem Gehirn Unerwartetes widerfährt, etwa beim Lesen. Folgt auf den Satz " Die Blicke schweifen in die Ferne" das Wort "Weite" auf einem Bildschirm, so ist alles in Ordnung. Lesen die Testpersonen jedoch danach ein offenbar zusammenhangloses Wort wie Wort "Nadel", dann stimmt etwas nicht.
Das Gehirn drückt seine Verwirrung mit einem so genannten ereigniskorrelierten Potenzial aus: Ungefähr 400 Millisekunden nach der Wahrnehmung - daher "N400" - weichen die mit dem Elektroenzephalogramm (EEG) gemessenen Hirnströme deutlich vom Normalen ab. Ähnliches passiert, wenn ein Brief vom Finanzamt mit "Rückzahlung" beschriftet ist.
Verblüffender noch: Wenn das Gehirn musikalisch auf eine Bedeutung eingestimmt wird, wie etwa Weite
Und dann etwas ganz Unpassendes hören muss, wie "Enge" - zeigt das EEG zeigt die berühmte N400-Anomalie:
Die Tatsache, dass wir eine N400 auf dem Zielwort finden, wenn das Zielwort keinen Bezug hat zu dem vorhergehenden musikalischen Kontext, demonstriert, das Musik einen Effekt hat auf die semantische Verarbeitung eines nachfolgenden Wortes. Und das demonstriert, das Musik Repräsentationen bedeutungsvoller Konzepte aktivieren kann. Was heißt, das Musik erheblich mehr Bedeutung tragende Informationen übermitteln kann als wir das vorher so gedacht haben, und die Ergebnisse zeigen auch, das die Effekte, die Musik auf semantische Verarbeitungsprozesse eines Wortes hat, genau die gleichen sind wie die, die Sätze haben.
Die Max-Planck-Leute haben auch Trost für Menschen, die fürchten, an Teilen der akademischen musikalischen Moderne physisch Schaden zu nehmen, dies aber nicht zu offenbaren wagen, da ihnen das den Vorwurf der Einfalt eintragen könnte, mindestens. Aber es ist schon so: Das Durchschnittshirn reagiert auf empfundene musikalische Misslichkeiten messbar, auch im Kernspin-Tomographen.
Mit diesem Experiment haben wir Emotion mit Musik untersucht, und das haben wir so gemacht, dass wir angenehme und unangenehme Musik gespielt haben. Als angenehme Musik haben wir fröhliche Tanzmusik aus den letzten vier Jahrhunderten vorgespielt, und die haben wir elektronisch so verfremdet, das sie dissonant wurde und damit unangenehm. Konsonant für die angenehmen und dissonant für die unangenehmen heißt, akustisch gesprochen, das es einen Unterschied in der Rauigkeit der akustischen Information gibt. Die angenehmen Stimmen haben eine niedrige Rauigkeit, die unangenehmen haben eine hohe Rauigkeit. Jetzt spiele ich erstmal ein Beispiel hier vor. So für eine Minute. Und das ist das Unangenehme. Und wenn Sie das eine Minute hören müssen, dann wird Ihnen schon anders dabei, vor allem, wenn das dann über 'ne Dreiviertel Stunde im Experiment geht.
Und dann zeigt das "Functional Magnetic Resonance Imaging"-Verfahren die Zonen des Gehirns mit vermehrtem Blutfluss, Zeichen erhöhter Aktivität, und die Muster für gewohnte und ungewohnte, schöne und schräge Klänge sehen deutlich anders aus.
Was sehr erstaunlich war, die angenehmen Stücke haben außerdem eine Repräsentation des Larynx, also des Kehlkopfes, aktiviert obwohl die Versuchspersonen nicht tatsächlich mitgesungen haben. Und auch nicht instruiert wurden, mitzusingen. Und alle haben gesagt, nee, natürlich, hab' ich nicht gemacht, ich habe ja den Takt geklopft, wie Sie mir gesagt haben. Entschuldigung, denn die Kernspinexperimente sind teuer. Also ohne dass die da eine Aufgabe zu hatten wird die Aktivierung des Larynx vorbereitet, das heißt es wird sozusagen innerlich mitgesungen, ohne dass es da einen motorischen Output gibt.
Natürlich, betont Stefan Kölsch, hänge die Empfindung "angenehm" und "unangenehm" auch mit den Hörerfahrungen zusammen, Jazz etwa würde durch Dissonanzen schnell als langweilig empfunden.
Wie mögen solche Eigenarten in die Welt gekommen sein? Die Evolution wird die Anlage dazu für nützlich, überlebenswichtig befunden haben; eine Menge, sagt Ulrich Eysholdt, Leiter der Abteilung für Phoniatrie und Pädaudiologie am Universitätsklinikum Erlangen, sei aber auch Erfahrungen zu danken:
Das "wenig vorprogrammiert" hängt damit zusammen, dass einfach die Nervenverbindungen, die programmierbar sind, so viele sind, dass sie nicht auf dem Erbgut des Menschen untergebracht werden können. Also der Mensch hat etwa Zehn hoch Zehn bis Zehn hoch Elf verschiedene Nervenzellen, und jede einzelne von diesen Nervenzellen hat etwa zehn hoch vier Synapsen, also Verbindungen, Verschaltungen, zu anderen Nervenzellen. Es dreht sich also um wenigstens Zehn hoch Vierzehn Nervenverbindungen, die programmiert werden müssten, und das ist mit unserem Erbgut nicht zu übertragen, und also hilft sich die Natur da mit einer Selbstorganisation, das Nervensystem organisiert sich selbst als, wie die Techniker sagen, als neuronales Netz und es verstärkt die Eindrücke, die wichtig sind, und es unterdrückt die Bahnen, die nicht wichtig sind. Das nennt man Reifung, aber im Einzelfall ist das natürlich nicht nach zu verfolgen.
Es kann einer also zu Schönberg ebenso hinreifen wie zu Schubert, so befremdlich das Ungeschulten auch vorkommen mag:
Das musikalische Gehör muss genau so trainiert werden wie das sprachliche Gehör, und das passiert in jungen Jahren etwa bis zum zehnten Lebensjahr, die Frage ist, ob es sich permanent entwickelt oder ob diese Reifung in irgendwelchen Schüben vor sich geht, also mal zwischendurch schneller vonstatten geht, und ob es möglich ist, beispielsweise diese Schübe auszulösen. Man weiß, musikalisches Gehör muss geübt werden, etwa absolutes Gehör lernt der Mensch zwischen dem vierten und siebenten Lebensjahr, danach sicher nicht mehr, und man kann bezüglich dieser Reifungsphasen eigentlich nur auf Tierversuche zurück greifen. Da gibt es keine Experimente beim Menschen.
Und bei Tierversuchen, gibt's 'ne ganze Reihe, und der eindrücklichste ist der mit dem Waldkauz. Käuze sind Nachtjäger, und müssen, um eine Maus erlegen zu können, ihre visuellen und auditiven Eindrücke übereinstimmend haben, müssen, wie man sagt, "die Map zur Deckung bringen", und das lernen sie in jungen Jahren. Wenn man einem jungen Waldkauz zwischen seinem 26. und 28. Lebenstag die Ohren mit Oropax verschließt, dann lernt er das nicht und lernt es auch nie mehr in seinem Leben. Er kann völlig normal hören, aber er schafft es nicht, seine visuellen und seine Höreindrücke zur Deckung zu bringen und wird bei der Jagd keinen Erfolg haben und verhungern.
Wenn das beim Menschen ähnlich ist - was Hänschen nicht lernt, lernt Hans nimmermehr -, wäre da nicht einige Anstrengung nötig, die Kinder zur Musik zu treiben? Man solle da nicht zu hoch ansetzen, sagt Ulrich Eysholdt:
Klassische Musik ist für Kinder schon sehr, sehr anspruchsvoll, und es ist kein Zufall, dass man bei Kindern, um dieses Hören zur Reifung zu bringen, eben Kinderlieder verwendet, Lieder, die eine ganz einfache Struktur haben, ein Teil wird zweimal wiederholt, dann kommt ein anderer und dann kommt der erste Teil wieder, dann - etwa "Alle meine Entchen", kurze Tonleiter rauf, dann ein fester Ton, dann wieder die Tonleiter runter. Schluss. Und das Ganze nur über eine Quinte. Ein Tonumfang von etwa einer Oktave ist für ein kleines Kind schon nicht mehr zu erfassen, und alle Kinderlieder, die wir kennen, "Fuchs, Du hast die Gans gestohlen" und wie sie alle heißen, die gehorchen diesen Gesetzmäßigkeiten.
Und was offenbar sehr gut ist für diese Selbstorganisation der Hörbahn ist Beschränkung, aber laufende Wiederholung, damit ein Muster, was erst einmal gelernt wird, immer wieder kommt und damit an Wichtigkeit gewinnt, dann kriegt es mehr Synapsen zugeteilt, mehr Rechenkapazität des Hirns und damit prägt es sich ein, damit geht es dann ins akustische Langzeitgedächtnis über. Wenn man zu viel macht, das ist das Schlagwort der Reizüberflutung heute, dann kann sich das kindliche Gehör dem nicht anpassen.
Alte Kirchenmusik sei genau nach diesem Schema gemacht, die Choräle wandten sich in aller Regel an Leute, die keinerlei musikalische Schulung hatten:
Die also in dem Sinne musikalisch noch Kinder waren und die das aber einbläuen mussten, und wie stark das die Leute auch angerührt hat - da gibt es ja auch reichlich Berichte drüber, dass die Soldaten Friedrichs des Großen nach der Schlacht von Leuthen noch auf dem Schlachtfeld den Choral angestimmt haben "Nun danket alle Gott", was alle konnten und was den Ausdruck tiefster Befreiung in sich trug.
Schlichtheit muss kein Makel sein. Es gibt Klänge, die 350 Jahre alt, ohne raffinierte Technik zustande gekommen und immer noch für ein Remake gut sind. Und durch die Arbeit des Leipziger Max-Planck-Instituts für Kognitions- und Neurowissenschaften weiß man jetzt auch: Es ist schon in Ordnung, wenn man das gut findet.