Je nach Raumposition des Lautsprechers sehr verschieden - und genau das macht die "Signatur" des Raums aus, seine Eigenwilligkeit, seine Einzigartigkeit, mit Klang umzugehen.
Mit dem mathematischen Verfahren der "Faltung" konnten die Programmierer dann die akustische Beschaffenheit des Mozartsaals in ihrem Computer abbilden und einfrieren. Auf der Musikmesse in Frankfurt stellen sie jetzt vor, wie Musiker, die mit Computern arbeiten, ihre Samples von Streichern und Bläsern virtuell auf der Bühne des Mozartsaals aufstellen können. Es klingt dann so, als würde die Geige auf der Bühne dieses Weltklassesaals erklingen.
Faltung ist auch die Technik, derer sich ein EU-Projekt der TU Berlin bedient, wenn sie den ersten multimedialen Pavillon von der Weltausstellung 1958 akustisch wieder auferstehen lässt. In den nächsten Jahren wird diese Technik in den Studios den immer etwas stereotyp klingenden digitalen Hall ersetzen. Wir hören dann Musik aus der Carnegie-Hall, die nie dort aufgenommen wurde.
Dietz Tinhof:
" Wie keine Geige wie eine andere Geige klingt, klingt auch kein Raum wie ein anderer. Und diese Eigenheiten dieser großartigen Säle versuchen wir möglichst umfassend und möglichst detailgetreu einzufangen."
Stefan Weinzierl:
" Die Grundlagentheorie zur Nachhallzeit ist um 1900 entstanden. Und da hat man schon geschossen."
Martin Rajek:
" Wenn ich jetzt diesen Raum mit diesem Impuls anrege, also indem ich diesen idealen Schuss auf der Bühne abfeuere, dann reagiert der Raum darauf. Er hallt nach. Pchhh. Irgendwie sowas."
Heinz Repper:
" Akustisch gesehen gilt der Mozartsaal als der beste Kammermusiksaal. Der Große Saal zählt zu den Top 10 der Welt. Egal, wer auf dem klassischen oder U-Gebiet top war, ist bei uns gewesen."
Hier klopfe ich auf meiner Gitarre. Nichts Besonderes. Oder doch: Denn ich klopfe nicht irgendwo, sondern ich gehe dabei im großen Sendesaal des Deutschlandfunks herum. Das ist nicht irgendein Studio, sondern ein international gefragter Kammerkonzertsaal. Warum er so toll ist, kann man nicht hundertprozentig begründen. Es hängt mit Gefühl zusammen, mit Sich Wohlfühlen. Kammerorchester fühlen sich hier wohl. Man hat vor der Konstruktion des Saals eine Menge gerechnet, mit Formeln aus dem vorletzten Jahrhundert: die Geometrie des Raums, die Schallabsorption des Parkettbodens und der verschachtelten Holzwände. Die Nachhallzeit im Sendesaal Köln beträgt 1,8 Sekunden - so lange braucht der Raum, bis sich ein Husten, ein Sich-Räuspern, ein Schlag auf den Korpus der Gitarre vollständig verflüchtigt hat.
Wenn ich mit meiner Gitarre nah bei Ihnen, also beim Mikrofon bin, dominiert der direkte Schall aus der Öffnung der Gitarre.
Gehe ich weit weg von Ihnen hinten in der Nähe des Ausgangs umher, gelangt der Schall der Gitarre nicht mehr direkt an Ihr Ohr. Er wird über Millionen von Reflexionen zu Ihnen transportiert. Das verwäscht den Rhythmus, den ich spiele, macht ihn zu Brei.
Der Raum arbeitet an dem Instrument. Er spielt mit dem Instrument sein eigenes Spielchen. Er ist ein eigener Klangkörper. Er ist selbst ein Instrument.
In den letzten 20 Jahren hat man gelernt, Instrumente zu sampeln, indem man hervorragende Musiker Einzeltöne oder Tonintervalle spielen ließ, sie aufnahm und sie dann in den Computer einspeiste. Die Samples ließen sich dann bearbeiten und auf Tasten spielen. Heute lernt man, Räume zu sampeln.
Eine Gruppe von Musikern und Toningenieuren in Wien hat sich vor zwei Jahren daran gemacht, die größte digitale Bibliothek für klassische Instrumente zu erstellen, eine Sample-Menge von bisher ungekanntem Ausmaß. Jedes Klarinetten-Legato mit Präzision und Hingabe aufgenommen, bearbeitet, auf DVD gebrannt und zusammen mit Streichern, Glasharfen, Posaunen für einige tausend Euro an Studios geliefert. Mit der "Vienna Symphonic Library" war es erstmals möglich, klassische Musik mit Tasten am Computer zu spielen, ohne dass es peinlich klang.
Sie hören hier die Kunst der Fuge von Johann Sebastian Bach. Ein Toningenieur der Vienna Symphonic Library hat sie im Computer zusammengebaut. Die Originalsamples waren relativ trocken aufgenommen, also sehr direkt am Instrument, in einem kleinen Studio. So pur über den Computer wiedergegeben klingt die Fuge, sehr spröde.
Aber mit einer Prise digitalem Hall angereichert, blüht das Werk hörbar auf. Der digitale Hall gehört zur Grundausrüstung jedes besseren Musikerzeugungsprogramms. Früher musste man sich teuere Hallgeräte kaufen. Mein mittelmäßig schneller Computer berechnet den Hallraum in Echtzeit; es ist seit langem kein technisches Problem mehr.
Dietz Tinhof, technischer Leiter der Vienna Symphonic Library:
" Der Witz war jetzt der, dass es für viele Bereiche, vor allem im Popmusikbereich, nicht nur ausreichend, sondern ästhetisch sogar erwünscht ist, diese künstlichen, synthetisch erzeugten Hallräume einzusetzen. Das ist ein an sich mittlerweile sehr verfeinertes Verfahren, das im Prinzip darauf beruht, dass aus einzelnen kleinsten Echos, also kleinen Reflexionen im Laufe der Zeit, innerhalb von einigen Sekunden oder Sekundebruchteilen ein dichtes Hallfeld aufgebaut wird.
Das hat unglaubliche Vorteile, das heißt, ich kann jeden noch so beliebigen Aspekt dieses Halls beeinflussen, regeln, darauf Eingriff nehmen. Es hat den riesigen Nachteil, dass es schlussendlich immer ein synthetischer Raum bleibt, ein idealisierter, vielleicht sehr schön klingender, aber sicher nicht echter Raum. Das Entscheidende bei vor allem klassischen Aufnahmen, aber nicht nur, ist aber dann schlussendlich die Signatur eines Raums.
Genau wie jedes Instrument eine eigene Handschrift hat, eine eigene Stimme, genauso haben Räume, große Säle, kleine Säle, jedes Badezimmer - sie alle haben eine eigene klangliche Signatur und beeinflussen mit dieser Signatur natürlich ganz massiv das, was in diesem Raum akustisch geschieht.
Wir sind in Wien natürlich in der glücklichen Situation, über eine ganze Reihe gewissermaßen idealen Räumen vor allem für Orchestermusik zu verfügen, und da wir das ja nolens volens mit der Muttermilch aufgesogen haben, ist es durchaus für begeisterte Konzertgeher ein Leichtes, einen Raum tatsächlich an seiner akustischen Signatur zu erkennen. Und Leute, die vom Fach sind, sowieso, weil jeder Raum für bestimmte Dinge besser oder schlechter geeignet ist. Da gibt's z.b. Säle, die für kammermusikalische Stücke, also in kleinen Besetzungen mit sehr zarten Arrangements besser geeignet sind. Das sind dann meistens Räume, die kürzere Hallfahnen, Hallzeiten erzeugen. Und dann gibt's eben Säle, die ganz besonders für große bombastische Werke geeignet sind, weil sie die Bläser besonders gut unterstützen. Und das ganze akustische Erleben besonders dicht und besonders tragend z.B. ist.
Die Idee, die wir jetzt geboren haben, war, dass wir nicht nur Instrumente sampeln, sondern Räume sampeln. Das klingt sehr abstrakt. Man kann sich das ungefähr so vorstellen: Ich bin in einem x-beliebigen Raum und erzeuge in diesem Raum z.b. über einen Lautsprecher ein genau bekanntes Messsignal, einen so genannten Impuls. Das muss nicht unbedingt ein kurzer, es kann auch langer Impuls sein, sprich ein Messton in irgendeiner bestimmten definierten Form. Ich nehme im Prinzip nichts anderes auf, als die Hallfahne in diesem Raum, die dieser Impuls erzeugt.
Und dadurch, dass dieser Impuls idealer Weise ganz genau bekannt ist, kann ich ihn mit einigen mathematischen Verfahren auf eine ideale Impulsantwort, Fachjargon: Impulse Response, zurückrechnen. Im Prinzip ist es nichts anders als dass ich jetzt die bekannten Unzulänglichkeiten dieses Impulse Responses auf die ideale Impulsantwort zurückrechnen kann. Das sind mathematische Verfahren, die im Prinzip alle lange bekannt sind, die auch schon lange eingesetzt werden, die aber eigentlich erst jetzt, aufgrund der immer steigende Rechnerkapazitäten, auch für Echtzeitanwendungen möglich werden. "
Stefan Weinzierl, Tonmeister und Professor an der Technischen Universität Berlin:
" Also, in so einer Implusantwort ist das Muster aller Reflexionen enthalten. Es ist ja so, wenn im Raum ein Klang erklingt, dann kommt er zunächst beim Hörer an als Direktschall, und danach kommt ein zeitliches Muster von u.u. Hunderttausenden von Reflexionen. D.h. der Klang wandert zu den Seiten, zum Boden, wird reflektiert, und all diese Reflektionen und auch Mehrfachreflexionen kommen irgendwann beim Hörer an. Und die Gesamtheit all dieser Reflektionen ist die Implusantwort des Raums. "
Martin Rajek programmiert normalerweise Software für Kräne und Bagger. Aber weil Martin Rajek auch Toningenieur mit eigenem Studio ist, passt er hervorragend ins Team der Vienna Symphonic Library:
" Und jetzt geht die Theorie her und sagt: Ich kann jedes Signal nehmen, mit dieser Impulsantwort falten, und dann bekomme ich denselben Eindruck, also ob dieses Signal an dieser Position ausgestrahlt worden wäre und ich's dort gehört hätte."
Er spricht von falten:
" Ich kann jedes Signal nehmen, mit dieser Impulsantwort falten."
" Die Faltung ist eine mathematische Methode, englisch Convolution, mit der man aus einer Impulsantwort, also etwa der Reaktion eines Konzertsaals auf einen Schuss, das Verhalten des Systems zurückrechnen kann, also unter anderem auch, wie sich der Saal verhalten würde, wenn man statt zu schießen eine Trompete bliese. Eine sehr zeitaufwändige Matrizenrechnung, die man mit einigen Tricks, etwa der Fourieranalyse abkürzen kann, die aber trotzdem als störrisch gilt. Faltungsgeräte mit einer relativ grob abgebildeten Akustik des Kölner Doms oder der New Yorker Carnegiehalle gibt es seit langem zu kaufen. Faltungssoftware einfacher Art findet sich in den neuesten Versionen von Musiksoftware. "
Die Crew der Vienna Symphonic Library geht einige Schritte weiter. So wie sie beim Sampeln einzelner Instrumente Nägel mit Köpfen gemacht hat, betreibt sie seit einigen Monaten die digitale Raumausbeute mit bisher nie da gewesener Präzision. Und sie fängt natürlich da an, wo, um mit Dietz Tinhof zu sprechen, für sie die Muttermilch liegt, nämlich mitten in Wien. Der technische Direktor des Wiener Konzerthauses Heinz Repper über sein Haus:
" Als Gebäude gesehen ist es ein ausklingendes Jugendstilgebäude, von Fellner/Helmer gebaut, die damals die berühmtesten Theater- und Konzerthausplaner und -errichter waren. Die haben, glaube ich, in Europa so um die 100 Konzerthäuser gebaut. Das (Wiener) Konzerthaus ist damals eins der größten gewesen, mit diesen drei Sälen, Schubert-, Mozartsaal und Großer Saal.
In künstlerischer Hinsicht zählt es sicher zu den Top-Sälen der Welt, Carnegie Hall, Berliner Philharmonie, die natürlich aus einer anderen Zeit kommt. Akustisch gesehen gilt der Mozartsaal als der beste Kammermusiksaal. Der Große Saal zählt als großer Konzertsaal sicherlich zu den Top 10 der Welt. Bei uns ist genauso ein Jimi Hendrix aufgetreten wie eine Ella Fitzgerald, ein Louis Armstrong, Diana Krall und eine Tina Turner, genauso wie die Philharmoniker, die Chicago Symphony. Egal, wer auf dem klassischen oder dem U-Gebiet top war, ist bei uns gewesen. "
Bevor wir ins Musikhaus eintauchen, eine kurze theoretische Vorbereitung von einem, der die Wiener Konzertsäle auch gut kennt, denn er hat über sie promoviert, Stefan Weinzierl, TU Berlin:
" Der Input ist das Quellsignal, das was eine Geige oder ein Cello produziert, oder Lautsprecher irgendwo im Raum. Und der Output ist das, was beim Hörer ankommt. D.h. diese Impulsantwort enthält genau das Übertragungsverhalten des Raums von einem bestimmten Quellpunkt im Raum zu einem bestimmten Zielpunkt. D.h. wenn der Hörer 2 Meter weiter geht, entspricht das schon einer anderen Signatur, weil sich das Übertragungsverhalten des Raums verändert.
Sie suchen sich eine bevorzugte Position, also vielleicht einen Platz, den man auch im Konzert als guten Platz bezeichnen würde, 8. Reihe Mitte ist so ein Schlagwort, und da stellt man dann ein Mikrofon hin und misst die Impulsantwort. "
Der Urahn solcher Experimente ist der amerikanische Physiker Wallace Clement Sabine, der vor 110 Jahren nachts immer wieder die Sitzpolster aus einem Theater in Boston holte, sie in einen Hörsaal an der Harvard Universität auf die Sitzbänke legte und mit Orgelpfeifen die Nachhallzeit des Hörsaals mit und ohne diese Polster maß. Der Hörsaal war berüchtigt für seine miserable Akustik. Selbst wenn man in der vordersten Reihe saß, konnte man den Dozenten kaum verstehen. Wallace Clement Sabine konnte den Raum akustisch nicht sanieren, aber seine Unbrauchbarkeit physikalisch begründen: Die Nachhallzeit war mit 5 1/2 Sekunden so lang, dass ein durchschnittlicher Redner 12 bis 15 Silben sprach, bis die erste verklungen war. Als man Wallace Clement Sabine im Jahr 1900 die Baupläne für die New Boston Music Hall zeigte, rechnete er den Architekten mit seiner Hallformel vor, dass sie gerade dabei waren, in eine akustische Kathastrophe von nicht tolerierbaren Nachhallzeiten zu steuern. Die Bostoner Symphoniehalle, wie sie heute heißt, gehört zu den besten Sälen der Welt. Sie ist das erste akustisch designte Gebäude der Welt überhaupt. Wallace Clement Sabine als Begründer der architektonischen Akustik. Sabine hielt übrigens den Pistolenschuss als idealen Impulsgeber, um das Klangverhalten eines Raums zu testen.
Stefan Weinzierl:
" Moderne Messverfahren zerlegen quasi diesen Knall und messen jede Frequenz einzeln. Und was dabei herauskommt, ist eben so ein Sinus Sweep, der bei sehr tiefen Frequenzen anfängt und einmal durch das ganze Spektrum läuft und jede Frequenz mit der gleichen Intensität produziert. Was man da aufnimmt, kann man wieder zusammenfügen zu einer Impulsantwort. D.h. man kann die nacheinander aufgenommenen Frequenzen neu übereinanderlegen und hat dann das, was ein Knall eigentlich hervorrufen würde im Raum. "
Wir befinden uns jetzt in einem Raum, den die Wiener für den besten Kammerkonzertsaal der Welt halten - den Mozartsaal des Wiener Konzerthauses. Auf der Bühne ein mannshoher Lautsprecher auf Rädern.
Martin Rajek:
" Da haben wir uns eine Konstruktion gebaut, mit der wir die Möglichkeit haben, erstens den Lautsprecher unterschiedlich zu platzieren - das ist relativ einfach, ihn auf ein paar Räder zu stellen. Der zweite Punkt ist, dass wir ihn auch drehen können. Wir drehen ihn um seine vertikale Achse. Und wir können ihn auch kippen, sodass er auf den Boden oder die Decke strahlt. Viele Instrumente strahlen ja gerade auf die Decke oder den Boden. Wenn man das Schlagwerk anschaut, da geht sehr viel auf den Boden. Sehr viele Blasinstrumente und Ähnliches geht an die Decke.
Das muss man dann natürlich pro Instrument gewichten, welche Abstrahlung bekomme ich. Man ist zunächst grundsätzlich frei, wo man den Lautsprecher und die Mikros hinpositioniert. Die Mikros: plausible Aufnahmepositionen. Den Lautsprecher wird man logischer Weise auf der Bühne positionieren, denn als Anwender wird man da ja auch sein Instrument hinpositionieren, sodass man die Bühne möglichst gleichförmig abdeckt. Wobei wir auch Extreme aufnehmen wollen. Wir sind also teilweise auch sehr nah am Bühnenrand, was bei der Abstrahlung dann einen halben Meter zur Wand ergibt; das klingt sehr komisch. Aber realistisch passiert das ja bei manchem Instrument, dass die Kontrabässe praktisch mit dem Rücken direkt an der Wand stehen. Und das muss man auch so abbilden. "
Vier Mikrofone mit golden glänzenden Häubchen, damit ich, der Gast von der Presse, nicht sehen kann, welcher Prototyp sich dahinter verbirgt. Sie stehen auf Ständern in der Mittelachse des Raums.
Martin Rajek:
" Wir würden gerne Hunderte Mikrofone aufstellen, aber wir müssen das natürlich auch in irgend einem Zeitrahmen aufnehmen können. Deswegen muss man sich gewisse Positionen suchen, die relevant sind. Man nimmt dann meistens eine Position über dem Dirigenten, das ist eine relative wichtige, interessante Position. Es gibt dann meistens in den ersten Reihen eine wichtige Position, bei der oft mikrofoniert wird. Wobei wir natürlich die Möglichkeit haben, im leeren Saal aufzunehmen und die Mikrofone anders zu positionieren. Wenn der Saal bestuhlt ist, kann ich nicht an der Dirigentenposition irgendwas hinstellen. Ich kann auch nicht in die dritte Reihe was hinstellen, auch wenn's gut klingt, aber da hab ich natürlich paar Leute sitzen. In dem Fall, also beim Mozartsaal haben wir hinten, also unter der Balustrade etwas genommen, um einfach relativ viel dichten Raum, also ein verwobenes Signal zu bekommen, und einmal auf dem Balkon. Dass sie alle relativ nah an der Mitte waren, ist verständlich: damit man sie später gut verwenden kann. Wenn ich jetzt sehr extreme Mikrofonpositionen mache, dann ist das interessant, aber die Verwendung schränkt sich wahnsinnig ein."
In einem Garderobenraum neben dem Mozartsaal stehen die Notebookcomputer. Auch was hier auf den Bildschirmen zu sehen ist, zeigen die Programmierer der Vienna Symphonic Library nicht gern. Auf der Musikmesse, die am Mittwoch in Frankfurt am Main beginnt, wird hier erstmals etwas enthüllt werden.
Dietz Tinhof:
" Das ist jetzt wiegesagt noch nicht die Raketentechnologie dahinter. Das ist schon seit einigen Jahren möglich, wurde sogar schon in eigenen Geräten realisiert. Der Witz ist der, dass bisher faktisch ausschließlich hier sehr generalisierend gearbeitet wurde. Man muss sich das so vorstellen: Bühnensituation, auf dieser Bühne steht ein Impulsgeber, also ein Lautsprecher. Und in einer idealen Hörposition, einer hoffentlich idealen Hörposition steht das aufnehmende Mikrofon. Und wir sind jetzt hergegangen und haben gesagt: Gut, das ist jetzt der erste Schritt. Wir wollen aber eigentlich viel weiter gehen. Wir nehmen jetzt nicht nur einen Impulse-Response in diesem Saal auf, sondern eine Vielzahl von Impulse Responses an verschiedenen Stellen der Bühne, und, das ist jetzt der ganz große Witz dabei, nicht nur in eine Richtung abgestrahlt, sondern in verschiedenste Richtungen in diesem Raum abgestrahlt. D.h. ich habe schlussendlich mit dieser Multi Response Engine, wie man das jetzt im Arbeitsprozess bei uns nennt, hab ich die Möglichkeit, erstmals auf einer Bühne faktisch beliebige Positionen zu verwenden, um Instrumente dort zu positionieren, wo sie auch im realen Konzert gestanden wären, und zwar nicht nur nach vorne abstrahlend, was ja nur ein ganz kleiner Bereich dieses Instruments täte, sondern auch anteilsmäßig auf die Seiten, nach hinten, an die Decke und an den Boden. Und dieser Ansatz ist komplett neu."
Wir präsentieren Ihnen jetzt einige Ergebnisse der Wiener Experimente aus dem Großen Saal des Wiener Konzerthauses. Wenn Sie vor guten Lautsprechern sitzen, halten Sie sich fest. Wenn Sie gerade das Geschirr aus der Spülmaschine räumen oder hochtourig über die Autobahn brettern, müssen Sie uns glauben - das, was wir gleich hören, zeigt in neue Dimensionen der Raumakustik.
Diese Klarinette besteht aus Samples, also einzelnen Tönen, die ein professioneller Klarinettist vor etwa zwei Jahren in einem Studio südlich von Wien eingespielt hat. Die Samples sind Teil der Vienna Symphonic Library, also auf DVD zu kaufen. Jay Bacal hat sie in seinen Computer geladen und spielt sie über ein Keyboard. Die Noten stammen von dem amerikanischen Komponisten Aaron Copland.
Nichts Besonderes, außer dass die Klarinette ziemlich gut klingt, übrigens auch die Übergänge der Töne, eine Spezialität der Wiener Sample-Meister. Der Raum, in dem sie spielt, ist das ziemlich trockene, also Hall-arme Studio, in dem einmal der reale Klarinettist seine Tonleitern spielte.
Jetzt mischen wir Hall dazu, digitalen Hall aus dem Computer. Er bewirkt, dass sich der zuvor unfassbar kleine Raum aufweitet. Aber wird er als großer Raum fassbar? Können Sie sich ihn vorstellen?
Und nun MIR, Multi Impulse Response, die echte Raumsimulation, nach Tausenden von Einzelmessungen mit einem Standardimpuls. Der Raum lebt. Die Klarinette, die nie da stand, steht nun am Bühnenrand des Großen Saals in Wien, dort, wo vermutlich Jimi Hendrix stand und seine elektrische Gitarre misshandelte. Wir können die Klarinette jetzt auch umdrehen, und ganz weit hinten gegen die Bühnenwand spielen lassen.
Die Klarinette ist zwar wichtigstes Instrument, aber nicht das einzige in dieser Komposition von Aaron Copland aus dem Jahr 1948. Wir holen jetzt die anderen Instrumente dazu, stellen sie aber noch nicht auf die Bühne.
Wieder alle Instrumente von DVD, auf Tasten gespielt, im Computer arrangiert. Trocken, das heißt ohne spürbaren Raum.
Künstlicher Raum, dazu gemischt. Wäre das ein Stück Popmusik, würde dieser von manchen abschätzig "Plastikhall" genannte Effekt genügen, um ein bisschen akustische Größe herbeizuzaubern. Für die E-Musik wirkt er zu steril.
Weswegen uns Jay Bacal jetzt die virtuellen Instrumente in den Großen Saal des Konzerthauses Wien legt.
Wir sitzen jetzt virtuell in der 7. Reihe, genau in der Mitte dieses wunderbaren Raums, und hören das Holz arbeiten. Das Orchester steht schön verteilt auf der Bühne.
Mit der virtuellen Raumsimulation können wir auch die Position wechseln und nach hinten hoch zum Balkon schweben.
Keine Menschen, der dieses Werk spielen. Sondern ein Computer, der die Samples, also die Einzeltöne, verwaltet und dazu diese zauberhafte Akustik simuliert.
Diese verblüffend naturgetreuen Raumsimulationen werden in der nächsten Zeit den digitalen Hall aus Klassik-Musikproduktionen verdrängen. Doch, bewältigen heutige PCs diese massiven Faltungsberechnungen schnell genug? Soll das in Echtzeit gehen? Martin Rajek:
" Ja, es muss! Sonst kann der Anwender nicht beurteilen, was er hier macht. Also, das ist eine Grundbedingung, dass es in Echtzeit geht. Jetzt werden natürlich alle, die etwas davon verstehen, sagen: Der spinnt! Haben sie auch grundsätzlich recht. Nur, wir machen halt was, was man in der Videoindustrie schon seit Jahrzehnten macht: Wir machen einen Rendering-Modus und einen Realtime-Preview-Modus. D.h. der Preview-Mode muss halt echtzeitfähig sein, er wird es aber nicht in der absoluten Detailtreue darstellen können; das ist einfach technologisch momentan nicht möglich. Und er wird ein Abbild von dem, was man erwarten kann, darstellen; Man wird damit arbeiten können, man wird diese Abstrahlrichtungen irgendwie erkennen. Er wird aber nicht diese Qualität aufweisen, die man, wenn man's wirklich runterrendert, kriegt. Vielleicht hilft uns hier die Zeit. In ein paar Jahren vielleicht. Momentan ist's nicht möglich. Es wär natürlich Blödsinn, wenn ich jetzt sagen würde, es macht jemand ein Orchesterstück und muss eine Woche rendern. Das wäre nicht praktikabel. Also, wir reden schon davon, dass es nicht 1,5-fach dauert, also Faktor 10 von der Laufzeit muss man sicher rechnen. Weil, wir wollen, wenn man rendert, auch keine Kompromisse mehr eingehen und irgendwelche Tricks. Beim Preview müssen wir die eingehen, beim Rendering wollen wir das nicht tun. "
Bleibt noch eine ketzerische Frage: Wie fühlt sich das Team nach einer Nacht der Sinus-Sweep-Messung im Konzerthaus Wien? Hat es nicht den Raum ausgesaugt, kannibalisiert?
Dietz Tinhof:
" Was wir hier mehr oder weniger ermöglichen, ist die virtuelle Darstellung einer solchen Aufnahme, die sonst nie passiert wäre. D.h. wir nehmen niemandem etwas weg, sondern im Gegenteil: Der Komponist stellt ganz klar: Dieses, mein Stück hätte sich in einer amtlichen Konzertsituation so angehört. Die Idee dahinter ist ja nicht, ein Konzert nachzubilden - niemand will einen Computer auf einer Bühne sehen, das ist völlig uninteressant. Im Gegenteil. Wir wollen eigentlich das Erleben eines Klangs einer Orchesteraufnahme nachbilden. Das ist ganz ganz wichtig, das herauszustreichen, dass wir nicht ein Instrument arbeitslos machen wollen, sondern im Gegenteil einem Komponisten, einem Produzenten das Arbeiten mit diesem Instrument erst ermöglichen wollen, was im Sinne eines Orchesters heutzutage halt nur sehr wenigen Auserwählten möglich ist. Man macht sich keine Vorstellung, was es im echten Leben kostet, eine große Orchesteraufnahme zu realisieren. Das sind Summen, womit man mit vielen netten Leuten langjährige Urlaube machen könnte."
" Digitale Raumklangausbeute. Wiener Programmierer modellieren die Akustik alter Konzertsäle. Von Maximilian Schönherr. Mit Martin Rajek und Dietz Tinhof von der Vienna Symphonic Library. Heinz Repper, dem technischen Direktor des Konzerthauses Wien. Und Stefan Weinzierl, Professor am Institut für Kommunikationswissenschaften an der Technischen Universität Berlin. Stefan Weinzierls Promotionsarbeit über die virtuelle akustische Restauration der Konzersäle Beethovens in Wien ist im Buchhandel erhältlich."
Mit dem mathematischen Verfahren der "Faltung" konnten die Programmierer dann die akustische Beschaffenheit des Mozartsaals in ihrem Computer abbilden und einfrieren. Auf der Musikmesse in Frankfurt stellen sie jetzt vor, wie Musiker, die mit Computern arbeiten, ihre Samples von Streichern und Bläsern virtuell auf der Bühne des Mozartsaals aufstellen können. Es klingt dann so, als würde die Geige auf der Bühne dieses Weltklassesaals erklingen.
Faltung ist auch die Technik, derer sich ein EU-Projekt der TU Berlin bedient, wenn sie den ersten multimedialen Pavillon von der Weltausstellung 1958 akustisch wieder auferstehen lässt. In den nächsten Jahren wird diese Technik in den Studios den immer etwas stereotyp klingenden digitalen Hall ersetzen. Wir hören dann Musik aus der Carnegie-Hall, die nie dort aufgenommen wurde.
Dietz Tinhof:
" Wie keine Geige wie eine andere Geige klingt, klingt auch kein Raum wie ein anderer. Und diese Eigenheiten dieser großartigen Säle versuchen wir möglichst umfassend und möglichst detailgetreu einzufangen."
Stefan Weinzierl:
" Die Grundlagentheorie zur Nachhallzeit ist um 1900 entstanden. Und da hat man schon geschossen."
Martin Rajek:
" Wenn ich jetzt diesen Raum mit diesem Impuls anrege, also indem ich diesen idealen Schuss auf der Bühne abfeuere, dann reagiert der Raum darauf. Er hallt nach. Pchhh. Irgendwie sowas."
Heinz Repper:
" Akustisch gesehen gilt der Mozartsaal als der beste Kammermusiksaal. Der Große Saal zählt zu den Top 10 der Welt. Egal, wer auf dem klassischen oder U-Gebiet top war, ist bei uns gewesen."
Hier klopfe ich auf meiner Gitarre. Nichts Besonderes. Oder doch: Denn ich klopfe nicht irgendwo, sondern ich gehe dabei im großen Sendesaal des Deutschlandfunks herum. Das ist nicht irgendein Studio, sondern ein international gefragter Kammerkonzertsaal. Warum er so toll ist, kann man nicht hundertprozentig begründen. Es hängt mit Gefühl zusammen, mit Sich Wohlfühlen. Kammerorchester fühlen sich hier wohl. Man hat vor der Konstruktion des Saals eine Menge gerechnet, mit Formeln aus dem vorletzten Jahrhundert: die Geometrie des Raums, die Schallabsorption des Parkettbodens und der verschachtelten Holzwände. Die Nachhallzeit im Sendesaal Köln beträgt 1,8 Sekunden - so lange braucht der Raum, bis sich ein Husten, ein Sich-Räuspern, ein Schlag auf den Korpus der Gitarre vollständig verflüchtigt hat.
Wenn ich mit meiner Gitarre nah bei Ihnen, also beim Mikrofon bin, dominiert der direkte Schall aus der Öffnung der Gitarre.
Gehe ich weit weg von Ihnen hinten in der Nähe des Ausgangs umher, gelangt der Schall der Gitarre nicht mehr direkt an Ihr Ohr. Er wird über Millionen von Reflexionen zu Ihnen transportiert. Das verwäscht den Rhythmus, den ich spiele, macht ihn zu Brei.
Der Raum arbeitet an dem Instrument. Er spielt mit dem Instrument sein eigenes Spielchen. Er ist ein eigener Klangkörper. Er ist selbst ein Instrument.
In den letzten 20 Jahren hat man gelernt, Instrumente zu sampeln, indem man hervorragende Musiker Einzeltöne oder Tonintervalle spielen ließ, sie aufnahm und sie dann in den Computer einspeiste. Die Samples ließen sich dann bearbeiten und auf Tasten spielen. Heute lernt man, Räume zu sampeln.
Eine Gruppe von Musikern und Toningenieuren in Wien hat sich vor zwei Jahren daran gemacht, die größte digitale Bibliothek für klassische Instrumente zu erstellen, eine Sample-Menge von bisher ungekanntem Ausmaß. Jedes Klarinetten-Legato mit Präzision und Hingabe aufgenommen, bearbeitet, auf DVD gebrannt und zusammen mit Streichern, Glasharfen, Posaunen für einige tausend Euro an Studios geliefert. Mit der "Vienna Symphonic Library" war es erstmals möglich, klassische Musik mit Tasten am Computer zu spielen, ohne dass es peinlich klang.
Sie hören hier die Kunst der Fuge von Johann Sebastian Bach. Ein Toningenieur der Vienna Symphonic Library hat sie im Computer zusammengebaut. Die Originalsamples waren relativ trocken aufgenommen, also sehr direkt am Instrument, in einem kleinen Studio. So pur über den Computer wiedergegeben klingt die Fuge, sehr spröde.
Aber mit einer Prise digitalem Hall angereichert, blüht das Werk hörbar auf. Der digitale Hall gehört zur Grundausrüstung jedes besseren Musikerzeugungsprogramms. Früher musste man sich teuere Hallgeräte kaufen. Mein mittelmäßig schneller Computer berechnet den Hallraum in Echtzeit; es ist seit langem kein technisches Problem mehr.
Dietz Tinhof, technischer Leiter der Vienna Symphonic Library:
" Der Witz war jetzt der, dass es für viele Bereiche, vor allem im Popmusikbereich, nicht nur ausreichend, sondern ästhetisch sogar erwünscht ist, diese künstlichen, synthetisch erzeugten Hallräume einzusetzen. Das ist ein an sich mittlerweile sehr verfeinertes Verfahren, das im Prinzip darauf beruht, dass aus einzelnen kleinsten Echos, also kleinen Reflexionen im Laufe der Zeit, innerhalb von einigen Sekunden oder Sekundebruchteilen ein dichtes Hallfeld aufgebaut wird.
Das hat unglaubliche Vorteile, das heißt, ich kann jeden noch so beliebigen Aspekt dieses Halls beeinflussen, regeln, darauf Eingriff nehmen. Es hat den riesigen Nachteil, dass es schlussendlich immer ein synthetischer Raum bleibt, ein idealisierter, vielleicht sehr schön klingender, aber sicher nicht echter Raum. Das Entscheidende bei vor allem klassischen Aufnahmen, aber nicht nur, ist aber dann schlussendlich die Signatur eines Raums.
Genau wie jedes Instrument eine eigene Handschrift hat, eine eigene Stimme, genauso haben Räume, große Säle, kleine Säle, jedes Badezimmer - sie alle haben eine eigene klangliche Signatur und beeinflussen mit dieser Signatur natürlich ganz massiv das, was in diesem Raum akustisch geschieht.
Wir sind in Wien natürlich in der glücklichen Situation, über eine ganze Reihe gewissermaßen idealen Räumen vor allem für Orchestermusik zu verfügen, und da wir das ja nolens volens mit der Muttermilch aufgesogen haben, ist es durchaus für begeisterte Konzertgeher ein Leichtes, einen Raum tatsächlich an seiner akustischen Signatur zu erkennen. Und Leute, die vom Fach sind, sowieso, weil jeder Raum für bestimmte Dinge besser oder schlechter geeignet ist. Da gibt's z.b. Säle, die für kammermusikalische Stücke, also in kleinen Besetzungen mit sehr zarten Arrangements besser geeignet sind. Das sind dann meistens Räume, die kürzere Hallfahnen, Hallzeiten erzeugen. Und dann gibt's eben Säle, die ganz besonders für große bombastische Werke geeignet sind, weil sie die Bläser besonders gut unterstützen. Und das ganze akustische Erleben besonders dicht und besonders tragend z.B. ist.
Die Idee, die wir jetzt geboren haben, war, dass wir nicht nur Instrumente sampeln, sondern Räume sampeln. Das klingt sehr abstrakt. Man kann sich das ungefähr so vorstellen: Ich bin in einem x-beliebigen Raum und erzeuge in diesem Raum z.b. über einen Lautsprecher ein genau bekanntes Messsignal, einen so genannten Impuls. Das muss nicht unbedingt ein kurzer, es kann auch langer Impuls sein, sprich ein Messton in irgendeiner bestimmten definierten Form. Ich nehme im Prinzip nichts anderes auf, als die Hallfahne in diesem Raum, die dieser Impuls erzeugt.
Und dadurch, dass dieser Impuls idealer Weise ganz genau bekannt ist, kann ich ihn mit einigen mathematischen Verfahren auf eine ideale Impulsantwort, Fachjargon: Impulse Response, zurückrechnen. Im Prinzip ist es nichts anders als dass ich jetzt die bekannten Unzulänglichkeiten dieses Impulse Responses auf die ideale Impulsantwort zurückrechnen kann. Das sind mathematische Verfahren, die im Prinzip alle lange bekannt sind, die auch schon lange eingesetzt werden, die aber eigentlich erst jetzt, aufgrund der immer steigende Rechnerkapazitäten, auch für Echtzeitanwendungen möglich werden. "
Stefan Weinzierl, Tonmeister und Professor an der Technischen Universität Berlin:
" Also, in so einer Implusantwort ist das Muster aller Reflexionen enthalten. Es ist ja so, wenn im Raum ein Klang erklingt, dann kommt er zunächst beim Hörer an als Direktschall, und danach kommt ein zeitliches Muster von u.u. Hunderttausenden von Reflexionen. D.h. der Klang wandert zu den Seiten, zum Boden, wird reflektiert, und all diese Reflektionen und auch Mehrfachreflexionen kommen irgendwann beim Hörer an. Und die Gesamtheit all dieser Reflektionen ist die Implusantwort des Raums. "
Martin Rajek programmiert normalerweise Software für Kräne und Bagger. Aber weil Martin Rajek auch Toningenieur mit eigenem Studio ist, passt er hervorragend ins Team der Vienna Symphonic Library:
" Und jetzt geht die Theorie her und sagt: Ich kann jedes Signal nehmen, mit dieser Impulsantwort falten, und dann bekomme ich denselben Eindruck, also ob dieses Signal an dieser Position ausgestrahlt worden wäre und ich's dort gehört hätte."
Er spricht von falten:
" Ich kann jedes Signal nehmen, mit dieser Impulsantwort falten."
" Die Faltung ist eine mathematische Methode, englisch Convolution, mit der man aus einer Impulsantwort, also etwa der Reaktion eines Konzertsaals auf einen Schuss, das Verhalten des Systems zurückrechnen kann, also unter anderem auch, wie sich der Saal verhalten würde, wenn man statt zu schießen eine Trompete bliese. Eine sehr zeitaufwändige Matrizenrechnung, die man mit einigen Tricks, etwa der Fourieranalyse abkürzen kann, die aber trotzdem als störrisch gilt. Faltungsgeräte mit einer relativ grob abgebildeten Akustik des Kölner Doms oder der New Yorker Carnegiehalle gibt es seit langem zu kaufen. Faltungssoftware einfacher Art findet sich in den neuesten Versionen von Musiksoftware. "
Die Crew der Vienna Symphonic Library geht einige Schritte weiter. So wie sie beim Sampeln einzelner Instrumente Nägel mit Köpfen gemacht hat, betreibt sie seit einigen Monaten die digitale Raumausbeute mit bisher nie da gewesener Präzision. Und sie fängt natürlich da an, wo, um mit Dietz Tinhof zu sprechen, für sie die Muttermilch liegt, nämlich mitten in Wien. Der technische Direktor des Wiener Konzerthauses Heinz Repper über sein Haus:
" Als Gebäude gesehen ist es ein ausklingendes Jugendstilgebäude, von Fellner/Helmer gebaut, die damals die berühmtesten Theater- und Konzerthausplaner und -errichter waren. Die haben, glaube ich, in Europa so um die 100 Konzerthäuser gebaut. Das (Wiener) Konzerthaus ist damals eins der größten gewesen, mit diesen drei Sälen, Schubert-, Mozartsaal und Großer Saal.
In künstlerischer Hinsicht zählt es sicher zu den Top-Sälen der Welt, Carnegie Hall, Berliner Philharmonie, die natürlich aus einer anderen Zeit kommt. Akustisch gesehen gilt der Mozartsaal als der beste Kammermusiksaal. Der Große Saal zählt als großer Konzertsaal sicherlich zu den Top 10 der Welt. Bei uns ist genauso ein Jimi Hendrix aufgetreten wie eine Ella Fitzgerald, ein Louis Armstrong, Diana Krall und eine Tina Turner, genauso wie die Philharmoniker, die Chicago Symphony. Egal, wer auf dem klassischen oder dem U-Gebiet top war, ist bei uns gewesen. "
Bevor wir ins Musikhaus eintauchen, eine kurze theoretische Vorbereitung von einem, der die Wiener Konzertsäle auch gut kennt, denn er hat über sie promoviert, Stefan Weinzierl, TU Berlin:
" Der Input ist das Quellsignal, das was eine Geige oder ein Cello produziert, oder Lautsprecher irgendwo im Raum. Und der Output ist das, was beim Hörer ankommt. D.h. diese Impulsantwort enthält genau das Übertragungsverhalten des Raums von einem bestimmten Quellpunkt im Raum zu einem bestimmten Zielpunkt. D.h. wenn der Hörer 2 Meter weiter geht, entspricht das schon einer anderen Signatur, weil sich das Übertragungsverhalten des Raums verändert.
Sie suchen sich eine bevorzugte Position, also vielleicht einen Platz, den man auch im Konzert als guten Platz bezeichnen würde, 8. Reihe Mitte ist so ein Schlagwort, und da stellt man dann ein Mikrofon hin und misst die Impulsantwort. "
Der Urahn solcher Experimente ist der amerikanische Physiker Wallace Clement Sabine, der vor 110 Jahren nachts immer wieder die Sitzpolster aus einem Theater in Boston holte, sie in einen Hörsaal an der Harvard Universität auf die Sitzbänke legte und mit Orgelpfeifen die Nachhallzeit des Hörsaals mit und ohne diese Polster maß. Der Hörsaal war berüchtigt für seine miserable Akustik. Selbst wenn man in der vordersten Reihe saß, konnte man den Dozenten kaum verstehen. Wallace Clement Sabine konnte den Raum akustisch nicht sanieren, aber seine Unbrauchbarkeit physikalisch begründen: Die Nachhallzeit war mit 5 1/2 Sekunden so lang, dass ein durchschnittlicher Redner 12 bis 15 Silben sprach, bis die erste verklungen war. Als man Wallace Clement Sabine im Jahr 1900 die Baupläne für die New Boston Music Hall zeigte, rechnete er den Architekten mit seiner Hallformel vor, dass sie gerade dabei waren, in eine akustische Kathastrophe von nicht tolerierbaren Nachhallzeiten zu steuern. Die Bostoner Symphoniehalle, wie sie heute heißt, gehört zu den besten Sälen der Welt. Sie ist das erste akustisch designte Gebäude der Welt überhaupt. Wallace Clement Sabine als Begründer der architektonischen Akustik. Sabine hielt übrigens den Pistolenschuss als idealen Impulsgeber, um das Klangverhalten eines Raums zu testen.
Stefan Weinzierl:
" Moderne Messverfahren zerlegen quasi diesen Knall und messen jede Frequenz einzeln. Und was dabei herauskommt, ist eben so ein Sinus Sweep, der bei sehr tiefen Frequenzen anfängt und einmal durch das ganze Spektrum läuft und jede Frequenz mit der gleichen Intensität produziert. Was man da aufnimmt, kann man wieder zusammenfügen zu einer Impulsantwort. D.h. man kann die nacheinander aufgenommenen Frequenzen neu übereinanderlegen und hat dann das, was ein Knall eigentlich hervorrufen würde im Raum. "
Wir befinden uns jetzt in einem Raum, den die Wiener für den besten Kammerkonzertsaal der Welt halten - den Mozartsaal des Wiener Konzerthauses. Auf der Bühne ein mannshoher Lautsprecher auf Rädern.
Martin Rajek:
" Da haben wir uns eine Konstruktion gebaut, mit der wir die Möglichkeit haben, erstens den Lautsprecher unterschiedlich zu platzieren - das ist relativ einfach, ihn auf ein paar Räder zu stellen. Der zweite Punkt ist, dass wir ihn auch drehen können. Wir drehen ihn um seine vertikale Achse. Und wir können ihn auch kippen, sodass er auf den Boden oder die Decke strahlt. Viele Instrumente strahlen ja gerade auf die Decke oder den Boden. Wenn man das Schlagwerk anschaut, da geht sehr viel auf den Boden. Sehr viele Blasinstrumente und Ähnliches geht an die Decke.
Das muss man dann natürlich pro Instrument gewichten, welche Abstrahlung bekomme ich. Man ist zunächst grundsätzlich frei, wo man den Lautsprecher und die Mikros hinpositioniert. Die Mikros: plausible Aufnahmepositionen. Den Lautsprecher wird man logischer Weise auf der Bühne positionieren, denn als Anwender wird man da ja auch sein Instrument hinpositionieren, sodass man die Bühne möglichst gleichförmig abdeckt. Wobei wir auch Extreme aufnehmen wollen. Wir sind also teilweise auch sehr nah am Bühnenrand, was bei der Abstrahlung dann einen halben Meter zur Wand ergibt; das klingt sehr komisch. Aber realistisch passiert das ja bei manchem Instrument, dass die Kontrabässe praktisch mit dem Rücken direkt an der Wand stehen. Und das muss man auch so abbilden. "
Vier Mikrofone mit golden glänzenden Häubchen, damit ich, der Gast von der Presse, nicht sehen kann, welcher Prototyp sich dahinter verbirgt. Sie stehen auf Ständern in der Mittelachse des Raums.
Martin Rajek:
" Wir würden gerne Hunderte Mikrofone aufstellen, aber wir müssen das natürlich auch in irgend einem Zeitrahmen aufnehmen können. Deswegen muss man sich gewisse Positionen suchen, die relevant sind. Man nimmt dann meistens eine Position über dem Dirigenten, das ist eine relative wichtige, interessante Position. Es gibt dann meistens in den ersten Reihen eine wichtige Position, bei der oft mikrofoniert wird. Wobei wir natürlich die Möglichkeit haben, im leeren Saal aufzunehmen und die Mikrofone anders zu positionieren. Wenn der Saal bestuhlt ist, kann ich nicht an der Dirigentenposition irgendwas hinstellen. Ich kann auch nicht in die dritte Reihe was hinstellen, auch wenn's gut klingt, aber da hab ich natürlich paar Leute sitzen. In dem Fall, also beim Mozartsaal haben wir hinten, also unter der Balustrade etwas genommen, um einfach relativ viel dichten Raum, also ein verwobenes Signal zu bekommen, und einmal auf dem Balkon. Dass sie alle relativ nah an der Mitte waren, ist verständlich: damit man sie später gut verwenden kann. Wenn ich jetzt sehr extreme Mikrofonpositionen mache, dann ist das interessant, aber die Verwendung schränkt sich wahnsinnig ein."
In einem Garderobenraum neben dem Mozartsaal stehen die Notebookcomputer. Auch was hier auf den Bildschirmen zu sehen ist, zeigen die Programmierer der Vienna Symphonic Library nicht gern. Auf der Musikmesse, die am Mittwoch in Frankfurt am Main beginnt, wird hier erstmals etwas enthüllt werden.
Dietz Tinhof:
" Das ist jetzt wiegesagt noch nicht die Raketentechnologie dahinter. Das ist schon seit einigen Jahren möglich, wurde sogar schon in eigenen Geräten realisiert. Der Witz ist der, dass bisher faktisch ausschließlich hier sehr generalisierend gearbeitet wurde. Man muss sich das so vorstellen: Bühnensituation, auf dieser Bühne steht ein Impulsgeber, also ein Lautsprecher. Und in einer idealen Hörposition, einer hoffentlich idealen Hörposition steht das aufnehmende Mikrofon. Und wir sind jetzt hergegangen und haben gesagt: Gut, das ist jetzt der erste Schritt. Wir wollen aber eigentlich viel weiter gehen. Wir nehmen jetzt nicht nur einen Impulse-Response in diesem Saal auf, sondern eine Vielzahl von Impulse Responses an verschiedenen Stellen der Bühne, und, das ist jetzt der ganz große Witz dabei, nicht nur in eine Richtung abgestrahlt, sondern in verschiedenste Richtungen in diesem Raum abgestrahlt. D.h. ich habe schlussendlich mit dieser Multi Response Engine, wie man das jetzt im Arbeitsprozess bei uns nennt, hab ich die Möglichkeit, erstmals auf einer Bühne faktisch beliebige Positionen zu verwenden, um Instrumente dort zu positionieren, wo sie auch im realen Konzert gestanden wären, und zwar nicht nur nach vorne abstrahlend, was ja nur ein ganz kleiner Bereich dieses Instruments täte, sondern auch anteilsmäßig auf die Seiten, nach hinten, an die Decke und an den Boden. Und dieser Ansatz ist komplett neu."
Wir präsentieren Ihnen jetzt einige Ergebnisse der Wiener Experimente aus dem Großen Saal des Wiener Konzerthauses. Wenn Sie vor guten Lautsprechern sitzen, halten Sie sich fest. Wenn Sie gerade das Geschirr aus der Spülmaschine räumen oder hochtourig über die Autobahn brettern, müssen Sie uns glauben - das, was wir gleich hören, zeigt in neue Dimensionen der Raumakustik.
Diese Klarinette besteht aus Samples, also einzelnen Tönen, die ein professioneller Klarinettist vor etwa zwei Jahren in einem Studio südlich von Wien eingespielt hat. Die Samples sind Teil der Vienna Symphonic Library, also auf DVD zu kaufen. Jay Bacal hat sie in seinen Computer geladen und spielt sie über ein Keyboard. Die Noten stammen von dem amerikanischen Komponisten Aaron Copland.
Nichts Besonderes, außer dass die Klarinette ziemlich gut klingt, übrigens auch die Übergänge der Töne, eine Spezialität der Wiener Sample-Meister. Der Raum, in dem sie spielt, ist das ziemlich trockene, also Hall-arme Studio, in dem einmal der reale Klarinettist seine Tonleitern spielte.
Jetzt mischen wir Hall dazu, digitalen Hall aus dem Computer. Er bewirkt, dass sich der zuvor unfassbar kleine Raum aufweitet. Aber wird er als großer Raum fassbar? Können Sie sich ihn vorstellen?
Und nun MIR, Multi Impulse Response, die echte Raumsimulation, nach Tausenden von Einzelmessungen mit einem Standardimpuls. Der Raum lebt. Die Klarinette, die nie da stand, steht nun am Bühnenrand des Großen Saals in Wien, dort, wo vermutlich Jimi Hendrix stand und seine elektrische Gitarre misshandelte. Wir können die Klarinette jetzt auch umdrehen, und ganz weit hinten gegen die Bühnenwand spielen lassen.
Die Klarinette ist zwar wichtigstes Instrument, aber nicht das einzige in dieser Komposition von Aaron Copland aus dem Jahr 1948. Wir holen jetzt die anderen Instrumente dazu, stellen sie aber noch nicht auf die Bühne.
Wieder alle Instrumente von DVD, auf Tasten gespielt, im Computer arrangiert. Trocken, das heißt ohne spürbaren Raum.
Künstlicher Raum, dazu gemischt. Wäre das ein Stück Popmusik, würde dieser von manchen abschätzig "Plastikhall" genannte Effekt genügen, um ein bisschen akustische Größe herbeizuzaubern. Für die E-Musik wirkt er zu steril.
Weswegen uns Jay Bacal jetzt die virtuellen Instrumente in den Großen Saal des Konzerthauses Wien legt.
Wir sitzen jetzt virtuell in der 7. Reihe, genau in der Mitte dieses wunderbaren Raums, und hören das Holz arbeiten. Das Orchester steht schön verteilt auf der Bühne.
Mit der virtuellen Raumsimulation können wir auch die Position wechseln und nach hinten hoch zum Balkon schweben.
Keine Menschen, der dieses Werk spielen. Sondern ein Computer, der die Samples, also die Einzeltöne, verwaltet und dazu diese zauberhafte Akustik simuliert.
Diese verblüffend naturgetreuen Raumsimulationen werden in der nächsten Zeit den digitalen Hall aus Klassik-Musikproduktionen verdrängen. Doch, bewältigen heutige PCs diese massiven Faltungsberechnungen schnell genug? Soll das in Echtzeit gehen? Martin Rajek:
" Ja, es muss! Sonst kann der Anwender nicht beurteilen, was er hier macht. Also, das ist eine Grundbedingung, dass es in Echtzeit geht. Jetzt werden natürlich alle, die etwas davon verstehen, sagen: Der spinnt! Haben sie auch grundsätzlich recht. Nur, wir machen halt was, was man in der Videoindustrie schon seit Jahrzehnten macht: Wir machen einen Rendering-Modus und einen Realtime-Preview-Modus. D.h. der Preview-Mode muss halt echtzeitfähig sein, er wird es aber nicht in der absoluten Detailtreue darstellen können; das ist einfach technologisch momentan nicht möglich. Und er wird ein Abbild von dem, was man erwarten kann, darstellen; Man wird damit arbeiten können, man wird diese Abstrahlrichtungen irgendwie erkennen. Er wird aber nicht diese Qualität aufweisen, die man, wenn man's wirklich runterrendert, kriegt. Vielleicht hilft uns hier die Zeit. In ein paar Jahren vielleicht. Momentan ist's nicht möglich. Es wär natürlich Blödsinn, wenn ich jetzt sagen würde, es macht jemand ein Orchesterstück und muss eine Woche rendern. Das wäre nicht praktikabel. Also, wir reden schon davon, dass es nicht 1,5-fach dauert, also Faktor 10 von der Laufzeit muss man sicher rechnen. Weil, wir wollen, wenn man rendert, auch keine Kompromisse mehr eingehen und irgendwelche Tricks. Beim Preview müssen wir die eingehen, beim Rendering wollen wir das nicht tun. "
Bleibt noch eine ketzerische Frage: Wie fühlt sich das Team nach einer Nacht der Sinus-Sweep-Messung im Konzerthaus Wien? Hat es nicht den Raum ausgesaugt, kannibalisiert?
Dietz Tinhof:
" Was wir hier mehr oder weniger ermöglichen, ist die virtuelle Darstellung einer solchen Aufnahme, die sonst nie passiert wäre. D.h. wir nehmen niemandem etwas weg, sondern im Gegenteil: Der Komponist stellt ganz klar: Dieses, mein Stück hätte sich in einer amtlichen Konzertsituation so angehört. Die Idee dahinter ist ja nicht, ein Konzert nachzubilden - niemand will einen Computer auf einer Bühne sehen, das ist völlig uninteressant. Im Gegenteil. Wir wollen eigentlich das Erleben eines Klangs einer Orchesteraufnahme nachbilden. Das ist ganz ganz wichtig, das herauszustreichen, dass wir nicht ein Instrument arbeitslos machen wollen, sondern im Gegenteil einem Komponisten, einem Produzenten das Arbeiten mit diesem Instrument erst ermöglichen wollen, was im Sinne eines Orchesters heutzutage halt nur sehr wenigen Auserwählten möglich ist. Man macht sich keine Vorstellung, was es im echten Leben kostet, eine große Orchesteraufnahme zu realisieren. Das sind Summen, womit man mit vielen netten Leuten langjährige Urlaube machen könnte."
" Digitale Raumklangausbeute. Wiener Programmierer modellieren die Akustik alter Konzertsäle. Von Maximilian Schönherr. Mit Martin Rajek und Dietz Tinhof von der Vienna Symphonic Library. Heinz Repper, dem technischen Direktor des Konzerthauses Wien. Und Stefan Weinzierl, Professor am Institut für Kommunikationswissenschaften an der Technischen Universität Berlin. Stefan Weinzierls Promotionsarbeit über die virtuelle akustische Restauration der Konzersäle Beethovens in Wien ist im Buchhandel erhältlich."