Archiv


Akustik der Gefühle

Alle Primaten und auch Halbaffen sind in der Lage, einfache Laute auszustoßen. Wut, Panik, Freude - im Tonfall vieler Affen lässt sich die Stimmung der Tiere leicht erkennen. Jetzt gehen Neurologen und Tiermediziner, aber auch Psychologen und sogar Musikwissenschaftler der Frage nach, ob diese archaischen Formen in der akustischen Kommunikation auch die Entwicklungsgeschichte des Menschen geprägt haben. Menschen können - zusätzlich zur inhaltlichen Bedeutung von Worten - allein mit dem Tonfall noch weitere Botschaften vermitteln wie zum Beispiel Strenge, Dominanz oder Ängstlichkeit. Diese emotionale Dimension der Sprache - so die Arbeitshypothese - haben die Menschen von ihren tierischen Urahnen geerbt.

Michael Engel |
    Verhaltensforscher wissen: Tierlaute drücken immer auch Gefühle aus: Kampfbereitschaft, aber auch Hunger und Schmerz oder sexuelle Erregung, wie hier bei den Rotbauchunken - mit unzweideutigen Signalen für Paarungsbereitschaft: Rotbauchunken-Weibchen wissen jetzt, dass Männchen im Teich umher schwimmen, um den Fortbestand der Art zu sichern. Die trickreiche Erfindung der Evolution, Gefühle mit Hilfe von Schallsignalen zu übermitteln, geht zurück bis zu den Insekten. Akustisch besonders prägnant sind die Grillen, deren Zirpen aus den mediterranen Landschaften nicht wegzudenken ist. Je höher die Entwicklungsstufe der Tiere, desto ausgefeilter die Botschaften:

    Hier hören wir gerade ein Indris-Pärchen, das gerade dabei ist, ein Territorium zu verteidigen. Die Tiere zeigen somit den Besitz eines Territoriums an, signalisieren anderen Gruppen, dieses Territorium ist besetzt. Wenn ihr in dieses Territorium hereinkommt, dann fangen wir gleich an, euch zu bekämpfen.

    Emotionale Botschaften - akustisch verpackt - sind vorteilhaft beim Kampf ums Überleben, weiß Prof. Elke Zimmermann, Leiterin des zoologischen Instituts der Tierärztlichen Hochschule Hannover. "Territorialgesänge" - wie hier zu hören - sollen lebensbedrohliche, in jedem Fall Kräfte zehrende Auseinandersetzungen mit Artgenossen vermeiden. Auch der Mensch intoniert mit seiner Stimme immer auch Gefühle:

    Freude, aber auch Trauer, Wut, Angst und Aggressionen - die emotionalen Botschaften sind in allen unseren Lautäußerungen enthalten. Anders als Tiere ist der Mensch in der Lage, seine Gefühle auch sprachlich zu artikulieren. Zum Beispiel: "Ich bin wütend!" Es geht aber auch anders: "Verdammt noch mal, pass' doch auf, ich hab' Dir das doch schon so oft gesagt."

    Wenn wir sprechen, dann werden nicht nur linguistisch bedeutsame Informationen vermittelt, sondern immer auch Emotionen. Je nachdem, ob die Worte wütend, ängstlich, triumphierend oder zärtlich ausgesprochen werden. In welcher Weise die Emotionen verschlüsselt werden, das soll jetzt ein interdisziplinäres Projekt genauer untersuchen. "Der biologische Ursprung von Musik und Sprache" - so der Titel - wird von der Deutschen Forschungsgemeinschaft mit einer Million Euro finanziert. Prof. Elke Zimmermann ist die Sprecherin des Forschungsverbundes aus Zoologen, Medizinern, Musikwissenschaftlern, Psychologen und Linguisten:

    Die Arbeitshypothese ist, dass es Universalien gibt im akustischen Bereich, so wie wir sie auch im visuellen Bereich kennen. Sie wissen ja, wenn sie vergleichen zum Beispiel Gesichtsausdrücke, Mimik, Gestik sich anschauen, dass sie das auch auf dem Niveau von sehr viel früheren Säugetierstufen finden. Und unsere Arbeitshypothese ist, dass es das im akustischen Bereich eben auch geben müsste.

    Ist die Art und Weise, Angst oder Aggressionen akustisch auszudrücken, beim Menschen wie beim Tier in gleicher Weise angelegt? In welchen Hirnregionen werden die emotionalen Lautäußerungen eigentlich verarbeitet? Und: Was bedeuten sie im Einzelnen.

    Prof. Elke Zimmermann, die sich intensiv mit Spitzhörnchen und Mausmakis beschäftigt, setzt aufwendige Protokolle ein, um die emotionale Bedeutung zu entschlüsseln:

    Dazu muss man eine ganz detaillierte Verhaltensanalyse durchführen. Das erfolgt bei uns mittels videographischer Techniken und entsprechender Bildauswertung, und man muss eine sehr differenzierte Lautanalyse durchführen. Und wenn man dann über Playback-Untersuchungen den Affen zum Beispiel eigene Vokalisationen, eigene Lautäußerungen vorspielt, kann man an den Reaktionen der Affen erkennen, wie sie diese Laute verarbeiten.

    Bei der Suche nach den Ursprüngen affektiver Lautäußerungen sind nicht nur die Affen - als nächste, tierische Verwandte des Menschen - von Interesse. Besonderes Augenmerk richtet sich noch auf eine andere Gruppe von Säugetieren: Fledermäuse.

    Fledermäuse bieten sich als Außengruppe für den Vergleich sich deshalb in besonderer Weise an, weil die Tiere selbst in ganz ungewöhnlicher Weise auf ihr Gehör angewiesen sind. Einmal verfügen sie ja über ihr Echoortungssystem zur Orientierung und zur Beutejagd. Zum Zweiten sind sie aber auch, da sie nachtaktive Tiere sind, für ihr gesamte Sozialleben auf akustische Informationen angewiesen und deswegen bieten sie sich als Modelltiere in besonderer Weise an.

    Fledermaus-Expertin, Dr. Sabine Schmidt von der Tierärztlichen Hochschule Hannover, untersucht zur Zeit den "indischen, falschen Vampir", der in Höhlen lebt, dicht gedrängt mit anderen Tieren. Deshalb spielen so genannte "Landerufe" eine überlebenswichtige Rolle:

    Hier hören wir einen Landeruf ohne Körperkontakt. Und was wir eben feststellen können, ist, dass es sich um einzelne Rufelemente handelt, die mit einer relativ fixen, starren Wiederholrate präsentiert werden. Im Vergleich dazu hören wir jetzt einen Landeruf mit Körperkontakt. Das heißt, wenn ein Tier direkt bei anderen landet, so dass es Kontakt zu dem anderen hat. Was wir hier hören, ist, dass einmal die Anzahl der Elemente in dem Landeruf dramatisch ansteigt, dass außerdem die Wiederholrate der einzelnen Elemente zunimmt, dass aber die Grundfrequenz, mit dem das Ganze abgestrahlt wird, praktisch identisch bleibt. Diese Landerufe werden ja von dem landenden Tier ausgesandt, und das landende Tier könnte eine Bedrohung für das bereits hängende Tier darstellen, und wir nehmen an, dass es sich um eine Art Beschwichtigung handelt, dass also das landende Tier mitteilt: Hör mal her, ich will hier nur landen, ich will hier nix Böses. Und wir gehen davon aus, dass der gesteigerte Stress bei einer Landung direkt am Körper eines anderen dazu führt, dass die Tiere mit der Rufrat so dramatisch hochgehen und auch die Rufe in kürzeren Abständen präsentieren.

    Die Expertin vermutet in diesen Landerufen ein generelles Prinzip affektiver Kommunikation, das bis heute erhalten blieb - bis hin zum Menschen. Denn auch Homo sapiens spricht unter Stress deutlich schneller. Neben den "Landerufen" spielen "Kontaktrufe" eine zentrale Rolle im Leben der 40 Gramm schweren Vampire. Kontaktrufe ermöglichen, dass sich immer dieselben Tiere für ihre nächtlichen Ausflüge treffen. Es handelt sich somit um "ganz persönliche" Lautäußerungen, mit denen sich die Tiere individuell zu erkennen geben: 0.30

    Wir haben jetzt praktisch solche Kontaktrufe am Computer sauber nachgebildet, mit den typischen Rufparametern, die wir aus einer Vielzahl von Rufen extrahiert haben, und gehen jetzt hin und werden einzelne Elemente gegeneinander verschieben. Das heißt, wir einen Rhythmus synkopieren, wenn es also vorher klingt wie dip, dip, dip, werden wir jetzt etwas anbieten wie dip, dip ....... dip, also irgendwo eine Pause einfügen oder ein einzelnes Element verschieben, eine ganze Gruppe verschieben, und wollen eben sehen, inwieweit die Tiere in der Lage sind, solche Veränderungen in der akustischen Gestalt zu erkennen und zu unterscheiden.

    Tatsächlich sind die Tiere bereit, auch abgeänderte "Kontaktrufe" anzunehmen, was bedeutet, dass sie lernfähig sind und Abstraktionsvermögen besitzen.

    Das ist ein so genannter "Gerangellaut" - ausgestoßen von einem Mäusebaby, um zu signalisieren, dass es dringend Milch benötigt. Gute Mäusemütter reagieren augenblicklich und lassen das Baby zur ersehnten Nahrungsquelle - selbst dann, wenn ihnen die Laute - vom Computer synthetisch hergestellt - in den Käfig eingespielt werden. Selbst dann sogar, wenn gar keine Babys da sind - das heißt: das Verständnis dazu ist genetisch festgelegt:

    Ja, wir benutzen dieses einfache System von acht Mäuselauten, um künstliche Laute herzustellen, um zu schauen, welche akustischen Eigenschaften wichtig für die Auslösung des reaktiven Verhaltens sind. Und damit können wir leicht auch in das Gehirn reinschauen, weil wir die Reizsituation mit diesen Signalen, die wir selbst herstellen, genau im Griff haben. Wir können genau kontrollieren, was wir den Mäusen in welcher Situation vorspielen, und damit haben wir einen Mechanismus, eine Methode, um definierte Gehirnaktivitäten messen zu können.

    Mit Elektroden im Kopf der Mäusemütter stellt Prof. Günther Ehret von der Universität Ulm fest, welche Hirnareale für die Verarbeitung der "emotionalen Vokalisationen" verantwortlich sind. Während Mamas die verzweifelten Rufe der Jungen auf Anhieb verstehen, bleiben die Väter auffallend passiv und scheren sich nicht um Wohl der Kinder. Neurobiologische Untersuchungen konnten jetzt zeigen, dass Mäusemänner die Babylaute gar nicht verstehen. Erst mit der Zeit - so der Befund - kommen auch die Mäuseväter in die Gänge:

    Je mehr die Mäusemännchen in Kontakt mit den Mäusejungen kommen, desto mehr wird dann mütterliches Verhalten gezeigt. Und damit geht einher ein Anstieg von Östrogenrezeptoren, so dass dort aus Testosteron lokal gebildetes Östrogen wirksam wird und das männliche Gehirn quasi "verweiblicht" wenn ein Vater dann mütterliches Verhalten gegenüber den Jungtieren zeigt. Also hier sieht man die Korrelationen zwischen den neuen Emotionen, die ein Vater sozusagen durch die Signale von den Jungen induziert bekommt und den Veränderungen, die im Gehirn damit einhergehen.

    Gibt es auch hier eine Parallele zum Menschen? Schließlich reagieren Mütter auf die Schreie ihrer Neugeborenen viel intensiver, werden augenblicklich aus dem Schlaf gerissen, während Väter durchweg ungerührt bleiben. Prof. Ehret aus Ulm vermutet, dass Mensch wie Maus in diesem Fall die gleichen biologischen Voraussetzungen mitbringen. Auch die Männer müssen lernen, die emotionalen Vokalisationen ihrer Babys mit der Zeit zu "verstehen".

    Es sind eine ganze Reihe verschiedener Hirnregionen, die bei der neuronalen Verarbeitung akustisch verpackter Gefühle beteiligt sind. Insbesondere die entwicklungsgeschichtlich älteren Regionen des so genannten "limbischen Systems" im Mittelhirn spielen hier eine wichtige Rolle - beim Menschen genauso wie beim Tier. Soviel ist bekannt: Hippocampus, Hypothalamus, Amygdala und singulärer Kortex - Regionen also, die für Gefühle wie Angst und Aggression zuständig sind - spielen bei emotionalen Intonationen ebenfalls eine wichtige Rolle. Prof. Udo Jürgens vom Deutschen Primatenzentrum experimentiert mit Affen:

    Rhesusaffen kann man darauf dressieren, dass sie, wenn ein bestimmte Licht angeht, eine Vokalisation äußern, um dafür eine Futterbelohnung zu bekommen. Und diese Fähigkeit geht verloren, wenn der vordere singuläre Kortex nicht mehr intakt ist. Aber die Tiere reagieren auf Angst einflößende Reize nach wie vor mit einem Alarmruf, also sie sind nicht stumm.

    Im Gegensatz zum Tier besitzt der Mensch eine überdimensionale Großhirnrinde. Dort werden erlernte Lautäußerungen - letztlich unsere Sprache - lexikalisch gespeichert und - über den motorischen Kortex, der die Sprechmuskeln aktiviert, zu Schallsignalen umgeformt. Forscher meinen: Den emotionalen Unterton - der in den Worten mitschwingt - - liefern tiefer gelegene Hirnregionen:

    Patienten, bei denen der Motorkortex auf beiden Seiten zerstört ist, die also nicht mehr sprechen oder singen können, können durchaus noch emotionale Zustände wie lachen oder weinen, schreien, stöhnen, jauchzen ausdrücken. Also das macht ganz klar, dass da zwei unterschiedliche Systeme existieren, eines, wo die Lautmuster angeboren sind und was die emotionalen Zustände ausdrückt, und eines, wo wir willkürlich bestimmte Lautmuster formen, denen wir dann eine bestimmte Bedeutung zuordnen, eine semantische Bedeutung den Wörtern geben. Also es ist ein ganze System von Hirnstrukturen, die zusammen dann diese Fähigkeit, erlernte Lautäußerungen zu produzieren, ermöglichen.

    Wie verarbeitet das menschliche Gehirn die emotionalen Lautäußerungen? Wo werden die Gefühle, die "zwischen den Zeilen" versteckt sind, entschlüsselt? Und wie gelangen sie ins Bewusstsein? Diese Fragen wollen Wissenschaftler im Max-Planck-Institut für neuropsychologische Forschung, Leipzig, beantworten. Schauspieler produzierten Laute, die jetzt einer Reihe von Probanden vorgespielt werden. So auch Anja Mietz. Gerade versucht die Linguistik-Studentin aus Potsdam - die emotionale Bedeutung per Tastendruck herauszufinden. Zur Auswahl stehen akustische Sprachfetzen - so genannte Items - die Freude, Wut, Ekel und Traurigkeit ausdrücken.

    Bei den meisten Items war's kein Problem, weil da die Emotion mit dem einzelnen Wort, was präsentiert wurde, übereinstimmend war. Aber bei einzelnen Items war es eben sehr schwierig, weil dort die Emotion mit dem präsentierten, auditiven Stimuli nicht übereingestimmt hat.

    Die Testreihen dienen als Vorbereitung für den eigentlichen Versuch. Sollte die emotionale Bedeutung der einzelnen Laute statistisch abgesichert sein, dann werden die Aufnahmen noch einmal - allerdings anderen Personen vorgespielt - liegend in einem Kernspintomographen. Dr. Kai Alter will erfahren, welche Hirnareale beim Hören dieser Lautäußerungen aktiv werden:

    Wir wollen dabei die Areale herausfinden im Gehirn, die bei der Verarbeitung von Affekten und Emotionen beteiligt sind. Eine unserer Arbeitshypothesen ist, dass wir vermuten, dass nicht nur die rechte Hemisphäre oder die Amygdala für die Verarbeitung von Emotionen verantwortlich ist, sondern dass eine Art "Netzwerk" im Gehirn je nach Aufgabenstellung oder Behandlung des Stimulus für die Verarbeitung von Affekten und Emotionen verantwortlich sein kann. Unsere heimliche und stille Hoffnung ist, so etwas wie einen evolutionären alten Pfad für die Verarbeitung kurzen Stimuli, die auch Affektenkodierungen enthalten, herauszufinden.

    Freude und Wut, Verachtung und Liebe. Fest steht: unsere Gefühle geben sich im Tonfall zu erkennen. Bei den Affen ist das nicht anders. Und deshalb will Dr. Kai Alter den Versuchspersonen auch Affenlaute präsentieren, um zu sehen, ob immer die gleichen Hirnstrukturen aktiviert werden.

    Tiefe Tonlagen, laut und gepresst bedeuten beispielsweise Wut. Mit diesem Ruf - produziert von Totenkopfaffen - werden Eindringlinge verjagt. Auch panische Lautäußerungen haben - beim Menschen wie beim Affen - ein ähnliches akustisches Profil: Stimme laut, hohe Frequenz, Kehlkopf gepresst. Bei Affen klingt das so:

    Welches sind eigentlich die physikalischen Parameter, die ein bestimmtes Gefühl in den Schallwellen unserer Sprache enkodieren? Dr. Kurt Hammschmidt von der Universitätsklinik Tübingen konstruierte für die Beantwortung dieser Frage einen ungewöhnlichen Versuch. 20 Absolventen einer Schauspielschule sollten das Wort "Anna" mal wütend, mal jubelnd oder ängstlich intonieren. Ein speziell entwickeltes Lautanalyseprogramm, das mehr als 190 Parameter wie Tonhöhe, Lautstärke, Melodie und Frequenz unterscheiden konnte, sollte die Unterschiede physikalisch verdeutlichen. Das Ziel dabei: eine Computerstimme zu entwickeln, die nicht eintönig, sondern emotional sprechen kann:

    Die Sache ist die, dass anscheinend die Emotionen sich schon in verschiedenen Parametern ausdrücken. Wut eben auch durch eine große Lautstärke, dass es aber natürlich nicht eindeutig ist, weil viele Emotionen, die sehr gegensätzlich sind, auch lauter sein können. Wenn man zum Beispiel Wut und Freude nimmt, sind das beide sehr intensive emotionale Äußerungen. Das heißt, wenn man nicht genau hinhört, bewertet man die große Intensität viel stärker als die emotionale Unterschiedlichkeit. Und deswegen ist das, was man auch zur Wut sagt, normalerweise richtig, außer wenn man Freude gleichzeitig mitmeint, das heißt, man kann Wut, wenn man weiß, dass es keine Freude ist, sehr gut von allen anderen Emotionen trennen. Wenn man aber Freude dabei hat, ist das sehr schwierig, und das kann man auch in Tests zeigen.

    Ambivalent waren auch die Bewertungen durch Versuchspersonen: sie lagen oft daneben. Denn wütend und freudig Gesprochenes liegt im Klang überraschender Weise dicht beieinander, so dass die emotionale Grundstimmung kaum unterschieden werden konnte. Oder lag es vielleicht daran, dass die Schauspieler in der Laborsituation nicht wirklich authentisch sein konnten? Weitere Versuche sollen das klären!

    Wirklich authentisch waren diese Laute. Elisabeth Scheiner, Doktorandin im Deutschen Primatenzentrum Göttingen, gab 19 Eltern Mikrophon und Aufnahmegerät mit nach Hause, damit sie ihre neugeborenen Kinder ein Jahr lang zu allen Gelegenheiten aufzunehmen konnten.

    Das ist mal ein ganz anderer Lauttyp. Den nenne ich Gurren. Das ist das, was Eltern eigentlich immer ganz gerne hören. Es ist ruhig, es ist angenehm und man hat den Eindruck, dem Kind geht's gut. Und dann sieht man hier auch noch gleich, dass es Laute gibt, die sehr geräuschhaft sind. Dieser hier - ich spiele den noch mal einzeln an: Das ist eben ein ganz geräuschhafter Laut, so etwas interessiert mich bei der Lautanalyse auch, und der, den ich jetzt vorspiele, der ist eben ein tonaler Laut. Und das sind die Dinge, auf die ich achte. Also wie viel Geräuschhaftigkeit, Tonalität, abgesehen von Tönhöhe und Lautstärke und solchen Sachen.

    Die Eltern sollten dabei akribisch notieren, in welcher Stimmung das Baby gerade war, als die Aufnahme passierte; freudig, zufrieden, interessiert, ärgerlich oder hatte es gar Schmerzen? 35.000 Lautäußerungen wurden auf diese Weise digitalisiert. Ein Lautanalyseprogramm sollte die physikalischen Eigenschaften erhellen:

    Die negativen Laute, die haben mehr Energien in oberen Frequenzbereichen, das ist das Typische. Das heißt, da ist nicht die Tonhöhe an sich höher, was wir Grundfrequenz nennen, sondern ein Ton ist immer aufgebaut aus einer Grundfrequenz und dann Obertönen darüber, und diese Obertöne sind bei negativen Emotionen stärker betont. Das heißt, der Laut klingt höher, das Timbre ist höher, schriller irgendwie.

    Ergebnis der Studie: Positive Laute wie "Freude" lassen sich von negativen wie "Schmerz" eindeutig unterscheiden. Mehr allerdings nicht. Weiter gehende Differenzierungen wie zum Beispiel Ärger, Unbehagen oder Schmerz innerhalb der negativen Lautäußerungen konnte das Lautanalyseprogramm nicht bewerkstelligen. Oder lag es an den Eltern, die falsche Basisinformationen lieferten?

    Sagen wir mal so, ich bin der festen Überzeugung, dass ein Teil meiner Schwierigkeiten, die Einzelemotionen voneinander zutrennen, daran liegt, dass vielleicht die eine Mutter zu einer bestimmten Situation oder wenn sie ihre Kind sieht, sagt: "Das freut sich", während die andere sagt: "Das ist noch lange keine Freude, das ist Zufriedenheit." Also dass die Eltern inkonsistent sind in der konkreten Benennung der Emotion.

    Genau dieses Problem - die Verschiedenartigkeit in den Bewertungen - hatte schon in früheren Studien Probleme bereitet. Nicht einmal Hebammen oder Krankenschwestern von Geburtsstationen konnten übereinstimmend beurteilen, welche Babyschreie wie zu bewerten sind. Unbestritten ist, dass die emotionalen Lautäußerungen menschlicher Babys - wie bei Säugetieren auch - genetisch in die Wiege gelegt ist. Auf der anderen Seite sind die emotionalen Vokalisationen der Menschenbabys extrem variabel: Freude kann mit gemäßigten 2000, aber auch mit schrillen 6000 Hertz zum Ausdruck gebracht werden.

    Es gibt ja die These, dass Babyschreie extra so konzipiert sind, von der Natur oder von wem auch immer, dass sie aufregen sollen, und dass sie so variabel sind, damit man sich nicht an sie gewöhnen kann und handeln muss. Also ich Aufnahmen, wo sich die Kinder die Seele aus dem Leib brüllen, und die sind für mich schwer zu ertragen, da merke ich auch wirklich, dass ich innerlich immer nervöser werde, und wenn ich zwei Stunden solche Bänder abgehört habe, brauche ich auch ganz dringend eine Pause und muss irgend etwas anderes machen. Ich hab' natürlich auch Aufnahmen, wo Kinder fröhlich sind, und ganz gelassen vor sich hinspielen und diese ganz leisen Laute machen - also ah, ah, ah - das kann ich mir wesentlich länger dann anhören, weil das auch auf mich beruhigend wirkt. Also, da wird schon Stimmung übertragen und das ist hochinteressant, ja ....

    Einst stritten sich Nordwind und Sonne,
    wer von ihnen beiden wohl der Stärkere wäre,
    als ein Wanderer,
    der in seinem warmen Mantel gehüllt war,
    des Weges kam.



    Das sind die ersten Zeilen aus dem Gedicht "Der Nordwind" - vorgelesen von einem Parkinson-Patienten.

    Sie wurden einig, dass derjenige, der für den Stärkeren gelten sollte,
    der den Wanderer zwingen würde, den Mantel abzunehmen.


    Das Kennzeichnende, was wir zunächst hören, das ist eine sehr leise Stimme, die sehr wenig Modulation hat. Das klingt eher monoton und in der gleichen Tonhöhe. Darüber hinaus sind auch die Artikulations-, also die Ausformungsbewegungen der einzelnen Laute zum Teil verringert und in ihrem Umfang eingeschränkt. So dass also, wenn man genau hinhört, man merkt, wie die einzelnen Laute zum Teil nicht deutlich ausgeformt werden und so ein leichtes, hastendes Übergehen in die nächsten Laute entsteht.

    Warum die Parkinson-Patienten kaum in der Lage sind, ihren Worten eine emotionale Stimmung zu verleihen, dieser Frage geht der Psychologe Gregor Joppich von der Medizinischen Hochschule Hannover nach. Zusammen mit seiner Kollegin, Dr. Christine Schröder, soll herausgefunden werden, in welcher Weise der für Parkinson-Patienten typische Dopaminmangel eine Rolle spielen könnte. Dopamin ist ein Neurotransmitter im Gehirn. Die Mangelsituation führt dazu, dass die Betroffenen in ihrer Bewegung eingeschränkt sind - also auch die Muskeln des Sprechapparates?

    Letztlich ist das aber noch nicht ausreichend untersucht. Und das ist ja eben genau das, wo wir ansetzen und sagen können, man kann es eben nicht nur annehmen, es kann eben auch sein, dass tatsächlich, und da gibt es eben auch Hinweise von anderen Forschergruppen, die sagen, es liegt nicht nur an der Expression, sondern es liegt auch daran, dass die Parkison-Patienten eine andere Wahrnehmung haben.


    Können Patienten, die an Dopaminmangel leiden, den emotionalen Unterton ihrer Gesprächspartner also gar registrieren und genau deshalb nicht mehr gefühlvoll sprechen? Bei den gerade erst angelaufenen Versuchen werden den Patienten Worte mal wütend, mal freudig gesprochen vorgespielt, während sie - im Kernspintomographen liegend - auf ihre Gehirnaktivitäten untersucht werden. In zwei Jahren, so Joppich, werden die ersten Ergebnisse erwartet:

    Das Ziel ist eigentlich zweiseitig. Auf der einen Seite geht es natürlich darum, grundlagenmäßig die Rolle des Dopamins zu erforschen, und auf der zweiten Seite ist natürlich die langfristige Perspektive insbesondere auch für die Patienten die, herauszufinden, wenn ich die affektive Kommunikation im Alltag verbessern möchte, was ist dann unser Therapieansatz, wo können wir unseren Hebel ansetzen? Und da wäre es ja schon die entscheidende Frage, zu unterscheiden, ob es ein reines sprechmotorisches Problem ist, da würde man dann die Sprechmotorik beüben, oder aber auf der anderen Seite die Frage, ist dahinter auch ein Prozess der emotionalen Bewertung vielleicht zu sehen, an dem man arbeiten könnte, und wo man sagen muss: Achte auf Deine Emotionen, verstärke die Emotionen.

    Einen bemerkenswerten Versuch startet Prof. Eckart Altenmüller von der Musikhochschule Hannover. Seine Probanden hören ganz einfach Musik, in der Hoffnung, dass sie eine Gänsehaut bekommen:

    Es gibt nämlich eine Theorie dieser Gänsehauterlebnisse, die sagt, dass die Gänsehaut, die wir beim Musikhören haben, im Grunde genommen ein Überbleibsel ist eines uralten akustischen Haaraufstellreflexes von Affen, die - wenn sie abgelegt wurden - zum Beispiel von der Mutter, dann hat die Mutter nach einer Zeit dieses Affenbaby gerufen, und darauf hin wurde dann die Gänsehaut erzeugt im Affenbaby, und das hat das Affenbaby auf die Distanz gewärmt, und das war so eine Art "Fernheizung". Und möglicherweise ist diese Gänsehaut beim Menschen ein letztes Überbleibsel dieser ganz frühen atavistischen akustisch ausgelösten Reflexe.



    Elektroden, auf den Arm geklebt, sollen messen, welche Musikpassagen es sind, die "unter die Haut gehen" - erkennbar am Hautwiderstand. Vielleicht - so die Hoffnungen - lassen sich sogar allgemeingültige Tonfolgen finden, die Emotionen nicht nur bei Vertretern westlicher Kulturkreise freisetzen, sondern - grundlegender noch - bei allen Menschen. Deshalb werden die Versuche ganz gezielt auch mit Personen aus afrikanischen, asiatischen und arabischen Kulturkreisen durchgeführt:

    Und dahinter steckt letztendlich: wenn wir eine ganze Reihe von Faktoren haben, die solche emotionale Antworten auslösen, wollen wir Stücke komponieren, die ultimative Emotionsmusik.