gms | German Medical Science

27. Wissenschaftliche Jahrestagung der Deutschen Gesellschaft für Phoniatrie und Pädaudiologie e. V.

Deutsche Gesellschaft für Phoniatrie und Pädaudiologie e. V.

17.09. - 19.09.2010, Aachen

Neuronale Verarbeitung von Sprache und Musik bei professionellen Schauspielern und Sängern

Vortrag

  • corresponding author presenting/speaker Ken Rosslau - Klinik für Phoniatrie und Pädaudiologie, Münster, Deutschland
  • Sibylle Herholz - Institut für Biomagnetismus und Biosignalanalyse, Münster, Deutschland
  • Arne Knief - Klinik für Phoniatrie und Pädaudiologie, Münster, Deutschland
  • Magdalene Ortmann - Institut für Biomagnetismus und Biosignalanalyse, Münster, Deutschland
  • Christian Dobel - Institut für Biomagnetismus und Biosignalanalyse, Münster, Deutschland
  • Christo Pantev - Institut für Biomagnetismus und Biosignalanalyse, Münster, Deutschland
  • Antoinette am Zehnhoff-Dinnesen - Klinik für Phoniatrie und Pädaudiologie, Münster, Deutschland

Deutsche Gesellschaft für Phoniatrie und Pädaudiologie. 27. Wissenschaftliche Jahrestagung der Deutschen Gesellschaft für Phoniatrie und Pädaudiologie (DGPP). Aachen, 17.-19.09.2010. Düsseldorf: German Medical Science GMS Publishing House; 2010. Doc10dgppV35

doi: 10.3205/10dgpp52, urn:nbn:de:0183-10dgpp527

Veröffentlicht: 31. August 2010

© 2010 Rosslau et al.
Dieser Artikel ist ein Open Access-Artikel und steht unter den Creative Commons Lizenzbedingungen (http://creativecommons.org/licenses/by-nc-nd/3.0/deed.de). Er darf vervielfältigt, verbreitet und öffentlich zugänglich gemacht werden, vorausgesetzt dass Autor und Quelle genannt werden.


Zusammenfassung

Hintergrund: Bei nachweisbaren elektrophysiologischen Korrelaten für die Musik- und Sprachverarbeitung gibt es bisher wenige Untersuchungen an professionellen Schauspielern und Sängern.

Material und Methoden: In der vorliegenden Studie wurden mit Hilfe der Magnetenzephalographie jeweils 12 professionelle Schauspieler und Sänger während der Beschallung mit 240 kurzen eingesungenen und eingesprochenen Fragmenten aus Liedern untersucht. Vier Bedingungen mit semantischer bzw melodischer Sinnverletzung des letzten Wortes mussten vom Probanden als richtig oder falsch erkannt werden.

Ergebnisse: Semantische Fehler wurden von den Schauspielern signifikant besser erkannt als Tonhöhenfehler. Sänger erkannten beide Fehlerarten gleich gut. In den MEG Daten zeigten Schauspieler in allen Bedingungen signifikant mehr neuronale Aktivität auf der linken Hemisphäre, während Sänger in der gesprochenen und gesungenen Modalität besonders bei doppelter Verletzung von Ton und Wortsinn rechtshemisphärisch Erregungsmaxima präsentierten.

Diskussion: Insgesamt weisen Sänger und Schauspieler signifikante Unterschiede in der rezeptiven Verarbeitung von Sprache und Musik auf. Die vorliegenden Ergebnisse sind Hinweise, dass eine mehrjährige Sprech- und Gesangsausbildung die neuronale Verarbeitung mit umorganisierten Netzwerken beeinflusst.


Text

Einleitung

Der Vergleich der Verarbeitung sprachlicher und musikalischer Fähigkeiten ist von großem Interesse für das Verständnis von grundlegenden neurokognitiven Arbeitsprozessen. In verschiedenen Studien wurde dargestellt, dass die Verletzung sprachlicher und musikalischer Sinnhaftigkeit die Ausprägung entsprechender kortikaler Potentiale, wie z.B. N400 als sprachliches und P600 als musikalisches Korrelat, unterschiedlich beeinflusst [1]. Einige Forschungsgruppen stellen eine gemeinsame Verarbeitungsstrategie in der Wahrnehmung von Tonhöhen in der Sprachmelodie und im musikalischen Kontext heraus, die vom musikalischen Ausbildungsstand abhängig ist [2], was in fMRI Studien bestätigt werden konnte [3]. Mit der Weiterentwicklung der Fragestellung zum Einfluss der sprachlichen und musikalischen Expertise von professionellen Sängern und Schauspielern auf die auditive Wahrnehmung besteht die Möglichkeit, neue Erkenntnisse zur rezeptiven neuronalen Organisation nach langjährigem Training bei Sprach- und Musikverarbeitung zu gewinnen.

Material und Methodik

In der vorliegenden Studie wurden mit Hilfe von Magnetenzephalographie (MEG) kortikale Aktivierungsmuster während der Verarbeitung von Sprache und Gesang verglichen. Das MEG eignet sich durch ein sehr hohes zeitliches und relativ gutes räumliches Auflösungsvermögen besonders gut zur Darstellung früher und später kortikaler Verarbeitungsprozesse nach akustischer Stimulation. Das Stimulusmaterial bestand aus eingesprochenen und eingesungenen Reimsequenzen aus Liedern. Das deutsche Kunstlied bietet in einer besonderen Weise die Möglichkeit, Sprache in der Form eines Gedichtes und Musik in Verbindung darstellen zu können. Ausgewählt wurden ca. 5 sekündige Sequenzen aus den Liederzyklen „Die schöne Müllerin“, „Winterreise“ und „Schwanengesang“, die eine monosyllabische Endung eines Paarreimschemas aufwiesen und eine den Regeln der Tonsatzlehre entsprechende in sich geschlossene Einheit bildeten (Beispiel: „Ihr Blümlein alle, die sie mir gab, euch soll man legen mit mir ins Grab.“). 30 ausgewählte Sequenzen wurden von einem professionellen Sänger und Sprecher eingesungen und eingesprochen. Entsprechend der Fragestellung wurde das eingesprochene und eingesungene Grundmaterial mit Hilfe der Computersoftware „Audacity“ den insgesamt 8 zu untersuchenden Bedingungen angepasst:

1.
Das Beispiel wurde in der eingesprochenen und eingesungenen Originalversion belassen.
2.
Am Phrasenende wurde in der gesungenen und gesprochenen Version eine Tonhöhenveränderung des letzten Wortes vorgenommen (1/2 Ton beim Gesungenen, 3/2 Töne beim Gesprochenen), so dass der Ton außerhalb der zugehörigen Tonart bzw. erwarteten Grundfrequenz lag.
3.
Das sinnvolle letzte Wort wurde durch ein sich reimendes, aber in diesem Kontext semantisch sinnloses Wort ersetzt.
4.
Es wurde sowohl eine sinnlose Veränderung des letzten Wortes, als auch eine Tonhöhenveränderung im Gesprochenen und Gesungenen vorgenommen.

Insgesamt ergeben sich somit bei 30 Beispielen für 8 Bedingungen 240 Fragmente, die vom Probanden als richtig oder falsch erkannt werden mussten. Der Proband sollte sich nach dem abgelaufenen Audiobeispiel per Mausklick entscheiden, ob die akustisch präsentierte Sequenz seinem Textverständnis und seiner musikalischen Erwartung entsprach oder eine auffällige Veränderung entweder in der Tonhöhe oder im Wortsinn oder in beiden Bedingungen am Phrasenende aufwies. Die Fragmente wurden so ausgewählt, dass eine direkte Wiedererkennung aus dem Langzeitgedächtnis, trotz Bekanntheit des Werkes, nicht möglich ist. Damit soll eine kortikale Aktivierung, die auf einer reinen Gedächtnisleistung basiert, vermieden werden.

An 15 professionellen Sängern und 15 professionellen Schauspielern wurden Verhaltensdaten und Daten zur kortikalen Aktivität mit der Magnetenzephalographie erhoben und mit statistischen Tests zum Mittelwertsvergleich bzw. ANOVA auf Signifikanz getestet.

Ergebnisse

In der Auswertung der Verhaltensdaten wurden semantische Fehler von den Schauspielern signifikant besser erkannt (85% korrekte Antworten) als Tonhöhenfehler (72% korrekte Antworten). Die Sänger erkannten beide Fehlerarten in etwa gleich gut (ca. 80 % korrekte Antworten für Tonhöhen/semantische Fehler). In den MEG Daten zeigten Schauspieler im Vergleich zu Sängern auf der linken Hemisphäre in allen 8 Bedingungen signifikant mehr neuronale Aktivität als auf der rechten Hemisphäre, sowohl für die gesungene als auch für die gesprochene Modalität. Die Sänger wiesen in der gesprochenen und gesungenen Modalität besonders bei doppelter Verletzung von Ton und Wortsinn rechtshemisphärisch stärkere Erregungsmaxima auf als linkshemisphärisch. Im Vergleich der Bedingungen bezüglich der neuronalen Aktivität zeigte sich bei den Sängern rechts- und linkshemisphärisch ein ähnliches Erregungsmuster mit der höchsten Aktivierung für die doppelte Sinnverletzung von Wort und Ton und der geringsten Aktivierung in der fehlerlosen Bedingung. Die Schauspieler zeigten linkshemisphärisch für die Bedingungen mit semantischem und/oder Tonhöhenfehler eine ähnlich hohe Aktivität. In beiden Gruppen und auf beiden Hemisphären war die maximale Stärke des magnetischen Feldes für die gesprochenen Beispiele signifikant höher als für die gesungenen Beispiele.

Diskussion

Die vorliegenden Ergebnisse sind Hinweise, dass eine mehrjährige Sprech- und Gesangsausbildung die neuronale Verarbeitung beeinflusst. Es kann davon ausgegangen werden, dass durch das frühzeitige und langjährige Training der Sprecher ausgeprägte Netzwerke eher linkshemisphärisch, um die sekundären auditorischen Sprachverarbeitungszentren und bei den Sängern rechtshemisphärisch, um ein ton- und klangverarbeitendes Zentrum [4] bestehen, die bei der jeweiligen Gruppe unterschiedlich vorwiegend bei doppelter Verletzung der Sprache/Tonhöhe aktiviert werden. Damit wäre von einem ausbildungbedingten Dominanzprinzip bei der Sprach- und Musikverarbeitung auszugehen, welches durch ein zusätzlich hemisphärenübergreifendes Netzwerk ergänzt wird.


Literatur

1.
Bonnel AM, Faita F, Peretz I, Besson M. Divided attention between lyrics and tunes of operatic songs: Evidence for independent processing. Perception & Psychophysics. 2001;63(7):1201-13.
2.
Besson M, Schon D, Moreno S, Santos A, Magne C. Influence of musical expertise and musical training on pitch processing in music and language. Restorative Neurology and Neuroscience. 2007;25(3-4):399-410.
3.
Koelsch S, Kasper E, Sammler D, Schulze K, Gunter T, Friederici AD. Music, language and meaning: Brain signatures of semantic processing. Nature Neuroscience 2004;7(3):302-7.
4.
Zatorre RJ, Belin P, Penhune VB. Structure and function of auditory cortex: Music and speech. Trends in Cognitive Sciences. 2002;6(1):37-46. DOI: 10.1016/S1364-6613(00)01816-7 Externer Link