gms | German Medical Science

37. Wissenschaftliche Jahrestagung der Deutschen Gesellschaft für Phoniatrie und Pädaudiologie (DGPP)

Deutsche Gesellschaft für Phoniatrie und Pädaudiologie e. V.

17.09. - 18.09.2021, digital

Neuromagnetische Darstellung lateralisierter kurzer Melodien im Auditorischen Cortex

Vortrag

Suche in Medline nach

  • corresponding author presenting/speaker Sabrina Taddeo - HNO-Klinik Universität Tübingen, Tübingen, Deutschland
  • André Rupp - Sektion Biomagnetismus, Neurologische Klinik Universität Heidelberg, Heidelberg, Deutschland

37. Wissenschaftliche Jahrestagung der Deutschen Gesellschaft für Phoniatrie und Pädaudiologie (DGPP). sine loco [digital], 17.-18.09.2021. Düsseldorf: German Medical Science GMS Publishing House; 2021. DocV8

doi: 10.3205/21dgpp20, urn:nbn:de:0183-21dgpp203

Veröffentlicht: 28. Oktober 2021

© 2021 Taddeo et al.
Dieser Artikel ist ein Open-Access-Artikel und steht unter den Lizenzbedingungen der Creative Commons Attribution 4.0 License (Namensnennung). Lizenz-Angaben siehe http://creativecommons.org/licenses/by/4.0/.


Zusammenfassung

Hintergrund: Die Melodieverarbeitung spielt sowohl bei der Wahrnehmung von Musik als auch bei der Vermittlung von prosodischer und semantischer Information vor allem in tonalen Sprachen eine tragende Rolle. Trotz intensiver Forschung der Tonhöhenverarbeitung im auditorischen Cortex seit mehreren Jahrzehnten ist die neurale Verarbeitung von Melodien bis dato nur unzureichend verstanden. Ergebnisse von fMRT-, EEG/MEG- und intrakraniellen Ableitungen beim Menschen als auch neurophysiologische Ableitungen beim Säuger sprechen dafür, dass es einen zentralen Prozessor gibt, der aus den von der Peripherie und den frühen Stufen der zentralen Hörbahn dargebotenen Aktivierungsmustern die Information bereitstellt, die mit der psychometrisch ermittelten Tonhöhe eng korreliert. Diese spezifische Repräsentation wird auf corticaler Ebene dem lateralen Heschl Gyrus (lHG) zugeschrieben. Wie sich jedoch wechselnde Tonhöhen bei der Präsentation von Kadenzen cortical manifestieren und ob diese hierarchisch an einer höheren Stelle steht, ist noch weitestgehend unklar.

Material und Methoden: Es wurden 22 normal hörenden Probanden (9 weibliche, 13 männliche, mittleres Alter 33,2 Jahre) Tonsequenzen – 4 Töne (D,E,F,G), iterated rippled noise – gleichbleibender (fixed pitch) oder wechselnder Tonhöhe (melody) monaural links und rechts sowie diotisch dargeboten. Mit Hilfe eines 122-Kanal-Ganzkopf-MEG-Systems wurden die Gradienten der Magnetfelder gemessen und mittels eines räumlich-zeitlichen Quellenmodells (BESA 5.2) die N100m der auditorisch evozierten Felder analysiert.

Ergebnisse: Durch ein 4-Dipol-Modell ließen sich zwei separate N100-Generatoren in jeder Hemisphäre ermitteln; ein posteriorer im Planum Temporale (PT) und ein anteriorer im lHG. Die Aktivität im PT zeigte eine starke Energy-Onset-Antwort auf die erste Note der 4-Ton-Melodie mit deutlicher Lateralisiserung zur kontralateralen Hemisphäre, jedoch kaum messbare Antworten auf die Töne 2–4, unabhängig von der Kondition. Im lHG hingegen ließen sich klare transiente Antworten auf alle Töne ableiten, die jedoch bei konstanter Tonhöhe in der fixed-pitch Bedingung im Kontrast zur melody-Bedingung einer starken Adaptation unterworfen waren. Die Aktivität dieses anterioren Dipols ließ darüber hinaus keinen Lateralisierungeffekt erkennen.

Diskussion: Die Ergebnisse der vorliegenden Arbeit bestätigen die Existenz eines Aktivitätszentrums im lHG, das sensitiv auf Tonhöhe, nicht aber auf Intensität und Richtung zu sein scheint. Im Gegensatz dazu scheint die Aktivität im PT hauptsächlich Intensität und Richtung (ear-of-entry) widerzuspiegeln. Dies wäre vereinbar mit der Dual-Streams-Hypothesis. Des Weiteren scheinen melodische Tonsequenzen stärkere corticale Antworten als Tonsequenzen gleichbleibender Tonhöhe zu evozieren, wobei sich kein Hemisphäreneffekt nachweisen ließ. Dieses Muster könnte dafür sprechen, dass es sich bei der Melodie-Verarbeitung um eine hierarchisch höhere Prozessierungsstufe handelt.


Text

Hintergrund

Die Melodieverarbeitung spielt sowohl bei der Wahrnehmung von Musik als auch bei der Vermittlung von prosodischer und semantischer Information vor allem in tonalen Sprachen eine tragende Rolle. Trotz intensiver Forschung der Tonhöhenverarbeitung im auditorischen Cortex ist die neurale Verarbeitung von Melodien bis dato nur unzureichend verstanden (Plack et al., 2005).

Hinsichtlich der Tonhöhenverarbeitung wurde von Patterson et al. [1] in einer fMRT-Studie ein Areal im lateralen Heschl Gyrus (lHG) beschrieben, das selektiv durch Tonhöhe aktiviert wurde, und wurde daher als „Pitch Center“ bezeichnet. In derselben Studie beobachteten die Autoren, dass bei der Präsentation von wechselnder Tonhöhe, wie sie bei Melodien vorkommt, anterolateral vom Pitch Center Aktivität zu verzeichnen war.

Ergebnisse von fMRT- [2], EEG/MEG- [3], [4] und intrakraniellen Ableitungen beim Menschen [5] als auch neurophysiologische Ableitungen beim Säuger [6] bestätigten die Vermutung, dass es einen zentralen Tonhöhen-Prozessor im lHG gibt, der aus der von der Peripherie und den frühen Stufen der zentralen Hörbahn dargebotenen Aktivierungsmustern die Informationen bereitstellt, die mit der psychometrisch ermittelten Tonhöhe eng korreliert. Wie sich jedoch wechselnde Tonhöhen bei der Präsentation von Kadenzen cortical manifestieren und ob diese hierarchisch an einer höheren Stelle steht, ist weniger intensiv erforscht.

Um die Hypothese, dass Melodieverarbeitung auf einer hierarchisch höheren Ebene geschieht als „einfache“ Tonhöhenverarbeitung, wurde bei der vorliegenden Arbeit eine monaurale Darbietung von kurzen Melodien untersucht. In der Annahme, dass Lateralisierungseffekte bei Melodieverarbeitung – sollten diese vorhanden sein – unabhängig vom Eingangsohr auftreten müssten, wurden kurze Tonsequenzen von gleichbleibender und wechselnder Tonhöhe sowohl monaural (rechts/links) als auch diotisch dargeboten. Zusätzlich hierzu lässt eine monaurale Stimulation möglicherweise Rückschlüsse auf die funktionelle Konnektivität beider Hemisphären zueinander ziehen.

Material und Methoden

Im vorliegenden Experiment wurden 22 normal hörenden Probanden (9 weibliche, 13 männliche, mittleres Alter 33,2 Jahre) Tonsequenzen – 4 Töne (D,E,F,G) – gleichbleibender (fixed pitch) oder wechselnder Tonhöhe (melody) monaural links und rechts sowie diotisch dargeboten. Als Stimulus wurde iterated rippled noise (IRN) [7] genutzt, das den Vorteil mit sich bringt, dass die Tonhöhe variiert werden kann, während die Spektralverteilung und Energie konstant gehalten werden können. Mithilfe eines 122-Kanal-Ganzkopf-MEG-Systems wurden die Gradienten der Magnetfelder gemessen und mittels eines räumlich-zeitlichen Quellenmodells (BESA 5.2) die N100m der auditorisch evozierten Felder analysiert. In Anlehnung an Gutschalk et al. [3], [4] wurde für jeden Probanden ein 4-Dipol-Modell erstellt, um so die energy onset response (EOR) von der pitch response (fixed oder melody) zu trennen. Der statistische Vergleich der Mittelwerte der Quellenwellenformen sowie der Lokalisationen erfolgte mit Hilfe von t-Tests und Varianzanalysen mit Messwiederholungen. Zur Bestimmung der mittleren Amplitude wurde das Intervall von 75–125 ms um den N1-Peak gemittelt.

Ergebnisse

Für jeden Probanden konnte ein 4-Dipol-Modell erstellt werden, wobei sich zwei separate N100-Generatoren in jeder Hemisphäre ermitteln ließen: ein posteriorer im Planum Temporale (PT) und ein signifikant weiter anteriorer Generator im lHG (F(1,21)=16.23, p=0.0006). Die Aktivität im PT zeigte eine starke EOR auf die erste Note der 4-Ton-Melodie mit deutlicher Lateralisierung zur kontralateralen Hemisphäre, jedoch kaum messbare Antworten auf die Töne 2–4, unabhängig von der Kondition (fixed-pitch: t(21)=5.30, p=0.0015; melody: t(21)=6.40, p<0.0. Im lHG hingegen ließen sich klare transiente Antworten auf alle Töne ableiten, die jedoch bei konstanter Tonhöhe in der fixed-pitch-Bedingung im Kontrast zur melody-Bedingung einer starken Adaptation unterworfen waren (fixed vs melody 1. Note: t(21)=0.76, n.s.; fixed vs melody: 2.–4. Note: t(21)=7.25, p<0.01). Die Aktivität dieses anterioren Dipols lies darüber hinaus keinen Lateralisierungeffekt erkennen (melody: t(21)=1.27, n.s.). Für die posterioren Dipole zeigte sich eine klare Abhängigkeit in der Amplitude in Abhängigkeit des ear-of-entry (fixed: Interaktion Stimulation (l/r)*Dipol (l/r), F(1,21)=47.53, p<0.0001); melody: F(1,21)=55.65, p<0.0001). Im Gegensatz dazu war diese Abhängigkeit vom ear-of-entry in der Fixed-Pitch und Melody-Bedingung für die anterioren Dipole nicht zu beobachten (fixed-pitch: F(1,21)=1.0, p=0.329; melody: F(1,21)=0.0, p=0.962), (Abbildung 1 [Abb. 1], Abbildung 2 [Abb. 2]).

Diskussion

Die Ergebnisse der vorliegenden Arbeit bestätigen die Existenz eines Aktivitätszentrums im lHG, das sensitiv auf Tonhöhe, nicht aber auf Intensität und Richtung zu sein scheint. Im Gegensatz dazu scheint die Aktivität im PT hauptsächlich Intensität und Richtung (ear-of-entry) widerzuspiegeln. Dies wäre vereinbar mit der Dual-Streams-Hypothesis, bei der angenommen wird, dass eine ventrale Bahn für Objektidentifikation („what?“) zuständig ist, während eine dorsale Bahn räumliche Aspekte („where?“) anaylsiert [8], [9].

Des Weiteren evozieren melodische Tonsequenzen stärkere corticale Antworten als Tonsequenzen gleichbleibender Tonhöhe, wobei sich – im Gegensatz zu Patterson et al. [1] – kein Hemisphäreneffekt nachweisen ließ. Inwieweit subcorticale Prozesse hierin widergespiegelt werden oder ob callosale Verbindungen eine Rolle spiegeln, lässt sich anhand der vorliegenden Arbeit nicht beantworten. Dieses Gesamtmuster spricht aber dafür, dass es sich bei der Melodie-Verarbeitung um eine hierarchisch höhere Prozessierungsstufe handelt.


Literatur

1.
Patterson RD, Uppenkamp S, Johnsrude IS, Griffiths TD. The processing of temporal pitch and melody information in auditory cortex. Neuron. 2002;36(4):767-76. DOI: 10.1016/s0896-6273(02)01060-7 Externer Link
2.
Penagos H, Melcher JR, Oxenham AJ. A neural representation of pitch salience in nonprimary human auditory cortex revealed with functional magnetic resonance imaging. J Neurosci. 2004;24(30):6810-5. DOI: 10.1523/JNEUROSCI.0383-04.2004 Externer Link
3.
Gutschalk A, Patterson RD, Rupp A, Uppenkamp S, Scherg M. Sustained magnetic fields reveal separate sites for sound level and temporal regularity in human auditory cortex. Neuroimage. 2002;15(1):207-16. DOI: 10.1006/nimg.2001.0949 Externer Link
4.
Gutschalk A, Patterson RD, Scherg M, Uppenkamp S, Rupp A. Temporal dynamics of pitch in human auditory cortex. Neuroimage. 2004;22(2):755-66. DOI: 10.1016/j.neuroimage.2004.01.025 Externer Link
5.
Schönwiesner M, Zatorre RJ. Depth electrode recordings show double dissociation between pitch processing in lateral Heschl's gyrus and sound onset processing in medial Heschl’s gyrus. Exp Brain Res. 2008;187(1):97-105. DOI: 10.1007/s00221-008-1286-z Externer Link
6.
Bendor D, Wang X. The neuronal representation of pitch in primate auditory cortex. Nature. 2005;436(7054):1161-5. DOI: 10.1038/nature03867 Externer Link
7.
Yost WA, Patterson R, Sheft S. A time domain description for the pitch strength of iterated rippled noise. J Acoust Soc Am. 1996;99(2):1066-78. DOI: 10.1121/1.414593 Externer Link
8.
Kaas JH, Hackett TA. ‘What’ and ‘where’ processing in auditory cortex. Nat Neurosci. 1999 Dec;2(12):1045-7. DOI: 10.1038/15967 Externer Link
9.
Hackett TA. Anatomic organization of the auditory cortex. Handb Clin Neurol. 2015;129:27-53. DOI: 10.1016/B978-0-444-62630-1.00002-0 Externer Link
10.
Schneider P, Sluming V, Roberts N, Scherg M, Goebel R, Specht HJ, Dosch HG, Bleeck S, Stippich C, Rupp A. Structural and functional asymmetry of lateral Heschl‘s gyrus reflects pitch perception preference. Nat Neurosci. 2005;8(9):1241-7. DOI: 10.1038/nn1530 Externer Link