gms | German Medical Science

23. Jahrestagung der Deutschen Gesellschaft für Audiologie

Deutsche Gesellschaft für Audiologie e. V.

03.09. - 04.09.2020, Cologne (online conference)

Elektrophysiologische Korrelate von audiovisueller Wortwahrnehmung bei Patienten mit Cochlea-Implantat

Meeting Abstract

  • presenting/speaker Natalie Leschinski - Universitätsklinikum Köln, Köln, Deutschland
  • Verena Müller - Universitätsklinikum Köln, Köln, Deutschland
  • Anna Weglage - Universitätsklinikum Köln, Köln, Deutschland
  • Martin Walger - Universitätsklinikum Köln, Köln, Deutschland
  • Ruth Lang-Roth - Universitätsklinikum Köln, Köln, Deutschland
  • Barbara Streicher - Universitätsklinikum Köln, Köln, Deutschland
  • Hartmut Meister - Jean-Uhrmacher-Institut für klinische HNO-Forschung, Köln, Deutschland
  • Pascale Sandmann - Universitätsklinikum Köln, Köln, Deutschland

Deutsche Gesellschaft für Audiologie e.V.. 23. Jahrestagung der Deutschen Gesellschaft für Audiologie. Köln, 03.-04.09.2020. Düsseldorf: German Medical Science GMS Publishing House; 2020. Doc178

doi: 10.3205/20dga178, urn:nbn:de:0183-20dga1786

Published: September 3, 2020

© 2020 Leschinski et al.
This is an Open Access article distributed under the terms of the Creative Commons Attribution 4.0 License. See license information at http://creativecommons.org/licenses/by/4.0/.


Outline

Text

Hintergrund: Lautsprachliche Kommunikation ist audiovisuell, da sowohl die auditiven als auch visuellen Informationen zum Sprachverständnis beitragen. Vor allem in akustisch schwierigen Situationen kann die zusätzliche Mundbewegung das Verständnis erleichtern. Behaviorale Ergebnisse zeigten für Cochlea-Implantat(CI)-Patienten einen höheren Nutzen bei der Kombination auditiver und visueller Sprachmerkmale im Vergleich zu Normalhörenden [1].

Methoden: In der laufenden EEG-Studie untersuchen wir die audiovisuelle Interaktion während der Wortverarbeitung bei CI-Patienten. Den Patienten mit CI und einer normalhörenden Kontrollgruppe (jeweils N=20) werden auditiv und visuell zweisilbige Wörter im Rahmen eines Cross-modal-Repetition-Priming-Paradigmas mit einer lexikalischen Entscheidungsaufgabe präsentiert: Der Prime (Hinweisreiz) ist eine Lippenbewegung ohne Ton, die durch eine computerbasierte Animation (Artikulationsmodell MASSY; [2] entweder in einer überdeutlichen, deutlichen oder neutralen Weise artikuliert wird. Darauf folgt das auditive Target (Zielreiz), das entweder ein Wort oder ein Pseudowort ist. Prime und Target können kongruent oder inkongruent sein. Die Aufgabe des Probanden besteht darin, zu entscheiden, ob es sich bei dem gehörten (Target-)Wort um ein existierendes Wort oder um ein Nichtwort handelt. Ziel der Studie ist es, die Auswirkungen der unterschiedlichen visuellen Primes auf die Wahrnehmung der auditiven Targets mit Hilfe von Verhaltensdaten (Trefferrate, Reaktionszeiten) und ereigniskorrelierten Potenzialen (sensorische und höher-kognitive Wortverarbeitung: N1, P2, N400) zu erfassen. Bei Patienten mit CI wird, im Vergleich zu Normalhörenden, eine stärkere audiovisuelle Interaktion erwartet, die sich in Form eines stärkeren Priming-Effekts (d.h. kürzere Reaktionszeiten und ausgeprägtere N400 für Wörter im Vergleich zu Pseudowörtern) zeigt.

Ergebnisse: Die ersten Ergebnisse von Normalhörenden zeigen kürzere Reaktionszeiten bei den kongruenten im Vergleich zu den inkongruenten Bedingungen. Weiter sind die kortikal-evozierten Potenziale N1 und P2 sowie die N400-Komponente bei den inkongruenten Bedingungen zu beobachten.

Schlussfolgerungen: Diese ersten Ergebnisse belegen eine audiovisuelle Interaktion bei den Normalhörenden. Weiter zeigen sie, dass ein komplexes, ökologisch valides Stimulusmaterial mit Hilfe des Artikulationsmodells MASSY adäquat visualisiert werden kann, was die Untersuchung der audiovisuellen Interaktion in kontrollierten Reizbedingungen ermöglicht. Weitere Datenerhebungen und Analysen werden zeigen, ob CI-Patienten – im Vergleich zu Normalhörenden – aufgrund der kortikalen Reorganisation eine bessere Lippenlesefähigkeit und einen größeren Unterschied in den Reaktionszeiten und in der N400-Komponente zwischen den kongruenten und den inkongruenten Bedingungen zeigen.


Literatur

1.
Rouger J, Lagleyre S, Fraysse B, Deneve S, Deguine O, Barone P. Evidence that cochlear-implanted deaf patients are better multisensory integrators. Proc Natl Acad Sci U S A. 2007;104(17):7295-7300. DOI: 10.1073/pnas.0609419104 External link
2.
Fagel S, Clemens C. An articulation model for audiovisual speech synthesis - Determination, adjustment, evaluation. Speech Communication. 2004;44(1–4 SPEC. ISS.): 141–154. DOI: 10.1016/j.specom.2004.10.006 External link
3.
Schreitmüller S, Frenken M, Bentz L, Ortmann M, Walger M, Meister H. Validating a Method to Assess Lipreading, Audiovisual Gain, and Integration During Speech Reception With Cochlear-Implanted and Normal-Hearing Subjects Using a Talking Head. Ear Hear. 2018;39(3):503-516. DOI: 10.1097/AUD.0000000000000502 External link