gms | German Medical Science

22. Jahrestagung der Deutschen Gesellschaft für Audiologie

Deutsche Gesellschaft für Audiologie e. V.

06.03. - 09.03.2019, Heidelberg

Warum ist audiovisuelle Sprache bei Cochlea-Implantaten relevant?

Meeting Abstract

Suche in Medline nach

  • presenting/speaker Hartmut Meister - Jean Uhrmacher Institut, Köln, Deutschland

Deutsche Gesellschaft für Audiologie e.V.. 22. Jahrestagung der Deutschen Gesellschaft für Audiologie. Heidelberg, 06.-09.03.2019. Düsseldorf: German Medical Science GMS Publishing House; 2019. Doc033

doi: 10.3205/19dga033, urn:nbn:de:0183-19dga0331

Veröffentlicht: 28. November 2019

© 2019 Meister.
Dieser Artikel ist ein Open-Access-Artikel und steht unter den Lizenzbedingungen der Creative Commons Attribution 4.0 License (Namensnennung). Lizenz-Angaben siehe http://creativecommons.org/licenses/by/4.0/.


Gliederung

Text

Cochlea Implantat (CI) Nutzer haben häufig sehr gute Fähigkeiten, visuelle Sprachmerkmale wie z.B. Mundbildinformationen zu nutzen [1]. Eine mögliche Erklärung ist, dass sie aufgrund der Einschränkung des Hörvermögens und des im Vergleich zum gesunden Gehör sehr reduzierten auditiven Inputs bei CI-Übertragung mehr auf visuelle Informationen zurückgreifen müssen, als guthörende Personen [2].

Dies hat weitergehende Konsequenzen sowohl für die Kommunikation im täglichen Leben als auch die Evaluation der Hör- und Verstehleistung im Labor. Hier sind beispielsweise Aspekte kortikaler Plastizität, multimodaler Integration oder auch der Übertragung spezifischer Sprachmerkmale durch das mittels CI und/oder Hörgerät verarbeitete Sprachsignal zu nennen [3]. Im klinischen Alltag werden diese Aspekte bislang meist nur wenig systematisch berücksichtigt. Dies liegt u.a. daran, dass umfassende und evaluierte audiovisuelle Materialien kaum zur Verfügung stehen.

Ein innovativer Ansatz ist, beliebige visuelle Sprachinformationen auf Basis von Methoden virtueller Realität (VR) zu modellieren. Damit wird zum einen die Möglichkeit gegeben, gängige sprachaudiometrische Materialien zu visualisieren [4]. Des Weiteren besteht bei Zugriff auf alle für die visuelle Sprachrepräsentation relevanten Parameter auch die Möglichkeit, beliebige visuelle Informationen zu erzeugen und zur gezielten Beantwortung spezifischer wissenschaftlicher Fragestellungen zu nutzen.

Der Beitrag gibt einen Überblick über die Möglichkeiten der Darbietung audiovisueller Sprache mittels VR und zeigt Anwendungsbeispiele aus laufenden Forschungsprojekten.


Literatur

1.
Rouger J, Lagleyre S, Fraysse B, Deneve S, Deguine O, Barone P. Evidence that cochlear-implanted deaf patients are better multisensory integrators. Proc Natl Acad Sci USA. 2007 Apr;104(17):7295-300. DOI: 10.1073/pnas.0609419104 Externer Link
2.
Woodhouse L, Hickson L, Dodd B. Review of visual speech perception by hearing and hearing-impaired people: clinical implications. Int J Lang Commun Disord. 2009 May-Jun;44(3):253-70. DOI: 10.1080/13682820802090281 Externer Link
3.
Meister H, Fuersen K, Schreitmueller S, Walger M. Effect of acoustic fine structure cues on the recognition of auditory-only and audiovisual speech. J Acoust Soc Am. 2016 06;139(6):3116. DOI: 10.1121/1.4953022 Externer Link
4.
Schreitmüller S, Frenken M, Bentz L, Ortmann M, Walger M, Meister H. Validating a Method to Assess Lipreading, Audiovisual Gain, and Integration During Speech Reception With Cochlear-Implanted and Normal-Hearing Subjects Using a Talking Head. Ear Hear. 2018 May/Jun;39(3):503-516. DOI: 10.1097/AUD.0000000000000502 Externer Link