Artikel
Multimodale Wahrnehmung von Satzakzenten bei Cochlea Implantat Nutzern
Suche in Medline nach
Autoren
Veröffentlicht: | 18. März 2025 |
---|
Gliederung
Text
Satzakzente spielen auf suprasegmentaler Ebene eine große Bedeutung für gesprochene Sprache. Beispielsweise werden durch die Betonung einzelner Wörter im Satz neue Information hervorgehoben oder zuvor gegebene Informationen kontrastiert. Auf akustischer Ebene spielen Stimmgrundfrequenz, Intensität und Dauer eine Rolle für die Wahrnehmung von Satzakzenten. Die Übertragung mit Cochlea Implantaten (CI) bewirkt insbesondere hinsichtlich der Nutzung der Grundfrequenz Limitationen (z.B. [1], [2]). Allerdings werden die Betonungsmuster auch visuell widergespiegelt, da gesprochene Sprache i.d.R. durch faziale Bewegungen wie z.B. der Augenbrauen und Kopfbewegungen begleitet werden. Damit stellt sich die Frage, in wie weit Menschen mit CI visuelle Merkmale nutzen können, um mögliche Einschränkungen bei der Auswertung akustischer Merkmale zu kompensieren.
Hierzu wurden einer Gruppe von postlingual ertaubten CI-Nutzern multimodale Stimuli dargeboten, die auf der Realisierung mittels virtueller Realität (VR) beruhen [3]. VR hat den Vorteil, dass realistische Bewegungsmuster präsentiert werden können, die jedoch beliebig modifizierbar sind und sich damit für eine Detailuntersuchung der Effekte bei der Wahrnehmung von multimodalen Satzakzenten besonders gut eignen.
Basierend auf dieser Methode wurde eine umfassende Analyse der Wahrnehmung von Satzakzenten durchgeführt, bei denen neben der Bestimmung des Anteils korrekt wahrgenommener Betonungen zusätzlich über Eye-Tracking und Pupillometrie Hinweise auf die Ausrichtung der visuellen Aufmerksamkeit und die kognitive Belastung gegeben werden.
Die Studie stellt die gewonnene Ergebnisse im Vergleich zu einer Kontrollgruppe altersangepasster Personen mit typischem Hörvermögen dar und diskutiert individuelle Unterschiede bei der multimodalen Wahrnehmung von Satzakzenten.
Gefördert von der Deutschen Forschungsgemeinschaft (DFG), Kennzeichen ME 2751/4-1.
Literatur
- 1.
- Meister H, Landwehr M, Pyschny V, Walger M, von Wedel H. The perception of prosody and speaker gender in normal-hearing listeners and cochlear implant recipients. Int J Audiol. 2009 Jan;48(1):38-48. DOI: 10.1080/14992020802293539
- 2.
- Meister H, Landwehr M, Pyschny V, Wagner P, Walger M. The perception of sentence stress in cochlear implant recipients. Ear Hear. 2011 Jul-Aug;32(4):459-67. DOI: 10.1097/AUD.0b013e3182064882
- 3.
- Meister H, Winter IS, Waechtler M et al. A virtual reality-based method for examining audiovisual prosody perception. arXiv. 2022. DOI: 10.48550/arXiv.2209.05745