gms | German Medical Science

22. Jahrestagung der Deutschen Gesellschaft für Audiologie

Deutsche Gesellschaft für Audiologie e. V.

06.03. - 09.03.2019, Heidelberg

Hören mit Hörgeräten in komplexen dynamischen Kommunikationssituatione

Meeting Abstract

Suche in Medline nach

  • presenting/speaker Kirsten Wagener - Hörtech gGmbH, Hörzentrum Oldenburg GmbH, Oldenburg, Deutschland
  • Michael Schulte - Hörzentrum Oldenburg GmbH, Cluster of Excellence „Hearing4all“, Oldenburg, Deutschland
  • Markus Meis - Hörzentrum Oldenburg GmbH, Cluster of Excellence „Hearing4all“, Oldenburg, Deutschland

Deutsche Gesellschaft für Audiologie e.V.. 22. Jahrestagung der Deutschen Gesellschaft für Audiologie. Heidelberg, 06.-09.03.2019. Düsseldorf: German Medical Science GMS Publishing House; 2019. Doc031

doi: 10.3205/19dga031, urn:nbn:de:0183-19dga0312

Veröffentlicht: 28. November 2019

© 2019 Wagener et al.
Dieser Artikel ist ein Open-Access-Artikel und steht unter den Lizenzbedingungen der Creative Commons Attribution 4.0 License (Namensnennung). Lizenz-Angaben siehe http://creativecommons.org/licenses/by/4.0/.


Gliederung

Text

In der modernen Kommunikationsgesellschaft erfolgen die Unterhaltungen in immer komplexeren sich dynamisch verändernden akustischen Situationen. Für Hörgeschädigte kann dies auf der einen Seite bedeutende Einschränkungen in der Kommunikationsfähigkeit und somit der Lebensqualität zur Folge haben. Auf der anderen Seite versuchen aktuelle Hörgeräte, den Anforderungen der komplexen Kommunikationssituationen gerecht zu werden und so den Hörgeschädigten eine Erleichterung in der Kommunikation und der sozialen Partizipation zu bieten.

Welche Anforderungen stellt die Kommunikation in komplexen Situationen an Hörer und Hörgerät und wie kann man diese in Messmethoden integrieren, die somit im Labor die Einschränkungen im Alltag eines Hörgeschädigten und den Alltagsnutzen von Hörgeräten abbilden? Dabei spielen neben dem Sprachverstehen in sich zeitlich und räumlich verändernden Störgeräuschen auch Dual Task Messmethoden eine große Rolle, bei denen gleichzeitig einem Sprecher laufend zugehört wird und zudem ein anderer Sprecher aus einer anderen Richtung verstanden werden muss [1], [2]. Für die Aufmerksamkeit bedeutet dies, dass man zeitweilig die Aufmerksamkeit auf einen Sprecher bündelt und zwischendurch die Aufmerksamkeit auf verschiedene Sprecher-/Richtungen verteilen muss. Diesen Anforderungen müssen Hörgeräte mit ihren verschiedenen Mikrofontechniken (Richtmikrofonie, adaptives Verhalten, externe Mikrofone) gerecht werden. In komplexen Kommunikationssituationen spielt auch das Streamen von Signalen in Hörgeräte eine immer wichtigere Rolle: es wird beleuchtet, welche Vorteile und Grenzen diese Technologie hat.

Bei den Labormessungen im Bereich Hörgeräte-Benefit und Sprachverständlichkeit bleibt ein wichtiger Kommunikationskanal bislang meist außen vor: der visuelle Kanal. Im Labor werden bei der Evaluation vom Hörgerätenutzen Signale nur über Lautsprecher dargeboten, obwohl in der realen direkten Kommunikation die Gesprächspartner auch visuell wahrgenommen werden. Allein das Wissen darüber, wer gerade mit mir spricht, hilft bei der Verständlichkeit und verringert die Höranstrengung [3]. Mit Blick auf hochgradig Hörgeschädigte und Cochlea-Implantat-Träger ist es teilweise notwendig, auch den visuellen Kanal zur Unterstützung der Kommunikation zur Verfügung zu haben. Daher wird in diesem Beitrag auch auf den audiovisuellen weiblichen Oldenburger Satztest [4] und die audiovisuelle Erweiterung der subjektiven Höranstrengungsskalierung ACALES [5] eingegangen.

Eine Langfassung des Beitrags erhalten Sie hier:

https://www.dga-ev.com/fileadmin/dga2019/site/data/final/0141.pdf


Literatur

1.
Wagener KC, Vormann M, Latzel M, Mülder HE. Effect of Hearing Aid Directionality and Remote Microphone on Speech Intelligibility in Complex Listening Situations. Trends Hear. 2018 Jan-Dec;22:2331216518804945. DOI: 10.1177/2331216518804945 Externer Link
2.
Heeren J, Nüsse T, Latzel M, Holube I, Hohmann V, Schulte M. Concurrent OLSA: A paradigm to measure shared attention effects on speech perception in multi-talker situations. 22. DGA Jahrestagung, Heidelberg; 2019.
3.
Hendrikse MME, Llorach G, Grimm G, Hohmann V. Influence of visual cues on head and eye movements during listening tasks in multi-talker audiovisual environments with animated characters. Speech Communication. 2018;101:70-84. DOI: 10.1016/j.specom.2018.05.008 Externer Link
4.
Llorach G, Kirschner F, Grimm G, Zokoll M, Wagener KC, Hohmann V. Development and evaluation of video recordings for the OLSA matrix sentence test. 2019 (in preparation).
5.
Ibelings S, Holube I, Schulte M, Krüger M. Audiovisuelle Erweiterung des subjektiven Höranstrengungsmessverfahrens ACALES. 22. DGA Jahrestagung, Heidelberg; 2019.