gms | German Medical Science

23. Jahrestagung der Deutschen Gesellschaft für Audiologie

Deutsche Gesellschaft für Audiologie e. V.

03.09. - 04.09.2020, Köln (Online-Konferenz)

Einfluss von Alter und Kognition auf das aufmerksamkeitsgeleitete Sprachverstehen in Cocktailparty-Situationen: der Concurrent-OLSA-Test

Meeting Abstract

  • presenting/speaker Theresa Nüsse - Jade Hochschule, Oldenburg, Deutschland
  • Jan Heeren - Hörtech gGmbH, Oldenburg, Deutschland
  • Matthias Latzel - Phonak AG, Stäfa, Schweiz
  • Michael Schulte - Exzellenzcluster Hearing4All, Oldenburg, Deutschland
  • Inga Holube - Jade Hochschule, Institut für Hörtechnik und Audiologie, Oldenburg, Deutschland; Excellenzcluster Hearing4All

Deutsche Gesellschaft für Audiologie e.V.. 23. Jahrestagung der Deutschen Gesellschaft für Audiologie. Köln, 03.-04.09.2020. Düsseldorf: German Medical Science GMS Publishing House; 2020. Doc141

doi: 10.3205/20dga141, urn:nbn:de:0183-20dga1410

Veröffentlicht: 3. September 2020

© 2020 Nüsse et al.
Dieser Artikel ist ein Open-Access-Artikel und steht unter den Lizenzbedingungen der Creative Commons Attribution 4.0 License (Namensnennung). Lizenz-Angaben siehe http://creativecommons.org/licenses/by/4.0/.


Gliederung

Text

Der Begriff der Cocktailparty beschreibt in der Audiologie das wohl schwierigste Szenario für das Sprachverstehen. Die Einflussfaktoren für erfolgreiches Sprachverstehen sind in realen Cocktailparty-Situationen vielfältig und umfassen z.B. die Art und den Pegel des Störgeräusches. Ebenso kann die Intention des Hörers einen Einfluss auf die Kommunikation haben. Eine wichtige Aufgabe ist z.B. das Verstehen eines Sprechers und die gleichzeitige Aufrechterhaltung der Aufmerksamkeit, um eine mögliche Ansprache von anderen Personen aus dem Raum nicht zu verpassen. Diese spezifische Situation wurde für die Laborumgebung aufbereitet und in einem speziellen Testverfahren untersucht, dem Concurrent-OLSA-Test (CCOLSA; [1]). In einer virtuell erzeugten Cafeteria-Umgebung [2] werden dabei aus drei Richtungen (-60°, 0°, -60°) Zielsprecher präsentiert, die abwechselnd Sätze des Oldenburger Satztests (OLSA) wiedergeben. Bei einem Signal-Rausch-Abstand von 0 dB haben die Probanden drei Aufgaben:

1.
Lokalisation des Ereignisses beliebiger Sprecher spricht das Zielwort Kerstin,
2.
Wiederholen der Sätze eines der drei Sprecher und
3.
Wiederholen der jeweils letzten Wörter der Sätze des Sprechers, der zuletzt das Zielwort Kerstin gesagt hat (Kombination aus 1 und 2).

Durch eine kontrollierte Überlappung der abwechselnd gesprochenen Sätze (drei Konditionen: 0,6 s; 0,8 s und 1 s) erfolgte zudem eine Adjustierung der Schwierigkeit des Testverfahrens. Insgesamt 44 jüngere und ältere normalhörende Probanden nahmen an den Messungen teil, die aufgrund ihres Alters in zwei gleich große Gruppen aufgeteilt wurden. Zusätzlich zum CCOLSA wurde eine allgemeine Anamnese sowie eine kognitive Testbatterie durchgeführt. Diese umfasste standardisierte neuropsychologische Testverfahren zum Arbeitsgedächtnis, der geteilten Aufmerksamkeit und der Aufmerksamkeitsaktivierung sowie zu den exekutiven Funktionen. Im CCOLSA wurden für die ältere Probandengruppe in den jeweils schwierigsten Situationen (Aufgabe 3, Überlappung 1 s) signifikant schlechtere Ergebnisse gemessen als für die jüngere. In diesen Situationen korrelieren die CCOLSA-Ergebnisse der älteren Probanden signifikant mit den Ergebnissen des Trail-Making-Test. Mit diesem Test werden die exekutiven Funktionen untersucht, indem die Bearbeitungszeit für das Verbinden von Zahlen bzw. Zahlen und Buchstaben in logischer Reihenfolge gemessen wird. Die Korrelation deutet auf einen erhöhten Einsatz dieser kognitiven Teilleistung im CCOLSA hin.

Eine Langfassung des Beitrags erhalten Sie hier:

https://dga.cloud/s/TtxHeyEBNtXFRmw


Literatur

1.
Heeren J, Nüsse T, Latzel M, Holube I, Hohmann V, Schulte M. Concurrent OLSA: A paradigm to measure shared attention effects on speech perception in multi-talker situations. In: Deutsche Gesellschaft für Audiologie e. V. 22. Jahrestagung der Deutschen Gesellschaft für Audiologie. Heidelberg, 06.-09.03.2019. Düsseldorf: German Medical Science GMS Publishing House; 2019. Doc057. DOI: 10.3205/19dga057 Externer Link
2.
Grimm G, Hendrikse MM, Hohmann V. Interactive rendering of dynamic virtual audio-visual environments for 'subject-in-the-loop' experiments. J Acoust Soc Am. 2019;146(4):2801. DOI: 10.1121/1.5136702. Externer Link