gms | German Medical Science

23. Jahrestagung der Deutschen Gesellschaft für Audiologie

Deutsche Gesellschaft für Audiologie e. V.

03.09. - 04.09.2020, Cologne (online conference)

Selektiv hören, Klänge organisieren, EEG-Validierung – können Hörsysteme das Gehirn bei der Zuordnung von Klängen unterstützen? Ist es möglich, dies Messtechnisch zu ermitteln?

Meeting Abstract

Search Medline for

  • presenting/speaker Horst Warncke - Oticon GmbH, Hamburg, Deutschland

Deutsche Gesellschaft für Audiologie e.V.. 23. Jahrestagung der Deutschen Gesellschaft für Audiologie. Köln, 03.-04.09.2020. Düsseldorf: German Medical Science GMS Publishing House; 2020. Doc091

doi: 10.3205/20dga091, urn:nbn:de:0183-20dga0913

Published: September 3, 2020

© 2020 Warncke.
This is an Open Access article distributed under the terms of the Creative Commons Attribution 4.0 License. See license information at http://creativecommons.org/licenses/by/4.0/.


Outline

Text

Beim selektiven Hören nutzt der Mensch die Fähigkeit, aus einem Gemisch von diversen Klängen und Stimmen, die aus allen Richtungen kommen können, die gewünschten Signale herauszuhören und ihnen zu folgen. Gleichzeitig können Normalhörende dabei auch die unerwünschten Klänge unterdrücken.

Damit ist es möglich, sich auch bei konkurrierenden Sprechern auf einen zu konzentrieren und diesen sogar bei einem negativen Signal/Störabstand zu verstehen.

Bisherige Theorien gingen davon aus, das diese selektive Wahrnehmung durch eine Art Konzentration auf die gewünschten Klänge geschieht, so als würden diese mit einem Scheinwerfer hervorgehoben – was die Analogie zu Richtmikrofonen ermöglicht.

Nach neuesten Untersuchungen ([1]; [2]) funktioniert die Selektion eher wie ein Filter, welcher alle Informationen auswertet, um dann das Gewünschte zu priorisieren. Damit benötigt das Gehirn möglichst viele Informationen aus allen Richtungen, um den Filter zu füttern.

Leider ist bei einem Hörverlust die Fähigkeit des selektiven Hörens zumindest eingeschränkt, oder sie geht ganz verloren.

Es konnte nachgewiesen werden, dass diese Fähigkeit erhalten werden kann, wenn ein Hörverlust schnell (unter 3 Jahre Wartezeit) mit Hörsystemen versorgt wird und der Nutzer diese Geräte mindestens 6 Stunden pro Tag aktiv nutzt [3].

Die Frage, wie und in welche Regionen das Gehirn gerade aktiv das selektive Hören umsetzt, kann durch hochauflösende, 64-kanalige EEG-Messungen erstmalig beantwortet werden. Diese Messmethodik wurde zum Einsatz mit Hörsystemen völlig neu entwickelt [3].

In einer Studie mit 22 erfahrenen Hörsystemträgern, Durchschnittsalter 67 Jahre, wurde der Nutzen eines Hörsystemfeatures, das ein- oder ausgeschaltet wurde, mit diesen EEG-Messungen überprüft.

Dazu wurden Sprachsignale von zwei konkurrierenden Ziel-Sprechern, die wiederum von 4 Störsprechern überdeckt wurden, genutzt. Die Aufgabe der Teilnehmer war es, sich auf einen der beiden Zielsprecher zu konzentrieren. Über die EEG-Messungen konnte klar erkannt werden, ob das Feature ein oder ausgeschaltet war (hier: OpenSound Navigator (OSN), ein System zur Erkennung multipler Sprecher und lokalisierbarer nichtsprachlicher Schallquellen).

Über die Stärke des EEG-Signals konnte erstmalig für Hörsysteme nachgewiesen werden, dass bei Nutzung des OSN der Zielsprecher wesentlich deutlicher erkannt werden kann. Dies gilt auch für den konkurrierenden zweiten Zielsprecher sowie für die Fähigkeit, die vier Störsprecher auszublenden. Die aktuelle Theorie hinter den Fragen zum Selektiven Hören, zu EEG-Messungen im Allgemeinen und speziell bezogen auf die Studie sollen im Vortrag erläutert werden. Ebenfalls soll das Studiendesign und die bislang unveröffentlichten Ergebnisse präsentiert werden.

Eine Langfassung des Beitrags erhalten Sie hier:

https://dga.cloud/s/8LAgaQ8bN2biWyz


Literatur

1.
Halassa MM, Kastner S. Thalamic functions in distributed cognitive control. Nat Neurosci. 2017 Dec;20(12):1669-1679. DOI: 10.1038/s41593-017-0020-1 External link
2.
O'Sullivan AE, Lim CY, Lalor EC. Look at me when I'm talking to you: Selective attention at a multisensory cocktail party can be decoded using stimulus reconstruction and alpha power modulations. Eur J Neurosci. 2019 10;50(8):3282-3295. DOI: 10.1111/ejn.14425 External link
3.
Mahmoudi E, Basu T, Langa K, McKee MM, Zazove P, Alexander N, Kamdar N. Can Hearing Aids Delay Time to Diagnosis of Dementia, Depression, or Falls in Older Adults?. J Am Geriatr Soc. 2019 11;67(11):2362-2369. DOI: 10.1111/jgs.16109 External link
4.
Alickovic E, Lunner T, Gustafsson F, Ljung L. A Tutorial on Auditory Attention Identification Methods. Front Neurosci. 2019;13:153. DOI: 10.3389/fnins.2019.00153 External link