gms | German Medical Science

24. Jahrestagung der Deutschen Gesellschaft für Audiologie

Deutsche Gesellschaft für Audiologie e. V.

14.09. - 17.09.2022, Erfurt

Multisensorisches Sprachverstehen

Meeting Abstract

  • presenting/speaker Tobias Reichenbach - Friedrich-Alexander-Universität Erlangen-Nürnberg, Erlangen, DE
  • Enrico Varano - Imperial College London, London, UK
  • Pierre Guilleminot - Imperial College London, London, UK

Deutsche Gesellschaft für Audiologie e.V.. 24. Jahrestagung der Deutschen Gesellschaft für Audiologie. Erfurt, 14.-17.09.2022. Düsseldorf: German Medical Science GMS Publishing House; 2022. Doc039

doi: 10.3205/22dga039, urn:nbn:de:0183-22dga0394

Published: September 12, 2022

© 2022 Reichenbach et al.
This is an Open Access article distributed under the terms of the Creative Commons Attribution 4.0 License. See license information at http://creativecommons.org/licenses/by/4.0/.


Outline

Text

Fragestellung: Hintergrundgeräusche können das Verstehen von Sprache sehr erschweren, insbesondere für Menschen mit Hörschäden. Trotz beachtlicher Forschungsanstrengungen verbessern derzeitige Hörhilfen das Sprachverstehen in Hintergrundrauschen immer noch wenig. Ein möglicher Weg zur Erhöhung des Sprachverstehens ist die Verwendung anderer sensorischer Modalitäten. Das Sehen des Gesichts eines Sprechers kann beim Sprachverstehen beispielsweise erheblich helfen. Haptische Signale können ebenso dazu beitragen, verschieden Sprachbestandteile voneinander zu unterscheiden. Um die visuelle oder somatosensorische Modalität für eine Verbesserung des Sprachverständnisses zu nutzen, müssen jedoch geeignete visuelle oder haptische Signale aus einem Sprachsignal konstruiert werden, um dann simultan dem Benutzer einer Hörhilfe präsentiert zu werden.

Methoden: Wir zeigen hier, wie solche Konstruktionen durchgeführt werden können und dass sie in der Lage sind, das Sprachverstehen in Hintergrundrauschen zu verbessern. Zuerst zeigen wir, wie ein Generative Adversarial Network (GAN), ein Typ eines tiefen neuronalen Netzwerks, Gesichtsanimationen von einem Sprachsignal bilden kann. Zweitens konstruieren wir eine Serie von haptischen Pulsen, welche die perzeptuellen Zentren der Silben betonen.

Ergebnisse: Wir weisen nach, dass sowohl die visuellen wie auch die haptischen Signale das Verständnis von Sprache unterstützen. Dabei bleibt die Verbesserung, die durch die künstlich erzeugten Gesichtsanimationen hervorgerufen wird, jedoch hinter der der natürlichen Gesichtsbewegungen zurück. Die haptischen Signale bewirken eine Unterstützung des Sprachverstehens durch eine Modulation der neuronalen Aktivität im auditorischen Kortex, die mit Sprachrhythmen verknüpft ist.

Schlussfolgerungen: Unsere Ergebnisse öffnen einen Weg, um visuelle und haptische Signale in Hörhilfen zu verwenden, und damit das Verstehen von Sprache in Hintergrundrauschen zu verbessern.