gms | German Medical Science

26. Jahrestagung der Deutschen Gesellschaft für Audiologie

Deutsche Gesellschaft für Audiologie e. V.

06.03. - 08.03.2024, Aalen

Entwicklung eines multisensorischen Kommunikationsimplantats basierend auf Künstlicher Intelligenz und EEG-Markern

Meeting Abstract

  • presenting/speaker Adrian Kossmann - Carl Gustav Carus Universitätsklinikum, Sächsisches Cochlear Implant Centrum, Dresden, Deutschland
  • Constantin Jehn - FAU Erlangen, Department Artificial Intelligence in Biomedical Engineering, Erlangen, Deutschland
  • Tobias Reichenbach - FAU Erlangen, Department Artificial Intelligence in Biomedical Engineering, Erlangen, Deutschland
  • Anja Hahne - Carl Gustav Carus Universitätsklinikum, Sächsisches Cochlear Implant Centrum, Dresden, Deutschland
  • Niki Katerina Vavatzanidis - Carl Gustav Carus Universitätsklinikum, Sächsisches Cochlear Implant Centrum, Dresden, Deutschland

Deutsche Gesellschaft für Audiologie e.V.. 26. Jahrestagung der Deutschen Gesellschaft für Audiologie. Aalen, 06.-08.03.2024. Düsseldorf: German Medical Science GMS Publishing House; 2024. Doc163

doi: 10.3205/24dga163, urn:nbn:de:0183-24dga1638

Published: March 5, 2024

© 2024 Kossmann et al.
This is an Open Access article distributed under the terms of the Creative Commons Attribution 4.0 License. See license information at http://creativecommons.org/licenses/by/4.0/.


Outline

Text

Fragestellung: Die Zahl von Hörsystemnutzer wächst stetig, jedoch ist die Qualität der Systeme in Störgeräuschsituationen bisher mit deutlichen Einschränkungen verbunden. In Sachsen beschäftigt sich der BMBF-geförderte Zukunftscluster „SEMECO“ mit dem Thema Mikroelektronik in der Medizin. Ein Teilprojekt der TU Dresden widmet sich u.a. dem besseren Verstehen in Multisprechersituationen. Ziel ist es, einen Prototyp für ein multisensorisches Kommunikationsimplantat zu schaffen, welches mit Hilfe von Neurofeedback eine individuelle Anpassung der Hörsysteme an Umgebungsbedingungen und kognitive Veränderungen ermöglichen und so Hörverluste bestmöglich kompensieren soll. Die wissenschaftliche Herausforderung besteht insbesondere in der Schaffung eines EEG-basierten Neurofeedbacks, welches eine KI, sowie akustische und elektrische Stimulationseinheiten kombiniert.

Methoden: Ein Fokus des Projektes liegt auf der Entwicklung eines KI-basierten Algorithmus zum Auditory Attention Decoding (AAD), der die Audiosignalverarbeitung zur Störgeräuschunterdrückung in Hörsystemen informiert. Zur Optimierung dieses Algorithmus werden die Daten von unimodalen bilateralen CI- und Hörgeräte-Träger einbezogen, deren Hirnströme mit Hilfe von EEG in einem Single-Speaker, sowie Competing-Speaker Paradigma am Sächsischen Cochlear Implant Centrum in Dresden erhoben werden. Den Probanden werden Abschnitte aus zwei Hörbüchern präsentiert, die jeweils von einem männlichen und weiblichen Sprecher gesprochen werden und im Freifeld räumlich getrennt abgespielt werden. Die Probanden werden dazu instruiert, ihre Aufmerksamkeit auf jeweils einen Sprecher zu richten und sollen am Ende jedes Hörbuchabschnitts zwei Single-Choice-Fragen zum jeweiligen Hörbuchabschnitt beantworten. Um sicherzustellen, dass die Aufmerksamkeitsausrichtung auch bei einer hörbeeinträchtigten Probandengruppe funktioniert, wurde besondere Sorgfalt auf die Auswahl des Stimulusmaterials gelegt, indem die typischen Hör- und Sprachverständnisfähigkeiten von Hörbeeinträchtigten in die Abstimmung des Stimulusmaterials einbezogen wurden. Diese umfassende Berücksichtigung der spezifischen Bedürfnisse der Probandengruppe gewährleistet die Datenqualität und bildet somit eine solide Grundlage für die Entwicklung des AAD-Algorithmus und eines Demonstrators, mit dem Sensorik, Datenverarbeitung und intelligente Hardware erprobt werden.

Ergebnisse: Eine erste Erhebungsphase mit 15 bilateral versorgten CI-Trägern ist abgeschlossen und erste Entwürfe eines KI-basierten Algorithmus zur Dekodierung der selektiven auditiven Aufmerksamkeit weisen bereits eine gute Dekodiergüte auf, die jedoch weiter optimiert werden muss. Auf Grundlage der erhobenen Daten und des entwickelten Algorithmus soll ein Demonstrator als Proof-of-Concept entwickelt werden.

Schlussfolgerungen: Das Projekt trägt zur Entwicklung eines Prototyps für ein multisensorisches Kommunikationsimplantat bei, das so bisher nicht am Markt vorhanden ist.