Article
Entwicklung eines multisensorischen Kommunikationsimplantats basierend auf Künstlicher Intelligenz und EEG-Markern
Search Medline for
Authors
Published: | March 5, 2024 |
---|
Outline
Text
Fragestellung: Die Zahl von Hörsystemnutzer wächst stetig, jedoch ist die Qualität der Systeme in Störgeräuschsituationen bisher mit deutlichen Einschränkungen verbunden. In Sachsen beschäftigt sich der BMBF-geförderte Zukunftscluster „SEMECO“ mit dem Thema Mikroelektronik in der Medizin. Ein Teilprojekt der TU Dresden widmet sich u.a. dem besseren Verstehen in Multisprechersituationen. Ziel ist es, einen Prototyp für ein multisensorisches Kommunikationsimplantat zu schaffen, welches mit Hilfe von Neurofeedback eine individuelle Anpassung der Hörsysteme an Umgebungsbedingungen und kognitive Veränderungen ermöglichen und so Hörverluste bestmöglich kompensieren soll. Die wissenschaftliche Herausforderung besteht insbesondere in der Schaffung eines EEG-basierten Neurofeedbacks, welches eine KI, sowie akustische und elektrische Stimulationseinheiten kombiniert.
Methoden: Ein Fokus des Projektes liegt auf der Entwicklung eines KI-basierten Algorithmus zum Auditory Attention Decoding (AAD), der die Audiosignalverarbeitung zur Störgeräuschunterdrückung in Hörsystemen informiert. Zur Optimierung dieses Algorithmus werden die Daten von unimodalen bilateralen CI- und Hörgeräte-Träger einbezogen, deren Hirnströme mit Hilfe von EEG in einem Single-Speaker, sowie Competing-Speaker Paradigma am Sächsischen Cochlear Implant Centrum in Dresden erhoben werden. Den Probanden werden Abschnitte aus zwei Hörbüchern präsentiert, die jeweils von einem männlichen und weiblichen Sprecher gesprochen werden und im Freifeld räumlich getrennt abgespielt werden. Die Probanden werden dazu instruiert, ihre Aufmerksamkeit auf jeweils einen Sprecher zu richten und sollen am Ende jedes Hörbuchabschnitts zwei Single-Choice-Fragen zum jeweiligen Hörbuchabschnitt beantworten. Um sicherzustellen, dass die Aufmerksamkeitsausrichtung auch bei einer hörbeeinträchtigten Probandengruppe funktioniert, wurde besondere Sorgfalt auf die Auswahl des Stimulusmaterials gelegt, indem die typischen Hör- und Sprachverständnisfähigkeiten von Hörbeeinträchtigten in die Abstimmung des Stimulusmaterials einbezogen wurden. Diese umfassende Berücksichtigung der spezifischen Bedürfnisse der Probandengruppe gewährleistet die Datenqualität und bildet somit eine solide Grundlage für die Entwicklung des AAD-Algorithmus und eines Demonstrators, mit dem Sensorik, Datenverarbeitung und intelligente Hardware erprobt werden.
Ergebnisse: Eine erste Erhebungsphase mit 15 bilateral versorgten CI-Trägern ist abgeschlossen und erste Entwürfe eines KI-basierten Algorithmus zur Dekodierung der selektiven auditiven Aufmerksamkeit weisen bereits eine gute Dekodiergüte auf, die jedoch weiter optimiert werden muss. Auf Grundlage der erhobenen Daten und des entwickelten Algorithmus soll ein Demonstrator als Proof-of-Concept entwickelt werden.
Schlussfolgerungen: Das Projekt trägt zur Entwicklung eines Prototyps für ein multisensorisches Kommunikationsimplantat bei, das so bisher nicht am Markt vorhanden ist.