gms | German Medical Science

24. Jahrestagung der Deutschen Gesellschaft für Audiologie

Deutsche Gesellschaft für Audiologie e. V.

14.09. - 17.09.2022, Erfurt

Automatische Klassifizierung von intracochleären Elektrocochleographie-Aufnahmen

Meeting Abstract

  • presenting/speaker Klaus Schuerch - Universität Bern, Inselspital, Bern, CH
  • Wilhelm Wimmer - Universität Bern, Bern, CH
  • Adrian Dalbert - Universitätsspital Zürich, Universität Zürich, Zürich, CH
  • Christian Rummel - Universität Bern, Inselspital, Bern, CH
  • Marco Caversaccio - Universität Bern, Inselspital, Bern, CH
  • Georgios Mantokoudis - Universität Bern, Inselspital, Bern, CH
  • Stefan Weder - Universität Bern, Inselspital, Bern, CH

Deutsche Gesellschaft für Audiologie e.V.. 24. Jahrestagung der Deutschen Gesellschaft für Audiologie. Erfurt, 14.-17.09.2022. Düsseldorf: German Medical Science GMS Publishing House; 2022. Doc097

doi: 10.3205/22dga097, urn:nbn:de:0183-22dga0973

Veröffentlicht: 12. September 2022

© 2022 Schuerch et al.
Dieser Artikel ist ein Open-Access-Artikel und steht unter den Lizenzbedingungen der Creative Commons Attribution 4.0 License (Namensnennung). Lizenz-Angaben siehe http://creativecommons.org/licenses/by/4.0/.


Gliederung

Text

Einleitung: Die Elektrocochleographie (ECochG) misst Innenohrpotenziale als Reaktion auf akustische Stimulation. Bei Cochlea-Implantat (CI)-Patienten wird diese Technik zunehmend zur Überwachung der Restfunktion des Innenohrs eingesetzt. Bislang war die visuelle Beurteilung der ECochG-Potenziale der Goldstandard bei der Analyse. Die visuelle Beurteilung der Signale erfordert jedoch ein hohes Maß an Erfahrung. Außerdem führt die von Experten abhängige Beurteilung zu Inkonsistenz und mangelnder Reproduzierbarkeit. Ziel dieser Studie war es, die Analyse von Cochlear Microphonic (CM) Signalen in ECochG-Aufzeichnungen zu automatisieren und zu objektivieren.

Methoden: Prospektive Kohortenstudie mit 41 implantierten Ohren mit Resthörvermögen. Wir haben ECochG-Potenziale an vier verschiedenen Elektroden gemessen, wobei die Elektrodenposition stabil war (nach vollständiger Insertion oder postoperativ). Bei der akustischen Stimulation mit Puretones verwendeten wir je nach individuellem Resthörvermögen drei verschiedene Intensitätsstufen (d. h. supra-, nah- und subschwellige Stimulation; 250 Hz - 2000 Hz). Unser Ziel war es, ECochG-Potentiale mit unterschiedlichen signal-to-noise-ration (SNR) zu erhalten. Um die Erkennung von CM-Signalen zu objektivieren, verglichen wir drei verschiedene Methoden: Korrelationsanalyse, Hotelling's T2-Test und Deep Learning. Wir haben diese Methoden mit der visuellen Analyse von drei ECochG-Experten verglichen.

Ergebnisse: Bei der visuellen Analyse der ECochG-Aufzeichnungen zeigte das Fleiß Kappa der drei Experten eine erhebliche bis nahezu perfekte Übereinstimmung. Die Daten aus der visuellen Evaluation verwendeten wir als Goldstandard, um unsere Objektivierungsmethoden zu trainieren. Dabei schnitt der Deep Learning-Algorithmus am besten ab (AUC = 0,97, Genauigkeit = 0,92), dicht gefolgt vom Hotelling's T2-Test. Die Korrelationsmethode schnitt aufgrund ihrer Anfälligkeit etwas schlechter ab.

Schlussfolgerungen: Die Objektivierung von ECochG-Signalen ist mit den vorgestellten Methoden möglich. Deep Learning und Hotelling's T2-Methoden erreichten eine hervorragende Diskriminierungsfähigkeit. Die objektive automatische Analyse von CM-Signalen ermöglicht eine standardisierte, schnelle, genaue und untersucherunabhängige Auswertung von ECochG-Signalen.