Skip til primært indhold

Automatisk audiogramklassificering

Automatisk klassificering af audiogrammer ved hjælp af en AI-algoritme.

Projektperiode

Start: 2020
Slut: 2024

Mål

Projektet sigter mod at bruge AI til at genkende audiogrammønstre. Målet er at genkende mindst 8 til 10 af de mest almindelige audiogramundertyper. Audiogramundertyperne repræsenterer forskellige underliggende patologier, som er klinisk relevante for at bestemme yderligere undersøgelser og behandling af patienter. En automatisk audiogramklassificering er tidsbesparende og sikrer ensartethed i bestemmelsen af ​​audiogramundertyper.

Resultaterne og de udviklede metoder i dette projekt ved hjælp af AI har potentiale til at blive brugt i projektet "User-operated Audiometry (UAud)", hvor patienter kan måle deres egne høretærskler uden professionel assistance. UAud vil kunne drage fordel af en AI-algoritme for at hjælpe med at diagnosticere audiogrammer og forskellige typer høretab.

Projektet bygger på data indsamlet i projektet: "Høretab og demens: På vej mod en bedre forståelse af de bagvedliggende mekanismer".

Partnere

Ekstern finansiering

Selve projektet har endnu ikke modtaget konkrete midler, men samarbejdsprojekterne ”Høretab og demens: På vej mod en bedre forståelse af de bagvedliggende mekanismer” har modtaget støtte fra William Demant Fonden og UAud er finansieret af Innovationsfonden, William Demant Fonden såvel som samarbejdspartnere herunder Demant (Interacoustics og Oticon), SDU og OUH.

Jesper Hvass Schmidt

Jesper Hvass Schmidt

Overlæge, ph.d.

Odense Universitetshospital, Øre-Næse-Hals/Høreklinik


3055 9991
APPFWU01V