Hearing loss is a debilitating condition that has a significant impact on people's overall health and quality of life. However, many individuals who could benefit from hearing aids do not use them, and difficulties listening in noisy environments are often identified as a major source of dissatisfaction. To maximize the benefit of daily use of hearing aids, it is essential that these devices can effectively manage sounds that impede communication. For this reason, both academia and industry have invested considerable resources in the development of increasingly sophisticated algorithms, often based on directional processing and noise reduction principles, with the aim of addressing the challenges presented by noisy environments. These algorithms, which are based on traditional signal processing, have represented a notable step forward in terms of listening quality and comfort. However, they have also demonstrated some limitations and restrictions of use in the context of improving verbal recognition in noisy situations. Over the past few years, Artificial Intelligence (AI) has made its way into the hearing aid industry, sparking significant research enthusiasm and already being integrated into some commercially available devices. Sophisticated Deep Learning algorithms, a branch of AI, have the potential ability to improve the sound quality and hearing experience for hearing aid users. These algorithms are able to identify and reduce background noise, allowing for clearer and more comfortable listening in noisy environments such as restaurants or crowded places. They can dynamically adapt to changes in the sound environment, improve sound performance and customize individual hearing preferences. However, some technical challenges such as power consumption and computational complexity need to be addressed. Overall, these advanced deep learning systems promise to make hearing aids more effective and versatile. This study examines recent scientific literature on the application of AI in hearing aids, with a focus on noise reduction and managing hearing in noisy environments. It assesses the technologies involved, the benefits, and the implications for hearing assistance. The paper begins by providing a conceptual foundation on artificial intelligence and hearing aids. Subsequently, it examines the digital processing of audio signals within hearing aids, with particular attention to noise reduction algorithms and the training of artificial neural networks for this purpose. In the end, it gathers insights and conclusions from scientific research, exploring the challenges and opportunities presented by AI to enhance hearing in noisy environments.
La perdita dell'udito rappresenta una condizione debilitante che ha un impatto significativo sulla salute complessiva e sulla qualità di vita delle persone. Tuttavia, molti individui che potrebbero trarre vantaggio dagli apparecchi acustici non ne fa uso, e spesso le difficoltà di ascolto in ambienti rumorosi sono identificate come una delle principali fonti di insoddisfazione. Per massimizzare il beneficio derivante dall'uso quotidiano degli apparecchi uditivi, è essenziale che tali dispositivi siano in grado di gestire in maniera efficace i suoni che ostacolano la comunicazione. Per questo motivo, sia l’ambito accademico che l'industria hanno investito considerevoli risorse nello sviluppo di algoritmi sempre più sofisticati, spesso basati su principi di elaborazione direzionale e riduzione del rumore, con lo scopo di affrontare le sfide presentate dagli ambienti rumorosi. Questi algoritmi, che si basano su un'elaborazione tradizionale del segnale, hanno rappresentato un notevole passo avanti in termini di qualità e comfort d'ascolto. Tuttavia, hanno anche dimostrato alcune limitazioni e restrizioni di utilizzo nel contesto del miglioramento del riconoscimento verbale in situazioni rumorose. Negli ultimi anni, l'Intelligenza Artificiale (IA) ha fatto ingresso nel settore delle protesi uditive, suscitando un fervente interesse nella ricerca e trovando già applicazione in alcuni dispositivi disponibili sul mercato. I sofisticati algoritmi di Deep Learning, una branca dell'IA, hanno la potenziale capacità di migliorare la qualità del suono e l'esperienza uditiva per gli utenti di protesi acustiche. Questi algoritmi sono in grado di identificare e ridurre il rumore di fondo, consentendo un ascolto più chiaro e confortevole in ambienti rumorosi come ristoranti o luoghi affollati. Possono adattarsi dinamicamente alle variazioni dell'ambiente sonoro, migliorare la resa sonora e personalizzare le preferenze uditive individuali. Tuttavia, occorre affrontare alcune sfide tecniche come il consumo energetico e la complessità computazionale. Nel complesso, questi avanzati sistemi di Deep Learning promettono di rendere le protesi acustiche più efficaci e versatili. Questo studio analizza la recente letteratura scientifica sull'applicazione dell'IA nell'audioprotesi, con un focus sulla riduzione del rumore e sulla gestione dell'ascolto in ambienti rumorosi. Esamina le tecnologie coinvolte, i vantaggi e le implicazioni per l'assistenza uditiva. L'elaborato inizia fornendo una base concettuale sull'Intelligenza Artificiale e sugli apparecchi acustici. Successivamente, esamina l’elaborazione digitale del segnale audio all'interno degli apparecchi acustici, con particolare attenzione agli algoritmi di riduzione del rumore e all'addestramento di reti neurali artificiali a tale scopo. Termina raccogliendo osservazioni e conclusioni emerse dalla ricerca scientifica, esplorando le sfide e le opportunità offerte dall'IA per migliorare l'ascolto in ambienti rumorosi.
Intelligenza artificiale: revisione della letteratura con studio legato al confronto fra strategie “tradizionali” di gestione dell’ascolto in ambienti rumorosi rispetto quelle d’apprendimento e modellamento del segnale acustico.
PEZZUTO, EDOARDO
2022/2023
Abstract
La perdita dell'udito rappresenta una condizione debilitante che ha un impatto significativo sulla salute complessiva e sulla qualità di vita delle persone. Tuttavia, molti individui che potrebbero trarre vantaggio dagli apparecchi acustici non ne fa uso, e spesso le difficoltà di ascolto in ambienti rumorosi sono identificate come una delle principali fonti di insoddisfazione. Per massimizzare il beneficio derivante dall'uso quotidiano degli apparecchi uditivi, è essenziale che tali dispositivi siano in grado di gestire in maniera efficace i suoni che ostacolano la comunicazione. Per questo motivo, sia l’ambito accademico che l'industria hanno investito considerevoli risorse nello sviluppo di algoritmi sempre più sofisticati, spesso basati su principi di elaborazione direzionale e riduzione del rumore, con lo scopo di affrontare le sfide presentate dagli ambienti rumorosi. Questi algoritmi, che si basano su un'elaborazione tradizionale del segnale, hanno rappresentato un notevole passo avanti in termini di qualità e comfort d'ascolto. Tuttavia, hanno anche dimostrato alcune limitazioni e restrizioni di utilizzo nel contesto del miglioramento del riconoscimento verbale in situazioni rumorose. Negli ultimi anni, l'Intelligenza Artificiale (IA) ha fatto ingresso nel settore delle protesi uditive, suscitando un fervente interesse nella ricerca e trovando già applicazione in alcuni dispositivi disponibili sul mercato. I sofisticati algoritmi di Deep Learning, una branca dell'IA, hanno la potenziale capacità di migliorare la qualità del suono e l'esperienza uditiva per gli utenti di protesi acustiche. Questi algoritmi sono in grado di identificare e ridurre il rumore di fondo, consentendo un ascolto più chiaro e confortevole in ambienti rumorosi come ristoranti o luoghi affollati. Possono adattarsi dinamicamente alle variazioni dell'ambiente sonoro, migliorare la resa sonora e personalizzare le preferenze uditive individuali. Tuttavia, occorre affrontare alcune sfide tecniche come il consumo energetico e la complessità computazionale. Nel complesso, questi avanzati sistemi di Deep Learning promettono di rendere le protesi acustiche più efficaci e versatili. Questo studio analizza la recente letteratura scientifica sull'applicazione dell'IA nell'audioprotesi, con un focus sulla riduzione del rumore e sulla gestione dell'ascolto in ambienti rumorosi. Esamina le tecnologie coinvolte, i vantaggi e le implicazioni per l'assistenza uditiva. L'elaborato inizia fornendo una base concettuale sull'Intelligenza Artificiale e sugli apparecchi acustici. Successivamente, esamina l’elaborazione digitale del segnale audio all'interno degli apparecchi acustici, con particolare attenzione agli algoritmi di riduzione del rumore e all'addestramento di reti neurali artificiali a tale scopo. Termina raccogliendo osservazioni e conclusioni emerse dalla ricerca scientifica, esplorando le sfide e le opportunità offerte dall'IA per migliorare l'ascolto in ambienti rumorosi.File | Dimensione | Formato | |
---|---|---|---|
EPezzuto 151760 Tesi.pdf
non disponibili
Dimensione
7.73 MB
Formato
Adobe PDF
|
7.73 MB | Adobe PDF |
I documenti in UNITESI sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.
https://hdl.handle.net/20.500.14240/5831