Il ripristino delle foreste tropicali è di vitale importanza per mitigare le crisi legate al cambiamento climatico e alla perdita di biodiversità. Spesso però, valutare i livelli di biodiversità in una determinata area può risultare estremamente complesso, poiché molte specie non sono facilmente identificabili o distinguibili tra loro. L'intelligenza artificiale potrebbe tuttavia rappresentare una soluzione promettente a questo problema. In uno studio recente un gruppo di ricercatori ha infatti sfruttato la bioacustica per distinguere le varie specie presenti in un importante punto per la biodiversità globale situato in Ecuador. I risultati della ricerca sono stati pubblicati sulla rivista Nature Communications.
Prima di descrivere in cosa consiste lo studio, è bene comprendere a pieno cosa si intende per bioacustica. Si tratta di una disciplina che si occupa dello studio dei suoni prodotti dagli organismi viventi, in particolare animali, al fine di comprenderne meglio il comportamento, la comunicazione e l'ecologia di tali organismi e raccogliere informazioni sul loro ambiente, le interazioni sociali e altre caratteristiche. I ricercatori hanno quindi ben pensato di sfruttare questa disciplina per poter riconoscere e differenziare tra loro le vocalizzazioni emesse dagli animali in un determinato luogo. Ma in che modo?
Inizialmente, sono state effettuate registrazioni audio degli animali in vari luoghi nella regione del Choco in Ecuador, che spaziavano da piantagioni di cacao e aree recentemente abbandonate, passando per terreni agricoli in fase di recupero e foreste secolari. In seguito, un gruppo di esperti è stato incaricato di identificare i suoni emessi da anfibi, uccelli e mammiferi in queste registrazioni. Successivamente, è stata quindi condotta un'analisi che ha permesso di valutare la biodiversità basandosi su indicatori sonori generali, come l'intensità e la frequenza dei rumori. Infine, è stata effettuata una raccolta di dati di due settimane tramite un software assistito dall'intelligenza artificiale precedentemente addestrato a riconoscere 75 tipi di richiami emessi dagli uccelli.
Il team è così riuscito con precisione a identificare le diverse specie presenti nelle aree selezionate. Tuttavia, per avere la certezza che il software avesse valutato correttamente la biodiversità relativa di ciascun luogo, sono state utilizzate due linee guida di riferimento. La prima è stata fornita dagli esperti che hanno analizzato le registrazioni audio, mentre la seconda si basava su campioni di insetti provenienti da ciascuna località, che offriva un indicatore della biodiversità dei diversi luoghi. Ebbene, dai risultati è emerso che l'intelligenza artificiale è in grado di valutare con precisione i livelli di biodiversità in ciascuna area, dimostrando che può essere una forte alleata per monitorare il recupero delle comunità faunistiche nella foresta tropicale con alti livelli di biodiversità.
Naturalmente, come in ogni strumento, anche in questo caso vi sono alcune limitazioni da tenere in considerazione. Attualmente, il numero di suoni di animali disponibili per addestrare modelli di intelligenza artificiale è piuttosto limitato. Inoltre, è importante notare che questo approccio funziona solo per le specie che comunicano o rivelano la loro presenza attraverso suoni o vocalizzazioni. Purtroppo, non copre le specie silenziose. «Naturalmente non ci sono informazioni su piante o animali silenziosi. Tuttavia, gli uccelli e gli anfibi sono molto sensibili all'integrità ecologica, e rappresentano un valido indicatore», sottolinea, Jörg Müller, professore e ornitologo del Biocentro dell'Università di Würzburg.
Nonostante ciò, la tecnologia continua a evolversi, e ci sono opportunità per migliorare ulteriormente l'efficacia di questa approccio. Ciò che è certo è che la bioacustica rappresenta uno strumento prezioso per condurre analisi come queste. Permette, infatti, di quantificare direttamente la biodiversità, anziché basarsi su misure indirette come la crescita degli alberi, fornendo dati di gran lunga più precisi e veritieri.