Riusciremo a capire cosa dicono gli animali? Grazie alle ultime tecnologie sviluppate per tradurre le lingue umane, l’obiettivo non sembra più così lontano. Karen Bakker, docente dell’Università della British Columbia, non ha dubbi: entro 20 anni potremo dialogare con le specie diverse dalla nostra; se la svolta è dietro l’angolo, lo si deve ai progressi compiuti dall’intelligenza artificiale.
“Non possediamo ancora un dizionario del capodoglio, ma ora abbiamo gli ingredienti per crearne uno”, ha affermato la ricercatrice nel suo libro “The Sounds of Life”. Lo strumento che immaginano gli scienziati sarebbe una sorta di “Google translate per lo zoo”. Oggi microfoni e sensori sono diventati economici, resistenti e di lunga durata: vengono attaccati agli alberi in Amazzonia, alle rocce nell’Artico o alla schiena dei delfini, consentendo un monitoraggio in tempo reale. Questo flusso di dati bioacustici viene poi elaborato da algoritmi di apprendimento automatico, che possono rilevare modelli nei suoni naturali infrasonici (a bassa frequenza) o ultrasonici (ad alta frequenza), non udibili dall’orecchio umano. Questi dati hanno senso solo se combinati con le osservazioni umane sui comportamenti naturali ottenute grazie al minuzioso lavoro sul campo dei biologi. Microfoni onnipresenti e modelli di apprendimento automatico ci permettono di sviluppare studi inediti: l’orecchio umano non coglie gli ultrasuoni emessi da pipistrelli e delfini e nemmeno gli infrasuoni di elefanti e balene; ora invece sarà possibile rilevarli e l’enorme quantità di dati raccolti saranno confrontati dai programmi di intelligenza artificiale, per riconoscere schemi e regolarità. “L’acustica è la nuova ottica”, sostiene Karen Bakker, con un riferimento alla rivoluzione scientifica avviata dal microscopio. La Natura ci parla, e tra non molto potremo origliare uno stupefacente paesaggio sonoro di “conversazioni” planetarie tra pipistrelli, balene, api da miele, elefanti, piante e barriere coralline. Qualche esempio? Il Progetto Ceti (Cetacean Translation Initiative) coordinato da Michael Bronstein dell’Imperial College di Londra, che ha raccolto oltre 26mila audio dei capodogli; le vocalizzazioni dei pipistrelli della frutta invece sono stati selezionati dal neuroscenziato Yossi Yovel: li ha ascoltati litigare per il cibo, usare versi distinti per comunicare tra i due sessi e con i cuccioli; i progressi più significativi sono stati raggiunti con gli elefanti: oggi ai suoni emessi da questi animali sono associati almeno 322 comportamenti differenti; in maniera simile gli studi sulle api: comunicano tra loro attraverso le vibrazioni dell’addome, in particolare sappiamo che si scambiano indicazioni sulle posizioni dei fiori da visitare.