Chiunque viva con un cane avrà sognato almeno un volta di entrare nella mente del proprio compagno canino per capire cosa pensa e come vede il mondo che ci circonda. E in un certo senso è proprio quello che hanno fatto un gruppo di ricercatori della Emory University, che grazie all'intelligenza artificiale sono riusciti a fornire delle prime prove su come la mente canina ricostruisce ciò che vede, decodificando l'elaborazione visiva che avviene nel cervello di due cani.
Grazie a sofisticate e moderne tecniche di machine learning e imaging a risonanza magnetica, gli scienziati hanno scoperto una netta differenza tra la percezione visiva dei cani e quella degli umani: quando osserva il mondo, il miglior amico dell'uomo si concentra maggiormente sulle azioni, invece che su chi o cosa le sta compiendo. I risultati dello studio sono stati pubblicati sul Journal of Visual Experiment.
Per scoprire cosa accade nel cervello di un cane quando osserva il mondo, gli scienziati hanno addestrato Daisy (11 anni, Boston Terrier) e Bhubo (4 anni, Boxer) a stare comodamente seduti e senza alcun tipo di costrizione, all'interno di una macchina per la risonanza magnetica. Durante le sessioni di test, ai due cani sono stati mostrati alcuni filmati realizzati appositamente dal loro punto di vista. Tra questi c'erano per esempio umani che interagivano in casa o che lanciavano giocattoli, persone e cani che passeggiavano al parco, veicoli che attraversava la strada e tanti altri.
A Daisy e Bhubo sono stati mostrati i video in tre sessioni di 30 minuti ciascuna, per un totale di 90 minuti di proiezione. I ricercatori hanno quindi registrato ed elaborato l'attività cerebrale dei due cani grazie a un algoritmo ad apprendimento automatico, una rete neurale chiamata IVIS, che riesce a combinare la tomografia ottica 2D e 3D per mappare l'attività cerebrale combinandola a ciò che stanno osservando: oggetti (cani, esseri umani, veicoli o altri animali) oppure azioni (annusare, mangiare o giocare). Per poter fare poi un confronto col cervello umano, anche due esseri umani hanno partecipato al test osservando gli stessi filmati.
L'intelligenza artificiale IVIS è stata in grado di elaborare e mappare i dati del cervello umano con un’accuratezza del 99%, sia per la classificazione degli oggetti che delle azioni. Mentre per i due cani è stata un po' più imprecisa: non ha raggiunto buoni risultati nella classificazione degli oggetti, tuttavia, per le azioni, ha mappato l’attività visiva e quella cerebrale con un’accuratezza compresa tra il 75 e l'88%.
Dai risultati di questo studio preliminare, è emerso quindi che gli esseri umani sono molto più interessati agli oggetti che osservano, mentre i cani sembrano essere meno interessati a chi o cosa stanno osservando e più incuriositi alle azioni. Le priorità dei cani sono quindi soprattutto capire cosa sta accadendo intorno a loro e tutto ciò evidenzia ancora una volta le enormi differenze nelle modo in cui nel modo in cui osservano il mondo rispetto gli esseri umani, così come accade per la percezione di luci e colori.
Questo studio, seppure preliminare e condotto su appena due cani, fornirà nuovi indizi e metodologie di ricerca ai fini degli studi cognitivi sugli animali e potrà potenzialmente essere applicato anche ad altre specie per capire come queste osservano il mondo, permettendo così di "guardare" anche attraverso gli occhi degli altri animali.