Connect with us

Notizie

Perché l’IA non riesce a riprodurre la visione umana

Perché l’IA non riesce a riprodurre la visione umana

Torino: Mentre i computer possono essere in grado di individuare un volto familiare o un veicolo in arrivo più velocemente del cervello umano, la loro accuratezza è discutibile.

Ai computer può essere insegnato a elaborare i dati in arrivo, come osservare volti e automobili, utilizzando l’intelligenza artificiale (AI) nota come reti neurali profonde o deep learning. Questo tipo di processo di apprendimento automatico utilizza nodi o neuroni interconnessi in una struttura a strati che ricorda il cervello umano.

La parola chiave è “somiglia” poiché i computer, nonostante il potere e la promessa del deep learning, devono ancora padroneggiare i calcoli umani e, soprattutto, la comunicazione e la connessione che si trovano tra il corpo e il cervello, in particolare quando si tratta di riconoscimento visivo, secondo uno studio condotto da Marieke Mur, esperta di neuroimaging presso la Western University in Canada.

“Sebbene promettenti, le reti neurali profonde sono ben lungi dall’essere modelli computazionali perfetti della visione umana”, ha affermato Mur.

Precedenti studi hanno dimostrato che il deep learning non può riprodurre perfettamente il riconoscimento visivo umano, ma pochi hanno tentato di stabilire quali aspetti del deep learning della visione umana non riesce a emulare.

Il team ha utilizzato un test medico non invasivo chiamato magnetoencefalografia (MEG) che misura i campi magnetici prodotti dalle correnti elettriche di un cervello. Utilizzando i dati MEG acquisiti da osservatori umani durante l’osservazione degli oggetti, Mur e il suo team hanno rilevato un punto chiave di errore.

Hanno scoperto che parti facilmente nominabili di oggetti, come “occhio”, “ruota” e “faccia”, possono spiegare la varianza nelle dinamiche neurali umane oltre a ciò che l’apprendimento profondo può fornire.

“Questi risultati suggeriscono che le reti neurali profonde e gli esseri umani possono in parte fare affidamento su diverse caratteristiche degli oggetti per il riconoscimento visivo e fornire linee guida per il miglioramento del modello”, ha affermato Mur.

Lo studio mostra che le reti neurali profonde non possono tenere pienamente conto delle risposte neurali misurate negli osservatori umani mentre gli individui visualizzano foto di oggetti, inclusi volti e animali, e ha importanti implicazioni per l’uso di modelli di apprendimento profondo in contesti del mondo reale, come l’auto-apprendimento. veicoli alla guida.

“Questa scoperta fornisce indizi su ciò che le reti neurali non riescono a comprendere nelle immagini, vale a dire le caratteristiche visive che sono indicative di categorie di oggetti ecologicamente rilevanti come volti e animali”, ha affermato Mur.

“Suggeriamo che le reti neurali possano essere migliorate come modelli del cervello dando loro un’esperienza di apprendimento più simile a quella umana, come un regime di allenamento che enfatizzi maggiormente le pressioni comportamentali a cui gli esseri umani sono sottoposti durante lo sviluppo”.

Ad esempio, è importante per gli esseri umani identificare rapidamente se un oggetto è un animale in avvicinamento o meno e, in tal caso, prevedere la sua successiva mossa consequenziale. L’integrazione di queste pressioni durante la formazione può giovare alla capacità degli approcci di apprendimento profondo di modellare la visione umana.

Il lavoro è pubblicato su The Journal of Neuroscience.