Il Deep Learning è una sottocategoria del machine learning che si basa sulla struttura del cervello umano. Questo campo ha sperimentato uno sviluppo significativo, e l’uso delle reti neurali rappresenta lo stato dell’arte in molte applicazioni. Alcuni ambiti interessanti includono il design di microchip, l’interpretazione di immagini mediche e la predizione della struttura delle proteine. Tuttavia, le applicazioni si estendono anche ad altri contesti, come le macchine in grado di battere gli esseri umani in giochi complessi come gli scacchi. Nonostante i risultati promettenti, uno studio recente condotto da ricercatori dell’Università di Cambridge e dell’Università di Oslo ha dimostrato che l’intelligenza artificiale, che include le reti neurali, presenta un limite spiegabile attraverso un paradosso matematico. Le reti neurali funzionano sfruttando elementi simili ai neuroni, ai quali vengono forniti dati da elaborare per risolvere problemi o compiere task. La rete passa attraverso iterazioni successive per migliorare i collegamenti e trovare il pattern più adatto alla funzione e questo processo è simile a quello dell’apprendimento umano.

Il problema principale legato alle reti neurali riguarda la loro instabilità. È stato dimostrato che anche una minima modifica negli input può causare cambiamenti significativi negli output del sistema. Ad esempio, un singolo pixel modificato in un’immagine può far cambiare l’interpretazione dell’immagine stessa da parte del sistema. In applicazioni mediche, anche una modifica impercettibile all’occhio umano può portare a diagnosi errate al 100% dei casi. Inoltre, i sistemi di AI non sono in grado di distinguere tra risultati plausibili e errori, rendendoli particolarmente pericolosi in analisi e task delicati. Inoltre, il funzionamento dell’AI si basa spesso su “scatole nere”, in cui conosciamo solo l’output senza ulteriori informazioni sulla confidenza o sui dubbi. I ricercatori hanno identificato l’origine di questo problema in un paradosso matematico introdotto da Kurt Godel e la sua versione informatica sviluppata da Alan Turing nel XX secolo. Questi teoremi di incompletezza dimostrano che è impossibile provare se alcune affermazioni matematiche sono vere o false, il che significa che alcuni problemi computazionali non possono essere risolti tramite algoritmi. Di conseguenza, i limiti intrinseci della matematica si riflettono anche nell’AI, rendendo impossibile garantire l’affidabilità delle reti neurali. Tuttavia, i ricercatori hanno rassicurato che non tutte le reti neurali sono “difettate” e intrinsecamente sbagliate, e ci sono aree in cui risultano affidabili. La sfida consiste nell’individuare queste aree e comprendere l’adeguatezza degli strumenti a nostra disposizione.

È stato spiegato che esistono reti neurali che potrebbero funzionare, ma mancano gli algoritmi per ottenerle. Inoltre, potrebbero esserci situazioni in cui non siamo a conoscenza dell’adeguatezza dei nostri strumenti fino a quando non otteniamo il risultato finale. L’obiettivo è combinare analisi numeriche, teorie dell’approssimazione e fondamenti computazionali per determinare quali reti neurali sono implementabili e come renderle stabili e affidabili. Questa nuova consapevolezza potrebbe portare a una serie di conoscenze simili a quelle fornite dai teoremi di Godel e Turing nell’ambito dell’AI. In conclusione, sebbene il deep learning e le reti neurali abbiano raggiunto risultati significativi, è emerso un limite legato alla loro instabilità. La presenza di un paradosso matematico impedisce di garantire l’affidabilità delle reti neurali in alcuni contesti. Tuttavia, i ricercatori sono determinati a superare questo ostacolo sviluppando nuovi metodi e strategie per costruire sistemi AI affidabili e trasparenti, partendo dai limiti attuali.

(Una peculiarità di questo articolo è l’immagine in evidenza, creata con intelligenza artificiale).

Ulteriori informazioni sull’articolo di ScienceCue.