Logo d'ateneo Unibo Magazine

Alla ricerca dei fondamenti dell’intelligenza artificiale

Al Dipartimento di Matematica dell’Università di Bologna sono stati finanziati tre progetti di ricerca PRIN che, partendo da punti di vista differenti, andranno ad esplorare i meccanismi dell’apprendimento automatico dal punto di vista delle scienze dure


Quali sono le basi teoriche su cui si fondano i moderni sistemi di intelligenza artificiale? È possibile definire i limiti – teorici e algoritmici – delle reti neurali? Qual è la strada per arrivare a una "AI spiegabile"? E quali sono i problemi su cui sarà possibile mettere alla prova le potenzialità del machine learning quantistico?

Sono le complesse e fondamentali domande su cui lavoreranno tre nuovi progetti di ricerca finanziati dall’ultimo bando PRIN (Progetti di Rilevante Interesse Nazionale) del Ministero dell'Università e della Ricerca, tutti assegnati al Dipartimento di Matematica dell’Università di Bologna, a tre professori dello stesso settore scientifico disciplinare: la Fisica-Matematica. Tre sfide diverse, ma correlate tra loro dalla volontà di esplorare i fondamenti dell’intelligenza artificiale dal punto di vista delle scienze dure.

"Nonostante gli spettacolari successi dell'intelligenza artificiale, le basi teoriche dell'apprendimento automatico rimangono in gran parte sconosciute e al di fuori di un rigoroso approccio scientifico", dice il professor Pierluigi Contucci, che guiderà uno dei tre progetti finanziati. "In questo senso, arrivare a definire una teoria dell'apprendimento automatico potrebbe avere lo stesso impatto che ebbe la termodinamica per la rivoluzione industriale: in quel caso, rese possibile l'ottimizzazione delle prestazioni dei motori a vapore, nel nostro caso potrebbe farci fare enormi passi avanti nell’utilizzo dell’intelligenza artificiale".

Infatti, riuscire ad afferrare i meccanismi dell'apprendimento automatico porterebbe innanzitutto a ridurre fortemente il consumo energetico dei sistemi di intelligenza artificiale: un obiettivo fondamentale, considerato che entro il 2050 l'energia richiesta dal machine learning supererà la metà dell'energia totale disponibile a livello globale. Oltre a questo, poi, potrebbe portare a notevoli avanzamenti nel campo della medicina diagnostica e in generale in tutti i sistemi che necessitano di integrare metodi simbolici (IA classica) con l'apprendimento automatico.

"La crescente disponibilità di dati ha segnato la direzione del recente progresso tecnologico, ma ci sono ancora enormi lacune nella nostra comprensione teorica dei moderni sistemi automatici di apprendimento basati sulle reti neurali profonde, tanto che la messa a punto di questi sistemi è percepita molte volte come più vicina ad una pratica di alchimia che ad una procedura scientifica", aggiunge il professor Daniele Tantari, che guiderà un altro progetto sul tema. "Una comprensione più profonda e rigorosa dei moderni sistemi di apprendimento è quindi sempre più necessaria, soprattutto per favorire lo sviluppo di una nuova generazione di macchine in grado di acquisire abilità con un numero minore di dati, con una capacità di astrazione più forte e quindi con un’intelligenza più vicina a quella biologica e umana".

L'obiettivo diventa quindi determinare i limiti teorici e i limiti algoritmici dell'apprendimento automatico, proponendo anche nuovi approcci di apprendimento ispirati all'intelligenza biologica e umana: nuove tipologie di architetture, nuove dinamiche di apprendimento e di conseguenza nuovi algoritmi, che siano meno task-specifici, più efficienti e più parsimoniosi con i dati.

Oltre a tutto questo, c’è poi l’orizzonte dei computer quantistici: un nuovo paradigma per la computazione basato sulle leggi della meccanica quantistica, che promette di ottenere accelerazioni esponenziali in diversi problemi computazionali di fondamentale importanza. Per realizzare concretamente questa potenzialità è però necessario determinare quali problemi, oggi inaccessibili per i computer classici, possono essere invece risolti con i computer quantistici.

"La famiglia più promettente di algoritmi che potranno essere implementati sui computer quantistici di prossima realizzazione sono le reti neurali quantistiche; nonostante le promesse, però, per nessun problema di rilevanza pratica si è ancora riusciti a dimostrare che le reti neurali quantistiche riescono a battere le reti neurali classiche", spiega il professor Giacomo De Palma, titolare del terzo progetto PRIN finanziato al Dipartimento di Matematica dell'Alma Mater. "La ragione è che il funzionamento delle reti neurali quantistiche non è ancora pienamente compreso e manca delle rigorose fondamenta matematiche che una tale dimostrazione richiederebbe: ottenere una comprensione matematica rigorosa del funzionamento delle reti neurali quantistiche e comprendere le loro potenzialità costituisce quindi il problema teorico principale del machine learning quantistico".

Con un approccio interdisciplinare che collega il machine learning quantistico con la teoria della probabilità e con la fisica quantistica dei sistemi a molti corpi, l’obiettivo è allora determinare quali reti neurali quantistiche hanno maggiori potenzialità, realizzando anche una dimostrazione di principio dei vantaggi rispetto alle reti neurali classiche sui computer quantistici attualmente disponibili.