Unibo Magazine

Un risultato teorico di natura matematica, ispirato alla termodinamica statistica, ha permesso a un gruppo di studiosi dell’Università di Bologna e dell’INFN Roma Tre di migliorare in modo significativo l’efficienza e la robustezza delle reti neurali profonde, cuore dei moderni sistemi di intelligenza artificiale.

Il metodo – presentato su npj Artificial Intelligence – apre la strada a modelli più leggeri e sostenibili, capaci di ridurre la crescente voracità energetica dell’intelligenza artificiale. 

"Come accadde per i primi motori termici dell’Ottocento, anche le reti neurali profonde devono essere ottimizzate per operare al massimo rendimento", spiega Pierluigi Contucci, professore al Dipartimento di Matematica dell’Alma Mater e coautore dello studio. "In questo lavoro abbiamo portato un teorema matematico dentro la pratica dell’IA, per capire dove, nell’architettura, si disperde l’energia dell’apprendimento e come recuperarla".

Le reti neurali elaborano i dati attraverso una struttura a strati composta da nodi interconnessi: un modello computazionale che richiama l’organizzazione del cervello umano. Partendo da questa struttura, i ricercatori hanno applicato un formalismo matematico che permette di definire una “temperatura” locale della rete, identificando le regioni più calde – dove il flusso informativo è più instabile – e quelle più fredde, più ordinate e stabili.

La diagnosi matematica ha reso possibile una riallocazione ottimale dei nodi: dalle zone calde, dove l’informazione tende a disperdersi, verso quelle fredde. Una trasformazione architetturale semplice, ma guidata da principi teorici rigorosi, che ha aumentato la robustezza del modello senza sacrificarne l’accuratezza.

"Questa prospettiva matematica non solo consente di migliorare la stabilità dei modelli, ma apre la strada a una progettazione più razionale delle reti neurali", osserva Gianluca Manzan, assegnista di ricerca dell’Alma Mater e coautore dello studio. "L’ottimizzazione architetturale è cruciale per ridurre l’impatto energetico dell’AI, e la matematica offre strumenti potenti per guidare questa evoluzione".

Lo studio, intitolato “Architectural optimisation in deep neural networks. Tests of a theoretically inspired method”, è firmato da Pierluigi Contucci e Gianluca Manzan (Università di Bologna), insieme a Paolo Branchini e Sacha Cormenier (INFN Roma Tre).

  • Pierluigi Contucci

    Pierluigi Contucci

    Professore ordinario al Dipartimento di Matematica, si occupa di fisica matematica, meccanica statistica e applicazioni (apprendimento automatico, data science). Membro dell'Accademia delle Scienze dell'Istituto di Bologna, è tra i promotori della creazione di un Centro Europeo di Ricerca per l'Intelligenza Artificiale.

  • Gianluca Manzan

    Gianluca Manzan

    Assegnista di ricerca al Dipartimento di Matematica, si occupa di meccanica statistica e fisica matematica.