Unibo Magazine

Nel campo delle scienze sociali e del comportamento, le conclusioni degli studi scientifici possono variare drasticamente a seconda di chi conduce l’analisi e di come vengono interpretati i dati. A mostrarlo è un’indagine pubblicata su Nature che ha coinvolto 457 analisti indipendenti provenienti da istituzioni di tutto il mondo: al termine di 504 rianalisi di 100 studi precedentemente pubblicati, solo in un terzo dei casi sono emersi gli stessi risultati.

"Questa indagine non mette in discussione la credibilità delle ricerche precedenti, ma richiama l’attenzione sul fatto che ignorare la variabilità analitica può portare a una fiducia ingiustificata nelle conclusioni scientifiche", commenta Matteo M. Marini, assegnista di ricerca al Dipartimento di Scienze Economiche dell’Università di Bologna, che ha partecipato allo studio. "L’oggettività scientifica non sta nell’identificare un’unica analisi 'vera', ma nel rendere trasparente lo spazio delle alternative plausibili, sia nei rapporti di ricerca che nella comunicazione con la più ampia comunità scientifica".

Negli ultimi anni, la ricerca nel campo delle scienze sociali e del comportamento ha visto l'introduzione di diverse novità pensate per rendere il lavoro di analisi più trasparente, rigoroso e affidabile. Tra queste c'è ad esempio la "preregistrazione", che prevede una dichiarazione da parte dei ricercatori delle ipotesi e dei metodi previsti per lo studio prima che i dati vengano raccolti e analizzati. Un'ulteriore evoluzione è poi quella dei "registered reports": modelli di preregistrazione che prevedono diversi passaggi e numerose revisioni del protocollo di ricerca. Inoltre, sono sempre più diffusi gli studi di replicazione e i controlli di riproducibilità delle indagini: tutti strumenti pensati per ridurre il rischio di ottenere risultati casuali o distorti.

In questo contesto, però, un'altra importante questione ha ricevuto meno attenzione: in che misura i risultati degli studi dipendono dal modo specifico in cui i dati vengono analizzati? Nella pratica scientifica standard, un set di dati viene tipicamente analizzato da un singolo ricercatore o da un gruppo di ricerca. Da questo lavoro di analisi nasce poi una pubblicazione scientifica che presenta l'esito del particolare percorso analitico scelto. C’è poi anche il passaggio della “revisione tra pari” che, sebbene valuti l’accettabilità metodologica, di norma non mette in luce quali risultati avrebbero potuto emergere in presenza di scelte alternative.

“Il lavoro di analisi comporta numerose scelte: come pulire i dati, come definire le variabili, quali modelli statistici o software utilizzare, come interpretare i risultati”, spiega Marini. “Nel loro insieme, tutte queste scelte compongono una ‘variabilità analitica’ che può influenzare in modo sostanziale le conclusioni finali di uno studio”.

I principali elementi che compongono la variabilità analitica (Immagine: Nature 652, 135–142 - 2026)
I principali elementi che compongono la variabilità analitica (Immagine: Nature 652, 135–142 - 2026)

Per capire qual è il peso di questa “variabilità analitica” nel campo delle scienze sociali e del comportamento, gli studiosi hanno selezionato un campione di 100 studi scientifici realizzati tra il 2009 e il 2018 nei settori dell’economia e finanza, del management, del marketing e comportamento organizzativo, delle scienze politiche, della psicologia, della sociologia, della criminologia e della demografia. Per ogni studio, i dati originali sono stati rielaborati in modo indipendente da almeno cinque diversi analisti e gli esiti ottenuti sono stati confrontati con le conclusioni originali.

Sebbene la maggior parte delle rianalisi abbia supportato in generale le affermazioni principali degli studi originali, gli analisti sono giunti alle stesse conclusioni degli analisti originali nel 34% dei casi. Gli autori dello studio sottolineano che queste discrepanze non sono dovute a una mancanza di competenza: ricercatori esperti con solide basi statistiche hanno la stessa probabilità degli altri di arrivare a risultati divergenti. È emersa invece una differenza tra studi osservazionali e studi sperimentali: i primi si sono dimostrati meno robusti dei secondi. 

“Strutture di dati più complesse come quelle che emergono negli studi osservazionali consentono una maggiore flessibilità analitica e, di conseguenza, una maggiore incertezza”, conferma Marini. “Nel complesso, questi risultati mostrano l’importanza di utilizzare approcci multi-analista e 'multiverso', soprattutto quando si affrontano questioni di grande rilevanza scientifica e sociale: in questo modo è possibile mettere in evidenza quanto sono realmente solide, o fragili, le conclusioni scientifiche raggiunte”.

Lo studio è stato pubblicato su Nature con il titolo "Investigating the analytical robustness of the social and behavioural sciences" ed è disponibile al seguente link. Per l’Università di Bologna ha partecipato Matteo M. Marini, assegnista di ricerca al Dipartimento di Scienze Economiche.

  • Matteo M. Marini

    Matteo M. Marini

    Matteo M. Marini è assegnista di ricerca al Dipartimento di Scienze Economiche, dove è anche membro del Bologna Laboratory for Experiments in Social Science (BLESS) e del Bologna Environmental Economics Group (BEEG). È uno scienziato comportamentale che utilizza metodi sperimentali e meta-analitici per affrontare domande di ricerca relative al processo decisionale in ambito finanziario, all'economia pubblica e al funzionamento delle scienze comportamentali stesse.