
Come rendere i modelli di rischio più comprensibili
Quando occorre prendere decisioni in contesti ad alto rischio, che si tratti di pianificare una missione spaziale, di prepararsi a disastri naturali o di rispondere a una pandemia, gli esperti si affidano a complessi modelli computerizzati per prevedere rischi ed esiti. Questi modelli elaborano grandi quantità di dati e simulano diversi scenari, ma spesso funzionano come “scatole nere”: producono risultati senza chiarire come i diversi fattori influenzino tali risultati. Questa mancanza di trasparenza può essere un grave problema, soprattutto quando le decisioni riguardano vite umane, sicurezza e investimenti finanziari.
Emanuele Borgonovo e Antonio De Rosa del Dipartimento di Scienze delle Decisioni della Bocconi hanno cercato di affrontare questo problema. Il loro recente lavoro, “Direction of impact for explainable risk assessment modeling”, scritto con Manel Baucells (University of Virginia), Elmar Plischke (Institute of Resource Ecology, Helmholtz-Zentrum Dresden), John Barr e Herschel Rabitz (entrambi dell’Università di Princeton) si concentra su come migliorare il modo in cui i modelli di rischio vengono interpretati, rendendo più facile per i decisori capire quali fattori hanno il maggiore impatto su un risultato. Invece di prendere per buoni dei numeri generati da un modello, gli autori esplorano diversi strumenti grafici, cioè rappresentazioni visive che aiutano a vedere come le variabili di input (come la probabilità di un guasto tecnico in un veicolo spaziale o il tasso di trasmissione di un virus) influenzano la valutazione complessiva del rischio.
Lo studio esamina diversi metodi comunemente utilizzati per visualizzare queste relazioni, verificando se forniscono indicazioni chiare e affidabili. Alcune tecniche tradizionali, come i diagrammi a tornado, sono state ampiamente utilizzate nell’analisi del rischio per anni. Questi diagrammi mostrano quanto cambia un risultato quando ogni variabile si sposta tra i suoi valori massimi e minimi. Tuttavia, i ricercatori hanno scoperto che questi metodi possono essere fuorvianti quando si tratta di modelli più complessi, in cui più fattori interagiscono in modo imprevedibile.
Per trovare un approccio più affidabile, gli autori hanno fatto ricorso a metodi provenienti dal mondo dell’apprendimento automatico e dell’intelligenza artificiale. Uno degli strumenti più promettenti esaminati è la funzione di dipendenza parziale (Partial Dependence, PD), che rivela l’effetto medio di una particolare variabile sul risultato del modello. A differenza di strumenti più semplici, le funzioni PD rimangono affidabili anche quando si tratta di relazioni complesse tra variabili, rendendole particolarmente utili per la valutazione del rischio. Tuttavia, lo studio evidenzia anche situazioni in cui gli analisti dovrebbero essere cauti, ad esempio quando i modelli sono stati addestrati su dati limitati, il che può portare a estrapolazioni fuorvianti.
Per illustrare l’applicazione di queste idee, gli autori applicano i loro metodi a due casi di studio reali. Il primo riguarda i modelli di valutazione probabilistica della sicurezza della NASA, che aiutano a valutare i rischi associati alle missioni spaziali lunari. Utilizzando tecniche di visualizzazione avanzate, si è visto come i responsabili delle decisioni possano ottenere una visione più chiara dei fattori che comportano i rischi maggiori. La seconda applicazione esamina un modello epidemiologico della fase iniziale della pandemia COVID-19, analizzando come i diversi fattori abbiano influenzato la diffusione della malattia. In entrambi i casi si dimostra come il giusto approccio analitico possa rendere i modelli di rischio più trasparenti, aiutando gli esperti a prendere decisioni più informate.
I risultati di questa ricerca sono particolarmente rilevanti in un’epoca in cui l’apprendimento automatico e l’IA svolgono un ruolo sempre più importante nella valutazione dei rischi. Se da un lato queste tecnologie offrono nuovi strumenti di indubbia potenza, dall’altro introducono nuove sfide, soprattutto quando si tratta di rendere interpretabili le loro previsioni.