Un modello predittivo sviluppato per identificare scenari critici globali ha segnalato un evento ad alto rischio. Ma il warning non ha ricevuto l’attenzione dovuta.
Nel 2024 un team di ricercatori ha completato il training di un modello predittivo basato sull’analisi retroattiva degli errori sistemici umani del passato. Incidenti nucleari, crisi finanziarie, pandemie, blackout infrastrutturali: l’IA è stata addestrata per riconoscere le combinazioni di fattori che, in determinate condizioni, possono portare a decisioni sbagliate, sottovalutazioni o ritardi fatali. Il risultato ha stupito anche gli sviluppatori: il sistema ha segnalato un rischio concreto per il 2025, individuando una zona grigia tra tecnologia, politica e gestione dei dati.
La previsione era chiara: un errore di valutazione umana nella gestione di un sistema automatizzato ad alta responsabilità. Non un singolo evento, ma una catena: input errati, letture sbagliate, risposta in ritardo. Un pattern simile a quanto accaduto prima del disastro della centrale di Fukushima, della crisi subprime o della diffusione iniziale del Covid.
Eppure, il report è passato sotto silenzio. Ignorato dai decisori, sottovalutato dai media. Nessuna task force, nessuna revisione dei protocolli. Come se la previsione fosse troppo astratta, troppo “futuribile” per essere presa sul serio.
Il modello che riconosce i segnali deboli
Il sistema si chiama Orbis-7, ed è stato sviluppato da un consorzio tra università europee, enti americani e ricercatori indipendenti. Il suo compito non è prevedere il futuro nel senso stretto, ma rilevare correlazioni invisibili all’occhio umano. Quando diversi fattori si allineano — errori ripetuti in ambiti simili, fragilità organizzative, overload informativo, processi decisionali opachi — il modello segnala un potenziale incidente sistemico.

L’output generato non ha date, né nomi. Parla di aree a rischio: sanità, controllo energetico, gestione dati biometrici, cybersicurezza. Ma quello che colpisce è il livello di dettaglio con cui il modello ha ricostruito i meccanismi dell’errore umano: routine ignorate, warning disattivati, “abitudine all’emergenza” nei contesti critici.
In sostanza, il modello ha identificato il modo in cui ci abituiamo al rischio, lo normalizziamo e lo lasciamo sedimentare. E quando accade qualcosa — un guasto, un attacco, una svista — è già troppo tardi.
I ricercatori parlano di “entropia organizzativa”: un degrado interno ai sistemi complessi che, a un certo punto, smette di essere monitorabile. L’IA non accusa, non prevede con certezza. Ma mostra la traiettoria.
Il problema? Nessuno vuole sentirsi dire che un disastro è possibile. Tantomeno da un algoritmo.
L’allarme ignorato e il rischio che si ripeta
Il report di Orbis-7 è stato pubblicato su una rivista specializzata a metà 2024. Nessuna grande testata lo ha ripreso. Alcuni policy maker sono stati informati, ma non è seguita alcuna comunicazione pubblica. In fondo, il documento non indicava un paese preciso, né un settore identificabile con certezza. Ma proprio per questo era pericoloso: nessuno si è sentito chiamato in causa, e quindi nessuno ha agito.
Nel frattempo, l’IA continua a raccogliere segnali. Ha segnalato un incremento anomalo di comportamenti fuori standard nei sistemi sanitari automatizzati, un aumento dei ritardi nei tempi di risposta nei centri di controllo energetico, una sovrapposizione rischiosa tra dati biometrici e sistemi di identificazione AI non verificati.
L’ipotesi è che un errore umano non rilevato, amplificato da un processo automatizzato, possa generare un blackout, un malfunzionamento di scala, o una perdita di controllo su infrastrutture critiche. Niente di fantascientifico. Solo cose già accadute, e documentate.
Ma l’attenzione pubblica è altrove. L’AI è sulla bocca di tutti, ma più per quello che può “creare” che per i suoi avvertimenti silenziosi. E chi lavora su questi scenari sa già che la previsione più realistica dell’intelligenza artificiale non è quella che fa scalpore. È quella che passa inosservata.
Il rischio maggiore, oggi, non è che l’IA sbagli. Ma che dica la verità — e nessuno la ascolti.