Skip to main content

Abstract

L’ottimismo è spesso considerato un motore positivo nei progetti, capace di alimentare motivazione, resilienza e fiducia nei team. Tuttavia, la letteratura scientifica e le evidenze empiriche dimostrano che l’optimism bias rappresenta una distorsione cognitiva sistemica, che conduce a sottostimare tempi e costi, a minimizzare i rischi e a sovrastimare le capacità interne. Questo fenomeno si traduce in ritardi, cost overrun, burnout dei team e perdita di fiducia da parte degli stakeholder.

Il presente articolo analizza l’optimism bias nella gestione dei progetti distinguendo tra approcci predittivi e adattativi, e mettendo in evidenza le differenze di manifestazione e mitigazione nei due contesti. Sono riportate evidenze empiriche da settori diversi, infrastrutture, ICT, programmi pubblici, con un approfondimento su ambiti ad alta complessità tecnologica e regolatoria come i medical device e le macchine automatiche, dove l’ottimismo si manifesta in modo particolarmente critico.

Infine, l’articolo propone un modello concettuale e un set di strategie di mitigazione — dal reference class forecasting alla cultura organizzativa della trasparenza — con l’obiettivo di trasformare l’ottimismo da illusione a risorsa. L’invito rivolto a project manager, imprese e PMO è di adottare pratiche strutturate di debiasing, in modo da accrescere le probabilità di successo dei progetti in contesti complessi e ad alta incertezza.


1. Introduzione

Secondo il Project Management Institute (PMI, 2021), oltre il 50% dei progetti globali non raggiunge pienamente gli obiettivi prefissati, spesso a causa di previsioni irrealistiche su tempi, costi e benefici. Tra le cause principali, diversi studi identificano l’ottimismo eccessivo, che porta i project manager e gli stakeholder a sottovalutare i rischi e a sovrastimare le capacità del team (Kahneman & Tversky, 1979; Flyvbjerg, 2013).

2. L’optimism bias nella gestione dei progetti

L’optimism bias rappresenta una distorsione cognitiva ampiamente studiata in psicologia cognitiva ed economia comportamentale, e ha implicazioni dirette e misurabili nella gestione dei progetti (Weinstein, 1980; Kahneman, 2011). Si manifesta attraverso diversi meccanismi che incidono sulla pianificazione, sul controllo e sull’esecuzione dei progetti.

2.1 Inside view e outside view: due prospettive opposte sulla previsione

Il concetto di inside view e outside view fu introdotto da Kahneman e Tversky (1979) per spiegare la sistematicità degli errori di previsione. Entrambe le prospettive sono utilizzate in project management, ma hanno effetti opposti sul rischio di optimism bias.

Inside view (visione dall’interno)

  • Definizione: l’approccio in cui chi pianifica si concentra sui dettagli specifici del progetto corrente, costruendo scenari “su misura” basati sulle proprie ipotesi, sulle capacità percepite del team e sulla narrativa interna (“questa volta andrà meglio”).
  • Caratteristiche:
    • Forte focalizzazione sugli obiettivi desiderati.
    • Tendenza a ignorare o sottopesare dati storici di progetti analoghi.
    • Overconfidence sul controllo di variabili esterne.
  • Effetti tipici:
    • Planning fallacy → sistematica sottostima dei tempi (Buehler et al., 1994).
    • Sottovalutazione della complessità e dei rischi.
    • Escalation of commitment quando emergono deviazioni, perché i piani ottimistici diventano vincoli psicologici e politici.
  • Esempio concreto: un’azienda biomedicale pianifica l’approvazione di un dispositivo assumendo i 90 giorni ideali di review FDA (inside view), ignorando che l’iter medio reale è di circa 10 mesi.

Outside view (visione dall’esterno o reference class forecasting)

  • Definizione: metodo che ancora la previsione a dati storici su una “classe di riferimento” di progetti analoghi, analizzando distribuzioni empiriche di costi, tempi e risultati.
  • Caratteristiche:
    • Utilizza benchmark quantitativi esterni.
    • Permette di stimare range probabilistici invece di valori puntuali.
    • Riduce la soggettività individuale e organizzativa.
  • Effetti tipici:
    • Correzione sistematica del bias ottimistico.
    • Maggiore accuratezza nelle stime, soprattutto nei megaprogetti (Flyvbjerg, 2008).
  • Esempio concreto: nello sviluppo di macchine automatiche, invece di stimare “6 mesi” sulla base della percezione del team, il PM consulta uno storico di 20 progetti simili che mostrano un range 8–12 mesi, e corregge la pianificazione su tale base.

Inside vs. Outside view: confronto sintetico

AspettoInside viewOutside view
FocalizzazioneDettagli del progetto specificoDati storici e analoghi
Tipo di stimaNarrativa, ipotesi interneStatistica, distribuzioni empiriche
Rischio cognitivoOverconfidence, sottostima rischiRealismo, mitigazione bias
Esempio tipico“Questa volta sarà diverso”“Progetti simili hanno richiesto X mesi”

Implicazioni per la gestione progetti

  • L’uso prevalente dell’inside view spiega perché i project manager cadano ripetutamente nella trappola dell’optimism bias, anche quando hanno già vissuto fallimenti simili.
  • L’adozione dell’outside view richiede:
    • database storici interni o settoriali,
    • disponibilità a mettere in discussione la narrativa del progetto,
    • cultura organizzativa orientata all’evidenza empirica.

In sintesi, l’inside view genera piani seducenti ma irrealistici, mentre l’outside view fornisce una correzione statistica che riduce l’ottimismo eccessivo, aumentando l’affidabilità della pianificazione.

2.2 Altre distorsioni cognitive legate all’optimism bias

  • Sottovalutazione dei rischi: i manager riducono la probabilità di eventi negativi, con conseguente assenza di contingency reserve e risk register robusti (Lovallo & Kahneman, 2003). Nei progetti infrastrutturali europei, ad esempio, i ritardi autorizzativi sono regolarmente sottostimati, incidendo fino al 20% della durata (Cantarelli et al., 2010).
  • Escalation of commitment: persistenza in progetti fallimentari per non ammettere errori (Staw, 1981). Esempio emblematico: il Concorde Project, mantenuto attivo nonostante i costi sproporzionati, fenomeno noto come “Concorde Fallacy” (Arkes & Blumer, 1985).
  • Illusione di controllo: sovrastima della capacità di gestire variabili esterne (Langer, 1975). Nei progetti innovativi, si traduce in pianificazioni eccessivamente ottimistiche che trascurano vincoli di mercato o regolatori.

2.3 Modello concettuale dell’optimism bias nei progetti

L’insieme dei fenomeni descritti può essere sintetizzato in un modello concettuale che collega meccanismi cognitivi, distorsioni di pianificazione, effetti e strategie di mitigazione.

  1. Meccanismi cognitivi: inside view, bias di conferma, avversione alla perdita, illusione di controllo.
  2. Distorsioni di pianificazione: planning fallacy, sottovalutazione dei rischi, escalation of commitment.
  3. Effetti sui progetti: ritardi, cost overrun, burnout dei team, perdita di credibilità.
  4. Strategie di mitigazione: reference class forecasting, analisi quantitativa dei rischi, revisioni indipendenti, stage-gate decisionali, cultura della trasparenza.

3 Impatti differenziati tra approcci predittivi e adattativi

L’impatto dell’optimism bias varia in funzione della metodologia adottata. Nei progetti predittivi l’effetto è più evidente ex ante, durante la pianificazione, mentre nei progetti adattativi si distribuisce lungo lo sviluppo iterativo.

3.1 Approcci predittivi

  • Punti critici: business case, schedule baseline e risk planning, dove stime ottimistiche irrigidiscono le baseline.
  • Conseguenze: sforamenti difficili da correggere, escalation of commitment, ritardi cumulativi.
  • Esempio: il Big Dig di Boston, costato oltre cinque volte la previsione iniziale, è un caso emblematico (Altshuler & Luberoff, 2003).

2.5.2 Approcci adattativi

  • Punti critici: stima della velocity, sottovalutazione delle dipendenze esterne, illusione di “adattabilità infinita”.
  • Conseguenze: burnout da sprint serrati, riduzione della qualità, micro-escalation of commitment a livello iterativo.
  • Esempio: studi su team Scrum mostrano come la sovrastima della capacità di sprint sia tra le principali cause di fallimento iterativo (Rodríguez et al., 2012).

2.5.3 Confronto

  • Temporalità del bias: predittivo → concentrato nella pianificazione; adattativo → distribuito durante l’esecuzione.
  • Meccanismi di correzione: predittivo → costosi e tardivi; adattativo → frequenti ma vulnerabili a overconfidence.
  • Effetti culturali: predittivo → pressioni istituzionali a piani “credibili”; adattativo → overconfidence nella resilienza del team.

2.5.4 Implicazioni pratiche

  • Predittivo → necessità di uplift factors e reference class forecasting.
  • Adattativo → monitoraggio costante di velocity e carico cognitivo, per evitare death marches.
  • Ibrido → rischio doppio: bias sulla baseline e bias iterativo.

👉 In sintesi: nei progetti predittivi l’optimism bias è un problema di pianificazione iniziale, negli adattativi è un problema di gestione continua, negli ibridi si sommano entrambi.


3. Evidenze empiriche

Le ricerche empiriche condotte negli ultimi decenni confermano che l’optimism bias è un fenomeno sistemico e trasversale ai settori. Non si tratta di errori occasionali, ma di una regolarità statistica che caratterizza la pianificazione dei progetti complessi.

Studi trasversali confermano che il fenomeno è generalizzato:

  • PMI Pulse of the Profession (2021): oltre il 50% dei progetti globali non raggiunge pienamente gli obiettivi; tra le cause principali, stime iniziali eccessivamente ottimistiche.
  • PwC Global Project Management Survey (2018): il 55% dei progetti ha registrato almeno un overrun significativo di tempi o costi.
  • McKinsey & Oxford University (2012): analisi su oltre 5.000 progetti IT → cost overrun medi del 45%, con un impatto del +7% sui ricavi aziendali nei casi peggiori.

I dati ad oggi disponibili dimostrano che l’optimism bias è una legge empirica dei progetti complessi, indipendente dal settore.

3.1 Progetti infrastrutturali e di trasporto

I megaprogetti infrastrutturali rappresentano l’ambito in cui l’optimism bias è più evidente e meglio documentato.

  • Flyvbjerg (2003): analisi di 258 grandi opere in diversi paesi → costi effettivi in media +45% rispetto alle stime, con un 90% di progetti oltre budget.
  • Cantarelli et al. (2010): studio sui progetti di trasporto in Europa → domanda di utilizzo sovrastimata fino al 70%.
  • Esempi concreti:
    • Channel Tunnel (Eurotunnel) → costi effettivi quasi raddoppiati, domanda passeggeri inferiore del 40% rispetto alle previsioni (Anguera, 2006).
    • Big Dig di Boston → costi passati da 2,8 a 14,6 miliardi di dollari (+420%) (Altshuler & Luberoff, 2003).

Evidenza: nei megaprogetti predittivi, l’ottimismo iniziale compromette sistematicamente tempi e budget.

3.2 Progetti ICT e software

I progetti ICT mostrano lo stesso fenomeno, amplificato dalla complessità tecnologica e dall’incertezza dei requisiti.

  • Flyvbjerg & Budzier (2011): su 1.355 progetti ICT, il 27% ha avuto cost overrun superiori al 100%, con un tempo medio eccedente del 24% le stime iniziali.
  • Moløkken & Jørgensen (2003): il 70% dei progetti software non rispetta le scadenze pianificate, principalmente per stime ottimistiche.
  • Standish Group (2015, CHAOS Report): solo il 29% dei progetti IT è considerato “successo pieno” (on time, on budget, con requisiti soddisfatti).

Esempio: il progetto Virtual Case File dell’FBI, annullato nel 2005 dopo aver speso 170 milioni di dollari, è un caso emblematico di escalation of commitment legata a stime eccessivamente ottimistiche (Goldstein, 2005).

Evidenza: nei progetti ICT, l’ottimismo si traduce in death marches e fallimenti spettacolari.

3.3 Settore pubblico e policy-making

Anche nei progetti pubblici l’optimism bias è riconosciuto ufficialmente come problema.

  • UK Treasury (2003, Green Book) → ha introdotto l’obbligo di applicare uplift correttivi standard alle stime iniziali (es. +20% per IT, +66% per trasporti).
  • HM Treasury review (2007) → ha confermato che la sottostima sistemica dei costi era una delle principali cause di fallimento dei programmi pubblici.
  • Esempi:
    • Programmi NHS IT nel Regno Unito (anni 2000): fallimento dovuto a piani eccessivamente ottimistici, con perdite stimate oltre i 10 miliardi di sterline (NAO, 2006).

Evidenza: nel settore pubblico, il bias è aggravato da pressioni politiche e dalla necessità di presentare progetti “vendibili” all’opinione pubblica.

3.4 Medical device / salute / progetti ospedalieri

  • Un articolo su “Making Sense of Hospital Project MisPerformance” analizza come i progetti ospedalieri (ospedali, strutture sanitarie) tendono a superare costi e tempi, ridurre la qualità, e presentare performance inferiori alle stime iniziali. Sebbene non si identifichi esplicitamente “optimism bias”, l’analisi del fallimento sistematico dei progetti ospedalieri suggerisce che fattori cognitivi legati al sovra-ottimismo possano essere in gioco.
  • Nel contesto della R&D farmaceutica / medical device, l’ottimismo bias è noto come un bias comportamentale fra molti altri (es. bias di selezione, “bias of hope”) nelle decisioni su sperimentazioni, pipeline, approvazioni regolatorie. Un contributo LinkedIn cita che “optimism bias is omnipresent” nelle decisioni R&D del settore farmaceutico / medicale, nel senso che i progetti avanzano con aspettative troppo rosee sui risultati e sui tempi di approvazione.
  • Se si considerano impianti ospedalieri integrati con sistemi medici avanzati, gli investimenti infrastrutturali hospital-based condividono dinamiche simili a grandi progetti infrastrutturali, per cui le stime iniziali potrebbero essere affette da optimism bias.

Queste evidenze non sono specifiche ai medical device, ma mostrano che nei progetti sanitari e R&D del settore salute l’ottimismo strutturale può contribuire a disallineamenti tra stime e realtà. Necessità di studi empirici mirati in questo ambito per quantificare l’effetto.

3.5 Macchine automatiche / automazione industriale (meccatronica)

  • Una rassegna su progetti turnkey in settori refining/gas/power cataloga 893 cause di ritardi/overrun di cui molte ricadono nella sottostima di complessità, interfacce e rischi di integrazione (pattern tipici di ottimismo in fase di offerta/pianificazione).
  • Studi sui fattori critici di successo per implementazioni meccatroniche (integrazione meccanica-elettronica-software) evidenziano l’importanza di pianificazione realistica, gestione dipendenze e systems engineering — leve che nascono proprio per contrastare stime troppo rosee su integrazione e collaudi.
  • Analisi su progetti industriali in contesti produttivi mostrano driver ricorrenti di ritardo (dipendenze materiali/fornitori, carenze manodopera, varianti tardo-ciclo). Pur non citando esplicitamente l’“optimism bias”, la ripetitività di under-estimation è coerente con tale distorsione.

Nel settore delle macchine automatiche il bias si concentra su integrazione multi-dominio (HW, SW, controlli), lead time di componenti critici, FAT/SAT e messa in servizio; l’inside view tipicamente ignora la varianza storica di debug e ramp-up.


4. Conseguenze dell’ottimismo eccessivo

L’ottimismo eccessivo nei progetti produce conseguenze misurabili sia a livello tecnico (tempi, costi, qualità), sia a livello organizzativo (fiducia, governance, motivazione del team). Questi effetti sono ben documentati nella letteratura e nelle esperienze di progetti reali.

4.1 Ritardi e sforamenti di budget

La conseguenza più evidente dell’optimism bias è il gap tra previsioni e risultati effettivi in termini di tempi e costi.

  • Dati: Flyvbjerg (2003) ha dimostrato che i grandi progetti infrastrutturali hanno costi superiori in media del 45% e tempi di completamento eccedenti del 20–30% rispetto alle previsioni iniziali.
  • Esempi:
    • Il progetto ferroviario Eurotunnel (Channel Tunnel) ha registrato costi più che raddoppiati (+80%) rispetto al budget iniziale e un ritardo di un anno (Anguera, 2006).
    • Nei progetti IT, Flyvbjerg & Budzier (2011) hanno riscontrato che il 27% presenta sforamenti di budget superiori al 100%.

👉 L’ottimismo nelle stime alimenta baseline irrealistiche, che generano deragliamenti sistematici.

4.2 Mancanza di preparedness ai rischi

La sottovalutazione dei rischi riduce la resilienza del progetto di fronte agli imprevisti.

  • Effetto: assenza di contingency reserve, risk register superficiali, piani di risposta tardivi.
  • Esempio: nel settore dell’energia nucleare, numerosi progetti di centrali in Europa hanno accumulato ritardi pluriennali (es. Olkiluoto 3 in Finlandia, Flamanville in Francia) proprio perché i rischi tecnologici erano stati minimizzati (Schneider, 2019).
  • Conseguenza: si passa da un approccio proattivo a uno reattivo, aumentando i costi di correzione.

👉 L’ottimismo induce a credere che “tutto filerà liscio”, portando a una pianificazione priva di ridondanze.

4.3 Burnout del team e “death marches”

Quando le stime ottimistiche vengono trasformate in obiettivi vincolanti, i team si trovano costretti a lavorare sotto pressione costante.

  • Definizione: Edward Yourdon (1997) ha definito death march quei progetti in cui i requisiti sono sproporzionati rispetto alle risorse disponibili.
  • Conseguenze: stress, turnover, calo della qualità del lavoro, riduzione della motivazione.
  • Esempio: nei progetti software, survey di Standish Group (2015) confermano che oltre il 50% dei team attribuisce i fallimenti a obiettivi e scadenze irrealistici.

👉 L’ottimismo manageriale si traduce in pressione tossica sui team operativi.

4.4 Perdita di credibilità e fiducia degli stakeholder

Quando i progetti non rispettano tempi e costi, la fiducia degli stakeholder interni (dirigenza, team) ed esterni (clienti, istituzioni) viene compromessa.

  • Effetto organizzativo: erosione della fiducia nei PM, difficoltà a far approvare nuovi budget, reputazione aziendale danneggiata.
  • Esempio: il fallimento del progetto Denver International Airport Baggage System, con ritardi di 16 mesi e costi raddoppiati, ha minato la credibilità delle aziende coinvolte, compromettendo opportunità future (Montealegre et al., 2001).

👉 L’ottimismo non solo produce fallimenti tecnici, ma mina il capitale fiduciario delle organizzazioni.

4.5 Escalation of commitment e spreco di risorse

L’ottimismo alimenta la convinzione che “alla fine il progetto funzionerà”, portando a investire risorse aggiuntive anche quando i segnali indicano fallimento.

  • Fenomeno: escalation of commitment (Staw, 1981).
  • Esempio: il progetto Virtual Case File dell’FBI, cancellato nel 2005 dopo spese superiori a 170 milioni di dollari, dimostra l’insistenza irrazionale nel proseguire nonostante le evidenze negative (Goldstein, 2005).

👉 L’effetto è un doppio danno: non solo si perde l’investimento iniziale, ma si aggiungono sprechi crescenti.

4.6 Effetti sistemici sull’organizzazione

L’ottimismo eccessivo non impatta solo i singoli progetti, ma può diventare parte della cultura organizzativa:

  • Cultura del “positive thinking”: scoraggia la segnalazione di problemi, alimenta reportistica distorta.
  • Sindrome del “can-do”: i manager si sentono costretti a promettere più di quanto sia realistico, creando cicli di fallimento.
  • Impatto a lungo termine: perdita di competitività, aumento del turnover, sfiducia nei processi di project governance.

👉 In questo senso, l’optimism bias diventa un rischio sistemico, non solo operativo.

📌 Sintesi della sezione 4
Le conseguenze dell’optimism bias nei progetti si articolano su più livelli:

  1. Tecnico → ritardi, cost overrun, qualità compromessa.
  2. Operativo → burnout, death marches, inefficienza.
  3. Relazionale → perdita di fiducia, credibilità e reputazione.
  4. Strategico → sprechi crescenti e distorsioni culturali organizzative.

5. Strategie di mitigazione

La letteratura e le best practice di project management suggeriscono una serie di strumenti e approcci per contrastare l’impatto dell’optimism bias. Tali strategie agiscono a diversi livelli: cognitivo, organizzativo e metodologico.

5.1 Reference Class Forecasting (Outside View)

Definizione: introdotta da Kahneman e Tversky (1979) e applicata da Flyvbjerg (2008), questa tecnica consiste nel confrontare le stime del progetto con quelle di una “classe di riferimento” di progetti simili già completati.

Vantaggi: corregge il bias dell’inside view, ancorando le previsioni a dati empirici.

Esempio: il UK Treasury (2003) raccomanda l’uso di uplift percentuali (+20–66%) derivati da analisi storiche come correzione standard alle stime di tempi e costi.

5.2 Analisi quantitativa dei rischi

Definizione: tecniche probabilistiche (es. simulazioni Monte Carlo, Event Chain Methodology) che permettono di stimare la distribuzione di possibili esiti temporali e finanziari.

Vantaggi: trasforma i rischi percepiti in variabili misurabili, riducendo la sottovalutazione tipica del bias.

Esempio: in progetti ingegneristici complessi, l’analisi Monte Carlo consente di identificare la probabilità che un progetto superi il budget con un certo margine, supportando decisioni più consapevoli.

5.3 Assumption Log e Revisioni Indipendenti

Assumption Log: registro che documenta le ipotesi critiche formulate in fase di pianificazione (es. “fornitore consegna nei tempi previsti”), utile per monitorare e rivalutare la validità delle assunzioni durante il progetto (PMI, 2021).

Revisioni indipendenti: il coinvolgimento di revisori esterni (peer review, auditor indipendenti) riduce il rischio di auto-conferma e introduce prospettive meno viziate dall’ottimismo organizzativo.

Esempio: le Red Team Reviews adottate in ambito difesa e aerospace hanno dimostrato di migliorare la qualità delle stime identificando assunzioni irrealistiche.

5.4 Stage-Gate e Meccanismi di Stop/Go

Definizione: metodologia (Cooper, 2008) che prevede il passaggio del progetto attraverso “gate” decisionali, in cui si valutano performance e rischi per decidere se proseguire, sospendere o ridimensionare.

Vantaggi: riduce l’escalation of commitment, introducendo momenti strutturati in cui è legittimo interrompere progetti non sostenibili.

Esempio: nel settore farmaceutico, i processi stage-gate riducono gli investimenti su farmaci inefficaci prima di entrare nelle fasi più costose di sperimentazione clinica.

5.5 Cultura della Trasparenza e del Realismo

Definizione: promozione di un ambiente psicologico sicuro (psychological safety, Edmondson, 1999) in cui è possibile segnalare rischi, problemi e stime conservative senza timore di ripercussioni.

Vantaggi: contrasta la tendenza culturale a nascondere difficoltà o a “truccare” le stime per compiacere stakeholder.

Esempio: aziende come Google e Microsoft hanno introdotto pratiche di blameless post-mortem e open risk registers, aumentando la resilienza dei team e riducendo il peso del bias.

5.6 Formazione e Consapevolezza Cognitiva

Definizione: training su cognitive bias e decision-making per project manager e stakeholder.

Vantaggi: la consapevolezza del fenomeno è il primo passo per ridurne l’impatto.

Esempio: workshop su “debiasing” condotti presso grandi organizzazioni pubbliche e private hanno mostrato un miglioramento delle capacità di risk assessment (Lovallo & Sibony, 2010).

5.7 Strumenti Digitali di Supporto Decisionale

Definizione: software di project management avanzato con funzioni di predictive analytics e AI-driven forecasting.

Vantaggi: riduce la soggettività delle stime, sfruttando big data e machine learning per simulare scenari futuri.

Esempio: strumenti come Primavera Risk Analysis o @Risk consentono di integrare automaticamente analisi Monte Carlo nelle schedule di progetto.

5.8 Mitigazione nei diversi approcci di project management

L’efficacia delle strategie di mitigazione dipende dal contesto metodologico adottato. Gli strumenti e i processi devono essere calibrati sulle caratteristiche degli approcci predittivi e adattativi, che presentano punti deboli differenti rispetto all’optimism bias.

5.8.1 Approcci predittivi

Nei progetti gestiti con framework predittivi (es. PMI, PRINCE2, modelli waterfall), l’optimism bias si concentra prevalentemente nella fase di pianificazione iniziale, quando vengono fissate baseline rigide di costi, tempi e scopo.

Strategie di mitigazione specifiche:

  • Reference Class Forecasting (RCF) ex ante
    • Obbligo di confrontare le stime con database storici di progetti analoghi.
    • Caso UK Treasury: introduzione di uplift standardizzati per settori (UK Treasury, 2003).
  • Risk reserves e contingency planning strutturato
    • Applicazione di riserve di costo e schedule definite su base probabilistica.
    • Tecniche come Expected Monetary Value (EMV) e analisi Monte Carlo rendono esplicita l’incertezza.
  • Stage-gate stringenti
    • Verifiche obbligatorie ai principali milestone, con possibilità di fermare o ridimensionare il progetto.
    • Utile per contenere l’escalation of commitment.
  • Independent Reviews
    • Audit indipendenti sulle stime, specialmente per mega-progetti pubblici, riducono l’effetto “auto-compiacimento”.
  • Contratti flessibili
    • Inserire clausole che prevedano revisione di prezzi e tempi in base a trigger (es. ritardi autorizzativi, variazioni di mercato).

👉 Nei progetti predittivi, la mitigazione deve essere focalizzata sulla fase iniziale e sull’adozione di meccanismi formali di correzione delle stime.

5.8.2 Approcci adattativi (Agile/Hybrid)

Nei progetti adattativi, l’optimism bias si manifesta soprattutto in itinere, nei cicli iterativi di pianificazione e delivery. Le stime ottimistiche si riflettono sulla velocity del team, sulla capacità di gestire backlog e dipendenze e sull’illusione di “adattabilità illimitata”.

Strategie di mitigazione specifiche:

  • Empirical velocity tracking
    • Monitoraggio basato sui dati reali delle iterazioni precedenti, evitando di pianificare sprint con carichi superiori alla capacità dimostrata.
    • Uso di burn-down e cumulative flow diagrams per feedback continuo.
  • Definition of Done (DoD) rigorosa
    • Evita che l’ottimismo spinga ad accettare storie incomplete o tecnicamente deboli.
    • Mitiga la perdita di qualità nei “death marches” agili.
  • Retrospective orientate al rischio
    • Inserire nei meeting di retrospettiva la valutazione sistematica dei rischi emersi, non solo delle dinamiche di team.
  • Gestione esplicita delle dipendenze
    • L’ottimismo porta a sottovalutare vincoli esterni: strumenti di dependency mapping aiutano a visualizzare e pianificare correttamente.
  • Timeboxing realistico
    • Evitare sprint troppo ambiziosi e introdurre slack time per assorbire imprevisti.
  • Coaching sulla sostenibilità
    • Agile coach e Scrum Master devono vigilare sul rischio di burn-out, contrastando la “cultura del fare sempre di più”.

👉 Nei progetti adattativi, la mitigazione è iterativa e continua, basata su dati empirici e feedback frequenti, più che su correzioni ex ante.

5.8.3 Approcci ibridi

I progetti ibridi (molto comuni in settori come biomedicale, automazione e ICT complesso) presentano entrambi i rischi:

  • Ottimismo iniziale nelle baseline predittive,
  • Ottimismo iterativo nella gestione agile dei work package.

Strategie di mitigazione specifiche:

  • Doppia revisione: reference class forecasting per la parte predittiva + velocity tracking per la parte adattativa.
  • Governance integrata: PMO o Hybrid PM Framework che assicuri coerenza tra pianificazione strategica e cicli agili.
  • Gate adattivi: milestone tradizionali supportati da revisioni empiriche di sprint/release.

👉 Con queste sette aree, la sezione “Strategie di mitigazione” diventa molto più completa: non solo correttivi metodologici (reference class, Monte Carlo) ma anche culturali, organizzativi e tecnologici.


7. Conclusioni

L’analisi condotta evidenzia come l’optimism bias non sia un errore occasionale, ma un fenomeno sistemico che caratterizza la gestione dei progetti in molteplici settori: dalle infrastrutture all’ICT, dai programmi pubblici fino ai medical device e alle macchine automatiche.

Le evidenze empiriche mostrano una regolarità inquietante: la sottostima dei tempi, la minimizzazione dei rischi e la sovrastima delle capacità interne producono, in media, costi e tempi effettivi dal 20% al 50% superiori alle previsioni iniziali. Nei settori regolati e complessi come quello biomedicale o dell’automazione industriale, l’ottimismo si manifesta soprattutto nel sottovalutare i cicli autorizzativi, i tempi di validazione e la complessità dell’integrazione meccatronica, con conseguenze significative sui ritorni economici e sulla competitività.

Le conseguenze vanno oltre il singolo progetto: burnout dei team, escalation of commitment, perdita di fiducia da parte degli stakeholder e distorsioni culturali organizzative trasformano l’ottimismo eccessivo in un vero e proprio rischio sistemico.

Tuttavia, l’ottimismo non deve essere demonizzato: se bilanciato da pratiche adeguate, può fungere da motore motivazionale e da leva per la resilienza dei team. La chiave è adottare strategie mirate di debiasing:

  • nei progetti predittivi, introducendo strumenti come reference class forecasting, stage-gate rigorosi e contingency planning probabilistico;
  • nei progetti adattativi, applicando misure empiriche continue come velocity tracking, definition of done rigorosa e gestione iterativa delle dipendenze;
  • nei progetti ibridi, combinando entrambe le logiche in una governance integrata.

Call to Action

Per ridurre l’impatto dell’optimism bias, le organizzazioni devono compiere un passo concreto:

  • istituzionalizzare pratiche di outside view nei propri processi di stima,
  • creare culture organizzative trasparenti, che valorizzino la segnalazione realistica dei rischi,
  • formare i project manager alla consapevolezza dei bias cognitivi, dotandoli di strumenti quantitativi e decisionali adeguati.

La vera sfida non è eliminare l’ottimismo, ma trasformarlo da illusione in risorsa.
Invitiamo imprese, PMO e professionisti a valutare i propri processi di pianificazione e controllo, adottando strumenti e pratiche di debiasing per aumentare la probabilità di successo dei progetti, soprattutto nei settori ad alta incertezza come biomedicale e automazione.

Bibliografia

Altshuler, A., & Luberoff, D. (2003). Mega-projects: The changing politics of urban public investment. Brookings Institution Press.

Anguera, R. (2006). The Channel Tunnel: An ex post economic evaluation. Transportation Research Part A: Policy and Practice, 40(4), 291–315. https://doi.org/10.1016/j.tra.2005.08.009

Arkes, H. R., & Blumer, C. (1985). The psychology of sunk cost. Organizational Behavior and Human Decision Processes, 35(1), 124–140. https://doi.org/10.1016/0749-5978(85)90049-4

Association for Project Management. (2015). APM body of knowledge (6th ed.). APM.

Buehler, R., Griffin, D., & Ross, M. (1994). Exploring the “planning fallacy”: Why people underestimate their task completion times. Journal of Personality and Social Psychology, 67(3), 366–381. https://doi.org/10.1037/0022-3514.67.3.366

Cantarelli, C. C., Flyvbjerg, B., Molin, E. J., & van Wee, B. (2010). Cost overruns in large-scale transportation infrastructure projects: Explanations and their theoretical embeddedness. European Journal of Transport and Infrastructure Research, 10(1), 5–18.

Cooper, R. G. (2008). Perspective: The Stage-Gate® idea-to-launch process—Update, what’s new, and NexGen systems. Journal of Product Innovation Management, 25(3), 213–232. https://doi.org/10.1111/j.1540-5885.2008.00296.x

Edmondson, A. (1999). Psychological safety and learning behavior in work teams. Administrative Science Quarterly, 44(2), 350–383. https://doi.org/10.2307/2666999

Flyvbjerg, B. (2003). Megaprojects and risk: An anatomy of ambition. Cambridge University Press.

Flyvbjerg, B. (2008). Curbing optimism bias and strategic misrepresentation in planning: Reference class forecasting in practice. European Planning Studies, 16(1), 3–21. https://doi.org/10.1080/09654310701747936

Flyvbjerg, B. (2013). The iron law of megaprojects. Oxford University.

Flyvbjerg, B. (2021). How big things get done. Currency.

Flyvbjerg, B., & Budzier, A. (2011). Why your IT project may be riskier than you think. Harvard Business Review, 89(9), 23–25.

Goldstein, H. (2005). Who killed the Virtual Case File? IEEE Spectrum, 42(9), 24–35. https://doi.org/10.1109/MSPEC.2005.1502528

Kahneman, D. (2011). Thinking, fast and slow. Farrar, Straus and Giroux.

Kahneman, D., & Tversky, A. (1979). Intuitive prediction: Biases and corrective procedures. In S. Makridakis & S. C. Wheelwright (Eds.), Studies in the management sciences: Forecasting (Vol. 12, pp. 313–327). North-Holland.

Langer, E. J. (1975). The illusion of control. Journal of Personality and Social Psychology, 32(2), 311–328. https://doi.org/10.1037/0022-3514.32.2.311

Lovallo, D., & Kahneman, D. (2003). Delusions of success: How optimism undermines executives’ decisions. Harvard Business Review, 81(7), 56–63.

Lovallo, D., & Sibony, O. (2010). The case for behavioral strategy. McKinsey Quarterly, 2, 30–43.

McKinsey & Oxford University. (2012). Delivering large-scale IT projects on time, on budget, and on value. McKinsey Insights.

Moløkken, K., & Jørgensen, M. (2003). A review of surveys on software effort estimation. In Proceedings of the 2003 international symposium on empirical software engineering (pp. 223–230). IEEE. https://doi.org/10.1109/ISESE.2003.1237981

Montealegre, R., Nelson, H. J., Knoop, C. I., & Applegate, L. M. (2001). Denver International Airport Baggage-Handling System. Harvard Business School Case 303-086.

National Audit Office. (2006). Department of Health: The national programme for IT in the NHS. The Stationery Office.

Project Management Institute. (2021). Pulse of the profession® 2021: Beyond agility. PMI.

PwC. (2018). Global project management survey 2018. PwC.

Rodríguez, P., Markkula, J., Oivo, M., & Garbajosa, J. (2012). Analyzing the causes of agile project failures. In 2012 Agile conference (pp. 87–95). IEEE. https://doi.org/10.1109/Agile.2012.17

Schneider, M. (2019). Nuclear new build costs and project risks—An international comparison. Energy Policy, 125, 173–190. https://doi.org/10.1016/j.enpol.2018.10.046

Shoar, S., et al. (2022). Predicting cost overruns in engineering projects using machine learning. Journal of Building Engineering, 54, 104664. https://doi.org/10.1016/j.jobe.2022.104664

Staw, B. M. (1981). The escalation of commitment to a course of action. Academy of Management Review, 6(4), 577–587. https://doi.org/10.5465/amr.1981.4285693

Standish Group. (2015). CHAOS report 2015. Standish Group International.

UK Treasury. (2003). The Green Book: Appraisal and evaluation in central government. HMSO.

U.S. Food and Drug Administration. (2023). Premarket notification 510(k) review timelines. https://www.fda.gov/medical-devices/premarket-submissions/premarket-notification-510k

Weinstein, N. D. (1980). Unrealistic optimism about future life events. Journal of Personality and Social Psychology, 39(5), 806–820. https://doi.org/10.1037/0022-3514.39.5.806

Yourdon, E. (1997). Death march. Prentice Hall.