Il lato oscuro del Data-Driven Decision-Making

Il decision-making basato sui dati è essenziale, ma presenta criticità quando viene utilizzato in modo improprio. Bias, correlazioni spurie, overfitting ed errori generati dall’intelligenza artificiale possono distorcere le strategie aziendali. I dirigenti devono integrare i dati con competenze settoriali, ragionamento causale e supervisione etica per prendere decisioni informate e resilienti in un contesto sempre più complesso.

SCIENZA & TECNICA

Alessandro

3/22/20255 min leggere

pink flower on white background
pink flower on white background

Il panorama dirigenziale moderno è dominato dal mantra del data-driven decision-making (DDDM). Dalla previsione finanziaria all'ottimizzazione della supply chain, dalle strategie di assunzione all'analisi dei clienti, le organizzazioni si affidano sempre più ai numeri per giustificare e orientare le scelte aziendali.

Eppure, nonostante le sue promesse, il DDDM spesso fallisce in modo spettacolare. Uno studio del 2021 del MIT Sloan Management Review ha rilevato che, sebbene l'87% dei dirigenti credesse che le proprie aziende prendessero decisioni basate sui dati, solo il 40% si fidava che tali decisioni fossero realmente accurate o vantaggiose. Questo divario evidenzia un problema fondamentale: i dati da soli non bastano. Devono essere interpretati, contestualizzati e sottoposti a stress-test rispetto alle dinamiche del mondo reale.

Questo articolo esplora le insidie nascoste delle strategie guidate dai dati e spiega perché un approccio più sofisticato — che combini dati con competenza settoriale, ragionamento causale e umiltà epistemica — sia essenziale per i dirigenti che operano in un mondo sempre più complesso.

L'illusione dell'oggettività: quando i dati raccontano una storia fuorviante

Una delle ipotesi più pericolose nel management moderno è che i dati siano intrinsecamente oggettivi. In realtà, il modo in cui i dati vengono raccolti, elaborati e analizzati introduce strati di bias e distorsioni che possono fuorviare anche i dirigenti più esperti.

Bias di sopravvivenza nella strategia aziendale

Un esempio classico di errata interpretazione è il bias di sopravvivenza, dove i decisori si concentrano sui casi di successo ignorando i fallimenti che non sono entrati nel dataset.

Un caso ben documentato è lo studio sugli aerei della Seconda Guerra Mondiale condotto dallo statistico Abraham Wald. Gli analisti militari volevano inizialmente rinforzare le sezioni crivellate di proiettili degli aerei rientrati. Wald, tuttavia, fece notare che quegli aerei erano sopravvissuti — quelli abbattuti non erano rappresentati nel dataset.

Questa trappola cognitiva è comune nella strategia aziendale. Un'analisi del 2022 della Harvard Business Review sui fallimenti delle startup ha rilevato che le aziende che studiavano solo i casi di successo delle "unicorn" spesso trascuravano fattori chiave che avevano portato migliaia di startup simili al fallimento.

Affidamento eccessivo sulle medie

Un altro problema frequente è prendere decisioni basandosi su medie fuorvianti. Molti dirigenti si affidano a metriche di performance aggregate, presupponendo che riflettano le tendenze del mondo reale.

Un esempio noto proviene dal progetto di progettazione dei cockpit dell'aeronautica statunitense negli anni Cinquanta, dove gli ingegneri costruirono sedili per piloti "medi". Il risultato? I sedili non andavano bene a nessuno. L'intero settore dovette passare a design regolabili per adattarsi alla reale variabilità.

Uno studio del 2020 pubblicato nel Journal of Business Research ha rilevato che molte organizzazioni commettono errori simili quando stabiliscono obiettivi di performance per i dipendenti o progettano profili tipo di cliente, concentrandosi su valori medi anziché riconoscere la diversità nei dataset.

La correlazione non è causalità: il grande inganno dei Big Data

I dirigenti cadono spesso nella trappola di confondere la correlazione con la causalità, prendendo decisioni basate su pattern falsi anziché su relazioni causali reali.

Google Flu Trends: un errore da un miliardo di dollari

Uno dei casi più noti di fallimento basato sulla correlazione è Google Flu Trends (GFT). Lanciato nel 2008, GFT mirava a prevedere le epidemie influenzali basandosi sull'attività di ricerca su Google. Inizialmente accolto come una svolta nell'analisi dei Big Data, nel 2013 sovrastimò i casi di influenza di oltre il 140%.

Cosa andò storto? Uno studio del 2014 pubblicato su Science da Lazer et al. ha rilevato che l'algoritmo di Google fu fuorviato da abitudini stagionali di ricerca (ad esempio, persone che cercavano sintomi influenzali senza essere malate) e panico mediatico, che aumentò artificialmente i volumi di ricerca.

Le aziende che si affidano eccessivamente agli analytics basati su AI, senza comprendere i meccanismi causali sottostanti, rischiano di commettere errori simili in ambiti come la previsione della domanda, l'analisi del comportamento dei clienti e la modellazione del rischio.

La trappola delle correlazioni spurie

Uno studio del 2008 dell'economista David Leinweber del Caltech ha dimostrato come correlazioni apparentemente predittive possano essere prive di significato. Scoprì che il miglior predittore statistico della performance della Borsa statunitense non erano i tassi di interesse, il PIL o gli utili aziendali, ma la produzione annuale di burro in Bangladesh.

Uno studio più recente del 2022 pubblicato nel Journal of Economic Perspectives ha rilevato problemi simili nella modellazione finanziaria, dove strategie di trading basate su AI erano altamente sensibili a correlazioni spurie, con conseguente instabilità nelle performance di portafoglio.

I pericoli dell'overfitting: perché troppi dati possono essere dannosi

Controintuitivamente, più dati non portano sempre a decisioni migliori. L'overfitting si verifica quando un modello AI o un'analisi statistica cattura rumore casuale anziché pattern reali, generando previsioni inaffidabili.

La crisi finanziaria e i modelli di rischio sovradattati

La crisi finanziaria del 2008 è un esempio da manuale di come l'overfitting possa distruggere interi settori. Banche e agenzie di rating si affidavano a modelli di rischio complessi addestrati su dati storici dei mutui, che sembravano prevedere accuratamente i rischi di insolvenza, fino a quando non accadde più.

I modelli non tennero conto di:

  • Cambiamenti strutturali del mercato (es. espansione del credito subprime)

  • Interdipendenze nascoste (es. correlazione tra titoli garantiti da mutui)

  • Eventi a bassa probabilità ma ad alto impatto (i cosiddetti "cigni neri")

Un articolo del 2019 pubblicato nel Journal of Financial Economics ha rilevato che l'overfitting rimane un problema rilevante nel trading algoritmico, dove modelli AI addestrati su dati storici spesso falliscono nell'adattarsi ai cambiamenti reali del mercato.

Il mito dell'oggettività nei sistemi AI

I dirigenti si affidano sempre più a decisioni guidate dall'intelligenza artificiale per eliminare i bias umani. Tuttavia, i modelli AI ereditano i bias dai dati di addestramento, spesso amplificandoli anziché eliminarli.

L'algoritmo di assunzione di Amazon e il bias di genere

Un caso molto discusso è quello dello strumento di selezione automatica del personale di Amazon, che penalizzava sistematicamente le candidate donne per ruoli tecnici. Un'indagine di Reuters del 2018 ha rivelato che l'algoritmo era stato addestrato su dati storici di assunzione, che favorivano in modo sproporzionato i candidati maschi.

Questo caso evidenzia un problema fondamentale: i sistemi guidati dai dati spesso perpetuano e aggravano i bias storici anziché correggerli.

Bias algoritmico nel credit scoring

Problemi simili sono emersi nei servizi finanziari. Uno studio del 2021 della U.S. Consumer Financial Protection Bureau ha rilevato che i modelli di credit scoring basati su AI assegnavano punteggi più bassi alle minoranze, nonostante fossero progettati come sistemi "oggettivi".

Man mano che le aziende adottano l'automazione decisionale, i dirigenti devono implementare controlli dei bias e valutazioni di equità per prevenire questi fallimenti sistemici.

Verso un approccio più intelligente alla strategia guidata dai dati

Questo significa che dovremmo abbandonare il data-driven decision-making? Assolutamente no. Tuttavia, una fede cieca nei dati, priva di contesto, teoria o pensiero critico, è una ricetta per il disastro.

Per utilizzare efficacemente i dati, si devono:

  • Combinare le intuizioni quantitative con la competenza settoriale: i dati da soli non bastano; è essenziale la conoscenza del mondo reale.

  • Dare priorità al ragionamento causale rispetto alla correlazione: usare tecniche come l'inferenza bayesiana per identificare i veri driver delle performance aziendali.

  • Riconoscere i limiti dei modelli AI: evitare l'overfitting e sottoporre continuamente i modelli predittivi a stress-test.

  • Implementare controlli dei bias nelle decisioni automatizzate: garantire processi algoritmici etici, trasparenti e equi.

Il futuro della leadership esecutiva non è solo data-driven, ma data-informed — basato su ragionamento rigoroso, pensiero sistemico e una profonda comprensione delle complessità che i soli dati non possono rivelare.