La maggior parte del management che guide l’AI non è stato formato
I numeri: nel 2023 il 55% delle organizzazioni utilizzava l’AI in almeno una funzione aziendale, nel 2024 la percentuale è salita al 78% (McKinsey). Tuttivia il 74% dei datori di lavoro fatica a trasformare il potenziale dell’AI in benefici concreti e solo 26% ha superato la fase di sperimentazione (BCG). Solo il 16% dei dipendenti ritiene di ricevere supporto adeguato per sviluppare competenze AI e appena il 46% dei manager ha ricevito formazione formale sull’argomento (Capgemini).
L’intelligenza artificiale sta cambiando i lavoro più velocemente di quanto le organizzazioni riescono a governarla, ma tecnologia corre, la capacità di gestirle arranca.
Massimo Begelle in un recente e molto bell’articolo per Harvard Business Review Italia propone 5 pilastri per guidare questa transizione:
- fiducia nel digitale
- progettazione centrata sull’umano
- gestione etica
- empatia applicata
- consapevolezza dei sistemi
Il framework, basato su uno studio del Top Employers Institute, è solido e ben argomentato, ma solleva una domanda che l’articolo non pone: “queste tegole davvero applicate o restano buone intenzioni mentre la realtà procede in direzione opposta?”
1. Fiducia nel digitale
Il primo pilastro chiede ai leader di sviluppare una comprensione responsabile dell’AI: sapere cosa può fare, cosa non può fare, quali rischi comporta, non serve essere tecnici, ma bisogna capire abbastanza per prendere decisioni sensate.
Il problema è che la maggior parte dei leader non ha questa comprensione, meno della metà dei manager ha ricevuto una formazione strutturata sull’AI, eppure sono loro a decidere dove implementarla, quali ruoli automatizzare, come ridisegnare i processi. È come chiedere a qualcuno di pilotare un aereo dopo avergli mostrato solo le foto della cabina.
Michael Schrage del MIT Sloan lo dice chiaramente: se i leader non definiscono esplicitamente chi decide cosa nei sistemi AI, saranno i sistemi stessi a farlo per lor. Gli algoritmi fisseranno priorità e faranno scelte e spesso senza che nessuno se ne accorga o ne risponda.
2. Progettazione centrata sull’umano
Il secondo pilastro sostiene che l’AI debba potenziare le capacità umane, non sostituirle. I leader dovrebbero progettare sistemi che aiutino le persone a lavorare meglio, non che le rendono superflue.
La narrativa ufficiale è questa: l’AI “aumenta” il lavoratore, lo libera dalle mansioni ripetitive, gli permette di concentrarsi su compiti di valore. La realtà che emerge dai dati non è diversa: un terzo delle organizzazioni prevede di ridurre il personale grazie all’AI, ma solo una su dieci prevede di aumentarlo. Quando la produttività sale e l’occupazione scende, chiamarla “augumentation” è un eufemismo.
Il caso più emblematico arriva da Amazon, nel 2024 è emerso che i negozi “Just Walk Out” – presentati come rivoluzione dell’intelligenza artificiale che elimina le casse – funzionavano in realtà grazie a oltre mille lavoratori in India che guardavano i video delle telecamere e verificavano manualmente cosa avevano comprato i clienti. Sette transazioni su dieci richiedevano intervento umano. L'”AI” era un esercito di persone pagate poco e nascoste dietro uno schermo. Quando la verità è venuta a galla, Amazon ha abbandonato la tecnologia nella maggior parte dei punti vendita.
3. Gestione etica
Il terzo pilastro chiede trasparenza e responsabilità. Chi guida deve assumersi la responsabilità delle decisioni automatizzate, spiegare i criteri utilizzati, garantire il rispetto dei valori aziendali.
Nella pratica, la governance dell’AI è frammentata quando non assente. Solo un’azienda su quattro ha il CEO direttamente responsabile della supervisione etica dell’AI, in molte organizzazioni, la responsabilità ricade sui team tecnici, che hanno le competenze per implementare, ma non il mandato per decidere cosa è giusto. Nessuno è veramente accountable quando qualcosa va storto.
Il caso più noto è quello di Timnit Gebru, che co-guidava il team di etica dell’AI di Google, nel 2020 stava lavorando a una ricerca che evidenziava i rischi ambientali e i bias dei grandi modelli linguistici, gli stessi su cui Google costruiva i suoi prodotti di punta che ora sono sul mercato. Quando ha chiesto trasparenza sul processo di revisione interna, è stata licenziata, la reazione è stata immediata: migliaia di dipendenti e accademici hanno firmato lettere di protesta. Il messaggio, però, era chiaro: l’etica è tollerata finché non tocca il business.
4. Empatia applicata
Il quarto pilastro afferma che l’AI non potrà mai sostituire il bisogno di connessione emotiva tra leader e collaboratori, la tecnologia può aiutare a comprendere meglio le esigenze delle persone, ma il “tocco umano” resta insostituibile.
Ma cosa succede quando l’empatia viene delegata agli algoritmi? Oggi esistono sistemi che analizzano le espressioni facciali dei dipendenti per misurare stress e coinvolgimento, che leggono le email per valutare il “sentiment” aziendale, che tracciano il tono di voce nelle riunioni. L’intenzione dichiarata è il benessere. L’effetto reale è spesso la sorveglianza.
Daniel Goleman, il padre dell’intelligenza emotiva, è netto: l’AI può riconoscere le emozioni, ma non può provarle, può simulare comprensione, ma non può genuinamente preoccuparsi. Sherry Turkle del MIT va oltre: considera i chatbot “empatici” come il più grande attacco all’empatia reale, perché ci abituano a surrogati che non richiedono la fatica della relazione autentica.
Il rischio è sottile ma concreto: quando l’empatia diventa una metrica da ottimizzare e uno strumento di gestione, smette di essere empatia.
5. Consapevolezza dei sistemi
L’ultimo pilastro chiede ai leader di anticipare come l’AI cambierà strutture, competenze e dinamiche organizzative, bisogna preparare le persone all’incertezza e bilanciare le possibilità tecnologiche con la realtà vissuta da chi lavora.
La consapevolezza richiesta è alta. Ma chi ce l’ha? Quasi la metà dei lavoratori europei è già soggetta a qualche forma di management algoritmico: turni assegnati automaticamente, performance valutate da sistemi, carichi di lavoro distribuiti senza intervento umano, eppure raramente ricevono spiegazioni su come funzionano queste decisioni o su come contestarle.
La ricerca del MIT Sloan rileva un paradosso: contrariamente a quanto si pensava, l’automazione non distribuisce il potere decisionale – lo concentra. I middle manager perdono ruolo strategico, le scelte si spostano verso l’alto, chi controlla i sistemi controlla l’organizzazione. L’AI non democratizza. Centralizza!
Chi decide cosa preservare?
Le cinque regole proposte da Begelle sono giuste, definiscono bene cosa servirebbe, il problema è che i dati del 2024-2025 mostrano un divario sistematico tra ciò che viene dichiarato e ciò che viene praticato.
I leader non hanno la formazione per governare l’AI, ma la implementano. Le aziende parlano di potenziamento umano mentre pianificano riduzioni. I team etici vengono smantellati quando il loro lavoro diventa scomodo. L’empatia viene automatizzata e trasformata in strumento di controllo. Il potere decisionale si concentra invece di distribuirsi.
Shannon Vallor filosofa della tecnologia, avverte del rischio di “moral deskilling”: quando deleghiamo troppo alle macchine, le nostre capacità morali si atrofizzano per mancanza di esercizio.
Le regole della leadership AI sono necessarie. Ma restano insufficienti finché evitiamo la domanda di fondo: chi decide quali competenze umane meritano di essere protette e quali possono essere sacrificate all’efficienza? Questa non è una questione tecnica. È una questione di potere.
Se la leadership dell’era AI richiede competenze umane avanzate, ma chi guida oggi non le possiede e spesso non le pratica, non stiamo costruendo un nuovo divario, quello tra chi governa l’intelligenza artificiale e chi ne viene governato?




