La normalità dell’intelligenza artificiale
Alla vista del testo che ChatGPT compone in risposta ai prompt più disparati, molti associano l’intelligenza artificiale generativa a Skynet del film Terminator – un sistema di reti neurali che avendo acquisito coscienza si rivolta contro l’umanità scatenando una guerra nucleare che uccide la maggior parte degli umani e riduce in schiavitù gli sparuti gruppi di superstiti. In realtà, i chatbot odierni, per quanto possano apparire sofisticati, sono più simili ai droidi di Star Wars: assistenti con capacità circoscritte, spesso goffi e inclini a errori grossolani. Come C-3PO possono essere utili per alcuni scopi particolari, ma sono lontani dall’essere entità autonome capaci di sostituire gli umani e il loro giudizio: la forza oscura si combatte con astronavi pilotate da uomini e con qualche Jedi di buona volontà.
Molti hanno già imparato sulla propria pelle quanto sia grande il gap fra l’IA “che cambierà il mondo” e l’IA che abbiamo a disposizione. Pochi mesi fa la città di New York ha lanciato MyCity, un sistema di IA costruito da Microsoft e pensato per semplificare l’interazione tra imprenditori e amministrazione pubblica. Come tutte le intelligenze artificiali che si rispettino, MyCity ha risposto sempre con molto garbo alle domande degli utenti, ma purtroppo non sempre in maniera corretta: in molte occasioni ha dato informazioni errate sui regolamenti amministrativi in vigore nella grande mela e ha anche indicato ad alcuni imprenditori come violare la legge. Quello che doveva essere un simbolo di innovazione amministrativa si è trasformato in un grosso problema per il sindaco di New York e un caso di studio sui limiti dell’applicabilità della tecnologia.
Limiti confermati da una serie di recenti studi. Un rapporto dell’IBM Institute for Business Value, basato su un campione di duemila amministratori delegati di grandi aziende appartenenti a trentatré aree geografiche e ventiquattro settori industriali, rivela un disallineamento fra aspettative e realtà sull’utilità dell’IA. Secondo lo studio, la maggioranza degli amministratori delegati è ottimista riguardo all’IA e prevede di raddoppiare gli investimenti in IA nel 2025 rispetto al 2024 con aspettative di miglioramenti nella produttività e nell’efficienza operativa. Gli stessi amministratori sono tuttavia pronti ad ammettere che soltanto il 25% delle iniziative di IA intraprese fino ad oggi hanno avuto ritorni positivi e di queste soltanto il 16% è stato poi effettivamente implementato su scala aziendale.
Un caso che ben esemplifica questa statistica è quello di Klarna, azienda svedese leader nei sistemi di pagamento digitale. L’azienda aveva attirato su di sé l’attenzione quando nel maggio del 2023 il suo CEO, Sebastian Siemiatkowski, aveva annunciato che un assistente virtuale chiamato “K”, anche lui intelligentemente artificiale, stava gestendo da “solo” il lavoro svolto solitamente da 700 dipendenti. Con “K” che faceva, almeno secondo la narrazione di Klarna, i miracoli al servizio clienti gestendo 2,3 milioni di conversazioni al mese, l’azienda ha tagliato 1,200 posti di lavoro fra il 2023 e il 2024.
Ma si sa che i miracoli richiedono fede e quella degli utenti è durata poco. I risultati nel lungo periodo si sono rivelati deludenti: informazioni errate, chat surreali e insoddisfazione degli utenti. Dopo due anni, l’azienda è corsa ai ripari riportando i lavoratori in carne ed ossa in prima linea. La tecnologia non è riuscita a replicare l’empatia e il giudizio umano necessari per gestire casi complessi, risultando inefficace ed inefficiente. Come ha ammesso lo stesso Siemiatkowski, Klarna ha “sottovalutato il valore delle interazioni umane”.
Un lavoro di Anders Humlum (Università di Chicago) e Emilie Vestergaard (Università di Copenaghen) offre ad oggi la prova empirica più robusta sull’impatto dell’IA sul mondo del lavoro1. I ricercatori hanno intervistato 25000 lavoratori danesi in due momenti (2023 e 2024). Le risposte riguardanti l’uso di strumenti di IA e l’aumento di produttività percepita dal loro impiego sono state incrociate con i dati amministrativi nazionali per ottenere dati oggettivi sulle caratteristiche (fatturato, dipendenti) delle aziende dei lavoratori.
La parte descrittiva dello studio rivela che la Danimarca è un caso esemplare per adozione di sistemi di IA: secondo i dati raccolti, il 43% dei lavoratori viene attivamente incoraggiato a utilizzare l’IA, il 38% delle aziende ha sviluppato propri modelli interni e il 30% dei dipendenti ha ricevuto formazione specifica.
Ma l’obiettivo dello studio è quello di stabilire un nesso causale tra adozione dell’IA ed effetti sulla produttività. Per evitare i problemi metodologici di molti studi che si limitano a mostrare correlazioni fra produttività e investimenti in IA, i ricercatori hanno sfruttato un’elegante strategia di identificazione causale. L’idea è semplice ed è basata sul confrontare i lavoratori che usano l’IA con quelli che non la usano prima e dopo il novembre del 2022, data di lancio di ChatGPT. Questo doppio confronto serve a garantire che eventuali differenze di performance non dipendano dalle caratteristiche individuali che potrebbero distorcere i risultati: per esempio, gli utilizzatori di IA potrebbero essere più giovani e più qualificati e quindi avere un profilo salariale più alto indipendentemente dall’uso della tecnologia. Divergenze post novembre 2022 possono essere così ragionevolmente attribuite all’uso della tecnologia, non a differenze pregresse dei lavoratori.
L’analisi econometrica non mostra alcun impatto economico rilevabile dell’adozione dell’intelligenza artificiale. La stima dell’effetto dell’implementazione di massa dei sistemi di IA sui fatturati delle aziende e sulle ore lavorate è praticamente pari a zero, con intervalli di confidenza che escludono, in termini statistici, effetti superiori all’1%. Questi effetti minuscoli sull’occupazione possono essere spiegati dai modesti effetti sul risparmio orario su attività lavorative stimati essere non più del 2,8% – un valore ben lontano dalle rivoluzioni promesse dai profeti della singolarità tecnologica.
I risultati dello studio sono tanto chiari quanto sorprendenti. L’impatto sui guadagni e sulle ore risparmiate dagli utilizzatori è praticamente nullo: gli effetti non superano, statisticamente, il 2%. I ricercatori hanno anche condotto l’analisi separatamente per categorie occupazionali, senza trovare effetti significativamente diversi a quelli dell’analisi aggregata. Nemmeno disaggregando per caratteristiche demografiche emergono differenze: l’impatto dell’IA non è maggiore per i lavoratori più giovani che pure riportano di adottare la tecnologia con più entusiasmo.
Nonostante la rapida adozione e gli ingenti investimenti da parte delle aziende danesi, l’IA ha avuto un impatto minimo sulla produttività del lavoro. Come riconciliare questi risultati con la narrazione di una intelligenza artificiale destinata a cambiare per sempre la struttura del mondo del lavoro?
Una possibile risposta alla deludente performance dell’IA ad oggi stimata è che ci troviamo ancora nella fase embrionale dello sviluppo di IA. L’OCSE ha recentemente mappato la “frontiera economica dell’IA” – l’insieme dei modelli che offrono il miglior rapporto qualità-prezzo – documentando una rapida trasformazione2. Tra marzo 2023 e febbraio 2025, la qualità dei modelli di IA è migliorata vertiginosamente mentre i prezzi sono crollati: l’accesso ad un modello con qualità comparabile a GPT-4, il migliore disponibile nel 2023, è possibile oggi ad un costo pari ad un centesimo di quello originale. Dato il miglioramento esponenziale, tra pochi anni o addirittura fra pochi mesi avremo modelli in grado di attuare la “rivoluzione” produttiva. Purtroppo, i benchmark utilizzati per misurare questi progressi sono poco indicativi dell’utilità pratica dell’IA in contesti reali.
In alcuni domini circoscritti il progresso è innegabile, si pensi ai sistemi di traduzione o ad AlphaFold, il sistema di predizione delle strutture delle proteine, che è oggi uno strumento indispensabile nella ricerca biologica. Ma questi successi riguardano applicazioni in contesti circoscritti e con regole, quelle semantiche e biologiche, ben definite anche se complesse.
Prendiamo l’esempio più celebrato: GPT-4 e l’esame di abilitazione forense americano. I titoli trionfalistici raccontano di un’IA che ha superato l’Uniform Bar Examination, l’esame per essere abilitati alla professione forense negli USA, con un punteggio di 297 – ben sopra la soglia di 273 – collocandosi vicino al 90° percentile dei candidati umani. Impressionante? Solo in apparenza. L’esame è strutturato in maniera da esaltare le capacità dei modelli linguistici: la memorizzazione di nozioni codificate, l’applicazione meccanica di procedure standardizzate, il riconoscimento di pattern in domande a risposta multipla. Ma la pratica legale richiede creatività strategica per costruire argomentazioni innovative, giudizio contestuale per navigare zone normative “grigie”, capacità di leggere le dinamiche umane dietro controversie contrattuali. Lo stesso vale per la programmazione. Mentre l’IA risolve problemi di coding ben definiti, problemi che fanno parte dei benchmark più usati nella frontiera, la progettazione e la realizzazione di software sono tutt’altra cosa e restano ampiamente non solo al di là dalla portata dei modelli attuali, ma anche di quelli che potremmo aspettarci nei prossimi anni. I benchmark misurano ciò che è facile misurare, non ciò che conta davvero.
L’IA è un’innovazione “normale” che seguirà percorsi simili a quelli di altre trasformazioni tecnologiche con impatti economici graduali che richiedono decenni per materializzarsi pienamente. I benefici in termini di produttività dell’elettricità si materializzarono solo dopo una riprogettazione completa delle fabbriche e delle linee di produzione che fu completata quarant’anni dopo che la prima dinamo di Edison fu costruita. Un simile arco temporale ha seguito il computer. Mentre tutti immaginavano come gli elaboratori elettronici avrebbero potuto repentinamente cambiare l’economia, il mondo del lavoro e la società, nel 1987 Robert Solow osservava che “l’era dei computer si può vedere ovunque tranne che nelle statistiche sulla produttività.” Anche la trasformazione digitale ha richiesto decenni di sperimentazione e riprogettazione dei processi aziendali e sociali prima che i benefici diventassero evidenti. Esiste quindi una forte tensione tra innovazione tecnologica e diffusione: l’adozione dell’IA a quei contesti dove è probabile abbia un impatto è limitata dalla velocità con cui organizzazioni e istituzioni possono adattarsi. Serviranno decenni di sperimentazione e di affinamento prima di vederne i frutti.
Ma se l’IA sta seguendo il percorso di altre tecnologie “normali”, come spiegare i flussi di capitale senza precedenti che sta attraendo? Meta, Amazon, Alphabet e Microsoft hanno in programma di investire 320 miliardi di dollari in data center destinati ad applicazioni IA dopo averne già spesi 240 nel 2024. E questi dati non includono gli investimenti delle altre grandi del settore tecnologico come Apple, Tesla e Nvidia. Gli investimenti dei fondi di venture capital in IA generativa sono esplosi passando da meno di 1 miliardo di dollari nel 2019 a circa 22-29 miliardi del 2023 e raddoppiando a 45-48 miliardi nel 2024. È lecito aspettarsi un addizionale incremento per 2025, visto che solo nel primo trimestre del 2025 i fondi hanno già allocato 56 miliardi in investimenti in aziende IA. OpenAI, la startup dietro ChatGPT, ha una valutazione che sfiora circa 300 miliardi di dollari pur avendo registrato nel 2024 perdite per circa 5 miliardi (a fronte di un fatturato di 3,7 miliardi di dollari). OpenAI prevede ricavi di 12 miliardi nel 2025, ma non avrà un cash-flow positivo prima del 2029, quando “spera” di superare i 125 miliardi di fatturato.
Come ha avvertito Goldman Sachs in un recente rapporto, le aziende potrebbero non vedere un ritorno sufficiente sui 1000 miliardi di dollari di spesa in IA nei prossimi anni. Anche Sequoia Capital, uno dei più grossi fondi di venture capital del mondo, ha sollevato dubbi simili.
Il riallineamento delle aspettative potrebbe innescare correzioni dolorose: gli investitori che oggi pagano multipli stratosferici per società in perdita potrebbero trovarsi con asset drasticamente svalutati, con conseguenze che potrebbero estendersi ben oltre il settore tecnologico. Come anche qui la storia insegna.
1 Humlum, Anders, and Emilie Vestergaard. Large Language Models, Small Labor Market Effects. No. w33777. National Bureau of Economic Research, 2025.
2 Christophe André, Manuel Bétin, Peter Gal, and Paul Peltier: Developments in Artificial Intelligence markets: new indicators based on model characteristics, prices and providers, Working Party No. 1 on Macroeconomic and Structural Policy Analysis. Forthcoming.