Il 90% delle aziende sta ancora a guardare. L'AI nel 2026 premia chi agisce

Il 90% delle aziende sta ancora a guardare. L'AI nel 2026 premia chi agisce

Nel 2023 il mondo ha scoperto ChatGPT. Nel 2024 ogni CEO voleva una strategia AI. Nel 2026, il panorama si è cristallizzato in una divisione netta: da una parte, chi ha costruito competenze reali e ne raccoglie i frutti. Dall'altra, tutti gli altri, il 90%, che secondo BCG sono ancora in fase di osservazione o sperimentazione limitata.

Questo articolo non è una lista di novità. Non troverai un elenco di modelli usciti nell'ultimo trimestre, né previsioni entusiastiche su prodotti non ancora disponibili. Quello che troverai è un'analisi di cosa è cambiato concretamente nell'ultimo anno, separando il segnale dal rumore. Per ogni tendenza, una domanda: cosa significa per chi lavora?

Gli agenti AI: il grande tema 2026 tra promesse e realtà

Se dovessi scegliere una sola parola per descrivere il 2026 nell'AI, sarebbe "agenti". Non i chatbot che rispondono alle domande: sistemi che agiscono in autonomia, prendono decisioni, eseguono sequenze di azioni senza che qualcuno prema un tasto a ogni passaggio.

Gartner ha inserito i Multiagent Systems tra le 10 tendenze strategiche del 2026, definendola "una delle trasformazioni più rapide nella tecnologia aziendale dalla nascita del cloud pubblico". La previsione è precisa: entro la fine del 2026, il 40% delle applicazioni aziendali avrà agenti AI integrati nelle proprie funzioni principali. Nel 2025, quella percentuale era sotto il 5%. Un salto di otto volte in dodici mesi.

BCG conferma la direzione con i numeri: nel 2025, l'AI agentiva rappresentava il 17% del valore totale generato dall'AI nelle organizzazioni. La proiezione al 2028 è del 29%. McKinsey, nel report "Agents, Robots, and Us", si spinge oltre: le tecnologie AI disponibili oggi potrebbero automatizzare il 57% delle ore lavorative negli Stati Uniti. Gli agenti AI da soli coprono il 44% di quel potenziale. Nel 2023, la stima era del 30% entro il 2030. Non era una previsione prudente: era, evidentemente, molto conservativa.

Ma ecco il rovescio della medaglia, quello che le presentazioni commerciali omettono. Gartner stima che oltre il 40% dei progetti agentici in corso potrebbe essere cancellato entro il 2027. Non per problemi tecnici, ma per costi crescenti e valore di business poco chiaro. Il database internazionale degli incidenti AI ha registrato 346 incidenti nel 2025, quasi il 50% in più rispetto ai 233 del 2024, in un trend di crescita continuo.

Il 40% delle applicazioni aziendali avrà agenti AI integrati entro fine 2026. Eppure il 40% dei progetti agentici rischia di essere cancellato entro il 2027. Questi due numeri non si contraddicono: descrivono un mercato che si muove velocissimo ma dove la differenza tra successo e fallimento dipende da come si costruisce, non da cosa si compra.

Klarna ha implementato un sistema AI per l'assistenza clienti equivalente a circa 700 agenti a tempo pieno, riducendo il proprio organico da 5.500 a circa 3.400 persone in tre anni. Ma i casi come Klarna, quelli che vengono citati su ogni palco, sono l'eccezione, non la regola. La regola è che la maggior parte delle organizzazioni salta dalla demo alla produzione senza aver costruito le fondamenta: senza governance, senza competenza diffusa nel team, senza specifiche leggibili dal sistema che deve agire in autonomia.

La differenza la fa chi investe nell'infrastruttura invisibile: non il software che compri, ma la capacità di definire cosa l'agente deve fare, cosa non deve toccare, e quando deve fermarsi a chiedere a un umano. È quello che nel corso chiamo progettazione dell'intenzione, ed è il territorio dove si gioca la partita vera dei prossimi anni.

Il mercato dei modelli: meno rivoluzione, più ingegneria

Chi seguiva l'AI nel 2024 si aspettava che i modelli del 2025 avrebbero fatto un salto qualitativo paragonabile a quello da GPT-3.5 a GPT-4. Non è andata così. I modelli di ultima generazione sono migliori dei predecessori, ma non in modo rivoluzionario. La curva del miglioramento si è appiattita rispetto alle aspettative, e per la prima volta il settore ha dovuto fare i conti con una realtà scomoda: le prestazioni grezze dei modelli non crescono più allo stesso ritmo.

In compenso, è cambiato qualcos'altro di più concreto. I costi di inferenza sono crollati. Epoch AI stima il ritmo di miglioramento algoritmico al 400% annuo: i risultati di oggi si possono ottenere un anno dopo con un quarto delle risorse. Il GPT-4 originale, con circa 1.800 miliardi di parametri, raggiungeva il 67% su HumanEval, un benchmark per il codice. IBM Granite 3.3 2B, uscito due anni dopo e 900 volte più piccolo, ha raggiunto l'80,5%.

Questo calo dei costi è il vero abilitatore degli agenti. Sistemi multi-agente che coordinano più modelli su compiti complessi sarebbero economicamente insostenibili ai prezzi del 2024. Ai prezzi del 2026, iniziano ad avere senso.

L'altra evoluzione significativa riguarda i modelli a ragionamento, quelli che "pensano" prima di rispondere. IBM Granite 3.2, poi Claude 3.7, poi Gemini 2.5 Flash hanno introdotto il ragionamento "ibrido": la possibilità di attivare o disattivare la modalità di riflessione a seconda del compito. Non serviva un modello diverso per ogni situazione. Serviva un modello che sapesse quando fermarsi a pensare e quando rispondere subito.

Il vero cambiamento del 2026 non è un modello più intelligente. È che un modello 900 volte più piccolo del GPT-4 originale lo supera su un benchmark di codice. L'AI non migliora solo in qualità: migliora in accessibilità, e questo cambia tutto.

C'è stata poi l'onda d'urto di DeepSeek, il laboratorio cinese che ha dimostrato come un modello a Mixture of Experts potesse raggiungere prestazioni di frontiera a una frazione del costo. L'effetto non è stato solo commerciale: ha rivitalizzato un'architettura che l'industria aveva sottovalutato, e oggi Meta Llama 4, Alibaba Qwen3 e IBM Granite 4.0 hanno tutti adottato varianti dello stesso approccio. Il consolidamento non è su chi fa il modello più grande. È su chi lo rende più efficiente.

Adozione aziendale: i numeri dietro le dichiarazioni

Qui la fotografia diventa meno lusinghiera. BCG ha intervistato 1.400 dirigenti C-suite in 50 mercati e 14 settori. L'89% dichiara che AI e AI generativa sono tra le prime tre priorità tecnologiche. L'85% prevede di aumentare gli investimenti. Il 54% si aspetta risparmi concreti, e tra questi, metà prevede risparmi superiori al 10%.

Fin qui, entusiasmo. Poi arrivano i numeri reali. Il 78% delle organizzazioni usa l'AI in almeno una funzione. Ma solo il 5%, quelle che BCG chiama "future-built", genera valore AI a scala. Il 60% non vede ritorni materiali nonostante investimenti reali. Due terzi dei dirigenti ritengono che ci vorranno ancora almeno due anni perché l'AI superi le aspettative gonfiate. Il 71% si limita a progetti pilota su piccola scala.

Il divario tra chi investe e chi ne trae valore è enorme. Le organizzazioni nel 5% in testa raggiungono 1,6 volte il margine operativo e 3,6 volte il ritorno per gli azionisti a tre anni rispetto ai ritardatari. La differenza non è nel budget, ma in cinque caratteristiche che BCG ha isolato: investono sia sulla produttività sia sulla crescita dei ricavi, fanno formazione sistematica, controllano i costi d'uso dell'AI, costruiscono partnership strategiche e implementano governance responsabile.

Sul fronte formazione, i numeri sono scoraggianti. Solo il 6% delle aziende ha formato più del 25% del proprio personale sugli strumenti AI. Il 59% dei dirigenti ammette di avere poca o nessuna fiducia nella competenza AI del proprio team esecutivo. Il 45% dichiara di non avere ancora linee guida o restrizioni sull'uso dell'AI al lavoro. In un contesto dove l'AI agentiva sta per entrare nelle applicazioni che i dipendenti usano ogni giorno, questa mancanza di preparazione non è un rischio futuro: è un rischio presente.

Il divario: il 78% delle aziende usa l'AI. Il 5% ne trae valore reale. Il 60% non vede ritorni. Se la tecnologia fosse il problema, nessuno ci riuscirebbe. Ci riescono in pochi perché il problema è organizzativo, non tecnologico.

AI Act: il primo anno di regole reali

L'AI Act dell'Unione Europea è entrato in vigore nell'agosto 2024, con applicazione graduale. Il 2 febbraio 2025 è scattato il primo divieto concreto: vietati i sistemi AI a rischio inaccettabile, dalla manipolazione cognitiva al social scoring, dalla categorizzazione biometrica al riconoscimento facciale in tempo reale negli spazi pubblici (con eccezioni limitate per le forze dell'ordine).

Nell'agosto 2025 sono entrate in vigore le regole di trasparenza per i modelli di uso generale (quelli come GPT-4, Claude, Gemini): obbligo di dichiarare che i contenuti sono generati da AI, obbligo di progettare i modelli per prevenire la generazione di contenuti illegali, e obbligo di pubblicare sommari dei dati coperti da diritto d'autore usati per l'addestramento. I modelli ad alto impatto, quelli che potrebbero porre rischio sistemico, devono essere sottoposti a valutazioni approfondite.

Le regole sui sistemi ad alto rischio, quelli usati in sanità, istruzione, assunzioni, infrastrutture critiche, entreranno in vigore nell'agosto 2027. Per le aziende, significa che il tempo di preparazione non è "qualche anno". È adesso.

Per le PMI, il quadro è ambivalente. L'AI Act richiede ambienti di test (sandbox regolatori) forniti dalle autorità nazionali, pensati per consentire alle imprese più piccole di sviluppare e testare sistemi AI in condizioni controllate prima del lancio pubblico. Ma la realtà è che la maggior parte delle PMI non ha ancora un responsabile AI, né una policy interna sull'uso dell'AI tra i dipendenti (il dato BCG: 45% senza linee guida vale per tutte le dimensioni aziendali). Prepararsi alla conformità richiede prima di tutto sapere che conformità ti riguarda, e per farlo serve una comprensione di base di cosa l'AI fa e di come la si usa, ben prima di entrare nei dettagli normativi.

L'AI Act non è un documento da leggere "quando sarà il momento". Il momento è adesso. I divieti sui rischi inaccettabili sono già in vigore. Le regole di trasparenza sono iniziate ad agosto 2025. I sistemi ad alto rischio hanno tempo fino al 2027. Per il resto, il tempo è già scaduto.

Il mercato del lavoro: chi viene sostituito e chi si rende insostituibile

Il World Economic Forum ha pubblicato a gennaio 2025 il report "Future of Jobs", con dati raccolti da oltre 1.000 grandi aziende che rappresentano più di 14 milioni di lavoratori in 55 economie. La conclusione centrale non sorprende: l'AI, insieme al cambiamento tecnologico in senso ampio, è tra i principali motori di trasformazione del mercato del lavoro da qui al 2030.

Ma i numeri dietro questa conclusione raccontano una storia più sfumata di quella che circola nei titoli allarmistici. Bloomberg rileva che i quadri intermedi rappresentano più del 30% di tutti i licenziamenti dei lavoratori impiegatizi, una percentuale molto superiore al loro peso nella forza lavoro. Korn Ferry, in un sondaggio su 15.000 professionisti, ha trovato che il 41% dichiara che la propria organizzazione ha già ridotto i livelli gestionali intermedi. Il ruolo di chi raccoglie informazioni, le sintetizza in report e le distribuisce ai decisori sta venendo compresso dalla stessa tecnologia che ne faceva il collante organizzativo.

In Italia, il panorama ha le sue specificità. Solo l'8% delle PMI italiane ha un progetto AI attivo, secondo i dati disponibili. Il 56% delle aziende italiane improvvisa la formazione AI, senza un programma strutturato. Eppure gli annunci di lavoro che richiedono competenze AI sono cresciuti del 93% in un anno. La domanda c'è, la preparazione no.

Il report McKinsey "Agents, Robots, and Us" aggiunge una dimensione che merita attenzione: non è solo il lavoro ripetitivo a essere toccato. Le attività che richiedono giudizio operativo standardizzato, quelle che un middle manager eseguiva seguendo procedure consolidate e dati aggregati, sono esattamente quelle che un agente AI può gestire con efficacia crescente. Quello che resta fuori dalla portata dell'automazione è il giudizio contestuale, la negoziazione tra interessi divergenti, la capacità di costruire fiducia, la visione strategica: competenze che non si delegano, ma si sviluppano.

George C. Lee di Goldman Sachs ha dato un nome alla competenza emergente: "machine capital management", la capacità di dirigere ecosistemi di agenti AI, non solo team umani. Un manager nel 2026 non gestisce solo persone. Gestisce flussi di lavoro in cui una parte delle attività è eseguita da agenti automatici e un'altra da collaboratori umani. Il valore si genera dall'integrazione tra i due.

Il paradosso del 2026: gli annunci di lavoro con competenze AI crescono del 93%. La formazione nelle aziende italiane resta improvvisata al 56%. Chi colma questo divario adesso si sta posizionando dalla parte giusta della trasformazione.

Cosa significa tutto questo per te

I numeri raccontano una storia coerente, anche se scomoda. L'AI funziona, ma la maggior parte delle organizzazioni non riesce a estrarne valore perché sovrappone la tecnologia a processi, competenze e mentalità che non sono pronti. Gli agenti AI stanno entrando nelle applicazioni che usi ogni giorno, che tu lo sappia o meno. La regolamentazione europea è già attiva, non in arrivo. E il mercato del lavoro non sta aspettando che tutti siano pronti.

La risposta a tutto questo non è tecnica. Non è comprare un abbonamento a uno strumento, né installare un plugin, né partecipare a un webinar di un'ora. La risposta è costruire una comprensione strutturata: capire cosa l'AI sa fare e cosa no, come parlarle in modo efficace, come misurarne il valore, come gestire un team che la usa, come governare agenti che agiscono in autonomia.


Se vuoi costruire quella comprensione, non solo rincorrere le novità, Da Utente a Orchestratore parte dai fondamenti e arriva fino agli agenti AI autonomi. Otto moduli che coprono tutto: dalla struttura del prompt alla governance degli agenti, dal calcolo del ROI alla progettazione dell'intenzione. Non un glossario di termini. Un percorso che ti porta dall'uso casuale alla direzione consapevole.

\n

Vuoi padroneggiare l'AI nel tuo lavoro?

Scopri "Da Utente a Orchestratore": il corso PDF per professionisti e manager che vogliono usare l'AI concretamente.

Scopri il corso