
Oltre il 40% dei progetti delle imprese con gli agenti AI verrà cancellato di qui alla fine del 2027: troppi costi, valore aziendale poco chiaro e aumento dei rischi spingeranno al passo indietro. Lo ha scritto Gartner in una recente ricerca [in inglese], ribadendo come l’adozione dell’AI agentica in azienda debba avvenire secondo un piano ragionato e con una chiara visione di aree di applicazione e obiettivi, o si finirà con lo sprecare risorse.
Anushree Verma, Senior Director Analyst di Gartner, sottolinea che oggi la maggior parte dei progetti di agentic AI è costituita da esperimenti in fase iniziale o proof of concept, alimentati principalmente dalle aspettative generate dall’hype e spesso applicati in modo errato.
L’entusiasmo non sorretto da una vision “può far perdere alle organizzazioni la visibilità sui costi reali e la complessità dell’implementazione degli Agenti AI su larga scala, impedendo ai progetti di entrare in produzione”, sottolinea Verma. “È necessario che le organizzazioni vadano al di là delle aspettative astratte per prendere decisioni strategiche e ponderate su dove e come applicare questa tecnologia emergente”.
“L’intelligenza artificiale non è una tecnologia nuova, ma oggi, con l’arrivo della GenAI, sembra che abbiamo scoperto qualcosa di inedito e che occorra partire in quinta sulle implementazioni. Per me, invece, l’AI non serve se non si sviluppano i casi applicativi giusti”, conferma Fausto Casati, ICT Director di Quanta System (eccellenza italiana con sede a Samarate, in provincia di Varese, specializzata nella produzione di tecnologie laser medicali per la dermatologia, la medicina estetica, l’urologia e la ginecologia, oltre che per la conservazione delle opere d’arte). “Per questo noi in Quanta stiamo lavorando su dei modelli precisi”.
Anziché dare licenze per la GenAI a tutto il personale, l’azienda ha scelto un’altra strada: cercare di implementare agenti specifici in sistemi come il CRM per funzioni mirate, accompagnando il progetto con una formazione specifica per gli utenti del gestionale.
“Ci sono aspetti etici, di sicurezza e di sostenibilità nell’AI che vanno sempre calcolati”, sottolinea Casati.
I CIO in fase di esplorazione
In un sondaggio [in inglese] condotto da Gartner nel gennaio 2025 su 3.412 partecipanti a un webinar sull’AI agentica, il 19% ha dichiarato che la propria organizzazione ha effettuato investimenti significativi in quest’area, il 42% ha investito in modo prudente, l’8% non ha fatto nessun investimento e il restante 31% adotta un approccio attendista o è incerto. Questi risultati rispecchiano quanto succede anche in Italia: la maggior parte dei CIO è cauta.
Questo accade perché esistono rischi percepiti come ineliminabili, a cominciare da quello di bias: se i dati dai cui gli agenti AI apprendono sono parziali o contengono pregiudizi, anche le decisioni e le azioni dell’agent saranno distorte, con possibili ricadute negative sui processi aziendali e i clienti.
Ci sono anche possibili ripercussioni sulla sicurezza e sulla privacy: gli agenti AI spesso hanno accesso a dati sensibili. La loro integrazione richiede standard di sicurezza elevati per prevenire fughe di informazioni o attacchi cyber. Per i CIO la conformità normativa (innanzitutto al GDPR) è una priorità assoluta, insieme alla supervisione umana.
Anche i costi sono un fattore da considerare. Non si tratta solo delle spese per la licenza o per lo sviluppo degli agenti, ma dell’investimento necessario per l’integrazione con i sistemi esistenti e l’infrastruttura sottostante (potenza di calcolo, storage…) e per la formazione del personale, che deve imparare a collaborare con gli agent. Un’implementazione efficace richiede una fase di studio per assicurarsi che l’investimento generi un ROI positivo e che l’Agente sia ben addestrato sui dati specifici dell’azienda.
Perciò il mantra dei CIO è procedere con lo sviluppo di caso d’uso capaci di creare valore. Si parte dal business case e si testa la capacità di raggiungere dei risultati.
Le applicazioni che convincono di più
Su queste basi, diversi CIO stanno iniziando a esplorare e, in alcuni casi, a implementare gli agenti AI.
Gli agent sono considerati utili per automatizzare attività ripetitive e time-consuming, come la gestione documentale, la prima linea del supporto clienti (grazie a chatbot più evoluti), l’ottimizzazione di processi interni, l’analisi di grandi volumi di dati per identificare trend e fare previsioni e anche il coding e il debugging automatico.
“Stiamo osservando con grande interesse il mondo degli agenti AI e sono convinto che debbano trovare la giusta collocazione in azienda e nel suo business, come supporto alle persone”, afferma Lorenzo Cibrario, CIO dell’Università Vita-Salute San Raffaele. “Per esempio, un agente AI che genera un’analisi dei documenti interni che seguono format pre-elaborati è un grande supporto per le persone, perché fa risparmiare il tempo di lettura e sintesi dei documenti e garantisce un’alta affidabilità. Diverso è usare un AI agent per riconciliare le fatture o leggere una prescrizione di un medico: questi sono tipi di documenti poco codificati e il tasso di errore è alto”.
Anzi, Cibrario sottolinea che il business si deve sempre chiedere quanto è pronto ad accettare un tasso di rischio che, con l’AI, “non è azzerabile”.
“Bisogna disegnare prima gli scenari potenziali in modo da definire la strategia da adottare per affrontare i rischi”, spiega Cibrario. “Come sempre, l’IT è la guida e non può farsi influenzare dai vendor, perché risponde al business. Il CIO deve dimostrare coi fatti il tasso di successo delle tecnologie AI. Per questo facciamo tanti PoC: servono per valutare quanto l’AI sbaglia, testare gli use case e addestrare i modelli sulla nostra specifica azienda. Non ci serve il training su dati generici”.
Sull’AI ci vogliono “casi applicativi e sicurezza”, ribadisce Casati. Per questo il Direttore ICT di Quanta ha cominciato proprio con gli agenti nel CRM anziché con prodotti di GenAI per tutta la popolazione aziendale.
“Non ci serve un’AI generica, ma mirata e controllata”, sottolinea Casati. “Nel progetto CRM che stiamo avviando useremo gli agenti per la gestione dell’assistenza del nostro prodotto: gli AI agent guideranno i distributori e i clienti a entrare nella knowledge base e a risolvere in autonomia il problema. Poi, se necessario, l’utente può aprire un ticket e passare all’assistenza con i nostri addetti del customer service, i quali potranno sfruttare altri AI agent per velocizzare la risoluzione tecnica”.
L’applicazione sulle basi dati e i sistemi gestionali, accompagnata da una solida formazione del personale, è il caso d’uso più frequente.I CIO delle aziende manifatturiere, per esempio, stanno considerando gli agent per agevolare la ricerca sui prodotti che i loro clienti effettuano tramite diversi canali: una soluzione è convogliare le richieste verso agenti AI che interrogano i sistemi gestionali.
In Banca Generali, invece, le implementazioni sono partite dalle operation, che rappresentano “un’area privilegiata per la sperimentazione dell’AI agentica, sia in chiave di recupero di efficienza che in ottica di supporto alla Rete”, spiega Paolo Avallone, Head of IT & Operations di Banca Generali.
La Banca ha identificato anche altre aree nelle quali partiranno presto ulteriori sperimentazioni, da quella commerciale per la gestione iper-personalizzata dei clienti al risk management per la simulazione degli scenari di stress, dall’IT security per il rilevamento delle frodi in tempo reale all’HR per la gestione intelligente dell’onboarding.
Tra la “killer app” e l’explainability
La cautela dei CIO dipende anche da un altro fattore: quello che manca oggi nell’agentic AI ai fini dell’implementazione aziendale è la killer application”, come evidenzia Fabrizio Silvestri, docente del corso di laurea magistrale in data science all’interno di Scienze dell’Informatica (Ingegneria, Università La Sapienza di Roma).
“Perciò è importante che le imprese, e i loro team IT, guardino ai casi d’uso di valore per le loro esigenze e non a un impiego indiscriminato degli agenti”, precisa Silvestri. “Ci sono già applicazioni di successo, come i sistemi di valutazione, che mettono insieme agenti valutatori e valutati, o la scrittura del codice software”.
C’è anche la questione della spiegabilità, alla quale i CIO sono molto attenti: a volte può essere difficile comprendere il “perché” una decisione sia stata presa da un agente AI. Questo rende complessa la supervisione e la correzione di eventuali errori. Ma, avverte Silvestri, la cosiddetta AI explainability non è raggiungibile al cento per cento.
“Ciò è insito nel modo stesso in cui funziona questa tecnologia”, spiega il docente. “Per esempio, quando si fa generazione di un testo, l’LLM procede generando un termine alla volta, secondo la modalità di generazione autoregressiva, e ogni termine viene scelto casualmente tra una rosa di molto probabili. Per questo se ripetiamo la stessa domanda verrà generato ogni volta un testo lievemente diverso. Ma è lì che si annida la possibilità di errore. Se il sistema sbaglia un termine, questo può trascinare con sé l’errore in tutto il resto del testo, perché ormai quel termine è stato scelto e il sistema va avanti. Le allucinazioni derivano da questo tipo di comportamento”.
In altri casi ci sono quelle che gli scienziati dei dati chiamano le abilità emergenti: gli LLM possono effettuare operazioni per le quali non sono stati addestrati. Questo accade perché la grande quantità di dati e l’architettura del modello consentono agli LLM di apprendere anche le relazioni tra parole. Così, per esempio, se il modello ha visto nei dati l’associazione tra segno + e la somma, potrà svolgere un calcolo anche se non è stato addestrato per quello.
“Spiegare completamente come ha fatto non è possibile, perché il numero di calcoli che l’LLM effettua è talmente grande e il modello è talmente complicato che non possiamo andare a vedere esattamente dove ha imparato l’associazione tra segno + e somma. Allo stesso modo, se capita un errore non sarà possibile capire da dove è nato”, prosegue Silvestri. “Ci accontentiamo di dire che, se l’output è al 99,9% giusto, può valere la pena di accettare il rischio di errore a fronte di vantaggi che il modello garantisce rispetto alle operazioni che un essere umano potrà mai fare. È così che si accetta, per esempio, l’uso degli LLM nella ricerca o nella diagnostica medica, del resto, anche gli umani sbagliano”.
Al tempo stesso, secondo Silvestri, il vantaggio degli agenti rispetto ai sistemi di machine learning è che, qui non c’è bisogno di enormi quantità di dati ma di alcuni esempi specifici.
“Poi occorre costruire le interazioni tra i vari sistemi di Agenti e gli umani, e questa è una caratteristica veramente innovativa di questi sistemi”, dichiara il docente. “Certo, si parla anche di agenti totalmente autonomi, ma è chiaro che se si lascia il controllo alle persone si ha molta più spiegabilità. Questi sistemi non sono costruiti, almeno per ora, per operare da soli: nella migliore delle ipotesi negative, sbaglieranno, nel peggiore degli scenari produrranno seri danni”.
Come evitare il fallimento dei progetti
Ma come procedere, in concreto, per adottare oggi l’AI e gli agenti, per coglierne subito le opportunità col cosiddetto vantaggio del first mover, senza rischiare di finire in quel pool di imprese segnalato da Gartner che dovrà cancellare i progetti a causa di uno scarso ROI?
Il primo punto è: ripensamento strategico. O, se volete, vision tecnologica, organizzativa e culturale.
“L’intelligenza artificiale, e in particolare la GenAI, impongono alle aziende di ripensare il proprio modello di funzionamento, integrando in modo strategico e mirato la tecnologia nei propri ingranaggi”, indica Avallone di Banca Generali. “Adottarla in una prospettiva agentica significa ripensare profondamente i processi di lavoro e ridefinire il concetto di ‘aggiungere valore’ nel ruolo di ciascuno, affrontando apertamente le resistenze emotive e culturali che vedono in essa uno strumento per pensare meno, anziché per pensare meglio”.
In Banca Generali, per esempio, una delle sfide più rilevanti dell’IT sarà quella di gestire (insieme all’HR per la componente umana) gli agenti distribuiti nell’organizzazione, “al fine di garantire un’efficace collaborazione con le persone che li utilizzeranno nel loro lavoro quotidiano”, afferma Avallone. Ma la strategia c’è, ed è quella che fa la differenza.
Del resto, le potenzialità sono enormi: l’AI agentica rappresenta un balzo in avanti nelle capacità dell’AI e nelle opportunità di mercato, secondo Gartner. Fornirà nuovi strumenti per migliorare l’efficienza delle risorse, automatizzare attività complesse e introdurre inedite innovazioni di business, andando oltre le capacità dei bot e degli assistenti virtuali.
Gartner prevede che, entro il 2028, almeno il 15% delle decisioni lavorative quotidiane sarà preso in autonomia tramite l’AI agenziale, rispetto allo 0% del 2024. Inoltre, il 33% delle applicazioni software enterprise includerà l’AI Agenziale, rispetto a meno dell’1% del 2024.
Lo sguardo è, dunque, è sul medio periodo: secondo le previsioni di IDC, nel 2029 il 26% della spesa IT globale sarà destinata all’intelligenza artificiale con una spinta decisiva dall’agentic AI. Ma, aggiungono gli analisti, è “una vera prova di leadership e visione”. Le imprese possono ottenere un netto vantaggio competitivo, purché si impegnino verso un cambiamento che non è solo tecnologico, ma di processo e cultura.
Muoversi ora puntando sul valore. Il boom nel 2028
In questa fase iniziale per le implementazioni degli agent è importante adottare lla tecnologia solo laddove offra un chiaro valore o un ROI: potremmo definire questo il secondo pilastro di un solido progetto di AI agenziale.
“Per ottenere un valore reale, le organizzazioni devono concentrarsi sulla produttività aziendale, piuttosto che sulla semplice augmentation delle attività individuali”, evidenzia Verma di Gartner.
Si può iniziare utilizzando gli agenti AI quando è necessario prendere decisioni, mentre per i flussi di lavoro ordinari basta l’automazione (l’RPA) e, per il semplice retrieval, vanno benissimo gli assistenti, sottolinea l’esperta.
C’è un terzo elemento a cui prestare attenzione. Molti fornitori tecnologici stanno alimentando l’hype con il rebranding di prodotti esistenti (assistenti AI, RPA, chatbot…) in agenti AI. Gartner lo definisce “agent washing” ma avverte: si tratta sempre degli stessi prodotti, privi di sostanziali capacità agenziali. Gli esperti riferiscono di aver testato “migliaia” di prodotti presentati come AI agent e solo 130 lo erano realmente.
“La maggior parte delle proposte di AI agenziale non offre un valore significativo o un ritorno sull’investimento, perché i modelli attuali non hanno la maturità e la capacità agenziale necessarie per raggiungere in autonomia obiettivi aziendali complessi o seguire istruzioni dettagliate nel tempo”, ammonisce Verma. Inoltre, “molti casi d’uso oggi presentati come agenziali in realtà non richiedono l’implementazione di agenti”.
“L’AI costa, perciò assicurarsi un ritorno è essenziale”, conferma Luca Grivet Foiaia, Technology Consulting Leader di EY Italia. “Il valore si estrae solo con il coinvolgimento di tutte le aree di business e dei C-level, in una strategia condivisa. Il CIO deve mostrare competenze strategiche per relazionarsi col board e far capire alla C-suite come i progetti di AI e di innovazione permetteranno all’azienda di crescere”.
Estrarre valore dall’AI e dagli agents è, dunque, sicuramente possibile, ma esige che il CIO definisca e guidi una AI strategy e faccia partecipare tutta l’azienda. La tecnologia maturerà velocemente: IDC prevede un boom nella creazione di agenti AI di qui al 2028: nel prossimo quinquennio saranno 10 volte più numerosi e sofisticati.