Tutti stanno vendendo l’AI come una scorciatoia. Un plug-in. Un “metti dentro e funziona”. Una bacchetta magica che “fa tutto”.
Poi si va in produzione e succede il contrario: costi che esplodono, rischi legali che nessuno ha mappato, allucinazioni che fanno perdere credibilità e un ROI che non arriva mai… perché nessuno l’ha correttamente definito prima.
Il punto di vista di questo articolo è semplice (e scomodo): l’AI non fallisce per mancanza di modelli. Fallisce per mancanza di gestione. Il POC (proof of concept) funziona perché è un laboratorio. La produzione fallisce perché è un’azienda.
E quasi sempre per quattro ragioni: costi variabili, etica e compliance non tenuti in considerazione, limiti del modello sottovalutati/ignorati e ROI misurato su vanity metric invece che su outcome.
Capex → Opex: l’AI non è solamente un progetto
Per anni si è ragionato così: si compra una piattaforma e si sviluppa il progetto. Con l’AI, e soprattutto con LLM e servizi API, il paradigma cambia in maniera importante: si paga l’utilizzo nel tempo.
E quando si ha un modello pay per use, bisogna ragionare come un’azienda che gestisce consumi; non come un team che chiude un progetto.
Dove nasce l’illusione? Durante un POC tutto sembra economico. Poche chiamate, dataset ridotto e utenti “amici”. Poi in produzione si scopre che il costo reale è la somma di micro-costi che nessuno ha messo a budget:
- Inference – token/chiamate, rate limit, latenza, throughput, scaling;
- Data & RAG layer – query, chunking, embedding, indicizzazione, storage;
- Operation & governance – osservabilità, HITL, sicurezza, integrazioni, versioning/prompting.
Questi elementi fanno la differenza tra una demo che “spacca” e un prodotto che regge.
La domanda giusta non è “quanto costa il modello?”. È: “quanto costa ogni risultato utile?“.
La metrica che manca: cost per outcome
Bisogna passare dalla percezione del costo alla sua misurazione. Con l’AI il punto non è solo “quanti token consumiamo”, ma quanto spendiamo per unità di valore prodotto. Ecco alcuni esempi concreti:
- Costo per ticket risolto (customer care);
- Costo per preventivo generato correttamente (sales ops);
- Costo per pagina ottimizzata (content/SEO).
Se non si adottano delle metriche si sta guidando un’auto di notte con i fari spenti.
Checklist operativa
Esistono pochi passaggi che se seguiti con metodo portano un beneficio concreto nella gestione dei costi:
- Definire un budget mensile e una soglia di allarme
- Segmentare per use case (non per team)
- Introdurre una logica di tipo FinOps per AI (misura → ottimizza → limita)
- Ottimizzare prima dello scaling
- Fare caching delle risposte
- Utilizzare prompt più corti e più chiari
- Usare modelli “più piccoli” dove sufficienti
- Fare routing su modelli “più grandi” solo quando servono davvero
- Mettere in conto l’effetto più sottovalutato: l’adozione aumenta il consumo.
Quando l’AI funziona, la usano tutti. E l’opex sale.
Compliance e governance: non è burocrazia
C’è una frase che si sente spesso nelle aziende: “Sì ok, poi pensiamo agli aspetti di compliance”. Traduzione: “Ci pensiamo quando qualcuno ci obbligherà a farlo”. Oggi non è più un lusso. È una parte essenziale del prodotto/servizio.
Perché? Perché l’AI:
- Accede sempre più spesso a dati personali;
- Influenza in modo importante decisioni;
- Come gli esseri umani soffre di bias e quindi può essere fonte di discriminazione;
- Deve garantire trasparenza verso clienti e dipendenti;
- Deve garantire il rispetto del copyright nei contenuti generati;
- Deve garantire sicurezza e evitare ogni possibile abuso.
Il contesto normativo europeo è diventato molto concreto: non parliamo più di “linee guida”. Parliamo di obblighi, ruoli, responsabilità.
Il punto che quasi tutti mancano: la compliance non è un documento
Un buon approccio non è scrivere una policy. È costruire un sistema minimo, ripetibile e auditabile:
- Classificazione dei casi d’uso per rischio;
- Data governance – origine, qualità, minimizzazione, retention;
- Valutazione rischi e controlli prima e dopo il rilascio;
- Tracciabilità – log, versioni, dataset, prompt, decisioni;
- Trasparenza: disclosure (utenti e stakeholder);
- Human oversight – chi controlla cosa, quando e come agisce;
- Incident management – cosa fare quando le cose non funzionano correttamente.
Se non si usa questo approccio, l’AI diventa un “shadow system” che nessuno governa. E lì iniziano i problemi veri: dalla reputazione alle implicazioni legali tutto può diventare estremamente complesso da gestire se non si è agito prima.
“Etica” in azienda significa 3 cose molto pratiche
L’etica dell’AI si può riassumere in 3 semplici punti:
- Equità – gli output non devono essere discriminatori e per ottenere questo bisogna lavorare molto nelle fasi di test;
- Responsabilità – il modello non può essere considerato il responsabile del servizio/prodotto che si offre;
- Trasparenza – l’utente deve essere consapevole del suo interlocutore ovvero non si deve spacciare mai un’AI per un umano.
Oggi esistono molti standard e framework che aiutano a trasformare questi principi in operatività (non in slogan).
Potrebbe interessarti l’articolo Intelligenza artificiale nel 2025: cosa abbiamo imparato dai flop
Consapevolezza e limiti: l’AI sbaglia “bene”
L’errore umano spesso è evidente. L’errore dell’AI è fluido, credibile e ben scritto. E per questo è estremamente pericoloso.
Se si vuole usare l’AI seriamente, si deve far passare un messaggio chiaro in azienda:
L’AI non “sa”. Predice la prossima cosa plausibile.
Questo implica limiti strutturali che non spariscono con un modello “più grande”:
- Allucinazioni – inventa riferimenti, numeri, dettagli;
- Overconfidence – risponde con sicurezza anche quando non dovrebbe;
- Bias – eredita distorsioni da dati e contesto;
- Non determinismo – la stessa domanda può dare risposte diverse;
- Dipendenza dal contesto – se il contesto è “sporco”, l’output è “sporco”;
- Dati non aggiornati – se non ha retrieval o fonti interne, rischi obsolescenza;
- Vulnerabilità – prompt injection, leakage di informazioni, jailbreak.
Il vero salto di qualità non è fare prompt migliori. È costruire un sistema solido e robusto che contiene il modello.
La triade che funziona
Si può definire una triade che garantisca che l’AI funziona secondo le aspettative:
- Valutazione – test automatici e test umani prima e dopo i rilasci;
- Guardrail – policy, filtri, routing e blocchi su dati sensibili;
- Monitoraggio – metriche di qualità inserite in un monitoraggio automatico e continuo.
E soprattutto: AI literacy interna. Non un corso motivazionale. Una cultura condivisa su:
- Cosa può fare l’AI e cosa no;
- Quando fidarsi e quando verificare;
- Come gestire dati e confidenzialità;
- Come escalation e responsabilità funzionano davvero.
Se il team non ha consapevolezza, l’AI diventa un acceleratore… di errori.
ROI: o lo progetti o lo insegui
Qui arriva il colpo di grazia: molte aziende non hanno un problema di implementazione dell’ AI. Hanno un problema di misurazione.
Perché il ROI dell’AI non si può scoprire dopo. Si disegna prima.
Il trucco (banale) che cambia tutto
Prima di costruire un sistema basato su AI, bisognerebbe rispondere a 4 domande:
- Qual è l’outcome che si vuole cambiare? Tempo, costo, qualità, rischio?
- Qual è il baseline oggi? Numeri veri, non percezioni;
- Quali sono i costi totali? Non solo modello: anche persone, processi, governance;
- Qual è la soglia di successo e in quanto tempo? Payback, NPV, ecc.
Se non ci si interroga su questi quesiti, si finisce a misurare l’unica cosa facile: “quanti lo usano”. Che è una vanity metric.
Esempio (customer care)
- Baseline: 10.000 ticket/mese, 20 min ciascuno, 30 €/ora
- Target: -20% tempo di risoluzione — Costo AI: 3.000 €/mese
- Risultati: 8,30 €/ticket (prima 10,00) e payback ~5 giorniROI reale = produttività + qualità + rischio
In molti casi l’AI non vince perché taglia costi. Vince perché:
- Riduce errori;
- Aumenta consistenza;
- Accorcia cicli produttivi;
- Migliora l’esperienza dell’utente;
- Riduce rischio operativo/legale.
E qui torniamo ai primi tre fattori: senza opex sotto controllo, senza compliance e senza consapevolezza dei limiti, il ROI si degrada.
Un modello pratico: ROI in 3 livelli
Un modo semplice e concreto per stimare il valore dell’AI è ragionare con un ROI su tre livelli: non solo “quanto tempo si risparmia” ma anche quanto si migliora la qualità e quanto si riducono i rischi. Questo evita business case basati su impressioni e rende confrontabili le scelte nel tempo:
- Livello 1 Efficiency – Ore risparmiate, più throughput, time-to-delivery più veloce, costo per outcome;
- Livello 2 Quality – Meno rework e revisioni, meno errori, più accuratezza, approvazione “al primo colpo”, CSAT più alto;
- Livello 3 Risk – Incidenti evitati (privacy/compliance), audit readiness (tracciabilità), riduzione esposizione grazie a guardrail e escalation corrette.
Se il business case non tocca almeno due livelli, probabilmente si sta facendo “AI per fare AI”.
Conclusioni
Se si vuole davvero portare l’AI in azienda (o nel proprio prodotto/servizio), bisogna smettere di parlare solo di modelli, prompt e POC. Bisogna parlare di:
- Capex(una tantum) → Opex(ricorrente) – perché l’AI è un costo variabile che va monitorato e governato;
- Etica e compliance – perché senza il rispetto degli aspetti etici e di compliance prima o poi si fanno i conti con la realtà;
- Consapevolezza e limiti – perché l’AI sbaglia “bene” e quindi servono metodo e consapevolezza;
- ROI – perché o si disegna nelle fasi iniziali, o lo si rincorre a vuoto.
L’AI non premia chi “ci prova”. Premia chi la progetta, implementa e governa.




