AI ADOPT™ | L3 — Agenti AI · Modulo 4
← Indice corso
Lezione 1 di 3
AI ADOPT™ — Livello 3
Modulo 4
Misura quello che conta
Inserisci la password ricevuta via email per accedere al modulo.
Password di accesso
La password è inclusa nell'email di conferma acquisto. Per assistenza: info@ai-adopt.it
O — Optimize · Parte 1

Misura quello che conta

Un agente che funziona non è un agente che non si rompe: è un agente i cui output sono utili, affidabili e migliorabili nel tempo. Questo modulo ti insegna a definire i criteri di qualità prima di andare in produzione, a trovare i pattern di errore sistematico nei log, e a modificare le istruzioni in modo strutturato — non per tentativi.

Durata ~60 minuti
Lezioni 3
Fase O — Optimize
Prerequisito Moduli 1–3 completati
Sezione 1 di 4

Cosa significa "funziona bene" per un agente

Prima di mettere in produzione un agente, devi rispondere a una domanda che sembra ovvia ma quasi nessuno si pone in modo esplicito: come farai a sapere se sta funzionando bene? Non si tratta di capire se l'agente "gira" senza errori tecnici — questo è il requisito minimo. Si tratta di stabilire in anticipo quali criteri usi per giudicare la qualità degli output che produce.

La distinzione è importante. Un agente che classifica email può non andare mai in errore tecnico e produrre output di qualità mediocre: assegna la categoria giusta all'80% dei casi, ma sistematicamente sbaglia a distinguere reclami da richieste di rimborso. Senza un criterio definito a priori, questa differenza resta invisibile nelle prime settimane. Emerge solo quando un cliente lamenta una risposta fuori contesto.

Il modo corretto di affrontare la fase Optimize è definire i criteri di qualità prima di raccogliere i primi dati di produzione, non dopo. I criteri definiti a posteriori tendono a essere distorti dai risultati che già si osservano — si misurano le cose che vanno bene, si trascurano quelle che vanno male.


Sezione 2 di 4

Le tre dimensioni della qualità di un agente

La qualità degli output di un agente si misura su tre dimensioni distinte, ognuna delle quali richiede criteri e strumenti diversi. Confonderle genera valutazioni incomplete.

Dimensione 1
Accuratezza
L'output corrisponde a quello che era atteso? Il dato estratto è corretto? La categoria assegnata è giusta? La risposta generata risponde alla domanda reale?
Output corretto / Totale output verificati
Dimensione 2
Completezza
L'output contiene tutte le informazioni necessarie? Mancano campi obbligatori? Il risultato è usabile da chi lo riceve senza integrazioni manuali?
Output completi / Totale output prodotti
Dimensione 3
Consistenza
Input simili producono output simili? L'agente si comporta in modo stabile nel tempo o oscilla tra interpretazioni diverse dello stesso tipo di richiesta?
Varianza output su input equivalenti

Per le PMI italiane del settore produzione e manifattura, la dimensione più critica in genere è la consistenza: gli agenti che gestiscono comunicazioni con fornitori o clienti B2B devono produrre risposte che rispettino il tono e il lessico aziendale in modo stabile, non solo in media. Una risposta eccellente il lunedì e una rischiosa il giovedì sono peggio di due risposte mediocri nello stesso giorno — perché la seconda si vede, la prima si nasconde.


Sezione 3 di 4

Definire soglie operative prima del go-live

Una metrica senza soglia è una metrica decorativa. Se misuri l'accuratezza ma non hai stabilito quale valore la rende accettabile, stai raccogliendo dati senza un criterio di azione. La domanda giusta non è "che accuratezza ha l'agente?" ma "sotto quale soglia di accuratezza smetti di fidarti dell'output e intervieni manualmente?"

Le soglie operative si definiscono prima del go-live, non dopo. Dipendono dal contesto specifico: un agente che genera bozze di preventivi per un'azienda manifatturiera può tollerare un 15% di errori se chi approva la bozza li intercetta sempre — ma un agente che pubblica comunicazioni automatiche deve avere una soglia molto più alta, perché il punto di controllo non c'è o è successivo all'invio.

Tipo di output Soglia minima consigliata Ragione
Bozza con revisione umana obbligatoria Accuratezza > 70% Chi rivede intercetta l'errore prima che raggiunga il destinatario
Classificazione interna (log, tag, routing) Accuratezza > 85% L'errore genera inefficienze ma non danni diretti a clienti o fornitori
Output verso clienti/fornitori con punto di controllo debole Accuratezza > 95% Un errore su venti comunicazioni esterne è già un problema di reputazione
Output in contesti regolati (contratti, documentazione tecnica) Verifica manuale al 100% Nessuna soglia di automazione è accettabile senza validazione specialistica
Soglie e settore manifatturiero

Nelle PMI manifatturiere B2B, gli agenti più comuni operano su comunicazioni con fornitori tecnici, gestione ordini, e reportistica interna. La soglia critica non è l'accuratezza media: è il tasso di errori nei casi limite — quelli con prezzi anomali, clausole di penale, eccezioni al processo standard. Definisci sempre una soglia separata per i casi limite, anche se rappresentano il 5% del volume totale.

Prompt pronto all'uso
Definizione soglie operative per un agente specifico
Stai aiutandomi a definire le soglie operative per un agente AI che [DESCRIZIONE DEL PROCESSO: es. "classifica le richieste di acquisto in entrata e le smista al buyer corretto"]. Per questo agente, aiutami a: 1. Identificare le tre dimensioni di qualità più rilevanti per questo specifico caso (accuratezza, completezza, consistenza — o altre) 2. Proporre una soglia operativa concreta per ciascuna dimensione, motivando la scelta in base al tipo di output e al rischio di errore 3. Identificare i 2-3 casi limite che potrebbero avere soglie diverse dal volume standard 4. Suggerire come strutturare il log di produzione per raccogliere i dati necessari alla verifica Contesto aggiuntivo: [TIPO DI AZIENDA, SETTORE, VOLUME STIMATO DI TRANSAZIONI AL MESE, PRESENZA O ASSENZA DI PUNTO DI CONTROLLO UMANO PRIMA DELL'OUTPUT FINALE]

Sezione 4 di 4

Il log come strumento di misura, non come archivio

Nel Modulo 3 hai costruito un nodo di log nel tuo workflow. Quel nodo non ha solo la funzione di tracciare le esecuzioni: è lo strumento principale con cui misurerai la qualità dell'agente nelle prime settimane di produzione. La differenza tra un log utile e un log decorativo è la struttura dei campi che registra.

Un log utile per la fase Optimize deve contenere almeno: il timestamp dell'esecuzione, l'input (o una sua sintesi), l'output prodotto dall'agente, la categoria o classificazione assegnata, e — quando possibile — l'esito reale dell'operazione (cosa è successo dopo). Questo ultimo campo è il più difficile da raccogliere automaticamente, ma è il più prezioso: è quello che ti permette di confrontare la previsione dell'agente con la realtà.

Un log che registra solo gli errori tecnici dice solo quando l'agente si è fermato, non quando ha prodotto risultati sbagliati. Per le prime settimane di produzione, aggiungi sempre una colonna "verifica manuale" che l'operatore può compilare: anche un campione del 20-30% degli output è sufficiente per costruire un quadro affidabile della qualità reale.

DigComp 2.2 — Area 1.3: Valutazione critica dei dati AI Act — Art. 9: Gestione del rischio per sistemi AI ad alto impatto

La capacità di definire criteri di qualità verificabili e di strutturare processi di monitoraggio sistematico è una competenza digitale fondamentale nella gestione di sistemi AI in contesti lavorativi. L'AI Act richiede che i sistemi AI utilizzati in contesti professionali siano soggetti a supervisione umana e a forme documentate di verifica della qualità degli output, in particolare quando producono effetti su terzi.

Attività — Abbinamento
Associa la metrica al contesto corretto
Per ciascuno dei quattro contesti a sinistra, seleziona la metrica prioritaria a destra. Ogni metrica può essere usata una sola volta. Clicca prima un elemento della colonna sinistra, poi il corrispondente elemento della colonna destra.
Contesto operativo
Agente che genera bozze di offerta commerciale per un buyer interno
Agente che assegna ticket di assistenza a tecnici diversi per specializzazione
Agente che risponde via email a richieste di informazioni prodotto da prospect
Agente che estrae dati da bolle di consegna e li trascrive in ERP
Metrica prioritaria
Accuratezza — il dato trascritto deve corrispondere al documento originale
Consistenza — il tono e il contenuto devono essere uniformi su tutti i prospect
Completezza — l'offerta deve contenere tutti i campi richiesti dal processo
Accuratezza nella classificazione — il ticket deve arrivare al tecnico giusto
← Modulo 3 Lezione 1 di 3
Sezione 1 di 4

La differenza tra errori casuali e errori sistematici

Tutti gli agenti commettono errori. Il problema non è l'errore in sé: è il pattern che emerge quando gli errori si ripetono. Un errore casuale è quello che capita quando un input è formulato in modo insolito, o quando il contesto è ambiguo. Un errore sistematico è quello che si ripresenta nelle stesse condizioni — stesso tipo di input, stesso tipo di output sbagliato.

La distinzione ha un impatto operativo diretto. Un errore casuale richiede una soglia di tolleranza e un punto di controllo a valle. Un errore sistematico richiede una modifica alle istruzioni dell'agente — perché si ripeterà indefinitamente, indipendentemente dal volume. Trattare un errore sistematico come se fosse casuale è uno degli sprechi più frequenti nella fase Optimize: il team continua a correggere manualmente output che potrebbero essere risolti alla radice con una modifica al system prompt.

L'obiettivo di questa lezione è darti gli strumenti per distinguere i due tipi di errore nel log di produzione, e per identificare i pattern senza dover analizzare ogni singolo output.


Sezione 2 di 4

Leggere il log con un criterio di campionamento

Analizzare il 100% degli output di un agente attivo non è praticabile oltre le prime ore di test. Nella fase Optimize hai bisogno di un criterio di campionamento che massimizzi la probabilità di trovare errori sistematici senza richiedere una revisione completa.

Il criterio più efficace per le PMI è il campionamento per categoria: invece di analizzare un campione casuale di output, analizzi tutti gli output di un sottoinsieme specifico — tutti i ticket assegnati a una categoria insolita, tutte le email classificate come "reclamo prioritario", tutte le bolle con importo superiore a una soglia. Questo approccio intercetta gli errori sistematici nei casi limite molto prima di quanto farebbe un campione casuale dello stesso volume.

1
Raggruppa gli output per categoria
Usa il log strutturato del Modulo 3 per raggruppare tutti gli output per categoria o tipo. In un foglio Google Sheets: filtro per colonna "categoria", poi ordina per data decrescente. Stai cercando le categorie con volume anomalo rispetto alle attese.
2
Identifica le categorie con frequenza inattesa
Se il tuo agente di classificazione email produce il 40% di output nella categoria "informazioni prodotto" ma te ne aspettavi il 20%, quella categoria vale un'analisi approfondita. L'anomalia di frequenza è il segnale più facile da rilevare e spesso il più informativo.
Non assumere che l'anomalia sia un errore: potrebbe essere un cambiamento reale nel comportamento dei tuoi clienti. La differenza emerge dall'analisi degli output specifici.
3
Leggi gli output anomali in sequenza
Per la categoria con frequenza inattesa, leggi gli output in sequenza cronologica — non in campione casuale. Se c'è un pattern sistematico, lo vedrai ripresentarsi nello stesso modo su input diversi. Se è casuale, non ci sarà una forma riconoscibile.
4
Nomina il pattern prima di correggere
Prima di modificare le istruzioni, scrivi una descrizione del pattern in una frase: "L'agente tende a classificare come 'informazioni prodotto' le email che contengono una domanda sul prezzo, anche quando il tono e il contesto indicano un reclamo." Questa descrizione diventerà il criterio di verifica dopo la modifica.

Sezione 3 di 4

I cinque pattern di errore sistematico più comuni

Nell'analisi di agenti per PMI italiane, cinque pattern di errore sistematico emergono con frequenza significativamente superiore agli altri. Conoscerli ti permette di cercarli attivamente nel log invece di aspettare che diventino evidenti attraverso reclami o correzioni manuali accumulate.

Pattern Come si manifesta Causa tipica nelle istruzioni
Sovra-classificazione L'agente usa una categoria come "altro" di fatto, assegnandola ogni volta che l'input non corrisponde perfettamente alle categorie principali Le categorie nel system prompt non coprono i casi limite più frequenti nel dominio specifico
Ambiguità di priorità L'agente non distingue correttamente tra casi urgenti e casi standard quando entrambi usano lo stesso lessico di base Il system prompt definisce "urgente" in modo generico senza esempi contestuali specifici
Deriva di formato L'output segue il formato corretto all'inizio e poi inizia a variare — campi in ordine diverso, lunghezze diverse, chiavi JSON con nomi leggermente diversi Le istruzioni di formato non specificano i casi limite, solo il caso standard
Contesto ignorato L'agente produce output corretto per l'input testuale ma ignora informazioni contestuali fornite (storico, tipo cliente, categoria precedente) Il system prompt non specifica come usare il contesto aggiuntivo né quale peso dargli rispetto all'input corrente
Escalation mancata L'agente non attiva il percorso di fallback nei casi che lo richiederebbero, producendo un output invece di segnalare l'incapacità di gestire il caso Le condizioni di escalation sono definite in modo troppo restrittivo o con esempi solo positivi
Prompt pronto all'uso
Analisi del log per identificare errori sistematici
Sto analizzando il log di produzione di un agente AI che [DESCRIZIONE DEL PROCESSO]. Di seguito un campione di [N] righe del log, in formato CSV: [INCOLLA QUI IL CAMPIONE DEL LOG — almeno 20-30 righe, comprendenti input, output e categoria assegnata] Per ciascuna delle categorie presenti nel log: 1. Calcola la frequenza percentuale e segnala se si discosta dal volume atteso ([INDICA QUI LA DISTRIBUZIONE ATTESA PER CATEGORIA]) 2. Identifica se ci sono output che mostrano lo stesso tipo di errore — nomina il pattern in una frase 3. Indica a quale dei cinque pattern classici (sovra-classificazione, ambiguità di priorità, deriva di formato, contesto ignorato, escalation mancata) l'errore si avvicina di più, se applicabile 4. Proponi una modifica specifica al system prompt che affronti il pattern identificato

Sezione 4 di 4

Quando un errore non è dell'agente

Nell'analisi degli errori sistematici, una parte degli output sbagliati non dipende dalle istruzioni dell'agente ma dalla qualità degli input che riceve. Questo è un punto critico che molti team sottovalutano nelle prime settimane di produzione: cercano il problema nel system prompt quando il problema è nel dato di ingresso.

Tre segnali indicano che il problema è nell'input, non nell'agente. Primo: l'agente produce output imprevedibili solo su un sottoinsieme di input, e quel sottoinsieme ha qualcosa in comune nella struttura — email con allegati, ordini con codici prodotto non standard, bolle con intestazione di formato diverso dal consueto. Secondo: la correzione manuale dell'input produce l'output corretto senza cambiare nulla nelle istruzioni. Terzo: il pattern di errore cambia nel tempo, in modo correlato a cambiamenti nei sistemi o nei fornitori che generano gli input.

In questi casi, la soluzione corretta non è modificare le istruzioni ma migliorare il pre-processing degli input: aggiungere un nodo di normalizzazione prima del nodo AI, definire regole di validazione nel trigger, o rivedere il formato dei dati che arrivano dai sistemi a monte.

DigComp 2.2 — Area 2.3: Risoluzione di problemi tecnici AI Act — Art. 13: Trasparenza e tracciabilità dei sistemi AI

La capacità di distinguere tra errori imputabili al sistema AI e quelli imputabili alla qualità dei dati di ingresso è una competenza tecnica fondamentale per chi gestisce agenti in produzione. L'AI Act richiede che i sistemi AI ad alto impatto mantengano log sufficienti a permettere l'identificazione della causa degli errori — distinguendo tra malfunzionamento del modello e qualità dei dati di input.

Attività — Analisi di caso
Identifica il pattern di errore e la causa
Leggi il caso seguente e seleziona la risposta corretta per ciascuna delle due domande.
Il caso: un'azienda metalmeccanica bresciana ha un agente che classifica le email dei clienti in quattro categorie: "richiesta preventivo", "ordine confermato", "modifica ordine", "reclamo". Dopo tre settimane di produzione, il log mostra che la categoria "richiesta preventivo" rappresenta il 62% di tutti gli output, mentre le attese erano del 25%. Analizzando gli output in quella categoria, il gestore nota che molte email classificate come "richiesta preventivo" sono in realtà email che contengono sia una domanda sul prezzo di un nuovo articolo sia la conferma di un ordine già discusso. L'agente assegna sempre la categoria "richiesta preventivo" anche quando il corpo dell'email inizia con "Come concordato, confermo l'ordine..." e poi chiede un preventivo per un articolo aggiuntivo.

Domanda 1: Quale dei cinque pattern di errore sistematico descrive meglio questo caso?

Deriva di formato — l'agente produce output con struttura diversa nei casi misti
Sovra-classificazione — l'agente usa "richiesta preventivo" come categoria di fallback
Ambiguità di priorità — l'agente non distingue correttamente tra email urgenti e standard
Contesto ignorato — l'agente assegna la prima categoria rilevante nell'email ignorando il contesto complessivo

Domanda 2: Quale modifica al system prompt risolve il problema alla radice?

Aggiungere una quinta categoria "email mista" e istruire l'agente a usarla quando l'email contiene elementi di due categorie diverse
Aggiungere istruzioni che specificano come classificare le email con elementi multipli: assegna la categoria in base all'argomento principale, definito come quello che richiede un'azione da parte dell'azienda entro le prossime 24 ore
Abbassare la soglia di confidenza dell'agente per la categoria "richiesta preventivo" così che la scelga meno spesso
Aggiungere esempi di email classificate correttamente in ogni categoria, inclusi almeno due esempi di email con contenuto misto
Lezione 2 di 3
Sezione 1 di 4

Perché "provare e vedere" non funziona in produzione

La tentazione più comune nella fase Optimize è modificare le istruzioni in modo intuitivo — aggiungere una frase qui, cambiare un esempio là — e poi osservare se la situazione migliora. Questo approccio ha un problema strutturale: quando le modifiche sono multiple e non documentate, non sai quale cambiamento ha prodotto il miglioramento osservato. E soprattutto non sai quali cambiamenti hanno introdotto regressioni in altri comportamenti dell'agente che non stavi monitorando.

Il concetto di regressione è centrale nella gestione degli agenti in produzione. Una regressione è un comportamento che funzionava correttamente e che si rompe in seguito a una modifica non correlata. Negli agenti AI è molto più comune che nel software tradizionale, perché le istruzioni in linguaggio naturale hanno effetti collaterali difficili da prevedere: aggiungere un esempio per correggere il pattern di sovra-classificazione può modificare il comportamento dell'agente su input che non avevi mai testato.

L'iterazione strutturata risolve questo problema con un metodo semplice: una modifica alla volta, con test su un set fisso di casi, documentazione prima e dopo. Non richiede strumenti specializzati — funziona con un foglio di calcolo e un processo definito.


Sezione 2 di 4

Il ciclo di iterazione in cinque passaggi

Il ciclo che segue è progettato per le PMI che gestiscono agenti no-code su Make o n8n, senza un team tecnico dedicato. Richiede circa 30-60 minuti per iterazione, a seconda della complessità del caso.

1
Definisci un caso di test fisso
Prima di ogni iterazione, prepara un set di almeno 5-10 input rappresentativi: due o tre casi standard, uno o due casi limite, uno o due casi che l'agente ha già gestito male. Questi input non cambiano tra le iterazioni — sono il tuo riferimento stabile per confrontare il comportamento prima e dopo la modifica.
Usa input reali dal log di produzione, anonimizzati se contengono dati personali. Per l'anonimizzazione automatica di testi in italiano (nomi, email, codici fiscali, IBAN, indirizzi), lo strumento open source di riferimento è Presidio di Microsoft — rileva e sostituisce le entità personali prima che il testo entri nel set di test. Gli input sintetici tendono a essere troppo puliti e non intercettano i pattern di errore reali.
2
Documenta la versione corrente del system prompt
Prima di toccare qualcosa, salva una copia del system prompt attuale con una data e un numero di versione. Anche un documento Google con naming "system-prompt-v1-2026-04" è sufficiente. Questo passaggio è spesso saltato e genera problemi quando si vuole tornare indietro dopo una regressione.
3
Fai una sola modifica alla volta
Identifica il pattern di errore prioritario dalla Lezione 2. Apporta la modifica minima necessaria per affrontarlo: un'aggiunta di istruzione, un esempio, una regola IF/THEN specifica. Non correggere più pattern in un'unica versione — anche se ne vedi tre che vorresti risolvere subito.
La pressione di risolvere tutto in un'iterazione è la causa principale di regressioni non tracciabili. Ogni modifica deve essere l'unica variabile cambiata tra una versione e la successiva.
4
Testa su tutto il set fisso, non solo sul caso problematico
Esegui manualmente il set completo di test con il nuovo system prompt. Verifica che il caso problematico sia migliorato — e che i casi che funzionavano correttamente prima continuino a funzionare. Registra i risultati nella stessa struttura del log di produzione, così puoi confrontare direttamente.
5
Documenta la modifica e il risultato
Nel documento di versioning, aggiungi: quale pattern era il target della modifica, cosa hai cambiato nel system prompt, come si sono comportati i casi di test prima e dopo. Questa documentazione diventa il manuale dell'agente — e il riferimento per chi lo gestirà dopo di te.

Sezione 3 di 4

Modifiche al system prompt: cosa funziona e cosa no

Non tutte le modifiche alle istruzioni hanno lo stesso impatto. Alcune categorie di modifica sono più efficaci di altre a seconda del tipo di pattern che stai cercando di correggere. Conoscerle riduce il numero di iterazioni necessarie.

Tipo di modifica Efficace per Rischio di regressione
Aggiunta di esempi (few-shot) Ambiguità di classificazione, definizione di casi limite specifici Basso — gli esempi aggiuntivi raramente alterano il comportamento sugli altri input
Aggiunta di regola IF/THEN Comportamenti condizionali, escalation mancata, priorità ambigue Medio — una regola mal formulata può catturare casi che non dovrebbe
Ridefinizione di una categoria o concetto Sovra-classificazione, deriva di formato Alto — cambiare la definizione di una categoria può rompere le classificazioni già corrette
Modifica dell'ordine delle istruzioni Contesto ignorato, quando il modello dà troppo peso alle ultime istruzioni Alto — l'ordine ha effetti non lineari sul comportamento del modello
Aggiunta di istruzione di formato Deriva di formato, campi mancanti nell'output Basso se limitata al formato, alto se tocca il contenuto
Regola pratica

Inizia sempre dalla modifica a rischio più basso che può risolvere il problema. Se aggiungere un esempio risolve il caso, non riscrivere la definizione della categoria. La complessità del system prompt tende ad aumentare nel tempo — ogni modifica dovrebbe essere la più piccola possibile che produce il risultato atteso.

Prompt pronto all'uso
Revisione mirata di un system prompt con pattern identificato
Sto ottimizzando il system prompt di un agente che [DESCRIZIONE DEL PROCESSO]. Ho identificato il seguente pattern di errore sistematico: [DESCRIZIONE DEL PATTERN IN UNA FRASE — es. "L'agente classifica come 'richiesta preventivo' le email che contengono sia una conferma d'ordine sia una domanda su un articolo aggiuntivo"] Questa è la versione attuale del system prompt: [INCOLLA QUI IL SYSTEM PROMPT CORRENTE] Questi sono tre esempi di input con output errato che mostrano il pattern: - Input 1: [TESTO EMAIL O DOCUMENTO] → Output attuale: [CATEGORIA ERRATA] → Output corretto: [CATEGORIA GIUSTA] - Input 2: [...] - Input 3: [...] Proponi la modifica minima al system prompt che risolve questo pattern specifico, senza alterare il comportamento sugli altri tipi di input. Indica chiaramente cosa hai aggiunto o modificato e perché quella specifica modifica dovrebbe risolvere il pattern senza introdurre regressioni.

Sezione 4 di 4

Quando smettere di ottimizzare

L'ottimizzazione di un agente non finisce quando l'agente è perfetto — finisce quando il beneficio marginale di un'ulteriore iterazione è inferiore al costo del tempo richiesto. Per le PMI, questo punto arriva prima di quanto ci si aspetti: nella maggior parte dei casi, dopo tre o quattro cicli di iterazione strutturata, i pattern di errore più impattanti sono stati corretti e i rimanenti rientrano nella soglia di tolleranza definita prima del go-live.

Continuare a ottimizzare oltre quel punto genera due rischi. Il primo è il rischio di regressione: più il system prompt cresce, più è difficile prevedere gli effetti di una nuova modifica. Il secondo è il rischio di perfezionismo: cercare di eliminare ogni errore residuale porta a istruzioni così specifiche e rigide che l'agente smette di gestire correttamente i casi leggermente diversi da quelli su cui è stato ottimizzato.

Il segnale operativo che indica quando fermarsi è chiaro: quando il tasso di errori corretti manualmente è stabile e rientra nella soglia operativa definita prima del go-live, e quando due iterazioni consecutive non producono miglioramenti statisticamente rilevanti, è il momento di passare al Pilot vero e proprio.

DigComp 2.2 — Area 5.3: Problem solving e innovazione AI Act — Art. 9: Sistema di gestione del rischio — revisione continua

La gestione strutturata del ciclo di ottimizzazione di un agente AI rientra nella competenza digitale di problem solving applicato ai sistemi automatizzati. L'AI Act prevede che i sistemi AI soggetti a requisiti di gestione del rischio siano oggetto di revisione continua, con documentazione delle modifiche e dei test effettuati — un requisito pienamente soddisfatto dal ciclo di iterazione strutturata in cinque passaggi descritto in questa lezione.

Riflessione di modulo
Pensa all'agente che hai progettato o vuoi progettare. Quale delle tre dimensioni di qualità — accuratezza, completezza, consistenza — è più critica per il tuo caso specifico, e perché? Quale soglia operativa stabiliresti prima del go-live?
La riflessione non viene inviata né valutata. Serve come ancoraggio concettuale prima di affrontare la fase Pilot nel prossimo modulo. Il testo verrà incluso nel file scaricabile alla fine di questo modulo.
Attività — Costruzione guidata
Costruisci un ciclo di iterazione per il tuo agente
Applica il ciclo in cinque passaggi a un agente reale o ipotetico del tuo contesto. Compila ogni campo prima di verificare. Il tuo ciclo verrà incluso nel file scaricabile alla fine del modulo come documento di riferimento per la fase Optimize.
1 — Descrivi il processo che l'agente gestisce
2 — Indica il pattern di errore che hai identificato (o vuoi prevenire)
3 — Quale tipo di modifica useresti per correggere quel pattern? (aggiunta esempio / regola IF/THEN / ridefinizione categoria / altro)
4 — Elenca almeno tre input che useresti nel set di test fisso (casi reali o verosimili)
5 — Quale soglia operativa useresti per valutare il successo dell'iterazione?
Salva i tuoi materiali
Scarica prompt e note del modulo

Genera un file Markdown con tutti i prompt pronti all'uso di questo modulo, la tua riflessione e il ciclo di iterazione che hai costruito.

Cos'è un file .md? È un file di testo con una formattazione semplice. Puoi aprirlo con Blocco note o TextEdit — vedrai il testo con qualche simbolo di formattazione. Per visualizzarlo con titoli e sezioni già formattati, importalo in Notion trascinando il file nella barra laterale.

La riflessione e la costruzione guidata vengono incluse solo se compilate. I prompt sono sempre inclusi.
Modulo 4 completato
Hai definito i criteri di qualità, imparato a leggere i pattern di errore nel log di produzione e applicato il ciclo di iterazione strutturata. Il prossimo modulo è il cuore applicativo del metodo AI ADOPT™: costruirai agenti specifici per ciascuna fase del metodo, dal Assess al Transform.
Vai al Modulo 5 →
Lezione 3 di 3 Modulo 5 →

© 2025 AI ADOPT™ — Tutti i diritti riservati.