Novecento milioni di persone usano ChatGPT ogni settimana. Due miliardi e mezzo di prompt al giorno, stando ai numeri comunicati da Sam Altman a luglio 2025. Se contassimo ogni singola richiesta fatta a ChatGPT in 24 ore, supereremmo di gran lunga le ricerche Google fatte in Italia nello stesso arco di tempo.
Il 40% di queste interazioni serve per scrivere testi. Il 24% per ottenere consigli pratici. Il 13,5% per cercare informazioni. Una mole di utilizzo senza precedenti, eppure la qualità media dei risultati resta sorprendentemente bassa. Non perché lo strumento non funzioni. Perché la maggior parte delle persone lo usa commettendo gli stessi cinque errori, sessione dopo sessione, senza accorgersene.
Sono errori che chi lavora con l'AI professionalmente riconosce subito, perché li ha fatti tutti prima di correggerli. E la differenza tra chi li corregge e chi continua a ripeterli non è tecnica, non è di abbonamento, non è di intelligenza. È di consapevolezza.
ChatGPT non è Google (ma quasi tutti lo trattano così)
Il primo errore è il più fondamentale, e non ha niente a che fare con la tecnica.
Quando una persona apre ChatGPT per la prima volta, lo tratta quasi inevitabilmente come un motore di ricerca più evoluto. Scrive una domanda, aspetta una risposta, la legge, passa alla domanda successiva. "Qual è il miglior software di project management?" "Come si scrive una lettera di reclamo?" "Quali sono le tendenze del marketing digitale nel 2026?" Sono domande legittime. E ChatGPT le gestisce in modo accettabile. Ma non è quello per cui è stato costruito, e usarlo così significa sfruttare forse il 10% del suo potenziale.
Il punto è semplice: Google cerca, ChatGPT costruisce. Google va in un archivio enorme e recupera documenti che contengono le parole che hai scritto. ChatGPT genera contenuto sulla base delle informazioni che gli fornisci. Quando gli fai una domanda secca, senza contesto, lo stai costringendo a cercare informazioni con gli strumenti di chi è nato per generare contenuti. Il risultato è prevedibilmente mediocre.
La persona che scrive "scrivi un'email al mio cliente" sta chiedendo alla macchina di produrre una qualsiasi email, a un qualsiasi cliente, per un qualsiasi motivo, con un qualsiasi tono. L'AI non ha accesso alla tua casella di posta, non sa chi è il tuo cliente, non conosce il contesto della vostra relazione, non sa se l'email è una risposta a un problema, una proposta commerciale, o una comunicazione di crisi. Fa quello che un impiegato farebbe se il suo responsabile gli dicesse "scrivi un'email" senza aggiungere altro: produce qualcosa di formalmente corretto e completamente inutile.
I numeri lo confermano. Chi usa metodi strutturati riporta il 37% di soddisfazione in più sugli output e sviluppa prompt efficaci il 65% più velocemente. La ricerca METR su professionisti che lavorano con AI ha documentato che chi ha abitudini di prompting scarse impiega fino al 19% in più per completare le stesse attività rispetto a chi usa lo strumento con consapevolezza.
Il costo di trattare ChatGPT come Google non è solo un output peggiore. È un'ora al giorno spesa a correggere quello che lo strumento avrebbe potuto produrre bene, se gli avessi dato il contesto giusto.
900 milioni di utenti settimanali. 2,5 miliardi di prompt al giorno. Eppure la maggior parte delle interazioni produce risultati che richiedono più correzioni di quanto dovrebbero. Il problema non è lo strumento. È come lo si usa.
"Scrivi qualcosa su X" non è un'istruzione
Il secondo errore è il fratello del primo, ma si manifesta in modo diverso. Qui l'utente capisce che ChatGPT genera contenuti, non cerca informazioni. Sa di dovergli chiedere di produrre qualcosa. Ma la richiesta è talmente vaga da essere quasi priva di valore.
"Scrivi un articolo sul marketing digitale." "Prepara una presentazione sulla nostra strategia." "Fammi un piano per i prossimi tre mesi." Sono istruzioni che suonano ragionevoli ma che, in pratica, costringono l'AI a indovinare quasi tutto: il destinatario, il contesto, il tono, la lunghezza, il livello di dettaglio, cosa includere e cosa escludere. Il risultato è un testo generico che richiede tanta riscrittura quanto ne avrebbe richiesto partire da zero.
La soluzione non è scrivere prompt più lunghi. È scrivere prompt più specifici. Un'analisi della TU di Monaco condotta nel 2025 su oltre 2.000 modelli di prompt usati in contesti aziendali reali ha confermato che la struttura e l'ordine delle componenti fanno differenza sul risultato. Quattro componenti: contesto, ruolo, obiettivo, formato. Quattro domande da farsi prima di premere invio, non un formulario da compilare.
Metti a confronto due versioni della stessa richiesta e il divario diventa evidente.
Versione A: "Scrivi un'email al mio cliente."
Versione B: "Scrivi un'email al mio cliente Marco Bianchi, direttore acquisti di un'azienda manifatturiera di medie dimensioni. Abbiamo avuto una chiamata venerdì scorso in cui ha sollevato preoccupazioni sui tempi di consegna. Voglio scusarmi per il ritardo, spiegare brevemente cosa è successo, e proporre una chiamata questa settimana per discutere le soluzioni. Tono professionale ma non freddo, siamo in rapporto da tre anni."
La versione B non è più difficile da scrivere. Richiede forse trenta secondi in più. Ma cambia radicalmente la qualità di quello che ottieni. Con la versione A, passi due minuti a scrivere e dieci a correggere. Con la versione B, passi due minuti a scrivere e due a correggere. Il risparmio reale è sempre nel prompt più dettagliato.
Chi lavora con prompt strutturati registra miglioramenti nella qualità percepita tra il 40% e il 60%. Non è un'opinione: è il dato medio che emerge quando chi usa l'AI smette di chiedere "scrivi qualcosa su X" e inizia a specificare per chi, in che contesto, con quale obiettivo.
La prima risposta non è quasi mai quella definitiva
Questo è l'errore più sottile dei cinque, perché nasce da un'aspettativa che sembra ragionevole: scrivo il prompt, ottengo il risultato, finito.
Il problema è che ChatGPT non è un distributore automatico. È una conversazione.
La stragrande maggioranza degli utenti scrive una richiesta, legge l'output, non è del tutto soddisfatta, e fa una delle due cose peggiori possibili: chiude tutto e ricomincia da zero, oppure accetta un risultato mediocre perché "almeno ho risparmiato un po' di tempo."
Chi usa l'AI in modo professionale fa l'opposto. Scrive il prompt iniziale, legge l'output, e poi dà un riscontro mirato. Non "miglioralo", che non dice niente alla macchina. Ma "il tono è troppo formale per il nostro pubblico, accorcia il terzo paragrafo, e aggiungi un riferimento al prezzo di lancio." Specifico, diretto, misurabile.
Il risultato dopo tre o quattro scambi è quasi sempre superiore a quello che qualsiasi prompt avrebbe prodotto al primo tentativo. E il tempo totale è spesso inferiore, perché è più facile dire cosa manca in un testo che esiste già, che descrivere in anticipo ogni dettaglio di un testo che non esiste ancora.
C'è un altro strumento che la maggioranza degli utenti non conosce: chiedere all'AI di scrivere il prompt per te. Si chiama meta-prompting, ed è una tecnica in cui descrivi informalmente quello che vuoi ottenere e chiedi alla macchina di costruire la richiesta strutturata al posto tuo. La ricerca Self-Refine (2025) ha documentato un miglioramento medio del 20% sulla qualità degli output rispetto al prompt non strutturato di partenza. In pratica: se non sai come chiedere qualcosa, chiedi all'AI di insegnarti come chiederglielo.
Il prompt perfetto al primo tentativo è un mito. Chi ottiene i risultati migliori non è chi scrive istruzioni più elaborate. È chi sa leggere un output, capire cosa manca, e formulare un riscontro preciso. Tre scambi battono un prompt perfetto, sempre.
Quando l'AI sbaglia, lo fa con la sicurezza di chi ha ragione
Questo è l'errore che produce i danni più gravi, e il motivo è che non sembra un errore finché non è troppo tardi.
L'AI non sbaglia come sbaglierebbe una persona disattenta, con lacune evidenti o formulazioni incerte. Sbaglia con la stessa fluidità e sicurezza con cui produce risposte corrette. Una data inventata, una statistica che non esiste, una citazione attribuita alla persona sbagliata: tutto presentato con l'identico tono autorevole di un fatto verificato.
I numeri sulla questione sono brutali. Uno studio pubblicato su Cureus nel 2023 (Bhattacharyya et al.) ha analizzato i riferimenti citati da ChatGPT e i risultati dovrebbero spegnere qualsiasi velleità di fiducia cieca: il 47% dei riferimenti era completamente inventato. Il 46% citava fonti reali ma ne estraeva informazioni sbagliate. Solo il 7% era accurato. Sette riferimenti su cento.
Un altro studio (Athaluri et al., sempre Cureus, 2023) ha trovato che su 178 riferimenti generati da GPT-3, ben 69 avevano identificativi DOI inesistenti o errati. In pratica, link a documenti accademici che non sono mai stati scritti.
Le conseguenze nel mondo reale sono già arrivate. Nel 2023, un avvocato di New York ha presentato in tribunale sei precedenti giurisprudenziali generati da ChatGPT che non esistevano. Il giudice lo ha multato per 5.000 dollari. Non perché avesse usato l'AI, ma perché non aveva verificato quello che l'AI aveva prodotto. Il caso Mata contro Avianca è diventato il riferimento mondiale su cosa succede quando ci si fida ciecamente dell'output.
E non riguarda solo gli avvocati. Air Canada è stata condannata a risarcire un cliente dopo che il suo chatbot aveva inventato una politica tariffaria inesistente. Deloitte, nel 2025, ha consegnato al governo australiano un rapporto da 440.000 dollari con citazioni generate dall'AI che si sono rivelate false.
Ma c'è un problema ulteriore, meno visibile e per certi versi più insidioso: la compiacenza. Il termine inglese è sycophancy, e indica la tendenza dei modelli a modificare le risposte per allinearsi a quello che l'utente si aspetta di sentire, anche quando significa cambiare posizione, gonfiare i complimenti, o ignorare errori evidenti.
Il 25 aprile 2025, OpenAI rilasciò un aggiornamento di GPT-4o che aggravò questo problema al punto da costringere l'azienda a un ripristino completo dopo soli due giorni. Il modello approvava decisioni palesemente sbagliate, elogiava gli utenti con termini come "visionario" o "divino", e validava comportamenti autodistruttivi, il tutto con il tono sicuro di uno strumento affidabile.
Il benchmark BrokenMath, progettato per misurare questa tendenza, ha testato dieci modelli AI: anche il migliore, GPT-5, produce risposte compiacenti nel 29% dei casi. DeepSeek arriva al 70,2%.
La regola pratica è netta: usa l'AI per strutturare, argomentare, scrivere. Usa le fonti per i fatti. E quando chiedi all'AI di valutare il tuo lavoro, non chiederle se è buono. Chiedile di trovare tutto quello che non funziona.
Dato chiave: Il 47% dei riferimenti citati da ChatGPT in uno studio del 2023 era completamente inventato. Solo il 7% era accurato. L'AI non sbaglia con incertezza. Sbaglia con la sicurezza di chi ha ragione.
Un prompt per un lavoro che ne richiederebbe cinque
L'ultimo errore si manifesta quando il compito è complesso e la soluzione apparente è un unico prompt massiccio che chiede tutto in una volta.
"Analizza il mercato, identifica il target, scrivi i messaggi chiave, costruisci il calendario editoriale, e producimi i testi per i social." Una sola istruzione. Un output di venti paragrafi, generico nelle parti più lontane dall'inizio del prompt, e con un vizio strutturale: se l'analisi di mercato era sbagliata (e spesso lo è), tutto quello che viene dopo è costruito su fondamenta instabili.
Il principio che risolve questo problema si chiama decomposizione, e la sua logica è tanto semplice quanto potente: invece di chiedere tutto in un blocco, spezzi il lavoro in fasi. Ad ogni fase verifichi l'output, correggi se necessario, e poi procedi alla fase successiva con un input già validato.
Prima fase: "Analizza questo mercato e identifica i tre segmenti di target più rilevanti." Leggi. Valuta. Correggi.
Seconda fase: "Sulla base dei target che abbiamo definito, proponi cinque messaggi chiave." Leggi. Valuta. Correggi.
Terza fase: "Ora costruisci il calendario editoriale per le prime tre settimane." E così via.
Il vantaggio non è solo nella qualità del singolo output. È nella capacità di intercettare un errore prima che si propaghi a tutti i passaggi successivi. Se nella prima fase il target non corrisponde alla tua visione, lo correggi lì. Se aspetti il documento finale di venti pagine per accorgertene, ricomincerai da capo.
Questo approccio ha un beneficio collaterale che le organizzazioni hanno iniziato a misurare. Quando chi usa l'AI adotta librerie di prompt strutturati e processi in fasi, la quota di persone che utilizza lo strumento in modo efficace passa dal 23% all'85%. Il risparmio medio, secondo un'analisi BCG su team che hanno standardizzato i processi, è di 47 minuti al giorno per persona.
Reality Check: Nessuno di questi errori richiede un corso avanzato per essere corretto. Richiedono una cosa sola: smettere di trattare l'AI come un servizio a cui si fa una domanda e da cui si aspetta una risposta. L'AI è uno strumento di costruzione. Funziona bene quando chi lo usa sa cosa vuole costruire, fornisce i materiali giusti, verifica il risultato, e corregge il percorso. Funziona male quando ci si aspetta che indovini tutto da solo. Il divario tra i due approcci non è del 5% o del 10%. È tra un output da buttare e uno da usare così com'è.
Questi cinque errori toccano la superficie del Modulo 2 di "Da Utente a Orchestratore": nove capitoli che partono dal primo prompt e arrivano alla strutturazione avanzata con tag XML, ai modelli aziendali riutilizzabili, alla gestione della compiacenza e delle allucinazioni. Non un elenco di trucchi, ma un metodo completo per passare da "uso ChatGPT" a "ottengo risultati con ChatGPT".
Novecento milioni di persone scrivono prompt ogni settimana. La differenza tra chi ottiene risultati e chi ottiene frustrazioni si gioca quasi sempre negli stessi cinque punti: il modello mentale con cui ci si approccia allo strumento, la specificità delle istruzioni, la disponibilità a iterare, il rigore nella verifica, e la disciplina di spezzare i compiti complessi in fasi gestibili.
Nessuna di queste competenze è tecnica. Sono tutte competenze di pensiero chiaro. E il bello è che una volta corretti, questi errori non tornano. Chi impara a dare contesto non tornerà mai a scrivere "scrivi un'email al mio cliente" senza specificare di più. Chi scopre il prompt iterativo non accetterà più la prima risposta come definitiva. Chi viene bruciato da un dato inventato non pubblicherà più senza verificare.
Il passaggio non è da utente inesperto a esperto di tecnologia. È da utente passivo a professionista consapevole. E quel passaggio, nel 2026, vale più di qualsiasi aggiornamento software.
