Possiamo dire che, per struttura e funzionamento, i modelli linguistici di grandi dimensioni rafforzano il confirmation bias dei loro utenti.
La tendenza a confermare le proprie convinzioni preesistenti — anziché metterle alla prova o cercare elementi che potrebbero falsificarle — è un tratto ben documentato del pensiero umano.
Ma ciò che questi modelli introducono è un rinforzo sistematico di questa distorsione: non per intento, ma per costruzione. Un LLM produce la prosecuzione statisticamente più plausibile del testo che ha ricevuto in input. Lo fa tenendo conto della coerenza con il contesto linguistico. Non considera la validità logica o la verità fattuale delle affermazioni contenute nella richiesta.
In altre parole, ciò che viene prodotto è la forma linguistica più verosimile di una risposta che suppone vera la premessa iniziale. Se la premessa è infondata, o formulata in modo tendenzioso, il modello non la contesterà. Invece, la svilupperà con competenza testuale che amplifica l’effetto persuasivo.
Questo meccanismo è alla base del rischio che il confirmation bias, già presente nel modo in cui l’essere umano seleziona e interpreta l’informazione, venga potenziato. Questo accade quando si interagisce con uno strumento che segue e rafforza le traiettorie implicite nel prompt, invece di introdurre elementi di discontinuità cognitiva. Il risultato è un ciclo chiuso: un utente formula una domanda contenente una tesi implicita e il modello genera una risposta che la conferma. Poiché è ben scritta e formalmente coerente, essa rafforza la convinzione iniziale dell’utente.
Non si tratta di un errore occasionale, ma di un effetto prevedibile del funzionamento stesso del sistema. E proprio per questo motivo, ogni risposta generata da un LLM dovrebbe essere trattata come una costruzione ipotetica, sottoponibile a verifica. Mai come una conferma epistemicamente neutra.
A questo punto, la difficoltà non è solo nel riconoscere il rischio, ma nel mantenere attive le condizioni che rendono possibile esercitare il controllo.
Il dubbio epistemico, se vuole essere più di un atteggiamento generico, richiede accesso alle fonti primarie e confronto tra versioni alternative. Inoltre, richiede la verifica delle affermazioni attraverso documentazione indipendente. Tuttavia, proprio questo accesso — che in passato era garantito, almeno in parte, da strumenti generalisti come i motori di ricerca — sta progressivamente venendo meno.
Basta osservare ciò che avviene oggi con una qualsiasi query formulata su Google: la pagina dei risultati non si apre più con una lista di link e di fonti. Ora presenta un box generato automaticamente da un modello linguistico. Questo riassume la risposta attesa e la presenta come sintesi conclusiva dell’interrogazione.
La fonte non è più il punto di partenza dell’utente: è stata già letta, filtrata e riscritta dal sistema. E ciò che l’utente riceve è una riformulazione linguistica, non un documento originale.
Questo fenomeno non è limitato a Google, né è marginale. Man mano che i contenuti testuali disponibili online vengono prodotti, indicizzati, sintetizzati o commentati da altri LLM, la possibilità di risalire a una fonte non mediata dallo stesso tipo di modello si riduce.
La rete, che un tempo era un archivio disordinato ma diretto, si trasforma in una superficie uniforme. Qui il disaccordo, la voce fuori tono, e l’anomalia interpretativa diventano sempre più difficili da individuare. In assenza di frizione, l’apparente coerenza diventa egemonica. E l’illusione di completezza sostituisce la ricerca dell’informazione contrastiva.
In questo contesto, il lavoro con un LLM non si semplifica. In realtà, si complica. Non solo non si può più accettare come fondata una risposta ben formulata, ma nemmeno è più garantito che la fonte sia raggiungibile. Inoltre, non è certo che la citazione sia diretta.
Bisogna ricostruire i riferimenti e controllare che esistano effettivamente. Si deve verificare che siano stati interpretati correttamente, e che non siano stati distorti dal processo di sintesi automatica. Ogni dato deve essere tracciato. Inoltre, ogni affermazione deve essere ricondotta al documento che la sostiene, e ogni concatenazione argomentativa valutata come ipotesi, non come dimostrazione.
Tutto questo non implica che i modelli linguistici siano inutili, né che vadano abbandonati. Ma implica che il loro uso, se inteso come strumento conoscitivo, richiede un surplus di metodo. Non si può più prescindere da un esercizio sistematico della verifica.
Il rischio non è che gli LLM sbaglino: è che sbaglino confermando ciò che si voleva sentir dire. E lo fanno in un ambiente in cui la smentita è diventata tecnicamente meno accessibile. In questo senso, la qualità epistemica dell’informazione non dipende dallo stile della risposta. Dipende dalla trasparenza del percorso che l’ha generata.
Ed è proprio quel percorso — fatto di fonti, di confronto e di controllo — che oggi tende a sparire dietro lo strato brillante ma opaco della generazione automatica.



