La mente mente perché anche l’AI crede alle sue illusioni

Allucinazioni AI - la mente mente perché anche l’AI crede alle sue illusioni

Allucinazioni AI

La mente mente: perché anche l’AI crede alle sue illusioni

Quando il pensiero si pensa perfetto, comincia a sbagliare. Anche l’AI, come l’uomo, inciampa nella propria logica.

Crescono i dubbi sull’affidabilità dei nuovi modelli di intelligenza artificiale rilasciati da OpenAI. Secondo quanto riportato da test interni dell’azienda, i sistemi GPT o3 e o4-mini, presentati come evoluzione logica e ragionativa delle precedenti generazioni, registrano tassi di errore che sfiorano il 79% nei benchmark di conoscenza generale. Un dato anomalo, se si considera che questi modelli sono stati sviluppati proprio per pensare meglio. Ma qualcosa, nel modo in cui il pensiero artificiale viene simulato, sembra incepparsi.

Nel momento in cui i sistemi di intelligenza artificiale compiono il salto dalla statistica alla logica, qualcosa si incrina. I modelli GPT o3 e o4-mini, nati per migliorare il “ragionamento artificiale”, stanno mostrando un comportamento controintuitivo: più pensano, più sbagliano. Cosa succede?

Allucinazioni AI

La mente non è solo un sistema che ragiona: è un sistema che vuole avere ragione

La risposta non riguarda solo le macchine. Chiunque abbia mai inciampato nei propri ragionamenti, convinto di avere ragione fino a quando la realtà bussa alla porta, dovrebbe sentire un brivido di familiarità. L’AI sbaglia come noi. O forse siamo noi ad averla costruita con i nostri limiti.

Allucinazioni AI

I ragionamenti complessi non sono garanzia di verità

Questi modelli non si limitano più a prevedere la parola più probabile: cercano di ragionare. Scompongono un problema in passaggi logici, come fa un essere umano che analizza una questione articolata. Ma ogni passaggio introduce un potenziale errore. E se l’inizio è sbagliato, tutto il castello crolla. In psicologia questo meccanismo è ben noto.

Le distorsioni cognitive: quando il pensiero si sabota da solo

Aaron Beck e Albert Ellis, padri della terapia cognitiva, descrivevano un fenomeno simile nella mente umana: le distorsioni cognitive. Un evento neutro (“ho ricevuto una critica”) può innescare una catena di conclusioni fallaci: “quindi non valgo nulla → quindi fallirò → quindi nessuno mi stima”.
Il pensiero, che dovrebbe chiarire, complica. Ogni passaggio aggiunge distorsione. La mente si fida del proprio ragionamento e non si accorge di essere entrata in un vicolo cieco.

Allucinazioni AI

Delirio e iper-logica: Jaspers e la mente che crede troppo

Nel suo capolavoro Psicopatologia generale, Karl Jaspers osservava che il delirio paranoide non nasce da un caos mentale, ma da una iper-logica deviata.
Il paziente collega tutto: un rumore nella stanza, uno sguardo, un titolo di giornale. Tutto trova un senso, e proprio questo senso assoluto rende il delirio inaccessibile da fuori.
Allo stesso modo, l’intelligenza artificiale costruisce catene formalmente impeccabili… a partire da una premessa falsa. Il risultato? Una risposta “convincentemente sbagliata”.

Allucinazioni AI

Il cervello bayesiano: ipotesi, aggiornamenti ed errori che si moltiplicano

Secondo i modelli di predictive coding proposti da Karl Friston e Jakob Hohwy, il cervello umano funziona come un sistema bayesiano: formula previsioni sul mondo e le aggiorna in base all’esperienza.
Ma se le previsioni sono errate e l’evidenza viene interpretata in modo distorto, l’errore si rafforza a ogni passaggio.
Anche i modelli AI operano così: generano una prima ipotesi, poi la raffinano. Più approfondiscono, più rischiano di consolidare l’errore. È un cortocircuito epistemico.

Allucinazioni AI

Bias di conferma e dissonanza cognitiva: l’umano che crede a ciò che vuole

La mente umana non è solo un sistema che ragiona: è un sistema che vuole avere ragione.
Leon Festinger parlava di dissonanza cognitiva: quando un fatto contraddice ciò che crediamo, tendiamo a ignorarlo o reinterpretarlo per ridurre il disagio interno.
La mente seleziona le prove che confermano la propria idea iniziale. Come un’AI che, ricevuto un prompt, produce risposte in linea con ciò che “pensa” di sapere, anche a costo di generare allucinazioni convincenti.

Allucinazioni AI

Allucinazioni, umane o artificiali?

Il fenomeno delle allucinazioni nei modelli GPT – risposte false ma plausibili – non è tanto un bug quanto un riflesso della nostra stessa struttura mentale.
I sistemi “ragionano” come noi: scomponendo, collegando, deducendo. Ma come noi, non si accorgono quando sbagliano il primo passo.
E se nessuno li ferma, proseguono imperterriti nella loro narrazione, convinti della coerenza interna.

Paradossalmente, è proprio l’ambizione a “ragionare meglio” che rende i nuovi modelli di AI più fallibili. Come nella mente umana, il problema non è l’errore casuale, ma l’errore che si moltiplica perché sembra corretto.
Nella logica perfetta del pensiero, il pericolo più grande è dimenticare la realtà.

Allucinazioni AI

A ricordarlo sono tre principi classici, apparentemente semplici, ma spesso disattesi.

Il primo è il Rasoio di Occam, che ammonisce a non moltiplicare gli enti senza necessità. Applicato alla costruzione di ragionamenti – umani o artificiali – significa evitare catene troppo lunghe, che aggiungono passaggi senza aumentare davvero la comprensione. La verità, quando esiste, non ha bisogno di troppe impalcature. Ogni anello in più è un punto debole.

Il secondo principio viene da Einstein: “Sii semplice, ma non più del necessario”. Non è un invito alla banalità, ma all’eleganza funzionale: un sistema, per essere utile, deve risolvere un problema senza travolgerlo. L’intelligenza non sta nella quantità di passaggi, ma nella qualità della sintesi. Anche il pensiero più raffinato, se si allontana troppo dalla realtà, si trasforma in retorica.

Infine, la proporzionalità: la complessità del ragionamento dovrebbe essere proporzionata alla complessità del problema. I modelli GPT violano questo equilibrio: cercano di scomporre anche ciò che richiederebbe intuizione, contesto o buon senso. Allo stesso modo, la mente umana inciampa quando trasforma un dubbio in ossessione, una domanda in teorema, una percezione in schema assoluto.

Nel produrre intelligenza, naturale o artificiale, la misura è la vera sapienza. E la realtà, per quanto imperfetta, resta il solo giudice affidabile, la verità non si trova in ciò che è coerente, ma in ciò che regge alla prova del mondo.

GPT, intelligenza artificiale, errori cognitivi, psicologia, Jaspers, Beck, dissonanza cognitiva, AI reasoning, allucinazioni,

Allucinazioni AI

Articolo pubblicato in inglese qui.

Registrati alla newsletter

Per essere sempre aggiornato sulle nostre novità.

Non inviamo spam! Leggi la nostra Informativa sulla privacy per avere maggiori informazioni.