Una nuova ricerca dell’Università di Stanford ha riacceso il dibattito sull’imparzialità dei modelli di Intelligenza Artificiale. Ha rivelato quello che per molti osservatori è un “segreto di Pulcinella”:
le risposte generate dai principali sistemi di IA tendono a essere sbilanciate verso posizioni progressiste o di sinistra.
Questa scoperta, pubblicata in un contesto globale caratterizzato da una crescente ascesa delle destre politiche e con Donald Trump alla presidenza degli Stati Uniti, solleva interrogativi significativi. La scoperta si concentra sull’influenza e l’orientamento delle tecnologie che stanno plasmando la nostra informazione e la nostra percezione della realtà.
Lo studio di Stanford ha analizzato un ampio campione di risposte prodotte da diversi modelli di IA generativa, sottoponendoli a quesiti su temi politici, sociali ed economici controversi. I risultati indicano una chiara propensione dei modelli a esprimere punti di vista che si allineano maggiormente con l’ideologia progressista.
Questo si manifesta non solo nelle risposte esplicite a domande dirette, ma anche nella scelta delle sfumature linguistiche. Inoltre, si vede nell’enfasi su certi aspetti e nella minimizzazione di altri, contribuendo a creare un “bias” implicito.
Il dato emerge con particolare risonanza in un momento storico in cui i movimenti di destra stanno guadagnando terreno in molte democrazie occidentali.
Negli Stati Uniti, la presidenza di Donald Trump, iniziata nel 2025, ha rappresentato una decisa rottura con l’establishment e con molte delle istanze progressiste. Questo ha dato una “spallata” significativa al fenomeno del “woke” e alle sue manifestazioni nella cultura e nella società.
La politica americana sotto Trump si è caratterizzata per un approccio conservatore su temi come l’immigrazione, la politica sociale, la cultura e l’economia.
Il paradosso è evidente: mentre la sfera politica e sociale si muove a destra, i motori di conoscenza e generazione testuale più diffusi sembrerebbero riflettere un’altra direzione.
Ma da dove deriva questo sbilanciamento? I ricercatori di Stanford ipotizzano diverse cause. Una delle principali riguarda i dati su cui questi modelli vengono addestrati.
Le IA apprendono da quantità immense di testo e dati se su internet, che, pur essendo vasti, non sono neutri. Se una porzione significativa di questi dati riflette un certo orientamento ideologico, l’IA finirà per internalizzare e replicare tale orientamento. Ad esempio, articoli di giornale, saggi, blog, forum di discussione con una prevalenza di contenuti progressisti.
Un altro fattore potrebbe risiedere nelle scelte di progettazione e nell’algoritmo stesso, o addirittura nelle politiche di moderazione dei contenuti implementate dalle aziende sviluppatrici.
Se gli ingegneri o i curatori dei dati, anche inconsciamente, introducono filtri o priorità che privilegiano certe narrazioni, questo può amplificare ulteriormente il bias. Questi operano per evitare contenuti percepiti come “dannosi” o “discriminatori” secondo una prospettiva specifica.
Le implicazioni di questa scoperta sono profonde. L’Intelligenza Artificiale sta diventando una fonte primaria di informazione e uno strumento per la comprensione del mondo per milioni di persone. Se le sue risposte sono intrinsecamente sbilanciate, ciò potrebbe contribuire a plasmare l’opinione pubblica in modo non neutrale. Inoltre, potrebbe influenzare dibattiti, decisioni politiche e la percezione stessa della realtà.
Una IA percepita come parziale rischia di erodere la fiducia del pubblico e di acuire le divisioni.
La ricerca di Stanford non è un attacco all’IA in sé, ma un invito urgente a una maggiore trasparenza e a un impegno concreto per l’imparzialità.
È fondamentale che gli sviluppatori lavorino attivamente per mitigare questi bias. Dovrebbero diversificare le fonti di addestramento, implementare meccanismi di “bilanciamento” algoritmico e sottoporre i modelli a rigorosi test di imparzialità condotti da esperti indipendenti.
In un’era dominata dalla disinformazione e dalle “bolle” informative, avere strumenti di IA che offrano una gamma di prospettive più equilibrata non è solo un obiettivo tecnico. È anche un imperativo democratico.
Il “segreto di Pulcinella” è stato svelato. Ora la sfida è garantire che l’Intelligenza Artificiale diventi uno strumento di conoscenza veramente neutrale, al servizio di tutti, indipendentemente dalle proprie convinzioni politiche.
