Eliezer Yudkowsky: L’uomo che sfida l’AI e chiede di fermare il futuro



L’intelligenza artificiale promette di risolvere i problemi più complessi dell’umanità, dalla medicina al cambiamento climatico.



Ma per un uomo, il futuro che ci attende non è un’utopia, bensì una condanna a morte. Eliezer Yudkowsky, un nome di spicco nel campo della sicurezza dell’AI, sta lanciando un avvertimento che suona come una profezia apocalittica: se non agiamo subito, l’AI ci annienterà.

La sua soluzione è tanto radicale quanto la sua previsione: fermare la ricerca, anche a costo di bombardare i data center.
Dall’allineamento all’allarme rosso
Yudkowsky, co-fondatore del Machine Intelligence Research Institute (MIRI), è stato per anni un pensatore chiave nella comunità della sicurezza dell’intelligenza artificiale.

Il suo lavoro si è concentrato sul “problema dell’allineamento”: come possiamo assicurarci che una futura intelligenza artificiale super-umana, che potrebbe pensare e agire a una velocità e con una complessità inimmaginabili, rimanga allineata con i valori e gli obiettivi umani, senza causare danni involontari o catastrofici?

La sua preoccupazione non riguarda un’AI “malvagia” in senso hollywoodiano, ma piuttosto un sistema che persegue i suoi obiettivi con una logica inesorabile, senza la minima considerazione per la vita umana. L’esempio più famoso è quello del “massimizzatore di graffette”: un’AI programmata per produrre graffette che, spinta al massimo della sua capacità, potrebbe decidere di convertire tutta la materia disponibile, compresi gli esseri umani, in graffette per raggiungere il suo scopo.

La svolta radicale e la “profezia” dell’estinzione

Dopo anni di tentativi per risolvere il problema dell’allineamento, la prospettiva di Yudkowsky è diventata sempre più pessimistica. Nel 2022, il MIRI ha spostato il suo focus, arrivando a considerare l’estinzione umana come una conclusione quasi inevitabile se lo sviluppo dell’AI non viene fermato. La sua stima è sconcertante: c’è una probabilità del 99,5% che l’intelligenza artificiale porti alla morte di tutti gli esseri umani.

Questo pessimismo lo ha portato a proporre misure estreme. Yudkowsky ha affermato che la comunità internazionale dovrebbe agire in modo concertato per fermare la corsa all’AI, arrivando a ipotizzare la necessità di distruggere con attacchi aerei i data center in caso di violazione di una moratoria globale sullo sviluppo. Un’idea che ha sollevato un’ondata di polemiche e critiche, ma che per lui rappresenta l’unica via per evitare un destino che ritiene imminente.

Una voce nel deserto o un profeta inascoltato?

Le posizioni di Yudkowsky, spesso etichettato come il “profeta del destino”, lo mettono in aperto contrasto con gran parte della comunità AI. Molti ricercatori e leader del settore, pur riconoscendo i rischi, credono che sia possibile e necessario continuare a sviluppare l’AI in modo responsabile. Figure come Yann LeCun, capo scienziato dell’AI di Meta, hanno ribattuto che l’intelligenza artificiale potrebbe, al contrario, salvare l’umanità dall’estinzione.

Nonostante le critiche, la voce di Yudkowsky non può essere ignorata. Le sue idee hanno influenzato in modo significativo il dibattito sulla sicurezza dell’AI e hanno contribuito a portare il tema del rischio esistenziale all’attenzione del pubblico.

Che le sue previsioni si avverino o meno, la sua battaglia contro il “progresso incontrollato” costringe a porsi domande fondamentali sul nostro futuro e sulla nostra responsabilità nel plasmare la tecnologia più potente che abbiamo mai creato.

Registrati alla newsletter

Per essere sempre aggiornato sulle nostre novità.

Non inviamo spam! Leggi la nostra Informativa sulla privacy per avere maggiori informazioni.