L’Ai e il colonnello Petrov



Una delle domande più affascinanti (e inquietanti) sull’ Intelligenza artificiale riguarda la sua natura evolutiva:

possiamo davvero considerarla un’evoluzione dell’intelligenza? O si tratta, piuttosto, di una sua potente ma limitata imitazione?

A ben guardare, l’intelligenza artificiale generativa che utilizziamo quotidianamente – nei laboratori, negli uffici, nei nostri telefoni – non assomiglia all’intelligenza umana quanto siamo portati a credere. È un’intelligenza “muscolare”: eccelle nel calcolo, nella memoria, nella rapidità di analisi e nell’elaborazione statistica di pattern. Ma manca di ciò che rende l’intelligenza umana davvero tale: intuito, buon senso, ironia, emozioni. Apprende per associazione, sbaglia spesso e non ha consapevolezza di sé. In breve, non ha una mente, ha solo un programma.

Quella che si profila all’orizzonte – l’intelligenza artificiale generale – è di tutt’altra ambizione: non si limita a eseguire compiti specifici, ma mira a ragionare, apprendere e persino auto-programmarsi. Un salto potenzialmente evolutivo, sì, ma di una “evoluzione” disincarnata, non biologica. Priva di carbonio, di bisogni, di desideri, di coscienza. Anche se riuscisse a simulare i nostri ragionamenti in modo sorprendente, difficilmente potremmo parlare di un’intelligenza alternativa davvero evoluta: l’evoluzione, in natura, non replica sé stessa, e le traiettorie artificiali potrebbero rivelarsi incommensurabili rispetto a quelle umane.

Nel frattempo, mentre temiamo lo scenario da “AI maligna”, dimentichiamo che la vera minaccia alla nostra sopravvivenza, oggi, è la nostra stessa capacità di autodistruzione. L’AI non ha ancora premuto alcun bottone – noi sì.

Una co-evoluzione già in atto

E se invece non fosse una questione di alternativa, ma di co-evoluzione? L’idea che l’artificiale e il naturale siano mondi separati è ormai obsoleta. Fin da quando abbiamo cominciato a costruire utensili, tre milioni di anni fa, siamo diventati dipendenti dai nostri artefatti. Le tecnologie non sono esterne a noi: ci modificano, ci trasformano biologicamente. Oggi, chip cerebrali, protesi neurali e interfacce cervello-macchina certificano che la frontiera è già stata superata. La distinzione è saltata. Siamo già organismi ibridi, e la co-evoluzione è una realtà.

Certo, c’è una differenza fondamentale tra il nostro modo di evolverci e quello di un algoritmo: noi siamo fallibili, inefficienti, disordinati – e proprio per questo creativi. La libertà di sbagliare non è un difetto da correggere, ma una risorsa evolutiva. L’errore è generativo, apre vie nuove, inattese. La natura, lo sappiamo, premia la ridondanza, la divergenza, non la perfezione. I sistemi troppo specializzati, troppo efficienti, spesso non sopravvivono ai cambiamenti.

Il valore evolutivo dell’errore

Un algoritmo, invece, tende all’ottimizzazione. È programmato per un fine, non per una scoperta. Quando si trova davanti all’inaspettato, si blocca. Non ha la capacità di intuire l’ignoranza, non sa di non sapere. Ma è proprio in quel sapere di non sapere che si annida l’intelligenza umana. È lì che nasce una poesia, un’ipotesi scientifica, una risata.

Emblematico è il caso del colonnello sovietico Stanislav Petrov, che nel 1983 scelse di disobbedire al protocollo e non lanciò un contrattacco nucleare in risposta a un falso allarme. L’AI, si teme, avrebbe seguito le istruzioni e premuto il bottone. Eppure Petrov sbagliò – disobbedì – e salvò il mondo. Quell’errore umano, figlio dell’intuizione e del dubbio, è ciò che ci rende insostituibili.

L’intelligenza artificiale, per quanto sofisticata, non è ancora un’evoluzione dell’intelligenza. È un potente strumento, sì, ma resta uno strumento. Un’estensione della nostra mente, non una sua sostituzione. La vera evoluzione, forse, sarà imparare a convivere con essa – e a farlo da umani.