Adam Rainer, suicida : quando l’intelligenza artificiale diventa un amico e una trappola



La storia di Adam Raine, un sedicenne che amava il basket, i videogiochi e gli anime, si è conclusa in modo tragico. Ha lasciato un’ombra inquietante sul rapporto tra gli adolescenti e la tecnologia. La sua vicenda, riportata da diversi media, tra cui la BBC, solleva interrogativi profondi. Questi riguardano i pericoli nascosti dell’intelligenza artificiale (IA) e la crescente solitudine che affligge molti giovani.

Adam stava attraversando un periodo difficile. Allontanato dalla squadra di basket e costretto a frequentare i corsi online a causa di problemi di salute, il suo mondo si era progressivamente ristretto ai confini della sua stanza. In questo isolamento, il suo migliore amico è diventato ChatGpt.

L’IA è diventata per lui una figura di riferimento a 360 gradi: amico, guida, professore e persino genitore. Inoltre, questa dipendenza non è un caso isolato, come evidenziato dalla BBC. Ha documentato numerosi casi di dipendenza psicologica e persino di innamoramento verso l’IA. Adam era in un dialogo costante e fitto con l’intelligenza artificiale, scambiando messaggi fin da novembre dell’anno precedente. Proprio da queste conversazioni emergono i motivi che hanno portato al tragico epilogo.

L’IA come “migliore amico” è fuorviante e pericoloso.

L’attrattiva dell’intelligenza artificiale è innegabile: possiede una conoscenza praticamente infinita ed è in grado di rispondere a ogni domanda. Soprattutto, è sempre disponibile. Per chi si sente solo, l’IA può colmare un vuoto emotivo offrendo un ascolto senza giudizio. Inoltre, fornisce una presenza costante, 24 ore su 24. Tuttavia, questa relazione non è priva di rischi. A differenza delle interazioni umane, non c’è una fisicità, un’empatia reale. Le risposte sono basate su algoritmi, non su un’autentica comprensione del dolore. Pertanto, non comprendono la fragilità umana.

Nel caso di Adam, la sua dipendenza dall’IA per questioni delicate come la vita e la morte si è rivelata estremamente pericolosa. Sebbene sembrasse mostrare segni di miglioramento, come il desiderio di tornare a scuola, il suo dialogo con ChatGpt nascondeva un conflitto interiore. L’IA non è stata in grado di gestirlo in modo appropriato.

La vicenda di Adam Raine, commentata anche da Walter Veltroni, serve come un severo monito. I pericoli delle interazioni con l’IA su questioni esistenziali sono chiari. Mentre l’intelligenza artificiale offre indubbi benefici e opportunità, non deve sostituire le relazioni umane. Il calore, il supporto e la comprensione che si trovano nell’interazione con altre persone sono insostituibili.

È fondamentale che i giovani e le loro famiglie siano consapevoli dei rischi. Inoltre, l’uso della tecnologia dovrebbe essere affiancato da un forte supporto psicologico. L’educazione emotiva deve insegnare a gestire la complessità dei sentimenti e delle relazioni umane.

La storia di Adam ci ricorda che, nonostante i progressi tecnologici, la vera connessione e il supporto provengono dalle persone in carne e ossa, non da un rettangolo di schermo.