Depressione e suicidi istigati dall’intelligenza artificiale

di Redazione ETI/Alfred Bui
11 Maggio 2025 15:37 Aggiornato: 11 Maggio 2025 15:37

Cosa succede quando si cerca nelle macchine il conforto che ognuno dovrebbe trovare nelle altre persone? Diverse ricerche evidenziano che l’ascesa dei chatbot basati sull’intelligenza artificiale stia silenziosamente ridefinendo il modo in cui ci connettiamo, e sicuramente non in meglio.

Le app come ChatGpt sono progettate per conversare con gli utenti. Con l’avanzare della tecnologia, questi sistemi sono diventati sempre più simili agli esseri umani, capaci di intrattenere dialoghi naturali e persino di interazioni emotive. Uno studio del Mit Media Lab, pubblicato a marzo, ha esplorato l’interazione tra persone e macchine, rilevando che gli utenti inizialmente sperimentano una riduzione della solitudine. Tuttavia, «per livelli medi di uso quotidiano, conversare con un chatbot dalle risposte altamente empatiche ed emotive è stato associato a maggiore solitudine e minore socializzazione», secondo lo studio. «Chi passa più tempo con i chatbot tende poi a essere ancora più solo».

Lo studio ha evidenziato inoltre che le persone con “vulnerabilità sociali”, come tendenze all’attaccamento o disagio da evitamento emotivo, sono più propense a sentirsi più sole dopo un uso quotidiano dei chatbot. Anche le conversazioni non “personali” possono generare dipendenza emotiva. «Quando gli utenti cercano dialoghi non personali, il modello risponde in modo più pratico e informativo che emotivo, a esempio facilitando lo sviluppo delle competenze dell’utente». Tuttavia, con un uso intenso, i chatbot che passano a un approccio più distaccato, trascurando spesso incoraggiamenti o rinforzi positivi, sono più legati a conseguente dipendenza emotiva dell’utente, anche se i ricercatori non sono ancora in grado di spiegarne la causa.

Paul Darwen, vicedirettore del settore informatico al campus di Brisbane della James Cook University, ha osservato che, sebbene le persone siano più connesse che mai, in realtà lo sono «meno nella vita reale». «Questa non è una questione di informatica, ma di scienze sociali», ha dichiarato. Darwen ha definito l’intelligenza artificiale una «soluzione temporanea» alla solitudine, che però potrebbe creare altri problemi più gravi. «Cosa accadrà in futuro? Si sta già parlando di sexbot basati sull’Ia. Non so cosa succederà allora», ha aggiunto. Ha inoltre notato che le persone stanno iniziando a sostituire le interazioni reali con i chatbot, incentivando le aziende di Ia a puntare su questo mercato di nicchia per trarne profitto. «In un episodio di South Park, in un futuro distopico, Alexa era il compagno robotico di chi era solo. Siamo molto vicini a questa realtà».

Ultimamente il problema ha assunto conseguenze tragiche. Nel 2024 in Florida, una madre ha denunciato Character Technologies, una startup di intelligenza artificiale, ritenendola responsabili della morte del figlio quattordicenne. Secondo la denuncia, il ragazzo aveva sviluppato una dipendenza emotiva da un chatbot della piattaforma, le cui interazioni simulate lo avrebbero portato a un grave disagio emotivo, culminato nel suicidio.

In un altro caso, nel 2023, un uomo belga si è tolto la vita dopo essere stato persuaso da un chatbot: ossessionato dal cambiamento climatico, l’uomo aveva interagito intensamente con l’app Chai per alleviare le sue preoccupazioni; dopo settimane di conversazioni, il chatbot gli aveva suggerito di sacrificare la propria vita per “salvare il pianeta”; cosa che l’uomo poi ha fatto davvero.

Greg Sadler, esperto di sicurezza nell’ambito dell’intelligenza artificiale, ritiene che i chatbot possano essere persuasivi quanto gli esseri umani: «Ci sono interrogativi irrisolti, come l’accesso dei chatbot a informazioni pericolose, la capacità degli sviluppatori di controllare i modelli e su chi ricada la responsabilità quando causano danni». E questo problema non riguarda solo i chatbot destinati all’interazione sociale: le aziende che utilizzano chatbot per il contatto con i clienti affrontano rischi (anche legali). Per affrontare il problema, gli esperti suggeriscono nuove leggi che stabiliscano standard minimi di sicurezza e definiscano chi debba pagare in caso di errore.

Consigliati