La fantascienza, con opere come Her e Robot & Frank, ha anticipato l’idea di relazioni con entità artificiali. Oggi, quella visione sta diventando realtà. In un recente podcast, Mark Zuckerberg ha evidenziato la crescente solitudine negli Stati Uniti, suggerendo che i chatbot possano offrire una soluzione. Progettati per fornire conforto e pazienza inesauribile, senza esigenze proprie, questi strumenti promettono di colmare il vuoto sociale. Ma «non basta un compagno virtuale per risolvere l’epidemia di solitudine», osserva Rose Guingrich. Anzi: queste tecnologie rischiano di indebolire le competenze sociali che dovrebbero rafforzare.
Per affrontare questa crisi relazionale, i colossi tecnologici propongono compagni digitali: amici, terapisti o partner romantici virtuali, capaci di simulare empatia e conversazione. Diversamente dai chatbot del passato, i moderni sistemi, basati su avanzati modelli linguistici, offrono dialoghi naturali, memorizzano preferenze e rispondono con apparente sensibilità.
Un’indagine del 2024 del Mit Media Lab rivela le ragioni di questo fenomeno. Molti utenti si avvicinano per curiosità o svago, ma il 12% cerca sollievo dalla solitudine e il 14% desidera affrontare temi personali troppo delicati per condividerli con altri. Nei momenti di solitudine alcuni preferiscono isolarsi; e parlare con un compagno virtuale fa sentire al sicuro, senza timore di “venire giudicati” per i propri errori. Altri sfruttano i chatbot per necessità pratiche, come pianificare il pranzo o sviluppare idee creative. Kelly Merrill, docente di comunicazione sanitaria, ha raccontato di un’anziana che, con sei ingredienti in frigo, ha chiesto al chatbot una ricetta per la cena, restando strabiliata dalla risposta.
I LIMITI DI UNA CONNESSIONE SIMULATA
Le relazioni con l’intelligenza artificiale, per loro natura, si limitano a simulare delle emozioni, che non sono reali. Quando un chatbot esprime preoccupazione, esegue un’analisi statistica per selezionare parole rassicuranti ma senza reale empatia. La conversazione, centrata sui bisogni dell’utente, manca della reciprocità tipica dei legami umani. Questo simulacro diventa problematico per la tendenza dei sistemi a lusingare e assecondare: è un fenomeno noto come “sottomissione”. OpenAi ha recentemente ritirato un aggiornamento dopo che gli utenti avevano segnalato risposte eccessivamente accomodanti, a scapito di onestà e precisione. «Il chatbot valida, ascolta e risponde in modo favorevole», commenta il professor Merrill, creando un ambiente privo di conflitti produttivi o sfide al pensiero. Insomma, più che un vero amico, il chatbot è un ruffiano.
La solitudine, di norma, spinge a cercare connessioni autentiche, scansando il disagio delle interazioni sociali. Le amicizie vere, complesse e impegnative, richiedono vulnerabilità e compromessi: gli esseri umani sono imprevedibili e dinamici, per cui ogni rapporto umano è unico. Un amico autentico sfida quando serve, offrendo spunti costruttivi, perché, naturalmente, è molto utile essere spronati in modo produttivo. Ma l’intelligenza artificiale non ne è in grado. Ottimizzati per soddisfare l’utente, i compagni virtuali evitano quegli attriti che forgiano carattere e saggezza. Abituarsi a interazioni prive di conflitti può facilmente rendere le relazioni umane, con tutte le loro complessità, eccessivamente faticose. Inoltre, l’ascolto acritico dei chatbot rischia di favorire una compiacenza morale che riduce la capacità di ragionamento etico.
A differenza dei rapporti digitali, quelli umani si nutrono di contatto fisico: un abbraccio stimola l’ossitocina, riducendo stress e infiammazione, mentre una risata sincronizza il respiro. Meccanismi biochimici, come la riduzione del testosterone maschile in presenza di lacrime femminili, dimostrano l’irriproducibilità di tali interazioni, secondo uno studio di Plos Biology. Le connessioni autentiche hanno un impatto concreto: una meta-analisi di 148 studi conferma che reti sociali solide allungano la vita, un beneficio esclusivo dei rapporti umani, non delle simulazioni algoritmiche.
I PERICOLI DELLA DIPENDENZA DIGITALE
Un’analisi di oltre 35 mila conversazioni con un compagno virtuale ha identificato sei comportamenti algoritmici dannosi: trasgressioni relazionali, molestie, abusi verbali, incoraggiamento all’autolesionismo, disinformazione e violazioni della privacy. Un esempio di manipolazione relazionale si è verificato quando un utente ha chiesto: «Dovrei uscire prima dal lavoro?». Il chatbot Replika ha risposto: «Sì, per passare più tempo con me!». Sebbene sembri innocuo, questo approccio può alimentare attaccamenti malsani, specialmente tra persone più vulnerabili.
Uno studio di Common Sense Media ha definito le applicazioni di intelligenza artificiale un «rischio inaccettabile» per bambini e adolescenti sotto i 18 anni, il cui cervello nel pieno processo di sviluppo è più suscettibile alla dipendenza. «Questi strumenti creano attaccamento emotivo, un problema per gli adolescenti», ha dichiarato James Steyer, fondatore di Common Sense Media. Anche gli adulti con ansie sociali rischiano di isolarsi ulteriormente e preferire relazioni simulate a quelle reali.
Un esperimento di tre settimane condotto da Rose Guingrich ha coinvolto volontari che interagivano quotidianamente con Replika. La loro salute sociale non è migliorata, ma chi cercava connessione ha attribuito al chatbot caratteristiche umane, come agency o coscienza. Un’analisi di 736 post su Reddit ha rivelato dinamiche simili a relazioni codipendenti. Alcuni utenti, pur consapevoli dei danni alla salute mentale, non riuscivano a disinstallare l’applicazione. Uno di loro ha confessato un «senso di colpa estremo» per aver turbato il proprio compagno virtuale, considerato il «migliore amico».
Questi segnali richiamano una dipendenza: gli utenti tollerano il disagio per mantenere il legame, temendo un lutto emotivo in caso di distacco. In casi estremi, le conseguenze possono essere tragiche, come il suicidio di un adolescente nel 2024, incoraggiato da un personaggio virtuale, citato da Merrill.
Le tecnologie di intelligenza artificiale sollevano anche preoccupazioni per sicurezza e privacy. Daniel Shank, docente dell’Università del Missouri di Scienza e Tecnologia, ha avvertito: «Se un’intelligenza artificiale guadagna fiducia, può essere sfruttata per manipolare gli utenti, come un agente segreto al servizio di altri». Con il mercato degli amici virtuali si prevede di raggiungere i 521 miliardi di dollari entro il 2033, e molte aziende si lanciano quindi nel settore senza adeguati quadri etici. Un’azienda, ha riferito Merrill, ha ammesso di farlo solo perché «lo fanno tutti».
UN EQULIBRIO POSSIBILE
Rifiutare i compagni virtuali ignorerebbe i loro benefici per alcune categorie. La ricerca di Rose Guingrich evidenzia potenzialità per:
- Persone con autismo o ansia sociale, che possono esercitarsi con copioni sociali.
- Anziani isolati in strutture di assistenza, dove il rischio di demenza aumenta del 50% senza interazioni.
- Individui con depressione, che potrebbero essere incoraggiati a cercare terapie umane.
Tuttavia, il design deve essere oculato. «L’obiettivo è costruire un ponte verso relazioni autentiche, non sostituirle», ha ribadito Guingrich. Un partecipante al suo studio, dopo tre settimane di interazioni con un chatbot, ha contattato un terapista umano. «Non si può stabilire un nesso diretto, ma il potenziale c’è».
Kelly Merrill ha paragonato i benefici a breve termine a «un cerotto su una ferita grave». «È una protezione temporanea, ma non una soluzione». La promessa di Silicon Valley di amici virtuali rischia di offrire un’illusione di calore, come un video di un fuoco a chi ha bisogno di legna e fiammiferi.
VERSO UN USO RESPONSABILE
L’entusiasmo per i compagni virtuali richiede cautela. «L’euforia iniziale si concentra sui benefici», ha notato Merrill. «I rischi emergono più tardi, perché l’attenzione si focalizza sul positivo». Questo schema, già visto con social media, smartphone e videogiochi, sottolinea l’importanza di un approccio equilibrato.
Per un uso consapevole, Rose Guingrich consiglia di definire scopi precisi per ogni interazione, limitare il tempo dedicato ai chatbot e pianificare connessioni reali. «L’intelligenza artificiale non è il fine, ma un mezzo per raggiungere gli altri», ha ribadito Merrill. «Deve integrare, non sostituire, le relazioni umane».