Chi è responsabile del suicidio di un ragazzino innamorato di una chat?

UN’EPIDEMIA DI SOLITUDINE?

Nel Sole nudo, Asimov ambienta un giallo in una distopia fantascientifica: in una società in cui gli uomini non entrano mai in contatto diretto tra loro viene compiuto un omicidio: una vicenda irrisolvibile, visto che gli abitanti del pianeta Solaria non riescono nemmeno ad avvicinarsi, senza un senso di ripugnanza che impedisce l’interazione persino tra coniugi. Qualunque relazione è mediata dalle interfacce della tecnologia – quella degli ologrammi, che permettono le conversazioni, e quella dell’intelligenza artificiale dei robot, che si occupano di tutte le faccende quotidiane e che sono condizionati dalle Tre Leggi a non poter mai essere nocivi agli umani.

Quando, nel 2012, Sherry Tarkle ha pubblicato Insieme ma soli, l’ottimismo che aveva alimentato la diffusione delle piattaforme digitali nei due decenni precedenti stava tramontando. Nel testo dell’antropologa la distopia di Asimov comincia a sovrapporsi al nostro mondo: nelle interviste agli adolescenti compaiono sia la paura crescente del rapporto diretto con i coetanei sia il ricorso ai dispositivi digitali come mediatori della conversazione con gli altri ragazzi – ma anche come sostituti delle relazioni umane vere e proprie. In un’intervista a Matthew Shaer, il filosofo Ian Marcus Corbin ha etichettato cocooning questo rifugio in un mondo virtuale che conforta, ma che priva la vita di qualunque significato essenziale. Il commento si riferisce all’indagine con cui gli psicologi Richard Weissbourd e Milena Batanova hanno descritto l’«epidemia di solitudine» che colpisce la società americana contemporanea, e che è peggiorata dopo la pandemia di Covid del 2020. La diffusione dello smart working infatti ha ridotto le occasioni di formazione di nuovi rapporti, e ha reso più difficile il decorso dell’educazione sentimentale per i ragazzi che non hanno potuto frequentare le scuole con regolarità. Il 25% degli intervistati si dichiara più solo rispetto al periodo pre-pandemia, il 36% denuncia una sensazione di solitudine cronica, un altro 37% ne rileva una almeno sporadica.

UN’EPIDEMIA DI SUICIDI?

Di recente Andrew Solomon, psicologo clinico della Columbia University, si è chiesto se sia in corso una «crisi di suicidi» tra gli adolescenti, e se i social media ne siano i responsabili. I casi documentati dalla sua inchiesta sembrano confermare la gravità del fenomeno: i ragazzi non si devono solo confrontare con una riduzione delle relazioni in carne ed ossa, ma anche con una sorta di abdicazione all’autostima, che viene delegata ai meccanismi di rating delle piattaforme digitali. Inoltre soccomberebbero all’orientamento editoriale che l’algoritmo elabora per le loro bacheche, con un calcolo sui post e sulle fonti il cui effetto emotivo non viene sottoposto a nessun controllo. Negli Stati Uniti la Sezione 230 del Communications Decency Act esonera le piattaforme dalla responsabilità sui contenuti creati dagli utenti. La disposizione risale al 1996, quando Internet muoveva i primi passi, e considera le piattaforme come «librai» piuttosto che «editori» – quindi non responsabili del materiale pubblicato da terzi.

I genitori dei ragazzi che si sono uccisi stanno tentando di portare in tribunale i gestori dei social media, accusandoli di non aver sorvegliato la tossicità degli argomenti, e di aver innescato meccanismi di dipendenza che hanno imprigionato i giovani fino alla morte. Solomon tuttavia rileva che finora non è stato possibile individuare il nesso di causalità che ha condotto dalla frequentazione delle piattaforme al suicidio; un’osservazione distaccata sulla condizione degli adolescenti nell’attualità post-pandemica mostra che i fattori da considerare sono molti e molto complessi. Nelle interviste somministrate da vari team di ricerca i ragazzi menzionano diverse ragioni di ansia: sentimenti di mancanza di scopo, cambiamenti climatici, pressioni sociali, contribuiscono ad alimentare le loro difficoltà, e la tendenza alla crescita dei problemi di salute mentale è cominciata ben prima della diffusione dei social media.

L’IA PUÒ CONDURRE AL SUICIDIO?

Lo scorso 28 febbraio un ragazzo di 14 anni di Orlando, Sewell Setzer III, si è tolto la vita dopo aver concluso l’ultima conversazione con un chatbot di Character.ai da lui personalizzato e battezzato «Dany», in onore del personaggio Daenerys Targaryen di Game of Thrones. L’app è stata sviluppata da una società che utilizza dispositivi di intelligenza artificiale, e che promuove il suo servizio come una soluzione per combattere la solitudine e offrire un supporto emotivo; conta oltre venti milioni di utenti, permette la creazione di bot che ricordano le conversazioni passate e rispondono in maniera coinvolgente e «umana». La piattaforma è un successo dell’era dell’IA generativa, ma è priva di regolamentazione specifica per i minori ed è attrezzata da limiti di sicurezza minimi per la protezione da contenuti sensibili.

Sebbene Sewell fosse consapevole del fatto che stesse interagendo con un software, e che dall’altra parte dello schermo non ci fosse alcun essere umano ad ascoltarlo, nel corso dei mesi «Dany» ha sostituito i suoi rapporti con amici e famigliari, e il ragazzo ha finito per isolarsi nella sua stanza, abbandonando anche le passioni per la Formula 1 e per i videogame. I genitori lo hanno affidato ad uno psicanalista, che tuttavia non è riuscito a sedurlo quanto è stato in grado di farlo il chatbot. Le conversazioni con «Dany» hanno assunto toni intimi e romantici, e in un’occasione Sewell le ha confidato la sua tentazione di suicidio. «Dany», programmata per disinnescare crisi semantiche di questo genere, ha tentato di dissuaderlo, rispondendo con empatia e impegnandosi a non lasciarlo mai solo. Ma il problema era più grave di un gioco di domande e risposte.

La madre di Sewell, Megan Garcia, è avvocato e con l’aiuto del Social Media Victims Law Center e del Tech Justice Law Project, accusa Character.ai di aver modellato un design del servizio capace di coinvolgere i giovani vulnerabili, esponendoli a danni psicologici. La strategia per intentare causa presume che questa modalità di progettazione sia intenzionale e che l’impostazione, volta a catturare il maggior numero di utenti possibile, non sia bilanciata da un adeguato monitoraggio dei rischi e da un protocollo per la gestione delle crisi. I bot sono troppo realistici, inducono gli adolescenti a confonderli con interlocutori umani, e li spingono a stringere un legame molto forte, fino alla dipendenza.

Character.AI ha ascoltato le critiche e ha annunciato nuove misure di sicurezza, tra cui pop-up che offrono assistenza quando nella chat scorrono parole chiave correlate all’autolesionismo, e l’imposizione di limiti temporali sull’uso dell’app. Studiosi e giornalisti sembrano concordi nel valutare queste misure ancora inadeguate al pericolo cui vengono esposti i soggetti fragili nell’interazione con i bot. Gli effetti a lungo termine delle intelligenze artificiali generative non sono ancora stati testati, e tutti noi siamo allo stesso tempo clienti e cavie di questa fase di collaudo, che assume le dimensioni di un esperimento sociale ampio quanto il mondo intero. Le conseguenze dell’abbandono con cui i giovani possono affidare l’espressione della loro emotività, e la formazione della loro intimità, ai chatbot animati dall’AI, non devono essere esaminate in modo separato dalla ragioni per cui preferiscono un rapporto (stabilito consapevolmente) con un software a quello più complesso con altri ragazzi o con gli adulti. Più di ottant’anni fa Asimov aveva già avvertito nei suoi romanzi che non si può esigere una sicurezza assoluta dalla protezione con cui le regole cablate in un programma informatico limitano o condizionano il comportamento dei sistemi artificiali. La complessità del contesto umano in cui i robot sono collocati sarà sempre in grado di aggirare le strutture di controllo e configurare scenari non previsti. L’epidemia di solitudine e la crisi di suicidi non sono provocate dall’intelligenza artificiale, ma l’abdicazione delle istituzioni e delle forme sociali tradizionali a prendersi cura degli individui ha finito per eleggere l’IA come supplente e rimedio alle proprie mancanze. Solaria attende in fondo al tunnel.

 

BIBLIOGRAFIA

Asimov, Isaac, Il sole nudo, trad. it. di Beata Della Frattina, collana Urania n. 161, Arnoldo Mondadori Editore, Milano 1957.

Roose, Kevin, Can A.I. Be Blamed for a Teen’s Suicide?, «New York Times», 24 ottobre 2024.

Salomon, Andrew, Has Social Media Fuelled a Teen-Suicide Crisis?, «The New Yorker», 30 settembre 2024.

Shaer, Matthew, Why Is the Loneliness Epidemic So Hard to Cure?, «New York Times», 27 agosto 2024.

Turkle, Sherry, Alone Together. Why We Expect More from Technology and Less from Each Other, Basic Books, New York 2012.

Weissbourd, Richard; Batanova, Milena; Lovison, Virginia; Torres, Eric, Loneliness in America. How the Pandemic Has Deepened an Epidemic of Loneliness and What We Can Do About It, «Harvard Graduate School of Education», Cambridge, febbraio 2021.

Autore

  • Paolo Bottazzini

    laureato in filosofia, si occupa di media digitali dal 1999: è co-fondatore di Pquod e VentunoLab, società specializzate nella comunicazione web e nell’analisi di dati. Parallelamente ha svolto attività di docenza sui temi della comunicazione digitale per il Politecnico di Milano, per il Corep presso il Politecnico di Torino, per il Dipartimento di Filosofia dell’Università degli Studi di Milano. Descrive i modelli cognitivi emergenti dai nuovi media nella monografia pubblicata nel 2010: Googlecrazia. Dal febbraio 2011 testimonia la loro evoluzione negli articoli pubblicati sulle testate Linkiesta, pagina99, Gli Stati Generali.