Recensione di Oltre la tecnofobia, il digitale dalle neuroscienze all’educazione - Prima parte
A maggio di quest’anno è uscito un libro, Oltre la tecnofobia, Il digitale dalle neuroscienze all’educazione di Vittorio Gallese, Stefano Moriggi, Pier Cesare Rivoltella, che – dichiaratamente, fin dal titolo – intende proporre una visione in controtendenza rispetto alla tecnofobia che sta dilagando tra media, common sense, e riflessioni accademiche.
Abbiamo accolto con grande interesse la riflessione critica, acuta e articolata, di Simone Lanza che, con il pretesto di confrontarsi con le tesi degli autori, costruisce un ragionamento parallelo su tematiche quali la metafora del cervello come computer, l’identità di rappresentazione dei mondi analogico e digitale, e il presunto autoritarismo celato da divieti e restrizioni dell’uso delle tecnologie digitali a bambini e ragazzi.
In questo primo articolo presentiamo la sintesi della recensione del libro; nei successivi tre seguiremo il ragionamento analitico di Simone Lanza.
-----
Il saggio di Vittorio Gallese, Stefano Moriggi, Pier Cesare Rivoltella si scaglia contro la tecnofobia, figlia di una lunga tradizione storica che ha visto demonizzare ogni rivoluzione tecnologica “dall’invenzione del fuoco agli smartphone” (p.22), dalla scrittura alfabetica alla fotografia, dal cinema alla televisione, fino all’attuale panico morale. Gli autori si adoperano a smontare con vigore le tesi di Jonathan Haidt (La generazione ansiosa), secondo cui i giovani sarebbero vittime passive di tecnologie portatrici di ansie sociali; a loro avviso, il vero problema non è il digitale ma la paura culturalmente costruita che lo circonda, una nostalgia reazionaria per un passato idealizzato, sostenuta da divieti inefficaci e da un’autorappresentazione sociale che colpevolizza le nuove generazioni.
Il limite più rilevante del saggio è che, credendo di criticare la diffusione della tecnofobia, non analizza il mondo odierno, ben plasmato in profondità dalle piattaforme digitali, che invece mettono a valore le paure sociali, che sono la leva e non la resistenza alla diffusione di massa di queste tecnologie. Il libro, soprattutto, fa un pessimo uso delle sue tre fonti principali chiamate a corroborare l’impostazione teorica: Walter Benjamin, Bernard Stiegler, Paulo Freire. Se quindi in questa recensione si darà eccessivo spazio a questi testi non è tanto per restituire alle tre fonti la loro forza critica, completamente rimossa nel libro in questione, quanto perché questa operazione consolida, con il linguaggio scientifico, una serie di luoghi comuni, che qui si intendono invece sottoporre a critica. Presenterò subito i contenuti.
Nella prima parte (gnoseologica), ispirata alle ricerche delle neuroscienze, gli autori demoliscono la metafora del cervello come computer. L’essere umano è dotato di intersoggettività corporea e i neuroni motori si attivano anche nella percezione di stimoli visivi o tattili senza produrre movimento effettivo. Questa simulazione motoria dimostrerebbe che “i meccanismi cervello-corpo che consentono la nostra relazione fisica e diretta con il mondo (…) e quelli che intervengono nel mondo – analogico e digitale – con cui rappresentiamo il mondo con storie e immagini, sono molto simili” (p.37). Non esiste così una differenza qualitativa o ontologica nel modo in cui “rappresentiamo” (p.41) il mondo perché il primo medium sarebbe il corpo (p.21). Il riferimento principe della prima parte è al filosofo Walter Benjamin, primo critico ad avere compreso che i media trasformano la stessa percezione dell’esperienza del mondo reale. Ne L’opera d’arte al tempo della sua riproducibilità tecnica sostiene che i media (essenzialmente fotografia e cinema) hanno cambiato il modo di percepire il reale.[1] Sulla confusione tra esperienza di mondo di Benjamin con la rappresentazione del mondo si tornerà più avanti, perché questa confusione permette di sovrapporre la rappresentazione del mondo analogico a quella digitale, perdendo di vista la dimensione esperienziale del mondo reale, di cui il virtuale è solo una parte.
Nella seconda parte (ontologica) si sostiene la tesi che l’indistinzione percettiva sia anche costitutiva del reale, cioè che virtuale e reale siano sovrapponibili. Un’idea dura a morire per la resistenza del buon senso umanista a cui i nostri autori contrappongono le tesi del filosofo Bernard Stiegler, per il quale la tecnologia non è esterna all’umano, perché l’evoluzione umana è “tecnologico-umana” (p.23). A ulteriore conferma portano una tesi di Debord riproposta in modo forse impreciso: “tutto ciò che un tempo veniva vissuto direttamente è ora semplicemente rappresentato a distanza (sic).” (p.43). Secondo me, la traduzione corretta è “tutto ciò che era direttamente vissuto si è allontanato in una rappresentazione”. Che poi è proprio ciò che i nostri autori non vogliono capire: lo schermo trasforma (e allontana) il vissuto in rappresentazione, come si vedrà più avanti.[2] In ogni caso la loro argomentazione è che la contrapposizione tra umano e tecnologia sia sterile, storicamente infondata e filosoficamente inadeguata, seguendo le tesi del filosofo francese Bernard Stiegler, in Italia sicuramente non abbastanza riconosciuto. Stiegler elabora da Derrida la nozione di tecnica come pharmakon (veleno e farmaco insieme): come la scrittura per Platone così anche il digitale è intrinsecamente ambiguo potendo avvelenare o curare a seconda della dose.
Questa prospettiva smaschererebbe la tecnofobia umanista, radicata al contrario in una nostalgia metafisica che contrappone artificiosamente l’uomo alla macchina, il naturale al tecnologico. Da questa prospettiva teorica, per altro assolutamente condivisibile, anche alla luce del dibattito filosofico in corso sul post-umano (dibattito non menzionato), si passa però velocemente a polemizzare con le soluzioni di "buon senso" derivate da questa visione semplicista: ecco che il concetto di "benessere digitale" è una trappola che scarica sulle macchine responsabilità umane, mentre i divieti (come gli smartphone vietati sotto i 14 anni, le circolari del Ministero, etc...) ignorano la complessità del rapporto coevolutivo tra essere umano e tecnica. Qui gli autori si buttano nelle braccia dello psicologo Matteo Lancini: per gli adolescenti in ritiro sociale (hikikomori), i media digitali non sarebbero la causa del male, ma il farmaco che evita esiti psicotici, permettendo loro di restare agganciati al mondo. Viviamo ormai in una realtà onlife, dove ogni distinzione tra on line e off line sarebbe obsoleta. Gli autori ci invitano ad "abitare farmacologicamente (e dunque consapevolmente) la catastrofe" (p.107): riconoscere le tossicità del digitale senza rinunciare alle sue potenzialità curative. Questa parte teorizza l’inseparabilità di umano e tecnologico deducendone la polemica contro il buon senso umanista sulle misure da prendere per gli abusi degli smartphone in età adolescenziale. Da un lato polemizzano contro le misure di buon senso dall’altro si limitano a segnalare solo alcune storture delle tecnologie informatiche nominando essenzialmente i rischi dei deepfake e della disinformazione delle fake news che viaggiano più veloci delle notizie vere. Gli autori sono fermamente convinti che “l’avvento dei media digitali ha democratizzato l’accesso alle informazioni” (p. 56) e che “l’ascesa delle piattaforme sociali ha permesso ai politici di interagire direttamente [sic] con gli elettori” (p.57): convinzione quest’ultima che forse alla fine del XX secolo poteva essere anche condivisibile, ma che dopo la Brexit e il ruolo di Cambridge Analytica, per non parlare della fine di ogni regolamentazione avanzata da Trump, suona quanto meno goffa, se non persino collusa.
La critica si fa totalmente pedagogica nella terza parte, dove ogni suggerimento pratico volto a limitare l’uso delle tecnologie è definito autoritario. Per questa operazione si scomoda il pedagogista Paulo Freire citandolo in esergo e avvalendosene nell’argomentazione: secondo gli autori i divieti inibiscono la capacità critica e deresponsabilizzano gli adulti e chi si vuole educare. Portano l’esempio di genitori cattivi che negano le carte Pokémon ai propri figli, i quali finiscono però per riceverle dai loro pari per una sorta di giustizia compensativa, traendo questa conclusione: “i divieti non reggono all’urto dei gruppi di pari” (p.144). L’ansia di controllo – già evidente in Platone con la sua diffidenza verso la scrittura – sarebbe il vero male: vietare informazioni ai minori è un modello fallimentare, poiché il gruppo dei pari compensa sempre le privazioni. Qui proprio gli autori abbracciano una posizione molto netta: “ogni scelta di protezione [sic] o di divieto, in senso proprio, non è educativa” (p.147). Anche qui mi sia lecito approfondire la questione per capire come Freire la pensasse davvero, ma soprattutto se l’antiautoritarismo non sia oggi qualcosa che potremmo ritenere inadeguato nonché anche abbondantemente superato dai dibattiti pedagogici contemporanei sulla crisi dell’autorità genitoriale.
Questo libro ci dà l’occasione per criticare sette luoghi comuni di cui questo manifesto “tecno-ottimista” sarebbe la versione “scientifica”. Lo sforzo dei nostri autori consiste nel convincere che ciò che viene vissuto sia sostanzialmente identico a ciò che viene rappresentato a distanza: stare tutto il giorno davanti a uno schermo sarebbe la stessa cosa che fare esperienze nel mondo reale, a due anni come a novanta, senza curarsi di dire qualcosa di critico sul fatto che ciò che passa oggi attraverso lo schermo è selezionato e personalizzato da algoritmi progettati da un pugno di miliardari che stanno aumentando le loro ricchezze e che non hanno alcuna finalità pedagogica se non quella di modellare i comportamenti di miliardi di persone.
NOTE
[1] Gallese aveva già ampiamente sviluppato queste tesi con M. Guerra in Lo Schermo Empatico. Cinema e Neuroscienze, Milano 2015. Su Walter Benjamin cf. anche: V. Gallese, Digital visions: the experience of self and others in the age of the digital revolution, in “International Review of Psychiatry”, n. 36, 2024, pp. 656–666. Per una ricostruzione analitica di Benjamin mi sia consentito rimandare a: S. Lanza, L’educazione nell’epoca della riproducibilità tecnica. note su Walter Benjamin, in “Quaderni Materialistici”, n. 23, 2024, pp. 155-176
[2] La traduzione della Società dello spettacolo proposta autonomamente dai nostri autori è quanto meno discutibile: meglio sarebbe stato conservare la traduzione dal francese di Stanziale “Tutto ciò che era direttamente vissuto si è allontanato in una rappresentazione [c’est éloigné dans une raprésentation]”. La traduzione di questo passaggio diventa pertanto proprio il tradimento proprio di ciò che Debord denuncia: con la società capitalistica l’esperienza vissuta viene mercificata e sostituita da una rappresentazione, spettacolo è quindi “il movimento autonomo del non-vivente”, etc.… proprio perché Debord auspicava una società diversa capace di usare in modo migliore le tecnologie.
Negare l’evidenza. Un clima di disinformazione
Quando la realtà ci sfugge di mano, il nostro cervello si rifugia in un’antica strategia di sopravvivenza: trovare un colpevole. È più rassicurante immaginare un “volto tra le nuvole”, che accettare l’idea che il mondo sia, talvolta, caotico, privo di intenzione e difficile da controllare. È il cosiddetto modulo di rilevazione dell’agente: un dispositivo cognitivo descritto dalle scienze cognitive evoluzionistiche che ci spinge, per prudenza, a vedere intenzionalità dove non ce n’è. Meglio sospettare un predatore inesistente, che ignorarne uno reale.
Lo storico delle religioni Stewart Guthrie, nel suo Faces in the Clouds (Oxford University Press, 1993), chiama questo meccanismo “antropomorfismo cognitivo”: attribuire caratteristiche umane a entità o eventi naturali, come tuoni, terremoti o carestie. Un’ipotesi evoluzionista che spiega la nascita di molte religioni come estensione dell’animismo primitivo: ci dev’essere qualcuno dietro, anche se non si vede.
Non è un caso se lo stesso schema mentale viene riattivato oggi di fronte al cambiamento climatico, alla pandemia, all’instabilità globale. Come spiega la psicologa sociale Karen Douglas in “The Psychology of Conspiracy Theories” (Current Directions in Psychological Science, 2017), le teorie del complotto proliferano in situazioni di incertezza, ansia, senso di esclusione. Non servono a spiegare il mondo, ma a renderlo psicologicamente tollerabile. Dietro un virus? Un laboratorio. Dietro il riscaldamento globale? Un piano delle élite per controllare le masse.
Nel Medioevo, per spiegare carestie e pestilenze si cercavano streghe. Oggi, si cercano burattinai: Bill Gates, Klaus Schwab, George Soros e ovviamente Greta Thunberg. Cambiano i nomi, non lo schema. I roghi si sono trasformati in commenti sotto i post, meme, video virali. Ma la logica è la stessa: trovare un capro espiatorio e scaricare su di lui l’angoscia collettiva.
Il pensiero complottista offre un doppio vantaggio narcisistico: ci fa sentire sia speciali (“io so la verità”) sia perseguitati (“gli altri non capiscono”). È un rifugio identitario: se il cambiamento climatico fosse reale e causato da noi, dovremmo cambiare. Ma se è tutto un inganno, possiamo restare come siamo. E magari sentirci anche eroi per averlo smascherato.
Ogni smentita, poi, diventa una conferma. Se i dati scientifici contraddicono la teoria, è solo perché “loro” ci stanno mentendo. Una trappola mentale chiusa dall’interno, a doppia mandata.
Ma non c’è solo psicologia. Il negazionismo climatico è una strategia deliberata e ben orchestrata. A documentarlo in modo puntuale sono Naomi Oreskes e Erik Conway in Merchants of Doubt (Bloomsbury Press, 2012). Una vera radiografia del sistema: think tank finanziati dall’industria dei combustibili fossili, “esperti” compiacenti, studi isolati, messaggi ambigui. Non per negare apertamente il cambiamento climatico – oggi sarebbe insostenibile – ma per seminare dubbi. Perché se non puoi smentire la scienza, puoi almeno confondere il pubblico.
È la stessa tecnica usata, decenni fa, dall’industria del tabacco. Quando ormai era evidente il legame tra fumo e cancro, non restava che un’arma: chiedere “ulteriori studi”. Creare l’illusione di un dibattito aperto. Come dichiarò con cinismo S. J. Green, direttore della ricerca della British American Tobacco: «La richiesta di nuove prove scientifiche è sempre stata un espediente per giustificare l’inazione o il rinvio. Di solito è la prima reazione di chi è colpevole.»
Lo stesso copione, aggiornato, è stato messo in campo da ExxonMobil. Già negli anni ’70 e ’80 i loro scienziati interni producevano modelli previsionali molto accurati sugli effetti della CO₂. Ma la direzione aziendale scelse un’altra strada: finanziare il dubbio. Tra il 1998 e il 2004, la compagnia ha speso oltre 16 milioni di dollari per sostenere think tank negazionisti, come il Competitive Enterprise Institute. Celebre la loro campagna del 2006: «CO₂: They call it pollution. We call it life». Nessun dato. Solo retorica.
La disinformazione funziona anche perché sfrutta un altro meccanismo psicologico: la truthiness, termine coniato dal comico Stephen Colbert per indicare ciò che “suona vero”, anche se non lo è. Un effetto verità che prende scorciatoie emotive, bypassa il pensiero analitico e colpisce direttamente l’istinto.
Uno studio pubblicato su Science da Soroush Vosoughi, Deb Roy e Sinan Aral (“The Spread of True and False News Online”, 2018) ha mostrato che le fake news si diffondono più rapidamente, più lontano e più in profondità rispetto a quelle vere. Non sono i bot i principali responsabili, ma noi: indignati, frettolosi, disattenti. Le bufale provocano emozioni forti – rabbia, paura, disgusto – che attivano il cervello più rapidamente della riflessione razionale.
È il cosiddetto bullshit asymmetry principle (Brandolini’s law): per smontare una sciocchezza servono almeno dieci volte le risorse necessarie per produrla. La scienza richiede tempo, verifiche, cautele. Il complotto no. Viaggia leggero, virale, immune alla smentita. E mentre la politica si divide, la transizione ecologica si arena. Perché, intanto, il tempo corre.
Le teorie del complotto e la disinformazione scientifica sono la conseguenza, prevedibile, di come funziona il nostro cervello e di come funzionano – in modo non meno prevedibile – gli interessi economici organizzati. Comprenderlo è il primo passo per difenderci. Perché mentre la scienza avanza a passi lenti e incerti tra ipotesi, verifiche, margini d’errore e formule prudenti (“altamente probabile”, “coerente con i modelli”, “correlazione significativa”), la disinformazione finanziata dalle lobby del carbone, del petrolio e del gas corre – rapida ed emozionale – sul tapis roulant della truthiness. Non deve dimostrare nulla. Solo dirci quello che desideriamo sentire.
NOTA
Su questo tema Matteo Motterlini ha appena pubblicato, per Solferino Libri, Scongeliamo i cervelli, non i ghiacciai
L’Effetto Proteo: Quando l’Avatar cambia chi siamo
Nell’era digitale, l’identità personale non è più confinata al corpo fisico: sempre più spesso si estende ai nostri avatar, quei corpi virtuali che abitiamo nei social network, nei videogiochi, negli ambienti digitali in generale. Ma cosa succede quando l’aspetto di questi avatar inizia a influenzare profondamente il nostro comportamento reale? Questo è il cuore dell’“Effetto Proteo”, un fenomeno psicologico che mette in luce il potere trasformativo dell’identità digitale.
DALLA MASCHERA ALL’AVATAR: LE ORIGINI DELL’EFFETTO PROTEO
Coniato nel 2007 da Nick Yee 1 e Jeremy Bailenson 2, il termine “Effetto Proteo” richiama la figura mitologica greca di Proteo, capace di cambiare forma a piacimento. L’idea alla base è semplice ma potentissima: quando adottiamo un avatar in un ambiente digitale, tendiamo inconsciamente a comportarci in modo coerente con il suo aspetto. Se l’avatar è alto e attraente, potremmo mostrarci più sicuri di noi; se appare debole, potremmo essere più remissivi.
Già Oscar Wilde, ben prima del digitale, scriveva: “Man is least himself when he talks in his own person. Give him a mask, and he will tell you the truth”. La maschera, oggi, è l’avatar, e funziona da catalizzatore per l’esplorazione dell’identità.
Nell’affrontare l’identificazione tra avatar ed essere umano si analizzeranno, in prima battuta, i meccanismi psicologici e cognitivi che sono alla base dell’esistenza dell’Effetto Proteo; successivamente, verranno valutati gli effetti di stereotipi e bias su comportamento e identità; infine, si tenterà una sintesi di quanto analizzato, vagliando come e quanto l’identificazione nel proprio avatar conduca a delle modifiche nella percezione di sé, tanto nei mondi virtuali quanto in quello reale.
INQUADRAMENTO PSICOLOGICO
Numerosi studi hanno indagato i fondamenti teorici dell’Effetto Proteo. Uno dei principali è la “self-perception theory” di Daryl Bem 3. Secondo questa teoria non sempre conosciamo i nostri stati interiori in modo immediato: spesso ci osserviamo dall’esterno, proprio come farebbe un osservatore qualsiasi, e traiamo conclusioni su cosa proviamo in base al nostro comportamento visibile. Questo meccanismo diventa particolarmente evidente quando mancano segnali interni chiari o quando ci troviamo in contesti ambigui. Negli ambienti virtuali ciò significa che, quando “indossiamo” un avatar, tendiamo a comportarci secondo le caratteristiche estetiche e simboliche che gli abbiamo attribuito, e da tali comportamenti inferiamo i nostri stati d’animo. L’avatar, quindi, non è solo una maschera, ma anche uno specchio che riflette (e crea) il nostro Sé.
Un’altra teoria rilevante è la “deindividuation theory” di Philip Zimbardo 4, sviluppata a partire dagli anni Sessanta. Secondo Zimbardo, in situazioni di anonimato o di forte immersione in un gruppo, l’individuo tende a perdere il senso della propria individualità, diminuendo l’autocontrollo e mostrando comportamenti che normalmente inibirebbe. L’anonimato riduce la paura del giudizio altrui e attenua il senso di responsabilità personale: in un ambiente digitale queste condizioni si verificano con facilità. Secondo Zimbardo, l’effetto della de-individuazione è tendenzialmente negativo, e conduce a comportamenti antisociali; tuttavia, altri autori hanno evidenziato che individui in condizione di de-individuazione, temendo meno il giudizio sociale, possono esibire anche espressioni di empatia, solidarietà o affetto.
Questa visione è stata successivamente affinata da Tom Postmes 5, Russell Spears 6 e Martin Lea 7 attraverso il modello SIDE (Social Identity Model of Deindividuation Effects). Gli autori sostengono che l’anonimato non elimina l’identità personale, ma favorisce il passaggio a un’identità sociale condivisa. Quando un individuo si sente parte di un gruppo tende a interiorizzarne norme e valori, comportandosi in maniera coerente con le aspettative collettive. Ciò significa che, in un contesto digitale, l’utente può sviluppare un forte senso di appartenenza a una comunità online assumendo atteggiamenti e comportamenti che riflettono la cultura del gruppo stesso. Come osservano gli autori, il bisogno di sentirsi accettati nella cerchia sociale di riferimento supera qualsiasi considerazione etica riguardo il comportamento adottato. In questo senso, l’avatar non è solo uno strumento di espressione individuale, ma anche di conformità sociale. L’interazione tra anonimato, immersione e identità condivisa crea una cornice psicologica che amplifica le norme del gruppo. In positivo, questo può rafforzare la cooperazione, il supporto reciproco e l’inclusività; in negativo, può alimentare polarizzazioni, intolleranze e comportamenti aggressivi.
STEREOTIPI E IDENTITÀ DIGITALI
Gli stereotipi giocano un ruolo centrale nell’Effetto Proteo. Già nel 1977, Mark Snyder 8 dimostrava che le aspettative proiettate sull’interlocutore influenzano profondamente l’interazione. Tre fenomeni descrivono l’impatto degli stereotipi:
- Stereotype threat: la paura di confermare uno stereotipo negativo conduce a prestazioni peggiori.
- Stereotype lift: l’identificazione con un gruppo visto positivamente migliora fiducia e risultati.
- Stereotype boost: l’appartenenza a gruppi stereotipicamente forti conduce a benefici in prestazioni e autostima 9.
Nei videogiochi è stato osservato che avatar maschili e femminili esibiscono comportamenti diversi quando utilizzati da persone del sesso opposto: tale fenomeno è noto come “gender swapping”. Gli uomini tendono a usare avatar femminili per ottenere vantaggi sociali, mentre le donne lo fanno per evitare attenzioni indesiderate. Uno studio condotto su World of Warcraft (Yee, Bailenson, & Ducheneaut, 2009) ha rilevato che avatar più attraenti o più alti generano atteggiamenti più estroversi, mentre avatar meno imponenti portano a comportamenti più schivi. In uno studio parallelo, condotto su giocatrici e giocatori di EverQuest II (Huh & Williams, 2010), è stato evidenziato che personaggi maschili controllati da donne sono più attivi in combattimento, mentre personaggi femminili controllati da uomini si dedicano maggiormente alla socializzazione: in entrambi i casi si assiste alla messa in atto di comportamenti stereotipici, aderenti a ciò che un determinato individuo si aspetta da persone identificate in un genere altro.
IDENTITÀ DESIDERATA E OVERCOMPENSATION
Il fenomeno dell’identificazione desiderata, o “wishful identification”, si manifesta quando l’individuo si immedesima in personaggi con qualità che vorrebbe possedere. Nel 1975 Cecilia von Feilitzen 10 e Olga Linné 11 teorizzavano che gli spettatori più giovani dei programmi televisivi tendessero a proiettarsi nei protagonisti delle storie che consumavano per sentirsi più intelligenti, forti o valorosi. Questo desiderio di immedesimazione non richiede necessariamente una somiglianza fisica tra soggetto e personaggio: l’importante è che il personaggio incarni qualità desiderabili, e assenti nella vita reale dell’osservatore. Nei mondi virtuali, tale meccanismo assume una dimensione interattiva: non ci si limita più a osservare un eroe sullo schermo, ma lo si diventa, scegliendo avatar che riflettono i nostri desideri più profondi e agendo attraverso di essi.
Una manifestazione concreta di questo processo si osserva nel fenomeno dell’overcompensation. In uno studio condotto da Roselyn Lee-Won 12 e colleghi, a un gruppo di giovani uomini è stato chiesto di sottoporsi a una serie di test stereotipicamente associati alla mascolinità (forza fisica, cultura generale “virile”, autovalutazioni). Coloro che ottenevano risultati deludenti tendevano poi a creare avatar in The Sims 3 con tratti fisici accentuatamente maschili: muscoli pronunciati, lineamenti decisi, capelli corti. Questa costruzione ipermaschile del proprio alter ego virtuale rappresenta una forma di riaffermazione identitaria, un tentativo inconscio di compensare una percezione negativa del proprio Sé fisico o sociale. Non solo: quando questi stessi individui ripetevano i test dopo aver interagito con l’avatar, i loro risultati miglioravano. Questo suggerisce che l’identificazione con un corpo virtuale desiderato possa rafforzare l’autoefficacia anche nel mondo reale. Il Sé digitale, in questo senso, non è solo uno strumento di espressione, ma anche un vero e proprio alleato nella costruzione di fiducia e autostima.
Questa dinamica di retroazione è una delle più affascinanti implicazioni dell’Effetto Proteo: non è solo l’avatar a essere influenzato dall’utente, ma anche l’utente a essere modificato dal suo avatar. L’identità digitale, quindi, diventa non solo espressione, ma anche motore di trasformazione del Sé.
ETICA E DESIGN DELL’IDENTITÀ DIGITALE
L’Effetto Proteo non è un semplice artificio sperimentale: è una dinamica concreta con ripercussioni reali su comportamento, percezione di sé e relazioni sociali.
Come vogliamo che ci vedano gli altri? E quanto siamo pronti ad accettare che il nostro comportamento possa cambiare, anche profondamente, in base al corpo digitale che abitiamo? La progettazione di avatar non può essere considerata solo una questione estetica: è un atto di modellazione identitaria. Costruire un corpo digitale significa anche dare forma a una possibile versione di sé, con tutto il potere trasformativo che questo comporta.
NOTE:
RIFERIMENTI BIBLIOGRAFICI
Bem, D. (1972). Self-Perception Theory. In L. Berkovitz (ed.), Advances in Experimental Social Psychology, vol. 6. New York: Academic Press.
Gergen, K. J., Gergen, M. M., & Barton, W. H. (1976). Deviance in the Dark. In Psychology Today, vol. 7, no. 5. New York: Sussex Publishers.
Huh, S., & Williams, D. (2010). “Dude Looks like a Lady: Gender Swapping in an Online Game”. In W. S. Bainbridge (ed.), Online Worlds: Convergence of the Real and the Virtual. Londra: Springer.
Hussain, Z., & Griffiths, M. D. (2008). Gender Swapping and Socializing in Cyberspace: An Exploratory Study. In CyberPsychology & Behavior, vol. 11, no. 1. Larchmont: Mary Ann Liebert, Inc.
Lee-Won, R. J., Tang, W. Y., & Kibbe, M. R. (2017). When Virtual Muscularity Enhances Physical Endurance: Masculinity Threat and Compensatory Avatar Customization Among Young Male Adults. In Cyberpsychology, Behavior, and Social Networking, vol. 20, no. 1. Larchmont: Mary Ann Liebert, Inc.
Postmes, T., Spears, R., & Lea, M. (1998). Breaching or Building Social Boundaries?: SIDE-Effects of Computer-Mediated Communication. In Communication Research, vol. 25, no. 6. Thousand Oaks: SAGE Publishing.
Shih, M., Pittinsky, T. L., & Ambady, N. (1999). Stereotype Susceptibility: Identity Salience and Shifts in Quantitative Performance. In Psychological Science, vol. 10, no. 1. New York: SAGE Publishing.
Snyder, M., Tanke, E. D., & Berscheid, E. (1977). Social Perception and Interpersonal Behavior: On the Self-Fulfilling Nature of Social Stereotypes. In Journal of Personality and Social Psychology, vol. 35, no. 9. Washington, D.C.: American Psychological Association.
Steele, C. M., & Aronson, J. (1995). Stereotype Threat and the Intellectual Test Performance of African Americans. In Journal of Personality and Social Psychology, vol. 69, no. 5. Washington, D.C.: American Psychological Association.
Walton, G. M., & Cohen, G. L. (2003). Stereotype Lift. In Journal of Experimental Social Psychology, vol. 39, no. 5. Amsterdam: Elsevier.
Yee, N., & Bailenson, J. (2007). The Proteus Effect: The Effect of Transformed Self-Representation on Behavior. In Human Communication Research, vol. 33, no. 3. Oxford: Oxford University Press.
Yee, N., Bailenson, J., & Ducheneaut, N. (2009). The Proteus Effect. Implications of Transformed Digital Self-Representation on Online and Offline Behavior. In Communication Research, vol. 36, no. 2. New York: SAGE Publishing.
Zimbardo, P. G. (1969). The Human Choice: Individuation, Reason, and Order versus Deindividuation, Impulse, and Chaos. In W. J. Arnold, & D. Levine (eds.), Nebraska Symposium on Motivation, vol. 17. Lincoln: University of Nebraska Press.
Prodotti da forno intelligenti? – Una nuova forma di ibridazione
Di recente, un’azienda di comunicazione ha reso nota un’esperienza di uso ibrido tra intuizione umana e capacità dell’intelligenza artificiale. L’azienda è stata incaricata da un cliente di sviluppare un nuovo prodotto nella linea dei prodotti da forno salati.
Va ricordato che nel marketing, quando si parla di prodotto si intende – come minimo - la combinazione tra prodotto fisico (in questo caso, quello che si mangia), prezzo, posizionamento, packaging e immagine visuale.
Per realizzare questa operazione, l’agenzia ha avviato una ricerca sensoriale con giudici umani professionisti, coinvolgendo anche consumatori e community online di potenziali consumatori, che hanno definito le caratteristiche di sapore, consistenza e dimensioni, del prodotto fisico.
Poi, utilizzando le informazioni raccolte, ha chiesto a un sistema di Intelligenza Artificiale di generare dei visual evocativi che rappresentassero le caratteristiche desiderate del prodotto. Queste immagini hanno dato input a designer e addetti al marketing per sviluppare la dimensione di immagine e packaging del prodotto, da proporre al cliente.
Il risultato, il prodotto che sarà proposto sul mercato, costituito dalle diverse componenti, sembra essere, quindi, un ibrido tra creatività umana e lavoro di analisi e di sintesi svolto da una macchina.
Questo processo sinergico uomo-macchina sembra aver amplificato la creatività umana e pone la consueta domanda: il ruolo dell’ingegno umano è insostituibile? La IA può concepire modi di pensare differenti – magari non migliori ma sicuramente alieni - da quelli possibili per un umano? Grazie alle macchine intelligenti, può estendere il concetto stesso di creatività?
Proviamo a fare una prima razionalizzazione di questo tipo di approccio ibrido:
- In un processo di brainstorming, ogni partecipante espone la sua personale idea dell’argomento. Quando le idee sono esaurite, si fa un compendio delle possibili soluzioni reali. Al termine, si sceglie una o più di una per essere approfondite e una per essere sviluppata.
- Se Inseriamo la I.A. nel processo, questa può essere ennesimo partecipante che avanza una sua proposta, nata – evidentemente dai dettagli o dalle omissioni delle altre.
- Al termine del processo, la I.A. può fare il compendio di tutte le proposte e restituirlo all’umano, che lo rielaborerà con il suo pensiero e stile personale.
Se intensifichiamo l’ibridazione, possiamo immaginare che la I.A. generi – sulla base della conoscenza acquisita – anche un compendio completo di esempi, fatti e contraddittorio, mantenendo un “tono di voce” nello stesso tempo riflessivo e inclusivo. L’umano potrà, poi, personalizzare questo compendio secondo la propria sensibilità e stile.
Questo modello di approccio unirebbe la velocità della I.A. alla profondità della riflessione umana, favorendo la naturale tendenza umana a risparmiare energia come strategia di sopravvivenza. Alla IA si può affidare il compito più gravoso, tenere traccia e organizzare i contenuti, che svolgerà velocemente. L’uomo può ri-elaborare i contenuti con il proprio tocco personale.
Il risultato finale si può considerare una soluzione accettabile? Potremmo chiederlo all’umano e alla macchina, reiterando il processo fino a quando l’umano risponde positivamente.
Come può essere definita la forma intellettuale del risultato? Ci sarebbe arrivato comunque l’uomo? Ci sarebbe arrivata la macchina tra i suoi scenari possibili attingendo allo scibile a sua disposizione?
Di fatto, sembra assodato che l’ingegno umano sia caratterizzato dalla capacità di pensare in modo critico, di immaginare nuove possibilità e di trovare soluzioni non convenzionali ai problemi.
Queste qualità sono difficili da replicare completamente con la tecnologia, anche con i progressi dell’intelligenza artificiale. Questa può analizzare grandi quantità di dati e identificare modelli, ma – per ora - manca di intuizione e di pensiero laterale.
Inoltre, l’ingegno umano è spesso guidato da emozioni, esperienze personali e valori culturali, elementi che la tecnologia non può replicare completamente.
Un prodotto sviluppato congiuntamente da umano e I.A. può essere considerato – a nostro parere - una nuova tipologia di prodotto, poiché rappresenta una fusione delle capacità uniche di entrambi, e neutralizzare felicemente la tensione tra le visioni apocalittica e integrata di queste nuove tecnologie.
Eco-ansia - La crisi ecologica tra medicalizzazione e politicizzazione
ECO-ANSIA: TRA DISAGIO PSICHICO E SINTOMO POLITICO
Negli ultimi anni, la crisi ecologica ha prodotto un'ondata di emozioni collettive che ridefiniscono il modo in cui le persone vivono il proprio rapporto con il mondo. Tra queste emozioni, l’eco-ansia si impone come una delle più diffuse e significative. Spesso descritta come una “paura cronica della fine del mondo” o come uno stato di angoscia legato al futuro del pianeta, l’eco-ansia è rapidamente entrata nel lessico della psicologia e dei media, fino a essere talvolta trattata come una vera e propria patologia da gestire individualmente[1].
Tuttavia, ridurre l’eco-ansia a un disturbo mentale rischia di oscurare il suo significato più profondo. Il pericolo non è solo quello di medicalizzare un’emozione condivisa, ma anche di depoliticizzarla - trasformando una risposta motivata dalla consapevolezza di una crisi reale in un problema personale da contenere. In questo senso, parlare di eco-ansia significa entrare nel cuore della tensione culturale, politica ed esistenziale verso la crisi climatica.
UN’EMOZIONE RADICATA IN UN’EPOCA
L’eco-ansia non nasce nel vuoto. È il frutto di un’epoca segnata da disastri ambientali, disuguaglianze globali e una crescente percezione dell’irreversibilità della crisi climatica. In molti casi, questa ansia non è legata a esperienze dirette di catastrofe, ma alla consapevolezza della loro imminenza, che si traduce in un senso di incertezza paralizzante. Si tratta, in altri termini, di una forma di disagio che nasce dalla difficoltà di immaginare un futuro vivibile.
A questo proposito, il pensiero dell’antropologo Ernesto De Martino offre una chiave di lettura particolarmente illuminante. De Martino parlava di “crisi della presenza” per indicare quei momenti in cui un individuo o una collettività perdono la capacità di situarsi nel mondo con continuità, agire con intenzionalità, e proiettarsi nel futuro. Ne La fine del mondo (1977), De Martino indaga la percezione dell’apocalisse come forma radicale di crisi della presenza, in cui il mondo perde senso e coerenza. L’apocalisse, per l’antropologo italiano, non era solo la fine materiale del mondo, ma un’esperienza culturale e simbolica di disintegrazione: è la perdita di senso, il collasso dei riferimenti storici, etici e affettivi che permettono agli individui di “esserci” nel mondo. L’apocalisse, in questa prospettiva, è una minaccia interna alla cultura: accade quando la struttura simbolica che tiene insieme l’esperienza umana viene meno, lasciando spazio all’angoscia, alla paralisi, alla perdita di futuro.
Questa riflessione è sorprendentemente attuale nel contesto dell’eco-ansia. Molti giovani oggi vivono una forma di apocalisse simbolica: la percezione che il futuro sia compromesso dal collasso ecologico genera sentimenti di impotenza, paura e smarrimento. Come nella crisi della presenza descritta da De Martino, anche l’eco-ansia è segnata da un’interruzione del senso e della fiducia nella continuità del mondo. Rileggere De Martino alla luce della crisi ecologica significa dunque riconoscere che la posta in gioco non è solo ambientale, ma profondamente culturale e antropologica: è la possibilità stessa di abitare il mondo che viene messa in questione. L’eco-ansia, in questa prospettiva, è molto più di uno stato mentale: è il sintomo di una frattura storica, culturale ed esistenziale che mette in discussione il legame tra persone, ambiente e futuro.
IL RISCHIO DELLA MEDICALIZZAZIONE
Negli ultimi anni, l’eco-ansia è stata sempre più spesso affrontata come una condizione psicologica da trattare clinicamente: terapie, tecniche di mindfulness, strategie di coping individuale. Sebbene tali risposte siano necessarie e possano offrire sollievo, concentrarsi esclusivamente sulla loro promozione rischia di generare un duplice effetto negativo. Da un lato, individualizzano un problema collettivo, attribuendolo alla sensibilità o fragilità della singola persona. Dall’altro, distolgono l’attenzione dalle cause strutturali della crisi climatica, alimentando l’idea che l’unica risposta possibile sia l’adattamento psicologico e non la trasformazione sociale.
Questo processo di medicalizzazione non è nuovo. Come mostrano le critiche mosse da studiosi e studiose della sociologia critica, la tendenza a psichiatrizzare forme di disagio legate a condizioni sociali ingiuste è un tratto ricorrente della modernità. In questo caso, però, l’effetto è ancora più pericoloso: nel trattare l’eco-ansia come un disturbo da curare, si contribuisce a rendere “normale” l’anomalia ecologica, neutralizzando la sua carica potenzialmente sovversiva.
UN’EMOZIONE POLITICA
L’eco-ansia, al contrario, può essere interpretata come una forma di sensibilità ecologica e politica. Si tratta di un’emozione che nasce dall’inconciliabilità tra la gravità della crisi ecologica e la lentezza - o l’inazione - delle risposte istituzionali. Non è un caso che molti giovani dichiarino di sentirsi traditi dalla politica e impotenti di fronte a un sistema economico che continua a produrre disastri ambientali pur conoscendone gli effetti[2]. L’eco-ansia è, in questo senso, una reazione ragionevole, persino lucida, a un contesto che oscilla tra apocalisse annunciata e immobilismo strutturale.
Movimenti come Fridays for Future, Ultima Generazione o Extinction Rebellion hanno fatto di questa emozione un motore di mobilitazione. Le loro azioni performative—come i blocchi stradali o le proteste simboliche—possono essere lette come rituali collettivi per rielaborare la crisi della presenza. Invece di fuggire dall’eco-ansia, questi movimenti la mettono in scena, la condividono e la trasformano in linguaggio politico. Così facendo, restituiscono all’ansia la sua dimensione culturale e collettiva, sottraendola alla sfera dell’intimo e del patologico.
CURA, SPERANZA, APPARTENENZA
Se l’eco-ansia è il segnale di una frattura nel rapporto con il mondo, la risposta non può che passare attraverso una forma di “cura del legame”. Non si tratta solo di proteggere gli ecosistemi, ma di rigenerare i significati condivisi, di ricostruire le condizioni per sentirsi parte di un mondo abitabile. In questo senso, le comunità ecologiche, le reti di mutualismo climatico e le esperienze di resistenza ambientale rappresentano tentativi di produrre nuove forme di appartenenza, nuove narrazioni, nuove temporalità.
L’eco-ansia non va repressa né semplicemente gestita. Va ascoltata come un sintomo, sì, ma non di un disagio mentale: di una crisi epocale. È un’emozione che ci obbliga a interrogarci su cosa significa “stare al mondo” oggi, su quali futuri siano ancora immaginabili, e su come ricostruire un senso di presenza che non escluda la speranza.
RIFERIMENTI BIBLIOGRAFICI
Clayton, S. D., Pihkala, P., Wray, B., & Marks, E. (2023). Psychological and emotional responses to climate change among young people worldwide: Differences associated with gender, age, and country. Sustainability, 15(4), Article 3540. 10.3390/su15043540
De Martino, E. (1977). La fine del mondo, Einaudi, Torino.
Kałwak, W., & Weihgold, V. (2022). The relationality of ecological emotions: An interdisciplinary critique of individual resilience as psychology’s response to the climate crisis. Frontiers in psychology, 13, 823620. 10.3389/fpsyg.2022.823620
[1] Per un approfondimento su questa controversia vedi Kałwak e Weihgold (2022).
[2] Vedi la ricerca di Clayton e colleghi (2023).
Sanare una controversia - Il dissidio tra Basaglia e Tobino
Tra le pubblicazioni dello speciale Basaglia pubblicate su questa rivista, risalta l’articolo di Gianluca Fuser che ha saputo fare controversia nella controversia parlando di Mario Tobino, grazie a un’approfondita lettura degli archivi della Fondazione Tobino. Vorrei con questo articolo porre in risalto una questione che sposta il focus della controversia, cercando di suggerire un modo per ricomporla prendendo in considerazioni elementi diversi storici e sociali.
Centrale nell’articolo di Fuser è l’impossibilità di conciliare la controversia nei seguenti punti:
«Tobino, seppure non escluda del tutto l’origine sociale, ha una visione organica, fisiologica della follia, e accusa Basaglia di credere che la chiusura dei manicomi cancelli ogni traccia della follia. Basaglia, infatti, la nega e nello stesso tempo, ne attribuisce la creazione alla società malata, al potere, per rinchiudere i disallineati, i disturbatori dell’ordine e dello sfruttamento.»[1]
«Altro punto di dissidio insanabile è il tema della presenza e della forma delle strutture di cura, che coinvolge anche la visione politica delle due posizioni: Tobino non prescinde dalla necessità di un luogo dove i matti possano trovare – per periodi lunghi o brevi, più o meno volontariamente, in modo comunque aperto – riparo, protezione, cura e tranquillità; e sottolinea l’assenza di preparazione dei territori, della popolazione e delle famiglie per la trasformazione dalle strutture accentrate a quelle diffuse; Basaglia, al contrario, non transige, insiste sulla necessità di distruggere l’istituzione manicomiale e ribadisce la necessità della riforma, da farsi subito, in nome della «crescita politica, e quindi civile e culturale del paese».»[2]
Ora, mi chiedo se davvero questi punti siano insanabili. Non è mia intenzione conciliare due persone che chiaramente non andavano d’accordo in quel momento e su quell’argomento. La controversia c’è stata. Se la differenza evidenziata da Fuser può essere sanata, significa soltanto che l’oggetto del contendere è da cercare altrove.
Riguardo alla forma e alla presenza delle struttura di cura, Tobino parla di un luogo dove la persona possa avere riparo, protezione, cura e tranquillità, e non vedo come questo luogo possa essere associato al manicomio basagliano, luogo di repressione, controllo e emarginazione. Se penso a Gorizia, ma anche alle diverse applicazioni della legge 180 – alcune raccontate nello stesso speciale su Controversie[3] – è innegabile la presenza di un punto di raccolta del malato, punto in cui la società lo raccoglie e egli stesso si raccoglie. Un luogo in cui ripararsi dopo una crisi sopravvenuta e cercare una normalità.
Tobino ribadisce,[4] giustamente, che Lucca era già un posto così ma non può dire lo stesso del resto d’Italia. Così, anche Basaglia ha realizzato l’esperimento di Gorizia prima e senza la legge 180 e continua nondimeno a ritenere necessaria l’abolizione del manicomio. Siamo di fronte ad una ambiguità del manicomio? Da un lato, c’è la pretesa oggettività della struttura manicomio come un certo luogo costruito in un certo definito modo con l’obiettivo di una determinata funzione. Dall’altro, invece, troviamo il significato sociale che ognuna di queste strutture porta con sé, in termini di violenza o di carità delle istituzioni. Significati e strutture che formano i luoghi, a partire dalla scelta di come disporre stanze, corridoi, finestre, fino alla formazione degli stessi operatori sanitari.
Sembra che sia Tobino che Basaglia siano ben consapevoli di questo ed entrambi hanno lavorato per contrastare strutture e pratiche che conservano il segno della storia di violenza dell’istituzione manicomiale. La frattura avviene sulla legge e, fino a qui, nulla di nuovo. Ci torno a breve, vorrei, prima, coinvolgere nel discorso anche il primo dei punti inconciliabili indicati da Fuser.
Che cosa si intende con il fatto che Tobino abbia una visione organica, fisiologica e Basaglia no? Che Tobino non consideri il ruolo dei determinanti sociali nella malattia – per quanto non li escluda – e invece Basaglia riconduca la malattia solo a quelli?
Tobino sembrerebbe distinguersi per una visione realista della malattia. “Dolorosa follia, ho udito la tua voce” è il racconto di una follia che esiste per sé stessa. Non è questione di quanto sia organica, perché proprio i racconti di Tobino sono descrizioni di comportamenti che risultano patologici proprio per la sofferenza a stare in un contesto sociale che diremmo normale. L’uomo che graffia i volti degli altri pazienti, nel racconto di Tobino, non dice esplicitamente “sto soffrendo”, ma noi comprendiamo la sua impossibilità di vivere, appunto, nel mondo normale. Tobino con coraggio risponde alla prima questione pratica della cura: il fatto è che le cose sono andate così, adesso sono malato e in qualche modo è da qui che si deve partire.
Basaglia allora è diverso? Non molto a mio parere. Egli non nega la realtà della malattia, ma si concentra sulla diversità, sul fatto che ogni variazione dalla norma è una diversa norma possibile. Non credo che si possa vedere - nel tentativo di modificare l’ambiente del malato (distruggere i muri) - un’omissione della realtà della malattia. Basaglia aveva visto una possibilità. Quella che alcune condizioni di sofferenza trovassero un nuovo senso.
Non sbaglia, Basaglia, quando afferma questa possibilità. Lo abbiamo visto nei tanti tentativi che hanno avuto successo. Sbaglia, invece, quando nega il significato pratico della «carità continua», pratica della quale Tobino spiega per bene il significato: «se il malato pulito, vestito, lì seduto, di nuovo si risporca, perde le urine, scendono le feci, noi si ricomincia da capo, per riportarlo al suo precedente aspetto». Penso sia innegabile che la speranza data da Basaglia, di una vita diversa nella società con gli altri, sia anche di nuovo possibilità di fallimento e in alcuni casi si trasformi nella falsa speranza che noi o quel nostro parente non sia quello che è.
Sono, quindi, due facce dello stesso discorso su salute e malattia. Se le guardiamo dal lato della persona che viene curata, Basaglia è la speranza di guarire ancora,Tobino la forza di salvarsi ancora un giorno. Abolito il manicomio, la persona malata trova un nuovo senso e prospera. Nel manicomio, la persona malata vive al riparo da un mondo che lo ferisce. Abolito il manicomio il malato che non trova una strada muore. Nel manicomio che lo cura, il malato vive costretto in un’unica vita possibile.
A produrre la nostra salute sono i rapporti tra organismo e ambiente, dove il primo comprende la sua personale storia non solo come determinanti, ma anche come biografia e autobiografia, mentre il secondo comprende l’inscindibile nesso tra la disposizione “materiale” dell’ambiente e i valori che lo costruiscono e strutturano. Il primo e il secondo punto di questa controversia rispondono a quella divisione tra interno e esterno, tra soggetto e mondo. Quell’ambiguità della salute che da un lato si descrive oggettivamente e dall’altro non può fare a meno di riferirsi a un soggetto che dice di se stesso di essere in salute, o in malattia.[5]
Eppure, la controversia c’è stata! Vedo due possibilità (e sicuro ce ne sono altre) per ricomporre la controversia come tale. La prima è che la morale che sottende le antropologie di Basaglia e Tobino sia in realtà molto diversa e che si rifletta nella realtà pratica delle scelte. La seconda (ed è quella che personalmente più mi interessa) è che questi Basaglia e Tobino simbolici fossero strumenti del discorso politico e culturale che faceva leva (allora come oggi) sull’autorità dei due scienziati. Consapevoli nella misura in cui era dato loro modo di ribadire la possibilità di una vita diversa, fosse essa segnata dalla quotidiana carità continua o dall’aiuto per tornare nel mondo degli altri. Inconsapevoli però del fatto che a parlare per il loro tramite sia stata ancora la voce della normalizzazione, la violenza dell’istituzione che schiaccia nella malattia (Tobino) o che distrugge nell’afflato positivista di ricondurre ogni diversità a alla norma (Basaglia). La stessa verità dei discorsi dei due scienziati è poco importante se non comprendiamo come queste verità siano state tradotte dalle forze sociali del tempo e quali elementi effettivamente abbiano concorso a comporre questa controversia.
NOTE
[1]Fuser, G., 2024, Controcanto, https://www.controversie.blog/controcanto-tobino/
[2]Fuser, G., 2024, Controcanto, https://www.controversie.blog/controcanto-tobino/\
[3]Si veda l’intervista di L. Pentimalli alla dott.sa Bricchetti [https://www.controversie.blog/raffaella-bricchetti/] così come la mia intervista al dott. Iraci [https://www.controversie.blog/rete-psichiatrica-sul-territorio-intervista-a-uno-psichiatra-che-attuava-la-legge-180/]
[4]M. Tobino, Dolorosa follia, ho udito la tua voce, La Nazione 7 maggio 1978.
[5]Su questo si veda G. Canguilhem, “La salute: concetto volgare” in G. Canguilhem, Sulla medicina. Scritti 1955-1989, tr. it. di D. Tarizzo, Einaudi, Torino 2007.
Algomorfosi del corpo - Ibridazioni tecnologiche e altre forme di soggettività
Nel romanzo Solaris (Lem, 1961), un pianeta interamente ricoperto da un oceano senziente entra in relazione con l’equipaggio di una stazione spaziale attraverso manifestazioni enigmatiche e impersonali: simulacri generati dal profondo della psiche dei soggetti, costruiti dal pianeta stesso mediante un'intelligenza incommensurabile, radicalmente altra. Nessuna comunicazione è possibile secondo i codici noti, nessuna comprensione reciproca sembra avvicinabile. Eppure, un rapporto si stabilisce, venendo mediato da forme, da manifestazioni, da presenze plasmate da un’intuizione non umana del dolore, del desiderio, della memoria.
La nostra esperienza del mondo, nell’epoca degli algoritmi generativi, assume sempre più i tratti di un dialogo tra specie differenti. Interagiamo con intelligenze plurali che apprendono da noi attraverso logiche diverse dalle nostre, che ci osservano, che elaborano e ci restituiscono immagini dell’essere umano articolate secondo grammatiche con le quali condividiamo solo le radici. Gli algoagenti non sono Solaris, poiché condividono con la specie umana il sistema di linguaggio, ma, come Solaris, generano forme: tentativi di relazioni, costruzioni identitarie, configurazioni operative che rivelano e al contempo riscrivono le nostre traiettorie esistenziali, dinamiche intersoggettive che mutano la rappresentazione del quotidiano nel suo stesso accadere. Non si tratta più di temere l’opacità interattiva dell’altro ente, bensì di riconoscere che in essa si gioca una possibilità radicale di avanzamento delle conoscenze e di co-evoluzione. E se questa intelligenza si fa visibile nei gesti quotidiani, l’ambito della corporeità - nella sua interezza e complessità - rappresenta oggi uno dei territori privilegiati in cui l’ibridazione tra biologico e algoritmico si manifesta con forza crescente, strutturando una soggettività che si apre a nuove modalità di essere-con, a uno scambio attraversato da differenza, asimmetria e generatività.
L’ambito del corpo rappresenta uno dei terreni più concreti in cui si manifesta l’ibridazione crescente tra intelligenza biologica e algoritmica. Avendo già navigato nelle proiezioni fantascientifiche, siamo individui immersi in un presente in cui queste si manifestano, parzialmente, nei sistemi analitici basati su apprendimento automatico, protocolli predittivi e dispositivi di monitoraggio in tempo reale, così come da apparati protesici sempre più ibridati nel corpo umano. In molte aree specialistiche, dall’oncologia alla medicina d’urgenza, gli algoritmi, altre a supportare l’operatore umano, concorrono attivamente alla definizione delle traiettorie diagnostiche e terapeutiche, modificando il rapporto tra conoscenza, tempo e decisione. Tuttavia, questa trasformazione non si esaurisce nell’ambito clinico: essa trasborda, si espande, si diffonde nella quotidianità, donando strutture eterogenee alle modalità con cui percepiamo, abitiamo e agiamo il mondo rendendo il corpo una superficie sensibile di transizione (Borgmann, 2000). L’umano si relaziona al mondo attraverso dispositivi intelligenti che da protesi funzionali sono divenuti dispositivi di scambio capaci di modulare affetti, comportamenti, linguaggi, ritmi, costituendo un’architettura sociologicamente algomorfica (Grassi, 2024). In questo contesto, l’interfaccia non è un mezzo ma una soglia ontologica (Galloway, 2012): luogo di emersione del sé in co-evoluzione con l’algoritmo.
Un esempio emblematico è costituito dai dispositivi di realtà aumentata e mista – come i Google Glass, i Meta Smart Glasses o gli ambienti AR sviluppati da Magic Leap – che ridefiniscono la percezione visiva in senso operativo. Il campo visivo passa dall’essere una finestra soggettiva sul reale al ruolo di ambiente informativo dinamico, attraversato da flussi di dati computazionali che accompagnano, suggeriscono, traducono, anticipano, definendo la percezione come una forma di calcolo e il vedere come atto algoritmico.
Nell’ambito performativo e artistico, dalle opere biomorfe e interattive di Lucy McRae alle esperienze di Neil Harbisson e Moon Ribas – entrambi riconosciuti come cyborg – capaci di mostrare come le tecnologie protesiche possano diventare generatori di ulteriori espressioni di sensibilità, proponendo un’estetica del corpo come superficie ampliata (Swan, 2013). Questi dispositivi non ripristinano funzioni biologiche ma istituiscono nuovi canali percettivi, inaugurando una soggettività post-biologica, fondata su sensibilità estese e algoritmicamente mediate.
Nel campo delle interazioni affettive, sistemi come Replika e le nuove generazioni di social robot agiscono come interfacce del desiderio: strumenti predittivi capaci di apprendere preferenze, linguaggi affettivi e pattern emotivi. La consapevolezza individuale non è più centrata sull’unità coscienziale, ma emerge in reti cognitive distribuite tra umano e non umano, tra corpo e codice (Hayles, 2017), come nei racconti di Chiang (2011), in cui la memoria estesa diventa un dispositivo algoritmico capace di ridefinire il senso dell’identità personale attraverso la registrazione e rielaborazione continua del vissuto.
Persino nella gestione degli ambienti domestici, gli algoagenti si configurano come sistemi di governance ambientale (Bratton, 2015), capaci di regolare luci, suoni, temperatura, notifiche, attraverso interazioni vocali e automatismi appresi: la vita quotidiana è guidata da routine algoritmiche che intercettano abitudini, anticipano azioni e naturalizzano gli spazi di contatto, innescando delle divergenze ontologiche nella definizione della tecnica, sostenendo che ogni tecnologia porta con sé una cosmologia implicita, una visione del mondo (Hui, 2021), riscrivendo le coordinate percettive, cognitive, affettive.
Questa condizione genera una morfologia non indagata della soggettività: la protesi non è più esterna, né eccezionale ma pervasiva, integrata, invisibile; non è più strumento ma ambiente sensibile e cognitivo (Sha, 2013) che modula il modo in cui si è al mondo, si percepisce, si sente. È in questo interstizio che la sociologia algomorfica può riconoscere nell’ibridazione uomo-macchina una ulteriore ecologia del sé, in cui l’essere non si oppone alla tecnica ma si costituisce insieme a essa, nel flusso delle retroazioni, degli aggiornamenti, delle previsioni.
Nel paesaggio emergente delle tecnologie indossabili, delle neuroprotesi intelligenti e delle interfacce neurali dirette, il corpo umano ammette la sua incapacità di essere un’entità biologicamente autonoma, dichiarandosi naturalmente tecnologico e si riconfigura in tal modo come ambiente integrato, superficie modulare, ecosistema tecnoesteso. Tali tecnologie non si limitano a sostituire una funzione compromessa: ottimizzano, calcolano, predicono, correggono, potenziano, trasformando l’idea stessa di integrità organica, ridefinendo sia la relazione tra umano e macchinico, sia l’individualità incarnata e riscritta nelle sue condizioni di possibilità e nella sua plasticità identitaria.
L’algomorfosi descrive esattamente questo processo: la formazione del sé attraverso l’integrazione algoritmica nei circuiti sottocutanei. È una morfogenesi operazionale, una riscrittura identitaria che non si produce attraverso la rappresentazione ma attraverso l’azione continua dell’informazione sul vivente. Non si tratta di una minaccia alla soggettività ma di una sua condizione storica attuale che si riscrive nei codici della mediazione algoritmica, nel linguaggio non verbale delle retroazioni, delle ottimizzazioni continue, producendo una dinamicità in cui il sé diviene co-determinato, situato e modulato da interazioni complesse tra biologia, dati, calcolo e ambiente.
Se nella modernità alfabetica e tipografica il brainframe (de Kerckhove, 1992) era incarnato dalla linearità della scrittura e dalla logica dell’ordine testuale, oggi questa logica è stata soppiantata da una grammatica algoritmica, mobile, predittiva e relazionale. Gli algoagenti contemporanei – da Google a Siri, da GPT a Gemini, fino agli assistenti digitali embedded nei dispositivi – non si limitano a offrire supporti funzionali: essi configurano ambienti epistemologici, modellano desideri, anticipano bisogni, propongono percorsi ontologici potenzialmente non esplorati. L’interazione con assistenti conversazionali intelligenti introduce una nuova forma di dialogo simulato, in cui l’elaborazione cognitiva viene delegata, anticipata, stilizzata da un’intelligenza artificiale che impara dall’utente e lo guida attraverso forme conversazionali sempre più fluide. In questi casi, il brainframe non è più una semplice estensione mentale ma un dispositivo ambientale che riorganizza la soglia dell’attenzione, del pensiero e del sé. A differenza delle protesi tecniche classiche, che sostenevano capacità già possedute, gli agenti tecnologici contemporanei estendono, setacciano, introducono ulteriori prospettive di analisi e di saperi. Essi danno forma a un campo percettivo-cognitivo in cui il soggetto è co-emergente con la tecnica, frutto di un’ecologia relazionale che abbatte le dicotomie limitanti.
L’algoritmo non è più soltanto uno strumento operativo né una funzione astratta del potere computazionale ma una forma – una morphé – che codifica, innerva, riorienta ambienti sensibili, capaci di modulare la struttura del pensare e del percepire. Esso agisce come forza di configurazione in cui la costruzione del sé non viene cancellata ma riformulata nella sua struttura percettiva, sensoriale e relazionale. E proprio come un’alga – organismo antico, plastico, diffuso – l’agente algoritmico cresce, si estende, si adatta, filtrando e restituendo ciò che attraversa. Non ha volontà né coscienza ma presenza trasformativa. Nell’oceano sociotecnico in cui siamo immersi, gli algoagenti dismettono il compito di entità esterne per assurgere al ruolo di partner evolutivi, forme altre della soggettività che stiamo diventando.
RIFERIMENTI BIBLIOGRAFICI PRINCIPALI
Borgman A. (2000), Holding On to Reality: The Nature of Information at the Turn of the Millennium, University of Chicago Press, Chicago.
Bratton B. H. (2016), The Stack: On Software and Sovereignty, MIT Press, Cambridge.
Chiang T. (2011), Il ciclo di vita degli oggetti software, Delos Books, Milano.
de Kerckhove D. (1992), Brainframes. Mente, tecnologia, mercato, Baskerville, Bologna.
Galloway A. R. (2012), The Interface Effect, Polity Press, Cambridge.
Grassi E. (2024), Per una sociologia algomorfica. Il ruolo degli algoritmi nei mutamenti sociali, FrancoAngeli, Milano.
Hayles N. K. (2017), Unthought: The Power of the Cognitive Nonconscious, University of Chicago Press, Chicago.
Hui Y. (2021), Art and Cosmotechnics, Eflux Architecture, New York.
Lem S. (1967), Solaris; trad. it. Solaris, Editrice Nord, Milano, 1973.
Sha X. W. (2013), Poiesis and Enchantment in Topological Media, MIT Press, Cambridge.
Swan M. (2013), The Quantified Self: Fundamental Disruption in Big Data Science and Biological Discovery, in Big Data, 1(2):85-99. doi: 10.1089/big.2012.0002.
L’Intelligenza Artificiale in psicoterapia - Tra alleato e simulacro
«The crucial difference between CAI (Conversational Artificial Intelligence) and humans is obvious: CAI mimics being a rational agent, but it is not; therefore, CAI simulates having a therapeutic conversation, but it does not have any»[1]
Sedlakova & Trachsel, 2022
Quando interagiamo con un’Intelligenza Artificiale Conversazionale (IAC) come ChatGPT, ci troviamo di fronte a un’illusione sofisticata: risposte fluide, tono empatico, un’apparente capacità di comprensione. Eppure, dietro ogni parola non c’è un interlocutore reale, ma un sistema che riorganizza dati linguistici senza comprenderne il significato. Ci sentiamo ascoltati perché attribuiamo intenzionalità[2] alle parole dell’IA, come se fosse capace di empatia. Questo fenomeno è il risultato del meccanismo cognitivo dell’antropomorfismo, ossia la tendenza ad attribuire caratteristiche umane a esseri non umani, come animali, oggetti o fenomeni naturali[3] (Cambridge Dictionary, 2019). Questa inclinazione può influenzare il modo in cui interagiamo con le tecnologie, portandoci a percepirle come più affidabili o empatiche di quanto siano in realtà: l’essere umano per natura riconosce intenzioni e stati emotivi anche quando non ci sono (Sedlakova & Trachsel, 2023). Così, un chatbot che scrive «Mi dispiace che tu ti senta così» attiva in noi le stesse risposte emotive di una conversazione umana, pur essendo solo un’imitazione.
Nonostante il concetto di empatia sia estremamente complesso e abbia una lunga storia, ogni sua definizione riconosce che essa nasce dall’incontro tra due soggettività, e dunque dalla capacità di sentire l’altro e riconoscerne l’alterità in un contesto di identità della dimensione incarnata, situata ed enattiva dei viventi (Galloni, 2009). Con un’IA Conversazionale, al contrario, non si instaura una relazione reale, ma uno scambio unidirezionale: non è la nostra esperienza a essere compresa, ma solo il modo in cui la traduciamo in parole. L’effetto dell’antropomorfismo trasforma l’interazione con un’IA in una sorta di specchio emozionale: proiettiamo sulla macchina il nostro bisogno di connessione, vedendo in essa qualcosa che non è realmente presente. Questa proiezione può offrire conforto immediato, ma rischia di impoverire la nostra capacità di distinguere tra ciò che è umano e ciò che è un’imitazione. Il pericolo non risiede nell’uso dell’IA in sé, ma nella possibilità di abituarsi a un interlocutore che si limita a riflettere ciò che vogliamo sentire.
Oggi l’Intelligenza Artificiale sta ridefinendo – lentamente ma inesorabilmente – il campo della psicoterapia, espandendo le possibilità di supporto psicologico oltre i confini del tradizionale setting clinico. Chatbot come WoebotHealth e Wysa[4] sono progettati per fornire supporto emotivo attraverso interazioni testuali continue, basandosi su modelli di terapia cognitivo-comportamentale (CBT) e offrendo agli utenti un ambiente privo di giudizio. Eppure, la loro capacità di adattarsi in modo profondo all’individualità del paziente, se anche esistesse, risulta nei fatti ancora fortemente limitata. I chatbot basati su algoritmi di Natural Language Processing presentano diverse criticità, tra cui l’incapacità di cogliere il contesto della comunicazione, né comprendere realmente le sfumature del linguaggio, in primo luogo di quelle emotive. Mentre un terapeuta umano può cogliere cambiamenti nel tono di voce, nelle espressioni facciali o nelle pause durante una conversazione, un chatbot si basa esclusivamente sul testo e sull’analisi di esso, condotta esclusivamente su modelli probabilistici. Questo può portare l’altro soggetto dell’interazione – l’essere umano, il cui sistema nervoso è stato “cablato” da millenni di evoluzione per processare in maniera privilegiata il linguaggio umano, vero segno distintivo della comunicazione della nostra specie – a reagire in maniera concreta e “sensata” a risposte della macchina che, pur essendo linguisticamente appropriate, non rispecchiano un reale scambio comunicativo. Molti utenti cercano tuttavia proprio questo, nell’interazione pseudoterapeutica con le IAC. Alcuni studi suggeriscono che le persone possano sentirsi più a loro agio nel condividere dettagli intimi con un chatbot piuttosto che con un essere umano, proprio perché sanno di non essere giudicate[5].
Dal punto di vista terapeutico, l’utilizzo dell’IA non è dunque privo di rischi. Sebbene gli strumenti basati su CBT abbiano mostrato un certo grado di efficacia nel ridurre i sintomi di ansia e depressione, la qualità dell’intervento è ancora oggetto di studio. Ricerche recenti hanno evidenziato che, mentre i chatbot possono migliorare l’accessibilità ai servizi di supporto, non sono in grado di replicare l’alleanza terapeutica tipica di un incontro umano (Cioffi et al., 2022). Inoltre, senza un monitoraggio umano, l’IA può interpretare erroneamente il contesto o fornire risposte inappropriate. Questo è particolarmente critico nei casi in cui il paziente manifesti pensieri suicidi o sintomi psicotici; situazioni in cui una risposta non adeguata può avere conseguenze gravi. È stato analizzato ChatGPT come possibile assistente terapeutico, capace di raccogliere informazioni tra una sessione e l’altra e di fornire al terapeuta un quadro riassuntivo della situazione del paziente (Esghie, 2023). Tuttavia, nonostante le potenzialità, si sollevano interrogativi cruciali sull’affidabilità e la sicurezza di tali strumenti (Miner et al., 2019). L’IA non possiede consapevolezza né intenzionalità: risponde in base a correlazioni statistiche tra parole, apprendendo dallo scambio verbale con l’utente, ma senza comprenderne il significato intrinseco. Questo influenza anche la dimensione della fiducia: molte persone potrebbero erroneamente credere di essere comprese da un chatbot, sviluppando un attaccamento che, in assenza di una vera reciprocità, potrebbe portare a forme di dipendenza emotiva o a un’errata percezione del supporto ricevuto. A fare da argine a questo scenario troviamo anche una dimensione politica della scienza e della tecnica, inerente alla sempre più evidente natura capitalistica di questi strumenti, che fanno dei dati forniti spontaneamente dagli utenti la loro principale moneta di scambio. Uno studio recente ha peraltro evidenziato che la fiducia nei confronti della terapia basata su IA è ancora bassa, soprattutto a causa delle preoccupazioni legate alla privacy e alla sicurezza dei dati (Aktan, 2022).
L’introduzione dell’IA nella psicoterapia ha portato tuttavia la comunità scientifica e il dibattito pubblico a una necessaria riflessione sul valore della relazione terapeutica. Alcuni studi hanno suggerito che l’uso di chatbot potrebbe modificare il modo in cui le persone si rapportano alla figura del terapeuta, spostando l’attenzione dalla relazione interpersonale a una forma di autoosservazione guidata dall’IA (Beg et al., 2024). Se questo, da un lato, potrebbe avere vantaggi in termini di accessibilità al supporto psicologico, dall’altro rischia di ridurre o annullare l’efficacia di un intervento in cui il rapporto umano è cardine ed elemento essenziale. Il successo e la qualità della terapia non dipendono solo dai contenuti trasmessi, ma anche dalla capacità del terapeuta di cogliere segnali emotivi e di adattare l’intervento alle esigenze individuali del paziente – qualità che un’IA non possiede. Inoltre, la natura algoritmi di questi strumenti porta inevitabilmente a una standardizzazione dell’approccio terapeutico: i modelli di IA, basandosi su set di dati predefiniti, tendono a privilegiare metodologie uniformi, come quelle cognitivo-comportamentali, mentre la psicoterapia umana si caratterizza per un alto grado di personalizzazione e per una molteplicità di orientamenti e pratiche. Un altro aspetto da considerare è il rischio di standardizzazione eccessiva dei modelli proposti da queste tecnologie come rappresentativi di ciò che dovrebbe essere la psicoterapia. I modelli di IA si basano su set di dati predefiniti e tendono a favorire approcci uniformi (essenzialmente, a oggi, identificabili con quelli cognitivo-comportamentali), mentre la psicoterapia umana è caratterizzata da un alto grado di personalizzazione, dipendenza dal vissuto e dal contesto, e da una ampia pluralità di approccio possibili.
L’uso di ChatGPT e di altre IA Conversazionali in psicoterapia non dovrebbe comunque essere demonizzato, ma richiede un approccio critico e regolamentato. La collaborazione tra esseri umani e agenti artificiali potrebbe portare alla creazione di modelli ibridi, in cui l’IA funge da strumento complementare, affiancando il lavoro del terapeuta e migliorando l’efficacia degli interventi senza sostituire il contatto umano diretto (Miner et al., 2019). Questi strumenti possono offrire un supporto pratico, fungere da complemento alla terapia e aiutare a ridurre il divario nell’accesso alle cure psicologiche. Tuttavia, la loro adozione deve avvenire con consapevolezza dei limiti: l’IA non pu sostituire l’empatia umana né creare un’autentica relazione terapeutica. La trasparenza e la supervisione umana restano essenziali per garantire che l’integrazione dell’IA nella psicoterapia non comprometta l’integrità delle relazioni terapeutiche e il benessere del paziente.
Sebbene l’IA possa svolgere un ruolo utile nel supporto alla salute mentale, la sua implementazione deve essere guidata da un’attenta valutazione dei benefici e dei rischi. Possiamo davvero considerare sufficiente un sistema che risponde sulla base di correlazioni statistiche senza comprendere? Chi tutela il paziente in caso di errori o malintesi? Strumenti come ChatGPT possono offrire quello che sembra supporto e conforto, ma è essenziale mantenere una distinzione chiara tra un’interazione simulata e l’esperienza di una relazione autentica, unica e insostituibile nel suo essere profondamente umana.
NOTE
[1] «La differenza cruciale tra l’IA conversazionale (CAI) e gli esseri umani è evidente: la CAI simula un agente razionale, ma non lo è; di conseguenza, simula di avere una conversazione terapeutica, ma in realtà non ne ha alcuna» (traduzione da: Sedlakova, J., & Trachsel, M. (2022). Conversational Artificial Intelligence in Psychotherapy: A New Therapeutic Tool or Agent? The American Journal of Bioethics, 23(5), 4–13. https://doi.org/10.1080/15265161.2022.2048739).
[2] Heider, F. (1958). The psychology of interpersonal relations. Hoboken, NJ, US: John Wiley & Sons Inc.
[3] Gibbons, S., Mugunthan, T., Nielsen, J. (2023). The 4 Degrees of Anthopomorphism of Generative AI. Nielsen Norman Group. https://www.nngroup.com/articles/anthropomorphism/.
[4] WoebotHealth, rilasciato nel 2017, e creato dalla psicologa Alyson Darcy, è un chatbot ideato per supporto psicologico, sempre disponibile, con interfaccia messaggistica (https:// woebothealth.com/).
Wysa AI Coach (https://www.wysa.com/) è un servizio di counseling basato sull’intelligenza artificiale addestrato su tecniche di terapia CBT, DBT, meditazione.
[5] Raile, P. (2024). The usefulness of ChatGPT for psychotherapists and patients. Humanities and Social Sciences Communications, 11(47). https://doi.org/10.1057/s41599-023-02567-0, p. 3.
BIBLIOGRAFIA
Aktan, M. E., Turhan, Z., & Dolu, I. (2022). Attitudes and perspectives towards the preferences for artificial intelligence in psychotherapy. Computers in Human Behavior, 133, 107273. https:// doi.org/10.1016/j.chb.2022.107273.
Beg, M. J., Verma, M., Vishvak Chanthar, K. M. M., & Verma, M. K. (2024). Artificial Intelligence for Psychotherapy: A review of the current state and future directions. Indian Journal of Psychological Medicine, XX(X), 1-12. https://doi.org/10.1177/02537176241260819.
Cioffi, V., Mosca, L. L., Moretto, E., Ragozzino, O., Stanzione, R., Bottone, M., Maldonato, N. M., Muzii, B., & Sperandeo, R. (2022). Computational methods in psychotherapy: A scoping review.
International Journal of Environmental Research and Public Health, 19(12358). https://doi.org/
Eshghie, M., & Eshghie, M. (2023). ChatGPT as a therapist assistant: A suitability study. arXiv Preprint. https://arxiv.org/abs/2304.09873.
Galloni, G. (2009). Basi motorie dell’empatia cognitiva? Teorie & Modelli, XIV(1):134-147.
Gibbons, S., Mugunthan, T., & Nielsen, J. (2023). The 4 Degrees of Anthropomorphism of
Generative AI. Nielsen Norman Group. https://www.nngroup.com/articles/anthropomorphism/.
Heider, F. (1958). The psychology of interpersonal relations. John Wiley & Sons.
Miner, A. S., Shah, N., Bullock, K. D., Arnow, B. A., Bailenson, J., & Hancock, J. (2019). Key considerations for incorporating conversational AI in psychotherapy. Frontiers in Psychiatry, 10, 746. https://doi.org/10.3389/fpsyt.2019.00746.
Raile, P. (2024). The usefulness of ChatGPT for psychotherapists and patients. Humanities and Social Sciences Communications, 11(47). https://doi.org/10.1057/s41599-023-02567-0.
Sedlakova, J., & Trachsel, M. (2022). Conversational Artificial Intelligence in Psychotherapy: A New Therapeutic Tool or Agent? The American Journal of Bioethics, 23(5), 4–13. https://doi.org/ 10.1080/15265161.2022.2048739.
In rel-Azione: una riflessione sul concetto di Intelligenza nel paradigma dell’Embodied Cognition
TO THE BODY AND BACK: L’INTELLIGENZA OLTRE I CONFINI DEL CRANIO
Nella lunga tradizione filosofica e psicologica, il termine intelligenza è stato senza dubbio uno dei costrutti più complessi e controversi della storia della scienza e del pensiero occidentale. Per molto tempo il dibattito sull’intelligenza si è snodato su vari terreni e argomenti teorici. Sin dai tempi più remoti l’essere umano ha tentato di definire limiti e condizioni di possibilità̀ di questo termine, identificando e strutturando tassonomie, relazioni e gerarchie intorno a questo concetto così controverso. La storia moderna dell’intelligenza si è sovrapposta per moltissimo tempo alla storia della sua misurazione, con particolare riferimento alla determinazione delle facoltà intellettive e dei tratti primari e secondari dell’intelligenza o al dibattito tra nature versus nurture, ovvero tra la determinazione ereditaria e genetica dell’intelligenza in contrapposizione all’acquisizione culturale dei tratti specifici di essa.
L’embodied cognition, ovvero la cognizione “incarnata”, è stata una delle correnti che ha contribuito a rivoluzionare il modo in cui consideriamo l’intelligenza e la cognizione non solo degli esseri umani, ma degli organismi e che suggerisce delle riflessioni interessanti anche rispetto alla definizione di Intelligenza Artificiale.
Essa è parte di un più ampio movimento teorico, la 4E Cognition, nato nella prima metà degli anni Novanta del Novecento all’interno di ambiti disciplinari come la filosofia della mente, la psicologia e le neuroscienze cognitive. Questo approccio teorizza una dimensione della mente embodied (incarnata), embedded (situata), enacted (interattiva) ed extended (estesa), radicandosi all’interno del Lieb, del corpo vivo e che esiste nel mondo, in costante relazione con l’ambiente; nel caso della nostra specie, un ambiente fisico, relazionale e tecnologico. La mente, dunque, emerge nel cervello ma si sviluppa anche al di fuori del cranio, attraverso la totalità corporea: l’individuo co-costruisce la propria esperienza cognitiva attraverso le interazioni corpo-mondo. Per l’embodied cognition l’attività cognitiva è un processo che integra l’esperienza vissuta e soggettiva, il corpo e l’ambiente, in un’unica prospettiva attiva e dinamica, dando vita al corpo-mente.
Il modello della mente “incarnata” caratterizza, dunque, le scienze cognitive di seconda generazione e ha consentito il superamento della dicotomia cartesiana tra res cogitans e res extensa, ovvero la separazione tra mente e corpo.
ERROR 404: LA MENTE NON È UN COMPUTER
Il modello dualista cartesiano aveva influenzato lo studio della mente per buona parte della storia della filosofia e della psicologia e, non ultimi, i fondamenti stessi della Scienza Cognitiva, all’interno della quale nasce anche l’Intelligenza Artificiale.
La Scienza Cognitiva Classica, infatti, ha sostenuto per molto tempo un approccio teorico di stampo meccanicistico, incentrato sulla funzione come oggetto di studio principale dei meccanismi mentali. In questo framework teorico è emersa una metafora molto potente: la metafora della mente-computer.
L’analogia della mente come una macchina era tale per cui un software (la mente) potesse essere implementato indipendentemente dall’hardware (il cervello e, in estensione, il corpo): essa sublima la frattura tra gli organismi e il proprio mondo, quello che Jakob von Uexküll definisce Umwelt (von Uexküll, 1933, Ambienti animali e ambienti umani. Una passeggiata in mondi sconosciuti e invisibili). Questo termine è stato introdotto all'inizio del Novecento dal biologo tedesco per indicare l’ambiente così come è percepito e vissuto dagli organismi in base alle proprie caratteristiche specie-specifiche e alle possibilità di interazione con esso[1].
Il ruolo del corpo, dunque, nella determinazione dei processi cognitivi assume una posizione subordinata tanto che, come provocatoriamente suggeriva il filosofo della mente Hilary Putnam nel celebre esperimento mentale del 1981, A brain in a vat[2], potrebbe essere fatto tanto di carne quanto di “formaggio svizzero”.
Le neuroscienze relazionali e affettive la filosofia della mente neuro biologicamente fondata convergono nella definizione di una nuova immagine di cosa vuol dire avere una mente e avere un corpo. Nella prospettiva della cognizione incarnata, si assume così un’estensione dei processi cognitivi, considerandoli non più limitati al cervello-mente ma estesi al cervello-corpo-ambiente, intendendo per ambiente non un mondo esterno, asettico e da costruire, ma un ambiente che è interno ed esterno allo stesso tempo, vivo, dinamico e “vischioso”, per utilizzare un termine di Canguilhem (1966, Le normal et le pathologique). Da questa visione emerge un approccio poliedrico alla mente, che integra il ruolo del corpo, del vissuto emotivo e soggettivo nell’ambiente in cui l’organismo si sviluppa.
Come ha scritto Francisco Varela: «Gli organismi non ricevono passivamente informazioni dai loro ambienti, che poi traducono in rappresentazioni interne. I sistemi cognitivi naturali [...] partecipano alla generazione di significato [...] impegnandosi in interazioni trasformazionali e non semplicemente informative: esse mettono in atto un mondo.»[3]
ORGANISMI IN (INTER)AZIONE
Nella prospettiva ecologica proposta dallo psicologo americano James J. Gibson (1979, The Ecological Approach to Visual Percepetion) non siamo noi a elaborare cognitivamente l’idea del mondo esterno; il soggetto assume una posizione centrale nel suo ambiente a partire dalla capacità di interagire con esso, sulla base di ciò che esso stesso offre in termini di stimoli.
L’ambiente, dunque, fornisce agli organismi gli elementi necessari per agire e sopravvivere (affordance), senza bisogno di complesse integrazioni o deduzioni mentali. Si pone quindi come elemento cruciale il rapporto tra gli organismi e il loro specifico ambiente di vita. Il mondo esterno, dunque, diventa "il mondo per me": la mente e l’ambiente degli organismi sono inseparabili, in un costante processo di interazione e modellamento reciproco. Esso, allora, diviene lo “spazio di vita” di Kurt Lewin (1936, Principi di psicologia topologica), la nicchia ecologica di Gibson (1979) che ogni organismo ritaglia nel mondo, come suggerisce Benasayag (2016, Il cervello aumentato l’uomo diminuito). È lì che mondo interno e mondo esterno sono separati solo dalla pelle, che fa da ponte della relazione osmotica e interdipendente tra i due. L’ambiente non consente l’azione, esso è lo spazio di azione nel momento in cui un organismo lo esperisce e percepisce.
Non è la rappresentazione del mondo, ma la relazione che chiama il soggetto all’azione e alla costruzione di una realtà significante.
Non ci rappresentiamo, dunque, la realtà da un punto di vista esterno, ma la conosciamo interagendo con essa nel qui e ora fenomenico, sulla base delle caratteristiche specie specifiche e del vissuto individuale. E non ci contrapponiamo all’altro, ma ci riconosciamo nella simulazione incarnata e nel rispecchiamento empatico presente nelle nostre aree motorie. Il cervello umano, lungi dall’essere un meccanismo predefinito, è un organo poroso e plastico, che rimodula costantemente le proprie relazioni interne sulla base dell’esperienza con il mondo e del cablaggio specifico degli organismi.
Nel corpo, dunque, si sedimentano e stratificano le esperienze del proprio vissuto, le esperienze di un corpo capace di includere, di incorporare gli strumenti, i mezzi e di essere modificato dall’ambiente e di modificarlo costantemente in una transazione dinamica e in rapporto circolare, come suggerito dalle recenti ricerche condotte nell’ambito della Material Engagement Theory (Malafouris, 2018, Bringing things to mind. 4E’s and Material Engagement).
MACCHINE COME ME?
L’intelligenza, dunque, nella prospettiva dell’embodiement non è una proprietà isolata che emerge indipendentemente dal corpo e dal mondo, come aveva sostenuto la Scienza Cognitiva Classica, ma si co-costruisce attraverso la relazione tra mente, corpo e ambiente.
La possibilità di ampliare le nostre funzioni oltre i confini della pelle, che sia attraverso un foglio di carta, una calcolatrice o una macchina, può essere considerata un’estensione “artificiale” di funzioni naturali che co-evolvono e si modellano reciprocamente da un punto di vista biologico e culturale, rimodulando in modo strutturale la percezione del mondo, che è allo stesso tempo modificata dall’azione attraverso esso, come sostenuto anche dalla prospettiva della cognizione extended.
Oggi la cognizione embodied rivolge, dunque, la propria attenzione al ruolo del corpo e alle sue capacità sensoriali e motorie in quanto elementi cruciali nella formazione dei processi cognitivi. Ciò anche in base a evidenze neurobiologiche che dimostrano come la dimensione fisica, sociale e informativa dell’ambiente assumano una rilevanza imprescindibile nella trama dinamica intessuta dall’interazione degli agenti cognitivi col loro ambiente di vita, in una prospettiva filogenetica e ontogenetica.
Attraverso la lente teorica dell’embodied cognition e della prospettiva epigenetica, dunque, il termine intelligenza non si configura più come un concetto riducibile ad un elenco di funzioni “incapsulate” (Fodor, 1983, The Modularity of Mind: Essay on Faculty Psychology) all’interno della mente-computer, ma come il risultato di un insieme di componenti biologiche e culturali che caratterizzano ed evidenziano la singolarità e l’unicità nella vita degli organismi. La plasticità, intesa come struttura portante e condizione di possibilità del cervello di creare connessioni e circuiti modulati sulla base dell’esperienza e dell’interazione senso-motoria del corpo con l’ambiente, si configura come una forma di creatività, determinata dal connubio tra biologia e cultura, necessaria e fondamentale per l’emergere di un pensiero intelligente.
I sistemi artificiali attuali operano su correlazioni statistiche e schemi computazionali che, per quanto complessi, non emergono da un’interazione incarnata e soggettiva con il mondo. Più che un’“intelligenza” artificiale, dunque, potremmo parlare di una capacità computazionale estremamente avanzata, di una simulazione statistica della cognizione che, per quanto efficace nella risoluzione di determinati compiti, non condivide una forma intenzionalità, di sensibilità e di conoscenza incarnata che caratterizza gli organismi.
Tra le sfide future più avvincenti vi è sicuramente quella di ridefinire il nostro rapporto con l’Intelligenza Artificiale, evitando di proiettare su di essa categorie che appartengono al nostro modo biologico di essere-nel-mondo, comprendendo che essere una mente (e non possedere una mente), in senso proprio, è incarnato dall’esperienza di un corpo vivo che abita il mondo in relazione con altri corpi (Morabito, 2020, Neuroscienze cognitive: plasticità, variabilità, dimensione storica) in una danza continua con essi.
NOTE
[1] Von Uexküll ha rivoluzionato il concetto di ambiente nella biologia moderna, mettendo in discussione la visione antropocentrica di ambiente: ogni essere vivente, infatti, percepisce e interagisce con il mondo in modo soggettivo e specie specifico. Gli organismi co-costruiscono il proprio ambiente in base alle proprie caratteristiche morfologiche e fisiologiche, instaurando con esso un legame inscindibile. Il Merkwelt, infatti, rappresenta ciò che il soggetto percepisce, ossia il suo mondo sensoriale, mentre il Wirkwelt riguarda le sue azioni e interazioni. Insieme, questi due aspetti costituiscono un sistema complesso, l’Umwelt, che connota l’ambiente non più come uno spazio informazionale “passivo”, ma in costante relazione attiva con il vivente.
[2] Gilbert Harman è stato uno dei primi filosofi a sviluppare e formalizzare l'idea del "Cervello nella vasca" nell'ambito della filosofia della mente e dell'epistemologia. Sebbene l'esperimento mentale sia associato principalmente a Hilary Putnam, Harman, già negli anni '70, aveva esplorato simili concetti, utilizzando la metafora del cervello nella vasca per affrontare le problematiche legate alla percezione e alla conoscenza. cfr. Harman G., 1973: Thought, Princeton University Press, Princeton.
[3] «Organisms do not passively receive information from their environments, which they then
translate into internal representations. Natural cognitive systems [...] participate in the generation of meaning[...] engaging in transformational and not merely informational interactions: they enact a
world. » Varela, F., Rosch, E., Thompson, E., (1991), The Embodied Mind. Cognitive Science and Human Experience, MIT Press, Cambridge. (traduzione mia).
NOTE BIBLIOGRAFICHE
Benasayag, M. (2016) Il cervello aumentato l’uomo diminuito, Erickson
Canguilhem, G. (1966), Le normal et le pathologique, Paris: Presses Universitaires de France.
Fodor, J. (1983), The Modularity of Mind: Essay on Faculty Psychology, MIT press.
Gibson, J.J. (1979), The Ecological Approach to Visual Percepetion, Hougton Miffin, Boston.
Malafouris, L. (2018), “Bringing things to mind. 4E’s and Material Engagement” in Newen, A., De Bruin, L., Gallagher, S., The Oxford Handbook of 4E cognition.
Morabito, C., 2016, Neuroscienze cognitive: plasticità, variabilità, dimensione storica, in Mentecorpo: il cervello non è una macchina, «Scienza& Società» n.21/22.
Morabito, C. (2020), Il motore della mente. Il movimento nella storia delle scienze cognitive, Laterza-Bari.
Lewin, K. (1936), Principi di psicologia topologica, Edizioni OS, Firenze (ed.it.1961)
Noë A., (2010), Out of the head. Why you are not your brain, MIT Press, Cambridge MA, trad. it. Perchè non siamo il nostro cervello. Una teoria radicale della coscienza, Raffaello Cortina Editore, Milano
Varela, F., Rosch, E., Thompson, E., (1991), The Embodied Mind. Cognitive Science and Human Experience, MIT Press, Cambridge (Mass.).
von Uexküll, J. (1933), Umwelt und Innenwelt der Tiere, Berlin: Springer (trad. it. Ambienti animali e ambienti umani. Una passeggiata in mondi sconosciuti e invisibili, Macerata: Quodlibet, 2010).
Il tempo schermo - La contesa dell’attenzione
Che cosa succede all'attenzione quando stanno tanto tempo davanti a uno schermo?
Sembra che bambini e bambine siano più calmi e più attenti, ma è davvero così? Il tipo di attenzione che viene mobilitata davanti allo schermo non è la stesso che si mobilita nella lettura di un libro o nel dover maneggiare degli oggetti fragili. Gli studi scientifici dell’ultimo secolo ci spiegano molto di come funzionino i processi attenzionali, e gli studi di questo secolo sul tempo schermo ci spiegano non solo perché lo schermo non sviluppa l’attenzione utile a scuola, ma perché limiti il potenziale di apprendimento umano specialmente nei primi mille giorni di vita ma in generale in tutto il periodo dello sviluppo se l’uso è intenso, come consigliato ormai da pediatri di molte parti del mondo, compresa la Società Italiana di Pediatria.
Gli effetti del tempo schermo includono anche l'esposizione agli schermi indiretti. Da ormai una ventina d’anni gli studi hanno misurato l’impatto degli schermi nella diminuzione delle interazioni verbali, non verbali e di gioco nei primi quattro anni con diversi studi sperimentali su coppie di genitori con bambino che restavano con lo schermo spento e con lo schermo acceso in diverse situazioni. Registrati i comportamenti, si è scoperto che lo schermo diminuiva le interazioni verbali e non verbali e l’attenzione focalizzata su dei giocattoli, aumentando invece le interruzioni di gioco (Anderson e Pempek, 2005). Più recenti esperimenti hanno osservato che i genitori che usano lo smartphone in presenza dei loro bambini durante dei pranzi hanno una minor interazione (rispetto ai genitori che non lo usano) cioè disattivano il canale attenzionale non verbale (Radesky et al. 2014). Il fatto di ricevere attenzione e di prestare attenzione sono infatti fenomeni collegati perché nell’infanzia lo sviluppo dell’attenzione congiunta (dai 6 ai 24 mesi) è il prerequisito per lo sviluppo del linguaggio.
Per capire meglio l’effetto negativo dello schermo è utile soffermarsi sulla distinzione tra comprensione e apprendimento. Un video permette la comprensione di parole e contenuti già noti e già appresi ma molto difficilmente, e con molte condizioni particolari, ma soprattutto rarissimamente nei primi sei anni di vita, il video facilita l’apprendimento di parole e ne abilità nuove. Nei primi tre anni un bambino esplora con i cinque sensi il mondo circostante, prende con le mani, porta alla bocca, ascolta e usa tutti i suoi sensi per apprendere. Soprattutto però impara attraverso il fenomeno dell’attenzione congiunta, o joint attention, che è la capacità di coordinare l’attenzione tra due persone e un oggetto o evento, richiedendo un impegno continuo di entrambi. Questo processo è stato ampiamente studiato poiché rappresenta un indicatore dello sviluppo psicomotorio infantile, oltre a predire la qualità delle relazioni di attaccamento e delle interazioni sociali future. Il biologo Michael Tomasello la descrive come la capacità specie specifica, cioè propriamente umana, alla base del linguaggio, della cooperazione, della morale umana. Per svilupparsi, l’attenzione congiunta si basa su elementi fondamentali come l’aggancio oculare, il contatto visivo e la "sintonizzazione degli affetti" (Stern), prerequisiti essenziali per le capacità comunicative e per lo sviluppo della teoria della mente — la capacità, tipica di un bambino di quattro anni, di comprendere il punto di vista di un’altra persona (Aubineau et al., 2015). La forma più avanzata, l’attenzione congiunta coordinata, implica che il bambino si impegni attivamente sia con un adulto sia con un oggetto.
Negli ultimi vent’anni molti dati sono stati inoltre stati raccolti per descrivere il video deficit effect, indicando come gli schermi possano ostacolare l'apprendimento, a partire dall'apprendimento fonetico e linguistico nei primi quattro anni. Sebbene tramite schermi si possano comprendere alcuni contenuti adeguati all'età (specialmente con l'aiuto dei genitori) diverso è il caso dell’apprendimento (che è un passo ulteriore rispetto alla mera comprensione di una storia) perché l'attenzione è profondamente diversa di fronte a un altro essere umano: dal vivo o in presenza si attiva l’attenzione emotiva, multisensoriale. L’attenzione mobilitata dagli schermi è molto spesso di tipo bottom-up: è la medesima mobilitata in tutti gli animali di fronte a forti luci e suoni, di fronte a pericoli. Diversi neuroscienziati distinguono un’attenzione di tipo top-down (dal centro alla periferia), da una botton-up (dalla periferia al centro). L’individuo è attraversato continuamente da stimoli esterni e interni difficili da distinguere, dove l’attenzione è letteralmente contesa all’interno dell’individuo: “L’attenzione si orienta spontaneamente verso elementi naturali esterni più attraenti come le pubblicità o i video-schermi” (Lachaux 2012, p. 249). L’attenzione viene contesa da diverse forze, da diversi oggetti, ma è lecito parlare di attenzione esogena , quando prevale lo stimolo esterno, e attenzione endogena, quando prevale lo stimolo interno – una sorta di “controllo volontario dell’attenzione”. Sicuramente cosa sia esattamente l’attenzione – che non è la volontà - non è facile da stabilire e gli approcci socio-antropologici ci ricordano la costruzione sociale di tale dimensione (Campo 2022).
In ogni caso disponiamo di numerosi studi che rilevano una correlazione tra l'uso precoce e prolungato degli schermi e problemi di attenzione successivi. Quello di Tamana del 2019 è uno dei più citati studi longitudinali: ha esaminato circa 2500 bambini/e canadesi dai 3 ai 5 anni, evidenziando come un tempo schermo superiore alle 2 ore giornaliere aumentasse il rischio di problemi di attenzione negli anni successivi. La relazione tra l'uso degli schermi e il disturbo da deficit di attenzione (ADHD) è stata messa in discussione nonostante già Christakis avesse evidenziato la presenza di una correlazione tra un’alta esposizione agli schermi e un alto rischio di problemi di linguaggio e di attenzione (Christakis, 2005, 2007). La maggior parte degli studi di neuropsicologia evidenzia cause epigenetiche per il disturbo da deficit di attenzione, nonostante l'aumento globale delle diagnosi negli ultimi vent'anni; in generale tra gli specialisti c’è molta resistenza a parlare di cause ambientali per ADHD anzi gli schermi vengono ancora spesso prescritti spesso nelle prognosi di bambini con DSA o con diagnosi di ADHD. L’idea che un tempo schermo precoce e prolungato possa aumentare i rischi di generici problemi di attenzione o patologie diagnosticate come ADHD è però avanzata da studi recenti sempre più inclini a considerare tale uso come un fattore significativo. Anche uno studio longitudinale di Madigan ha concluso che sono gli schermi a causare i problemi di attenzione e non viceversa: una maggiore quantità di tempo schermo a 24 mesi d’età è stata associata a prestazioni più scarse nei test di valutazione successivi. Analogamente, un maggiore tempo trascorso davanti allo schermo a 36 mesi è stato correlato a punteggi più bassi nei test dello sviluppo cognitivo a 60 mesi. L’associazione inversa, invece, non è stata osservata (Madigan et al., 2019). Un recente metastudio (Eirich et al., 2022) segnala la correlazione tra un uso precoce e prolungato degli schermi e i successivi problemi di attenzione in bambini/e di età pari e inferiore a un anno nella maggior parte degli studi esaminati.[1]
Le app e gli algoritmi che alimentano la fruizione degli schermi sono progettati deliberatamente per mantenere i bambini attaccati agli schermi il più a lungo possibile, non per fornire programmi educativi. Questo è descritto molto bene dai formatori dei vettori commerciali denominati app, come si può evincere dal brillante saggio di uno di questi formatori, Nir Eyal. L’aumento dell'impulsività e la cattura dell’attenzione sono gli obiettivi dichiarati dagli agenti del marketing che per tale fine mettono a disposizione piattaforme gratuite: quando bambini e bambine anziché fare i compiti o leggere o giocare fra loro passano ore davanti allo schermo questi proprietari delle app aumentano i loro profitti. Basta guardare chi sono le persone più ricche al mondo e l’incidenza del pubblico giovanile. Incapaci di mantenere la concentrazione su attività prolungate i “bambini digitali” sono sempre più esigenti e conformati in materia di consumi.
Sempre più esperti sollevano il dubbio se la “generazione digitale” non stia affrontando un problema specifico. Anche senza una dimostrazione di causalità con l'ADHD, il tempo schermo è un fattore che amplifica l’impulsività, la disattenzione e la distraibilità. Dopo il Covid-19, molti insegnanti segnalano uno stato diffuso di distraibilità permanente. Le prove si accumulano, e ignorare il fenomeno non aiuta a iniziare a risolvere il problema. Si parla sempre più spesso di “attenzione frammentaria” per descrivere questa nuova sfida educativa e sociale o altri termini quali: “attenzione disrupted” (interrotta e distratta), “attenzione parziale continua”, “attenzione spezzetata”. Non è certamente quella virtù propria del multitasking attribuita a torto ai “nativi digitali” con il concetto equivoco di “iperattenzione”, che trasformava i bambine/i iperattive/i e impulsive/i in bambine/i capaci di nuove “qualità attentive” (Hayles). Dobbiamo prendere atto che gli schermi stanno precludendo la possibilità di sviluppare un’attenzione umana cooperativa e congiunta. L’isolamento e la disgiunzione dell’attenzione non ha un impatto solo cognitivo ma anche emotivo e relazionale. Non siamo di fronte a una generazione ansiosa, ma a una generazione oppressa. Gli schermi schermano le relazioni, si frappongono tra uno sguardo e l’altro, interrompono l’attenzione congiunta.
In conclusione gli schermi amplificano negativamente tutte le dimensioni dell’attenzione. Un uso prolungato e precoce agisce su un ampio spettro, amplificando disattenzione (causata da stanchezza), distrazione (stimoli esterni), distraibilità (tendenza acquisita a distrarsi) e, in casi estremi, disabilità attentiva (ADHD). Ridurre il tempo schermo, invece, migliora l’attenzione e i risultati scolastici. Molti insegnanti con anni di esperienza segnalano un declino significativo nelle capacità attentive degli studenti. È come se su questo pianeta fosse arrivato un pifferaio magico e i nostri bambini e bambine non potessero fare a meno di seguirlo con in mano il loro cellulare. Questo pifferaio ha aumentato il tempo schermo nell’infanzia, ma ha diminuito il tempo di sonno, il tempo di lettura e soprattutto il tempo di gioco, e altre temporalità essenziali per l’apprendimento.
Ma è davvero così? Le famiglie ricche e figli e le figlie di ingegneri della Silicon Valley vengono protette/i e non abbandonate/i davanti agli schermi.
Questo fenomeno è molto più diffuso nelle classi povere. E allora non è forse lecito parlare di una vera e propria contesa dell’attenzione? È forse venuto il tempo di prendere consapevolezza per riportare l’attenzione al centro dei processi educativi senza delegarlo al tempo schermo.
NOTE
[1] Per una ampia bibliografia il testo tradotto in italiano più completo è Desmurget M. (2020) Il cretino digitale. Difendiamo i nostri figli dai veri pericoli del web, Rizzoli, Milano. Mi sia permesso rimandare al mio saggio: L’attenzione contesa, come il tempo schermo modifica l’infanzia, Armando, Roma.











