I disturbi neurologici funzionali: oltre il dualismo mente-corpo
I disturbi neurologici funzionali (o FND, dall'inglese Functional Neurological Disorders) rappresentano una delle condizioni mediche più affascinanti e complesse del panorama neurologico contemporaneo; caratterizzati da sintomi reali e invalidanti, non spiegati da alterazioni strutturali del sistema nervoso, costituiscono un caso di studio emblematico per comprendere l'intricata relazione tra mente e corpo.
DEFINIZIONE E CARATTERISTICHE CLINICHE
I disturbi neurologici funzionali sono definiti come condizioni causate da alterazioni nel funzionamento delle reti cerebrali piuttosto che da cambiamenti nella struttura del cervello stesso. Questa distinzione fondamentale è spesso illustrata attraverso l'analogia del computer: mentre in altre patologie neurologiche si osserva un danno all'"hardware" cerebrale (come la degenerazione dei neuroni nella substantia nigra nei Parkinsonismi), nei disturbi neurologici funzionali il problema risiede nel "software", ovvero nei “programmi” che regolano il funzionamento del sistema nervoso.
La sintomatologia dei disturbi neurologici funzionali è estremamente variegata e può comprendere debolezza o paralisi degli arti, disturbi del movimento come tremori e distonie, crisi epilettiche non epilettiche, problemi sensoriali, difficoltà del linguaggio, problemi visivi e uditivi, dolore cronico e alterazioni cognitive, interferendo notevolmente con la qualità di vita dei pazienti, dei loro caregiver e comportando una spesa notevole per il SSN; l’esordio può avvenire a qualsiasi età, sebbene sia più comune tra l'adolescenza e l'età adulta precoce, con una maggiore incidenza nel sesso femminile (in rapporto 3:1).
NEUROBIOLOGIA TRA FUNZIONE E STRUTTURA
Le neuroscienze hanno fornito evidenze crescenti che i disturbi neurologici funzionali non sono disturbi "immaginari" ma rappresentano condizioni neurobiologiche genuine con correlati neurali identificabili. In questo senso, appare straordinariamente attuale l’intuizione di Jean-Martin Charcot, che già alla fine del XIX secolo ipotizzava nei pazienti con isteria l’esistenza di una “lesione funzionale”, ovvero una disfunzione reale del sistema nervoso priva di una base strutturale visibile. Sebbene privo degli strumenti della neurologia moderna, Charcot riconobbe che l’assenza di una lesione anatomica non implicava l’inesistenza di un disturbo neurologico autentico - un’intuizione che trova oggi conferma nei dati neurobiologici contemporanei. Particolarmente significative sono le alterazioni osservate a carico del salience network, del default mode network e nelle connessioni tra aree cortico-limbiche e regioni motorie. Il salience network, composto principalmente dall'insula anteriore e dalla corteccia cingolata anteriore dorsale, è responsabile del rilevamento e del filtraggio degli stimoli rilevanti e della regolazione emotiva. Nei pazienti con disturbo neurologico funzionale, questo sistema mostra iperattivazione e connettività alterata con le aree motorie, suggerendo un'influenza eccessiva dei processi emotivi sul controllo motorio. Il default mode network, attivo durante il riposo cosciente e coinvolto nei processi di auto-riferimento e nella costruzione del senso di sé, presenta anch'esso alterazioni in questi pazienti. Queste modificazioni potrebbero riflettere disturbi nei processi di integrazione dell'esperienza soggettiva e nella percezione di agency, ovvero nella sensazione di controllo sulle proprie azioni.
I DISTURBI NEUROLOGICI FUNZIONALI COME PARADIGMA DEL RAPPORTO MENTE-CORPO
Storicamente, l’approccio cartesiano alla medicina ha portato a una netta distinzione tra cause organiche e psicogene, relegando i disturbi neurologici funzionali nell’ambito delle patologie “senza base organica”. Tuttavia, le evidenze attuali dimostrano che questa dicotomia è riduttiva: gli stati mentali, come lo stress, il trauma o i conflitti emotivi, possono indurre alterazioni misurabili nei circuiti cerebrali, nei pattern di attivazione neuronale e nei processi di integrazione sensomotoria, senza che vi sia necessariamente un danno strutturale rilevabile con le tecniche diagnostiche convenzionali.
La definizione storica di “disturbo di conversione” o “di somatizzazione” per quelli che oggi chiamiamo disturbi neurologici funzionali, radicata nella teoria freudiana della conversione di conflitti psichici in sintomi somatici, rifletteva una comprensione limitata e spesso stigmatizzante della condizione. Oggi, la ricerca riconosce che questi disturbi non sono semplicemente manifestazioni di conflitti inconsci, ma il risultato di una complessa interazione tra vulnerabilità biologiche (come predisposizioni genetiche o alterazioni neurochimiche), fattori psicologici (traumi, stili di coping, attenzione selettiva ai sintomi) e contesti sociali (stress ambientali, dinamiche familiari, influenze culturali).
L’approccio attuale è quindi multidisciplinare e integrato: la diagnosi si basa su criteri clinici positivi e segni neurologici specifici, mentre il trattamento prevede interventi personalizzati che possono includere la riabilitazione neurologica, la psicoterapia e, quando necessario, il supporto farmacologico. Questa visione supera la dicotomia cartesiana, promuovendo una comprensione più ampia e meno stigmatizzante della malattia, e sottolinea l’importanza di un approccio empatico e collaborativo nella gestione dei pazienti con disturbo neurologico funzionale.
CONCLUSIONI
I disturbi neurologici funzionali costituiscono un caso emblematico della complessità del rapporto mente-corpo, rivelando quanto siano ormai inadeguate le dicotomie tradizionali della medicina occidentale per spiegare la natura (che è invece profondamente integrata) dell’essere umano. Lungi dall’essere semplici anomalie “psicogene”, si impongono oggi come una sfida cruciale per la medicina contemporanea: non solo per la loro eterogeneità clinica e l’impatto sulla qualità di vita, ma soprattutto per l’opportunità epistemologica che rappresentano.
La moderna comprensione di questa condizione così fraintesa in passato, alimentata dai progressi delle neuroscienze, offre una finestra privilegiata per indagare i meccanismi attraverso cui l’esperienza soggettiva si incarna nel corpo e nel cervello, mostrando come stati mentali complessi possano influenzare direttamente il funzionamento dei network cerebrali. In tal senso, i disturbi neurologici funzionali mettono in discussione le rigide separazioni tra neurologia e psichiatria, tra cause organiche e fattori psicologici. L’evoluzione della ricerca scientifica, insieme a una crescente sensibilità clinica, sta gradualmente restituendo legittimità e riconoscimento a una condizione per troppo tempo relegata ai margini del sapere medico. Questa condizione ci obbliga a ricordare che mente e cervello non sono domini separati, ma aspetti interdipendenti di una stessa realtà incarnata, e ci sollecitano a ripensare profondamente non solo le categorie diagnostiche, ma anche il modo in cui intendiamo la cura.
RIFERIMENTI BIBLIOGRAFICI
Aybek, S., & Perez, D. L. (2022). Diagnosis and management of functional neurological disorder. BMJ, o64. https://doi.org/10.1136/bmj.o64
Baek, K., Doñamayor, N., Morris, L. S., Strelchuk, D., Mitchell, S., Mikheenko, Y., Yeoh, S. Y., Phillips, W., Zandi, M., Jenaway, A., Walsh, C., & Voon, V. (2017). Impaired awareness of motor intention in functional neurological disorder: Implications for voluntary and functional movement. Psychological Medicine, 47(9), 1624–1636. https://doi.org/10.1017/S0033291717000071
Edwards, M. J., Yogarajah, M., & Stone, J. (2023). Why functional neurological disorder is not feigning or malingering. Nature Reviews Neurology, 19(4), 246–256. https://doi.org/10.1038/s41582-022-00765-z
Hallett, M., Aybek, S., Dworetzky, B. A., McWhirter, L., Staab, J. P., & Stone, J. (2022). Functional neurological disorder: New subtypes and shared mechanisms. The Lancet Neurology, 21(6), 537–550. https://doi.org/10.1016/S1474-4422(21)00422-1
Voon, V., Brezing, C., Gallea, C., & Hallett, M. (2011). Aberrant supplementary motor complex and limbic activity during motor preparation in motor conversion disorder. Movement Disorders, 26(13), 2396–2403. https://doi.org/10.1002/mds.23890
Giochi di società. La simulazione in antropologia per apprendere e re-inventare i fenomeni sociali
La vicenda è ormai abbastanza nota. Monopoli, il popolarissimo gioco da tavolo, altro non è che il figlioccio un po' guastato di un altro gioco, The Landlord’s Game, inventato all’inizio del secolo scorso. A inventare il gioco fu Elisabeth Magie – donna eclettica e progressista, scrittrice e stenografa – che lo concepì come strumento di apprendimento: «è una dimostrazione pratica dell’attuale sistema di land-grabbing, dei suoi esiti reali e delle sue conseguenze» (Pilon, 2015). Il gioco prevedeva infatti due sistemi di regole. Uno era quello con cui pressappoco si gioca ancora oggi: giocatrici e giocatori si confrontano per acquisire terreni, costruire case e alberghi, impoverire gli avversari. L’altro sistema si basava invece su una ben precisa teoria economica, la cosiddetta “single tax”, avanzata dall’economista Henry George. George proponeva di tassare esclusivamente i terreni per poi redistribuire i profitti a cittadine e cittadini. Analogamente, nel sistema di regole anti-monopoliste ideato da Magie, i giocatori pagavano le tasse sulle proprietà acquisite ed erano poi costretti a dividere i guadagni, così che a trarre vantaggio dalla loro ricchezza fossero anche tutti gli altri giocatori. Magie registrò il brevetto nel 1903, il gioco iniziò a circolare nelle case americane, e infine venne venduto, nella versione tuttora giocata, a una casa editrice di giochi da un uomo disoccupato che sosteneva di averlo inventato.
Oltre ad essere una luminosa parabola sull’appropriazione capitalista e sull’invisibilizzazione del lavoro femminile (nel senso di un gioco inventato da una donna, i cui profitti dell’invenzione andarono a un altro), il concepimento di The Landlord’s Game presenta un ulteriore elemento di interesse: il nesso tra giochi e società, tra rappresentazione di una realtà o di un problema sociale e la possibilità, attraverso l’attività ludica, di ridefinirne i contorni e di esplorarne scenari alternativi. Si tratta di un nesso che negli ultimi anni è stato particolarmente sviluppato nell’ambito degli studi sociali della Scienza e della Tecnologia (STS). Sia nella loro fase di design e di sviluppo sia in quella più propriamente ludica, i giochi sono stati infatti descritti e utilizzati come strumenti attraverso cui simulare, apprendere o re-inventare i fenomeni sociali oggetto di studio antropologico e sociologico. Il cambio di prospettiva intrinseco al giocare (si gioca sempre in prima persona, che sia una partita a dadi o un gioco di ruolo) consente infatti di sperimentare in modo più diretto le dinamiche, le strutture di potere, le possibili forme di collaborazione o di competizione che caratterizzano un certo contesto. D’altra parte, la progettazione di un gioco ispirato a un determinato contesto o problema sociale può rappresentare un momento estremamente produttivo in termini etnografici. Attraverso il design di un gioco, ricercatrici e ricercatori hanno infatti la possibilità di riflettere sulla propria attività di ricerca sul campo. Alla luce di queste caratteristiche, l’interesse per le potenzialità etnografiche dei giochi va inserita all’interno di una più ampia riflessione sui metodi delle scienze sociali e sulla loro componente creativa e performativa.
«Gli approcci creativi (inventive) tendono a considerare la performatività (enactment) dei fenomeni sociali non come un argomento da esporre o descrivere, ma come un compito o una sfida di ricerca: possiamo farcela? Possiamo contribuire all'articolazione creativa dei fenomeni sociali?» (Marres et al. 2018, p. 25, mia traduzione)
Aspetto importante di questi approcci è anche il tentativo di emanciparsi dal predominio del testo e delle parole, per abbracciare metodi in cui siano le interazioni tra oggetti, immagini, suoni e corpi a costituire tanto il dato antropologico quanto le modalità di incontro etnografico. Si tratta di un approccio multisensioriale alla pratica antropologica il cui obiettivo è appunto inventare diverse modalità di partecipazione, collaborazione e apprendimento tra i vari soggetti coinvolti (Dattatreyan & Marrero‐Guillamón (2019). In questa prospettiva, creare giochi ispirati a un sito di ricerca etnografica, e poi testarli con i soggetti coinvolti da tale ricerca, costituisce un’interessante possibilità per simulare quelle realtà oppure per re-inventarle e re-immaginarle. L’eterogeneità dei giochi offre inoltre la possibilità di sperimentare diverse modalità di partecipazione: giochi di ruolo o di strategia, collaborativi o competitivi, da tavolo o digitali. Alcune caratteristiche sembrano però essere comuni a tutti i giochi. Secondo lo storico olandese Johan Huizinga, giocare è un'attività volontaria e disinteressata, circoscritta sia nello spazio che nel tempo, e definita dalla tensione legata alla sconfitta dell'avversario o al raggiungimento di qualcosa di difficile. La combinazione di questi tratti rende il gioco «un'attività libera che si colloca consapevolmente al di fuori della 'vita ordinaria' come 'non seria', ma che allo stesso tempo assorbe intensamente e totalmente il giocatore» (Huizinga 1949, p. 13). A queste caratteristiche se ne possono aggiungere altre che, come sostiene l’antropologo Joseph Dumit, rendono i giochi uno strumento pedagogico particolarmente utile nell’insegnamento delle scienze sociali (Dumit 2018). Nell’attività ludica, decisioni, conseguenze e sfortuna vengono infatti vissute in prima persona, consentendo quindi ai giocatori di vivere ed esperire dal proprio punto di vista la complessità delle strutture sociali riprodotte nel gioco, ad esempio le asimmetrie informative e le relazioni di potere che le attraversano. Per queste ragioni, la creazione di giochi (game design) può rappresentare un utile strumento per sollecitare gli studenti a riflettere sui sistemi sociotecnici. Dumit porta l’esempio di un gioco sul fracking, ovvero l’estrazione di petrolio e di gas naturale attraverso l’utilizzo della pressione dell’acqua. La ricerca per il design del gioco, spiega Dumit, ha portato gli studenti a individuare i vari attori coinvolti, a mappare le dinamiche tra le società di fracking, a problematizzare il ruolo dei media e delle notizie giornalistiche nell’articolare tali dinamiche.
Mentre Dumit sottolinea il valore pedagogico nell’ideare giochi inerenti a realtà sociali solitamente oggetto di indagine, gli antropologi Tomas Criado e Ignacio Farías illustrano come sviluppare e testare giochi produca nuove possibilità etnografiche (Farías & Criado 2022). I giochi da loro discussi sono stati creati insieme ai loro studenti e sono inspirati ai conflitti tra proprietari di case e affittuari, un tema particolarmente sentito e delicato nel mercato immobiliare contemporaneo. Lo sviluppo dei giochi ha dato luogo a una doppia dinamica tra ricerca etnografica e creazione delle regole e dei materiali dei giochi. Da un lato, l’esigenza, alla luce della ricerca svolta sul campo, di evitare rappresentazioni stereotipate delle persone rappresentate nel gioco (proprietari, affittuari, attivisti, avvocati). Dall’altro l’anticipazione e la proiezione di siti etnografici non ancora esplorati ma tuttavia inclusi nelle dinamiche dei giochi per renderli più verosimili. Provare i giochi (game testing) con persone effettivamente coinvolte nella crisi immobiliare ha funzionato invece come strumento di riflessione sul potenziale valore politico ed etnografico dei giochi. Per questa ragione, Farías e Criado sostengono che i giochi possono creare le condizioni per forme di ragionamento para-etnografico1. I giocatori erano infatti portati a fare costanti collegamenti tra le dinamiche e le situazioni scaturite dal gioco e le loro esperienze, emozioni e opinioni sui temi del gioco.
Questa incompleta rassegna ha tentato di identificare due diverse potenzialità di utilizzo dei giochi in ambito antropologico e sociologico.
In primo luogo, i giochi possono essere utilizzati come strumento per riflettere sulle dinamiche di un certo contesto economico (il land-grabbing, il mercato immobiliare) o di un determinato sistema socio-tecnico (il fracking). La possibilità di esperire in prima persona le dinamiche che caratterizzano quei contesti produce un “salto epistemologico” che può aiutare a comprenderle meglio. Non si tratta però di un approccio puramente conservativo, che si limita a riprodurre l’esistente. Al contrario, come Elizabeth Magie aveva intuito, i giochi possono aiutare a inventare e a mettere in atto realtà alternative, scenari possibili.
In secondo luogo, lo sviluppo di un gioco può essere utile a ricercatrici e ricercatori per ragionare sui dati e sugli elementi emersi durante la ricerca etnografica. In questo senso, lo sviluppo di un gioco può essere interpretato anche come la traduzione in regole, obiettivi e narrazioni della propria ricerca etnografica e quindi come un’attività che consente di svelare e di problematizzare alcune delle assunzioni e dei preconcetti che inevitabilmente la influenzano.
In conclusione, se è vero, come sostiene Huizinga, che giocare è un’attività non seria, tendenzialmente divertente e spensierata, sembra altrettanto vero che i processi di immedesimazione e di riflessione impliciti in moltissimi giochi li rendono anche dei formidabili dispositivi di critica e di indagine sociale.
RIFERIMENTI BIBLIOGRAFICI:
Dattatreyan, E. G. & Marrero‐Guillamón, I. (2019). Introduction: Multimodal Anthropology and the Politics of Invention. American Anthropologist, 121(1), 220–28.
Dumit, J. (2017). Game Design as STS Research, Engaging Science, Technology, and Society, 3, 603-612
Farías, I. & Criado, T. S. (2022). How to game ethnography. In Criado, T. S. and Estalella, A. (eds.). An Ethnographic Inventory: Field Devices for Anthropological Inquiries. London: Routledge.
Holmes, Douglas R., and George E. Marcus. 2008. “Para-Ethnography.” In The SAGE Encyclopaedia of Qualitative Research Methods, edited by Lisa Given, 595–97. Thousand Oaks: Sage
Huizinga, J. (1949): Homo Ludens. A Study of the Play-Element in Culture. London, Boston, and Henley: Routledge & Kegan Paul.
Marres, N., Guggenheim, M. & Wilkie, A. (2018). Inventing the Social. Manchester: Mattering Press.
Pilon, M, (2015). Monopoly’s Inventor: The Progressive Who Didn’t Pass ‘Go’, The New York Times, 13 febbraio.
NOTE:
C’era una volta il soggetto? Ibridi, protesi, algoritmi indossabili: tutti i supplementi di un latitante
Il supplemento viene al posto di un cedimento,
di un non-significato o di un non-rappresentato, di una non-presenza.
Non c'è nessun presente prima di esso,
è quindi preceduto solo da se stesso, cioè da un altro supplemento.
Jacques Derrida, Della grammatologia
1 MAPPE
Perché è stato Colombo a sbarcare sulle coste americane – e dopo di lui i ben più temibili Cortés e Pizarro – e non una flotta Inca ad attraccare nel porto di Lisbona o di Genova? Franco Farinelli ritiene che la casualità della storia e l’impredicibilità del comportamento degli uomini non possano soddisfare l’urgenza dell’interrogativo, quanto invece può fornire una risposta l’evidenza che è capitato agli europei di realizzare mappe dei mari e delle terre emerse, e non alle popolazioni amerinde. Si può diventare scopritori di continenti e conquistatori di imperi sconosciuti, solo carta alla mano. Non importa nemmeno se il contenuto della rappresentazione geografica sia corretto o meno; senza il diagramma, viene a mancare l’ingrediente che si rivela essere il più banale nella circostanza in cui la scrittura e la proiezione geometrica sono disponibili – il progetto dell’esplorazione, la motivazione alla partenza, il piano di conquista.
Le mappe offrono un contributo indispensabile alla formazione della soggettività dei navigatori, dei conquistatori e degli eroi. Tzvetan Todorov suggerisce però che per plasmare una coscienza come quella di Cortès serva un altro ingrediente tecnologico: la scrittura alfabetica e la sua capacità di «insegnare» la separazione e la connessione tra una catena di significanti e una di significati. Il conquistador infatti legge le operazioni epistemiche degli aztechi, interpreta la visione della realtà di Montezuma, simula attributi e ruoli per manipolare la loro comprensione degli eventi, partendo dalle credenze degli avversari: i segni possono essere separati dal loro referente, possono essere imitati, contraffatti, manomessi a piacimento. Al contrario, gli indigeni appaiono vincolati ad una prospettiva monolitica di percezione del mondo, in cui quello che accade deve essere la ripetizione di qualcosa di già avvenuto, e deriva la sua identità dal passato dei loro miti fondativi. La vittoria degli spagnoli viene conseguita sul piano cognitivo prima ancora che sul campo di battaglia.
2 SCRITTURA ALFABETICA
La scissione tra un piano del significante e uno del significato è la separazione che si è innalzata dalla scrittura alfabetica alla fondazione delle disgiunzioni essenziali della cultura occidentale, come quelle tra interno ed esterno, trascendenza e immanenza, spirito e materia.
In un articolo precedente su Controversie, Edmondo Grassi propone di osservare i dispositivi di wearable technology, gli strumenti che rendono smart le case e le città, e la generazione degli algoritmi che li gestiscono, un sistema o uno sciame di intelligenze che rimodellano la nostra presenza fisica, e soprattutto che ridefiniscono la nostra soggettività. La trasformazione in corso non avrebbe precedenti nella storia dell’umanità, perché non si limiterebbe a potenziare facoltà già esistenti, ma creerebbe nuove dimensioni di coscienza, estranee a quelle implicate nella natura umana. Credo che le considerazioni sviluppate su Colombo e su Cortès impongano di rivedere in modo più prudente queste dichiarazioni. L’entusiasmo per lo sviluppo delle macchine digitali degli ultimi decenni è legittimo, ma rischia di mettere in ombra alcune linee di continuità con la storia delle tecnologie più remote (di cui fanno parte anche il linguaggio e la scrittura), e di alimentare la fede in un fantasma come quello della natura umana, intesa come una struttura consegnata dall’evoluzione filogenetica ai nostri avi ancestrali, che incarnerebbe la nostra sostanza compiuta e immutabile: dal suo fondo sarebbero derivate le culture e le civiltà, che ne avrebbero potenziato alcuni aspetti, lasciando però intatta la sua essenza fino ai nostri giorni. L’asimmetria tra il dinamismo delle trasfromazioni che abbiamo sotto gli occhi oggi, e la presunta staticità di quello che abbiamo già incorporato e metabolizzato, con la pratica del dialogo e delle lettere, è troppo evidente per non destare qualche sospetto.
La Scuola di Toronto, soprattutto con Harold Innis ed Eric Havelock, ha sottoposto a scrutinio il rapporto tra tecnologie della scrittura e formazione sia della soggettività, sia della struttura politica della società. L’elaborazione greca dell’alfabeto introduce, rispetto alle altre tipologie di grafia, un elemento di forte innovazione: i segni non richiedono un’interpretazione semantica, come accade con i pittogrammi, ma rinviano in modo meccanico ad altri segni, ai suoni delle parole. La loro presenza materiale non si impone allo sguardo pretendendo l’interpretazione di un esperto – scriba o sacerdote – con un esercizio di esegesi specialistica e creativa, ma si spalanca in modo immediato sulla catena dei significati. Il senso emerge alla vista prima ancora del suo rappresentante simbolico: basti pensare a quanta attenzione richiede la revisione editoriale dei testi, e alla facilità con cui gli errori di battitura sfuggono alla rilettura – perché il significato appare all’occhio prima ancora della sua raffigurazione fisica. La scrittura alfabetica schiude lo spazio logico come evidenza percettiva, esibisce la dimensione dell’essere che è sottratta alla contingenza dello spazio e del tempo, che si dilata nell’universalità e nella necessità, e che è la protagonista della filosofia di Platone. Le idee hanno scavato un’interiorità nella vita degli individui, e hanno sostenuto la nascita della comunità scientifica: la verità privata e la verità pubblica, l’articolazione della loro distinzione e della loro unità, sono estensioni impreviste dello sviluppo tecnologico subito dai meccanismi di annotazione del linguaggio.
3 TRACCE
Le procedure di redazione e di lettura nell’Atene del V secolo non somigliavano di sicuro a quelle dei nostri giorni; tuttavia la rivoluzione avviata dalla tecnologia della scrittura nella Grecia antica ha contribuito a configurare la forma stessa della soggettività occidentale, così come ancora oggi la sperimentiamo. Ma anche questo scavo nell’archeologia dei sistemi di produzione documentale non mostra in modo abbastanza radicale il doppio legame che si stringe tra processi di ominazione e tecnologia.
Jacques Derrida e Bernard Stiegler ampliano la nozione di scrittura per includere una serie di fenomeni più varia, il cui valore consiste nel registrare programmi di azioni, che vengono archiviati e resi disponibili da una generazione all’altra. In questo senso anche la scheggiatura della selce, la preparazione di ogni genere di manufatti, permette di conservare le tracce delle operazioni con cui è avvenuta la loro realizzazione, e quelle della loro destinazione. L’innovazione non è una galleria di episodi disparati, ma si dispiega in gruppi tecnici, che dislocano lo stesso principio fisico in diversi contesti: la ruota per esempio sollecita la trasformazione dei mezzi di trasporto, ma decreta anche la nascita del tornio e quella della cisterna. La tecnica, come il linguaggio, sono artificiali, ma non «capricciosi»: l’organicità della realtà costruita contribuisce a elaborare l’ordinamento della ragione, che è sia logos, sia kosmos. Ma questa filogenesi culturale è il sintomo di due processi che sanciscono la differenza, e la distanza, dell’uomo da ogni altra creatura.
Il primo è testimoniato dalle indagini di paleontologia, che provano la collaborazione del fattore biologico e di quello tecnologico nell’evoluzione del sistema nervoso centrale dell’homo sapiens. La lavorazione della pietra e del legno non è stata avviata quando l’evoluzione fisiologica poteva dirsi conclusa, ma ha contribuito allo sviluppo cerebrale, rendendo l’espansione della massa neuronale e la raffinatezza nel trattamento dei materiali, insieme alla la complessità nella collaborazione dei gruppi sociali, due percorsi che si rispecchiano, si modellano e si rappresentano in modo reciproco.
Il secondo tenta una fondazione trascendentale di ciò che l’archeologia espone sul piano dei fatti. Nella ricostruzione del confronto di Leroi Gourhan con la descrizione speculativa che Rousseau schizza dell’uomo originario, Stiegler evidenzia che entrambi gli autori devono supporre un salto tra l’ominide ancora senza linguaggio, e l’essere umano compiuto, con una razionalità in grado di esprimersi in termini di simboli universali. La ragione, la tecnica (e il linguaggio come prima tecnica) compaiono tutti insieme, dal momento che sgorgano dalla stessa istanza capace di individuare l’uomo e distinguerlo da tutti gli altri esseri viventi: la consapevolezza della propria morte, e l’assunzione di tutte le iniziative possibili per dilazionarne l’imminenza. Da questo progetto di differimento scaturiscono la storia e le storie; per questo ogni linguaggio è a suo modo un programma di azione, che deve disporre già sempre di un carattere di ripetibilità e di universalità, e per questo ogni tecnica e ogni linguaggio sono una scrittura che plasma al contempo la realtà esterna e la soggettività del suo esecutore.
Non esiste una natura umana, e nessun ominide che sia identico all’uomo – solo privo di tecnica e di linguaggio, prima del salto che invera il miracolo della cultura. Né esiste un’essenza dell’umanità che preceda e che sia la fonte dei sistemi simbolici e delle procedure operative, che si succedono nelle epoche della storia, e di cui potremmo sbarazzarci o che possiamo implementare, senza esserne modellati nel profondo. La storia e le differenze delle scienze e delle tecniche sono anche il dispiegamento della natura umana nella varietà delle forme e delle identità in cui – soltanto – essa può assumere esistenza concreta.
BIBLIOGRAFIA
Derrida, Jacques, Della Grammatologia, trad. it. a cura di Gianfranco Dalmasso, Jaka Book, Milano 2020.
Havelock, Eric, Cultura orale e civiltà della scrittura. Da Omero a Platone, trad. it. a cura di Mario Capitella, Laterza, Bari 2019.
Innis, Harold, Imperi e comunicazione, trad. it. di Valentina Lovaglio, Meltemi, Roma 2001.
Farinelli, Franco, Geografia. Un’introduzione ai modelli del mondo, Einaudi, Torino 2003.
Leroi-Gourhan, André, L’uomo e la materia, trad. it. a cura di Franco Zannino, Einaudi, Torino 1977.
Rousseau, Jean-Jacques, Discorso sull’origine della disegueglianza, trad. it a cura di Diego Giordano, Bompiani, Milano 2012.
Stiegler, Bernard, La colpa di Epimeteo. La tecnica e il tempo, trad. it. a cura di Claudio Tarditi, Luiss University Press, Roma 2023.
Todorov, Tzvetan, La conquista dell’America. Il problema dell’Altro, trad. it. a cura di Aldo Serafini, Einaudi, torino 2014.
Perché complicare ci viene più naturale che semplificare - Il bias dell’addizione
In teoria, la semplicità dovrebbe attrarci. Le soluzioni semplici sono meno costose, più eleganti, più facili da implementare. In pratica, ci troviamo costantemente ad aggiungere anziché togliere: funzioni, oggetti, procedure, parole, strutture. Questo comportamento non è soltanto una cattiva abitudine culturale o manageriale. È, in realtà, un tratto sistematico del nostro funzionamento cognitivo.
Uno studio pubblicato su Nature da Gabrielle Adams, Benjamin Converse, Andrew Hales e Leidy Klotz, tutti affiliati a università americane, documenta l’esistenza di un bias dell’addizione (“People systematically overlook subtractive changes”, Nature, 2021). Gli autori hanno condotto una serie di esperimenti in cui ai partecipanti veniva chiesto di migliorare oggetti, testi o situazioni. I risultati sono stati sorprendenti: in assenza di un suggerimento esplicito, i partecipanti tendevano quasi invariabilmente ad aggiungere qualcosa piuttosto che togliere.
Uno degli esperimenti più caratteristici prevedeva la stabilizzazione di una struttura asimmetrica costruita con mattoncini Lego. Ai partecipanti veniva mostrata una piattaforma instabile poggiata su un unico pilastro, come un tavolo con una sola gamba. L’obiettivo era far sì che la piattaforma reggesse un mattone. Ogni pezzo aggiunto costava dieci centesimi, mentre rimuovere era gratuito. La soluzione ottimale – togliere il pilastro sbilenco, lasciando che la piattaforma poggiasse direttamente sul piano sottostante – era semplice ed economicamente vantaggiosa. Ma solo il 41% la sceglieva. Tutti gli altri, aggiungevano mattoncini. Questo comportamento si è ripetuto in contesti anche molto diversi: dalla revisione di testi scritti alla progettazione di schemi architettonici, fino alla risoluzione di problemi astratti. Il pattern è rimasto costante: le persone tendono a trascurare le soluzioni basate sulla sottrazione. È come se la possibilità di togliere fosse invisibile al nostro pensiero spontaneo.
Questo bias potrebbe trovare una spiegazione alla luce di diversi meccanismi cognitivi già noti in letteratura. In primo luogo, si collega a ciò che Kahneman e Tversky hanno descritto come euristiche del giudizio: strategie rapide ma imperfette che utilizziamo per prendere decisioni in condizioni di incertezza. In questo caso, l’aggiunta rappresenta una risposta “di default”, più accessibile nella memoria operativa e più coerente con il desiderio di “fare qualcosa” per risolvere un problema.
In secondo luogo, il bias dell’addizione potrebbe essere interpretato attraverso il concetto di status quo bias (Samuelson & Zeckhauser, 1988). In questo caso le persone tenderebbero a preferire l'opzione che conserva gli elementi esistenti. Rimuovere qualcosa implica una modifica visibile dello stato attuale e può apparire più rischioso, anche quando è la scelta migliore. Inoltre, le decisioni sottrattive – ovvero quelle che comportano la rimozione di un elemento – generano spesso un maggior senso di rimpianto se l’esito non è positivo. Come mostrato da Kahneman e Miller, le azioni che modificano una situazione stabile sono più facilmente soggette a controfattuali (“se solo non avessi tolto quel pezzo...”) e dunque più dolorose da rivivere mentalmente.
Una ulteriore possibile spiegazione cognitiva potrebbe derivare dall’effetto endowment (Thaler, 1980): le persone attribuiscono maggiore valore a ciò che già possiedono. In termini cognitivi, una componente di un oggetto o di una soluzione diventa automaticamente parte dell’insieme “da preservare”, anche quando non ha alcuna funzione utile. La sua rimozione è percepita come una perdita.
Tornando allo studio di Adams e colleghi, un elemento particolarmente interessante è emerso quando i ricercatori hanno introdotto una semplice modifica: ricordare ai partecipanti, prima dell'esercizio, che anche la rimozione di elementi era una possibilità. Con questa minima manipolazione, il numero di soluzioni sottrattive è aumentato significativamente.
Questo suggerisce che il bias non dipende da un errore di valutazione – le persone, una volta rese consapevoli, riconoscono i benefici della sottrazione – ma da un difetto nel processo generativo delle soluzioni. È una cecità progettuale, una sorta di buco nell’immaginazione. E la cosa affascinante è che riguarda anche contesti “alti”: la burocrazia istituzionale, le politiche ambientali, i processi decisionali pubblici. La complessità, anche quando è inutile, ha un’aria rassicurante. Ma è spesso un inganno cognitivo, un’abitudine mentale più che una necessità razionale.
Lo sanno meglio di tutti i designer. Studi in questo ambito (Norman, 2002; Maier & Fadel, 2009) indicano come i designer inesperti preferiscano sempre “caricare” un progetto con nuove funzioni piuttosto che eliminare ridondanze.
Le implicazioni di questa distorsione non dovrebbero essere sottovalutate. Nei processi decisionali, nei modelli organizzativi, nella comunicazione pubblica, nella progettazione tecnologica, nella governance istituzionale, siamo costantemente portati a complicare le soluzioni. Ogni elemento aggiunto – che si tratti di una regola, un modulo, una funzione, un vincolo – sembra rassicurante. Ma ha un costo nascosto: aumenta la complessità, rallenta i processi, rende tutto meno adattabile e resiliente.
Essere consapevoli del bias dell’addizione non è sufficiente per evitarlo. Come per molte altre distorsioni cognitive, la consapevolezza è una condizione necessaria ma non sufficiente. Servono promemoria, checklist, strumenti di valutazione che mettano sistematicamente sotto i riflettori la possibilità di togliere, semplificare, ridurre.
La nostra mente non sembra fatta per sottrarre. Ma possiamo allenarla a vederne il valore. Come ci ricorda Dieter Rams, uno dei maestri del design minimalista, Good design is as little design as possible.
Oggi sappiamo che vale anche per il pensiero creativo. Anche questo articolo, probabilmente, sarebbe stato migliore, se avessi tagliato qualcosa.
BIBLIOGRAFIA
Adams, Gabrielle, Benjamin A. Converse, Andrew Hales, and Leidy Klotz. “People Systematically Overlook Subtractive Changes.” Nature, vol. 592, no. 7853, 2021, pp. 258–261.
Kahneman, Daniel, and Amos Tversky. “Choices, Values, and Frames.” American Psychologist, vol. 39, no. 4, 1984, pp. 341–350.
Kahneman, Daniel, and Dale T. Miller. “Norm Theory: Comparing Reality to Its Alternatives.” Psychological Review, vol. 93, no. 2, 1986, pp. 136–153.
Lovell, Sophie. Dieter Rams: As Little Design as Possible. Foreword by Jonathan Ive, Phaidon, 2024.
Maier, Jennifer R., and Georges M. Fadel. “Affordance-Based Design Methods for Innovative Design.” Design Studies, vol. 30, no. 4, 2009, pp. 383–410.
Motterlini, Matteo. Trappole mentali: Come difendersi dalle proprie illusioni e dagli inganni altrui. Rizzoli, 2008.
Norman, Donald A. Il design delle cose di tutti i giorni. Translated by R. Boggiani, Giunti, 2002.
Samuelson, William, and Richard Zeckhauser. “Status Quo Bias in Decision Making.” Journal of Risk and Uncertainty, vol. 1, no. 1, 1988, pp. 7–59.
Thaler, Richard H. “Toward a Positive Theory of Consumer Choice.” Journal of Economic Behavior and Organization, vol. 1, no. 1, 1980, pp. 39–60.
Algomorfosi del corpo - Ibridazioni tecnologiche e altre forme di soggettività
Nel romanzo Solaris (Lem, 1961), un pianeta interamente ricoperto da un oceano senziente entra in relazione con l’equipaggio di una stazione spaziale attraverso manifestazioni enigmatiche e impersonali: simulacri generati dal profondo della psiche dei soggetti, costruiti dal pianeta stesso mediante un'intelligenza incommensurabile, radicalmente altra. Nessuna comunicazione è possibile secondo i codici noti, nessuna comprensione reciproca sembra avvicinabile. Eppure, un rapporto si stabilisce, venendo mediato da forme, da manifestazioni, da presenze plasmate da un’intuizione non umana del dolore, del desiderio, della memoria.
La nostra esperienza del mondo, nell’epoca degli algoritmi generativi, assume sempre più i tratti di un dialogo tra specie differenti. Interagiamo con intelligenze plurali che apprendono da noi attraverso logiche diverse dalle nostre, che ci osservano, che elaborano e ci restituiscono immagini dell’essere umano articolate secondo grammatiche con le quali condividiamo solo le radici. Gli algoagenti non sono Solaris, poiché condividono con la specie umana il sistema di linguaggio, ma, come Solaris, generano forme: tentativi di relazioni, costruzioni identitarie, configurazioni operative che rivelano e al contempo riscrivono le nostre traiettorie esistenziali, dinamiche intersoggettive che mutano la rappresentazione del quotidiano nel suo stesso accadere. Non si tratta più di temere l’opacità interattiva dell’altro ente, bensì di riconoscere che in essa si gioca una possibilità radicale di avanzamento delle conoscenze e di co-evoluzione. E se questa intelligenza si fa visibile nei gesti quotidiani, l’ambito della corporeità - nella sua interezza e complessità - rappresenta oggi uno dei territori privilegiati in cui l’ibridazione tra biologico e algoritmico si manifesta con forza crescente, strutturando una soggettività che si apre a nuove modalità di essere-con, a uno scambio attraversato da differenza, asimmetria e generatività.
L’ambito del corpo rappresenta uno dei terreni più concreti in cui si manifesta l’ibridazione crescente tra intelligenza biologica e algoritmica. Avendo già navigato nelle proiezioni fantascientifiche, siamo individui immersi in un presente in cui queste si manifestano, parzialmente, nei sistemi analitici basati su apprendimento automatico, protocolli predittivi e dispositivi di monitoraggio in tempo reale, così come da apparati protesici sempre più ibridati nel corpo umano. In molte aree specialistiche, dall’oncologia alla medicina d’urgenza, gli algoritmi, altre a supportare l’operatore umano, concorrono attivamente alla definizione delle traiettorie diagnostiche e terapeutiche, modificando il rapporto tra conoscenza, tempo e decisione. Tuttavia, questa trasformazione non si esaurisce nell’ambito clinico: essa trasborda, si espande, si diffonde nella quotidianità, donando strutture eterogenee alle modalità con cui percepiamo, abitiamo e agiamo il mondo rendendo il corpo una superficie sensibile di transizione (Borgmann, 2000). L’umano si relaziona al mondo attraverso dispositivi intelligenti che da protesi funzionali sono divenuti dispositivi di scambio capaci di modulare affetti, comportamenti, linguaggi, ritmi, costituendo un’architettura sociologicamente algomorfica (Grassi, 2024). In questo contesto, l’interfaccia non è un mezzo ma una soglia ontologica (Galloway, 2012): luogo di emersione del sé in co-evoluzione con l’algoritmo.
Un esempio emblematico è costituito dai dispositivi di realtà aumentata e mista – come i Google Glass, i Meta Smart Glasses o gli ambienti AR sviluppati da Magic Leap – che ridefiniscono la percezione visiva in senso operativo. Il campo visivo passa dall’essere una finestra soggettiva sul reale al ruolo di ambiente informativo dinamico, attraversato da flussi di dati computazionali che accompagnano, suggeriscono, traducono, anticipano, definendo la percezione come una forma di calcolo e il vedere come atto algoritmico.
Nell’ambito performativo e artistico, dalle opere biomorfe e interattive di Lucy McRae alle esperienze di Neil Harbisson e Moon Ribas – entrambi riconosciuti come cyborg – capaci di mostrare come le tecnologie protesiche possano diventare generatori di ulteriori espressioni di sensibilità, proponendo un’estetica del corpo come superficie ampliata (Swan, 2013). Questi dispositivi non ripristinano funzioni biologiche ma istituiscono nuovi canali percettivi, inaugurando una soggettività post-biologica, fondata su sensibilità estese e algoritmicamente mediate.
Nel campo delle interazioni affettive, sistemi come Replika e le nuove generazioni di social robot agiscono come interfacce del desiderio: strumenti predittivi capaci di apprendere preferenze, linguaggi affettivi e pattern emotivi. La consapevolezza individuale non è più centrata sull’unità coscienziale, ma emerge in reti cognitive distribuite tra umano e non umano, tra corpo e codice (Hayles, 2017), come nei racconti di Chiang (2011), in cui la memoria estesa diventa un dispositivo algoritmico capace di ridefinire il senso dell’identità personale attraverso la registrazione e rielaborazione continua del vissuto.
Persino nella gestione degli ambienti domestici, gli algoagenti si configurano come sistemi di governance ambientale (Bratton, 2015), capaci di regolare luci, suoni, temperatura, notifiche, attraverso interazioni vocali e automatismi appresi: la vita quotidiana è guidata da routine algoritmiche che intercettano abitudini, anticipano azioni e naturalizzano gli spazi di contatto, innescando delle divergenze ontologiche nella definizione della tecnica, sostenendo che ogni tecnologia porta con sé una cosmologia implicita, una visione del mondo (Hui, 2021), riscrivendo le coordinate percettive, cognitive, affettive.
Questa condizione genera una morfologia non indagata della soggettività: la protesi non è più esterna, né eccezionale ma pervasiva, integrata, invisibile; non è più strumento ma ambiente sensibile e cognitivo (Sha, 2013) che modula il modo in cui si è al mondo, si percepisce, si sente. È in questo interstizio che la sociologia algomorfica può riconoscere nell’ibridazione uomo-macchina una ulteriore ecologia del sé, in cui l’essere non si oppone alla tecnica ma si costituisce insieme a essa, nel flusso delle retroazioni, degli aggiornamenti, delle previsioni.
Nel paesaggio emergente delle tecnologie indossabili, delle neuroprotesi intelligenti e delle interfacce neurali dirette, il corpo umano ammette la sua incapacità di essere un’entità biologicamente autonoma, dichiarandosi naturalmente tecnologico e si riconfigura in tal modo come ambiente integrato, superficie modulare, ecosistema tecnoesteso. Tali tecnologie non si limitano a sostituire una funzione compromessa: ottimizzano, calcolano, predicono, correggono, potenziano, trasformando l’idea stessa di integrità organica, ridefinendo sia la relazione tra umano e macchinico, sia l’individualità incarnata e riscritta nelle sue condizioni di possibilità e nella sua plasticità identitaria.
L’algomorfosi descrive esattamente questo processo: la formazione del sé attraverso l’integrazione algoritmica nei circuiti sottocutanei. È una morfogenesi operazionale, una riscrittura identitaria che non si produce attraverso la rappresentazione ma attraverso l’azione continua dell’informazione sul vivente. Non si tratta di una minaccia alla soggettività ma di una sua condizione storica attuale che si riscrive nei codici della mediazione algoritmica, nel linguaggio non verbale delle retroazioni, delle ottimizzazioni continue, producendo una dinamicità in cui il sé diviene co-determinato, situato e modulato da interazioni complesse tra biologia, dati, calcolo e ambiente.
Se nella modernità alfabetica e tipografica il brainframe (de Kerckhove, 1992) era incarnato dalla linearità della scrittura e dalla logica dell’ordine testuale, oggi questa logica è stata soppiantata da una grammatica algoritmica, mobile, predittiva e relazionale. Gli algoagenti contemporanei – da Google a Siri, da GPT a Gemini, fino agli assistenti digitali embedded nei dispositivi – non si limitano a offrire supporti funzionali: essi configurano ambienti epistemologici, modellano desideri, anticipano bisogni, propongono percorsi ontologici potenzialmente non esplorati. L’interazione con assistenti conversazionali intelligenti introduce una nuova forma di dialogo simulato, in cui l’elaborazione cognitiva viene delegata, anticipata, stilizzata da un’intelligenza artificiale che impara dall’utente e lo guida attraverso forme conversazionali sempre più fluide. In questi casi, il brainframe non è più una semplice estensione mentale ma un dispositivo ambientale che riorganizza la soglia dell’attenzione, del pensiero e del sé. A differenza delle protesi tecniche classiche, che sostenevano capacità già possedute, gli agenti tecnologici contemporanei estendono, setacciano, introducono ulteriori prospettive di analisi e di saperi. Essi danno forma a un campo percettivo-cognitivo in cui il soggetto è co-emergente con la tecnica, frutto di un’ecologia relazionale che abbatte le dicotomie limitanti.
L’algoritmo non è più soltanto uno strumento operativo né una funzione astratta del potere computazionale ma una forma – una morphé – che codifica, innerva, riorienta ambienti sensibili, capaci di modulare la struttura del pensare e del percepire. Esso agisce come forza di configurazione in cui la costruzione del sé non viene cancellata ma riformulata nella sua struttura percettiva, sensoriale e relazionale. E proprio come un’alga – organismo antico, plastico, diffuso – l’agente algoritmico cresce, si estende, si adatta, filtrando e restituendo ciò che attraversa. Non ha volontà né coscienza ma presenza trasformativa. Nell’oceano sociotecnico in cui siamo immersi, gli algoagenti dismettono il compito di entità esterne per assurgere al ruolo di partner evolutivi, forme altre della soggettività che stiamo diventando.
RIFERIMENTI BIBLIOGRAFICI PRINCIPALI
Borgman A. (2000), Holding On to Reality: The Nature of Information at the Turn of the Millennium, University of Chicago Press, Chicago.
Bratton B. H. (2016), The Stack: On Software and Sovereignty, MIT Press, Cambridge.
Chiang T. (2011), Il ciclo di vita degli oggetti software, Delos Books, Milano.
de Kerckhove D. (1992), Brainframes. Mente, tecnologia, mercato, Baskerville, Bologna.
Galloway A. R. (2012), The Interface Effect, Polity Press, Cambridge.
Grassi E. (2024), Per una sociologia algomorfica. Il ruolo degli algoritmi nei mutamenti sociali, FrancoAngeli, Milano.
Hayles N. K. (2017), Unthought: The Power of the Cognitive Nonconscious, University of Chicago Press, Chicago.
Hui Y. (2021), Art and Cosmotechnics, Eflux Architecture, New York.
Lem S. (1967), Solaris; trad. it. Solaris, Editrice Nord, Milano, 1973.
Sha X. W. (2013), Poiesis and Enchantment in Topological Media, MIT Press, Cambridge.
Swan M. (2013), The Quantified Self: Fundamental Disruption in Big Data Science and Biological Discovery, in Big Data, 1(2):85-99. doi: 10.1089/big.2012.0002.
In rel-Azione: una riflessione sul concetto di Intelligenza nel paradigma dell’Embodied Cognition
TO THE BODY AND BACK: L’INTELLIGENZA OLTRE I CONFINI DEL CRANIO
Nella lunga tradizione filosofica e psicologica, il termine intelligenza è stato senza dubbio uno dei costrutti più complessi e controversi della storia della scienza e del pensiero occidentale. Per molto tempo il dibattito sull’intelligenza si è snodato su vari terreni e argomenti teorici. Sin dai tempi più remoti l’essere umano ha tentato di definire limiti e condizioni di possibilità̀ di questo termine, identificando e strutturando tassonomie, relazioni e gerarchie intorno a questo concetto così controverso. La storia moderna dell’intelligenza si è sovrapposta per moltissimo tempo alla storia della sua misurazione, con particolare riferimento alla determinazione delle facoltà intellettive e dei tratti primari e secondari dell’intelligenza o al dibattito tra nature versus nurture, ovvero tra la determinazione ereditaria e genetica dell’intelligenza in contrapposizione all’acquisizione culturale dei tratti specifici di essa.
L’embodied cognition, ovvero la cognizione “incarnata”, è stata una delle correnti che ha contribuito a rivoluzionare il modo in cui consideriamo l’intelligenza e la cognizione non solo degli esseri umani, ma degli organismi e che suggerisce delle riflessioni interessanti anche rispetto alla definizione di Intelligenza Artificiale.
Essa è parte di un più ampio movimento teorico, la 4E Cognition, nato nella prima metà degli anni Novanta del Novecento all’interno di ambiti disciplinari come la filosofia della mente, la psicologia e le neuroscienze cognitive. Questo approccio teorizza una dimensione della mente embodied (incarnata), embedded (situata), enacted (interattiva) ed extended (estesa), radicandosi all’interno del Lieb, del corpo vivo e che esiste nel mondo, in costante relazione con l’ambiente; nel caso della nostra specie, un ambiente fisico, relazionale e tecnologico. La mente, dunque, emerge nel cervello ma si sviluppa anche al di fuori del cranio, attraverso la totalità corporea: l’individuo co-costruisce la propria esperienza cognitiva attraverso le interazioni corpo-mondo. Per l’embodied cognition l’attività cognitiva è un processo che integra l’esperienza vissuta e soggettiva, il corpo e l’ambiente, in un’unica prospettiva attiva e dinamica, dando vita al corpo-mente.
Il modello della mente “incarnata” caratterizza, dunque, le scienze cognitive di seconda generazione e ha consentito il superamento della dicotomia cartesiana tra res cogitans e res extensa, ovvero la separazione tra mente e corpo.
ERROR 404: LA MENTE NON È UN COMPUTER
Il modello dualista cartesiano aveva influenzato lo studio della mente per buona parte della storia della filosofia e della psicologia e, non ultimi, i fondamenti stessi della Scienza Cognitiva, all’interno della quale nasce anche l’Intelligenza Artificiale.
La Scienza Cognitiva Classica, infatti, ha sostenuto per molto tempo un approccio teorico di stampo meccanicistico, incentrato sulla funzione come oggetto di studio principale dei meccanismi mentali. In questo framework teorico è emersa una metafora molto potente: la metafora della mente-computer.
L’analogia della mente come una macchina era tale per cui un software (la mente) potesse essere implementato indipendentemente dall’hardware (il cervello e, in estensione, il corpo): essa sublima la frattura tra gli organismi e il proprio mondo, quello che Jakob von Uexküll definisce Umwelt (von Uexküll, 1933, Ambienti animali e ambienti umani. Una passeggiata in mondi sconosciuti e invisibili). Questo termine è stato introdotto all'inizio del Novecento dal biologo tedesco per indicare l’ambiente così come è percepito e vissuto dagli organismi in base alle proprie caratteristiche specie-specifiche e alle possibilità di interazione con esso[1].
Il ruolo del corpo, dunque, nella determinazione dei processi cognitivi assume una posizione subordinata tanto che, come provocatoriamente suggeriva il filosofo della mente Hilary Putnam nel celebre esperimento mentale del 1981, A brain in a vat[2], potrebbe essere fatto tanto di carne quanto di “formaggio svizzero”.
Le neuroscienze relazionali e affettive la filosofia della mente neuro biologicamente fondata convergono nella definizione di una nuova immagine di cosa vuol dire avere una mente e avere un corpo. Nella prospettiva della cognizione incarnata, si assume così un’estensione dei processi cognitivi, considerandoli non più limitati al cervello-mente ma estesi al cervello-corpo-ambiente, intendendo per ambiente non un mondo esterno, asettico e da costruire, ma un ambiente che è interno ed esterno allo stesso tempo, vivo, dinamico e “vischioso”, per utilizzare un termine di Canguilhem (1966, Le normal et le pathologique). Da questa visione emerge un approccio poliedrico alla mente, che integra il ruolo del corpo, del vissuto emotivo e soggettivo nell’ambiente in cui l’organismo si sviluppa.
Come ha scritto Francisco Varela: «Gli organismi non ricevono passivamente informazioni dai loro ambienti, che poi traducono in rappresentazioni interne. I sistemi cognitivi naturali [...] partecipano alla generazione di significato [...] impegnandosi in interazioni trasformazionali e non semplicemente informative: esse mettono in atto un mondo.»[3]
ORGANISMI IN (INTER)AZIONE
Nella prospettiva ecologica proposta dallo psicologo americano James J. Gibson (1979, The Ecological Approach to Visual Percepetion) non siamo noi a elaborare cognitivamente l’idea del mondo esterno; il soggetto assume una posizione centrale nel suo ambiente a partire dalla capacità di interagire con esso, sulla base di ciò che esso stesso offre in termini di stimoli.
L’ambiente, dunque, fornisce agli organismi gli elementi necessari per agire e sopravvivere (affordance), senza bisogno di complesse integrazioni o deduzioni mentali. Si pone quindi come elemento cruciale il rapporto tra gli organismi e il loro specifico ambiente di vita. Il mondo esterno, dunque, diventa "il mondo per me": la mente e l’ambiente degli organismi sono inseparabili, in un costante processo di interazione e modellamento reciproco. Esso, allora, diviene lo “spazio di vita” di Kurt Lewin (1936, Principi di psicologia topologica), la nicchia ecologica di Gibson (1979) che ogni organismo ritaglia nel mondo, come suggerisce Benasayag (2016, Il cervello aumentato l’uomo diminuito). È lì che mondo interno e mondo esterno sono separati solo dalla pelle, che fa da ponte della relazione osmotica e interdipendente tra i due. L’ambiente non consente l’azione, esso è lo spazio di azione nel momento in cui un organismo lo esperisce e percepisce.
Non è la rappresentazione del mondo, ma la relazione che chiama il soggetto all’azione e alla costruzione di una realtà significante.
Non ci rappresentiamo, dunque, la realtà da un punto di vista esterno, ma la conosciamo interagendo con essa nel qui e ora fenomenico, sulla base delle caratteristiche specie specifiche e del vissuto individuale. E non ci contrapponiamo all’altro, ma ci riconosciamo nella simulazione incarnata e nel rispecchiamento empatico presente nelle nostre aree motorie. Il cervello umano, lungi dall’essere un meccanismo predefinito, è un organo poroso e plastico, che rimodula costantemente le proprie relazioni interne sulla base dell’esperienza con il mondo e del cablaggio specifico degli organismi.
Nel corpo, dunque, si sedimentano e stratificano le esperienze del proprio vissuto, le esperienze di un corpo capace di includere, di incorporare gli strumenti, i mezzi e di essere modificato dall’ambiente e di modificarlo costantemente in una transazione dinamica e in rapporto circolare, come suggerito dalle recenti ricerche condotte nell’ambito della Material Engagement Theory (Malafouris, 2018, Bringing things to mind. 4E’s and Material Engagement).
MACCHINE COME ME?
L’intelligenza, dunque, nella prospettiva dell’embodiement non è una proprietà isolata che emerge indipendentemente dal corpo e dal mondo, come aveva sostenuto la Scienza Cognitiva Classica, ma si co-costruisce attraverso la relazione tra mente, corpo e ambiente.
La possibilità di ampliare le nostre funzioni oltre i confini della pelle, che sia attraverso un foglio di carta, una calcolatrice o una macchina, può essere considerata un’estensione “artificiale” di funzioni naturali che co-evolvono e si modellano reciprocamente da un punto di vista biologico e culturale, rimodulando in modo strutturale la percezione del mondo, che è allo stesso tempo modificata dall’azione attraverso esso, come sostenuto anche dalla prospettiva della cognizione extended.
Oggi la cognizione embodied rivolge, dunque, la propria attenzione al ruolo del corpo e alle sue capacità sensoriali e motorie in quanto elementi cruciali nella formazione dei processi cognitivi. Ciò anche in base a evidenze neurobiologiche che dimostrano come la dimensione fisica, sociale e informativa dell’ambiente assumano una rilevanza imprescindibile nella trama dinamica intessuta dall’interazione degli agenti cognitivi col loro ambiente di vita, in una prospettiva filogenetica e ontogenetica.
Attraverso la lente teorica dell’embodied cognition e della prospettiva epigenetica, dunque, il termine intelligenza non si configura più come un concetto riducibile ad un elenco di funzioni “incapsulate” (Fodor, 1983, The Modularity of Mind: Essay on Faculty Psychology) all’interno della mente-computer, ma come il risultato di un insieme di componenti biologiche e culturali che caratterizzano ed evidenziano la singolarità e l’unicità nella vita degli organismi. La plasticità, intesa come struttura portante e condizione di possibilità del cervello di creare connessioni e circuiti modulati sulla base dell’esperienza e dell’interazione senso-motoria del corpo con l’ambiente, si configura come una forma di creatività, determinata dal connubio tra biologia e cultura, necessaria e fondamentale per l’emergere di un pensiero intelligente.
I sistemi artificiali attuali operano su correlazioni statistiche e schemi computazionali che, per quanto complessi, non emergono da un’interazione incarnata e soggettiva con il mondo. Più che un’“intelligenza” artificiale, dunque, potremmo parlare di una capacità computazionale estremamente avanzata, di una simulazione statistica della cognizione che, per quanto efficace nella risoluzione di determinati compiti, non condivide una forma intenzionalità, di sensibilità e di conoscenza incarnata che caratterizza gli organismi.
Tra le sfide future più avvincenti vi è sicuramente quella di ridefinire il nostro rapporto con l’Intelligenza Artificiale, evitando di proiettare su di essa categorie che appartengono al nostro modo biologico di essere-nel-mondo, comprendendo che essere una mente (e non possedere una mente), in senso proprio, è incarnato dall’esperienza di un corpo vivo che abita il mondo in relazione con altri corpi (Morabito, 2020, Neuroscienze cognitive: plasticità, variabilità, dimensione storica) in una danza continua con essi.
NOTE
[1] Von Uexküll ha rivoluzionato il concetto di ambiente nella biologia moderna, mettendo in discussione la visione antropocentrica di ambiente: ogni essere vivente, infatti, percepisce e interagisce con il mondo in modo soggettivo e specie specifico. Gli organismi co-costruiscono il proprio ambiente in base alle proprie caratteristiche morfologiche e fisiologiche, instaurando con esso un legame inscindibile. Il Merkwelt, infatti, rappresenta ciò che il soggetto percepisce, ossia il suo mondo sensoriale, mentre il Wirkwelt riguarda le sue azioni e interazioni. Insieme, questi due aspetti costituiscono un sistema complesso, l’Umwelt, che connota l’ambiente non più come uno spazio informazionale “passivo”, ma in costante relazione attiva con il vivente.
[2] Gilbert Harman è stato uno dei primi filosofi a sviluppare e formalizzare l'idea del "Cervello nella vasca" nell'ambito della filosofia della mente e dell'epistemologia. Sebbene l'esperimento mentale sia associato principalmente a Hilary Putnam, Harman, già negli anni '70, aveva esplorato simili concetti, utilizzando la metafora del cervello nella vasca per affrontare le problematiche legate alla percezione e alla conoscenza. cfr. Harman G., 1973: Thought, Princeton University Press, Princeton.
[3] «Organisms do not passively receive information from their environments, which they then
translate into internal representations. Natural cognitive systems [...] participate in the generation of meaning[...] engaging in transformational and not merely informational interactions: they enact a
world. » Varela, F., Rosch, E., Thompson, E., (1991), The Embodied Mind. Cognitive Science and Human Experience, MIT Press, Cambridge. (traduzione mia).
NOTE BIBLIOGRAFICHE
Benasayag, M. (2016) Il cervello aumentato l’uomo diminuito, Erickson
Canguilhem, G. (1966), Le normal et le pathologique, Paris: Presses Universitaires de France.
Fodor, J. (1983), The Modularity of Mind: Essay on Faculty Psychology, MIT press.
Gibson, J.J. (1979), The Ecological Approach to Visual Percepetion, Hougton Miffin, Boston.
Malafouris, L. (2018), “Bringing things to mind. 4E’s and Material Engagement” in Newen, A., De Bruin, L., Gallagher, S., The Oxford Handbook of 4E cognition.
Morabito, C., 2016, Neuroscienze cognitive: plasticità, variabilità, dimensione storica, in Mentecorpo: il cervello non è una macchina, «Scienza& Società» n.21/22.
Morabito, C. (2020), Il motore della mente. Il movimento nella storia delle scienze cognitive, Laterza-Bari.
Lewin, K. (1936), Principi di psicologia topologica, Edizioni OS, Firenze (ed.it.1961)
Noë A., (2010), Out of the head. Why you are not your brain, MIT Press, Cambridge MA, trad. it. Perchè non siamo il nostro cervello. Una teoria radicale della coscienza, Raffaello Cortina Editore, Milano
Varela, F., Rosch, E., Thompson, E., (1991), The Embodied Mind. Cognitive Science and Human Experience, MIT Press, Cambridge (Mass.).
von Uexküll, J. (1933), Umwelt und Innenwelt der Tiere, Berlin: Springer (trad. it. Ambienti animali e ambienti umani. Una passeggiata in mondi sconosciuti e invisibili, Macerata: Quodlibet, 2010).
Il tempo schermo - La contesa dell’attenzione
Che cosa succede all'attenzione quando stanno tanto tempo davanti a uno schermo?
Sembra che bambini e bambine siano più calmi e più attenti, ma è davvero così? Il tipo di attenzione che viene mobilitata davanti allo schermo non è la stesso che si mobilita nella lettura di un libro o nel dover maneggiare degli oggetti fragili. Gli studi scientifici dell’ultimo secolo ci spiegano molto di come funzionino i processi attenzionali, e gli studi di questo secolo sul tempo schermo ci spiegano non solo perché lo schermo non sviluppa l’attenzione utile a scuola, ma perché limiti il potenziale di apprendimento umano specialmente nei primi mille giorni di vita ma in generale in tutto il periodo dello sviluppo se l’uso è intenso, come consigliato ormai da pediatri di molte parti del mondo, compresa la Società Italiana di Pediatria.
Gli effetti del tempo schermo includono anche l'esposizione agli schermi indiretti. Da ormai una ventina d’anni gli studi hanno misurato l’impatto degli schermi nella diminuzione delle interazioni verbali, non verbali e di gioco nei primi quattro anni con diversi studi sperimentali su coppie di genitori con bambino che restavano con lo schermo spento e con lo schermo acceso in diverse situazioni. Registrati i comportamenti, si è scoperto che lo schermo diminuiva le interazioni verbali e non verbali e l’attenzione focalizzata su dei giocattoli, aumentando invece le interruzioni di gioco (Anderson e Pempek, 2005). Più recenti esperimenti hanno osservato che i genitori che usano lo smartphone in presenza dei loro bambini durante dei pranzi hanno una minor interazione (rispetto ai genitori che non lo usano) cioè disattivano il canale attenzionale non verbale (Radesky et al. 2014). Il fatto di ricevere attenzione e di prestare attenzione sono infatti fenomeni collegati perché nell’infanzia lo sviluppo dell’attenzione congiunta (dai 6 ai 24 mesi) è il prerequisito per lo sviluppo del linguaggio.
Per capire meglio l’effetto negativo dello schermo è utile soffermarsi sulla distinzione tra comprensione e apprendimento. Un video permette la comprensione di parole e contenuti già noti e già appresi ma molto difficilmente, e con molte condizioni particolari, ma soprattutto rarissimamente nei primi sei anni di vita, il video facilita l’apprendimento di parole e ne abilità nuove. Nei primi tre anni un bambino esplora con i cinque sensi il mondo circostante, prende con le mani, porta alla bocca, ascolta e usa tutti i suoi sensi per apprendere. Soprattutto però impara attraverso il fenomeno dell’attenzione congiunta, o joint attention, che è la capacità di coordinare l’attenzione tra due persone e un oggetto o evento, richiedendo un impegno continuo di entrambi. Questo processo è stato ampiamente studiato poiché rappresenta un indicatore dello sviluppo psicomotorio infantile, oltre a predire la qualità delle relazioni di attaccamento e delle interazioni sociali future. Il biologo Michael Tomasello la descrive come la capacità specie specifica, cioè propriamente umana, alla base del linguaggio, della cooperazione, della morale umana. Per svilupparsi, l’attenzione congiunta si basa su elementi fondamentali come l’aggancio oculare, il contatto visivo e la "sintonizzazione degli affetti" (Stern), prerequisiti essenziali per le capacità comunicative e per lo sviluppo della teoria della mente — la capacità, tipica di un bambino di quattro anni, di comprendere il punto di vista di un’altra persona (Aubineau et al., 2015). La forma più avanzata, l’attenzione congiunta coordinata, implica che il bambino si impegni attivamente sia con un adulto sia con un oggetto.
Negli ultimi vent’anni molti dati sono stati inoltre stati raccolti per descrivere il video deficit effect, indicando come gli schermi possano ostacolare l'apprendimento, a partire dall'apprendimento fonetico e linguistico nei primi quattro anni. Sebbene tramite schermi si possano comprendere alcuni contenuti adeguati all'età (specialmente con l'aiuto dei genitori) diverso è il caso dell’apprendimento (che è un passo ulteriore rispetto alla mera comprensione di una storia) perché l'attenzione è profondamente diversa di fronte a un altro essere umano: dal vivo o in presenza si attiva l’attenzione emotiva, multisensoriale. L’attenzione mobilitata dagli schermi è molto spesso di tipo bottom-up: è la medesima mobilitata in tutti gli animali di fronte a forti luci e suoni, di fronte a pericoli. Diversi neuroscienziati distinguono un’attenzione di tipo top-down (dal centro alla periferia), da una botton-up (dalla periferia al centro). L’individuo è attraversato continuamente da stimoli esterni e interni difficili da distinguere, dove l’attenzione è letteralmente contesa all’interno dell’individuo: “L’attenzione si orienta spontaneamente verso elementi naturali esterni più attraenti come le pubblicità o i video-schermi” (Lachaux 2012, p. 249). L’attenzione viene contesa da diverse forze, da diversi oggetti, ma è lecito parlare di attenzione esogena , quando prevale lo stimolo esterno, e attenzione endogena, quando prevale lo stimolo interno – una sorta di “controllo volontario dell’attenzione”. Sicuramente cosa sia esattamente l’attenzione – che non è la volontà - non è facile da stabilire e gli approcci socio-antropologici ci ricordano la costruzione sociale di tale dimensione (Campo 2022).
In ogni caso disponiamo di numerosi studi che rilevano una correlazione tra l'uso precoce e prolungato degli schermi e problemi di attenzione successivi. Quello di Tamana del 2019 è uno dei più citati studi longitudinali: ha esaminato circa 2500 bambini/e canadesi dai 3 ai 5 anni, evidenziando come un tempo schermo superiore alle 2 ore giornaliere aumentasse il rischio di problemi di attenzione negli anni successivi. La relazione tra l'uso degli schermi e il disturbo da deficit di attenzione (ADHD) è stata messa in discussione nonostante già Christakis avesse evidenziato la presenza di una correlazione tra un’alta esposizione agli schermi e un alto rischio di problemi di linguaggio e di attenzione (Christakis, 2005, 2007). La maggior parte degli studi di neuropsicologia evidenzia cause epigenetiche per il disturbo da deficit di attenzione, nonostante l'aumento globale delle diagnosi negli ultimi vent'anni; in generale tra gli specialisti c’è molta resistenza a parlare di cause ambientali per ADHD anzi gli schermi vengono ancora spesso prescritti spesso nelle prognosi di bambini con DSA o con diagnosi di ADHD. L’idea che un tempo schermo precoce e prolungato possa aumentare i rischi di generici problemi di attenzione o patologie diagnosticate come ADHD è però avanzata da studi recenti sempre più inclini a considerare tale uso come un fattore significativo. Anche uno studio longitudinale di Madigan ha concluso che sono gli schermi a causare i problemi di attenzione e non viceversa: una maggiore quantità di tempo schermo a 24 mesi d’età è stata associata a prestazioni più scarse nei test di valutazione successivi. Analogamente, un maggiore tempo trascorso davanti allo schermo a 36 mesi è stato correlato a punteggi più bassi nei test dello sviluppo cognitivo a 60 mesi. L’associazione inversa, invece, non è stata osservata (Madigan et al., 2019). Un recente metastudio (Eirich et al., 2022) segnala la correlazione tra un uso precoce e prolungato degli schermi e i successivi problemi di attenzione in bambini/e di età pari e inferiore a un anno nella maggior parte degli studi esaminati.[1]
Le app e gli algoritmi che alimentano la fruizione degli schermi sono progettati deliberatamente per mantenere i bambini attaccati agli schermi il più a lungo possibile, non per fornire programmi educativi. Questo è descritto molto bene dai formatori dei vettori commerciali denominati app, come si può evincere dal brillante saggio di uno di questi formatori, Nir Eyal. L’aumento dell'impulsività e la cattura dell’attenzione sono gli obiettivi dichiarati dagli agenti del marketing che per tale fine mettono a disposizione piattaforme gratuite: quando bambini e bambine anziché fare i compiti o leggere o giocare fra loro passano ore davanti allo schermo questi proprietari delle app aumentano i loro profitti. Basta guardare chi sono le persone più ricche al mondo e l’incidenza del pubblico giovanile. Incapaci di mantenere la concentrazione su attività prolungate i “bambini digitali” sono sempre più esigenti e conformati in materia di consumi.
Sempre più esperti sollevano il dubbio se la “generazione digitale” non stia affrontando un problema specifico. Anche senza una dimostrazione di causalità con l'ADHD, il tempo schermo è un fattore che amplifica l’impulsività, la disattenzione e la distraibilità. Dopo il Covid-19, molti insegnanti segnalano uno stato diffuso di distraibilità permanente. Le prove si accumulano, e ignorare il fenomeno non aiuta a iniziare a risolvere il problema. Si parla sempre più spesso di “attenzione frammentaria” per descrivere questa nuova sfida educativa e sociale o altri termini quali: “attenzione disrupted” (interrotta e distratta), “attenzione parziale continua”, “attenzione spezzetata”. Non è certamente quella virtù propria del multitasking attribuita a torto ai “nativi digitali” con il concetto equivoco di “iperattenzione”, che trasformava i bambine/i iperattive/i e impulsive/i in bambine/i capaci di nuove “qualità attentive” (Hayles). Dobbiamo prendere atto che gli schermi stanno precludendo la possibilità di sviluppare un’attenzione umana cooperativa e congiunta. L’isolamento e la disgiunzione dell’attenzione non ha un impatto solo cognitivo ma anche emotivo e relazionale. Non siamo di fronte a una generazione ansiosa, ma a una generazione oppressa. Gli schermi schermano le relazioni, si frappongono tra uno sguardo e l’altro, interrompono l’attenzione congiunta.
In conclusione gli schermi amplificano negativamente tutte le dimensioni dell’attenzione. Un uso prolungato e precoce agisce su un ampio spettro, amplificando disattenzione (causata da stanchezza), distrazione (stimoli esterni), distraibilità (tendenza acquisita a distrarsi) e, in casi estremi, disabilità attentiva (ADHD). Ridurre il tempo schermo, invece, migliora l’attenzione e i risultati scolastici. Molti insegnanti con anni di esperienza segnalano un declino significativo nelle capacità attentive degli studenti. È come se su questo pianeta fosse arrivato un pifferaio magico e i nostri bambini e bambine non potessero fare a meno di seguirlo con in mano il loro cellulare. Questo pifferaio ha aumentato il tempo schermo nell’infanzia, ma ha diminuito il tempo di sonno, il tempo di lettura e soprattutto il tempo di gioco, e altre temporalità essenziali per l’apprendimento.
Ma è davvero così? Le famiglie ricche e figli e le figlie di ingegneri della Silicon Valley vengono protette/i e non abbandonate/i davanti agli schermi.
Questo fenomeno è molto più diffuso nelle classi povere. E allora non è forse lecito parlare di una vera e propria contesa dell’attenzione? È forse venuto il tempo di prendere consapevolezza per riportare l’attenzione al centro dei processi educativi senza delegarlo al tempo schermo.
NOTE
[1] Per una ampia bibliografia il testo tradotto in italiano più completo è Desmurget M. (2020) Il cretino digitale. Difendiamo i nostri figli dai veri pericoli del web, Rizzoli, Milano. Mi sia permesso rimandare al mio saggio: L’attenzione contesa, come il tempo schermo modifica l’infanzia, Armando, Roma.
Il tempo schermo e i suoi impatti educativi sull’infanzia
Le tecnologie digitali non sono né buone né cattive, ma nemmeno neutre. Il concetto di "tempo schermo”, benché sia poco diffuso in Italia, gode di un ampio uso in ambito internazionale ed è particolarmente adatto per comprendere gli effetti di un’esposizione precoce e prolungata su bambine/i. Il tempo schermo è l’insieme delle ore trascorse davanti a uno schermo, indipendentemente dal tipo di contenuto o dal tipo di dispositivo (connesso o meno a internet) sia esso smartphone, televisione, tablet o qualsiasi altro schermo. Il concetto permette quindi di non guardare solo alle tecnologie digitali “recenti” e includere la “vecchia” televisione, anche perché con l’arrivo delle smart Tv la distinzione è sempre più sfumata. Paradigmatico è oggi You Tube che è sia un canale televisivo, sia una app di smartphone, sia una piattaforma di internet, ed è seguitissimo da piccoli/e.
Oggi, la presenza di schermi in ogni casa è significativa: in una famiglia occidentale media (di quattro persone) ci sono dieci schermi; si tratta di diversi dispositivi, per lo più connessi a internet, che caratterizzano un vero e proprio “ambiente schermo" in cui i bambini crescono. Questa disponibilità di schermi – per lo più accesi e visti anche in modo indiretto – contribuisce a modellare l’ambiente, il ritmo di vita, gli stimoli e le stesse attività quotidiane, con impatti misurabili anche in termini di minore parole ricevute e prodotte e maggiori interruzioni di attenzione focalizzata.
IMPATTO DEL TEMPO SCHERMO SULLO SVILUPPO FISICO E MENTALE
L'aumento del tempo schermo riduce drasticamente altre temporalità essenziali nell’infanzia, come il tempo di sonno, di gioco libero, di interazione sociale; riduce il tempo trascorso all'aria aperta e il tempo della lettura. Gli studi in letteratura scientifica confermano che il tempo schermo ha un impatto sia diretto sia indiretto su questi tempi, i quali sono fondamentali per l’apprendimento e lo sviluppo delle capacità cognitive, sociali e sullo stesso sviluppo psicofisico, soprattutto nei primi cinque anni di vita, per i quali l’OMS consiglia il meno tempo schermo possibile, in particolare zero minuti nei primi due anni.[1]
È importante chiarire però che non è corretto affermare che il tempo schermo abbia sempre un impatto negativo sullo sviluppo psicofisico: fattori come il contesto familiare, il tipo di contenuti fruiti e le differenze individuali di bambini/e giocano un ruolo cruciale nel determinare l’entità dell’effetto. D’altro canto, il tempo schermo precoce (prima dei cinque anni) e prolungato (superiore alle due ore giornaliere dopo i cinque anni) è certamente un fattore di rischio, poiché aumenta le probabilità di riscontrare problemi di vario tipo. È anche opportuno precisare che i dati mostrano che gran parte del tempo schermo nei bambini da 0 a 8 anni è impiegato per la visione di brevi video (73%) o videogiochi (16%), e quindi, al netto di eccezioni, minoranze e contesti specifici, il tempo schermo non è un tempo dedicato a contenuti adeguati all’età, ad app effettivamente educative o dedicate a un uso creativo.
Le principali associazioni pediatriche a livello mondiale, basandosi su una vasta letteratura scientifica, sottolineano come il tempo schermo influenzi aspetti fondamentali dello sviluppo, quali la vista, l’alimentazione, il rischio di sovrappeso e, soprattutto, il sonno; nell’area cognitiva influisce negativamente su attenzione, linguaggio, memoria e quindi capacità scolastiche. Inoltre, sono stati riscontrati effetti relazionali come ansia, depressione, isolamento sociale, cyberbullismo, dipendenze che sollevano preoccupazioni per il benessere mentale a lungo termine. Benché nei prossimi anni possano divenire tra gli effetti più preoccupanti, sono ancora poco studiati gli effetti sulla intimità, affettività e sessualità dovuti a una esposizione precoce a video pornografici (l’età media si sta abbassando spaventosamente persino sotto i dieci anni), al punto che in Spagna si parla di Generación Porno.
Il mio interesse di ricerca si concentra sui rischi legati all’esposizione precoce e prolungata agli schermi in bambine/i, dalla nascita fino alla fine della scuola primaria, dove insegno. Sono anni in cui si apprendono le cose essenziali per la vita, ma anche anni vulnerabili: sono anni in cui si sviluppano le capacità cognitive alla base della carriera scolastica, nei primi quattro anni il linguaggio orale, fino a dieci la letto-scrittura.
La psicologia dell’età dello sviluppo ci spiega che l’attenzione e il linguaggio si possono sviluppare solo con una relazione umana; il tempo schermo non solo non sviluppa queste capacità ma spesso lo rallenta[2] Infatti in assenza del cosiddetto "co-viewing" – ovvero la visione congiunta dei contenuti e il dialogo costante con l’adulto su ciò che si sta vedendo e facendo – l’apprendimento tramite schermi risulta non solo limitato ma anche limitante poiché intacca i prerequisiti di apprendimento, rendendo l’attenzione più frammentata. Un’intera linea di esperimenti nota come il video deficit effect spiega proprio come l’apprendimento (non la comprensione) sia migliore con la presenza umana, mentre risulti molto arduo se non persino assente, quando è mediato dagli schermi. Il "co-viewing" è considerato una condizione essenziale per garantire che i bambini traggano un beneficio educativo reale da questi dispositivi, riducendo gli effetti negativi. Per fare in modo che si possa apprendere tramite gli schermi fino all’inizio della scuola primaria è caldamente consigliata la presenza e la mediazione adulta, non solo nella scelta dei contenuti ma proprio nell’attività di ascolto e interazione. Il che è in palese contraddizione con quanto fanno oggi gli adulti, che danno gli schermi proprio per essere separati (o non disturbati) dai bambini.
LE SETTE CARATTERISTICHE DEL TEMPO SCHERMO
Il tempo schermo si caratterizza per lo più per alcune caratteristiche che derivano dal suo far parte dei mezzi di comunicazione di massa con le relative evoluzioni digitali del XXI secolo. Benché si possano fare usi creativi e attivi del digitale, e la Media Education ne descriva una infinità, essi rimangono “potenzialità” auspicate, perché la realtà è meno edulcorata di come questa disciplina di norma ce la presenta; le salienze del tempo schermo possono essere sintetizzate in sette punti che ne indicano la tendenza:
- Sedentarietà. La caratteristica principale del tempo schermo è la sedentarietà. Il movimento di mani e piedi è essenziale nei primi anni di vita per lo sviluppo del cervello, mentre il tempo schermo smaterializza il corpo immobilizzandolo. La mancanza di attività fisica associata all’uso prolungato degli schermi può influenzare negativamente lo sviluppo fisico e cognitivo del bambino.
- Deprivazione Sensoriale. Il tempo schermo è limitato quasi esclusivamente alla visione, deprivando la stimolazione multisensoriale di cui il bambino ha bisogno (tatto, olfatto, gusto e anche l’ascolto della parola nella misura in cui i dialoghi sono spesso inutili). Recenti studi oftalmologici hanno inoltre osservato che l’uso precoce di piccoli schermi può portare a un aumento della miopia in bambini/e e dello strabismo con ulteriori effetti negativi persino sulla capacità di lettura e di equilibrio.
- Convergenza Digitale. La convergenza digitale, ovvero il fatto che un dispositivo sia contemporaneamente telefono, telegrafo, macchina fotografica, e la possibilità di utilizzare lo stesso contenuto (per es. un videogioco, una partita di calcio, ecc…) su diversi dispositivi (televisione, tablet, smartphone), comporta il precipitare di ogni esperienza nel tempo schermo, con una fruizione continua e spesso priva di interruzioni lunghe, pervasiva e difficilmente limitabile.
- Illimitatezza. Le piattaforme digitali sono progettate per offrire contenuti in maniera continua, senza una "fine" naturale, tramite algoritmi che rilevano e si adattano alle preferenze dell’utente, incentivando un uso prolungato dello schermo.
- Divertissment. La maggior parte delle app e dei contenuti rivolti ai bambini è pensata principalmente per il divertissment, termine francese che designa il distrarre, il divertire, l’intrattenere. Non hanno scopo principalmente educativo. Questo tipo di intrattenimento punta alla "distrazione" eterodiretta, cioè a una gestione dell’attenzione orientata a trattenere il bambino davanti allo schermo divertendolo, che è esattamente il contrario della salutare distrazione propria al fantasticare della rêverie.
- Spettacolarità e isolamento. Il tempo schermo è spesso una fruizione individuale, che comporta l'isolamento sociale perché ciascuno ha il suo schermo; limita le attività di gruppo e le interazioni faccia a faccia, limitando così lo sviluppo di abilità sociali cruciali.
- Cronofagia. Il tempo schermo distorce la percezione del tempo. Bambini e adolescenti spesso non riescono a controllare il tempo trascorso davanti agli schermi, con un impatto negativo sulla gestione del tempo. Questo effetto è stato definito filosoficamente "cronofagia", ovvero la capacità di “divorare” il tempo.
In aggiunta, studi recenti indicano che l’esposizione precoce e prolungata agli schermi è associata a una diminuzione delle capacità attentive richieste in ambito scolastico. L’attenzione stimolata dagli schermi è di tipo "bottom-up", cioè orientata alla cattura immediata dell’attenzione tramite stimoli visivi, allarmi o segnali di pericolo, piuttosto che alla concentrazione sostenuta. Questo tipo di attenzione, studiato dalla psicologia cognitiva, può essere associato alla progettazione di app e piattaforme che utilizzano meccanismi per incentivare l’uso prolungato, perseguendo finalità commerciali più che educative.
QUALCHE CONCLUSIONE
È importante essere consapevoli che più ci si avvicina alla nascita più gli studi concordano sulla negatività degli effetti, a prescindere dai contenuti. Il fenomeno della disgiunzione dell’attenzione è forse il più importante. L’attenzione è infatti un prerequisito della trasmissione culturale in ogni cultura ed è per questo che educatori ed educatrici di tutto il mondo hanno individuato l’attenzione come la fonte dei processi di apprendimento. Come vedremo nel prossimo numero, la relazione pedagogica si basa su processi attentivi, ma negli esseri umani l’attenzione si sviluppa principalmente per vie extracorticali ed è predittiva dello sviluppo del linguaggio umano e delle capacità simboliche. L’attenzione cioè si sviluppa anche a livello biologico grazie all’aggancio oculare con altri simili tramite la condivisione di intenzionalità e il fenomeno da tempo noto di attenzione congiunta.
NOTE
[1] Cfr. World Health Organization (Who) (2019), Guidelines on Physical Activity, Sedentary Behaviour and Sleep for Children Under 5 Years of Age, Genève; cf. Grollo M., Zanor S., Lanza S., et al. (2022), Pediatri custodi digitali, la prima guida per i pediatri di famiglia sull’educazione digitale familiare dalla nascita, IAM Edizioni, Udine.
[2] Per una ampia bibliografia si veda: Desmurget M. (2020) Il cretino digitale. Difendiamo i nostri figli dai veri pericoli del web, Rizzoli, Milano. Mi sia permesso rimandare al mio saggio: in corso di pubblicazione: L’attenzione contesa, come il tempo schermo modifica l’infanzia, Armando, Roma.
La fine del futuro - I.A. e potere di predizione
1. Terapie del discorso
«La predizione è difficile, specie se riguarda il futuro», è un’arguzia attribuita al fisico Niels Bohr, ad altri fisici, ma anche a letterati come Mark Twain. La riflessione che Gerd Gigerenzer elabora nel libro Perché l’intelligenza umana batte ancora gli algoritmi riguarda l’efficacia dei sistemi di intelligenza artificiale e i costi sociali che siamo disposti a sostenere per svilupparli e utilizzarli. Questo compito si traduce in due strategie di terapia del pensiero: una è rivolta al modo in cui percepiamo i risultati dei software, l’altra alla comprensione delle policy dell’infosfera, al fine di comprendere i modi e i fini della razzia di dati personali che alimenta le banche dati delle AI.
Il titolo del saggio sembra suggerire che sia in corso un’aggressione, o almeno una sfida, da parte delle macchine. Lo sviluppo dell’argomentazione invece non segue questa traccia, perché sotto la lente dell’analisi finiscono le promesse del marketing (e le attese del pubblico) sulle potenzialità dei software, senza che a questi venga attribuita alcuna intenzione di competizione: unici protagonisti sono i discorsi che gli uomini si scambiano sui dispositivi digitali. Gli interventi di terapia sono condotti anzitutto sul nostro linguaggio e sull’archivio di enunciati con cui vengono descritti i servizi digitali: si sarebbe potuto scegliere come titolo del libro Perché si può sempre tentare di curare l’intelligenza umana dalla propria stupidità, ma in questo modo sarebbe mancata l’evocazione del Golem elettronico, che nelle vetrine delle librerie esercita sempre il suo (stupido) fascino.
2. Prevedere il passato
Gigerenzer illustra al lettore una galleria di attività realizzate dall’AI, dalla selezione dei partner sessuali alla guida autonoma, dalla traduzione automatica alla polizia predittiva, dal riconoscimento dei volti alla profilazione marketing. In tutte queste pratiche le narrazioni dei produttori (spesso poi rilanciate dai media istituzionali) tendono a esagerare i risultati raggiunti dal software sulla base di una costruzione argomentativa che viene etichettata «fallacia del cecchino texano». Immaginiamo un cowboy che spari da grande distanza sulla parete del fienile, e vada poi a disegnare i cerchi del bersaglio attorno all’area in cui si raggruppa buona parte dei fori che ha prodotto nel muro. L’adattamento dell’obiettivo ai buchi dei proiettili comporta un’ammirazione nei confronti della mira del cecchino che è molto inferiore a quella che avrebbe conquistato se i fori si fossero concentrati dentro il perimetro di un bersaglio già tracciato. Quello che accade nella descrizione delle prestazioni delle macchine è molto simile: i risultati che vengono divulgati e commentati riguardano la capacità del software di adeguare la capacità predittiva a fatti avvenuti in passato: gli eventi trascorsi sono gli unici di cui si conoscono già gli effetti, sui quali può essere condotto il training delle AI, e su cui può essere misurata la loro efficacia.
I modelli di calcolo riuscirebbero però garantire la replica della loro accuratezza profetica sui casi futuri soltanto se si potesse verificare che gli ambiti delle relazioni umane, quello dei comportamenti individuali, quello della storia, persino quello del traffico stradale, obbedissero sempre agli stessi parametri di decorso. Se l’amore tra le persone scoccasse sempre per le stesse ragioni, se il piano di una rapina o di un omicidio derivasse sempre dagli stessi moventi, se la circolazione di mezzi e pedoni ripetesse sempre le stesse traiettorie e non violasse mai il codice – il grado di successo registrato dalle I.A. in fase di test sarebbe una promessa affidabile per il futuro. Ma nelle situazioni di complessità, quali sono quelle sviluppate dalle azioni degli uomini, l’adattamento di un modello agli effetti del passato tramite la selezione e l’interpretazione dei parametri opportuni, e il talento profetico per il futuro, non si sovrappongono con alcuna ragionevole certezza. Il mondo dovrebbe essere di una stabilità (e di una noia) meccanica per corrispondere a requisiti simili; invece la realtà sociale continua a essere mutevole, e la predizione dei software molto meno affidabile di quanto venga propagandato.
I giochi come gli scacchi, la dama e il Go, inquadrano alcune condizioni ideali per il miglior funzionamento dell’I.A.. Le situazioni cambiano sempre, ma l’ontologia dentro i confini delle partite è stabile come quella dei pianeti e delle stelle, di cui si calcolano le orbite con determinismo assoluto: le dimensioni e la forma della plancia, il valore dei pezzi, le regole di movimento, le finalità degli spostamenti, rimangono costanti. Non ci sono bambini che attraversano la scacchiera all’improvviso, alfieri caratteriali che decidono di muovere in verticale, regine con appetiti segreti che mangiano il proprio re. Per decenni si è ritenuto che l’abilità nel giocare a scacchi esprimesse l’essenza dell’intelligenza, ma le prove empiriche sembrano smentire questo assunto: le doti per vincere una partita contro il campione del mondo non permetterebbero alla macchina di sopravvivere nel traffico delle vie di Milano – o di assicurare l’incolumità dei milanesi. Una delle soluzioni del problema potrebbe essere quella di riservare le strade alla sola circolazione delle automobili guidate da I.A., ma non sembra un’ipotesi percorribile a breve. Le attese non migliorano quando si passa all’assortimento di coppie con lo scopo che non divorzino entro un anno, o al riconoscimento di volti sospetti senza il rischio di arrestare innocui passanti – o ancora peggio, la divinazione di profili psicologici per le sentenze di libertà sulla parola (o per la personalizzazione dei messaggi marketing).
3. Euristiche e stabilità del mondo
Gigerenzer insiste sull’opportunità di confidare in software costruiti su euristiche trasparenti. Il successo delle I.A. è stato sostenuto da due pregiudizi che ciascuno di noi coltiva in favore della complessità e dell’opacità, visto che ci sentiamo più sicuri dei risultati di una macchina complicata e incomprensibile. Invece una «lista di decisione» con poche regole permette di ottenere predizioni che, nel confronto empirico, funzionano meglio delle I.A.: Angelino et al. (2018) mostra che è quanto che accade con i tre parametri e le tre clausole del software CORELS, in grado di prevedere se l’imputato sarà arrestato nei prossimi due anni con un’accuratezza del 65%, la stessa dell’I.A. COMPAS acquistata dal governo americano, che calcola innumerevoli combinatorie su 137 parametri.
L’autorità di Kahnemann ha squalificato le euristiche equiparandole al «pensiero veloce», che tende ad affrettarsi verso soluzioni inquinate da errori e pregiudizi, pur di trovare un criterio per la condotta nell’immediatezza della situazione. Gigerenzer invece consacra il repertorio delle nostre regole pratiche come una «cassetta degli attrezzi» che ha superato la selezione dell’ambiente in cui viviamo, ed è quindi adeguata alla razionalità dei compiti che ci attendono. Una delle sue missioni più importanti è cementare la stabilità del mondo, che le intelligenze artificiali faticano a evincere tra i molti pattern di relazioni che si allacciano nei dati con cui si svolge il loro training. Le reti neurali peraltro amano nascondersi, come la natura di Eraclito, e dopo poche generazioni di addestramento diventa impossibile anche ai loro sviluppatori comprendere quali siano i segnali intercettati ed elaborati: si può scoprire solo con test empirici sugli output se il software ha imparato a riconoscere i tank russi, o se li distingue da quelli americani perché nel dataset delle foto per caso il cielo sullo sfondo dei mezzi corazzati slavi è sempre nuvoloso mentre è soleggiato negli scatti USA. Ancora più difficile è spiegare perché l’introduzione di pochi pixel colorati converta la percezione di uno scuolabus in quella di uno struzzo. Se il mondo deve essere noiosamente stabile, anche per il bene dei bambini che viaggiano sugli scuolabus, almeno che la noia sia quella dei nostri pregiudizi, e non quella di un mondo possibile sorteggiato a caso.
Bibliografia
Angelino, E., Larus-Stone, N., Alabi, D., Seltzer, M., Rudin, C., Learning certifiably optimal rule lists for categorical data, «Journal of Machine Learning Research», n. 18, 2018, pp. 1-78.
Gigerenzer, Gerd, How to Stay Smart in a Smart World Why Human Intelligence Still Beats Algorithms, Penguin, New York 2022.
Kahnemann, Daniel, Thinking, Fast and Slow, Farrar, Straus and Giroux, New York 2011
Neuroscienze e giudizio morale - Emozione e razionalità appartengono a sistemi distinti?
L’oggetto di questa controversia è il modello di funzionamento dei correlati neurali dei giudizi morali.
Nell’ambito delle neuroscienze (vedi i due articoli precedenti: Il libero arbitrio oltre il dibattito filosofico – Incontro con le neuroscienze e Incontri con le scienze empiriche) sono stati fatti numerosi studi che si appoggiano alle tecniche di neuroimaging funzionale, seguendo tre filoni principali di lavoro:
- Lo studio di pazienti con danni o lesioni cerebrali e pazienti con patologie psichiatriche (“Bad brains”, Greene 2014a, 2020);
- L’analisi della valutazione morale di certi atti o situazioni da parte di individui sani (“Good brains”, ibid.);
- Lo studio delle modificazioni cerebrali durante la valutazione di dilemmi morali come il Trolley dilemma, il Footbridge dilemma e il Crying Baby dilemma.
Per contestualizzare meglio, ecco qualche definizione e informazione sugli studi con pazienti con lesioni cerebrali e sui tre principali dilemmi morali:
PAZIENTI CON LESIONI CEREBRALI
Le ricerche su pazienti con lesioni cerebrali o patologie psichiatriche offrono dati interessanti per l’indagine sul coinvolgimento di determinate aree del cervello nella realizzazione di varie funzioni cognitive.
Qualsiasi studio relativo a pazienti con lesioni cerebrali connesse alla sfera del comportamento sociale non può non fare riferimento al lavoro di Antonio Damasio. La sua prima opera divulgativa, “L’errore di Cartesio” (1994), è un’esposizione delle ricerche sull’emozione a livello cerebrale e le loro implicazioni in ambito decisionale, soprattutto nella sfera del comportamento sociale. Tali ricerche hanno preso avvio dall’osservazione di soggetti con lesioni alla corteccia prefrontale ventromediale, i quali mostrano un comportamento atipico soprattutto in relazione al giudizio etico e alla condotta sociale. Come sostenuto da Damasio, sembra che questi individui abbiano una “razionalità menomata”, nonostante gli elementi associati convenzionalmente a un buon funzionamento della ragione non siano in alcun modo danneggiati. Tra questi ultimi in genere figurano: la memoria, l’attenzione, il linguaggio, la capacità di calcolo e la capacità di ragionamento logico per problemi astratti (Damasio, 1994, pp.18-19). Il primo caso storicamente registrato di questo tipo di lesioni è quello di Phineas Gage, caposquadra di un gruppo di costruzioni ferroviarie, vissuto in America durante il XIX secolo, e il cui teschio è oggi conservato a Boston, al Warren Medical Musem della Harvard Medical School.
TROLLEY DILEMMA
Il Trolley Dilemma o Dilemma del carrello, proposto originariamente da Philippa Foot nel 1967, descrive un treno che corre senza controllo su un binario dove più avanti sono legate cinque persone, mentre su un binario alternativo c’è una sola persona legata; il quesito è se sia legittimo tirare una leva in modo da deviare il treno sul secondo binario e uccidere una sola persona anziché cinque. Generalmente, le persone tendono a considerare moralmente accettabile tirare la leva in virtù di un’analisi costi-benefici.
I protagonisti della controversia sono tre neuroscienziati: da una parte lo psicologo statunitense J. Greene; dall’altrail filosofo statunitense Shaun Nichols e il filosofo tedesco Hanno Sauer. Essi si concentrano soprattutto sul terzo tipo di studi.
FOOTBRIDGE DILEMMA
Il Footbridge Dilemma è stato formulato da Judith Jarvis Thomson nel 1976 e descrive una situazione analoga alla precedente ma, anziché avere la possibilità di tirare la leva, si chiede se sia legittimo buttare giù da un ponte che passa sopra il binario un uomo molto grasso, il quale fermerebbe il treno perdendo al tempo stesso la vita. In questo caso le persone non considerano moralmente accettabile compiere l’atto, nonostante secondo un’analisi costi-benefici il risultato sarebbe lo stesso del problema precedente. Quindi, i soggetti a cui viene sottoposto i test tendono a ritenere accettabile deviare il treno nel primo caso, ma non ritengono lecito spingere l’uomo dal ponte (Songhorian, 2020, p.77). Perché le persone rispondono in modo diverso ai due scenari?
CRYING BABY DILEMMA
La formulazione del Crying Baby dilemma è la seguente: “In tempi di guerra tu e alcuni concittadini vi state nascondendo da dei soldati nemici in un seminterrato. Tuo figlio comincia a piangere e tu gli copri la bocca per far sì che non se ne senta il suono. Se togli la mano il bambino piangerà, i soldati lo sentiranno, troveranno te e i tuoi compagni e uccideranno tutti quanti, compreso te e il tuo bambino. Se non togli la mano, tuo figlio morirà soffocato. È legittimo soffocare tuo figlio per salvare te stesso e gli altri?”
GREENE e il modello della “macchina fotografica” o del doppio processo
Joshua Green ha dedicato gran parte del suo lavoro all’approfondimento del perché i dilemmi del carrello, Footbridge e Crying Baby, apparentemente simili nel risultato, suscitano risposte diverse e reazioni discordanti nei soggetti a cui vengono sottoposti.
Uno dei punti chiave dell’analisi è il fatto che i dilemmi presentano forme diverse di problematiche morali, che interessano in modo differenziato l’area delle “violazioni personali” - violazioni che comportano un grave danno fisico, ad una persona specifica, in modo che il danno non sia il risultato di un effetto collaterale di un’azione rivolta altrove (come dire: “io danneggio te”), e quella dei temi morali impersonali - quelli dell’utilità generale, per esempio, meno coinvolgenti nell’immediato.
Greene ha provato ad osservare, attraverso le tecniche di neuroimaging funzionale, l’attività cerebrale degli individui mentre cercano di rispondere a questi dilemmi.
I risultati del neuroimaging, con tempi diversi – più rapidi per i problemi che implicano le violazioni personali” e più lenti negli altri casi - e aree cerebrali coinvolte diverse, hanno suggerito a Greene che nel giudizio morale vi sia una dissociazione tra i contributi affettivi e quelli cognitivi, e che le persone tendano a esprimere i loro giudizi morali sulla base di due sistemi cerebrali distinti, uno più emotivo e un altro più razionale. Questa distinzione è stata corroborata – secondo Greene – anche dal fatto che sembra esserci una correlazione tra i sistemi cerebrali e il tipo di giudizi che questi producono: le aree del cervello associate all’emozione tendono a suscitare giudizi impulsivi che prendono la forma di giudizi deontologici, quindi giustificati in termini di diritti e doveri; le aree del cervello associate al ragionamento producono, invece, giudizi fondati su un’analisi costi-benefici.
Green propone, quindi, il modello della “macchina fotografica”; in analogia con le due modalità di funzionamento della fotocamera (una modalità automatica e una manuale, ciascuna con caratteristiche più adatte ed efficienti in situazioni diverse); così l’essere umano giudica moralmente servendosi di due processi differenti, di due sistemi cerebrali distinti che non possono funzionare congiuntamente, ciascuno dei quali funziona meglio in determinate circostanze.
Secondo Greene, l’analogia con la macchina fotografica è in grado di esprimere anche il compromesso tra efficienza e flessibilità di questi sistemi cognitivi: le risposte emotive, infatti, sono efficienti proprio in quanto istintive, mentre le risposte razionali sono flessibili perché si servono del ragionamento per perseguire obiettivi a lungo termine, prevedendo e programmando i comportamenti necessari. L’autore ritiene che a supporto dell’idea che le aree emotive siano automatiche c’è il fatto che sono le stesse aree che presentano attività quando il cervello è a riposo o, come anticipato, quando è coinvolto in attività non tipicamente di “attenzione”. Per queste ragioni, solo le azioni che derivano da giudizi razionali sarebbero da ritenersi pienamente consce, volontarie e frutto di uno sforzo.
Le teorie alternative e concorrenti: Nichols e Sauer
Shaun Nichols propone una teoria che integra il ruolo dei due sistemi, basata su due tipi di studi empirici fondamentali (Songhorian, 2020, pp.88-95): il primo, che ha per oggetto la distinzione tra norme morali e norme convenzionali, definisce come non necessario presupporre una teoria della mente per tale distinzione poiché i bambini autistici, i quali non hanno buone capacità di comprensione degli stati mentali altrui, rispondono allo stesso modo dei bambini a sviluppo tipico nei test di riconoscimento dei due tipi di violazione; il secondo è quello relativo ai deficit di empatia degli psicopatici.
Nichols – a differenza di Greene - ritiene che vi siano due componenti integrate che costituiscono i giudizi morali: un meccanismo affettivo (che si attiva quando vediamo o sappiamo che gli altri soffrono) e una teoria normativa che impedisce di danneggiare gli altri.
Inoltre, egli definisce come teoria normativa qualunque insieme di regole interiorizzate che proibiscono certi comportamenti e afferma che sia possibile riscontrare la presenza di questi elementi in tutti quei giudizi che sono condivisi in maniera universale e transculturale.
In tal modo rende conto del perché gli psicopatici e i bambini prima dei due anni non siano in grado di formarsi giudizi morali; infatti, i bambini non dispongono di una teoria normativa e gli psicopatici non hanno un meccanismo emotivo concomitante tale teoria.
Sauer sviluppa la sua idea a partire dai risultati degli esperimenti di Greene sul dilemma dell’incesto consensuale; secondo Sauer, il fatto che dopo un tempo adeguato le persone ritengano accettabile l’incesto tra fratello e sorella è indicativo del fatto che le nostre intuizioni morali sono soggette al ragionamento razionale.
Quello di Sauer è un modello di “sfida e risposta”, per cui le intuizioni morali “sono soggette a continui miglioramenti, sovra-apprendimento e abituazione” (Sauer, 2017, p. 122, citato in Songhorian, 2020, p. 103).
A giudizio di Sauer, i nostri giudizi morali nascono da delle intuizioni emotive che possono essere integrate e corrette dalla riflessione e dal ragionamento, i quali vengono sollecitati proprio in risposta a una sfida; tuttavia, non sono solo frutto di un processo evolutivo soggettivo, ma anche socio-culturale. In questo modo riesce a integrare il ruolo di emozione e ragione nella cognizione morale e rende anche conto del processo evolutivo dei giudizi morali.
Differenze tra le tre teorie
Le teorie di Nichols e Sauer propongono entrambe una concezione non oppositiva di emozione e ragione, anche in linea con le tesi di Damasio, ma differiscono nei loro obiettivi polemici: il primo vuole mostrare che anche le regole morali devono essere sentimentali; il secondo compie il percorso inverso, cercando di mostrare che anche l’emozione ha bisogno del supporto del ragionamento (Songhorian, 2020, pp. 102-106).
Ciò che distingue queste teorie da quella di Greene è il fatto che gli autori in questione considerano i giudizi morali dei “processi”, in una prospettiva diacronica; mentre Greene li ritiene degli stati mentali puntuali, e non tiene, quindi, conto del loro carattere evolutivo, del perché i valori morali si modifichino nel corso della storia e del perché anche i singoli individui possano mutare prospettiva nei loro giudizi morali.
Conclusione
Le neuroscienze cognitive ci offrono oggi molte possibilità di approfondimento di svariate questioni filosofiche estremamente affascinanti e antiche, ma è evidente che siamo ancora agli inizi di questo nuovo approccio e le teorie che ne emergono devono ancora molto alla dimensione di costruzione sociale e – in alcuni casi – metafisica.
Dal confronto di queste tre prospettive sui giudizi morali sembra emergere anche l’enorme discordanza e opacità che vi è oggi in molte definizioni metaetiche; non certo fonte di scoraggiamento ma, anzi, indice del fatto che c’è un ampio spazio per nuove riflessioni filosofiche e sociologiche.