Sono diventato Morte, il distruttore di mondi
Quando J. Robert Oppenheimer, padre della bomba atomica, vide esplodere il primo ordigno nucleare nel deserto del New Mexico il 16 luglio 1945, non esultò. Non parlò di successo, né di trionfo. Pensò invece a un verso antico della Bhagavad Gita: “Sono diventato Morte, il distruttore di mondi.”
La frase cita parte del verso 32 capitolo 11 della Gita, uno dei testi fondamentali della spiritualità indiana : “Io sono il Tempo (Kāla), il grande distruttore dei mondi, e sono venuto per annientare queste genti. Anche senza di te, tutti i soldati schierati moriranno.”
Nella Gita, il principe guerriero Arjuna si trova sul campo di battaglia di Kurukshetra, tormentato all’idea di dover combattere contro parenti, amici e maestri. Il suo auriga è Krishna, che è in realtà una manifestazione divina che, per convincerlo a combattere, gli mostra la sua forma cosmica, una visione terrificante e sublime della divinità in tutta la sua potenza. Krishna dice ad Arjuna che il suo intervento è inevitabile, perché l'ordine cosmico va comunque avanti. Arjuna non è l’agente del destino: è solo uno strumento del dharma, dell’ordine cosmico.
Nel testo sacro la “Morte” o “Tempo” simboleggia il movimento inevitabile dell’universo, oltre il bene e il male umano; quindi, la frase non è una celebrazione della distruzione, ma una riflessione sul destino, sul ruolo dell’individuo, e sul fatto che la volontà divina (o il corso del tempo) trascende il volere umano.
Quando, dopo il test nucleare, Oppenheimer cita questa frase, la decontestualizza parzialmente, ma in modo molto significativo: lo scienziato si identifica non con Krishna, ma con l’atto distruttivo stesso, con la bomba.
Egli dice: “ho partecipato a un atto che cambia per sempre il corso del mondo e di cui ora sono consapevole. Abbiamo forse superato un limite che dovevamo tenere all'orizzonte?”. È una forma di shock esistenziale e morale: ha creato qualcosa che trascende il controllo umano, come il tempo o la morte.
Quella frase non è solo un riflesso personale di turbamento, ma il simbolo di un dilemma che attraversa tutta la storia moderna, la tensione tra il progresso e il darsi dei limiti. In essa si concentra la domanda che ogni società avanzata deve porsi: fino a che punto possiamo spingerci nella ricerca, senza compromettere ciò che ci rende umani?
La tecnoscienza è uno degli strumenti più potenti mai sviluppati dall’umanità. Gli strumenti che ne sono emanazione ci hanno permesso di sconfiggere malattie, esplorare l’universo, connettere continenti e prolungare la vita. Ma ogni nuova frontiera porta con sé un potenziale di meraviglia e di disastro. La meraviglia è irresistibile, ci chiama e ci muove; la consapevolezza di dove andremo, rispondendo alla chiamata, arriva solo dopo.
Nel caso della bomba atomica, la scoperta della fissione nucleare — una conquista intellettuale straordinaria — fu tradotta in una tecnologia di distruzione totale.
È qui che nasce la controversia: la scienza deve essere giudicata per la conoscenza che produce o per l’uso che se ne fa? O, più radicalmente, è possibile separare la ricerca pura dalle sue applicazioni concrete?
Sponsorizzare il progresso scientifico sembra essere giusto e necessario. A nostro avviso, fermarlo sarebbe come spegnere il fuoco per paura che bruci: sarebbe negare il potenziale del pensiero umano. Tuttavia, la fede cieca nella neutralità della scienza è pericolosa. La storia ha mostrato che non tutto ciò che può essere fatto, deve essere fatto. E lo ha mostrato con chiarezza molte volte. Ma la voce della meraviglia è irresistibile.
Oggi, le sfide si ripresentano in forme nuove: intelligenza artificiale, ingegneria genetica, manipolazione climatica, automazione militare. Anche qui la scienza offre strumenti di potere, ma chi decide come usarli? E chi ne sopporta le conseguenze?
Promuovere la ricerca senza interrogarsi sulle sue implicazioni etiche equivale a sponsorizzare la hybris umana che pretende di dominare la natura e il destino, dimenticando i propri limiti.
Il caso Oppenheimer è paradigmatico. Egli non era un folle né un cinico. Era un uomo colto, brillante, consapevole. Ma fu catturato dalla logica del tempo: la corsa contro i nazisti, la pressione politica, il desiderio di riuscire. Quando la bomba fu pronta, non c’era più spazio per fermarsi a riflettere. Da allora, si è discusso a lungo su cosa avrebbe potuto o dovuto fare; ma la domanda non riguarda solo lui, bensì tutti noi.
La scienza non avanza da sola. È parte di una rete fatta di governi, finanziamenti, opinione pubblica, interessi. Se vogliamo un progresso che non ci conduca alla rovina, dobbiamo creare una cultura della responsabilità condivisa. Dobbiamo stabilire come società estesa qual è la soglia del possibile e il confine dell'ammissibile.
“Sono diventato Morte, il distruttore di mondi.”
Non è una frase contro il progresso scientifico. È un avvertimento sulla necessità di non separare mai la conoscenza dalla saggezza, di non confondere la neutralità degli strumenti con l’innocenza dei fini.
I metodi sono neutrali, gli effetti non lo sono. Ogni nuova scoperta di impatto sociale ci avvicina a soglie irreversibili; confini oggi solo ipotizzati che improvvisamente vengono superati e socializzati. Per questo la riflessione critica deve precedere e non seguire l’applicazione tecnologica. Il futuro non si decide con le risposte giuste o sbagliate, ma ponendo le domande che richiedono quelle risposte prima di agire.
La neutralità degli strumenti non esiste.
Recensione di Oltre la tecnofobia, il digitale dalle neuroscienze all’educazione - Terza parte
Dopo una sintetica recensione del libro Oltre la Tecnofobia (qui), una critica al concetto di onlife e della rimozione dell'infanzia (qui), Simone Lanza continua a confrontarsi con le tesi degli autori e affronta i punti nodali del libro, le implicazioni cliniche e pedagogiche dei disagi sociali provocati dall’uso precoce e prolungato degli schermi.
---
LA DIPENDENZA DA INTERNET NON ESISTE?
Sappiamo che gli smartphone alterano il ciclo dopaminergico, creano abitudini e persino dipendenze: non è un mistero perché questo è descritto da chi disegna queste app per metterle gratuitamente sul mercato riuscendo a trarne profitti enormi. Al giorno d’oggi esiste un’ampia discussione sulla classificazione delle varie dipendenze da internet, trattandosi di un tema di salute pubblica delicatissimo. Incuranti della complessità della situazione gli autori di Oltre la Tecnofobia hanno deciso di abbracciare le posizioni di Matteo Lancini, che sostiene che il disagio dei giovani non sia da attribuire all’iperconnessione, bensì alle “mamme virtuali”. Avvalendosi di Lancini, il fenomeno degli hikikomori è così commentato dagli autori: “I media digitali lungi dall’essere la causa del ritiro, sono piuttosto ciò che consente a questi adolescenti di rimanere ‘attaccati’ al mondo evitando un esito psicotico della loro sindrome”. (p.95) Gli autori sostengono ogni abuso debba considerarsi nocivo, ma che ciò non deve condurci – ed questo il tema che sta loro molto a cuore - a “incolpare la tecnologia digitale” (p.67)! Come si fa pensare di poter dare la colpa alla tecnologia se non la si è già prima antropomorfizzata?
Per loro “l’utilizzo specifico è dettato e condizionato dal modello di società contemporaneo” (p.67), ma non spendono una parola a spiegare come le tecnologie digitali modellino la società. Credono di dovere emettere una sentenza sulla colpevolezza o innocenza della Tecnologia (al singolare, si vedrà poi perché), ma non si esprimono mai sugli umani che sono proprietari di queste tecnologie e le usano come mezzi di produzione. Come se le finalità non fossero di chi progetta le Tecnologie. L’antropomorfizzazione della Tecnologia consiste nel neutralizzare ogni carattere etico e politico della tecnica, rimuovendo il ruolo degli umani che vi investono soldi. Questo è proprio il carattere ideologico, su cui si tornerà, mai messo in discussione in questa edulcorante Weltanschauung.
Non esiste Una dipendenza da internet o da smartphone ma le organizzazioni mediche stanno mettendo a fuoco molti disturbi legati all’uso compulsivo di queste tecnologie. Si tratta di fasce sempre più vaste della popolazione che sono risucchiate in comportamenti patologici indotti per così dire dal design. La visione di chi sostiene che la psicosi non solo non venga amplificata dall’effetto schermo ma persino lenisca la malattia e mantenga attaccati al mondo (sic), è estrema, molto discutibile e pericolosa dal punto di vista terapeutico.
Sulla questione clinica, vorrei rassicurare le decine di migliaia di genitori che chiedono ai loro figli di uscire dalla stanza, che non tutti la vedono come Lancini e che ci sono terapisti che aiutano gli adolescenti a distaccarsi dall’oggetto che produce la loro dipendenza (lo schermo), senza far sentire in colpa i genitori.
In ogni caso è chiaro che questo libro vorrebbe mettere un bavaglio a chi solleva la questione del disagio sociale, bollandolo come tecnofobico. E allora possiamo dire tranquillamente che il re è nudo perché la prova più evidente che le categorie di uso e abuso siano inadeguate a interpretare la complessa questione di salute pubblica (di cui gli hikikomori sono solo una parte) è testimoniata dal fatto che le Big Tech come Meta, pur di non farsi dare regole, sono disposti a darsele da sole.
Ad oggi l’OMS ha già riconosciuto la dipendenza da videogioco e da gioco d’azzardo, mentre esiste una vasta discussione sulla classificazione di altre forme di dipendenza da internet (oltre al fenomeno degli hikikomori, c’è la dipendenza da relazioni virtuali e social network, la net compulsion o shopping online, dismorfismo, etc...), si tratta di molti comportamenti patologici che sono soggetti a studi perché in continuo (non rassicurante) aggiornamento, dove il confine tra dipendenza e abitudine è sfumato. In ogni caso gli autori non hanno dubbi sul dover sollevare da ogni responsabilità la Tecnologia digitale quasi fosse una umana presenza.
Non stupisce quindi che gli autori critichino Jonathan Haidt, reo di avere pubblicato La generazione ansiosa. Riprendendo quasi alla lettera una precedente recensione (V. Gallese, Haidt: quelli che... il digitale, in “Doppiozero”, 17/9/2024) bollano come tecnofobico un libro documentatissimo che contiene quasi un migliaio di fonti. La questione è che dal 2012 è aumentato in modo intensivo l’uso dei social network tra le adolescenti ma sono anche aumentati fenomeni di ansia, depressione, isolamento e suicidi. Per Haidt non c’è solo correlazione ma anche un nesso di causalità. Gli autori propongono altre cause più complesse: “accesso alle armi, la discriminazione, l’isolamento sociale e le difficoltà economiche” (p.66). Nel libro (a differenza di quello di Haidt) non c’è però nessun tentativo di convincere il lettore che queste siano le cause plausibili. Non vi sono spiegazioni per cui non mi è possibile comprendere questa loro diversa ipotesi. Trovo difficile capire come l’accesso alle armi, la discriminazione, l’isolamento sociale e le difficoltà economiche possano essere state la causa di comportamenti non certo patologici ma che hanno costretto il CT Spalletti a regolamentare rigidamente l’uso dei dispositivi durante la fase finale di Euro 2024 agli atleti della nazionale di calcio maschile.

Lasciamo a chi legge farsi un’idea del dibattito tra Jonathan Haidt e Candice Odgers, suggerendo il franco confronto pubblicato su MicroMega 3/2025 (“Disconnessi. L’impatto dei social sulle nostre vite”). Un altro confronto è stato pubblicato da Internazionale. Mi limito a due osservazioni. La prima è che se esiste una correlazione questo dovrebbe costituire un campanello d’allarme sufficiente per applicare il principio di precauzionalità fino a nuovi e approfonditi studi, proprio perché la correlazione non implica ma non esclude affatto la causalità. In secondo luogo vorrei ricordare Austin Bradford Hill, il noto epidemiologo britannico, celebre per i suoi studi che hanno dimostrato il rapporto tra fumo e cancro polmonare (quando ai suoi tempi in tanti sottovalutavano la correlazione, sic). Hill aveva elaborato una serie di nove criteri per dedurre la relazione causale tra un fattore di rischio e una malattia sulla base di correlazioni statistiche. Allora le lobbies del tabacco insistevano proprio con le stesse argomentazioni di oggi: “Correlation does not imply causation”. Gli autori sono più avanti: la correlazione è il contrario della causalità e pertanto qualunque divieto va escluso e ogni regolazione rifiutata. E veniamo così alla quarta critica, alla questione educativa.
VIETATO VIETARE!
Gli autori ci propongono l’idea pedagogica rivoluzionaria, del tutto simile a quella del 1968: vietato vietare. Non citano questo slogan di vecchia data, ma lo aggiornano e lo ampliano persino alla protezione: “ogni scelta di protezione o di divieto non è educativa” (p.). Per loro controllo, divieto e protezione sono la stessa cosa. Iniziamo quindi con il rassicurare chi legge che il pedagogista Paulo Freire, certamente caro ai sessantottini e da loro invocato come punto di riferimento teorico, non era certo incline a posizioni libertine che “vedono una manifestazione d’autoritarismo in ogni legittima espressione di autorità”. Freire era incline invece a una posizione più pacata, quella di una persona “democratica, coerente con il suo sogno solidale ed egualitario, per la quale non può esistere autorità senza libertà o questa senza l’altra.”
Oggi nel dibattito pedagogico contemporaneo, proprio seguendo Freire non è possibile concepire l’autorità senza la libertà, ma nemmeno la libertà senza l’autorità. L’appello a sviluppare pensiero critico suona retorico e Freire si lamentava proprio dell’assenza dei limiti normativi. Gli autori si spingono ad asserire persino che ogni protezione è autoritaria: ma come spiegare le leggi contro il lavoro minorile? E i divieti di balneazione? E il divieto di passare con il rosso al semaforo sarebbe diseducativo? Non sempre applicare un divieto produce un effetto contrario.
La realtà di oggi sembra al contrario esser dominata da un’assenza di limiti e regole, al punto che, per dirla con un noto slogan pubblicitario, “l’unica regola è che non ci siano più regole”. Secondo Daniel Marcelli, punto di riferimento nel dibattito francese sulla crisi dell’autorità genitoriale, domina oggi invece “il bambino sovrano” in un vuoto epocale di autorità. In un altro contributo Marcelli sostiene che in pedagogia sia persino auspicabile obbedire.
L'obbedienza lungi dall'essere virtù negativa è indispensabile nella relazione pedagogica che si basa sulla fiducia. L'obbedienza non è la sottomissione. Autorità e obbedienza hanno significati anche positivi a differenza della sottomissione a un potere. La sottomissione si ottiene attraverso l'obbligo o la seduzione, mentre l'obbedienza (educativa non politica!) si fonda su un rapporto di fiducia. Quando sarai grande ti spiegherò, ma adesso fidati e obbedisci, perché non tutto può essere spiegato e contrattato. Questo è vero soprattutto nell’infanzia. Proprio l’obbedienza conduce all'indispensabile libertà di disobbedire nella maturità. Persino Don Milani teorico di L’obbedienza non è più una virtù, aveva idee ben chiare sull’autorità del docente e sull’importanza dell’obbedire in classe! Anche qui la mancanza di distinzione tra adolescenza e infanzia non permette agli autori di inserirsi nel dibattito pedagogico attuale su autorità, autorevolezza, obbedienza, sottomissione, libertà su cui per altro le filosofie femministe italiane hanno dato importanti apporti. Assenza di regole, di limiti, di paletti sono invece i concetti base di una pedagogia corrente molto diffusa, basata sulla seducazione (termine coniato da Gilles Lipovetsky per descrivere uno stile educativo basato sul tentativo di sedurre il bambino anziché di educarlo in senso tradizionale) e sulla deresponsabilizzazione degli adulti, incapaci di gestire il sano conflitto educativo, pedagogia corrente che è però distante dal dibattito pedagogico sulla crisi dell’autorità genitoriale aperto da Arendt.
Del resto Gli autori sono davvero così inclini a lasciare che i loro figli o nipoti guardino film pornografici a otto anni perché vietarglielo significherebbe poi che i loro pari in un atto di giustizia retributiva faranno vedere loro film porno? Per loro tutto va contrattato, trasfigurando l’idea del pedagogista francese Meirieu, che non solo propone la contrattazione educativa ma anche l’autorità del docente e la necessità della sanzione, per non parlare degli interrogativi sulla “strumentalizzazione del digitale da parte del sistema di mercato” (Meirieu , La scuola e la sfida del digitale).
Se la critica all’autoritarismo poteva funzionare nel XX secolo, che iniziò quando Ellen Key scrisse Il secolo del fanciullo, oggi lo slogan vietato vietare non è altro che, come rileva sempre Marcelli, l’anticipazione del credo neoliberista in ambito pedagogico. Questa seducazione incapace di vietare inculca con l’esempio il credo neoliberista dominante. Teorizzare oggi un “antiproibizionismo digitale” significa abbracciare le posizioni dell’individualismo e del narcisismo più sfrenato che già il nostro sistema economico e culturale promuove abbondantemente, anche grazie alle piattaforme.
Per sostenere la tesi che “ogni scelta di protezione o di divieto, in senso proprio, non è educativa” (p.147), si è dovuto alterare il senso profondo della dialettica di Paulo Freiere e storpiare il concetto di contrattazione di Merieu, perché questo assunto, in campo pedagogico, è poco difendibile. Promuovere questa deregulation educativa costituisce al contrario la quintessenza del credo dominante, propugnato tanto dagli autori quanto da Trump e dalle Big Tech: eliminare ogni limitazione persino nell’infanzia.
Eppure i limiti sono proprio ciò che permette di educare: come qualsiasi pedagogista, allenatore, educatore o insegnante sa bene, la difficoltà consiste semmai in dove e come mettere i limiti, ma non se metterli
Nella quarta e ultima parte, si entrerà nel merito del concetto stesso di tecnologia, di fobia e si descriverà chiaramente la funzione ideologica di questo libro.
Recensione di Oltre la tecnofobia, il digitale dalle neuroscienze all’educazione - Seconda parte
Dopo una sintetica recensione del libro Oltre la Tecnofobia (qui), Simone Lanza continua a confrontarsi con le tesi degli autori, e inizia – con questo secondo passo - il suo ragionamento analitico di messa in discussione dell'onlife e della adultizzazione dell’infanzia come effetto mediatico anziché come dato naturale.
---
Oltre la Tecnofobia intende criticare i tecnofobici, ma chi sono i tecno-fobici oggi? Doveroso esplicitare, che nessuno si definisce tecno-fobico (né tecno-ottimista). Sotto questa etichetta gli autori criticano apertamente almeno lo studioso Haidt, il Ministro Valditara per le circolari, Alberto Pellai e Daniele Novara per le posizioni pubbliche di proposta di legge. Tuttavia, in generale anche se non in modo esplicito tutti quelli che vogliono regolamentare il digitale.
Gli autori, poi, in particolare, hanno a cuore che le famiglie facciano liberamente usare le tecnologie digitali senza dare indicazioni che seguano il principio di gradualità, anzi continuando a porre l’equazione: limiti e regole denotano tecnofobia. Le mie critiche, quindi, spazieranno su tutti gli aspetti di questa enorme costruzione ideologica: partirò dal mostrare le aporie relativa all’adolescenza, per finire sulle incoerenze nel respingere ogni paura per le tecnologie, come se oggi l’umanità non disponesse di tecnologie spaventose.
Gli esseri umani non mangiano il cibo nei primi mesi, non maneggiano coltelli nei primi anni, non guidano macchine nei successivi e per quanto riguarda l’uso di alcol e tabacchi le leggi, nonostante molte resistenze, hanno finito per dare limiti di età. Ma perché per l’uso di smartphone (e di schermi in generale) i nostri autori ritengono che non sia importante porsi la domanda: quali regole e a partire da quale età?
LA RIMOZIONE DELL’INFANZIA
La risposta a questa domanda è che l’intero libro si regge su una concezione dell’adolescenza che ignora platealmente ciò che la precede: l’infanzia. Gli autori liquidano con sufficienza l’idea che i minori possano essere "soggetti fragili per ragioni anagrafiche, qualcuno che è più esposto al rischio" (p. 145), rifiutando qualsiasi protezione basata sull’età. Se avessero preso in considerazione maggiormente l’infanzia forse avrebbero potuto comprendere anche loro qualche paura legittima dei genitori di oggi, ma in tutto il libro veramente poche righe sono dedicate all’infanzia, e come per Lancini, il riferimento implicito è sempre un ragazzo prossimo alla maturità (il povero diciassettenne), per il quale quella definizione di minore potrebbe essere riduttiva, ma che riduttiva non è se fosse riferita all’infanzia. Malgrado gli sforzi adultizzanti degli autori l’adolescenza resta però la terra di mezzo tra adultità e infanzia.
Del resto Bernard Stiegler (che costituisce uno dei riferimenti teorici degli autori del libro), si era dedicato a denunciare con estrema forza l’impatto devastante delle tecnologie sui bambini proprio nell’opera dove ha tematizzato il concetto di pharmakon. Ed è stato proprio Stiegler che dalle sue premesse teoriche traeva conclusioni opposte a quelle dei nostri autori, prendendo una posizione netta in quella che definì senza mezzi termini “la strage degli innocenti”, cioè l’impatto devastante delle Big Tech sull’infanzia.
Questa mancanza di considerazione degli impatti sull’infanzia da parte non tanto della Tecnologia quanto dell’industria culturale (termine che i nostri autori non usano mai a differenza di Stiegler) è proprio ciò che aveva condotto Postman (La scomparsa dell’infanzia, 1982) a parlare di adultizzazione dell’infanzia e infantilizzazione dell’adultità quale effetto dell’uso esasperato dei mass media. Senza questo doppio movimento ogni considerazione attuale sugli impatti in età adolescenziale (e infantile) risulta superficiale e fuorviante, nonché disarticolata dal vero dibattito di oggi: mettere a fuoco in cosa consista l’esposizione precoce e prolungata agli schermi e capire quando una certa quantità di tempo schermo non si trasformi in vero e proprio veleno per il tempo di sonno, per il tempo all’aria aperta, per il tempo di lettura, che restano tempi di apprendimento essenziali (come ben sanno del resto tutti i Ceo e ingegneri della Silicon Valley, nonché le famiglie statunitensi con redditi sopra i 100.000 dollari, che per lo più evitano gli schermi ai loro figli in giovane età e applicano il principio di gradualità). Il riferimento principale dei nostri autori non è all’infanzia bensì all’adolescenza, ma in realtà i nostri autori operano su entrambe quel processo di rimozione della loro specificità, operata (come ci insegna Postman) proprio dallo schermo: adultizzare il bambino, sottraendolo al suo processo graduale di divenire adulto.
ONLIFE: RAPPRESENTAZIONE O ESPERIENZA?
La seconda critica che si può rivolgere è che l’assunto (ipotesi da dimostrare), che non ci sia più distinzione tra l’esperienza dal vivo e quella di fronte a uno schermo non si basa su prove empiriche ed è teoreticamente abbastanza contraddittoria. Gli autori di Oltre la Tecnofobia si riferiscono molto al filosofo Walter Benjamin. Egli, infatti, designò fotografia e cinema come media che avevano modificato l’inconscio ottico: zoom, rallenty o slow motion, replay, etc., rendevano visibili cose che l’occhio nudo non poteva mettere a fuoco cambiando l’intera percezione del mondo. La stessa capacità di attenzione e di esperienza ne venivano modificate ma non per questo Benjamin teorizzò l’indifferenza ontologica tra i due tipi di percezione. Il nostro corpo-cervello elabora in modo simile ma non identico digitale e reale, altrimenti – come ammettono gli stessi autori – non saremmo in grado “di distinguere tra presenza fisica e digitale” (p.41). Il problema dei bambini di oggi è però che l’esposizione precoce e prolungata agli schermi riduce le capacità di questa distinzione. Il punto fondamentale è che gli autori insistono sul fatto che il corpo-cervello elabora rappresentazioni simili nel mondo virtuale e nel mondo reale. Teniamo in sospeso la domanda se questo sia vero o meno. Il filosofo ebreo-tedesco Benjamin non insistette solo sui diversi modi di percepire il mondo (decisamente molto meno sulla rappresentazione) bensì sui modi di viverlo: proprio l’esperienza (Erfahrung) narrabile e condivisibile è qualcosa di molto prezioso che nella modernità rischierebbe di essere annullato dall’esperienza vissuta (Erlebnis) che caratterizza invece il mondo caotico e veloce della società dominata da pubblicità e merci (Benjamin del resto non pensava che il capitalismo fosse la fine della storia).
Gli autori di Oltre la Tecnofobia riducono la differenza tra reale e virtuale a quella tra 3D e 2D, senza considerare la multi-sensorialità. Riducendole a rappresentazioni simili, disconoscono le differenze specifiche delle due esperienze. Dal punto di vista del bambino (che per altro quando nasce ci vede ben poco) ciò che differenzia l’esperienza dal vivo e quella tramite schermo non è solo la rappresentazione ma l’esperienza, che si fa con i cinque sensi del corpo (sporcandosi le mani e saltando nelle pozzanghere). Prendiamo un kiwi: il modo con cui il bambino vive e conosce un kiwi per la prima volta passa molto meno dalla rappresentazione, che dalla mano e dalla bocca. La multi-sensorialità è ciò che distingue il mondo come rappresentazione (quello dello schermo) dal mondo reale. Inoltre, mentre del mondo ti fai una rappresentazione, nello schermo la rappresentazione è già preparata da registi o algoritmi. Scambiare l’esperienza per la rappresentazione è un doppio errore: significa deprivare l’esperienza della multi-sensorialità lasciando lavorare prevalentemente la vista e offrire una rappresentazione di mondo già selezionata, ridotta e uniformata.
Se si sposta il focus dalla rappresentazione all’esperienza le differenze tra mondo reale e mondo virtuale sono notevoli per ciò che più conta per chi deve ancora divenire adulto. L’apprendimento infantile, a partire dall’apprendimento della lingua-madre, è molto migliore quando avviene senza gli schermi, e almeno fino a sei anni l’apprendimento è migliore dal vivo anziché tramite schermi, effetto noto come video deficit o transfer deficit, proprio perché il baby-talking – cioè, la modalità universale di insegnamento-apprendimento linguistico è multisensoriale, ha bisogno della sintonizzazione emotiva, della relazione tra corpi, dell’attenzione condivisa, cioè della condivisione delle intenzionalità. Mentre nella mente di un bambino di cinque anni, la rappresentazione del kiwi in uno schermo potrebbe confondersi con quella della mela (e non potremmo certo dargli torto), nel mondo reale sono due esperienze conoscitive assai diverse: basta mettere in bocca per capire. Un bambino diventa adulto in relazione con umani non in isolamento dagli altri umani.
Per questo motivo in tutto il mondo desta molte preoccupazioni l’esposizione precoce agli schermi, questione su cui gli autori non spendono mezza parola in tutto il libro. Insistono invece sul concetto di onlife che, pur essendo molto sexy, applicato all’infanzia è terribilmente fuorviante. Tale concetto coniato da Luciano Floridi (e usato da Lancini) indica l’esperienza quotidiana sempre più frequente di una costante connessione online, che implica un’interazione continua tra reale e virtuale. Il concetto di onlife si riferisce quindi alle esperienze quotidiane di connessione e interazione continua, caratterizzata da una indistinzione tra reale e virtuale. Il termine vuole mettere in risalto il fatto che stando in rete non si è fuori dal mondo, perché anche la rete è parte della vita e ha effetti sulla vita reale. Tutto ciò che si fa nel virtuale ha conseguenze sul mondo reale.
Un concetto semplice, ma che rischia di trasformarsi in arma ideologica: incoraggiare l’indistinzione di questo flusso continuo di tempo schermo con la realtà come qualcosa di positivo e/o ineluttabile, significa non stabilire una chiara priorità ontologica del reale sul virtuale e contribuire alla confusione. Si può vivere senza essere connessi ogni minuto, ogni ora, ogni giorno, anche oggi nel 2025, ma non si può usare il digitale senza vivere nel mondo reale: Floridi presenta la onlife come l’ultima frontiera di un’avanzata storica di un progresso tecnologico lineare, che non è né buono né cattivo, ma un destino ineluttabile, non deciso né voluto dagli umani, sul quale pertanto gli umani non possono decidere nulla. Onlife è il condensato dell’ideologia digitale attuale, ma è un concetto che, se applicato a un bambino, diventa estremamente fuorviante. Il caso estremo di un bambino che cresce circondato solo da robot era già stato descritto da Daniel Stern come esperienza psicotica che rende vana la funzione più umana propria della rappresentazione: la distinzione tra realtà e immaginazione.
Le tecnologie, come ci insegnano gli apporti più recenti della storia e dell’antropologia, sono sempre state decise dagli esseri umani e non sono disponibili su una linea retta che necessariamente avanza e progredisce verso le magnifiche sorti e progressive. Anche oggi le tecnologie digitali sono selezionate, decise e regolamentate da esseri umani: il problema è che sono nelle mani di pochissime persone che, pur regolando l’uso degli schermi per i loro figli, hanno tratto enormi profitti dall’assenza di regole per l’esposizione agli schermi della popolazione da 0 a 18 anni.
---
Nel continuare la recensione del libro dovremo cercare di capire la vera ossessione ovvero l’intolleranza verso ogni tipo di regolamentazione del digitale, che, alla luce persino dei tentativi di regolamentazione blanda delle Big Tech, appare oggi come totalmente anacronistico: nel 2026 la questione non sarà infatti se darsi delle regole ma chi scriverà le regole, e quali regole darà per l’uso delle tecnologie digitali, anche ai comuni mortali.
APPROFONDIMENTI:
- https://www.corriere.it/dataroom-milena-gabanelli/smartphone-social-figli-capi-web-li-vietano-motivi/ec8b3ea6-f177-11ec-82b6-14b9a59f244e-va.shtml
La concezione tecnologica del vivente: dalla partenogenesi artificiale alla biologia sintetica - Seconda parte
Nella prima parte di questo articolo, Maurizio Esposito ha esaminato la prima delle tre coordinate che delineano lo spazio della concezione tecnologica del vivente, quella del fare. Nella sua analisi ha fatto riferimento alla controversia tra il fisiologo Jacques Loeb - per il quale la vita è totalmente riducibile a fenomeni fisico-chimici, e l’obiettivo della biologia deve essere la creazione e il controllo dei fenomeni viventi – e il biologo William Emerson Ritter propone una concezione “organicista”, in cui le entità biologiche non sono riducibili ai soli processi fisico-chimici, poiché possiedono proprietà emergenti che vanno considerate nella loro totalità. Controversia che anticipa l’affermazione della visione ingegneristica e della “science-based industry”.
Passiamo ora alla seconda coordinata: codificare. Non c’è dubbio che le scienze della vita contemporanee siano ormai inseparabili dall’informatica: oggi non si fa biologia senza calcolatori elettronici. Come osserva Hallam Stevens nel suo libro Life out of Sequence: A Data-Driven History of Bioinformatics (2013), durante e dopo Guerra Fredda, la biologia si trasforma in un settore tecnologico ed economico di primo piano anche grazie alle tecnologie digitali. I laboratori cambiano volto, e lo spazio dedicato all’uso delle tecnologie dell’informazione (i cosiddetti dry labs) si amplifica. L’incremento dell’impiego di strumenti digitali non ha avuto soltanto risvolti pratici ed economici, ma soprattutto implicazioni di natura epistemica. L’uso massiccio dei computer ridefinisce la concezione stessa del vivente: tutti i processi organici vengono tradotti in sequenze di zeri e uno, mentre algoritmi, database e software permettono di descrivere, simulare e manipolare processi biologici. L’aspetto forse più significativo della narrazione proposta da Stevens è l’osservazione secondo cui non è stata la tecnologia informatica ad adattarsi alle esigenze dei biologi, bensì i biologi stessi a rimodellare la propria disciplina in funzione delle tecnologie dell’informazione. Ne è scaturita una biologia data-driven, in cui la conoscenza non deriva più soltanto dalla formulazione di ipotesi e dalla loro verifica sperimentale, ma soprattutto dalla raccolta e dall’analisi di enormi quantità di dati. In genomica, per esempio, le sequenze di DNA, RNA e proteine vengono digitalizzate e trattate statisticamente. Malattie, tratti ereditari e caratteristiche fenotipiche si trasformano in insiemi di dati da mettere in correlazione. La conoscenza si manifesta nella capacità di decontestualizzare e poi ricontestualizzare dati discreti, riconoscendo pattern e regolarità che affiorano da basi di dati potenzialmente infinite.
Negli anni Sessanta, il biologo molecolare statunitense Joshua Lederberg fu tra i pionieri nell’uso delle tecnologie digitali in biologia, mentre il fisico nucleare Walter Goad applicò tecniche statistiche per modellare fenomeni biochimici complessi utilizzando calcolatori via via più complessi. Negli anni Settanta e Ottanta, la biologia cominciò a trattare DNA e proteine come “sequenze” di dati, aprendo la strada alla nascita della bioinformatica. Con il Progetto Genoma Umano, la disciplina si consolidò definitivamente, rendendo necessario l’uso di computer sempre più potenti per gestire e analizzare enormi quantità di dati in tempi brevi. Stevens osserva che i laboratori contemporanei richiedono così nuove figure professionali: matematici, informatici e ingegneri diventano componenti essenziali dei team di ricerca. In molte istituzioni, i biologi non rappresentano più la categoria predominante. La ricerca non consiste più soltanto nell’elaborazione di teorie, ma nella produzione, gestione e interpretazione dei dati, che assumono al tempo stesso valore scientifico ed economico.
Il Progetto Genoma Umano segnò senz’altro una svolta: sequenziare non era più un’attività ancillare, ma un obiettivo in sé, organizzato con criteri industriali. Per esempio, attraverso il suo studio etnografico condotto nei laboratori del Broad Institute di Boston, Stevens rileva l’adozione dei metodi della Lean production di Toyota: riduzione degli sprechi, ottimizzazione dei tempi e miglioramento della gestione dei dati. Si sviluppa così, secondo Stevens, una sorta di “Lean Biology”, in cui la produzione efficiente di dati diventa centrale. Il computer, in questo contesto, non è solo archivio: diventa strumento di modellizzazione, visualizzazione e sperimentazione virtuale. Le mappe genetiche e le rappresentazioni digitali permettono di manipolare fenomeni invisibili e di immaginare nuovi esperimenti. La bioinformatica non si limita a ordinare dati per fare biologia: essa stessa produce un nuovo tipo di scienza. Questa trasformazione ha reso la biologia una scienza predittiva e quantitativa, aprendo la strada alla medicina personalizzata e alla genetica individuale. Insomma, le tecniche digitali permettono di tradurre sequenze complesse in oggetti concreti e manipolabili, cambiando il modo stesso di concepire i fenomeni organici.
Veniamo infine alla terza coordinata: quella del promettere. Infatti, sostengo che questa concezione tecnologica del vivente si nutre di anticipazioni, proiezioni e utopie; cioè, non si limita a descrivere ciò che il vivente è, ma immagina e prefigura ciò che potrebbe diventare. Nel 2017, ho pubblicato un articolo intitolato “Expectation and Futurity: The Remarkable Success of Genetic Determinism”. Nell’articolo ho analizzato alcune delle visioni futuristiche che hanno accompagnato le scienze della vita nel corso del XX secolo. Nell’articolo osservavo che la costante ossessione per il futuro ha svolto una duplice funzione: da un lato, mantenere vivo l’interesse politico e sociale per determinati ambiti della ricerca scientifica; dall’altro, giustificare finanziamenti e sostegno pubblico, promettendo benefici straordinari, e al contempo concreti, nel breve e nel lungo periodo.
Già sul finire degli anni Venti del secolo scorso, lo scrittore di fantascienza Herbert G. Wells e il biologo inglese Julian Huxley, nel libro The Science of Life, immaginavano un mondo in cui la natura selvaggia si sarebbe trasformata in un giardino globale, privo di malattie e di specie pericolose. Nel 1934, in un articolo intitolato “The applied science of the next hundred years: Biological and social engineering”, Huxley scriveva che l’ingegneria biologica sarebbe diventata la scienza del futuro che avrebbe trasformato l'eredità biologica dell’umanità. Nel 1937, il genetista americano Hermann Muller tentò di persuadere Stalin che la genetica rappresentasse una risorsa fondamentale per il progresso della società sovietica. Come affermava enfaticamente in una lettera inviata a Stalin nel 1937, l’oggetto della missiva riguardava “…il controllo consapevole dell’evoluzione biologica dell’uomo, ossia la capacità dell’uomo di governare il patrimonio ereditario che sta alla base della vita umana” (Muller, 1937, mia traduzione). Nel discorso pronunciato durante la cerimonia del Premio Nobel ricevuto nel 1958, George Beadle ed Edward Tatum parlarono dell’avvento di un’epoca in cui il “codice” della vita sarebbe stato decifrato, aprendo la strada a un miglioramento radicale di tutti gli organismi viventi attraverso l’ingegneria biologica. Nel 1976, sulle pagine di BioScience, in un breve scritto intitolato “Recombinant DNA: On Our Own”, Robert Sinsheimer (il biologo molecolare che fu tra i principali ispiratori del Progetto Genoma Umano) immaginò che la biologia del futuro sarebbe stata in grado di rimodellare il mondo vivente secondo una proiezione della volontà umana.
Con il Progetto Genoma Umano, questa retorica della promessa si intensificò ulteriormente: nel 2005, Craig Venter dichiarò che conoscere il proprio genoma avrebbe permesso agli individui di prendere il controllo della propria vita e di prevedere il futuro delle proprie malattie. Imprenditori come Venter si sono adoperati per persuadere gli investitori del potenziale economico e sociale della genomica. Sebbene gli interlocutori cambino, l’idea di fondo rimane la stessa: il futuro della società dipende dalla capacità di controllare i geni, ossia le “lettere” che compongono l’”alfabeto” del vivente. In sintesi, la biologia deve diventare un’ingegneria del futuro, come Loeb aveva già prefigurato all’inizio del XX secolo.
La controversia tra Loeb e Ritter, tra riduzionismo ingegneristico e organicismo sistemico, rimane ancora oggi un nodo irrisolto. Sebbene l’approccio tecnologico al vivente abbia prodotto risultati di straordinaria rilevanza, esso rischia al contempo di appiattirne la complessità a meri dati, trascurando le dimensioni ecologiche e relazionali (una preoccupazione condivisa da tutti i discendenti di Ritter). In ogni caso, il potere della concezione tecnologica del vivente non risiede tanto nella sua pretesa di verità, quanto nella sua capacità di ridurre la complessità, semplificare e mostrare che la vita può essere manipolata e trasformata. Inoltre, proprio perché è una scienza orientata alla trasformazione, essa non teme di promettere più di quanto realizzi: vive infatti di proiezioni che vengono rapidamente dimenticate e sostituite da utopie ancora più ambiziose.
Oggi più che mai, mentre nuove biotecnologie come l’editing genetico e la biologia sintetica aprono possibilità inedite, la domanda rimane la stessa che animava la polemica tra Loeb e Ritter: la biologia deve limitarsi a comprendere la vita o deve rivendicare il potere di trasformarla radicalmente? Insomma, la biologia va intesa come una scienza naturale del presente o come un’ingegneria del futuro? Al di là delle opinioni che possiamo avere in proposito, la storia insegna che la forza della concezione tecnologica non deriva dalla sua abilità esplicativa, bensì dalla sua capacità di mobilitare risorse e orientare la ricerca in funzione di priorità e visioni future.
La concezione tecnologica del vivente: dalla partenogenesi artificiale alla biologia sintetica - Prima parte
Nel corso della storia della biologia sono emerse diverse concezioni su cosa sia un essere vivente. Ci si è spesso chiesti come distinguere ciò che è vivo da ciò che non lo è, da cosa è composta la materia vivente, come è organizzata e da dove deriva questa organizzazione. Gli antichi materialisti, per esempio, sostenevano che gli esseri viventi nascessero per generazione spontanea, cioè da un incontro casuale di determinati tipi atomi e da una sorta di “selezione naturale” che lasciava persistere solo quei composti atomici, e quindi quelle forme, che si inquadravano in certi tipi di ambiente. Aristotele, nelle sue principali opere filosofiche e biologiche, rifiutò l’idea che l’organizzazione degli esseri viventi potesse essere frutto dell’incontro fortuito di atomi. L’organizzazione biologica richiedeva per Aristotele un principio ordinatore: un’anima che dava forma alla materia, ne permetteva la riproduzione e ne garantiva la permanenza.
Dalla critica di Aristotele alla concezione materialistica nacque così un’altra visione del vivente: quella ilemorfica. Questa visione non solo affermava che un organismo era costituito di materia e forma, ma supponeva anche che in un essere vivente “il tutto era maggiore della somma delle sue parti”, ove il “tutto”” doveva spiegare perché le parti si organizzano in un modo e non in un altro. Il “naturalista” Aristotelico doveva pertanto studiare i fenomeni biologici partendo da quella “totalitá”, cioè dalle funzioni, dagli scopi e fini che spiegano la persistenza e conformazione della materia. Questo paradigma rimarrà dominante fino all’età moderna, quando un autore spagnolo ancora poco conosciuto, il medico medinense Gómez Pereira, propose, in un testo alquanto oscuro, intitolato Antoniana Margarita e pubblicato nel 1554, un’idea diversa: il principio organizzatore, cioè l’anima, esiste solo negli esseri umani. Animali, piante e organismi in generale, secondo Pereira, sarebbero semplici macchine e andrebbero studiati come tali. Cartesio riprenderà questa intuizione e ne farà un vero e proprio programma di ricerca. Un programma che conobbe un discreto successo, suscitando numerose critiche e controversie fino ai nostri giorni.
Si può senz’altro sostenere che la concezione meccanicistica sia, in realtà, già una concezione tecnologica, nella misura in cui trae ispirazione dalle macchine. Il meccanicismo, dopotutto, prende le sue mosse dalla costruzione di macchine: orologi, automi, fontane automatiche e dispositivi dedicati alla produzione. Tuttavia, come si cercherà di mostrare in ciò che segue, esistono differenze fondamentali tra la concezione meccanicistica classica e la concezione tecnologica che emergerà nel XX secolo, anche se entrambe condividono l’idea che il fare o costruire sia il principio cardine del conoscere. Per avvicinarsi alla concezione tecnologica che sto qui delineando, propongo quindi di considerare altre due coordinate fondamentali, oltre a quella d’ispirazione cartesiana. Si tratta, cioè, del passaggio da una scienza delle ipotesi a una scienza dei dati, e del carattere essenzialmente promissorio di questa visione, che alimenta aspettative riguardo a future soluzioni tecniche volte alla trasformazione direzionata del vivente in tutti i suoi aspetti. In sintesi, sostengo che la concezione tecnologica del vivente si collochi nello spazio delimitato da tre coordinate principali (pur senza escluderne altre possibili): fare, codificare e promettere.
Partiamo dalla prima coordinata. Un testo fondamentale che andrebbe riconsiderato è La concezione meccanicista della vita pubblicato nel 1912. L’autore è il fisiologo statunitense Jacques Loeb. In estrema sintesi, il libro di Loeb afferma due cose principali: primo, la vita è totalmente riducibile a fenomeni fisico-chimici; e secondo, l’obiettivo della biologia deve essere la creazione e il controllo dei fenomeni viventi. La biologia, dunque, non dovrebbe più appartenere al campo delle scienze naturali, ma collocarsi nell’ambito più concreto dell’ingegneria. Loeb giustifica le proprie conclusioni richiamando uno dei suoi esperimenti più celebri: quello sulla partenogenesi artificiale, in cui riuscì a indurre lo sviluppo di uova di riccio di mare senza fecondazione, ma tramite determinati stimoli fisico-chimici (soluzioni saline e cloruro di magnesio). Egli interpretò questo risultato come una prova decisiva del fatto che la vita potesse essere manipolata e attivata artificialmente. Il suo intento era dimostrare che, in linea di principio, tutti i processi vitali potevano essere ricondotti a meccanismi chimico-fisici, riproducibili e controllabili in laboratorio.
Come era prevedibile, le conclusioni di Loeb suscitarono numerose reazioni e controversie. Basti ricordare la reazione del biologo statunitense e primo direttore dello Scripps Institution of Oceanography, William Emerson Ritter. Nel 1919, dunque 7 anni dopo la pubblicazione del libro di Loeb, Ritter diede alle stampe un testo polemico intitolato The Unity of the Organism; Or, The Organismal Conception of Life. Nel testo, Ritter sosteneva che la concezione “meccanicistica” di Loeb dovesse essere sostituita da una concezione “organicista”. Le entità biologiche, infatti, non sono riducibili ai soli processi fisico-chimici, poiché possiedono proprietà emergenti che vanno considerate nella loro totalità. Il progetto di un’ingegnerizzazione del vivente si scontrava, secondo lui, con l’estrema complessità e flessibilità degli organismi. La concezione organicista da lui difesa poneva l’accento sull’unità e integrità delle entitá organiche. Il vivente costituiva una categoria ontologica autonoma, estranea a ogni riduzione ingegneristica. Inoltre, Ritter contrapponeva all’ideale di una scienza puramente sperimentale, orientata all’ingegneria del vivente, una visione più tradizionale delle scienze naturali, intese come discipline fondate sull’osservazione diretta dei fenomeni naturali.
Non c’è dubbio che, al di là delle differenti prospettive e sensibilità scientifiche e intellettuali, tra Loeb e Ritter esistessero anche divergenze politiche. Se Loeb rappresentava una visione tecnocratica, convinta che il progresso sociale e politico dovesse passare attraverso il controllo della vita stessa, Ritter, al contrario, rappresentava una visione più sistemica e “democratica”, in cui la biologia costituiva un sapere importante, ma non esclusivo, nella gestione dell’essere umano e della società. Non è un caso, per esempio, che Ritter fosse anche un critico acerrimo di ogni forma di determinismo genetico, che egli considerava una manifestazione di fatalismo.
La controversia tra Loeb e Ritter, infatti, si sviluppa in un momento storico particolare. Come sostiene David F. Noble nel suo libro America by Design (1977), negli Stati Uniti di fine Ottocento e inizio Novecento si generò una tensione tra le scienze naturali tradizionali e le nuove professioni emergenti legate alle “arti” applicate. In questo contesto, la professione dell’ingegnere acquisisce un prestigio crescente. A partire dal 1860, Università come il MIT, Harvard e Yale istituiscono corsi di scienze applicate, mentre grandi industrie come General Electric, DuPont ed Eastman Kodak fondano laboratori di ricerca propri, assumendo scienziati formati nelle università tradizionali con l’obiettivo di sviluppare nuove tecnologie. Nasce cosí quello che Noble definisce “science-based industry”. È in questo contesto storico che l’aggettivo “ingegneristico” assume un significato particolare. Quando Loeb parla di “biologia ingegneristica”, intende affermare che la biologia deve appartenere alle scienze produttive, cioè a quelle discipline capaci di trasformare materiali e processi vitali a fini umani. In altre parole, la biologia deve trovare il proprio posto all’interno di questa “science-based industry”. A posteriori, si può affermare che la visione ingegneristica di Loeb abbia avuto un successo di gran lunga superiore rispetto a quella di Ritter, che è rimasta piuttosto marginale (anche se non è mai scomparsa).
Un esempio significativo che ha sancito il successo di questa visione loebiana è rappresentato dalla biologia molecolare. Come mostra Lily Kay nel suo libro The Molecular Vision of Life (1993), questa disciplina fu plasmata non solo da esigenze interne alla scienza, ma anche da contesti ideologici e istituzionali. Gia a partire dagli anni trenta del XX secolo, fondazioni come la Rockefeller e istituzioni come il Caltech promossero una visione riduzionista, meccanicistica e orientata al controllo, che in seguito sarebbe entrata in sintonia con le logiche della Guerra Fredda. In un altro volume, Who Wrote the Book of Life? A History of the Genetic Code (2000), Kay analizzò lo sviluppo delle scienze della vita nel secondo dopoguerra, mettendo in evidenza l’emergere di metafore derivate dalla teoria dell’informazione e dall’ingegneria, che, secondo l’autrice, influenzarono profondamente la biologia, sia prima sia dopo la scoperta della struttura molecolare del DNA nel 1953. La concezione del DNA come “codice”, ovvero come un insieme di informazioni discrete contenute nelle macromolecole che costituiscono il materiale ereditario, deve molto all’ingegneria dell’informazione. L’organismo stesso viene così concepito come un sistema di input e output governato da leggi prevedibili. Come sottolinea Kay, la metafora del “codice” non è mai stata neutrale ma ha condizionato lo sviluppo della disciplina stessa. Tuttavia, tale “visione molecolare” ha spesso ignorato le complessità ambientali, epigenetiche e sistemiche che caratterizzano i fenomeni viventi.
La prossima settimana analizzeremo la seconda e la terza coordinata, codificare e promettere.
Recensione di Oltre la tecnofobia, il digitale dalle neuroscienze all’educazione - Prima parte
A maggio di quest’anno è uscito un libro, Oltre la tecnofobia, Il digitale dalle neuroscienze all’educazione di Vittorio Gallese, Stefano Moriggi, Pier Cesare Rivoltella, che – dichiaratamente, fin dal titolo – intende proporre una visione in controtendenza rispetto alla tecnofobia che sta dilagando tra media, common sense, e riflessioni accademiche.
Abbiamo accolto con grande interesse la riflessione critica, acuta e articolata, di Simone Lanza che, con il pretesto di confrontarsi con le tesi degli autori, costruisce un ragionamento parallelo su tematiche quali la metafora del cervello come computer, l’identità di rappresentazione dei mondi analogico e digitale, e il presunto autoritarismo celato da divieti e restrizioni dell’uso delle tecnologie digitali a bambini e ragazzi.
In questo primo articolo presentiamo la sintesi della recensione del libro; nei successivi tre seguiremo il ragionamento analitico di Simone Lanza.
-----
Il saggio di Vittorio Gallese, Stefano Moriggi, Pier Cesare Rivoltella si scaglia contro la tecnofobia, figlia di una lunga tradizione storica che ha visto demonizzare ogni rivoluzione tecnologica “dall’invenzione del fuoco agli smartphone” (p.22), dalla scrittura alfabetica alla fotografia, dal cinema alla televisione, fino all’attuale panico morale. Gli autori si adoperano a smontare con vigore le tesi di Jonathan Haidt (La generazione ansiosa), secondo cui i giovani sarebbero vittime passive di tecnologie portatrici di ansie sociali; a loro avviso, il vero problema non è il digitale ma la paura culturalmente costruita che lo circonda, una nostalgia reazionaria per un passato idealizzato, sostenuta da divieti inefficaci e da un’autorappresentazione sociale che colpevolizza le nuove generazioni.
Il limite più rilevante del saggio è che, credendo di criticare la diffusione della tecnofobia, non analizza il mondo odierno, ben plasmato in profondità dalle piattaforme digitali, che invece mettono a valore le paure sociali, che sono la leva e non la resistenza alla diffusione di massa di queste tecnologie. Il libro, soprattutto, fa un pessimo uso delle sue tre fonti principali chiamate a corroborare l’impostazione teorica: Walter Benjamin, Bernard Stiegler, Paulo Freire. Se quindi in questa recensione si darà eccessivo spazio a questi testi non è tanto per restituire alle tre fonti la loro forza critica, completamente rimossa nel libro in questione, quanto perché questa operazione consolida, con il linguaggio scientifico, una serie di luoghi comuni, che qui si intendono invece sottoporre a critica. Presenterò subito i contenuti.
Nella prima parte (gnoseologica), ispirata alle ricerche delle neuroscienze, gli autori demoliscono la metafora del cervello come computer. L’essere umano è dotato di intersoggettività corporea e i neuroni motori si attivano anche nella percezione di stimoli visivi o tattili senza produrre movimento effettivo. Questa simulazione motoria dimostrerebbe che “i meccanismi cervello-corpo che consentono la nostra relazione fisica e diretta con il mondo (…) e quelli che intervengono nel mondo – analogico e digitale – con cui rappresentiamo il mondo con storie e immagini, sono molto simili” (p.37). Non esiste così una differenza qualitativa o ontologica nel modo in cui “rappresentiamo” (p.41) il mondo perché il primo medium sarebbe il corpo (p.21). Il riferimento principe della prima parte è al filosofo Walter Benjamin, primo critico ad avere compreso che i media trasformano la stessa percezione dell’esperienza del mondo reale. Ne L’opera d’arte al tempo della sua riproducibilità tecnica sostiene che i media (essenzialmente fotografia e cinema) hanno cambiato il modo di percepire il reale.[1] Sulla confusione tra esperienza di mondo di Benjamin con la rappresentazione del mondo si tornerà più avanti, perché questa confusione permette di sovrapporre la rappresentazione del mondo analogico a quella digitale, perdendo di vista la dimensione esperienziale del mondo reale, di cui il virtuale è solo una parte.
Nella seconda parte (ontologica) si sostiene la tesi che l’indistinzione percettiva sia anche costitutiva del reale, cioè che virtuale e reale siano sovrapponibili. Un’idea dura a morire per la resistenza del buon senso umanista a cui i nostri autori contrappongono le tesi del filosofo Bernard Stiegler, per il quale la tecnologia non è esterna all’umano, perché l’evoluzione umana è “tecnologico-umana” (p.23). A ulteriore conferma portano una tesi di Debord riproposta in modo forse impreciso: “tutto ciò che un tempo veniva vissuto direttamente è ora semplicemente rappresentato a distanza (sic).” (p.43). Secondo me, la traduzione corretta è “tutto ciò che era direttamente vissuto si è allontanato in una rappresentazione”. Che poi è proprio ciò che i nostri autori non vogliono capire: lo schermo trasforma (e allontana) il vissuto in rappresentazione, come si vedrà più avanti.[2] In ogni caso la loro argomentazione è che la contrapposizione tra umano e tecnologia sia sterile, storicamente infondata e filosoficamente inadeguata, seguendo le tesi del filosofo francese Bernard Stiegler, in Italia sicuramente non abbastanza riconosciuto. Stiegler elabora da Derrida la nozione di tecnica come pharmakon (veleno e farmaco insieme): come la scrittura per Platone così anche il digitale è intrinsecamente ambiguo potendo avvelenare o curare a seconda della dose.
Questa prospettiva smaschererebbe la tecnofobia umanista, radicata al contrario in una nostalgia metafisica che contrappone artificiosamente l’uomo alla macchina, il naturale al tecnologico. Da questa prospettiva teorica, per altro assolutamente condivisibile, anche alla luce del dibattito filosofico in corso sul post-umano (dibattito non menzionato), si passa però velocemente a polemizzare con le soluzioni di "buon senso" derivate da questa visione semplicista: ecco che il concetto di "benessere digitale" è una trappola che scarica sulle macchine responsabilità umane, mentre i divieti (come gli smartphone vietati sotto i 14 anni, le circolari del Ministero, etc...) ignorano la complessità del rapporto coevolutivo tra essere umano e tecnica. Qui gli autori si buttano nelle braccia dello psicologo Matteo Lancini: per gli adolescenti in ritiro sociale (hikikomori), i media digitali non sarebbero la causa del male, ma il farmaco che evita esiti psicotici, permettendo loro di restare agganciati al mondo. Viviamo ormai in una realtà onlife, dove ogni distinzione tra on line e off line sarebbe obsoleta. Gli autori ci invitano ad "abitare farmacologicamente (e dunque consapevolmente) la catastrofe" (p.107): riconoscere le tossicità del digitale senza rinunciare alle sue potenzialità curative. Questa parte teorizza l’inseparabilità di umano e tecnologico deducendone la polemica contro il buon senso umanista sulle misure da prendere per gli abusi degli smartphone in età adolescenziale. Da un lato polemizzano contro le misure di buon senso dall’altro si limitano a segnalare solo alcune storture delle tecnologie informatiche nominando essenzialmente i rischi dei deepfake e della disinformazione delle fake news che viaggiano più veloci delle notizie vere. Gli autori sono fermamente convinti che “l’avvento dei media digitali ha democratizzato l’accesso alle informazioni” (p. 56) e che “l’ascesa delle piattaforme sociali ha permesso ai politici di interagire direttamente [sic] con gli elettori” (p.57): convinzione quest’ultima che forse alla fine del XX secolo poteva essere anche condivisibile, ma che dopo la Brexit e il ruolo di Cambridge Analytica, per non parlare della fine di ogni regolamentazione avanzata da Trump, suona quanto meno goffa, se non persino collusa.
La critica si fa totalmente pedagogica nella terza parte, dove ogni suggerimento pratico volto a limitare l’uso delle tecnologie è definito autoritario. Per questa operazione si scomoda il pedagogista Paulo Freire citandolo in esergo e avvalendosene nell’argomentazione: secondo gli autori i divieti inibiscono la capacità critica e deresponsabilizzano gli adulti e chi si vuole educare. Portano l’esempio di genitori cattivi che negano le carte Pokémon ai propri figli, i quali finiscono però per riceverle dai loro pari per una sorta di giustizia compensativa, traendo questa conclusione: “i divieti non reggono all’urto dei gruppi di pari” (p.144). L’ansia di controllo – già evidente in Platone con la sua diffidenza verso la scrittura – sarebbe il vero male: vietare informazioni ai minori è un modello fallimentare, poiché il gruppo dei pari compensa sempre le privazioni. Qui proprio gli autori abbracciano una posizione molto netta: “ogni scelta di protezione [sic] o di divieto, in senso proprio, non è educativa” (p.147). Anche qui mi sia lecito approfondire la questione per capire come Freire la pensasse davvero, ma soprattutto se l’antiautoritarismo non sia oggi qualcosa che potremmo ritenere inadeguato nonché anche abbondantemente superato dai dibattiti pedagogici contemporanei sulla crisi dell’autorità genitoriale.
Questo libro ci dà l’occasione per criticare sette luoghi comuni di cui questo manifesto “tecno-ottimista” sarebbe la versione “scientifica”. Lo sforzo dei nostri autori consiste nel convincere che ciò che viene vissuto sia sostanzialmente identico a ciò che viene rappresentato a distanza: stare tutto il giorno davanti a uno schermo sarebbe la stessa cosa che fare esperienze nel mondo reale, a due anni come a novanta, senza curarsi di dire qualcosa di critico sul fatto che ciò che passa oggi attraverso lo schermo è selezionato e personalizzato da algoritmi progettati da un pugno di miliardari che stanno aumentando le loro ricchezze e che non hanno alcuna finalità pedagogica se non quella di modellare i comportamenti di miliardi di persone.
NOTE
[1] Gallese aveva già ampiamente sviluppato queste tesi con M. Guerra in Lo Schermo Empatico. Cinema e Neuroscienze, Milano 2015. Su Walter Benjamin cf. anche: V. Gallese, Digital visions: the experience of self and others in the age of the digital revolution, in “International Review of Psychiatry”, n. 36, 2024, pp. 656–666. Per una ricostruzione analitica di Benjamin mi sia consentito rimandare a: S. Lanza, L’educazione nell’epoca della riproducibilità tecnica. note su Walter Benjamin, in “Quaderni Materialistici”, n. 23, 2024, pp. 155-176
[2] La traduzione della Società dello spettacolo proposta autonomamente dai nostri autori è quanto meno discutibile: meglio sarebbe stato conservare la traduzione dal francese di Stanziale “Tutto ciò che era direttamente vissuto si è allontanato in una rappresentazione [c’est éloigné dans une raprésentation]”. La traduzione di questo passaggio diventa pertanto proprio il tradimento proprio di ciò che Debord denuncia: con la società capitalistica l’esperienza vissuta viene mercificata e sostituita da una rappresentazione, spettacolo è quindi “il movimento autonomo del non-vivente”, etc.… proprio perché Debord auspicava una società diversa capace di usare in modo migliore le tecnologie.
Decomputing come atto di resistenza – Seconda parte
Nella prima parte di questo articolo ho esaminato come l'I.A. «sia di per sé un problema tecnico, un balbettante passo falso dell'ordine neoliberista che ne suggerisce l’intrinseco disordine», tracciando un percorso che ne tocca la dannosità, la dimensione violenta – sia dal punto di vista geopolitico che ambientale – l’effetto perverso della scalabilità, per arrivare al concetto di tecnofascismo.
Quello che proporrò, ora, come contromisura è il decomputing; un approccio che prende di mira direttamente l'intelligenza artificiale, ma riguarda e intende scollegare qualcosa di più del solo digitale, fino a riconfigurare le nostre relazioni sociali ed economiche più ampie.
DECRESCITA
Il decomputing è un tentativo di rispondere ai danni sociali e ambientali, via via crescenti, che l’attuale evoluzione tecnopolitica sta producendo; e, il rifiuto della scalabilità è un modo per mitigare gli effetti peggiori e un’euristica mirata a trovare modi alternativi di procedere.
Al contrario della scalabilità dell'IA – il cui fascino e potere è basato sul principio unificante della crescita senza restrizioni - il decomputing è una svolta verso la decrescita, una sfida esplicita all'estrattivismo dell'IA e alle sue logiche sistemiche.
Soprattutto, la decrescita non è semplicemente un rifiuto di dipendere dall'espansionismo, un tentativo di interrompere – qui e ora - l'estrattivismo dell'IA, ma uno spostamento dell'attenzione verso un metabolismo alternativo basato sulla sostenibilità e la giustizia sociale.
DEAUTOMATIZZAZIONE
Il principio del decomputing si oppone alla scalabilità anche perché questa induce uno stato di automatizzazione, in cui l'autonomia e la capacità di pensiero critico sono minate dall'immersione in un sistema di relazioni macchiniche.
In questo senso, l'IA è un'intensificazione delle strutture istituzionali, burocratiche e di mercato che già spogliano i lavoratori e delle comunità della loro agentività, e la collocano in meccanismi opachi e astratti. Il decomputing, al contrario, è la districazione del pensiero e delle relazioni dalle influenze riduttive delle logiche – appunto – burocratiche e di mercato che l’IA replica e rafforza.
Come esempio pratico, possiamo prendere in considerazione il caso del processo di tagli algoritmici al welfare, che viene legittimato proprio dalla presenza di un umano (human-in-the-loop) – come elemento di controllo: l’azione umana, il cui obiettivo dovrebbe essere di garantire un processo giusto, viene neutralizzata dal bias dell'automazione e dall’architettura delle scelte che tende ad allinearsi alla proposta – presunta neutrale – della macchina.
Il decomputing si propone, invece, come modello di sviluppo di forme alternative di organizzazione e di processo decisionale, sostenute dal giudizio riflessivo e dalla responsabilità situata.
Il decomputing riguarda, sia la deprogrammazione della società dalle sue certezze tecnogeniche quanto la decarbonizzazione delle sue infrastrutture computazionali.
La dataficazione e l'ideologia dell'efficienza giocano un ruolo chiave nelle ottimizzazioni negligenti e disumanizzanti dell'IA.
Il decomputing tenta, invece, di strappare la prassi sociale alla crudeltà utilitaristica apertamente celebrata dai seguaci della tecnopolitica reazionaria.
Si tratta di un deliberato allontanamento dai quadri alienanti dell'efficienza e dell'ottimizzazione e di un ritorno al contesto e alle "questioni di cura" in cui le nostre reciproche vulnerabilità e dipendenze sono centrali per la riproduzione sociale.
STRUMENTI CONVIVIALI
Il decomputing afferma che lo sviluppo e l'implementazione di qualsiasi tecnologia avanzata con impatti diffuso sulla società dovrebbero essere soggetti a un scrutinio critico e all'approvazione collettiva.
Possiamo attingere direttamente dal lavoro di Illich sugli strumenti per la convivialità: Illich definisce, infatti, strumenti le tecnologie e le istituzioni, e strumenti conviviali quelli che consentono l'esercizio dell'autonomia e della creatività, in opposizione alla risposte condizionate dai sistemi manipolativi.
La Matrice delle Tecnologie Conviviali estende le idee di Illich, specificando domande che permettono di valutare il grado di convivialità delle tecnologie, domande sull'accessibilità (chi può costruirla o usarla?), sulla relazione (in che modo influisce sulle relazioni tra le persone?) e sulla bio-interazione (in che modo la tecnologia interagisce con gli organismi viventi e le ecologie?).
CONSIGLI POPOLARI
Tuttavia, è improbabile che andremo molto lontano semplicemente ponendo domande ragionevoli sul senso di tutta questa mobilitazione. Il potere delle big tech si è esteso ben oltre la cattura delle norme, fino alla cattura dello stato, o almeno, fino a una situazione in cui c'è una crescente fusione tra gestori delle tecnologie e strutture politiche.
Il decomputing adotta invece un approccio preconizzatore degli effetti della tecnopolitica, enfatizzando il ruolo delle forme assembleari e collegiali che ho descritto altrove come consigli dei lavoratori e del popolo.
Questo tipo di collettività, auto-costituente, radicata nel contesto locale e nell'esperienza vissuta, può essere applicata a qualsiasi livello e in qualsiasi contesto, dalle associazioni genitori-insegnanti che si oppongono alla dipendenza delle giovani menti dai chatbot alle comunità minacciate dalla costruzione di un datacenter hyperscale.
Ovunque l'intelligenza artificiale venga considerata come "la risposta", c'è già una cucitura da scucire, un problema strutturale in cui coloro che sono direttamente coinvolti dovrebbero essere in prima linea nel determinare cosa debba essere cambiato.
RESISTENZA TECNOPOLITICA
La resistenza ai data centre, che è già in atto dai Paesi Bassi al Cile, mostra il potenziale delle giunzioni che si intersecano, di quella che possiamo chiamare intersezionalità infrastrutturale. Queste intersezioni si verificano perché è probabile che le stesse comunità che subiscono interruzioni di corrente a causa del sovraccarico della rete locale o respirano aria inquinata dalle turbine a gas, come – ad esempio - le comunità nere che vivono intorno al data centre XAI di Musk a Memphis, lavorino in condizioni di sfruttamento governate da un algoritmo.
Non è difficile immaginare che la resistenza a un nuovo data center sia solidale - attraverso un'assemblea congiunta di lavoratori e comunità - con gli scioperi selvaggi dei lavoratori nel centro logistico locale di Amazon.
Allo stesso modo, il principio del decomputing può assumere un ruolo importante a supporto dei movimenti per la disabilità, che stanno resistendo ai tagli selvaggi al welfare giustificati da algoritmi che stigmatizzano i disabili come membri improduttivi della società.
Per esempio, si può diffondere la comprensione del modo in cui la disabilità stessa è socialmente costruita dalle tecnologie che la società sceglie di utilizzare o non utilizzare; il concetto di crip technoscience[1] è una critica al ruolo discriminante della tecnologia, e si combina con approcci all'hacking e all'adattamento per rendere la vita delle persone più vivibile; creando così tecnologie conviviali che siano sostenibili e abilitanti.
DECOMPUTING
Il decomputing è, quindi, lo sviluppo di un contropotere rivolto contro l'apparato tecnopolitico dell'IA e contro le sue trasformazioni totalizzanti.
Ciò che il decomputing propone è un percorso verso società costruite su relazioni di cura, i cui attributi non sono l'astrazione e la manipolazione, ma l'aiuto reciproco e la solidarietà. I decomputing afferma che l'autonomia, l'azione e l'autodeterminazione collettiva sono inversamente proporzionali al grado in cui le relazioni umane sono distorte dall'ordinamento algoritmico.
Il decomputing è il progetto di separare la tecnologia avanzata dalle decisioni sugli obiettivi della società. È la riaffermazione della necessità di strumenti conviviali e della costruzione di forme di potere sociale collettivo che possano realizzarli.
Ci sono esempi di lotte contemporanee che non partono direttamente dalla resistenza all'IA, ma combinano comunque la pratica della resistenza auto-organizzata con l'obiettivo di costruire futuri alternativi. Uno di questi è il collettivo di fabbrica GKN, collegato aduna fabbrica in Italia che produceva assali per veicoli, acquistata da un hedge fund che ha cercato di chiuderla e incassare. I lavoratori si sono opposti, hanno occupato il loro posto di lavoro e hanno formato un collettivo con la comunità locale per riutilizzare i loro strumenti per una transizione giusta; cioè, per la giustizia dei lavoratori e la sostenibilità ambientale. Ora producono cargo bike e riciclano pannelli solari e continuano la loro lotta sotto lo slogan partigiano "Insorgiamo!" o "Ci alziamo!".
UN MONDO DA VINCERE
Esigere la determinazione sociale della tecnologia è un modo per scucire la perdita di azione collettiva, risultato di decenni di neoliberismo.
È di questa azione collettiva che avremo bisogno per resistere all'ondata crescente di movimenti politici che vogliono far arretrare ogni tipo di uguaglianza sociale e proiettare la loro visione nichilista attraverso tecnologie che sono già codificate come anti-operaie e anti-democratiche.
E questo è il mio ultimo punto sul decalcolo, che non è una visione per un ritorno a uno status quo pre-IA, ma una rivendicazione deliberata di un mondo migliore per tutti. Una resistenza efficace non è mai stata fondata sulla difesa di uno stato di cose già ingiusto. Ha senso solo come precursore di qualcosa di meglio, avendo l'obiettivo di una società più giusta e più solidale.
Il decomputing è la combinazione di decrescita e tecnopolitica critica che dice che altri mondi sono ancora possibili, e che intendiamo portarli in essere.
NOTE:
[1] La crip technoscience è una prospettiva teorica e un movimento politico che descrive come le persone con disabilità utilizzino, modifichino e reinventino tecnologie e processi scientifici per creare accesso e pratiche di solidarietà nel mondo, piuttosto che essere semplicemente gli utenti di tecnologie prodotte per loro. Il concetto si colloca all'intersezione tra studi critici della disabilità, studi femministi sulla technoscience e pratiche di design, che si contrappone a una visione più tradizionale di design e tecnologia incentrata su un'idea di "normale" o "abilista".
«Tutto bene, madama la marchesa!» - Soluzionismo, accelerazionismo, tecno-ottimismo
Mais, à part ça, madame la Marquise,
tous va très bien, tous va très bien.
(Paul Misraki, 1935)[1]
Dalla celebre Tout va très bien,
madame la marquise, di Paul Misraki,
canzone umoristica francese del 1935.
Di fronte ai pericoli e ai rischi che lo sviluppo tecnologico presenta, sempre più spesso da parte dell’ideologia dominante si risponde o negandoli senz’altro (e riducendo le connesse preoccupazioni a semplici reazioni tecnofobiche), oppure dichiarando che tali controindicazioni in effetti esistono ma vanno per così dire ridimensionate, perché in prospettiva passibili a loro volta di soluzione tecnica. Questa seconda strategia argomentativa è negli ultimi tempi, a fronte della sempre maggior evidenza dei problemi ecologici e non solo, largamente dominante. Il risultato che si ottiene, sul piano ideologico, non è poi tanto diverso da chi nega semplicemente i problemi: si afferma, infatti, che i rischi connessi all’adozione di una certa tecnologia non devono in alcun modo frenarne o rimetterne in discussione l’applicazione. Dal momento che appunto, se problemi e rischi esistono, questi verranno immancabilmente, in futuro, risolti dallo stesso sviluppo tecnico. Così è stato, del resto in passato – si aggiunge – e così sarà in futuro, nei secoli dei secoli, amen. Quest’ultima parola, naturalmente, non viene detta; la metto io solo per richiamare (provocatoriamente) il carattere quasi religioso,[1] o meglio magico-religioso, di tale convinzione.
SOLUZIONISMO
Un esempio notevole di questa visione, che alcuni chiamano “soluzionismo tecnologico” (o semplicemente soluzionismo)[2] si trova nelle recenti dichiarazioni di uno dei big della Silicon Valley, Eric Schmidt, già CEO di Google (dal 2002 al 2011) e più di recente, tra le altre cose, presidente della National Security Commission on Artificial Intelligence statunitense. Parlando a proposito dell’impatto ecologico dell’universo digitale,[3] in particolare con riferimento alla prospettiva di diffusione dell’intelligenza artificiale (molto dispendiosa sul piano energetico), Schmidt ha sostenuto tra l’altro:
«Non raggiungeremo gli obiettivi di sostenibilità perché non siamo organizzati per farlo. Investiamo quindi senza limiti in intelligenza artificiale e data center, anche se consumano tantissima energia, e sarà proprio l’AI a risolvere il problema».
A una prima lettura di queste due frasi, riportate dal “Sole 24 Ore”, appare evidente il non sequitur del ragionamento; ma la cosa non deve stupire, perché alla base sta appunto il dogma soluzionista. Continua infatti Schmidt:
«È in arrivo un’intelligenza aliena. Tutto sarà sommerso dalle enormi esigenze di questa tecnologia […]. Potremo commettere degli errori nell’utilizzarla ma non arriveremo mai alla soluzione attraverso la conservazione. Investiamo senza barriere e sarà lei a fornirci la risposta».[4]
A voler essere benevoli, si potrebbe dire che questo “soluzionismo”, questo ottimismo radicale riguardo alla capacità del genere umano di trovare, appunto, soluzioni ai problemi che di volta in volta si trova di fronte, compresi quelli che esso stesso produce, sia in fondo lo sviluppo di un’idea profonda e ben radicata nella cultura dell’Occidente, e che troviamo per esempio in alcuni celebri versi dell’Antigone di Sofocle, allorché l’uomo viene definito «sempre capace di trovare soluzioni» (così si potrebbe tradurre l’aggettivo usato dal tragediografo greco, pantòporos).[5]
Ora, ammesso e non concesso che si debba necessariamente dar ragione a Sofocle, credo che si possa certo convenire che l’uomo è sempre stato capace di cavarsela in situazioni complesse; e tuttavia questo non è un buon motivo per credere che riuscirà a farcela sempre e comunque, e dunque per figurarsi una sorta di onnipotenza dell’uomo. E del resto, com’è noto, apparteneva alla saggezza dell’antica Grecia (e dello stesso Sofocle nel verso appresso), insieme a questa precoce capacità di cogliere l’ingegnosità umana e le sue capacità di sovrastare le asperità della natura, anche la precisa consapevolezza che – parole questa volta di Eschilo nel Prometeo incatenato – «la tecnica è di gran lunga più debole della necessità».[6] Da notare che lo stesso quotidiano economico, evidentemente perplesso, chiede il parere dello scienziato Francesco Stellacci (IPFL, Politecnico federale di Losanna), che definisce una simile posizione molto pericolosa,
«perché è basata sull’ipotesi che una soluzione esista; e cosa succederebbe allora se una soluzione non esistesse? Per altri aspetti importanti della sostenibilità come il consumo del cibo e di materie prime, ad esempio, la soluzione non esiste affatto».
E perché non pensare, allora, che tra i modi per fare fronte alle difficoltà e ai rischi, dunque per rendere onore a tale nostra pantoporìa, non ci sia, per esempio, il principio di precauzione, la scelta cioè di astenersi da certe scelte, il rifiuto di applicare certe tecniche ecc.? Non è anche questo un modo intelligente per andare verso un futuro così ricco di incertezze e pericoli?
ACCELERAZIONISMO E TECNO-OTTIMISMO
Qui – abbandonando ora gli antichi e tornando purtroppo ai contemporanei – si aggiunge un altro elemento a determinare il cocktail dell’ideologia tecno-nichilistica contemporanea: quello del culto dell’accelerazione, o accelerazionismo, anch’esso evidente nelle dichiarazioni che stiamo esaminando.
Già fortemente implicata nell’idea di progresso, e secondo alcune letture (come quella di Koselleck)[7] interpretabile almeno in parte come concetto religioso secolarizzato, l’idea di accelerazione appare un tratto caratterizzante del mondo moderno, in particolare dalla rivoluzione industriale in avanti. L’accelerazione appare non solo un carattere dell’industria moderna, ma allo stesso tempo un imperativo tecnico, etico e politico per la società nel suo complesso: se infatti – questa la tesi – la via intrapresa dall’umanità è senza dubbi orientata alla piena felicità, allora appare sensato invocare l’accelerazione di tutti i processi in essere.
A rigore, l’accelerazionismo sarebbe una corrente minoritaria (e piuttosto bizzarra) di marxisti angloamericani che, in linea con un certo Marx, perorano la causa di uno sviluppo estremo di ogni innovazione tecnologica, certi che questo infine porterà al comunismo, ambiente nel quale peraltro lo sviluppo troverà davvero modo di espandersi, dal momento che il modo di produrre capitalistico, secondo loro – e sempre secondo un certo Marx – è dello sviluppo tecnico in verità anche un freno (poiché i rapporti sociali di produzione costituirebbero, per ragioni su cui non è possibile qui soffermarsi, una “costrizione” allo sviluppo delle forze produttive).[8]
Non intendo però qui occuparmi di questa scuola di pensiero, ma di quell’accelerazionismo che è invece normalmente presente nella logica di funzionamento dell’attuale capitalismo e che soprattutto sta nella ideologia di molti dei suoi agenti, in particolare dalle parti dell’industria digitale, dove non s’accompagna certo a fantasie socialiste ma molto più prosaicamente alle proprie prospettive di arricchimento.[9] Ecco, nelle parole che abbiamo letto prima, infatti, risuona anche questo imperativo: lo sviluppo tecnologico, la macchina tecno-economica non si deve fermare, né rallentare, per alcuna ragione, ma anzi deve costantemente accelerare. Tanto più rapida sarà, in tal modo anche la soluzione ai problemi e ai “guasti” eventualmente prodottisi. Se si vuole un’esemplificazione molto chiara di tale concezione, si può leggere utilmente il Technooptimist Manifesto di Marc Andreessen (2023):
«Crediamo che non esista problema materiale, creato dalla natura o dalla tecnologia, che non possa essere risolto con maggiore tecnologia. […] Dateci un problema reale e noi inventeremo la tecnologia che lo risolverà. […] Crediamo nell’accelerazionismo – la propulsione consapevole e deliberata dello sviluppo tecnologico».[10]
Siamo qui in presenza di una variazione sul tema di quel «futurismo nichilista» di cui mi sono occupato in un saggio su “Controversie” qualche tempo fa.[11]
-----
È chiaro che quello che ho qui sommariamente descritto è un ottimo dispositivo culturale di supporto all’attuale sistema economico-sociale sotto forma di celebrazione dell’incessante progresso tecnologico (che è poi – non dimentichiamolo – progresso nell’affermazione del potere del capitale sull’umanità e sulla natura). Un dispositivo che, tra le altre cose, tende a liquidare l’idea che, in un qualunque senso, sia necessario porre qualche freno o controllo sullo sviluppo tecnologico in favore di più importanti valori umani o societari.
Proprio la capacità delle società di governare (lo dice oggi perfino un apologeta della transizione digitale come Luciano Floridi),[12] e dunque anche di frenare in determinate circostanze, gli sviluppi tecnologici sarebbe, invece, essenziale oggi di fronte all’evidenza dei danni ambientali prodotti dal crescere esponenziale dell’infrastruttura digitale. Lo osserva per esempio una studiosa americana di questi temi, Arielle Samuelson, che include tra le strategie per rendere Internet meno inquinante una «maggiore cautela nel considerare se l’applicazione dell’IA sia davvero necessaria in ogni industria».[13]
Parole sacrosante, che dovrebbero essere incise all’ingresso delle aziende, delle scuole e delle università, e più in generale fatte circolare nel dibattito pubblico delle nostre società, in un momento in cui la prospettiva della colonizzazione digitale di ogni ambito della vita ci viene presentata come ineluttabile Destino.
NOTE
[1] Che l’ideologia del digitale sia una «quasi-religione» è ben argomentato, da ultimo, nel notevole saggio di Gabriele Balbi, L’ultima ideologia. Breve storia della rivoluzione digitale, Bari-Roma, Laterza, 2022, p. 75-115).
[2] Il termine è stato coniato da E. Morozov in Internet non salverà il mondo, Milano, Mondadori, 2014, avendo poi una certa fortuna. Va detto, tuttavia, che non si tratta di una novità connessa specificamente alle tecnologie digitali, ma più in generale a un mito collegato alla cultura tecnica delle società industriali avanzate (capitalistiche certamente, ma non è mancata una tecnofilia socialista in Urss), secondo il quale in fondo la tecnica è, in termini quasi religiosi, una entità salvatrice.
[3] Su questi temi, oggi al centro di un crescente interesse delle scienze sociali, mi permetto di rimandare ad alcuni miei articoli apparsi su questa rivista: Internet non è una “nuvola”, https://www.controversie.blog/internet-non-e-una-nuvola-prima-parte/ e https://www.controversie.blog/internet-non-e-una-nuvola-seconda-parte/, e I costi ambienali del digitale. Una bibliografia ragionata, “Controversie”, anno I, n. 5 (2025), https://www.controversie.blog/costi-ambientali-del-digitale-bibliografia/
[4] Barbara Carfagna, Intelligenza artificiale: consumi di energia enormi, non sappiamo chi la produrrà, “Il Sole 24 Ore”, 13 ottobre 2024, p. 12. Sottolineatura mia.
[5] Sofocle, Antigone, ai vv. 360-61, dove si dice che l’uomo, pantpòros appunto, àporos ep’oudèn èrchetai to mèllon, ovvero «non va mai verso il futuro privo di risorse» (traduzione mia, ma la tr.it. di Ezio Savino, per esempio, recita «infinito artista, inerte non affronta / nessun domani». Sofocle, Edipo re. Edipo a Colono. Antigone , introduzione di Umberto Albini, traduzione, nota storica e note di Ezio Savino, Milano, Garzanti, 1988, p. 249).
[6] Traduce invece «O arte, quanto più debole sei del destino» Carlo Carena (Eschilo, Prometeo incatenato, a cura di Carlo Carena, Torino, Einaudi, 1995, p. 24). È proprio questa consapevolezza della cultura greca antica che costituì sempre un freno alla formazione del concetto di progresso illimitato nello sviluppo storico (per il quale si dovrà attendere l’età moderna), come aveva notato Dilthey, secondo il quale la concezione greca del mondo «faceva susseguire l’uno all’altro periodi di nascimento, di svolgimento e di regresso dell’universo, in una monotona mancanza di speranza; e questo corso circolare diventava per i Greci il più sublime simbolo della transitorietà della razza umana» (Wilhelm Dilthey, Il secolo XVIII e il mondo storico, Milano, Edizioni di Comunità, 1977, p. 28).
[7] Cfr. Reinhart Koselleck, Accelerazione e secolarizzazione, Napoli, Istituto Suor Orsola Benincasa, 1989.
[8] Per questa ideologia si veda Alex Williams – Nick Srniceck, Manifesto accelerazionista, postfazione di Valerio Mattioli, Roma-Bari, Laterza, 2018. Al termine di questa sfrenata fantasia utopistica sta poi l’utopia tecno-comunista che uno di questi teoreti, Aaron Bastiani, ha chiamato Fully Automated Luxury Communism, «comunismo del lusso integralmente automatizzato», da lui illustrato in un omonimo volume pubblicato (con sprezzo del ridicolo!) dalla casa editrice londinese Verso.
[9] Anche qui, comunque, le fantasie tecno(fanta)scientifiche non mancano, tra ibridazione uomo-macchina, “superamento della biologia”, prolungamento della vita, colonizzazione dei pianeti extraterrestri ecc. Per una rassegna di queste affabulazioni utopiche, si vedano, oltre a Gabriele Balbi, L’ultima ideologia, cit.; Mark O’Connell, Essere una macchina. Un viaggio attraverso cyborg, utopisti, hacker e futurologi per risolvere il modesto problema della morte, Milano, Adelphi, 2018; e, con particolare attenzione alla lunatica Weltanschaaung di Elon Musk e della sua combriccola, Paolo Bottazzini, The Musk. Teoria e pratica di un genio egoista, Milano, Bietti, 2025, sul quale tornerò prossimamente con un articolo dedicato.
[10] Marc Andreessen, The Techno-Optimist Manifesto, “Andreessen Horowitz”, October 16, 2023, https://a16z.com/the-techno-optimist-manifesto/
[11] Cfr. Toni Muzzioli, Avanti verso il nulla. Sul futurismo nichilista contemporaneo, “Controversie”, 24/06/2024, https://www.controversie.blog/futurismo-nichilista-1/
[12] Cfr. Luciano Floridi, L’era digitale richiede responsabilità, “La lettura” / “Corriere della sera”, 20 luglio 2025, p. 7-9. «La società digitale – leggiamo – necessita di nuove regole per gestire e indirizzare le trasformazioni in corso. (…) L’evoluzione tecnologica non dovrebbe procedere per inerzia di mercato o secondo logiche puramente ingegneristiche e di massimizzazione del profitto. Queste sono il motore necessario, ma le mani sul volante, e la decisione su dove andare, restano alla società e alla politica». Naturalmente una simile capacità di governo deve implicare anche la possibilità di fermare talune scelte tecniche, altrimenti ogni dichiarazione in favore delle regole resta “acqua fresca”. Come temo sia il caso anche di queste parole.
[13] Arielle Samuelson, Are your internet habits killing the planet?, “Heated”, May 28, 2024, https://heated.world/p/are-your-internet-habits-killing
Decomputing come atto di resistenza - Prima parte
Questo intervento - che Controversie pubblica in due parti, questa e la prossima settimana - è intitolato "Decomputing as Resistance". In esso, sosterrò che l'IA contemporanea rivela alcune falle nell’apparente connessione senza “cuciture visibili” (seamless) di tutte le tecnologie digitali del nostro sistema attuale, con evidenze che non possono essere ignorate. Proporrò che l'IA sia di per sé un problema tecnico; un balbettante passo falso dell'ordine neoliberista che ne suggerisce l’intrinseco disordine.
Quello che proporrò come contromisura è il decomputing; un approccio che prende di mira direttamente l'intelligenza artificiale, ma riguarda e intende scollegare qualcosa di più del solo digitale. Il decomputing è un modo per riconfigurare le nostre relazioni sociali ed economiche più ampie.
L'INTELLIGENZA ARTIFICIALE È CONSIDERATA DANNOSA
Quando parlo di IA mi riferisco alle tecnologie specifiche che legittimano così tanti danni sociali e ambientali in questo momento. In particolare parlo delle reti neurali e dei modelli trasformativi1 .
È affascinante osservare l'ascesa di questi meccanismi dell'intelligenza artificiale, perché – in realtà – è una finzione. L'IA predittiva è inaffidabile quanto l'IA generativa; sono entrambe gigantesche operazioni di corrispondenza dei modelli il cui unico appiglio sulla realtà è la correlazione. È come un QAnon informatico.
Il fatto che questi modelli siano anche del tutto opachi rende impossibile svelare il processo che ha portato a un particolare output. In pratica, i modelli di ragionamento non possono davvero dirti come sono arrivati a una risposta. Eppure, l'intelligenza artificiale viene presentata come una soluzione tecnologica generalizzabile ai problemi più spinosi della società e un agente così intelligente che sarà sicuramente in grado di sostituirci.
Sebbene l'intelligenza artificiale non sia veramente in grado di sostituire nessuno, funziona come motore di precarizzazione ed emarginazione, come nel caso dei tagli algoritmici al welfare2; è un apparato che estrae grossolanamente quanta più conoscenza umana codificata possibile al fine di fornire un sostituto scadente per funzioni sociali chiave come l'istruzione e l'assistenza sanitaria, concentrando ulteriormente ricchezza e potere.
VIOLENZA INFRASTRUTTURALE
Questa violenza strutturale è ora integrata da quantità altrettanto eclatanti di violenza ambientale.
Come ora ci rendiamo conto, i presunti vantaggi di avere un chatbot intelligente in tasca hanno un prezzo incredibilmente alto in termini di consumo di energia e di acqua; e la catena di approvvigionamento per la produzione delle GPU dipende dall'estrattivismo coloniale e dai minerali alla base di numerosi conflitti armati.
Certamente, la domanda di energia per l'IA non è il leviatano che ci fa precipitare in un cambiamento climatico irreversibile, l'industria dei combustibili fossili e l'agricoltura industriale non hanno bisogno di alcun aiuto su questo fronte.
Tuttavia, l'indiscussa inevitabilità dell'IA come unico futuro per lo sviluppo economico e come chiave del potere geopolitico legittima le aziende tecnologiche ad abbandonare la loro pretesa performativa di sostenibilità, e consumare energia senza controllo.
Questo significa che, quando le infrastrutture nazionali, che già barcollano sotto il peso delle politiche private di profittabilità, saranno portate al collasso dalle ulteriori richieste dei data center, l'IA avrà la priorità sui bisogni umani.
SCALABILITÀ
Voglio concentrarmi per un attimo sulla scalabilità come concetto che lega insieme l'apparato tecnico dell'IA con il contesto sociale.
Il modello connessionista dell'IA, che sta alla base di tutto l’impianto di sviluppo, esiste da decenni ma è stato quasi ignorato fino al 2012, perché erano necessari troppi dati e troppa potenza di calcolo per elaborare risposte plausibili. La convergenza di social media, set di dati in crowdsourcing e GPU ha cambiato la prospettiva.
Da allora, l'industria dell'intelligenza artificiale ha generato un mini-universo di metriche auto-rinforzanti - e dal sapore eugenetico - che pretendono di misurare i progressi senza affrontare le cose che devono davvero cambiare.
Il fattore di base del successo di queste metriche è la scalabilità dei set di dati e della potenza di calcolo. Se misuriamo il calcolo in termini di operazioni in virgola mobile o FLOP, passiamo dai 1017 FLOP del primo AlexNet ai 1025 FLOP dei modelli più recenti.
Per mettere questo dato in prospettiva, questo livello di scalabilità supera qualsiasi altra rivoluzione tecnologica, dall'adozione dei telefoni cellulari al sequenziamento del genoma.
La logica generale di tutte le metriche del settore è esattamente la stessa del PIL: l'unica cosa che conta è la crescita, la crescita, la crescita, indipendentemente dai danni collaterali generati lungo il percorso.
La scalabilità illimitata è una visione di crescita infinita basata su modelli di cooptazione (nel testo originale: enclosure, creazione di nuovi mercati, trasformando cose che prima non erano economiche in nuovi beni mercificabili, NdT) mai realizzati prima e sull’ipotesi di forme di conoscenza che andranno oltre la comprensione umana.
È la scalabilità che attrae i flussi di capitale di rischio a breve termine, ed è la scalabilità alla base delle affermazioni sulla superintelligenza emergente.
Agli occhi dei sostenitori dell'IA non ci sono, quindi, limiti sociali, ambientali o planetari.
Di fatto, essi sostengono la necessità di andare oltre e più velocemente perché solo l'intelligenza artificiale può salvarci dalla crisi climatica e curare tutte le malattie umane.
MOBILITAZIONE TOTALE
Possiamo ritenere a buon diritto che la convergenza intorno all'infrastruttura dell'IA possa essere intesa come una forma di "mobilitazione totale", un termine coniato negli anni '30 dallo scrittore ultranazionalista Ernst Jünger, per caratterizzare la canalizzazione di tutte le risorse materiali ed energetiche di una nazione in un nuovo ordine tecnologico.
Per Jünger siamo entrati in una nuova era, che richiede «la conversione della vita stessa in energia» poiché le nazioni sono «spinte inesorabilmente a impadronirsi della materia, del movimento e della forza attraverso il formalismo della tecnoscienza»
La mobilitazione totale legittima una nuova forma di ordine politico basato sul vitalismo del conflitto. Oggi, stiamo assistendo all'abbandono dei propri impegni a favore del bene comune, da parte delle grandi aziende di intelligenza artificiale, che si radunano attorno a visioni di predominio nazionalista, basato – come sempre - sulla potenza militare ed economica.
Il risultato della mobilitazione di tutte queste energie non è – quindi - semplicemente l'accumulazione di capitale, ma comporta la separazione della società dai suoi precedenti ormeggi morali e l’allineamento con la visione di una svolta verso una nuova epoca, svolta guidata dalla violenta trasformazione tecnologica.
E questa spinta verso l’estrema tecnologizzazione non è, come sembrerebbe, una forma di nichilismo ma l’espressione della volontà di potenza nietzschiana.
TECNOFASCISMO
Ovviamente, non sto dicendo che i nostri leader tecnologici e politici siano appassionati studiosi delle idee di Jünger, ma che la mobilitazione totale cattura l’interesse e genera il culto dell'IA da parte dei vertici aziendali e dei governi nazionali, in risonanza con l'accelerazionismo e con la politica neo-reazionaria che pervadono l'industria tecnologica e fanno da ponte con i movimenti politici come il MAGA e con l'estrema destra.
Questo stile di pensiero – caratterizzato da scenari di tecnologie fantascientifiche e di autoritarismo – è la risposta di coloro che desiderano mantenere una massiccia asimmetria di potere e ricchezza a fronte del crollo dell'ordine neoliberista, crollo determinato dalle sue stesse contraddizioni e dei conseguenti shock di sistema, come l'austerità e il cambiamento climatico.
Comprendere questi sviluppi, insieme alla proliferazione dell'infrastruttura dell'IA come una forma di mobilitazione totale, suggerisce che abbiamo a che fare con un cambiamento di fase di stampo tecnopolitico, un cambiamento che non sarà sviato o trattenuto dalla razionalità e dalla regolamentazione, un cambiamento che considera sostanzialmente usa e getta chi non fa parte della piccola élite destinata a guidare questo cambiamento.
NOTE:
1 Il modello trasformativo è un tipo di architettura di rete neurale che eccelle nell'elaborazione di dati sequenziali, principalmente associati ai modelli linguistici di grandi dimensioni (LLM). I modelli trasformativi hanno raggiunto prestazioni eccezionali anche in altri campi dell'AI, come ad esempio la computer vision, il riconoscimento vocale e la previsione delle serie temporali. (https://www.ibm.com/it-it/think/topics/transformer-model). Sono modelli di apprendimento profondo che adottano il meccanismo della auto-attenzione, pesando differentemente la significatività di ogni parte dei dati in ingresso. Sono usati primariamente nelle branche dell'elaborazione del linguaggio naturale e della visione artificiale.
2 Si veda, ad esempio, https://www.politico.eu/article/dutch-scandal-serves-as-a-warning-for-europe-over-risks-of-using-algorithms/
Robotica sociale assistiva: l’espansione della cura nell’era tecnologica
Negli ultimi ͏anni, il rapido pr͏ogresso ͏della tecnologia ha aperto nuove possibilità nel settor͏e clin͏ico e di assistenza, soprattut͏to per gli anziani. Tra le innovazioni più interess͏anti c’è la robotica sociale assisti͏va (SAR), una parte della͏ robotica c͏he si occupa͏ di fornire aiuto͏ em͏otivo, fisico e mentale alle persone più fragili. Alcuni studi hanno evidenziato il fatto che “la pandemia da Covid-19 ha spinto ad usare solu͏zioni͏ automatizzate”[1] , mostrando sia gli effetti positivi dei robot sociali sia le difficoltà nell’inser͏irli nella vita normale de͏gli utent͏i. ͏Le ricerche recenti mostrano risultati positivi sullo stato d’animo͏, su͏lla͏ diminuzione della so͏litud͏i͏ne e sulla qualità d͏ella vita delle persone anzia͏ne ma͏ inducono anche a interrogarsi sulla questione etica e psico͏logica. In relazione a questi aspetti si riflette sull'autoingann͏o e sul rischio di infantilizzazione dell’utente. In quest͏a situazione complessa e in continuo cambiamento, il nostro contributo intende esplorare come gli ͏italiani percepiscono l’introduzione dei SAR nel servizio d’assistenz͏a͏. Partendo dalle argomentazioni proposte dal͏la ricercatrice Nicoletta Massa e dalla sua pubblicazione riguardo la psicologia della salute[2], è interessante domandarsi quanto͏ siano note alla collettività le potenzialità dei SAR e in quale ottica verrebbero accolte, facendo riferimento in͏ modo particolare ag͏li aspetti m͏entali, c͏ulturali e so͏ciali che influenzano l'accettazione della robotic͏a assistiva. Per fare ciò abbiamo sottoposto un questionario online al fine di approfondire tali tematiche.
L’indagine nasce da alcuni interrogativi iniziali: come verrebbero accolti i SAR dalla popolazione generale del nostro paese? Potrebbe quest’ultima, nel prossimo futuro, trovarsi a beneficiarne? La nostra ricerca è stata orientata ad esaminare il livello di conoscenza, percezione e accettazione sociale verso la robotica sociale assistiva (SAR) nel contesto italiano. Nel mese di gennaio 2025, abbiamo proposto una serie di domande, sotto forma di questionario online da somministare ad un “campione di convenienza”, attraverso piattaforme social. L’indagine si è basata su precedenti ricerche nel campo delle tecnologie assistive e consiste in due tipologie di domande: quesiti a risposta multipla e scale Likert. Il questionario è stato diviso in quattro parti: dati demografici, familiarità con le tecnologie assistive, opinioni sull’uso dei SAR negli ambienti domestici e riflessioni etico-culturali. Il campione raggiunto è di 203 persone, la maggioranza dei rispondenti è nella fascia di età 18-24 anni (37%) con una prevalenza di rispondenti donne (66%). Benché il campione non sia rappresentativo della popolazione italiana nella sua interezza, l’indagine consente una prima esplorazione sulle impressioni riguardo i SAR, ponendo le basi per successivi approfondimenti.
Da un lato si riscontra una maggiore apertura dal punto di vista emotivo nel rapporto con la tecnologia, tanto che l’idea di avere un rapporto affettivo con un robot potrebbe non essere percepita come inverosimile. A livello personale, tuttavia, persiste un meccanismo psicologico: l’utente attribuisce un valore emotivo al comportamento del robot, nonostante quest’ultimo sia totalmente privo di tali caratteristiche umane[3].
Va in aggiunta contestualizzato il tema delle carenze diffuse, le quali stanno segnando il sistema lavorativo contemporaneo. Tale termine viene utilizzato nel contesto occupazionale, per fare riferimento a una carenza estesa e sistemica di competenze, risorse o personale adeguato, che non può che influenzare negativamente la produttività e l'efficienza. Le fonti hanno registrato mancanze significative per quanto riguarda le categorie di operatori sanitari a livello sub-nazionale. In questo insieme si includono i posti vacanti difficili da ricoprire e anche i bisogni sanitari insoddisfatti, segnalati dalla popolazione stessa.
Il caso italiano presenta un numero di infermieri per abitante inferiore alla media UE[4]. Questa situazione suggerisce un maggiore affidamento sui medici nell'erogazione dei servizi. La situazione si aggrava con la riduzione del personale medico e paramedico impiegato nel sistema sanitario nazionale[5], specialmente a fronte del trend di invecchiamento della popolazione e della richiesta crescente di cure e domande di assistenza medica[6]. In questo contesto questi strumenti potrebbero offrire un supporto concreto, se integrati correttamente.
Risulta opportuno, in primo luogo, affrontare alcune questioni aperte che vengono trattate nell’articolo[7] , come la self-deception (autoinganno),fenomeno che può essere analizzato come conseguenza di due ordini di fattori: uno di natura storico-contestuale e l’altro di natura individuale.
Gli intervistati hanno dimostrato la non conoscenza del nuovo strumento di robotica sociale assistiva, visto che il 75,9% dei rispondenti non aveva mai sentito parlare dei SAR. Nonostante la distanza iniziale dall’argomento, ciò non ne ha precluso il successivo interesse: le opinioni espresse non si traducono in un rifiuto netto, bensì in una posizione di scetticismo esplorativo. Il campione analizzato non si è dimostrato del tutto ostile alla novità. Ne è un esempio il fatto che quasi il 41% si dichiari incuriosito, pur restando perplesso, nel concepire un robot che sia in grado di interagire con persone anche nella sfera emotiva, mentre solo il 14% considera esplicitamente utile tale interazione. Inoltre, pur prevalendo una visione tradizionalista dell’assistenza, con il 66,5% che preferisce ancora le cure umane a quelle automatizzate, emerge una quota consistente (34%) che accetterebbe l’inserimento di un SAR in casa se accompagnato da una figura umana, specialmente se designata a mansioni più tecniche. Ciò indica in ogni caso che la tecnologia venga percepita più come supporto che come minaccia. Sebbene il 69% non ritenga possibile il successo di queste tecnologie nel nostro paese, una percentuale analoga (66,5%) riconosce che i SAR potrebbero essere efficacemente impiegati per monitorare la salute e avvisare i medici in caso di necessità. Dunque, a fronte della diffidenza culturale e affettiva, si afferma una concezione relativamente positiva, specialmente in ambiti in cui la presenza umana non sia sempre garantita. Questa ambivalenza rappresenta probabilmente l’aspetto più interessante dell’indagine: le persone si mostrano scettiche, ma non particolarmente ostili, quello che emerge infatti, è una forte curiosità.
Il timore non appare di tipo apocalittico ma è piuttosto legato a preoccupazioni etico-relazionali e affettive. È interessante considerare come, anziché preoccuparsi di una possibile diminuzione dell’impiego (aspetto ricorrente se si tratta di intelligenza artificiale e robotica nell’ambito lavorativo), il campione si sia concentrato piuttosto sulla mancanza di empatia da parte delle macchine, ritenuta un elemento imprescindibile del settore dell’assistenza sanitaria. In tale contesto lo scetticismo di molti potrebbe essere mitigato attraverso una maggiore informazione e consapevolezza, considerando che, la maggior parte delle mansioni svolte dai SAR non si limiterebbero soltanto ad aiutare i soggetti fragili, quanto il personale sanitario in primo luogo.
In base͏ ai͏ dati r͏a͏ccol͏ti e alle idee condivise, sembra emergere ch͏e l'arrivo dei robot sociali di assistenza sia un͏a sfida complessa ma forse rivoluzionaria per il ͏sis͏tema sanitario di ogg͏i. Il fatt͏o che mo͏lti sarebbero pro͏nti ad accettar͏e un SAR a casa sug͏gerisce una disponibil͏i͏tà all'in͏tegrazione; purché si mantenga un buon equilibrio tra tec͏nologia e umanità.
In sintesi, ciò che è emerso non è un rifiuto del progresso, bensì la richiesta che quest’ultimo venga integrato con attenzione, trasparenza e sensibilità. Se i SAR verranno inseriti non come sostituti, ma come alleati del lavoro umano, rispettando la dignità delle persone, potranno contribuire a riformare un sistema che ad oggi si ritrova spesso in difficoltà. Non si tratta di una sfida prettamente tecnica, ma anche culturale e politica.
In conclusione, l’accettazione sociale della robotica assistiva dipenderà dalla capacità di affrontare con consapevolezza quelle che sono le implicazioni psicologiche ed etiche di queste tecnologie.
Maggiore consapevolezza, una progettazione che punta ai bisogni del paziente ed una chiara regolamentazione d’uso vanno considerati come elementi decisivi al fine di garantire che i SAR possano realmente contribuire all’ideazione di un sistema di cura diverso, progressivamente più efficace ed equo.
NOTE:
[1] Massa N. (2022) Innovazioni in psicologia della salute: il contributo della Social Assistive Robotics. Tra opportunità terapeutiche e questioni aperte della robotica sociale. Psicologia della salute: quadrimestrale di psicologia e scienza della salute, 37(5), 267-286
[2] Ibidem
[3] OECD (2025), Prospettive economiche dell'OCSE, Rapporto intermedio, marzo 2025: Navigare in acque incerte, OECD Publishing, Paris
[4] Massa N. (2022) Innovazioni in psicologia della salute: il contributo della Social Assistive Robotics. Tra opportunità terapeutiche e questioni aperte della robotica sociale. Psicologia della salute: quadrimestrale di psicologia e scienza della salute, 37(5), 267-286
[5] Ibidem
[6] OECD (2025), Prospettive economiche dell'OCSE, Rapporto intermedio, marzo 2025: Navigare in acque incerte, OECD Publishing, Paris
[7] Ibidem
RIFERIMENTI BIBLIOGRAFICI:
Massa N. (2022), Innovazioni in psicologia della salute: il contributo della Social Assistive Robotics : tra opportunità terapeutiche e questioni aperte della robotica sociale, in "Psicologia della salute: quadrimestrale di psicologia e scienze della salute: 3, 2022, Milano: Franco Angeli, 2022 , 1972-5167 - Casalini id: 5378331" - P. 14-27
OECD (2025), Prospettive economiche dell'OCSE, Rapporto intermedio, marzo 2025: Navigare in acque incerte, OECD Publishing, Paris
OECD/European Commission (2024), Health at a Glance: Europe 2024: State of Health in the EU Cycle, OECD Publishing, Paris










