La cecità dell’etica per l’I.A. di guerra - Recensione di "Codice di guerra" di Mariarosaria Taddeo
L’inferno della guerra
L’inferno è la metafora corretta per descrivere la guerra? Michael Walzer si oppone alla validità di questa analogia nel libro del 1977[1] che ha riformulato la «teoria della guerra giusta» in termini graditi alla filosofia anglofona; o almeno, respinge la convinzione che l’ostilità debba sfociare in una condizione di violenza senza limiti. L’inferno può almeno essere regolato, dal momento che rappresenta un’interazione con esseri umani e non con demoni; la letteratura testimonia la percezione da parte degli scrittori, in tutte le epoche storiche e in tutti i contesti culturali, di norme morali con cui si condannano o si giustificano le modalità di ingresso nello scontro, i metodi di conduzione delle battaglie, il comportamento nei confronti dei soggetti non combattenti. Questa uniformità di giudizio sembra erompere da una sensibilità comune, che le vicende belliche innescano in individui vissuti a distanza di secoli e addestrati all’uso di armi molto differenti tra loro, dalla flotta ateniese alla cavalleria medievale fino agli eserciti di Napoleone.
La strategia di Mariarosaria Taddeo nel recente libro sull’etica dell’intelligenza artificiale nella difesa, Codice di guerra[2], consiste nel trincerarsi nella Teoria della Guerra Giusta (che lei scrive così, tutto in maiuscolo) come nella roccaforte della riflessione sul conflitto moderno: il lavoro è un adattamento dell’armatura concettuale di Walzer (e di quella di Luciano Floridi) ai nuovi scenari dominati dai software di I.A..
I campi di battaglia moderni possono essere classificati in tre categorie: il primo è quello dell’intelligence a sostegno della guerra vera e propria; il secondo è quello del conflitto non cinetico, il terzo è quello del conflitto cinetico. Se si traduce il dizionario tecnico in linguaggio quotidiano, si scopre che la guerra di cui parla Walzer rimane confinata nell’ultima classe di scontro, mentre il confine tra le prime due è tracciato dall’analisi di Taddeo in modo molto più marcato di quanto sia possibile constatare nella realtà. Il conflitto cinetico infatti rinvia al quadro tradizionale delle battaglie in cui si confrontano eserciti di paesi contrapposti, e che di volta in volta rischia di coinvolgere anche vittime non immatricolate negli eserciti regolari. Il supporto all’intelligence e il conflitto non cinetico invece arruolano la varietà di fenomeni che spesso sono etichettati come infowar e cyberwar, i cui effetti possono essere descritti sulle mappe concettuali di Taddeo, ma le cui caratteristiche sfuggono alle maglie della sua rete teoretica. Tuttavia i demoni della nuova realtà si annidano soprattutto in questo segmento delle ostilità, che pone l’interrogativo più radicale su cosa sia la guerra oggi, se e quando abbia inizio e fine, come si decida la vittoria e la sconfitta, chi la combatta.
La questione sulla quale si arrovella il testo è l’impredicibilità del comportamento dei dispositivi azionati con l’intelligenza artificiale. Il software che li governa infatti non solo è autonomo (o può diventarlo) dal controllo dell’agente umano, ma evolve sulla base del training cui è sottoposto, e dall’esperienza che matura sul campo. Di conseguenza potrebbe assumere decisioni, o intraprendere tattiche di esecuzione, non allineate con i valori etici che la tradizione militare – oltre alla sensibilità – hanno consolidato nella pratica bellica. Quando il ricorso a queste armi non le impegna in prima linea contro il nemico, in una forma di interazione che comporti l’uccisione degli avversari, le implicazioni morali del loro uso possono essere trattate nel dibattito delle opinioni accademiche; quando si oltrepassa questo limite invece l’impredicibilità rischia di convocare il demone dell’insensibilità meccanica, che viola la discernibilità tra combattenti e non, e che minaccia anche la dignità dello justus hostis. Per concludere le ostilità nel modo più rapido possibile, un dispositivo di intelligenza artificiale potrebbe decidere di annientare un’intera città del nemico con una sola bomba, per forzarlo alla resa in modo immediato e con il minimo dispendio di forze: ma una soluzione del genere violerebbe le norme morali fondamentali dell’umanità, con una scelta che nessun uomo perseguirebbe mai… (ah no, è vero, lo hanno fatto gli americani in Giappone nel 1945).
Metafisica dell’informazione
In un percorso di analisi che non si impegna a definire cosa sia la guerra, e che si astiene dal domandarsi come mai dalla Seconda Guerra Mondiale il tradimento delle norme morali sia pratica comune, la discussione sull’etica finisce per investire un’ontologia dei conflitti che sfocia nella metafisica – anche se non quella di Sant’Agostino o di San Tommaso, bersaglio dei sospetti di oscurantismo da parte dei filosofi analitici, ma in quella beneducata che riguarda l’infomazione, coltivata dai gentlemen di Oxford. Dal momento che Essere e infosfera coincidono[3], «la distruzione di informazione è male», quindi è legittimo il biasimo morale contro gli hacker che estraggono informazioni riservate dai database delle imprese high tech e dagli schedari segreti della Nasa, o che sottraggono capitali milionari dalle banche centrali, o che scatenano disservizi nella rete di distribuzione dell’energia sulla costa californiana, o nei sistemi amministrativi delle società petrolifere[4].
La migrazione del conflitto sul piano metafisico lo trasforma in un esercizio molto elegante per accademici, ma trascura alcuni particolari teoretici, come il fatto che le manovre di furto di informazioni tipiche dell’infowar non producono una diminuzione, ma un incremento di informazione nell’universo – solo con la caratteristica spiacevole che beneficiano dell’ampliamento anche soggetti che non dovrebbero accedere ai documenti trafugati. Spesso inoltre il contenuto dei dati non è più disponibile per i proprietari legittimi, anche se i file si trovano ancora dove erano collocati prima (ma in un formato criptato che li rende illeggibili a chi non conosce la chiave). È accaduto in questo modo che in Cina siano comparsi i progetti delle società americane per lo sviluppo dei dispositivi più avanzati di tecnologia digitale, che si siano materializzati in Corea del Nord i capitali degli istituti di credito internazionali, con cui il regime si è finanziato aggirando l’embargo commerciale – ed è così che la Garmin ha dovuto versare un riscatto milionario per riprendere il controllo dei dati biometrici dei suoi clienti.
Anche la cyberwar esige un’espansione della quantità di informazione nell’Essere, che potrebbe compensare quella distrutta al termine dell’attacco. In generale quindi le campagne di sostegno all’intelligence e di conflitto non cinetico potrebbero garantirsi la patente di benefattrici metafisiche nell’universo di Floridi; al contrario, il fatto che gli uomini divorino piante e animali per sostenere il loro metabolismo dovrebbe essere esecrata come una pratica di entropia metafisica, dal momento che l’informazione presente negli esseri viventi triturati dal processo di digestione viene distrutta e semplificata in risorsa energetica o in scoria da espellere – e tutti gli esseri umani dovrebbero essere condannati dal tribunale etico della guerra della selezione naturale.
Cos’è la guerra?
Il fallimento in cui cade l’esercizio teoretico di Taddeo deriva dal fatto che la comprensione di cosa sia la guerra oggi non può essere conquistata da una domanda confinata nell’ambito dell’etica, ma deve essere tentata da un’interrogazione di ordine politico. Già Walzer nega l’esistenza di una dimensione sovraordinata a quella dei singoli soggetti, riducendo le società nazionali, e il principio di sovranità che le governa, ad una sorta di proiezione, o abbreviazione linguistica, della somma di istanze morali individuali da cui sono composte; Taddeo ripete in modo acritico questo errore ontologico, avventurandosi nel labirinto dell’informazione piuttosto che contaminarsi con il clima da filosofia continentale del discorso politico.
Dopo il 1942 gli Stati Uniti non hanno formulato nemmeno una dichiarazione di guerra, sebbene siano stati coinvolti in almeno cinque grandi conflitti (Corea, Vietnam, Golfo Persico, Afghanistan, Iraq) e in circa duecento interventi minori o «indiretti». L’«Autorizzazione all’Uso della Forza» ha convertito l’aggressione militare (proibita in modo formale dalle Nazioni Unite) in operazioni speciali, missioni di pace e polizia internazionale. In altre parole, il divieto di dichiarare guerra ha tramutato il nemico da essere umano, armato anzitutto del suo diritto di cittadinanza, in demone – terrorista, folle minaccia per l’umanità, malato mentale, criminale, pirata. Questa degradazione di ordine politico dell’avversario ad uno statuto subumano lo priva di ogni diritto, e autorizza sul fronte etico il suo sterminio con ogni mezzo, come avviene nell’inferno degli interventi umanitari e delle azioni di polizia internazionale, dai villaggi del Vietnam a Gaza. Abbiamo già parlato di questo tema in un precedente articolo, per cui non mi dilungo oltre.
Vale la pena però insistere sul fatto che la deflagrazione delle difficoltà concettuali connesse al conflitto non cinetico e al supporto all’intelligence dipendono dalle caratteristiche della guerra che descrivono questi ambiti di ostilità: qui il conflitto non è sinonimo di battaglia tra eserciti di due nazioni contrapposte, ma somiglia più alle indagini di polizia contro un avversario che colpisce nascondendosi nell’anonimato, nel travestimento, nella sfida di abilità – e che per lo più non coincide con uno Stato. Le agenzie di hacker che progettano gli attacchi possono essere sponsorizzate da governi nazionali, ma la prova di questa connessione è sempre parziale e di ordine ipotetico. Gli obiettivi degli assalti per lo più non sono rappresentati dai presidi militari dello stato assalito: la linea del fronte passa attraverso le scrivanie e i computer degli uffici amministrativi di compagnie energetiche, di istituti finanziari, di multinazionali di ogni genere; aggressore e aggredito sono soggetti privati, protagonisti di una forma di potere che non è sovrapponibile a quello tradizionale di diritto pubblico. La distinzione tra soldati e civili viene a cadere, insieme all’immunità che dovrebbe proteggere chiunque non sia un effettivo dell’esercito. Anche le categorie di attacco, vittoria, difesa, comando, strategia, deterrenza, (e naturalmente anche quella di politica) andrebbero del tutto riformulate in uno scenario in cui gli interessi delle parti in azione variano su uno spettro di possibilità molto vario e nebuloso, dalla criminalità comune allo sharp power[5].
Il costo globale dei cyberattacchi nel corso del 2025 è stato stimato intorno alle 10,5 migliaia di miliardi di dollari[6], circa quattro volte il Pil dell’Italia, ed è in crescita da anni. Questo dato può suggerire l’idea che sia in corso una guerra generale a bassa intensità, di carattere asimmetrico e ibrido, con capacità di incidere sulla vita quotidiana di persone e collettività di tutto il globo, e con una forza di aggressione in continuo aumento. Invece di rinchiudersi nella torre d’avorio dell’accademia, di riflettere sulla metafisica dell’informazione per sfuggire all’inferno dei fenomeni di difficile individuazione, non varrebbe la pena di occuparsene?
NOTE:
[1] Micheael Walzer, Guerre giuste e ingiuste. Un discorso morale con esemplificazioni storiche, tr. it. a cura di Fabio Armao, Laterza, Bari 2009.
[2] Mariarosaria Taddeo, Codice di guerra. Etica dell’intelligenza artificiale nella difesa, tr. it. a cura di Virginio Sala, Raffaello Cortina Editore, Milano 2025.
[3] Luciano Floridi, The Ethics of Information. Oxford University Press, Oxford 2013, pag. 56.
[4] Per un elenco degli attacchi cyber più famosi, cfr. Jon DiMaggio, L’arte della guerra informatica. Guida investigativa a ransomware, spionaggio e cybercrime organizzato, Apogeo, Milano 2023.
[5] Christofer Walker, Jessica Ludwig, The Meaning of Sharp Power. How Authoritarian States Project Influence, «Foreign Affairs», 16 novembre 2017.
[6] Chuck Brooks, What Every Company Needs To Know About Cybersecurity In 2026, «Forbes», 31 dicembre 2025.
Recensione di "Oltre la tecnofobia, il digitale dalle neuroscienze all’educazione" - Quarta parte
Dopo un
a sintetica recensione del libro Oltre la Tecnofobia (qui), una critica al concetto di onlife e della rimozione dell’infanzia (qui), la disamina del concetto di dipendenza da internet e l’idea pedagogica che sia vietato vietare (qui), Simone Lanza con questa quarta e ultima parte, conclude il confronto con le tesi del libro, affrontando gli ultimi luoghi comuni: l’idea di progresso tecnologico lineare, le paure per le tecnologie, il carattere fortemente ideologico del libro.
Qui puoi scaricare il contributo completo.
TECNOLOGIA O TECNOLOGIE?
Con la quinta critica vorrei iniziare a porre qualche domanda sulle parole usate nel titolo stesso di Oltre la tecnofobia. Il termine “tecnofobia” è incluso in alcuni dizionari con il significato di “avversione per la tecnologia”. Ma esiste la Tecnologia? O forse ne esistono molte? Gli autori ne parlano troppo spesso al singolare.
Il XVIII secolo ha rappresentato il grande momento di espansione di attrezzi e utensili, presentati ancora nell’Enciclopedia, non senza ripetizioni, in base ai loro usi umani (i mestieri), e non alle caratteristiche intrinseche degli oggetti. Con la rivoluzione industriale si diffusero nuove tecnologie produttive che destarono non poche preoccupazioni, perché, a differenza dell’utensile che aiutava l’artigiano (prolungandone per così dire la mano), le nuove tecnologie raramente erano alleate dell’operaio, anzi spesso si sostituivano a lui.[1] Pertanto le paure per alcune tecnologie potrebbe spesso essere molto più recenti di quello che si creda e le smisurate reazioni a favore o contro sarebbero più il riflesso della nostra società industriale. In ogni caso la storia ci insegna che non esiste una sola Tecnologia, ma tante tecnologie, spesso alternative, negli ultimi secoli selezionate forse più per interessi di mercato che in base a qualità intrinseche.[2]
Ma quindi alcune paure per alcune tecnologie non possano essere fondate? Quando si parla della Tecnologia, si tratta di prendere o lasciare, o si ha fiducia o si ha paura: l’atteggiamento verso la tecnologia sembrerebbe qualcosa di molto religioso, una sorta fede nella Storia dell’Umanità verso il Progresso. Nella visione di Oltre la tecnofobia il mondo si evolverebbe in modo unilineare, benché con qualche balzo: “la storia dell’homo sapiens è una progressiva esternalizzazione delle nostre abilità” (p.102), anzi è persino una evoluzione delle tecnologie cognitive “dall’invenzione del fuoco agli smartphone” (p.22): una sola linea retta, che separa gli umani tra favorevoli (ottimisti) e contrari (nostalgici). Platone (nostalgico) sarebbe stato contrario alla scrittura, anzi Platone avrebbe anticipato la critica al cellulare poiché rifiutò la scrittura: “Platone era stato profetico” (p.128-30). Siccome gli autori sanno bene che Platone non rifiutava la scrittura ma affidava l’insegnamento e i pensieri più importanti al dialogo, mi limito piuttosto a contestare la logica argomentativa: se qualcuno è contrario alla scrittura ipso facto è contrario al cellulare (e viceversa) perché la Tecnologia o si prende o si rifiuta, non si può mai accogliere qualche tecnologia rifiutandone altre. La Tecnologia è sempre singolare e la tecnofobia ne indica l’avversione.
Forse sarebbe più utile chiedersi se oggi le tecnologie siano tutte da prendere o se come società (democratica) possiamo anche sceglierle. Ma soprattutto forse la domanda giusta (visto che il libro avrebbe velleità pedagogiche) non è tanto se prenderle o rifiutarle quanto “da che età introdurle ai più piccoli”? Scegliere le tecnologie in base ai valori sociali condivisi non è proprio ciò che ha fatto per decine di migliaia di anni l’homo sapiens?[3] Proporne un uso con delle regole sociali per ciascuna età non è ciò che ha sempre fatto ogni società con i coltelli? È lecito scegliere tra le varie tecnologie oppure la tecnologia è un destino? E per fare queste scelte la paura non ci può proprio essere d’aiuto? A tutte queste domande il libro risponde in modo semplificatorio che la tecnologia è Una e Indivisibile e che sia necessario andare oltre questa atavica paura per essa.
ESISTONO PAURE LEGITTIME PER LE TECNOLOGIE?
Arriviamo così a un altro luogo comune che questo libro rinforza: come tutte le paure anche quella per la tecnologia è una emozione negativa. Ma se esistono tante tecnologie perché non è lecito che alcune destino paure e altre speranze? Inoltre, per andare dritti alla radice del titolo: avere paura è davvero una emozione così negativa? La paura non è, al contrario, anche un aiuto per anticipare i pericoli? É così errato avere paura che le nuove generazioni vengano svezzate davanti a uno schermo? É così risibile avere paura che la propria figlia frequenti siti web che promuovono l’anoressia (comunità proAna)? É così sbagliato avere paura che Amazon faccia le sue ricerche di mercato per costruire i magazzini proprio laddove la popolazione giovanile è meno alfabetizzata e meno sindacalizzata? É così misero avere paura che le nuove IA possano provocare dipendenze ancora maggiori dei social network? Non è proprio lecito avere paura che sempre più milioni di euro vengano ceduti da risorse pubbliche a industrie digitali?
Se si volesse andare oltre le paure forse bisognerebbe prima ascoltarle, comprenderle, descriverle. Infine, non sempre il rifiuto delle tecnologie è dovuto solo a paure. Uno studio molto interessante ha ripercorso i motivi per cui nelle scuole statunitensi non si siano mai diffuse in tutto il XX secolo tecnologie come cinema, TV e radio nonostante le forti pressioni dall’alto. La risposta è che non erano considerate dagli insegnanti validi strumenti di apprendimento.[4] Quindi non tutte le paure per le tecnologie sono risibili e non tutti i rifiuti per alcune tecnologie sono dovuti a paure.
Il presupposto più forte di Oltre la tecnofobia è quello più nascosto, ovvero che ogni paura verso ogni tecnologia sia infondata. Tuttavia, non una pagina è dedicata a spiegare cosa sia la paura, e nemmeno si nomina la nomofobia, una delle più diffuse, quella di rimanere senza cellulare. La paura però non è un’emozione umana negativa, poiché aiuta la concentrazione della mente. La paura dà consapevolezza ed è ciò che permette di darci il giusto coraggio per affrontare i pericoli. Nella mia esperienza a stretto contatto con le paure di genitori e insegnanti per le tecnologie digitali, credo di poter dire che oggi una delle paure più grandi sia quella di parlare pubblicamente degli effetti negativi sulla vita familiare (benché siano osservati quotidianamente). Ogni discorso pubblico deve iniziare con questa frase: “io non sono contrario alle tecnologie” oppure “non voglio certo demonizzare le tecnologie”. Si tratta di una devozione fobica verso la tecnologia che il filosofo tedesco Anders ha descritto come “vergogna prometeica”: “non c’è nulla di più scabroso oggi, nulla che renda una persona prontamente inaccettabile quanto il sospetto che sollevi delle critiche nei confronti delle macchine”.[5] Il libro sostiene al contrario che si possono “liquidare le preoccupazioni legate alle tecnologie digitali come ansie convenzionali derivanti da atteggiamenti conservatori verso il progresso” (p.63). Mentre Anders è al centro del dibattito filosofico contemporaneo, il libro ripropone ancora l’antitesi Progresso e Conservazione del lontano XIX secolo. Ma si può davvero scrivere oggi un pamphlet oltre la tecnologia senza ascoltare le paure che le famiglie vivono oggi per alcune precise tecnologie senza essere ideologici?
UNA VISIONE IDEOLOGICA
Gli autori hanno definito la “tecnofobia umanista” una “delle influenti ideologie del giorno d’oggi” (pp. 88-89). Il termine ideologia è di derivazione marxista ma nel gergo accademico contemporaneo ideologico è il contrario di scientifico. Ideologico è tutto ciò che introduce posizionamenti etici in un discorso sociale anziché restare rigorosamente neutro: “La scienza non dovrebbe essere prescrittiva, poiché il suo ruolo principale è quello di far luce sui fenomeni piuttosto che giudicarli” (p.67 ). Per Gramsci, al contrario, l’ideologia è il posizionamento all’interno della società rispetto ai rapporti di sfruttamento capitalistico, rapporti a cui non ci si può sottrarre. Inoltre Gramsci odiava l'indifferenza che “opera potentemente nella storia”. Siamo sicuri che questo pamphlet faccia luce sui fenomeni piuttosto che giudicarli? Alla fine questo libro prende una posizione, proprio per l’ostentato oggettivismo scientifico, poiché il posizionamento etico non si deduce dall’epistemologia ma la precede. Questo libro infatti non si schiera contro chi cerca di operare in modo diverso dall’industria digitale di oggi? Perché tutto questo accanirsi contro le famiglie che fanno dei patti per difendersi dall’invasione dell’industria digitale sulla pelle delle nostre bambine? Perché questo accanirsi insieme a Lancini ad accusare i genitori che sono invece le prime vittime di questa industria digitale senza scrupoli? Perché evitare di “incolpare la tecnologia digitale” (p.67) come fosse un essere umano da difendere?
É abbastanza ovvio che gli oggetti tecnologici non siano né colpevoli né innocenti e che le responsabilità siano solo umane: ma perché in tutto il libro non viene spesa una parola su chi queste tecnologie le possiede, le progetta e le usa come mezzi per arricchirsi con videogiochi, social network, pornografia, etc...? Il vizio più grande del libro è l’apparenza di oggettività scientifica da cui deborda un attacco continuo alle vittime: chi cerca di dar regole allo strapotere delle Big Tech. Così come nel XIX secolo in nome del Progresso c’era chi difendeva lo sfruttamento del lavoro minorile, oggi abbiamo trovato chi per la stessa incondizionata fede nella Tecnologia, difende il potere di sfruttamento delle Big Tech.
Spesso, spiegava sempre Gramsci, ciò che accade nella storia avviene non tanto perché alcuni vogliono che avvenga, quanto perché la massa degli uomini abdica alla sua volontà. Così l'ostentato ottimismo spesso non è altro che un modo di difendere la propria pigrizia, le proprie irresponsabilità, la propria volontà di non fare nulla di fronte a quanto accade. Ed era precisamente in questa forma di fatalismo che Husserl vedeva nel 1936 l’origine della crisi delle scienze europee: nell’oggettivismo della matematizzazione, nell’assenza di prescrizioni e nella distanza dal mondo della vita. È proprio heideggeriano l’orizzonte teorico del pensiero di Oltre la tecnofobia: poiché non si danno speranze ad altre tecnologie, si finisce per far credere che la Tecnologia sia un Destino anziché una scelta umana. Tra gli autori portati come testimoni mi sembra proprio però che né Benjamin, né Stiegler, né Freire, né Debord, fossero dell’idea che bisognasse abitare farmacologicamente la catastrofe causata dalle Big Tech. Direi piuttosto che hanno passato l’intera vita a lottare contro chi, con le tecnologie, ha sfruttato gran parte dell’umanità a partire dai suoi figli più piccoli.
NOTE
[1]Il XVIII secolo vedeva con favore la sostituzione della forza animale, quando la macchina a vapore sostituisce il cavallo. Le cose cambiano con la Rivoluzione Industriale a proposito della quale Simondon notava come l’alienazione non fosse un dato solo economico e giuridico di estraneità ai mezzi di produzione, ma un dato psicologico e fisiologico di percezione della mancanza di prolungamento dello schema corporeo. Infatti, per tutti gli illuministi e per Marx stesso “la frustrazione dell’uomo inizia con la macchina che sostituisce l’uomo” (Simondon, Del modo di esistenza degli oggetti tecnici), essa infatti più che far risparmiare lavoro al lavoratore per lo più fa risparmiare soldi al capitalista. È quindi con l'arrivo della macchina utensile nella Rivoluzione Industriale che si pone la questione della tecnologia (Technologie) da distinguere dalla tecnica (Technik). La tecnologia è tutta moderna e implica l’analisi delle forme elementari in cui si scompone il movimento del corpo umano, un logos incorporato nell’utensile e mosso da una macchina. Comporta un’oggettiva conoscenza dei processi produttivi, integrata dalla precisa oggettività delle scienze naturali: nella tecnologia non deve rimanere spazio per la scelta autonoma della mano umana.
[2]Da parte mia sono un entusiasta fautore di automobili con guida automatizzata che non superino mai i limiti (ops che parolaccia tecnofobica!) di velocità, obbligatoriamente disponibili solo (ops un altro divieto!) in carsharing e solo fuori dalle città.
[3]La storia tecnologica dell’Homo sapiens è sempre meno descritta in termini lineari, bensì sempre più spesso è ricostruita privilegiando l’evoluzione a spirale, ramificata, pluriversa, se non persino ciclica: cf. Graeber, Wengrow, L'alba di tutto. Una nuova storia dell'umanità (2021) o Diamond, Collasso, Come le società scelgono di morire o vivere (2005). L’evoluzione tecnologica della nostra civiltà sarebbe in questo quadro una eccezione.
[4]Cuban, Teachers and Machines, The Classroom Use of Technology Since 1920 (1982).
[5]Anders L'uomo è antiquato (1956). Anders parlava propriamente di antiquatezza dell'essere umano (Die Antiquiertheit des Menschen). Sulle rivalutazioni di Anders nel dibattito filosofico contemporaneo cf. la rivista “aut aut”, n. 397/2023 “L’uomo è antiquato? Günther Anders e la scena attuale”.
Recensione di Oltre la tecnofobia, il digitale dalle neuroscienze all’educazione - Terza parte
Dopo una sintetica recensione del libro Oltre la Tecnofobia (qui), una critica al concetto di onlife e della rimozione dell'infanzia (qui), Simone Lanza continua a confrontarsi con le tesi degli autori e affronta i punti nodali del libro, le implicazioni cliniche e pedagogiche dei disagi sociali provocati dall’uso precoce e prolungato degli schermi.
---
LA DIPENDENZA DA INTERNET NON ESISTE?
Sappiamo che gli smartphone alterano il ciclo dopaminergico, creano abitudini e persino dipendenze: non è un mistero perché questo è descritto da chi disegna queste app per metterle gratuitamente sul mercato riuscendo a trarne profitti enormi. Al giorno d’oggi esiste un’ampia discussione sulla classificazione delle varie dipendenze da internet, trattandosi di un tema di salute pubblica delicatissimo. Incuranti della complessità della situazione gli autori di Oltre la Tecnofobia hanno deciso di abbracciare le posizioni di Matteo Lancini, che sostiene che il disagio dei giovani non sia da attribuire all’iperconnessione, bensì alle “mamme virtuali”. Avvalendosi di Lancini, il fenomeno degli hikikomori è così commentato dagli autori: “I media digitali lungi dall’essere la causa del ritiro, sono piuttosto ciò che consente a questi adolescenti di rimanere ‘attaccati’ al mondo evitando un esito psicotico della loro sindrome”. (p.95) Gli autori sostengono ogni abuso debba considerarsi nocivo, ma che ciò non deve condurci – ed questo il tema che sta loro molto a cuore - a “incolpare la tecnologia digitale” (p.67)! Come si fa pensare di poter dare la colpa alla tecnologia se non la si è già prima antropomorfizzata?
Per loro “l’utilizzo specifico è dettato e condizionato dal modello di società contemporaneo” (p.67), ma non spendono una parola a spiegare come le tecnologie digitali modellino la società. Credono di dovere emettere una sentenza sulla colpevolezza o innocenza della Tecnologia (al singolare, si vedrà poi perché), ma non si esprimono mai sugli umani che sono proprietari di queste tecnologie e le usano come mezzi di produzione. Come se le finalità non fossero di chi progetta le Tecnologie. L’antropomorfizzazione della Tecnologia consiste nel neutralizzare ogni carattere etico e politico della tecnica, rimuovendo il ruolo degli umani che vi investono soldi. Questo è proprio il carattere ideologico, su cui si tornerà, mai messo in discussione in questa edulcorante Weltanschauung.
Non esiste Una dipendenza da internet o da smartphone ma le organizzazioni mediche stanno mettendo a fuoco molti disturbi legati all’uso compulsivo di queste tecnologie. Si tratta di fasce sempre più vaste della popolazione che sono risucchiate in comportamenti patologici indotti per così dire dal design. La visione di chi sostiene che la psicosi non solo non venga amplificata dall’effetto schermo ma persino lenisca la malattia e mantenga attaccati al mondo (sic), è estrema, molto discutibile e pericolosa dal punto di vista terapeutico.
Sulla questione clinica, vorrei rassicurare le decine di migliaia di genitori che chiedono ai loro figli di uscire dalla stanza, che non tutti la vedono come Lancini e che ci sono terapisti che aiutano gli adolescenti a distaccarsi dall’oggetto che produce la loro dipendenza (lo schermo), senza far sentire in colpa i genitori.
In ogni caso è chiaro che questo libro vorrebbe mettere un bavaglio a chi solleva la questione del disagio sociale, bollandolo come tecnofobico. E allora possiamo dire tranquillamente che il re è nudo perché la prova più evidente che le categorie di uso e abuso siano inadeguate a interpretare la complessa questione di salute pubblica (di cui gli hikikomori sono solo una parte) è testimoniata dal fatto che le Big Tech come Meta, pur di non farsi dare regole, sono disposti a darsele da sole.
Ad oggi l’OMS ha già riconosciuto la dipendenza da videogioco e da gioco d’azzardo, mentre esiste una vasta discussione sulla classificazione di altre forme di dipendenza da internet (oltre al fenomeno degli hikikomori, c’è la dipendenza da relazioni virtuali e social network, la net compulsion o shopping online, dismorfismo, etc...), si tratta di molti comportamenti patologici che sono soggetti a studi perché in continuo (non rassicurante) aggiornamento, dove il confine tra dipendenza e abitudine è sfumato. In ogni caso gli autori non hanno dubbi sul dover sollevare da ogni responsabilità la Tecnologia digitale quasi fosse una umana presenza.
Non stupisce quindi che gli autori critichino Jonathan Haidt, reo di avere pubblicato La generazione ansiosa. Riprendendo quasi alla lettera una precedente recensione (V. Gallese, Haidt: quelli che... il digitale, in “Doppiozero”, 17/9/2024) bollano come tecnofobico un libro documentatissimo che contiene quasi un migliaio di fonti. La questione è che dal 2012 è aumentato in modo intensivo l’uso dei social network tra le adolescenti ma sono anche aumentati fenomeni di ansia, depressione, isolamento e suicidi. Per Haidt non c’è solo correlazione ma anche un nesso di causalità. Gli autori propongono altre cause più complesse: “accesso alle armi, la discriminazione, l’isolamento sociale e le difficoltà economiche” (p.66). Nel libro (a differenza di quello di Haidt) non c’è però nessun tentativo di convincere il lettore che queste siano le cause plausibili. Non vi sono spiegazioni per cui non mi è possibile comprendere questa loro diversa ipotesi. Trovo difficile capire come l’accesso alle armi, la discriminazione, l’isolamento sociale e le difficoltà economiche possano essere state la causa di comportamenti non certo patologici ma che hanno costretto il CT Spalletti a regolamentare rigidamente l’uso dei dispositivi durante la fase finale di Euro 2024 agli atleti della nazionale di calcio maschile.

Lasciamo a chi legge farsi un’idea del dibattito tra Jonathan Haidt e Candice Odgers, suggerendo il franco confronto pubblicato su MicroMega 3/2025 (“Disconnessi. L’impatto dei social sulle nostre vite”). Un altro confronto è stato pubblicato da Internazionale. Mi limito a due osservazioni. La prima è che se esiste una correlazione questo dovrebbe costituire un campanello d’allarme sufficiente per applicare il principio di precauzionalità fino a nuovi e approfonditi studi, proprio perché la correlazione non implica ma non esclude affatto la causalità. In secondo luogo vorrei ricordare Austin Bradford Hill, il noto epidemiologo britannico, celebre per i suoi studi che hanno dimostrato il rapporto tra fumo e cancro polmonare (quando ai suoi tempi in tanti sottovalutavano la correlazione, sic). Hill aveva elaborato una serie di nove criteri per dedurre la relazione causale tra un fattore di rischio e una malattia sulla base di correlazioni statistiche. Allora le lobbies del tabacco insistevano proprio con le stesse argomentazioni di oggi: “Correlation does not imply causation”. Gli autori sono più avanti: la correlazione è il contrario della causalità e pertanto qualunque divieto va escluso e ogni regolazione rifiutata. E veniamo così alla quarta critica, alla questione educativa.
VIETATO VIETARE!
Gli autori ci propongono l’idea pedagogica rivoluzionaria, del tutto simile a quella del 1968: vietato vietare. Non citano questo slogan di vecchia data, ma lo aggiornano e lo ampliano persino alla protezione: “ogni scelta di protezione o di divieto non è educativa” (p.). Per loro controllo, divieto e protezione sono la stessa cosa. Iniziamo quindi con il rassicurare chi legge che il pedagogista Paulo Freire, certamente caro ai sessantottini e da loro invocato come punto di riferimento teorico, non era certo incline a posizioni libertine che “vedono una manifestazione d’autoritarismo in ogni legittima espressione di autorità”. Freire era incline invece a una posizione più pacata, quella di una persona “democratica, coerente con il suo sogno solidale ed egualitario, per la quale non può esistere autorità senza libertà o questa senza l’altra.”
Oggi nel dibattito pedagogico contemporaneo, proprio seguendo Freire non è possibile concepire l’autorità senza la libertà, ma nemmeno la libertà senza l’autorità. L’appello a sviluppare pensiero critico suona retorico e Freire si lamentava proprio dell’assenza dei limiti normativi. Gli autori si spingono ad asserire persino che ogni protezione è autoritaria: ma come spiegare le leggi contro il lavoro minorile? E i divieti di balneazione? E il divieto di passare con il rosso al semaforo sarebbe diseducativo? Non sempre applicare un divieto produce un effetto contrario.
La realtà di oggi sembra al contrario esser dominata da un’assenza di limiti e regole, al punto che, per dirla con un noto slogan pubblicitario, “l’unica regola è che non ci siano più regole”. Secondo Daniel Marcelli, punto di riferimento nel dibattito francese sulla crisi dell’autorità genitoriale, domina oggi invece “il bambino sovrano” in un vuoto epocale di autorità. In un altro contributo Marcelli sostiene che in pedagogia sia persino auspicabile obbedire.
L'obbedienza lungi dall'essere virtù negativa è indispensabile nella relazione pedagogica che si basa sulla fiducia. L'obbedienza non è la sottomissione. Autorità e obbedienza hanno significati anche positivi a differenza della sottomissione a un potere. La sottomissione si ottiene attraverso l'obbligo o la seduzione, mentre l'obbedienza (educativa non politica!) si fonda su un rapporto di fiducia. Quando sarai grande ti spiegherò, ma adesso fidati e obbedisci, perché non tutto può essere spiegato e contrattato. Questo è vero soprattutto nell’infanzia. Proprio l’obbedienza conduce all'indispensabile libertà di disobbedire nella maturità. Persino Don Milani teorico di L’obbedienza non è più una virtù, aveva idee ben chiare sull’autorità del docente e sull’importanza dell’obbedire in classe! Anche qui la mancanza di distinzione tra adolescenza e infanzia non permette agli autori di inserirsi nel dibattito pedagogico attuale su autorità, autorevolezza, obbedienza, sottomissione, libertà su cui per altro le filosofie femministe italiane hanno dato importanti apporti. Assenza di regole, di limiti, di paletti sono invece i concetti base di una pedagogia corrente molto diffusa, basata sulla seducazione (termine coniato da Gilles Lipovetsky per descrivere uno stile educativo basato sul tentativo di sedurre il bambino anziché di educarlo in senso tradizionale) e sulla deresponsabilizzazione degli adulti, incapaci di gestire il sano conflitto educativo, pedagogia corrente che è però distante dal dibattito pedagogico sulla crisi dell’autorità genitoriale aperto da Arendt.
Del resto Gli autori sono davvero così inclini a lasciare che i loro figli o nipoti guardino film pornografici a otto anni perché vietarglielo significherebbe poi che i loro pari in un atto di giustizia retributiva faranno vedere loro film porno? Per loro tutto va contrattato, trasfigurando l’idea del pedagogista francese Meirieu, che non solo propone la contrattazione educativa ma anche l’autorità del docente e la necessità della sanzione, per non parlare degli interrogativi sulla “strumentalizzazione del digitale da parte del sistema di mercato” (Meirieu , La scuola e la sfida del digitale).
Se la critica all’autoritarismo poteva funzionare nel XX secolo, che iniziò quando Ellen Key scrisse Il secolo del fanciullo, oggi lo slogan vietato vietare non è altro che, come rileva sempre Marcelli, l’anticipazione del credo neoliberista in ambito pedagogico. Questa seducazione incapace di vietare inculca con l’esempio il credo neoliberista dominante. Teorizzare oggi un “antiproibizionismo digitale” significa abbracciare le posizioni dell’individualismo e del narcisismo più sfrenato che già il nostro sistema economico e culturale promuove abbondantemente, anche grazie alle piattaforme.
Per sostenere la tesi che “ogni scelta di protezione o di divieto, in senso proprio, non è educativa” (p.147), si è dovuto alterare il senso profondo della dialettica di Paulo Freiere e storpiare il concetto di contrattazione di Merieu, perché questo assunto, in campo pedagogico, è poco difendibile. Promuovere questa deregulation educativa costituisce al contrario la quintessenza del credo dominante, propugnato tanto dagli autori quanto da Trump e dalle Big Tech: eliminare ogni limitazione persino nell’infanzia.
Eppure i limiti sono proprio ciò che permette di educare: come qualsiasi pedagogista, allenatore, educatore o insegnante sa bene, la difficoltà consiste semmai in dove e come mettere i limiti, ma non se metterli.
Nella quarta e ultima parte, si entrerà nel merito del concetto stesso di tecnologia, di fobia e si descriverà chiaramente la funzione ideologica di questo libro.
Recensione di Oltre la tecnofobia, il digitale dalle neuroscienze all’educazione - Seconda parte
Dopo una sintetica recensione del libro Oltre la Tecnofobia (qui), Simone Lanza continua a confrontarsi con le tesi degli autori, e inizia – con questo secondo passo - il suo ragionamento analitico di messa in discussione dell'onlife e della adultizzazione dell’infanzia come effetto mediatico anziché come dato naturale.
---
Oltre la Tecnofobia intende criticare i tecnofobici, ma chi sono i tecno-fobici oggi? Doveroso esplicitare, che nessuno si definisce tecno-fobico (né tecno-ottimista). Sotto questa etichetta gli autori criticano apertamente almeno lo studioso Haidt, il Ministro Valditara per le circolari, Alberto Pellai e Daniele Novara per le posizioni pubbliche di proposta di legge. Tuttavia, in generale anche se non in modo esplicito tutti quelli che vogliono regolamentare il digitale.
Gli autori, poi, in particolare, hanno a cuore che le famiglie facciano liberamente usare le tecnologie digitali senza dare indicazioni che seguano il principio di gradualità, anzi continuando a porre l’equazione: limiti e regole denotano tecnofobia. Le mie critiche, quindi, spazieranno su tutti gli aspetti di questa enorme costruzione ideologica: partirò dal mostrare le aporie relativa all’adolescenza, per finire sulle incoerenze nel respingere ogni paura per le tecnologie, come se oggi l’umanità non disponesse di tecnologie spaventose.
Gli esseri umani non mangiano il cibo nei primi mesi, non maneggiano coltelli nei primi anni, non guidano macchine nei successivi e per quanto riguarda l’uso di alcol e tabacchi le leggi, nonostante molte resistenze, hanno finito per dare limiti di età. Ma perché per l’uso di smartphone (e di schermi in generale) i nostri autori ritengono che non sia importante porsi la domanda: quali regole e a partire da quale età?
LA RIMOZIONE DELL’INFANZIA
La risposta a questa domanda è che l’intero libro si regge su una concezione dell’adolescenza che ignora platealmente ciò che la precede: l’infanzia. Gli autori liquidano con sufficienza l’idea che i minori possano essere "soggetti fragili per ragioni anagrafiche, qualcuno che è più esposto al rischio" (p. 145), rifiutando qualsiasi protezione basata sull’età. Se avessero preso in considerazione maggiormente l’infanzia forse avrebbero potuto comprendere anche loro qualche paura legittima dei genitori di oggi, ma in tutto il libro veramente poche righe sono dedicate all’infanzia, e come per Lancini, il riferimento implicito è sempre un ragazzo prossimo alla maturità (il povero diciassettenne), per il quale quella definizione di minore potrebbe essere riduttiva, ma che riduttiva non è se fosse riferita all’infanzia. Malgrado gli sforzi adultizzanti degli autori l’adolescenza resta però la terra di mezzo tra adultità e infanzia.
Del resto Bernard Stiegler (che costituisce uno dei riferimenti teorici degli autori del libro), si era dedicato a denunciare con estrema forza l’impatto devastante delle tecnologie sui bambini proprio nell’opera dove ha tematizzato il concetto di pharmakon. Ed è stato proprio Stiegler che dalle sue premesse teoriche traeva conclusioni opposte a quelle dei nostri autori, prendendo una posizione netta in quella che definì senza mezzi termini “la strage degli innocenti”, cioè l’impatto devastante delle Big Tech sull’infanzia.
Questa mancanza di considerazione degli impatti sull’infanzia da parte non tanto della Tecnologia quanto dell’industria culturale (termine che i nostri autori non usano mai a differenza di Stiegler) è proprio ciò che aveva condotto Postman (La scomparsa dell’infanzia, 1982) a parlare di adultizzazione dell’infanzia e infantilizzazione dell’adultità quale effetto dell’uso esasperato dei mass media. Senza questo doppio movimento ogni considerazione attuale sugli impatti in età adolescenziale (e infantile) risulta superficiale e fuorviante, nonché disarticolata dal vero dibattito di oggi: mettere a fuoco in cosa consista l’esposizione precoce e prolungata agli schermi e capire quando una certa quantità di tempo schermo non si trasformi in vero e proprio veleno per il tempo di sonno, per il tempo all’aria aperta, per il tempo di lettura, che restano tempi di apprendimento essenziali (come ben sanno del resto tutti i Ceo e ingegneri della Silicon Valley, nonché le famiglie statunitensi con redditi sopra i 100.000 dollari, che per lo più evitano gli schermi ai loro figli in giovane età e applicano il principio di gradualità). Il riferimento principale dei nostri autori non è all’infanzia bensì all’adolescenza, ma in realtà i nostri autori operano su entrambe quel processo di rimozione della loro specificità, operata (come ci insegna Postman) proprio dallo schermo: adultizzare il bambino, sottraendolo al suo processo graduale di divenire adulto.
ONLIFE: RAPPRESENTAZIONE O ESPERIENZA?
La seconda critica che si può rivolgere è che l’assunto (ipotesi da dimostrare), che non ci sia più distinzione tra l’esperienza dal vivo e quella di fronte a uno schermo non si basa su prove empiriche ed è teoreticamente abbastanza contraddittoria. Gli autori di Oltre la Tecnofobia si riferiscono molto al filosofo Walter Benjamin. Egli, infatti, designò fotografia e cinema come media che avevano modificato l’inconscio ottico: zoom, rallenty o slow motion, replay, etc., rendevano visibili cose che l’occhio nudo non poteva mettere a fuoco cambiando l’intera percezione del mondo. La stessa capacità di attenzione e di esperienza ne venivano modificate ma non per questo Benjamin teorizzò l’indifferenza ontologica tra i due tipi di percezione. Il nostro corpo-cervello elabora in modo simile ma non identico digitale e reale, altrimenti – come ammettono gli stessi autori – non saremmo in grado “di distinguere tra presenza fisica e digitale” (p.41). Il problema dei bambini di oggi è però che l’esposizione precoce e prolungata agli schermi riduce le capacità di questa distinzione. Il punto fondamentale è che gli autori insistono sul fatto che il corpo-cervello elabora rappresentazioni simili nel mondo virtuale e nel mondo reale. Teniamo in sospeso la domanda se questo sia vero o meno. Il filosofo ebreo-tedesco Benjamin non insistette solo sui diversi modi di percepire il mondo (decisamente molto meno sulla rappresentazione) bensì sui modi di viverlo: proprio l’esperienza (Erfahrung) narrabile e condivisibile è qualcosa di molto prezioso che nella modernità rischierebbe di essere annullato dall’esperienza vissuta (Erlebnis) che caratterizza invece il mondo caotico e veloce della società dominata da pubblicità e merci (Benjamin del resto non pensava che il capitalismo fosse la fine della storia).
Gli autori di Oltre la Tecnofobia riducono la differenza tra reale e virtuale a quella tra 3D e 2D, senza considerare la multi-sensorialità. Riducendole a rappresentazioni simili, disconoscono le differenze specifiche delle due esperienze. Dal punto di vista del bambino (che per altro quando nasce ci vede ben poco) ciò che differenzia l’esperienza dal vivo e quella tramite schermo non è solo la rappresentazione ma l’esperienza, che si fa con i cinque sensi del corpo (sporcandosi le mani e saltando nelle pozzanghere). Prendiamo un kiwi: il modo con cui il bambino vive e conosce un kiwi per la prima volta passa molto meno dalla rappresentazione, che dalla mano e dalla bocca. La multi-sensorialità è ciò che distingue il mondo come rappresentazione (quello dello schermo) dal mondo reale. Inoltre, mentre del mondo ti fai una rappresentazione, nello schermo la rappresentazione è già preparata da registi o algoritmi. Scambiare l’esperienza per la rappresentazione è un doppio errore: significa deprivare l’esperienza della multi-sensorialità lasciando lavorare prevalentemente la vista e offrire una rappresentazione di mondo già selezionata, ridotta e uniformata.
Se si sposta il focus dalla rappresentazione all’esperienza le differenze tra mondo reale e mondo virtuale sono notevoli per ciò che più conta per chi deve ancora divenire adulto. L’apprendimento infantile, a partire dall’apprendimento della lingua-madre, è molto migliore quando avviene senza gli schermi, e almeno fino a sei anni l’apprendimento è migliore dal vivo anziché tramite schermi, effetto noto come video deficit o transfer deficit, proprio perché il baby-talking – cioè, la modalità universale di insegnamento-apprendimento linguistico è multisensoriale, ha bisogno della sintonizzazione emotiva, della relazione tra corpi, dell’attenzione condivisa, cioè della condivisione delle intenzionalità. Mentre nella mente di un bambino di cinque anni, la rappresentazione del kiwi in uno schermo potrebbe confondersi con quella della mela (e non potremmo certo dargli torto), nel mondo reale sono due esperienze conoscitive assai diverse: basta mettere in bocca per capire. Un bambino diventa adulto in relazione con umani non in isolamento dagli altri umani.
Per questo motivo in tutto il mondo desta molte preoccupazioni l’esposizione precoce agli schermi, questione su cui gli autori non spendono mezza parola in tutto il libro. Insistono invece sul concetto di onlife che, pur essendo molto sexy, applicato all’infanzia è terribilmente fuorviante. Tale concetto coniato da Luciano Floridi (e usato da Lancini) indica l’esperienza quotidiana sempre più frequente di una costante connessione online, che implica un’interazione continua tra reale e virtuale. Il concetto di onlife si riferisce quindi alle esperienze quotidiane di connessione e interazione continua, caratterizzata da una indistinzione tra reale e virtuale. Il termine vuole mettere in risalto il fatto che stando in rete non si è fuori dal mondo, perché anche la rete è parte della vita e ha effetti sulla vita reale. Tutto ciò che si fa nel virtuale ha conseguenze sul mondo reale.
Un concetto semplice, ma che rischia di trasformarsi in arma ideologica: incoraggiare l’indistinzione di questo flusso continuo di tempo schermo con la realtà come qualcosa di positivo e/o ineluttabile, significa non stabilire una chiara priorità ontologica del reale sul virtuale e contribuire alla confusione. Si può vivere senza essere connessi ogni minuto, ogni ora, ogni giorno, anche oggi nel 2025, ma non si può usare il digitale senza vivere nel mondo reale: Floridi presenta la onlife come l’ultima frontiera di un’avanzata storica di un progresso tecnologico lineare, che non è né buono né cattivo, ma un destino ineluttabile, non deciso né voluto dagli umani, sul quale pertanto gli umani non possono decidere nulla. Onlife è il condensato dell’ideologia digitale attuale, ma è un concetto che, se applicato a un bambino, diventa estremamente fuorviante. Il caso estremo di un bambino che cresce circondato solo da robot era già stato descritto da Daniel Stern come esperienza psicotica che rende vana la funzione più umana propria della rappresentazione: la distinzione tra realtà e immaginazione.
Le tecnologie, come ci insegnano gli apporti più recenti della storia e dell’antropologia, sono sempre state decise dagli esseri umani e non sono disponibili su una linea retta che necessariamente avanza e progredisce verso le magnifiche sorti e progressive. Anche oggi le tecnologie digitali sono selezionate, decise e regolamentate da esseri umani: il problema è che sono nelle mani di pochissime persone che, pur regolando l’uso degli schermi per i loro figli, hanno tratto enormi profitti dall’assenza di regole per l’esposizione agli schermi della popolazione da 0 a 18 anni.
---
Nel continuare la recensione del libro dovremo cercare di capire la vera ossessione ovvero l’intolleranza verso ogni tipo di regolamentazione del digitale, che, alla luce persino dei tentativi di regolamentazione blanda delle Big Tech, appare oggi come totalmente anacronistico: nel 2026 la questione non sarà infatti se darsi delle regole ma chi scriverà le regole, e quali regole darà per l’uso delle tecnologie digitali, anche ai comuni mortali.
APPROFONDIMENTI:
- https://www.corriere.it/dataroom-milena-gabanelli/smartphone-social-figli-capi-web-li-vietano-motivi/ec8b3ea6-f177-11ec-82b6-14b9a59f244e-va.shtml
Recensione di Oltre la tecnofobia, il digitale dalle neuroscienze all’educazione - Prima parte
A maggio di quest’anno è uscito un libro, Oltre la tecnofobia, Il digitale dalle neuroscienze all’educazione di Vittorio Gallese, Stefano Moriggi, Pier Cesare Rivoltella, che – dichiaratamente, fin dal titolo – intende proporre una visione in controtendenza rispetto alla tecnofobia che sta dilagando tra media, common sense, e riflessioni accademiche.
Abbiamo accolto con grande interesse la riflessione critica, acuta e articolata, di Simone Lanza che, con il pretesto di confrontarsi con le tesi degli autori, costruisce un ragionamento parallelo su tematiche quali la metafora del cervello come computer, l’identità di rappresentazione dei mondi analogico e digitale, e il presunto autoritarismo celato da divieti e restrizioni dell’uso delle tecnologie digitali a bambini e ragazzi.
In questo primo articolo presentiamo la sintesi della recensione del libro; nei successivi tre seguiremo il ragionamento analitico di Simone Lanza.
-----
Il saggio di Vittorio Gallese, Stefano Moriggi, Pier Cesare Rivoltella si scaglia contro la tecnofobia, figlia di una lunga tradizione storica che ha visto demonizzare ogni rivoluzione tecnologica “dall’invenzione del fuoco agli smartphone” (p.22), dalla scrittura alfabetica alla fotografia, dal cinema alla televisione, fino all’attuale panico morale. Gli autori si adoperano a smontare con vigore le tesi di Jonathan Haidt (La generazione ansiosa), secondo cui i giovani sarebbero vittime passive di tecnologie portatrici di ansie sociali; a loro avviso, il vero problema non è il digitale ma la paura culturalmente costruita che lo circonda, una nostalgia reazionaria per un passato idealizzato, sostenuta da divieti inefficaci e da un’autorappresentazione sociale che colpevolizza le nuove generazioni.
Il limite più rilevante del saggio è che, credendo di criticare la diffusione della tecnofobia, non analizza il mondo odierno, ben plasmato in profondità dalle piattaforme digitali, che invece mettono a valore le paure sociali, che sono la leva e non la resistenza alla diffusione di massa di queste tecnologie. Il libro, soprattutto, fa un pessimo uso delle sue tre fonti principali chiamate a corroborare l’impostazione teorica: Walter Benjamin, Bernard Stiegler, Paulo Freire. Se quindi in questa recensione si darà eccessivo spazio a questi testi non è tanto per restituire alle tre fonti la loro forza critica, completamente rimossa nel libro in questione, quanto perché questa operazione consolida, con il linguaggio scientifico, una serie di luoghi comuni, che qui si intendono invece sottoporre a critica. Presenterò subito i contenuti.
Nella prima parte (gnoseologica), ispirata alle ricerche delle neuroscienze, gli autori demoliscono la metafora del cervello come computer. L’essere umano è dotato di intersoggettività corporea e i neuroni motori si attivano anche nella percezione di stimoli visivi o tattili senza produrre movimento effettivo. Questa simulazione motoria dimostrerebbe che “i meccanismi cervello-corpo che consentono la nostra relazione fisica e diretta con il mondo (…) e quelli che intervengono nel mondo – analogico e digitale – con cui rappresentiamo il mondo con storie e immagini, sono molto simili” (p.37). Non esiste così una differenza qualitativa o ontologica nel modo in cui “rappresentiamo” (p.41) il mondo perché il primo medium sarebbe il corpo (p.21). Il riferimento principe della prima parte è al filosofo Walter Benjamin, primo critico ad avere compreso che i media trasformano la stessa percezione dell’esperienza del mondo reale. Ne L’opera d’arte al tempo della sua riproducibilità tecnica sostiene che i media (essenzialmente fotografia e cinema) hanno cambiato il modo di percepire il reale.[1] Sulla confusione tra esperienza di mondo di Benjamin con la rappresentazione del mondo si tornerà più avanti, perché questa confusione permette di sovrapporre la rappresentazione del mondo analogico a quella digitale, perdendo di vista la dimensione esperienziale del mondo reale, di cui il virtuale è solo una parte.
Nella seconda parte (ontologica) si sostiene la tesi che l’indistinzione percettiva sia anche costitutiva del reale, cioè che virtuale e reale siano sovrapponibili. Un’idea dura a morire per la resistenza del buon senso umanista a cui i nostri autori contrappongono le tesi del filosofo Bernard Stiegler, per il quale la tecnologia non è esterna all’umano, perché l’evoluzione umana è “tecnologico-umana” (p.23). A ulteriore conferma portano una tesi di Debord riproposta in modo forse impreciso: “tutto ciò che un tempo veniva vissuto direttamente è ora semplicemente rappresentato a distanza (sic).” (p.43). Secondo me, la traduzione corretta è “tutto ciò che era direttamente vissuto si è allontanato in una rappresentazione”. Che poi è proprio ciò che i nostri autori non vogliono capire: lo schermo trasforma (e allontana) il vissuto in rappresentazione, come si vedrà più avanti.[2] In ogni caso la loro argomentazione è che la contrapposizione tra umano e tecnologia sia sterile, storicamente infondata e filosoficamente inadeguata, seguendo le tesi del filosofo francese Bernard Stiegler, in Italia sicuramente non abbastanza riconosciuto. Stiegler elabora da Derrida la nozione di tecnica come pharmakon (veleno e farmaco insieme): come la scrittura per Platone così anche il digitale è intrinsecamente ambiguo potendo avvelenare o curare a seconda della dose.
Questa prospettiva smaschererebbe la tecnofobia umanista, radicata al contrario in una nostalgia metafisica che contrappone artificiosamente l’uomo alla macchina, il naturale al tecnologico. Da questa prospettiva teorica, per altro assolutamente condivisibile, anche alla luce del dibattito filosofico in corso sul post-umano (dibattito non menzionato), si passa però velocemente a polemizzare con le soluzioni di "buon senso" derivate da questa visione semplicista: ecco che il concetto di "benessere digitale" è una trappola che scarica sulle macchine responsabilità umane, mentre i divieti (come gli smartphone vietati sotto i 14 anni, le circolari del Ministero, etc...) ignorano la complessità del rapporto coevolutivo tra essere umano e tecnica. Qui gli autori si buttano nelle braccia dello psicologo Matteo Lancini: per gli adolescenti in ritiro sociale (hikikomori), i media digitali non sarebbero la causa del male, ma il farmaco che evita esiti psicotici, permettendo loro di restare agganciati al mondo. Viviamo ormai in una realtà onlife, dove ogni distinzione tra on line e off line sarebbe obsoleta. Gli autori ci invitano ad "abitare farmacologicamente (e dunque consapevolmente) la catastrofe" (p.107): riconoscere le tossicità del digitale senza rinunciare alle sue potenzialità curative. Questa parte teorizza l’inseparabilità di umano e tecnologico deducendone la polemica contro il buon senso umanista sulle misure da prendere per gli abusi degli smartphone in età adolescenziale. Da un lato polemizzano contro le misure di buon senso dall’altro si limitano a segnalare solo alcune storture delle tecnologie informatiche nominando essenzialmente i rischi dei deepfake e della disinformazione delle fake news che viaggiano più veloci delle notizie vere. Gli autori sono fermamente convinti che “l’avvento dei media digitali ha democratizzato l’accesso alle informazioni” (p. 56) e che “l’ascesa delle piattaforme sociali ha permesso ai politici di interagire direttamente [sic] con gli elettori” (p.57): convinzione quest’ultima che forse alla fine del XX secolo poteva essere anche condivisibile, ma che dopo la Brexit e il ruolo di Cambridge Analytica, per non parlare della fine di ogni regolamentazione avanzata da Trump, suona quanto meno goffa, se non persino collusa.
La critica si fa totalmente pedagogica nella terza parte, dove ogni suggerimento pratico volto a limitare l’uso delle tecnologie è definito autoritario. Per questa operazione si scomoda il pedagogista Paulo Freire citandolo in esergo e avvalendosene nell’argomentazione: secondo gli autori i divieti inibiscono la capacità critica e deresponsabilizzano gli adulti e chi si vuole educare. Portano l’esempio di genitori cattivi che negano le carte Pokémon ai propri figli, i quali finiscono però per riceverle dai loro pari per una sorta di giustizia compensativa, traendo questa conclusione: “i divieti non reggono all’urto dei gruppi di pari” (p.144). L’ansia di controllo – già evidente in Platone con la sua diffidenza verso la scrittura – sarebbe il vero male: vietare informazioni ai minori è un modello fallimentare, poiché il gruppo dei pari compensa sempre le privazioni. Qui proprio gli autori abbracciano una posizione molto netta: “ogni scelta di protezione [sic] o di divieto, in senso proprio, non è educativa” (p.147). Anche qui mi sia lecito approfondire la questione per capire come Freire la pensasse davvero, ma soprattutto se l’antiautoritarismo non sia oggi qualcosa che potremmo ritenere inadeguato nonché anche abbondantemente superato dai dibattiti pedagogici contemporanei sulla crisi dell’autorità genitoriale.
Questo libro ci dà l’occasione per criticare sette luoghi comuni di cui questo manifesto “tecno-ottimista” sarebbe la versione “scientifica”. Lo sforzo dei nostri autori consiste nel convincere che ciò che viene vissuto sia sostanzialmente identico a ciò che viene rappresentato a distanza: stare tutto il giorno davanti a uno schermo sarebbe la stessa cosa che fare esperienze nel mondo reale, a due anni come a novanta, senza curarsi di dire qualcosa di critico sul fatto che ciò che passa oggi attraverso lo schermo è selezionato e personalizzato da algoritmi progettati da un pugno di miliardari che stanno aumentando le loro ricchezze e che non hanno alcuna finalità pedagogica se non quella di modellare i comportamenti di miliardi di persone.
NOTE
[1] Gallese aveva già ampiamente sviluppato queste tesi con M. Guerra in Lo Schermo Empatico. Cinema e Neuroscienze, Milano 2015. Su Walter Benjamin cf. anche: V. Gallese, Digital visions: the experience of self and others in the age of the digital revolution, in “International Review of Psychiatry”, n. 36, 2024, pp. 656–666. Per una ricostruzione analitica di Benjamin mi sia consentito rimandare a: S. Lanza, L’educazione nell’epoca della riproducibilità tecnica. note su Walter Benjamin, in “Quaderni Materialistici”, n. 23, 2024, pp. 155-176
[2] La traduzione della Società dello spettacolo proposta autonomamente dai nostri autori è quanto meno discutibile: meglio sarebbe stato conservare la traduzione dal francese di Stanziale “Tutto ciò che era direttamente vissuto si è allontanato in una rappresentazione [c’est éloigné dans une raprésentation]”. La traduzione di questo passaggio diventa pertanto proprio il tradimento proprio di ciò che Debord denuncia: con la società capitalistica l’esperienza vissuta viene mercificata e sostituita da una rappresentazione, spettacolo è quindi “il movimento autonomo del non-vivente”, etc.… proprio perché Debord auspicava una società diversa capace di usare in modo migliore le tecnologie.
La legge di Huang - Recensione di Geopolitica dell’intelligenza artificiale di A. Aresu
«Non abbiamo alcuna meta né qualità spirituali. Tutto quel che vogliamo sono le cose materiali. L’unica cosa che ci importa.»
«Dagny,» mormorò, «qualsiasi cosa possiamo essere, siamo noi che muoviamo il mondo, siamo noi che lo facciamo camminare.»
Ayn Rand, La rivolta di Atlante
1 RITRATTI
Alcuni libri imprimono sul volto del lettore una maschera di ansia e di malinconia che resta insensibile alle transizioni di tono e di argomento, come quella con cui Buster Keaton affronta qualunque evento nei film di cui è protagonista. Geopolitica dell’intelligenza artificiale di Alessandro Aresu irradia disagio ad ogni ogni pagina accumulata dalla sua movenza narrativa, che si articola sui personaggi dell’attualità tecnologica, più che sui temi economici, sui blocchi continentali e sui confini delle tensioni militari e politiche. Dopo quasi 600 pagine a stampa il lettore sa tutto sulla giacca di pelle del CEO e fondatore di NVIDIA Jensen Huang, sul talento per la falegnameria del premio Nobel Geoffrey Hinton, sull’orologio al polso dell’ex ministro del Commercio USA Gina Raimondo, sul fastidio per il multiculturalismo di Peter Thiel: più che ad una galleria di ritratti, il lettore viene esposto all’apologia delle gesta degli imprenditori e dei computer scientist che hano costruito l’industria contemporanea dell’intelligenza artificiale.
Aresu adotta l’armatura concettuale del Cacciari del Lavoro dello spirito per definire il ruolo che i protagonisti della saga rivestono sullo scenario internazionale. L’essenza del sistema della scienza coincide con una rivoluzione continua, resa possibile dalla tecnica, quindi dalla potenza di calcolo che viene sviluppata dai processori con cui si elaborano i modelli di intelligenza artificiale più avanzati – che a loro volta permettono di progettare e realizzare hardware ancora più potente. L’accelerazione del progresso viene scandita dalla Legge di Moore e dalle formulazioni più recenti del principio, che Aresu etichetta come Legge di Kurzweil e Legge di Huang. In nessun caso si tratta di necessità fisiche, ma di evidenze emergenti dal ritmo di aggiornamento dei prodotti della manifattura tecnologica. Quello più antico risale a Moore, uno dei fondatori di Intel, e fissa il periodo di raddoppio della potenza di calcolo per chip ogni 18 mesi; Kurzweil ha osservato che l’introduzione dell’intelligenza del software modifica la curva di crescita – secondo la regola dei «ritorni accelerati» – convertendola da lineare ad esponenziale. Jensen Huang fissa la misura della nuova curva, che ha andamento logaritmico e che si fonda sulle GPU di NVIDIA, con un miglioramento di 25 volte ogni 5 anni.
2 LA GRANDE TRASFORMAZIONE
L’I.A. comporta un rinnovamento di tutti i processi industriali, della gestione dell’agricoltura, del consumo di energia, della mobilità, dell’infrastruttura militare. Negli impianti di TSMC, il principale fornitore di NVIDIA, le filiere di produzione sono manovrate da robot e l’intervento degli esseri umani è concentrato sulla progettazione e sul controllo del buon funzionamento delle macchine. Gli stabilimenti principali si trovano a Taiwan, e rappresentano il modello della Grande Trasformazione che ha investito l’Asia negli ultimi decenni – a giudizio di Aresu, più ampia e più radicale di quella che Polanyi ha descritto nell’Europa del XVIII-XIX secolo. La manifattura rappresenta ancora l’asse portante del sistema culturale, scientifico e politico del mondo; ma i settori strategici sono cambiati, così come le modalità di organizzazione del lavoro e la distribuzione geografica delle aree più avanzate. L’Europa ha abdicato da tempo a qualunque ruolo di primo piano: non è in grado di interpretare lo spirito del tempo, di identificare le industry su cui investire e i volumi di capitale necessari per la competizione su terreni come transistor, robotica, I.A. – e non è nemmeno capace di regolarle, dal momento che non ne ha alcuna comprensione reale. Il tentativo eroico di Angelo Dalle Molle e del suo istituto IDSIA a Lugano, o la permanenza di DeepMind a Londra, sono eccezioni da cui si evince solo che, senza l’intervento dei capitali americani, le poche operazioni di eccellenza del Vecchio Continente sono destinate alla marginalità.
Taiwan si trova al centro della rivoluzione tecnologica dell’Asia Orientale: il modello di organizzazione delle fabbriche allestite sull’isola non è riproducibile negli USA, dove tempi di messa a punto e di tassi di produttività non riescono a tenere il passo della madrepatria. Dai chip stampati a Formosa dipende lo sviluppo dell’automazione sia americana, sia cinese: l’interruzione del processo di globalizzazione, e l’introduzione delle logiche di friendshoring da parte di Washington e di Pechino, collocano le imprese taiwanesi sul tracciato del confine geopolitico, con l’obbligo di rinuncia a quasi metà del fatturato per schierarsi dalla parte della sicurezza nazionale di cui sono tributari i clienti maggiori.
La stessa linea di confine, e le stesse criticità, attraversano società nate e cresciute in pieno territorio americano, come NVIDIA, Intel o AMD, che realizzano l’hardware indispensabile per lo sviluppo di tutti i settori, dai videogame alla ricerca sulle molecole proteiche. Il comparto privato dell’industria, la ricerca avanzata in campo fisico, chimico, biologico, sono il teatro stesso della storia politica successiva all’interruzione del processo di globalizzazione, con l’incertezza sugli ambiti decisivi in uno scenario bellico – ora che la guerra si può manifestare anche come sabotaggio nei sistemi di controllo delle centrali nucleari, negli apparati informatici di funzionamento delle borse, delle transazioni commerciali di ogni genere, degli archivi pubblici, delle infrastrutture, della mobilità, persino delle lampadine e dei termostati nelle case «intelligenti». Secondo Carl Schmitt la dimensione della politica si può riassumere nella decisione su chi è il nemico; quella della tecnologia stabilisce se l’amico può godersi il caldo del divano nelle sere di inverno, e con cosa può distrarsi sul suo cellulare o con la smart TV. Ma anche nella quotidianità estranea alla deflagrazioni militari, la capacità del blocco cinese di riversare sul mercato prodotti di tutti i settori industriali, con un livello qualitativo paragonabile a quello occidentale (se non migliore, come nel caso delle automobili della BYD), e ad un prezzo inferiore, equivale ad un sovvertimento degli equilibri commerciali e di potere ereditati dalla seconda metà del XX secolo: sul divano di casa, quando l’amico scorre le notizie del giorno le compulsa con la maschera di smarrimento alla Buster Keaton.
3 LA RIVOLTA DI ATLANTE
Morris Chang sottolinea nelle interviste che la crescita di TSMC è stata resa possibile dalle politiche di gestione del personale umano negli impianti di Taiwan. Ingegneri e tecnici non possono iscriversi ad alcun sindacato, accedono agli spazi di lavoro il lunedì mattina, vivono e pernottano nelle aree aziendali fino al venerdì sera, quando possono rientare a casa per il fine settimana – purché non sia sopraggiunta qualche emergenza, la cui soluzione richieda la loro presenza in ufficio anche il sabato e la domenica. In ogni caso, la loro disponibilità a raggiungere la sede della fabbrica non prevede limiti di tempo e di orario, perché se una crisi dovesse verificarsi alle due di notte del sabato, l’ingegnere TSMC risponde al telefono, saluta la moglie e parte per la sua missione salvifica all’interno delle pareti della fabbrica.
Solo con questi metodi di devozione medievale all’impresa è possibile obbedire ai ritmi di crescita della Legge di Huang; ed è per questo che anche NVIDIA, Tesla e gli altri stabilimenti di Musk, non ammettono la sindacalizzazione dei dipendenti. Alla maschera di sconcerto di Buster Keaton con cui il lettore accoglie queste informazioni, Aresu aggiunge altri motivi di turbamento, approvando la denuncia di Morris Chang contro il freno allo sviluppo che si deve scontare negli USA, per le limitazioni imposte allo sfruttamento della manodopera, e per il favore accordato all’inseguimento del modello taiwanese da parte dei fondatori delle società nella Silicon Valley. Dalla (giusta) critica nei confronti dell’ignoranza con cui i politici affrontano le questioni del progresso tecnologico e della civiltà digitale, alla giustificazione del turbine insensato del capitalismo contemporaneo e della sua tirannia sociale, il passo è breve. Anche i lettori di Cacciari accolgono questo slittamento nel testo di Aresu con lo smarrimento di Buster Keaton, perché per il filosofo la tensione tra tecnica e politica non può mai risolversi in un lavoro di amministrazione burocratica delle esigenze del profitto economico.
In Aresu la constatazione che la corsa verso l’incremento della potenza di calcolo è sempre più forsennata in tutto il mondo, e che la sfida tra blocco occidentale e blocco cinese si recita sulla scena dell’avanzamento tecnologico, non viene bilanciata dalla domanda: a quale scopo? La fuga in avanti degli eroi che Aresu glorifica nel suo testo, con un peana che è un tributo ad Ayn Rand più che a Cacciari, finisce per precipitare il mondo in un divenire senza avvenire, nella corsa senza fine di un futuro senza un fine. Geoffrey Hinton si è ritirato da Google nel 2023 sottoponendo a dure critiche il modello di intelligenza artificiale che lui stesso ha contribuito a sviluppare, con la delusione di aver mancato l’obiettivo di conoscere il funzionamento del cervello umano; Demis Hassabis ha vinto il Premio Nobel per la chimica rimanendo in Europa, e utilizzando qui l’I.A. sviluppata in DeepMind. L’emergenza di un significato, o il fallimento della sua ricerca, non obbediscono alla geografia di Aresu, e per la verità non sembrano obbedire ad alcuna regola. L’Autore rimprovera i politici di impedire la libera circolazione dei capitali, dei cervelli e delle idee, frammentando il mondo lungo i confini della sicurezza nazionale; e in effetti senza le GPU di Huang è impossibile avviare progetti di ricerca scientifica o di progettazione tecnologica che aspirino ad un interesse universale. Ma la pressione dell’utilità commerciale conduce a risultati che sono davvero interessanti? Il mondo con l’onnipervasività degli smartphone, del cloud, e ora dell’I.A. – che solo pochi anni fa non è stata in grado di evitare la terapia medievale del lockdown contro un virus che ha contribuito a smistare per i quattro angoli del pianeta – è davvero il luogo in cui vorremmo vivere? L’abrogazione della separazione tra lavoro e tempo libero, la proibizione delle pause nella reperibilità, l’esposizione allo scivolamento nella depressione che è endemica nella «società della stanchezza», sono un prezzo che siamo disposti ad accettare per conversare con ChatGPT?
Non dovrebbe la politica poter decidere su questo?
BIBLIOGRAFIA
Aresu, Alessandro, Geopolitica dell’intelligenza artificiale, Feltrinelli, Milano 2024.
Cacciari, Massimo, Il lavoro dello spirito. Saggio su Max Weber, Adelphi, Milano 2020.
Han, Byung-Chul, Mudigkeitsgesellschaft – Burnoutgesellschaft – Hoch-Zeit, Matthes&Seitz, Berlino 2010.
Kurzweil, Ray, The Age of Spiritual Machines: When Computers Exceed Human Intelligence, Viking Press, New York 1999.
Polanyi, Karl, The Great Transformation, Ferrar&Rinehart, New York 1944.
Schmitt, Carl, Der Begriff des Politischen, Duncker & Humblot Verlagsbuchhandlung, Berlino 1932.
Recensione di "Eppure non doveva affondare - Quando la scienza ha fatto male i conti"
Il saggio Eppure non doveva affondare - Quando la scienza ha fatto male i conti (Bellucci D., Bollati Boringhieri, 2024) offre una riflessione approfondita sugli errori scientifici, mettendo in evidenza come questi non siano da considerarsi come semplici fallimenti ma opportunità, fondamentali per il progresso della conoscenza. Attraverso una serie di casi emblematici, l’autore mostra l’importanza di un’analisi critica e della capacità di apprendere dagli errori per migliorare le tecnologie e il metodo scientifico.
Uno degli ambiti in cui gli errori hanno avuto conseguenze drammatiche è l’ingegneria. Bellucci analizza alcuni fallimenti progettuali clamorosi, come quello degli aerei con finestrini quadrati. Questo design, apparentemente banale, si rivelò fatale: la forma degli angoli causava una concentrazione eccessiva delle sollecitazioni meccaniche, portando alla rottura della fusoliera in volo. Un altro caso emblematico riguarda le navi che si spezzano in due a causa di calcoli errati sulla distribuzione del peso e delle forze strutturali. Questi esempi mostrano quanto sia essenziale un’analisi accurata nella progettazione, perché anche il minimo errore può trasformarsi in una catastrofe.
Il libro si sofferma poi sugli errori nel campo dell’hardware e dell’informatica, mostrando come difetti nei microchip possano compromettere operazioni matematiche fondamentali. Un singolo errore nella progettazione di un processore può avere ripercussioni enormi, rendendo necessarie operazioni costose di aggiornamento o sostituzione. Anche nel software gli sbagli possono avere conseguenze impreviste e pericolose: sistemi che perdono la cognizione del tempo possono causare problemi gravi, soprattutto in ambiti critici come il settore bancario o le telecomunicazioni. A volte, persino un dettaglio apparentemente insignificante—come un cavo allentato—può mandare in fumo esperimenti scientifici di grande importanza.
Un altro ambito in cui gli errori possono avere conseguenze drammatiche è la medicina. L’autore analizza i problemi legati alla ricerca farmaceutica e alla produzione di medicinali, evidenziando come piccole variazioni nella formulazione o nella fase di sperimentazione possano rendere un farmaco inefficace o addirittura pericoloso. Inoltre, Bellucci mette in luce le criticità legate ai trial clinici, spiegando come un’interpretazione errata dei dati possa compromettere l’affidabilità delle cure e generare rischi per i pazienti.
L’intelligenza artificiale è un altro settore in cui gli errori assumono un ruolo centrale. Bellucci evidenzia i pericoli legati ai modelli predittivi, che possono produrre risultati distorti o discriminatori se vengono addestrati su dati errati. Un ulteriore problema riguarda la trasparenza: la cosiddetta “scatola nera” delle reti neurali rende difficile comprendere i meccanismi decisionali degli algoritmi, complicando l’individuazione e la correzione degli errori. Questo solleva questioni cruciali non solo dal punto di vista tecnico, ma anche etico.
Ma come si possono prevenire questi errori? Il libro dedica una sezione alle strategie utilizzate dalla scienza per ridurre i rischi e migliorare l’affidabilità delle scoperte. Tra queste, l’autore cita la peer-review nella ricerca accademica, il debugging nel software, i trial clinici randomizzati in medicina e l’uso della ridondanza strutturale in ingegneria, ovvero l’inserimento di margini di sicurezza nei progetti per evitare cedimenti improvvisi. Questi metodi mostrano che, pur non potendo eliminare completamente gli errori, è possibile limitarne gli effetti attraverso un’attenta verifica e un approccio sistematico.
Infine, Bellucci sottolinea come la scienza sia un processo collettivo: gli errori sono inevitabili, ma è proprio grazie al metodo scientifico che possono essere individuati, corretti e trasformati in nuove conoscenze. Il progresso non è mai il risultato del lavoro di un singolo, ma della condivisione e della verifica incrociata tra esperti. In definitiva, Eppure non doveva affondare offre una panoramica affascinante su come anche i più clamorosi fallimenti possano diventare strumenti preziosi per migliorare la nostra comprensione del mondo e affinare le nostre tecnologie.
DEVIS BELLUCCI
Devis Bellucci, nato nel 1977, è un fisico, scrittore e divulgatore scientifico italiano. Ha conseguito la laurea in Fisica nel 2002 e il dottorato nel 2006 presso l'Università degli Studi di Modena e Reggio Emilia, dove attualmente ricopre il ruolo di ricercatore in Scienza e Tecnologia dei Materiali. La sua attività di ricerca si concentra principalmente sui biomateriali per applicazioni in ortopedia, odontoiatria e medicina rigenerativa.
Oltre alla carriera accademica, Bellucci è autore di numerosi romanzi e saggi. Tra le sue opere narrative si annoverano "La memoria al di là del mare" (2007), "L'inverno dell'alveare" (2010), "La ruggine" (2011), "La sete dei pesci" (2013) e "La cura" (2017). Nel campo della divulgazione scientifica, ha pubblicato "Materiali per la vita. Le incredibili storie dei biomateriali che riparano il nostro corpo" (2020) e "Eppure non doveva affondare" (2024), in cui esplora gli errori nella scienza e le loro conseguenze.
Come divulgatore, Bellucci ha collaborato con diverse testate, scrivendo di scienza, viaggi e cultura. È attivo anche sui social media, attraverso i quali condivide contenuti legati alla scienza e alla tecnologia.
Con Kafka, contro Kafka – Recensione a «Kafka. Pro e Contro» di Günther Anders
Nel 1934, esule a Parigi durante la “piena” nazista, Anders tenne presso l’«Institut d’Études Germaniques»un’importante conferenza su Kafka, per intercessione di Gabriel Marcel. La situazione era già kafkiana di per sé, ma a renderla ancora più surreale fu la conversazione con il direttore, tale Liechtenberg, che dapprima propose ad Anders di parlare di Stefan Zweig, poi accettò la proposta di Anders stesso, sostenendo di avere già sentito il nome del «per niente germanico» Kafka – così lo definisci lo stesso Anders – e autorizzando l’evento. Davanti ad un uditorio che, eccezion fatta per la allora moglie di Anders – ovvero, niente meno che Hannah Arendt – e il di lui cugino Benjamin, del tema in questione probabilmente non sapeva nulla e mai aveva letto una sola riga di Kafka, Anders tenne quindi la sua conferenza in un clima di “straniamento” generale, parlando di un autore che, in patria come all’estero, era ancora praticamente sconosciuto. Dal punto di vista della critica letteraria è infatti sorprendentemente lungimirante quanto Anders riesca a presagire lo “spirito dei tempi” e ad ammonire i presenti sulla futura “moda kafkista” che avrebbe snaturato, alla lunga, il messaggio del romanziere boemo. Anders, dunque, fin dal principio non tratta quest’autore come uno scrittore per i soli “iniziati” ma come un fenomeno “pop” e legge nella figura di Kafka il segno di un’intera epoca, profeticamente descritta in trasparenza nella “essenza metamorfica” della sua attualità.
Di che epoca stiamo parlando? Dell’epoca della tecnocrazia, ovviamente. Anders intuisce già durante gli anni dell’esilio il legame profondo che sottende alla società totalitaria che ha davanti – il fenomeno dell’hitlerismo – e alla caratteristica «impersonale» della tecnocrazia, che vede appunto in controluce nella lettura dei racconti kafkiani – e, in particolare, ne Il castello. Fa questo, in un senso ancora troppo analogico per essere espresso col rigore del concetto, ma non per questo meno attento rispetto agli anni successivi della maturità, in cui Anders tornerà ancora ad elaborare questa “critica della società tecnocratica” nei due volumi de L’uomo è antiquato, l’opera della sua «Kehre». Invece, la conferenza su Kafka era destinata a rimanere a lungo inedita – come, del resto, buona parte degli scritti andersiani degli anni dell’esilio – fino alla pubblicazione per C.H. Beck di Monaco, nel ’51. Il saggio, subito accolto dalla stroncatura di Max Brod – nume tutelare di tutti i kafisti – inaugura così una feroce querelle che lo stesso Anders riporta poi, in appendice, nella ripubblicazione del testo per la raccolta dei suoi scritti estetici sull’uomo «senza-mondo», edita nel ’84 sempre per C.H. Beck. Da tutt’altra parte, invece, il dibattito marxista risulterà ancora troppo acerbo e polarizzato per cogliere i nessi e le implicazioni sociali della lettura andersiana di Kafka, che ne critica la spoliticizzazione; si pensi, ad es., al convegno di critici “austro-marxisti” tenutosi a Libice nel ’63, che Anders stesso cita come “dimostrazione per assurdo” della chiusura mentale della critica militante verso Kafka, da quel pulpito strumentalizzato per contrastare il diktat sovietico: propaganda contro la propaganda.
Quello che invece sfuggiva a Brod, e che Anders ribadisce, è che Kafka non rappresenta, per Anders ma anche più in generale, solamente un fatto letterario, ma soprattutto (forse innanzitutto) il primo esempio in letteratura di quella forza “spersonalizzante” che è la tecnica in quanto «apparato» o «impianto, dispositivo» (Gestell) impersonale. Emblematica, in tale senso, è l’interpretazione che Anders fornisce del «Castello» kafkiano come il luogo “anonimo” del potere. La «chiamata senza colui che chiama» è l’essenza fondamentale della ragione tecnica, che “piove” dall’alto sulle teste del malcapitato «agrimensore K.» reo di avere semplicemente fatto il suo lavoro, nel tentativo di entrare tra le mura del castello medesimo. L’inversione della colpa e della pena, stavolta evidente nell’altro romanzo di Kafka preso in analisi da Anders – ovvero il Processo – rappresenta invece la situazione di ricattabilità a cui costantemente i cittadini sono sottoposti nei regimi totalitari: tuttavia, l’elemento di novità espresso da Kafka ha ancora una volta molto più a che fare con la “tecnocrazia” che con il “tecnocrate” di turno, e riguarda precisamente la fine del nesso causale tra la colpa e la pena ad essa commisurata. In sintesi, nel regno della tecnocrazia incontrastata non si tratta più di venire puniti perché colpevoli, ma viceversa si diventa colpevoli in base alla punizione a cui si viene condannati.
Nella lettura andersiana di Kafka, pertanto, l’elemento di critica letteraria è solo in apparenza predominante. La figura di K. come colui che è imprigionato nel «non-potere-arrivare-al mondo» è, in questo senso, in una sola sintesi la trascrizione autobiografica della condizione esule di Anders medesimo – e, in generale, dell’ebreo come tradizionalmente “errante” – ma anche, ad un tempo, il riassunto della situazione di “spossessamento” di cui l’uomo si trova ad essere vittima nelle società a stampo “tecno-totalitario” e, in tal senso, l’anticipazione e la premessa a tutto il successivo lavoro di sviluppo di una critica alla “società tecnocratica” così definita, in Anders. Motivi successivi, quali il celebre tema della «vergogna prometeica», trovano già una loro prima formulazione autonoma nelle pagine del saggio su Kafka; oppure, la cosiddetta «religiosa irreligiosità» che, per Anders, pervade l’intero corpus letterario kafkiano, può certamente essere ricondotta con facilità alle riflessioni sulla “religione immanente” nell’età della tecnocrazia che lo stesso Anders sviluppa in seguito. Da questo punto di vista, Anders lettore di Kafka non è soltanto un aiuto per la comprensione della caratura del romanziere boemo, ma anche uno strumento per l’elaborazione concettuale di una vera e propria sua originale “teoria critica” della tecnocrazia, com’era appunto intenzione del filosofo stesso.
Con Kafka, quindi, ma anche contro Kafka: contro l’elevazione ad idolo dell’immagine che il romanziere boemo mette in luce; contro la psicopatologia della vita nella società tecnocratica: con il sostegno di Kafka, ma non a favore del suo appiattimento in una «Kafka-mode». Anders forse non è il lettore che Kafka poteva aspettarsi, ma certamente è stato l’interprete di cui Kafka aveva bisogno.








