Dopo tre anni di trattative, l’Oms ha approvato il primo Piano pandemico globale

Quasi un anno fa, su questa rivista avevamo parlato del Piano pandemico globale, sollevando non poche critiche. In questi giorni, dopo tre anni di negoziazioni, il piano è stato approvato. I voti a favore sono stati 124, mentre 11 i Paesi si sono  astenuti: Italia, Russia, Bulgaria, Polonia, Romania, Slovacchia, Giamaica, Guatemala, Paraguay, Israele e Iran. Nessuno contrario.

Due le considerazioni. In primo luogo, il testo ha perso l’impostazione iniziale che appariva fortemente “dirigista”. Le sovranità nazionali non sembrano più surclassate perché è specificato che l’Oms non sarà autorizzato né a prescrivere leggi nazionali né a incaricare gli Stati di intraprendere azioni specifiche come vietare i viaggi, imporre blocchi o vaccinazioni e misure terapeutiche. Per il segretario generale dell’Oms, Tedros Adhanom Ghebreyesus, il piano «è una garanzia che si possa proteggere meglio il mondo da future pandemie. Ed è anche un riconoscimento da parte della comunità internazionale che i nostri cittadini, le nostre società e le nostre economie non devono subire nuovamente perdite come quelle subite durante il Covid 19».

Seconda considerazione: la porta Oms non è del tutto chiusa per nessuno. Il Piano pandemico verrà inviato a tutti i 60 Stati membri per essere ratificato dai Parlamenti, e sarà allora che il “sì” o il “no” dei singoli Stati diventerà definitivo. 

Il fatto che l’Italia non abbia votato il Piano è stato visto come un segnale forte; per chi, in Italia, ritiene che il governo italiano abbia fatto bene, dovrà vigilare affinché questa posizione  venga mantenuta quando il Parlamento sarà chiamato a esprimersi. Va detto che il trattato entrerà in vigore, a livello internazionale, solo per i Paesi che lo ratificano. 

Quali sono le perplessità? I tempi sembrano allungarsi ancora – si ipotizza fino a marzo 2026 - perché il Piano potrà essere votato soltanto quando sarà ultimato in ogni suo allegato e al momento manca quello dedicato alla trasmissione dei patogeni (che riguarda cioè le misure di sicurezza per i laboratori che isolano batteri o virus).

A preoccupare chi dovrebbe sentirsi rassicurato dal linguaggio ammorbidito di Ghebreyesus, c’è però il Regolamento sanitario approvato dall’Oms il 1° giugno scorso: un testo che ha la volontà di censurare qualsiasi informazione considerata come non-informazione e che surclasserebbe le leggi nazionali. I Paesi hanno tempo fino al 19 luglio per respingerlo, inviando una lettera (in questo caso varrebbe il Regolamento sanitario precedente del 2015) altrimenti entrerà in vigore di default. 


Genocidio o crimini di guerra? Una questione anche metodologica

Diversi conflitti e discussioni molto accese (a volte anche violente) potrebbero essere evitate (o almeno ridimensionate) se prima di passare al giudizio si riflettesse collettivamente (e si provasse a trovare un accordo, almeno momentaneo) sul significato dei termini che usiamo. Ne avevamo già accennato in un precedente post[1], parlando di “definizione operativa”.

L’IMPORTANZA DELLA “DEFINIZIONE OPERATIVA”

Nelle scienze si dà molta attenzione (o almeno si dovrebbe) alle caratteristiche (o attributi) di un concetto. In quel post si facevano i seguenti esempi: che cosa fa di una persona un/a ‘pover*’? Quali requisiti deve avere un collettivo per essere definito una ‘famiglia’? La definizione che il/la ricercatrice/tore ne darà, offrirà una guida operativa per selezionare (oppure escludere) i casi e poi intervistare le persone ritenute avere requisiti.

Alle due domande appena formulate, le risposte possono essere molteplici. Ma risposte diverse portano anche a “costruire” oggetti di studio diversi, portando alla non comparabilità dei risultati delle diverse ricerche e (in definitiva) alla incomunicabilità.

Mitchell e Karttunen (1991), analizzando una serie di ricerche finlandesi sugli/lle “artist*”, avevano riscontrato la produzione di risultati diversi a seconda della definizione (operativa) di ‘artista’ che veniva impiegata dai/lle ricercatori/trici e che poi guidava la costruzione del campione. In alcune ricerche veniva incluso nella categoria ‘artista’ (i) chi si autodefiniva come tale; in altri casi (ii) colui che produceva in modo duraturo e continuativo opere d’arte; altre volte (iii) chi veniva riconosciut* come artista dalla società nel suo complesso, oppure (iv) colui/colei che veniva riconosciut* dalle associazioni delle/gli artist*.

Appare evidente come la conseguenza di ciò sia l'impossibilità di comparare gli esiti queste ricerche. E quanto l’espressione “costruire l’oggetto di studio”, anziché registrare dei fatti, sia tutt’altro che una boutade.

COSA STA SUCCEDENDO A GAZA?

Veniamo al tragico argomento di questi mesi: a Gaza si sta realizzando un ‘genocidio’’, un crimine di guerra’, una azione di ‘legittima difesa’ del governo israeliano o altro ancora? Per rispondere, bisognerebbe trovare un accordo (impossibile, lo so bene) sulla definizione (quindi il significato) di questi termini ed espressioni.

Che cosa fa di un evento (o serie di eventi) un ‘genocidio’? Quali sono gli attributi/caratteristiche (intensione) dei concetti di ‘genocidio’, ‘crimine di guerra’ ecc.?

Secondo l'ONU[2], si intendono per genocidio

«gli atti commessi con l'intenzione di distruggere, in tutto o in parte, un gruppo nazionale, etnico, razziale o religioso». Come tale:

(a) uccisione di membri del gruppo;

(b) lesioni gravi all'integrità fisica o mentale di membri del gruppo;

(c) il fatto di sottoporre deliberatamente il gruppo a condizioni di vita intese a provocare la sua distruzione fisica, totale o parziale;

(d) misure miranti a impedire nascite all'interno del gruppo;

(e) trasferimento forzato di fanciulli da un gruppo ad un altro».

In accordo con questa definizione sono stati considerati genocidi: la guerra in Bosnia ed Erzegovina nell'ambito delle guerre jugoslave, il genocidio del Ruanda, quello cambogiano, l'Olocausto ebraico, il genocidio armeno. Ovviamente è una definizione di “parte” nel senso che non è riconosciuta da tutt*. Ad es. il genocidio armeno è riconosciuto solo da alcuni Stati[3].

Se per analizzare quello che succede a Gaza, accettiamo la definizione dell’ONU (e non tutti gli Stati, però, la accettano), possiamo notare che i cinque attributi ricorrono tutti:

(a) ci sono quotidiane uccisioni di palestinesi non armat*;

(b) i/le quali sono isolat*, senza possibilità di ricevere aiuti umanitari (cibo, medicinali, assitenza). Per cui la loro all'integrità fisica (anche per la mancanza di cibo) o mentale (data dalla situazione di prostrazione in cui vivono) sembra gravemente lesionata;

(c) vi è un deliberato progetto di “distruggere completamente Gaza”, come ha dichiarato il ministro delle finanze israeliano Bezalel Smotrich, il 6 maggio scorso in un convegno[4]. Il giorno prima, lo stesso, aveva affermato in una conferenza stampa a Gerusalemme: “Israele occuperà Gaza per rimanerci" e "non ci sarà alcun ritiro, nemmeno in cambio degli ostaggi";

(d) un piano che (pare) Smotrich avesse sin dal 2017[5]: avviare una pulizia etnica, riducendo le nascite dei/lle palestinesi e aumentando quelle degli/lle ebre*, al fine di diventare maggioranza;

(e) trasferire un milione e mezzo di palestinesi in altri luoghi; un progetto di deportazione già iniziato molti anni prima, in modo chirurgico, abbattendo le case di palestinesi per forzarl* a migrare in altri posti[6].

Ovviamente non tutt* sono d’accordo con queste osservazioni. Alcun* giornalist* e politic* (non serve fare nomi, rimaniamo sui contenuti) chiamano “messa in sicurezza” quello che altr* chiamano “deportazione”. Alcun* ritengono legittimo schedare (mediante riconoscimento facciale[7]) le persone a cui viene dato il cibo (a quando la mezzaluna cucita sul petto?). Altr* sostengono che si tratta di ‘crimini di guerra’[8] e non di genocidio[9]; ma la guerra si fa tra eserciti, e un esercito palestinese non esiste. O almeno ora non esiste più, se si intendeva Hamas come un esercito. Ma quelli di Hamas non erano dei “terroristi”? O sono terroristi o sono un esercito. Non possono essere le due cose contemporaneamente.

Come si può vedere le domande sono tante e una riflessione “scientifica” (fra giornalisti competenti, storici, scienziati sociali, politologi, organizzazioni umanitarie) sarebbe necessaria.

La cosa interessante è che nelle ultime settimane sempre più quotidiani cominciano ad adottare le parole “genocidio” e “sterminio”, al posto di termini meno forti.

È il preludio a un futuro riconoscimento?

 

 

 

 

RIFERIMENTO BIBLIOGRAFICO

Mitchell, R. and Karttunen, S. (1991), ‘Perché e come definire un artista?’ Rassegna Italiana

di Sociologia, 32(3): 349–64.

 

NOTE:

1 https://www.controversie.blog/definizione-operativa-limportanza-delle-definizioni-prima-di-aprir-bocca/

2https://it.wikipedia.org/wiki/Genocidio#:~:text=Con%20genocidio%2C%20secondo%20la%20definizione,etnico%2C%20razziale%20o%20religioso%C2%BB

3 https://it.wikipedia.org/wiki/Genocidio_armeno#/media/File:Nations_recognising_the_Armenian_Genocide.svg

4 https://stream24.ilsole24ore.com/video/mondo/ministro-israeliano-gaza-sara-completamente-distrutta/AHWXOdc

5 https://www.ilfattoquotidiano.it/2025/05/15/nakba-israele-gaza-palestina-smotrich/7988997/

6 Istruttivo, a tal fine, è No Other Land, un film documentario del 2024 diretto, prodotto, scritto e montato da un collettivo israelo-palestinese formato da Basel Adra, Yuval Abraham, Rachel Szor ed Hamdan Ballal (https://it.wikipedia.org/wiki/No_Other_Land), È stato premiato con l'Oscar al miglior documentario ai premi Oscar 2025.

7 https://www.controversie.blog/cibo-in-cambio-di-impronte-retiniche/

8 https://it.wikipedia.org/wiki/Crimine_di_guerra

9 https://www.youtube.com/watch?v=F4vDYhIMmm8&t=3s


Il Golem, il capro espiatorio e altri gattopardi - Vale la pena di giocare a «Algoritmo libera tutti»?

1. ALGORITMI

Nel subcontinente indiano si celebra l’Agnicayana, il più antico rituale documentato nel mondo ad essere ancora praticato: consiste nella costruzione dell’altare Syenaciti, a forma di falco, che celebra la ricomposizione del corpo del dio primordiale Prajapati dopo la creazione del mondo – fatica da cui è uscito letteralmente a pezzi. La modalità di costruzione dell’altare è complessa, è prescritta da un algoritmo, ed è scandita da un mantra che accompagnano la posa delle pietre. Paolo Zellini riferisce che nelle civiltà della Mesopotamia e dell’India le conoscenze matematiche, l’organizzazione sociale, le pratiche religiose, erano governate da schemi procedurali con una via di accesso al sapere alternativa alla formalizzazione logica – la via della dimostrazione assiomatico-deduttiva che appassionava i greci (1). Questa soluzione non ha permesso agli scribi del Vicino e del Medio Oriente di raggiungere l’univocità del concetto di numero, a partire dai numerali con cui gestivano le questioni nei vari contesti di applicazione: il sistema che organizzava le derrate di grano e di riso era diversa da quella che permetteva di contare i soldati, da quella che quantificava pecore e cavalli, da quella che misurava i debiti; ma ha permesso di evitare le difficoltà che i numeri irrazionali, e la relazione spigolosa della diagonale con il lato del quadrato, hanno suscitato nel mondo greco-romano.

L’algoritmo non è un’astrazione concettuale occidentale contemporanea, ma un dispositivo che emerge dalla cultura materiale, dalle procedure sociali di gestione del lavoro. L’etichetta proviene dal latino medievale, e si riferisce al metodo di calcolo con numeri posizionali descritto in un saggio di al-Kuwarizmi (andato perduto nella versione originale, ma conservato in due traduzioni latine). A partire dal XIII secolo il ricorso al metodo indiano di calcolo con cifre posizionali si diffonde in tutta Europa, soprattutto per la sua utilità in ambito commerciale: è di nuovo una pratica sociale a veicolare e a materializzarsi nel successo dell’algoritmo, iscrivendolo nella fioritura della nuova cultura urbana, e nel corpo delle relazioni costruite dai traffici della borghesia nascente (2).

Il calcolo posizionale insiste su matematica ed economia; ma qualunque sequenza di istruzioni che trasformino un certo materiale di partenza in un risultato finale, attraverso un numero finito di passi, (ognuno dei quali sia definito in modo abbastanza chiaro da non autorizzare interpretazioni variabili in modo arbitrario), è un algoritmo. Una ricetta di cucina, le istruzioni dell’Ikea, il meccanismo di lettura della scrittura alfabetica, sono esempi di algoritmi con cui possiamo avere più o meno dimestichezza (e fortuna). Gran parte della nostra esistenza si consuma nella frequentazione di procedure di questo tipo; la creatività, quando compare, può somigliare all’adattamento ingegnoso di una di loro, o alla combinazione inedita di pezzi di procedimenti diversi. Secondo alcuni teorici, come Ronald Burt, non si danno nemmeno casi del genere, ma solo importazioni di algoritmi da culture diverse, che i compatrioti ancora non conoscono, ma che possono digerire grazie ad adattamenti e traduzioni opportune (3).

In un articolo recente pubblicato su Controversie si è sostenuto che il rapporto tra algoritmi e esseri umani ha smesso di essere simmetrico e co-evolutivo, perché in qualche momento dell’epoca contemporanea la macchina si sarebbe sostituita ai suoi creatori, sarebbe diventata prescrittiva, avrebbe imposto griglie di interpretazione della realtà e avrebbe cominciato a procedere in modo autonomo a mettere in atto le proprie decisioni. Credo che una simile valutazione derivi da due sovrapposizioni implicite, ma la cui giustificazione comporta diversi problemi: la prima è quella che identifica gli algoritmi e le macchine, la seconda è quella che equipara il machine learning dei nostri giorni all’AGI, l’Intelligenza Artificiale Generale, capace di deliberazione e di cognizione come gli esseri umani.

2. PRIMO ASSUNTO

Non c’è dubbio sul fatto che gli automi siano messi in funzione da sequenze di istruzioni; ma questo destino non tocca solo a loro, perché gran parte dei comportamenti degli uomini non sono meno governati da algoritmi, appena mascherati da abitudini. Più le operazioni sono l’esito di un percorso di formazione culturale, più l’intervento delle direttive standardizzate diventa influente. Parlare una lingua, leggere, scrivere, dimostrare teoremi matematici, applicare metodi di analisi, giocare a scacchi o a calcio, sono esempi di addestramento in cui gli algoritmi sono stati interiorizzati e trasformati in gesti (che sembrano) spontanei. Adattando un brillante aforisma di Douglas Hofstadter (4) alla tecnologia dei nostri giorni, se ChatGPT potesse riferirci il proprio vissuto interiore, dichiarerebbe che le sue risposte nascono dalla creatività libera della sua anima.

Le lamentele che solleviamo contro gli algoritmi, quando gli effetti delle macchine contrastano con i nostri canoni morali, è paragonabile all’accusa che rivolgeremmo al libro di ricette se la nostra crostata di albicocche riuscisse malissimo. L’Artusi però non è responsabile del modo maldestro con cui ho connesso le sue istruzioni con gli algoritmi che prescrivono il modo di scegliere e maneggiare gli ingredienti, il modo di misurare le dosi, il modo di usare gli elettrodomestici della cucina: parlo per esperienza. Tanto meno è responsabile della mia decisione di cucinare una crostata di albicocche. Allo stesso modo, il software COMPAS che è stato adottato per collaborare con i giudici di Chicago non ha deciso in autonomia di discriminare tutte le minoranze etniche della città: la giurisprudenza su cui è avvenuto il training, che include l’archivio di tutte le sentenze locali e federali, è il deposito storico dei pregiudizi nei confronti di neri e diseredati. Il suo uso, che non è mai confluito nella pronuncia autonoma di verdetti, può anzi vantare il merito di aver portato alla luce del dibattito pubblico un’evidenza storica: generazioni di giudici, del tutto umani, hanno incorporato nel loro metodo di valutazione algoritmi ereditati dalla consuetudine, dall’appartenenza ad una classe sociale che perpetua se stessa, in cui questi preconcetti sono perdurati e si sono applicati in sentenze eseguite contro persone reali.

Allo stesso modo, non è il software The Studio a muovere guerra ai civili di Gaza: un’accusa di questo genere servirebbe a nascondere le responsabilità che devono essere imputate ai politici e ai militari che hanno deciso i massacri di questi mesi. Nello scenario del tutto fantascientifico in cui  l’intelligenza artificiale avesse davvero selezionato gli obiettivi, e fosse stata in grado di organizzare le missioni di attacco (come viene descritto qui) – in realtà avrebbe ristretto gli attacchi ai soli obiettivi militari, con interventi chirurgici che avrebbero risparmiato gran parte degli effetti distruttivi della guerra. Purtroppo, in questo caso, l’AI non è in alcun modo capace di sostituirsi agli uomini, perché – a quanto si dichiara – i suoi obiettivi non sarebbero stati il genocidio, ma l’eliminazione di un justus hostis secondo le caratteristiche tradizionali dello spionaggio nello scontro bellico dichiarato. Il fatto che l’impostazione stessa del conflitto non sia mai stata tesa a battere un nemico, ma a sterminare dei terroristi, mostra che le intenzioni umane, erano ben diverse fin dall’inizio. Gli algoritmi selezionano mezzi e procedure per l’esecuzione di obiettivi, che sono sempre deliberati in altro luogo.

3. SECONDO ASSUNTO

Questa riflessione ci conduce alla seconda assunzione: tutto il software oggi è AI, e i dispositivi di deep learning sono in grado di maturare intenzioni, articolarle in decisioni autonome – e addirittura, in certe circostanze, avrebbero anche l’autorità istituzionale di coordinare uomini e mezzi per mandarle in esecuzione.

Basta smanettare un po’ con ChatGPT per liberarsi da questo timore. Le AI generative trasformative testuali sono meravigliosi programmi statistici, che calcolano quale sarà la parola che deve seguire quella appena stampata. Ad ogni nuovo lemma aggiunto nella frase, viene misurata la probabilità del termine successivo, secondo la distribuzione vettoriale dello spazio semantico ricavato dal corpus di testi di training. È la ragione per cui può accadere che ChatGPT descriva nelle sue risposte un libro che non esiste, ne fissi la data di pubblicazione nel 1995, e stabilisca che nel suo contenuto viene citato un testo stampato nel 2003, nonché descritta una partita di Go svolta nel 2017 (5). ChatGPT, Claude, DeepSeek, e tutta l’allegra famiglia delle intelligenze artificiali generative, non hanno la minima idea di quello che stanno dicendo – non hanno nemmeno idea di stare dicendo qualcosa. AlphaGo non sa cosa significhi vincere una partita a Go, non conosce il gusto del trionfo – tanto che pur riuscendo a vincere contro il campione di Go, non sa estendere le sue competenze ad altri giochi, se non ripartendo da zero con un nuovo training.

L’AI attuale è in grado di riconoscere pattern, e di valutate la probabilità nella correlazione tra gli elementi specifici di cui il software si occupa, senza essere in grado di passare tra segmenti diversi dell’esperienza, generalizzando o impiegando per analogia le conoscenze che ha acquistato, come invece fanno gli esseri umani. Comprensione dei contenuti, intenzioni, strategie, sono attribuite alla macchina da chi ne osserva i risultati, sulla base delle ben note norme conversazionali di Paul Grice (6). I software di AI dispongono dello stesso grado di coscienza, e della stessa capacità di deliberare intenzioni e stabilire valori, che anima il forno in cui tento di cucinare la mia crostata di albicocche.

Non vale la pena dilungarsi oltre, visto che di questo tema ho già parlato qui e qui.

4. GATTOPARDI

Nessuna tecnologia è neutrale: non lo è nemmeno l’AI. Ma la comprensione del modo in cui i software incrociano il destino della società implica un’analisi molto più dettagliata e articolata di una crociata generica contro algoritmi e macchine, dove la fabbricazione di altari, la preparazione di torte di albicocche, il comportamento di Palantir (ma anche quello di ChatGPT, di AlphaFold, di Trullion), possono finire nello stesso mucchio, a beneficio di una santificazione di un’umanità che sarebbe vittima delle manipolazioni di perfidi tecnologi. La ghettizzazione urbanistica in America, la soppressione dello Jus Publicum Europaeum (7) e la scomparsa del diritto internazionale dagli scenari di guerra (che infatti non viene più dichiarata: ne ho già parlato qui), sono problemi che vengono nascosti dal terrore di un Golem che non esiste, ma di cui si continua convocare lo spettro leggendario, questa volta nelle vesti di Intelligenza Artificiale. Quanto più si disconosce la suggestione di questa tradizione mitologica, tanto più se ne subisce inconsapevolmente il potere. È solo con un esame paziente delle condizioni di cui siamo eredi, spesso nostro malgrado, con l’analisi della complessità dei fattori che agiscono in ciascun problema sociale, e l’ammissione che non esiste un fuori dai dispositivi, che si può tentare un’evoluzione quanto più prossima ai nostri requisiti di libertà e di dignità; il processo sommario al Golem, la convocazione dell’algoritmo (!) come capro espiatorio di tutti i misfatti della modernità, per rivendicare il diritto di rigettare tutto e ripartire da zero, non è che un modo per pretendere che tutto cambi – perché tutto rimanga come prima.

 

 

 

 

BIBLIOGRAFIA

Burt, Ronald, Brokerage and Closure: An Introduction to Social Capital, Oxford University Press, Oxford 2007.

ChatGPT-4, Imito, dunque sono?, a cura di Paolo Bottazzini, Bietti Editore, Milano 2023.

Grice, Paul, Studies in the Way of Words, Harvard University Press, Cambridge 1986.

Hofstadter, Douglas, Gödel, Escher, Bach. Un'eterna ghirlanda brillante. Una fuga metaforica su menti e macchine nello spirito di Lewis Carroll, tr. it. a cura di Giuseppe Trautteur, Adelphi, Milano 1980.

Pasquinelli, Matteo, The Eye of the Master: A Social History of Artificial Intelligence, Verso Books, Londra 2023

Schmitt, Carl, Il nomos della terra nel diritto internazionale dello «Jus publicum europaeum», tr. it. a cura di Franco Volpi, Adelphi, Milano 1991.

Zellini, Paolo, Gnomon. Una indagine sul numero, Adelphi, Milano 1999.


Tennis, ma le donne giocano meno bene degli uomini?

Adriano Panatta, negli anni ‘70 del secolo scorso (una vita fa!), era un bel ragazzo che giocava molto bene a tennis.

Nel suo anno di grazia, il 1976, vinse gli Internazionali d’Italia a Roma e il Roland Garros a Parigi, uno dei tornei del Grande Slam, quelli che danno “l’immortalità tennistica”, nonché trascinò l’Italia alla vittoria della Coppa Davis (quando era ancora una cosa seria, ma questo è un altro argomento).

Adriano non durò molto ai suoi livelli migliori e già nel 1979 la sua carriera era in evidente calo. Fu un giocatore molto amato in Francia, sicuramente per il suo aspetto e per l’eleganza dei gesti, molto discusso in Italia dove fu costantemente accusato di allenarsi troppo poco e di “dolce vita”, non senza qualche ragione.

L’Italia si accorse di aver perso un giocatore importante e un uomo arguto solo quando smise di giocare e ne venne fuori un “innamoramento” postumo, che ha fatto sì che da anni Adriano sia diventato una specie di vate i cui giudizi sono difficilmente discutibili.

Ebbene, Panatta pochi giorni fa, pur con la sua solita ironia, ha detto una cosa forte: il tennis femminile “non si può guardare” per quanto è brutto!

Ohibò! Per fortuna non ne è nata una guerra di religione immediata; sarà perché lui le cose le dice con una nonchalance disarmante.

Ma le domande restano: le donne giocano veramente male? E se sì, perché?

La mia risposta è: sicuramente no, le donne non giocano affatto male; però è vero che il tennis femminile è diventato noioso. Un tempo, invece, non lo era.

Non c’è nessun motivo né fisico né mentale perché le donne debbano giocare meno bene degli uomini; fatto salvo che, per ovvi motivi di struttura scheletrica e muscolare, i loro colpi viaggiano a velocità inferiori. Allora proveremo a capire perché il tennis femminile è accusato di essere monotono.

Tutto il tennis è diventato negli ultimi venti / trent’anni uno sport in cui conta sempre di più la potenza. Basti vedere anche l’evoluzione fisica dei giocatori top. Negli anni 60 i grandi dominatori dell’epoca, gli australiani Rod Laver e Ken Rosewall, erano alti circa 1.70. Negli anni 70 – 80 i Borg, McEnroe, Connors, lo stesso Panatta, erano uomini alti 1.80 o poco più. Oggi i migliori sono tutti poco sopra o poco sotto il metro e novanta (lo stesso è avvenuto nel calcio, per i portieri). La maggiore potenza fisica e l’evoluzione delle racchette ha fatto sì che il gioco sia diventato molto più veloce (la stessa cosa è avvenuto nella pallavolo) e tutta una serie di schemi di gioco oggi risulta più difficile da eseguire. Una volta molti giocatori facevano il cosiddetto “serve & volley”, ovvero il giocatore o la giocatrice al servizio seguiva a rete la propria battuta, per chiudere il punto al volo. Oggi il serve & volley non lo fa più nessuno (se non sporadicamente) perché la velocità del servizio e della risposta sono troppo elevate per gestire questo schema. E così per altre soluzioni di gioco, che sono diventate non più vantaggiose data la velocità dei colpi.

Quindi il gioco è diventato molto più uniforme: un po’ tutti giocano gli stessi colpi con gli stessi movimenti (ripetuti meccanicamente migliaia e migliaia di volte) e i giocatori (uomini e donne) che sanno variare sono pochissimi, perle rare.

Curioso il paragone con un’attività agonistica, in cui lavora molto il cervello e praticamente nulla i muscoli: gli scacchi. Anche negli scacchi è diminuita la creatività del gioco; tutte le mosse sono state analizzate da computer potentissimi che hanno scandagliato le infinite (miliardi di miliardi) combinazioni possibili. Il risultato è che oggi le prime 20 mosse nei tornei sono praticamente standardizzate e molte aperture sono cadute in disuso.

Ma torniamo al tennis: perché a essere sotto accusa è soprattutto il tennis femminile? (Non c’è solo Panatta che dice che è noioso).

Perché è assolutamente vero che nel tennis maschile si possono ancora vedere giocatori con caratteristiche diverse, che giocano con stili diversi – le perle rare di cui parlavo sopra; mentre in quello femminile si fa veramente fatica a distinguere una giocatrice dall’altra.

Ma il motivo di certo non va cercato in differenze genetiche tra uomini e donne. Il punto è che gli allenatori hanno spinto sull’incremento della forza e sulla potenza, ancor di più sulle ragazze. Probabilmente sembrava la strada più rapida per migliorare le prestazioni delle atlete, ma questo è andato a scapito di una preparazione tecnica completa e non standardizzata.

E tutto questo, credo, è successo anche perché da una quindicina d’anni si è affacciata una generazione di ragazze dell’est, fisicamente dotatissime, con una volontà di sfondare fortissima, poco propense a considerare il tennis uno sport, bensì un mezzo per farsi largo nella vita a gomitate.

Mi sembra una situazione che ha molto a che fare con aspetti di riscatto ed emancipazione sociale, cavalcati da allenatori con scarsa visione.

È un vero peccato perché le donne, invece, hanno sempre fatto vedere un bellissimo tennis. Senza tornare agli albori di questo sport, negli anni ‘70 – ‘80 abbiamo avuto campionesse come Martina Navratilova, Hana Mandlikova, Chris Evert e successivamente, in anni più recenti, ragazze come Justine Henin, Martina Hingis, Ageska Radwanska, l’italiana Francesca Schiavone… tutte ragazze in grado di giocare una grandissima varietà di colpi, capaci di inventare soluzioni impensabili, di esternare talento puro. Pura bellezza per chi ama lo sport!

No, non c’è nessun motivo perché le donne non possano giocare bene a tennis e tutti vogliamo rivedere la loro creatività. Servono allenatori intelligenti, che spieghino alle bambine che si affacciano a questa meravigliosa disciplina che non è una guerra ma è un gioco.

Chi compete, pur nello stress di una partita di alto livello, deve avere dentro di sé ancora un po’ del bambino che gioca e si diverte, solo così può dare sfogo alla creatività, provare cose difficili e imprevedibili. Tutte cose che le donne sanno fare benissimo, basta che la smettano – mal consigliate – di pensare che per vincere servano solo muscoli e cattiveria.

E in questo senso una bella eccezione viene dall’Italia. Jasmine Paolini, fresca vincitrice degli Internazionali a Roma e finalista l’anno scorso al Roland Garros e a Wimbledon, sta conquistando il mondo col suo atteggiamento e il suo approccio all’agonismo.

Lei in campo sorride, esprime una gioia contagiosa in totale contrasto con i visi arcigni e tesi delle sue avversarie. E con questo atteggiamento mentale, e una indubbia dose di talento e intelligenza tennistica, finisce col battere avversarie ben più alte e potenti di lei.

C’è ancora speranza per un cambio di mentalità che possa portare a rivedere tutto il talento che le donne sanno esprimere anche nello sport.


Intelligenza artificiale e creatività – Quinta parte: la versatilità dell’artista

Prosegue il nostro dibattito su arte e intelligenza artificiale, una rubrica di Controversie pensata per riflettere sul rapporto tra questi due “mondi” e come essi si possano – o meno – intersecare: necessità antica la prima, recente tecnologia la seconda.

Indagine dopo indagine, abbiamo capito che questi due mondi, apparentemente distanti, hanno in realtà diversi punti in comune, pur mantenendo ognuno le proprie specificità e caratteristiche.

Qui gli articoli precedenti:

Intelligenza artificiale e creatività - I punti di vista di tre addetti ai lavori

Intelligenza artificiale e creatività - Seconda parte: c’è differenza tra i pennelli e l’IA?

Intelligenza artificiale e creatività - Terza parte: un lapsus della storia

Intelligenza artificiale e creatività – Quarta parte: stili e strategie

Nella nostra ricerca abbiamo trattato diversi argomenti ma, dallo scorso intervento, abbiamo iniziato una serie di riflessioni focalizzate sul concetto di stile e che partono da una domanda fondamentale: nell’epoca dell’I.A., qual è il destino dello stile? Di fronte a uno strumento che potenzialmente può copiare qualunque stile, la mano dell’artista scompare oppure si innova?

In questo contributo andiamo allora a chiacchierare con Mara Palena, un’artista che lavora con la fotografia, il video e il suono, e tratta temi quali la memoria e l’identità. Ecco, quindi, la sua risposta alla domanda che abbiamo ricordato sopra.

MARA: Credo che, così come in passato ci siano state copie, plagi o falsi di opere d’arte, ciò non abbia creato crisi gravi nel settore, se non confusione nella gestione, nella vendita e nella definizione dell’originalità. Oggi, più che mai, è fondamentale saper utilizzare i nuovi media e gli strumenti tecnologici in modo significativo.

Personalmente, in riferimento all’arte, apprezzo i lavori e le ricerche che offrono diversi livelli di lettura e approfondimento: in questi casi, la mano dell’artista fatica a scomparire, perché il valore risiede nel concetto e nel processo più che nel risultato finale. È un po’ come avviene nel ready-made: un esempio chiaro per comprendere il ruolo del contesto e dell’intenzione nell’opera.

La mano dell’artista si rinnova costantemente attraverso nuove sperimentazioni e tecnologie. In questo senso, non vedo l’intelligenza artificiale come una minaccia, ma come un archivio vivo e attraversabile, un bacino di possibilità da cui trarre variazioni e generare infiniti multipli. Un processo affine, per certi versi, alla tecnica del cut-up di William Burroughs (1914-1997), dove l’atto creativo nasce dallo smontare e riassemblare frammenti esistenti, aprendo spazi inediti di senso. Così, anche l’IA può essere uno strumento per rivelare nuove connessioni, slittamenti semantici, intuizioni improvvise, dove l’artista, ancora una volta, esercita una scelta, un taglio, un’intenzione.

Inoltre, l’IA può essere un archivio dinamico, in quanto l’opera non è più un prodotto finito ma un processo aperto, una deriva, un tentativo; dunque l’artista, lungi dal dissolversi, si fa regista di qualcosa che resta incerto, un mare di combinazioni. Come dicevo, vivo l’esperienza trasformativa della generazione delle immagini in modo molto simile al cut-up: come un montaggio infinito, una riscrittura continua del “reale”. Sento una forte affinità tra questo metodo e quello che accade quando lavoro con l’intelligenza artificiale: è come se i due processi si rispecchiassero, si parlassero attraverso il tempo. È un processo trasformativo dove l’inconscio e l’errore diventano dispositivi di accesso a livelli profondi della memoria e del significato. In questo spazio di generazione infinita, l’immagine si comporta come un testo da sabotare, da disturbare, da aprire.

L’archivio, nutrito dall’intelligenza artificiale, diventa pertanto una materia porosa, attraversabile, da cui emergono frammenti visivi che somigliano a sogni, a déjà-vu, a memorie posticce. L’IA, come il cut-up, agisce infatti per discontinuità: taglia, rimescola, moltiplica. Non si limita a rappresentare, ma produce uno slittamento, un’alterazione percettiva che rivela quanto fragile, e al tempo stesso fertile, sia la struttura della memoria stessa.


Depositi Nazionali delle scorie radioattive - Uno, nessuno o centomila?

Il 5 maggio 2025, il Ministro dell’Ambiente Gilberto Pichetto Fratin dichiara che «Abbiamo ormai scartato l’idea di un centro unico» di stoccaggio delle scorie radioattive «perché è illogico a livello di efficienza» e sostiene che sarebbe meglio costruire più depositi o «andare avanti con i 22 già esistenti». Con questa dichiarazione, il ministro sembra archiviare il progetto del Deposito Unico Nazionale dei rifiuti radioattivi studiato da Sogin – la società statale responsabile dello smantellamento degli impianti nucleari italiani e della gestione e messa in sicurezza dei rifiuti radioattivi – nei passati 20 anni.

DI CHE RIFIUTI RADIOATTIVI SI PARLA?

È il caso di adottare una rappresentazione quantitativa molto schematica per avere un’idea chiara del fenomeno in Italia, cercando anche di semplificare al massimo[1]:

I rifiuti, o scorie, radioattivi sono generati nel corso di:

  • numerose attività mediche diagnostiche – come, ad esempio, le radiografie, le scintigrafie, le PET - e di cura di patologie tumorali, tiroidee, del fegato;
  • alcune attività industriali volte a verificare le condizioni strutturali e di sicurezza di  impianti e costruzioni, a effettuare sterilizzazione biologica di strumenti medici, sementi agricole e anche di alimenti
  • la generazione di energia con impianti nucleari

La produzione di scorie, in Italia, è di questi ordini di grandezza:

  • i produttori, ospedalieri e industriali, sono poco più di 800
  • la produzione è nell’ordine di 300 metri cubi[2] all’anno
  • le fonti sono principalmente di tipo medico, diagnostico e di cura
  • i nuovi rifiuti prodotti sono tutti a bassa o bassissima intensità di radiazione e, quindi, di ridottissima pericolosità

Le quantità di scorie già immagazzinate – secondo l’Inventario ISIN a dicembre 2023 – sono poco più di 32.000 metri cubi[3], tutti di origine medicale e industriale, di cui:

  • 622 m3 a vita media molto breve, che diventano non pericolosi molto rapidamente e poi possono essere smaltiti come rifiuti convenzionali
  • 500 m3 a bassissima e bassa intensità radioattiva
  • 500 m3 a intensità radioattiva intermedia

Queste scorie sono immagazzinate in 22 depositi temporanei, distribuiti in modo ineguale sul territorio nazionale, che garantiscono sicurezza e isolamento dall’esterno, almeno per un altro decennio.

I siti temporanei esistenti in Italia non contengono nessun rifiuto ad elevata radioattività e da impianti di produzione di energia nucleare; quelli prodotti nelle 4 centrali, in funzione fino al 1987, sono custoditi in depositi ad elevata sicurezza in Francia e in Inghilterra, con un servizio di stoccaggio che costa al Governo italiano più di 50 milioni all’anno[4]. Questi rifiuti dovrebbero rientrare in Italia entro il 2025, ma la condizione per farlo è la presenza di una struttura di stoccaggio adeguata, quella oggetto del progetto Deposito Nazionale, appunto.

IL DEPOSITO NAZIONALE

Il Deposito Unico Nazionale è un progetto sviluppato da Sogin dal 2010, che prevede la realizzazione di una struttura di superficie – una specie di collina di una decina di ettari con al suo interno gli edifici magazzino - di smaltimento definitivo di tutti i rifiuti radioattivi a bassissima, bassa e media attività e di stoccaggio temporaneo dei rifiuti ad alta intensità attualmente custoditi in Francia e Inghilterra.

La parte di struttura destinata allo smaltimento definitivo garantisce sicurezza per 300 anni; quella per i rifiuti ad elevata intensità sarà sicuro per 40 anni, durante i quali è necessario costruire un ulteriore deposito geologico ad elevatissima sicurezza che ne garantisca lo stoccaggio per centinaia di migliaia di anni. Sopra e intorno al deposito vero e proprio si sviluppa un Parco Tecnologico con centri di ricerca e di formazione nazionali e internazionali.

È immediato farsi alcune domande su questo progetto, sulla sua necessità e sull’unicità del sito e sui relativi costi.

Perché è necessario? La realizzazione di questo deposito centralizzato è dettata dalla normativa di sicurezza italiana e europea sulla gestione delle scorie radioattive e dalla inadeguatezza degli attuali depositi temporanei per un periodo superiore a un’altra decina di anni. Si tratta di una questione ineludibile di sicurezza sanitaria pubblica, quindi, e di una questione economica che fa capo ai 50 milioni all’anno pagati a Francia e Inghilterra, con una prospettiva temporale sostanzialmente indefinita.

Quanto costa? L’investimento stimato per la realizzazione è di circa 1,5 miliardi di euro, un decimo della stima per il ponte sullo Stretto di Messina, per un volume di circa 85.000 m3 di rifiuti.

Perché farne uno solo? Secondo Sogin e secondo la legge costitutiva del 2010, data la complessità del progetto e il costo di realizzazione di ogni impianto, la realizzazione di più di un deposito costituirebbe una inefficienza finanziaria importante; inoltre, il costo della gestione corrente di più siti è sostanzialmente quello di un sito unico moltiplicato per il numero di siti.

DOVE? CARTA DELLE AREE IDONEE E CONSULTAZIONE PUBBLICA

Parallelamente al progetto di realizzazione del Deposito è nato quello relativo alla sua collocazione sul territorio nazionale. Il processo di identificazione della località dove costruirlo è molto articolato e non prevede che la decisione sia “calata dall’alto” sulle teste di istituzioni locali e cittadini, ma che sia discussa e condivisa in modo trasparente.

È opportuno vedere quale sia il processo che è stato definito da Sogin e approvato dal Parlamento:

  • il primo passo è la definizione dei criteri di esclusione per la sicurezza del sito[5]; tra questi ci sono la l’attività vulcanica e sismica, la presenza di faglie, i rischi idrogeologici, i fenomeni carsici, la prossimità a centri abitati, alle coste, a falde affioranti, a autostrade, linee ferroviarie,aree protette;
  • il secondo passo è la redazione della CNAPI – Carta Nazionale delle Aree Potenzialmente Idonee, ossia di tutti i luoghi che non vengono esclusi dai criteri di rischio; ne sono state identificate 67;
  • il terzo passo è quello della Consultazione Pubblica[6], che prevede la discussione trasparente, pubblica, con i portatori di interesse – gli stakeholder – ossia «tutti i soggetti interessati alla realizzazione e all'esercizio del deposito, inclusi i comuni in cui potrebbero essere localizzati, le regioni coinvolte, le associazioni ambientaliste e i cittadini residenti nelle aree interessate» che possono sollevare osservazioni e obiezioni ed inserire ulteriori criteri di esclusione; a questa discussione segue la definizione della Carta delle Aree Idonee - CNAI, cioè le 51 aree non escluse a seguito della Consultazione Pubblica.
  • la CNAI deve, poi, essere approvata dal Ministero dell’Ambiente e della Sicurezza Energetica, con una Valutazione Ambientale Strategica
  • una volta compiuta la VAS, è previsto di raccogliere le candidature «volontarie e non vincolanti» di Regioni e di Enti locali ad ospitare il Deposito; in caso di più manifestazioni di interesse viene stilata una graduatoria di idoneità e il MASE cerca un’intesa per definire l’accordo di collocazione. Ove non fosse raggiunta un’intesa è previsto che si avvii un processo interistituzionale che definisce per decreto il sito di realizzazione.

UNO, NESSUNO E CENTOMILA

UNO: il processo di localizzazione delineato da Sogin, al cui nucleo c’è la Consultazione Pubblica, prevista per garantire gli spazi di discussione, l’espressione delle obiezioni e delle osservazioni da parte di tutti - davvero tutti, a partire dagli enti locali fino ai singoli cittadini – ha il fine di trovare una sola area in cui costruire il Deposito.

NESSUNO: il processo, però, dopo quasi un anno di lavori – dal 5 gennaio al 15 dicembre 2021 – non ha avuto successo: nessun Ente locale, fatto salvo per il Comune di Trino Vercellese che però non fa parte delle Aree Idonee, ha manifestato interesse ad ospitare il deposito;

CENTOMILA: dopo alcuni mesi, il Ministro dell’Ambiente ha dichiarato che il progetto di collocazione unica è stato mandato in pensione e che l’opzione da percorrere è – sostanzialmente - quella della distribuzione dei rifiuti negli attuali depositi temporanei, ovviamente con opportune opere di adeguamento ai criteri di sicurezza a lungo termine.

TRE CONTROVERSIE

Si delineano – in questa storia - tre controversie in cui gli attori sono: la popolazione (rappresentata perlopiù dagli enti locali), le tecnoscienze, il cui rappresentante principale è Sogin, con i progettisti del Deposito e – infine – la dimensione politica, rappresentata dal Governo e dal suo Ministro Pichetto Fratin.

Le poste in gioco più significative sono quattro: la sicurezza della popolazione e dell’ambiente, ossia il rischio di emissioni e contaminazioni radioattive, l’efficienza economica e finanziaria nel processo di realizzazione e gestione del deposito, la necessità di prendere una decisione e, ultima, inattesa posta, l’opportunità economica e di sviluppo legata alla realizzazione del deposito, o dei depositi.

La prima controversia è tra le tecnoscienze e la popolazione, e si gioca nel corso della Consultazione popolare sulla diversa percezione di sicurezza: le tecnoscienze fanno leva sulla validità della progettazione, sulle evidenze disciplinari, sulle valutazioni di minimo rischio e sulla necessità di fare l’opera in tempi utili. E, nel corso della discussione, non cedono di un passo; la popolazione percepisce diversamente il rischio, ha paura, non considera la dimensione quasi esclusiva dei rifiuti a bassa intensità di origine medicale, associa nucleare alle centrali messe al bando con i referendum del 1987 e del 2011. E si arrocca in una posizione NIMBY, Not In My Back Yard.

La seconda controversia è tra le tecnoscienze e la dimensione politica: ancora una volta Sogin e i progettisti insistono sulle ragioni pratiche ed economiche dell’unicità del sito. La politica, il governo, invece, vede lo stallo - che si è creato per la mancanza di candidati - come un problema oggettivo da risolvere e aggiunge alla propria assiologia la possibilità di estendere l’opportunità economica, quella della creazione di posti di lavoro e di indotto produttivo, che si moltiplicano con l’opzione di più siti. Il tema dell’efficienza degli investimenti perde rilevanza rispetto al valore dello sviluppo economico.

Complice di queste controversie è il fattore tempo che sembra essere molto dilatato, nell’ordine della decina di anni per mettere in sicurezza i siti attuali o per realizzare quello unico, di 40 anni per il deposito geologico, comunque di anni prima di far ritornare da Francia e da UK le scorie più critiche.

L’ultima controversia – implicita e non (ancora) agita - riguarda l’approccio al coinvolgimento degli stakeholder nelle decisioni tecno-scientifiche in cui è coinvolta una significativa dimensione sociale: il modello di Consultazione pubblica impostato da Sogin nel 2010 risponde a criteri di democratizzazione delle tecnoscienze e di inclusione di attori civici e popolari, non esperti, nella discussione e nel processo di decisione.

Questo processo e metodo, esteso ad un intero territorio nazionale, ha mostrato la corda e ha evidentemente mancato l’obiettivo, malgrado la mediazione di una esperta in processi partecipativi[7]; è possibile che abbia anche mostrato chiaramente i limiti delle teorie sociologiche di scienza partecipata, soprattutto di fronte alla dimensione non locale della questione.

Tuttavia, sarebbe il caso di esaminare in modo più approfondito il modo in cui è stata progettata e condotta la consultazione, con i relativi tempi e modalità di discussione, per comprendere meglio come NON è il caso di fare scienza partecipata e democratica e come si sarebbe potuto lavorare sulle aree di sovrapposizione delle rispettive posizioni valoriali.

 

 

NOTE

[1] Per approfondimenti si consiglia di consultare il sito del Deposito Nazionale, l’Inventario ISIN del 2024 e la relazione del Senato della Repubblica, XVII Legislatura, Doc. XXIII, N. 40; “Il governo non vuole più costruire un unico deposito di scorie nucleari”, Il Post, 6 maggio 2025 – che ha stimolato questa riflessione

[2] pari a un cubo di circa 7 metri di lato

[3] Per avere un’idea, 30.000 m3 occupano un’area pari a un campo da calcio con uno spessore di 4 metri

[4] Fino a pochi anni fa questo costo era sostenuto dagli utilizzatori privati e non di energia elettrica, come “oneri di sistema”

[5] Cfr. Ispra, Guida tecnica N. 29

[6] La Consultazione pubblica, realizzata tra gennaio e dicembre 2021, ha incluso il Seminario Nazionale sulla CNAPI, svoltosi tra settembre e la fine di novembre dello stesso anno, con 10 sessioni pubbliche tra plenarie e regionali, di 1-2 giornate ciascuna. Tutti i documenti e gli streaming sono reperibili qui.

[7] Si tratta di Iolanda Romano, Architetta e Dottoressa di ricerca in Pianificazione Territoriale


Cibo in cambio di impronte retiniche. Israele e gli algoritmi dell’oppressione e dello sterminio

In Cloud di guerra, ho documentato l’uso dell’intelligenza artificiale nel conflitto in corso a Gaza – e con modalità differenti in Cisgiordania – evidenziandone le drammatiche conseguenze. Da allora, nuovi dati rivelano che Israele ha sviluppato ulteriori strumenti per consolidare la sua guerra contro Hamas.

Le inchieste condotte da +972 Magazine, Local Call e The Guardian nel 2024, hanno rivelato che Israele ha sviluppato sofisticati strumenti per condurre la guerra contro Hamas, tra i quali l’algoritmo di apprendimento automatico Lavender, utilizzato fin dall’inizio del conflitto, e ora perfezionato, senza mettere in conto le lateralità degli attacchi. L’utilizzo di Lavender ha avuto un ruolo centrale nell’individuazione di almeno 37.000 obiettivi, molti dei quali colpiti in operazioni che hanno causato migliaia di vittime civili..

CAVIE SEMANTICHE: QUANDO ANCHE LA LINGUA VIENE PRESA IN OSTAGGIO

Una nuova inchiesta di +972 Magazine, Local Call e The Guardian, pubblicata lo scorso 6 marzo 2025, ha rivelato che Israele ha messo a punto un nuovo modello linguistico, simile a ChatGPT, costruito esclusivamente su conversazioni private dei palestinesi in Cisgiordania: milioni di messaggi WhatsApp, telefonate, email, SMS intercettati quotidianamente. Un LLM (Large Language Model) alimentato non da testi pubblici, ma da frammenti intimi di vita quotidiana.

Idiomi, inflessioni, silenzi: ogni sfumatura linguistica diventa materia prima per addestrare strumenti di controllo predittivo.

I palestinesi diventano cavie semantiche, banchi di prova per armi algoritmiche progettate per prevedere, classificare, colpire. L’inchiesta dimostra come l’IA traduca automaticamente ogni parola in arabo captata nella Cisgiordania occupata, rendendola leggibile, tracciabile, archiviabile, riproducibile.

Non è solo sorveglianza: è architettura linguistica del dominio, fondata sulla violazione sistematica della dimensione personale e soggettiva della popolazione palestinese.

L’I.A. MILITARE ISRAELIANA IN AZIONE: IL CASO IBRAHIM BIARI

Un’inchiesta del New York Times riporta la testimonianza di tre ufficiali americani e israeliani sull’utilizzo, per localizzare Ibrahim Biari, uno dei comandanti di Hamas ritenuti responsabili dell’attacco del 7 ottobre, di uno strumento di ascolto delle chiamate e di riconoscimento vocale, integrato con tecnologie I.A. e sviluppato dall’Unità 8200[1] in un team che conta anche sulla collaborazione di riservisti impiegati in importanti società del settore. Airwars [2] documenta che, il 31 ottobre 2023, un attacco aereo guidato da queste informazioni ha ucciso Biari e, anche, più di 125 civili.

La precisione apparente dell’IA ha mostrato i suoi limiti etici e umani: la ratio militare si nasconde dietro la presunta precisione chirurgica degli attacchi e oggettività disumanizzata delle identificazioni degli obiettivi, per giustificare un rapporto obiettivo/ danni collaterali che include uccisioni di massa.

GAZA: LABORATORIO MONDIALE DELL’I.A. MILITARE

Israele sembra essere, di fatto, l’unico Paese al mondo ad aver sperimentato l’intelligenza artificiale in un contesto bellico reale, in cui Gaza svolge il ruolo di cavia e il campo di operazioni quello di laboratorio.

L’israeliana Hadas Lorber, fondatrice dell’Institute for Applied Research in Responsible AI, ha ammesso che la crisi israeliano-palestinese innescata il 7 ottobre ha intensificato la collaborazione tra l’Unità 8200 e i riservisti esperti di tecnologie, e accelerato l’innovazione, portando a “tecnologie rivoluzionarie rivelatesi cruciali sul campo di battaglia (di Gaza)”. Ha, però, anche ricordato che l’IA solleva “serie questioni etiche”, ribadendo che “le decisioni finali devono restare in mano umana”.

Ma la retorica non regge l’urto dei fatti:

  • la portavoce dell’esercito israeliano ribadisce l’“uso lecito e responsabile” delle tecnologie, ma – per ragioni di sicurezza nazionale - non può commentare nulla di specifico,
  • il CEO di Startup Nation Central[3], ha confermato il nodo: i riservisti delle big tech sono ingranaggi chiave dell’innovazione militare. Un esercito che da solo non avrebbe mai raggiunto tali capacità ora punta all’invisibilità del dominio algoritmico.
  • le multinazionali della tecnologia dalle cui fila provengono molti artefici degli strumenti israeliani, tacciono o – discretamente - prendono le distanze da quello che sembra essere un tessuto di conflitti e intrecci di interessi tra l’industria bellica e l’innovazione tecnologica che permea il nostro presente e modella il nostro futuro;
  • Silicon Valley, cybersecurity, intelligenza artificiale, piattaforme cloud sembrano essere strumenti di facilitazione e, nello stesso tempo, di controllo di massa mutato in arma[4].

CIBO IN CAMBIO DI IMPRONTE DELLA RÈTINA

Se l’intelligenza artificiale può decidere chi uccidere, può anche decidere chi sopravvive?

La domanda non è più speculativa.

A Gaza l’ultima frontiera è “umanitaria”: l’IA governa la carità. Secondo una recente proposta fatta da Washington in accordo con Israele — rigettata il 15 maggio 2025 dalle Nazioni Unite — per accedere agli aiuti alimentari sarà necessario il riconoscimento facciale.

Il piano, ideato dalla Gaza Humanitarian Foundation (GHF) [5], sembra prevedere la privatizzazione della distribuzione del cibo attraverso contractor statunitensi ed ex agenti dell’intelligence e la creazione di hub biometrici, presidiati da forze armate private, dove il pane si baratta col volto, le razioni e la vita con le impronte digitali e retiniche. Con la giustificazione di evitare infiltrazioni di Hamas, l’accesso agli aiuti sarà regolato da algoritmi e sistemi di riconoscimento facciale.

Dietro l’apparenza umanitaria, la struttura e la governance sembrano rivelare un’operazione affidata ad un attore para-militare che rischia di trasformare il soccorso in un ulteriore strumento di dominio.

Lo scenario è quello di una carità condizionata, tracciata, selettiva: una “umanità filtrata”, dove l’identità digitale rischia di precedere il bisogno, e l’accesso al pane dipendere dall’accettazione della sorveglianza.

Gaza sembra confermarsi come un laboratorio d’avanguardia: non solo per testare armi, ma per sperimentare nuovi modelli di apartheid tecnologico, di ostaggi biometrici, in cui sembra valere il principio che l’aiuto debba essere concesso solo a persone “note per nome e volto”, violando i principi di neutralità umanitaria e trasformando la fame in strumento di controllo identitario.

L’INDIGNAZIONE (SOLITARIA) DELLE ONG

UNICEF, Norwegian Refugee Council e altri attori umanitari hanno denunciato il piano GHF come un ulteriore controllo forzato della popolazione, destinato a produrre nuovi spostamenti, disgregazioni, traumi. È – secondo le ONG che vi si oppongono - il passaggio finale di un processo già in corso: i tagli ai fondi ONU, la delegittimazione dell’UNRWA, che ha giudicato i piani di controllo totale degli aiuti umanitari «una distrazione dalle atrocità compiute e uno spreco di risorse», la sostituzione della diplomazia con le piattaforme, della compassione con l’identificazione biometrica[6].

ETICA E IA: ULTIMA CHIAMATA

Questo intreccio tossico tra business, guerra, aiuti umanitari e sorveglianza apre un precedente pericolosissimo. Non solo per i palestinesi, ma per ogni società che oggi è costretta a negoziare tra sicurezza e diritti fondamentali. Dove la privacy è già fragile, nelle mani di chi governa col terrore tecnologico si riduce a nulla. L’Unione Europea e gli Stati Uniti devono scegliere da che parte stare: restare in silenzio significa legittimare pratiche tecnologiche sterminatrici e diventare complici di un genocidio.

Una volta di più si profila l’occasione per l’Unione Europea di ritagliarsi un ruolo per riportare al centro del dibattito i suoi valori e i principi fondativi, denunciando l’abuso, pretendendo trasparenza sui legami tra eserciti e industrie tech, imponendo una regolamentazione internazionale stringente sull’uso dell’intelligenza artificiale in contesti di guerra[7].

Favorendo, soprattutto, una presa di coscienza collettiva che rimetta al centro la dignità umana e i diritti inalienabili, prima che queste macchine diventino i complici silenziosi e apparentemente oggettivi di dominio e di sterminio.

 

 

 

NOTE

[1] L'Unità 8200 è una unità militare delle forze armate israeliane incaricata dello spionaggio di segnali elettromagnetici (SIGINT, comprendente lo spionaggio di segnali elettronici, ELINT), OSINTdecrittazione di informazioni e codici cifrati e guerra cibernetica. (Wikipedia, Unità 8200)

[2] Airwars è una organizzazione non-profit di trasparenza e di controllo che investiga, traccia, documenta e verifica le segnalazioni di danni ai civili nelle nazioni teatro di confitti armati.

[3] Startup Nation Central è un’azienda israeliana, che si autodefinisce “filantropica”, dedicata a valorizzare «l’unicità dell’ecosistema tecnologico di Israele e le soluzioni che questo offre per affrontare alcune delle sfide più pressanti che si presentano al mondo»

[4] Alberto Negri, giornalista de Il Manifesto, ha definito questo intreccio il “complesso militare-industriale israelo-americano”

[5] Sostenuta dall’amministrazione Trump e dal governo israeliano, la Gaza Humanitarian Foundation (GHF) nasce con l’obiettivo dichiarato di aggirare le agenzie umanitarie delle Nazioni Unite – in particolare l’UNRWA, già delegittimata e accusata da Israele di favorire indirettamente Hamas – per gestire direttamente una delle più vaste operazioni di soccorso nella Striscia: oltre 300 milioni di pasti in 90 giorni. Il piano, ufficialmente bloccato dall’ONU, non è stato archiviato. Anzi, alcuni test pilota sono già in corso nel sud della Striscia.

Fondata nel febbraio 2025, la GHF si presenta come una non-profit, ma la sua composizione solleva più di un sospetto per la presenza di ex ufficiali militari statunitensi, contractor della sicurezza privata e funzionari provenienti dalle ONG. Il piano della GHF prevede la creazione di quattro “Secure Distribution Sites” (SDS) nel sud della Striscia, ognuno destinato a servire 300.000 persone, con l’obiettivo di coprire progressivamente l’intera popolazione di Gaza. Se dovesse assumere il controllo totale della distribuzione, la fondazione arriverebbe a gestire risorse paragonabili – se non superiori – a quelle delle agenzie ONU. Il solo Flash Appeal 2025 prevede un fabbisogno minimo di 4,07 miliardi di dollari, con una stima ideale di 6,6 miliardi.

Il budget iniziale della GHF si aggira attorno ai 390 milioni di dollari, provenienti in larga parte dagli Stati Uniti. Ma sono proprio la mancanza di trasparenza sulle fonti di finanziamento e le criticità operative a sollevare allarmi..

[6] Il modello, del resto, era già stato testato: l’app israeliana Blue Wolf, in Cisgiordania, cataloga da tempo ogni volto palestinese in un enorme database per facilitare i controlli militari. Ora, lo stesso meccanismo si replica a Gaza sotto la forma di “aiuto”.

[7] Invece di promuovere una regolamentazione stringente, l’Unione Europea continua a favorire — direttamente o indirettamente — lo sviluppo di armi basate sull’I.A., collaborando con i fautori dell’innovazione bellica israeliana– e, chissà, di altri Paesi; rapporti del Parlamento Europeo (2024) e analisi di EDRi (European Digital Rights, 2025) mostrano come numerose imprese europee – tra cui startup e colossi del tech – intrattengano rapporti con l’Israel Innovation Authority, l’agenzia governativa che finanzia queste “innovazioni” in nome di una cooperazione tecnologica presentata come neutra, ma che di neutro non ha più nulla.

 


C’era una volta il soggetto? Ibridi, protesi, algoritmi indossabili: tutti i supplementi di un latitante

Il supplemento viene al posto di un cedimento,
di un non-significato o di un non-rappresentato, di una non-presenza.
Non c'è nessun presente prima di esso,
è quindi preceduto solo da se stesso, cioè da un altro supplemento.

Jacques Derrida, Della grammatologia

 

1 MAPPE

Perché è stato Colombo a sbarcare sulle coste americane – e dopo di lui i ben più temibili Cortés e Pizarro – e non una flotta Inca ad attraccare nel porto di Lisbona o di Genova? Franco Farinelli ritiene che la casualità della storia e l’impredicibilità del comportamento degli uomini non possano soddisfare l’urgenza dell’interrogativo, quanto invece può fornire una risposta l’evidenza che è capitato agli europei di realizzare mappe dei mari e delle terre emerse, e non alle popolazioni amerinde. Si può diventare scopritori di continenti e conquistatori di imperi sconosciuti, solo carta alla mano. Non importa nemmeno se il contenuto della rappresentazione geografica sia corretto o meno; senza il diagramma, viene a mancare l’ingrediente che si rivela essere il più banale nella circostanza in cui la scrittura e la proiezione geometrica sono disponibili – il progetto dell’esplorazione, la motivazione alla partenza, il piano di conquista.

Le mappe offrono un contributo indispensabile alla formazione della soggettività dei navigatori, dei conquistatori e degli eroi. Tzvetan Todorov suggerisce però che per plasmare una coscienza come quella di Cortès serva un altro ingrediente tecnologico: la scrittura alfabetica e la sua capacità di «insegnare» la separazione e la connessione tra una catena di significanti e una di significati. Il conquistador infatti legge le operazioni epistemiche degli aztechi, interpreta la visione della realtà di Montezuma, simula attributi e ruoli per manipolare la loro comprensione degli eventi, partendo dalle credenze degli avversari: i segni possono essere separati dal loro referente, possono essere imitati, contraffatti, manomessi a piacimento. Al contrario, gli indigeni appaiono vincolati ad una prospettiva monolitica di percezione del mondo, in cui quello che accade deve essere la ripetizione di qualcosa di già avvenuto, e deriva la sua identità dal passato dei loro miti fondativi. La vittoria degli spagnoli viene conseguita sul piano cognitivo prima ancora che sul campo di battaglia.

2 SCRITTURA ALFABETICA

La scissione tra un piano del significante e uno del significato è la separazione che si è innalzata dalla scrittura alfabetica alla fondazione delle disgiunzioni essenziali della cultura occidentale, come quelle tra interno ed esterno, trascendenza e immanenza, spirito e materia.

In un articolo precedente su Controversie, Edmondo Grassi propone di osservare i dispositivi di wearable technology, gli strumenti che rendono smart le case e le città, e la generazione degli algoritmi che li gestiscono, un sistema o uno sciame di intelligenze che rimodellano la nostra presenza fisica, e soprattutto che ridefiniscono la nostra soggettività. La trasformazione in corso non avrebbe precedenti nella storia dell’umanità, perché non si limiterebbe a potenziare facoltà già esistenti, ma creerebbe nuove dimensioni di coscienza, estranee a quelle implicate nella natura umana. Credo che le considerazioni sviluppate su Colombo e su Cortès impongano di rivedere in modo più prudente queste dichiarazioni. L’entusiasmo per lo sviluppo delle macchine digitali degli ultimi decenni è legittimo, ma rischia di mettere in ombra alcune linee di continuità con la storia delle tecnologie più remote (di cui fanno parte anche il linguaggio e la scrittura), e di alimentare la fede in un fantasma  come quello della natura umana, intesa come una struttura consegnata dall’evoluzione filogenetica ai nostri avi ancestrali, che incarnerebbe la nostra sostanza compiuta e immutabile: dal suo fondo sarebbero derivate le culture e le civiltà, che ne avrebbero potenziato alcuni aspetti, lasciando però intatta la sua essenza fino ai nostri giorni. L’asimmetria tra il dinamismo delle trasfromazioni che abbiamo sotto gli occhi oggi, e la presunta staticità di quello che abbiamo già incorporato e metabolizzato, con la pratica del dialogo e delle lettere, è troppo evidente per non destare qualche sospetto.

La Scuola di Toronto, soprattutto con Harold Innis ed Eric Havelock, ha sottoposto a scrutinio il rapporto tra tecnologie della scrittura e formazione sia della soggettività, sia della struttura politica della società. L’elaborazione greca dell’alfabeto introduce, rispetto alle altre tipologie di grafia, un elemento di forte innovazione: i segni non richiedono un’interpretazione semantica, come accade con i pittogrammi, ma rinviano in modo meccanico ad altri segni, ai suoni delle parole. La loro presenza materiale non si impone allo sguardo pretendendo l’interpretazione di un esperto – scriba o sacerdote – con un esercizio di esegesi specialistica e creativa, ma si spalanca in modo immediato sulla catena dei significati. Il senso emerge alla vista prima ancora del suo rappresentante simbolico: basti pensare a quanta attenzione richiede la revisione editoriale dei testi, e alla facilità con cui gli errori di battitura sfuggono alla rilettura – perché il significato appare all’occhio prima ancora della sua raffigurazione fisica. La scrittura alfabetica schiude lo spazio logico come evidenza percettiva, esibisce la dimensione dell’essere che è sottratta alla contingenza dello spazio e del tempo, che si dilata nell’universalità e nella necessità, e che è la protagonista della filosofia di Platone. Le idee hanno scavato un’interiorità nella vita degli individui, e hanno sostenuto la nascita della comunità scientifica: la verità privata e la verità pubblica, l’articolazione della loro distinzione e della loro unità, sono estensioni impreviste dello sviluppo tecnologico subito dai meccanismi di annotazione del linguaggio.

3 TRACCE

Le procedure di redazione e di lettura nell’Atene del V secolo non somigliavano di sicuro a quelle dei nostri giorni; tuttavia la rivoluzione avviata dalla tecnologia della scrittura nella Grecia antica ha contribuito a configurare la forma stessa della soggettività occidentale, così come ancora oggi la sperimentiamo. Ma anche questo scavo nell’archeologia dei sistemi di produzione documentale non mostra in modo abbastanza radicale il doppio legame che si stringe tra processi di ominazione e tecnologia.

Jacques Derrida e Bernard Stiegler ampliano la nozione di scrittura per includere una serie di fenomeni più varia, il cui valore consiste nel registrare programmi di azioni, che vengono archiviati e resi disponibili da una generazione all’altra. In questo senso anche la scheggiatura della selce, la preparazione di ogni genere di manufatti, permette di conservare le tracce delle operazioni con cui è avvenuta la loro realizzazione, e quelle della loro destinazione. L’innovazione non è una galleria di episodi disparati, ma si dispiega in gruppi tecnici, che dislocano lo stesso principio fisico in diversi contesti: la ruota per esempio sollecita la trasformazione dei mezzi di trasporto, ma decreta anche la nascita del tornio e quella della cisterna. La tecnica, come il linguaggio, sono artificiali, ma non «capricciosi»: l’organicità della realtà costruita contribuisce a elaborare l’ordinamento della ragione, che è sia logos, sia kosmos. Ma questa filogenesi culturale è il sintomo di due processi che sanciscono la differenza, e la distanza, dell’uomo da ogni altra creatura.

Il primo è testimoniato dalle indagini di paleontologia, che provano la collaborazione del fattore biologico e di quello tecnologico nell’evoluzione del sistema nervoso centrale dell’homo sapiens. La lavorazione della pietra e del legno non è stata avviata quando l’evoluzione fisiologica poteva dirsi conclusa, ma ha contribuito allo sviluppo cerebrale, rendendo l’espansione della massa neuronale e la raffinatezza nel trattamento dei materiali, insieme alla la complessità nella collaborazione dei gruppi sociali, due percorsi che si rispecchiano, si modellano e si rappresentano in modo reciproco.

Il secondo tenta una fondazione trascendentale di ciò che l’archeologia espone sul piano dei fatti. Nella ricostruzione del confronto di Leroi Gourhan con la descrizione speculativa che Rousseau schizza dell’uomo originario, Stiegler evidenzia che entrambi gli autori devono supporre un salto tra l’ominide ancora senza linguaggio, e l’essere umano compiuto, con una razionalità in grado di esprimersi in termini di simboli universali. La ragione, la tecnica (e il linguaggio come prima tecnica) compaiono tutti insieme, dal momento che sgorgano dalla stessa istanza capace di individuare l’uomo e distinguerlo da tutti gli altri esseri viventi: la consapevolezza della propria morte, e l’assunzione di tutte le iniziative possibili per dilazionarne l’imminenza. Da questo progetto di differimento scaturiscono la storia e le storie; per questo ogni linguaggio è a suo modo un programma di azione, che deve disporre già sempre di un carattere di ripetibilità e di universalità, e per questo ogni tecnica e ogni linguaggio sono una scrittura che plasma al contempo la realtà esterna e la soggettività del suo esecutore.

Non esiste una natura umana, e nessun ominide che sia identico all’uomo – solo privo di tecnica e di linguaggio, prima del salto che invera il miracolo della cultura. Né esiste un’essenza dell’umanità che preceda e che sia la fonte dei sistemi simbolici e delle procedure operative, che si succedono nelle epoche della storia, e di cui potremmo sbarazzarci o che possiamo implementare, senza esserne modellati nel profondo. La storia e le differenze delle scienze e delle tecniche sono anche il dispiegamento della natura umana nella varietà delle forme e delle identità in cui – soltanto – essa può assumere esistenza concreta.

 

 

BIBLIOGRAFIA

Derrida, Jacques, Della Grammatologia, trad. it. a cura di Gianfranco Dalmasso, Jaka Book, Milano 2020.

Havelock, Eric, Cultura orale e civiltà della scrittura. Da Omero a Platone, trad. it. a cura di Mario Capitella, Laterza, Bari 2019.

Innis, Harold, Imperi e comunicazione, trad. it. di Valentina Lovaglio, Meltemi, Roma 2001.

Farinelli, Franco, Geografia. Un’introduzione ai modelli del mondo, Einaudi, Torino 2003.

Leroi-Gourhan, André, L’uomo e la materia, trad. it. a cura di Franco Zannino, Einaudi, Torino 1977.

Rousseau, Jean-Jacques, Discorso sull’origine della disegueglianza, trad. it a cura di Diego Giordano, Bompiani, Milano 2012.

Stiegler, Bernard, La colpa di Epimeteo. La tecnica e il tempo, trad. it. a cura di Claudio Tarditi, Luiss University Press, Roma 2023.

Todorov, Tzvetan, La conquista dell’America. Il problema dell’Altro, trad. it. a cura di Aldo Serafini, Einaudi, torino 2014.


Coltivare la vita in laboratorio - Come siamo arrivati a intendere la materia vivente come tecnologia

Pensando al lavoro di scienziati o biologi in laboratorio non ci risulta strana la possibilità che questi possano essere impegnati nella coltivazione di cellule o linee cellulari provenienti da vari organismi viventi. Ad esempio, attualmente le cellule che provengono da esseri umani sono ampiamente utilizzate nei laboratori e in programmi di ricerca biomedica, così come rivestono un ruolo centrale nella ricerca farmaceutica. In breve, la possibilità di mantenere in vita cellule e tessuti umani al di fuori del corpo e di usarle come una materia tecnologica è qualcosa che accade di routine, è ritenuto normale e non desta alcun particolare senso di straniamento. Tuttavia, com’è possibile questo? Quando siamo arrivati a pensare la vita al di fuori del corpo come qualcosa di normale e non problematico? E in quale momento la vita e le cellule hanno assunto questa particolare forma tecnologica? Questi sono alcuni degli interrogativi da cui parte anche Hannah Landecker (2007), sociologa e storica della scienza, nel ricostruire la storia della coltura dei tessuti. Tali questioni ci possono aiutare a focalizzare l’attenzione su alcune delle condizioni che hanno permesso la costruzione di infrastruttura in cui è stato possibile standardizzare metodi, tecniche e oggetti sperimentali impiegati nella coltura cellulare.

Un evento da cui iniziare può essere rintracciato nel 1907, quando Ross Harrison, a partire dal tessuto embrionale di una rana, riuscì ad osservare la crescita di una fibra nervosa al di fuori del corpo. In quegli anni era in corso un vivace dibattito scientifico sulla natura e sviluppo delle fibre nervose a cui risultava difficile trovare una soluzione con le tecniche e i metodi sperimentali impiegati. Infatti, gli scienziati si affidavano principalmente a tecniche istologiche, le quali consistevano nell’acquisizione di sezioni del corpo di un animale in diverse fasi nel tempo, per cui era necessario sacrificare vari animali in diversi momenti per osservare degli sviluppi tissutali. I tessuti ottenuti in questo modo erano resi adeguati alla conservazione e all’analisi attraverso sostanze fissative e coloranti, e in questo modo fornivano dei modelli statici di momenti precisi dello sviluppo. Nonostante ciò, con queste tecniche istologiche non era possibile trovare una risposta sostanziale allo sviluppo delle fibre nervose: gli scienziati potevano dare delle interpretazioni opposte dello stesso frammento di tessuto reso in forma statica. Harrison risolse questa controversia cercando di rendere visibile, al di fuori del corpo, il processo di sviluppo di una fibra nervosa mentre avveniva. Partendo da nozioni di coltura dei microrganismi, egli riuscì a realizzare una preparazione a “goccia sospesa” (hanging-drop) che forniva un supporto attraverso della linfa coagulata per far crescere le fibre nervose di rana al di fuori del corpo. In questo modo, Harrison utilizzando delle cellule vive risolse il problema di come gli organismi biologici viventi cambiano nel tempo e rese visibili i processi che erano interni al corpo degli animali. È in questo senso che all’inizio del XX secolo inizia ad emergere la possibilità e l’idea di sperimentazione in vitro e non più solo in vivo.

Qualche anno più tardi Alexis Carrel e il suo assistente Montrose Burrows tentarono di sviluppare le tecniche adottate da Harrison nel tentativo di mantenere in vita le cellule al di fuori del corpo. Carrel e Burrows trasformarono “il metodo di Harrison per la crescita a breve termine di un tessuto embrionale in un metodo generalizzato per la coltivazione di tutti i tipi di tessuto” (Landecker 2007, p.53) e nel 1910 coniarono il termine “coltura tissutale” per riferirsi a questa serie di operazioni. In particolare, Carrel e Burrows cercarono di mantenere in vita le cellule attraverso la creazione di colture secondarie a partire da un frammento di tessuto: spostando una parte delle cellule in un nuovo medium plasmatico si generava una sorta di riattivazione cellulare e queste continuavano a vivere. Tuttavia, con questa tecnica le cellule cessavano di aumentare di massa e diventavano più piccole ad ogni trasferimento, per cui la soluzione tecnica che adottò Carrel fu quella di aggiungere del tessuto embrionale macinato – chiamato “succo embrionale” – per nutrire le cellule. Fu in questo contesto che Carrel affermò la possibilità di poter coltivare delle “cellule immortali”, che potevano vivere in maniera indefinita al di fuori del corpo. Infatti, per Carrel la morte cellulare era un “fenomeno contingente” che poteva essere rimandato attraverso la manipolazione del medium plasmatico e le sostanze in cui era immersa la cellula. Per questa ragione, Carrel brevettò una fiaschetta, nota come “Carrel flask”, che gli permise di coltivare le cellule in modo asettico evitando infezioni e manipolando le sostanze in cui erano immerse le cellule in modo controllato. Tuttavia, va precisato che negli anni ’60 si dimostrò che le uniche cellule che potevano essere tecnicamente immortali erano quelle di origine cancerosa.

È attraverso le pratiche sperimentali di Harrison e Carrel che inizia ad emergere una nuova enfasi sul corpo e sulla possibilità di coltivare delle cellule in vitro. All’inizio del XX secolo non era nuova la possibilità di tenere i tessuti al di fuori del corpo per un po’ di tempo, ma in quel contesto il corpo era concepito come l’elemento essenziale che garantiva la vita delle cellule, le quali non avrebbero potuto sopravvivere al di fuori di esso. Le pratiche sperimentali di Harrison e Carrel segnano un passaggio all’idea che le cellule e i tessuti non solo possono sopravvivere al di fuori del corpo, ma continuano a dividersi, differenziarsi e vivere. In questo senso, inizia ad emergere un senso di possibilità legato al fatto che le cellule possono vivere con una certa autonomia anche se staccate dal corpo.

È tra gli anni ’40 e ’50 con la campagna contro il virus della poliomielite che, attraverso una serie di sforzi infrastrutturali, fu reso possibile l’impiego per la prima volta di tessuti umani su larga scala: in precedenza ciò non era possibile e le cellule venivano coltivate in singoli laboratori senza la possibilità di scambi e trasferimenti. Nella prima metà del XX secolo i virus erano molto difficili da osservare e coltivare: venivano conservati in laboratorio facendoli passare attraverso uova ed animali infetti; ciò era un metodo molto complesso e costoso. Per questa ragione nel 1940 John Enders pensò di utilizzare i metodi di coltura tissutale per osservare lo sviluppo delle infezioni virali. In questo modo, Enders e il suo collega Weller svilupparono un modello cellulare per osservare il lento sviluppo nel tempo del virus della parotite, questo si rivelò poi anche utile per studiare la poliomielite. Pertanto, attraverso la coltura dei tessuti è diventato possibile osservare lo sviluppo delle infezioni virali osservando i cambiamenti cellulari invece che guardare i sintomi che si manifestavano negli animali infetti. In seguito, nel 1954 John Salk attraverso l’impiego di queste tecniche di coltura cellulare riuscì a realizzare un vaccino contro la poliomielite.

Va sottolineato che ciò che Enders e Salk riuscirono a fare va inserito in uno sforzo più ampio della comunità scientifica a partire dagli anni ’40 che ha permesso il miglioramento delle tecniche di coltura tissutale e la loro standardizzazione. In particolare, in quegli anni organizzazioni come la Tissue Culture Association (TCA) e la National Foundation for Infantile Paralysis (NFIP) si impegnarono nel tentativo di standardizzare e rendere disponibile alla comunità scientifica materiali e tecniche per la coltura cellulare: vennero organizzati convegni e in breve tempo diventò possibile acquistare terreni ed estratti con cui far crescere le cellule. Fu anche grazie a questo lavoro coordinato che fu possibile utilizzare la linea cellulare immortale HeLa come materiale standard per il test del vaccino contro la poliomielite in diversi laboratori. HeLa era stata stabilita da George Gey nel 1951 grazie alla biopsia di una massa tumorale prelevata da Henrietta Lacks, la quale si era recata in ospedale per ricevere assistenza e non sapeva come sarebbe stato impiegato il tessuto prelevato (Skloot 2010). Al termine della campagna contro la poliomielite HeLa era ampiamente diffusa nei laboratori e gli scienziati iniziarono ad utilizzarla per gli scopi di ricerca più disparati, generando così un’ampia mole di studi e pubblicazioni. Dunque, se in precedenza era possibile lavorare su oggetti dello stesso tipo – lo stesso tipo di topo o lo stesso tipo di tumore – attraverso HeLa diventò possibile lavorare sulla “stessa cosa” in tempi e luoghi diversi. Pertanto, è in questa cornice che i tessuti umani sono diventati così una base standard e un modello per la ricerca biomedica.

Secondo Landecker questa storia ci racconta di come la biotecnologia dal 1900 ad oggi si associ ai “crescenti tentativi di esplorare e realizzare la plasticità della materia vivente” (Landecker 2007, p. 232). Nello specifico, la plasticità riguarda la capacità della materia vivente di essere modificata dagli esseri umani, la quale continuando a vivere può reagire all’intervento anche in modi inaspettati. Inevitabilmente, in questo racconto la plasticità si associa al tentativo di rendere operativo il tempo biologico attraverso una manipolazione della cellula, del medium e delle sostanze in cui questa è immersa. In breve, questa storia ci può aiutare a comprendere il modo attraverso cui siamo arrivati alla concezione odierna di “vita come tecnologia”; ovvero, la possibilità di utilizzare le cellule come una forma tecnologica per interventi terapeutici, sviluppi farmaceutici e per l’industria alimentare. In secondo luogo, questo resoconto permette di evidenziare alcune delle condizioni attraverso cui è stato possibile costruire un’infrastruttura con cui poter mantenere stabilmente le cellule in laboratorio. Infatti, uno scienziato tende a dare per scontata l’idea che sia possibile coltivare delle cellule in laboratorio proprio perché nel tempo è stata sviluppata un’infrastruttura funzionale, e che per questo motivo tende a risultare “invisibile” (Star 1999). In tal senso, ripercorrere gli sviluppi della coltura tissutale permette di portare alla luce gli aspetti infrastrutturali e tecnici che invece rimarrebbero opachi nello sfondo.

 

 

BIBLIOGRAFIA

Landecker H. (2007). Culturing Life: how cells become technologies. Harvard University Press, Cambridge.

Skloot R. (2010). La vita immortale di Herietta Lacks. Adelphi, Milano.

Star S.L. (1999). The ethnography of infrastructure. American behavioral scientist, 43(3), 377-391.


Gemelli digitali – Tutti i modelli sono sbagliati ma alcuni sono utili

Tutti i modelli sono sbagliati ma alcuni sono utili
(George Box)

 

A dicembre 2024 abbiamo iniziato – con un articolo pubblicato da  A. Saltelli con un largo gruppo di coautori - una riflessione sui modelli matematici e algoritmici che simulano la vita e le dinamiche di interi sistemi ambientali, fino a mettersi alla prova sulle dimensioni dell’intero pianeta. Questi modelli sono noti come gemelli digitali di qualcosa.

Seguiamo qui il percorso di un altro articolo di Saltelli, con Lieke Melsen ed Arnald Puy, uscito di recente su Minerva[1], Digital Twins of the Earth Between Vision and Fiction, per proseguire questa riflessione sui gemelli digitali e – più in generale – sull’uso dei modelli di simulazione nella analisi e nei tentativi di soluzione di problemi ambientali e sociali, e cercare una prima, parziale, conclusione di tipo morale.

La definizione di riferimento per gemello digitale ci viene data da IBM:

Un gemello digitale è una rappresentazione virtuale di un oggetto, o di un sistema, disegnata in modo da rifletterlo accuratamente. Il gemello copre il ciclo di vita dell’oggetto rappresentato, viene aggiornato in tempo reale con dati provenienti dall’oggetto situato nel mondo reale o dall’evoluzione del modello stesso. Per funzionare ed aiutare a prendere decisioni, può fare uso di diversi modelli di simulazione, di machine learning e di intelligenza artificiale. [2]

POSSIBILI ONTOLOGIE DEI GEMELLI DIGITALI

Gli autori dell’articolo su Minerva propongono una serie di interessanti e critiche interpretazioni ontologiche dei gemelli, che possono essere diversamente visti come:

  • Strumenti per vedere un mondo [3] attraverso la lente della sua rappresentazione digitale e, grazie a questa rappresentazione, studiarne le caratteristiche, scoprirne le dinamiche e la realtà (The World in the Model – The World in the Twins). Secondo questo punto di vista, il mondo “viene illuminato” dal modello.
  • Artefatti o forme culturali, secondo la teoria di G. Simmel; i modelli sono una “moda” relativamente recente e possono essere interpretati – in generale - come il prodotto culturale degli anni dello sviluppo delle tecnologie informatiche in cui, di converso, si può rinvenire una geografia delle scienze disegnata dalla popolarità di diversi tipi di modelli in diverse parti del mondo.
  • Oggetti distanti [4] dal mondo che rappresentano e che, tuttavia, ne contendono il posto nella narrazione della comunicazione di massa: il modello assume il ruolo di neo-realtà, abolendo e facendo volatilizzare la realtà che simula.
  • Burocrati senza pensiero e senza responsabilità: un gemello digitale di un ambiente può produrre conoscenza e – di conseguenza – materia su cui basare decisioni in maniera automatica e senza assumersi, in quanto macchina, alcuna responsabilità su quanto produce, sia il risultato delle elaborazioni vero, falso, onesto o distorto.
  • Realizzazioni pratiche del sogno cartesiano di predizione e di controllo umano sulla natura, del realismo metafisico di cui Husserl accusa Galilei: il modello permette – sotto una serie di assiomi semplificativi e riduzionisti – di espandere il concetto di legge di natura ad un intero ambiente.
  • Metafore di come percepiamo il mondo, che esprimono in forma indiretta i nostri punti di vista, preconcetti e opinioni sul mondo e sul problema rappresentati, se non addirittura sulle possibili soluzioni.
  • Strumenti di divinazione, che predicono il futuro ma senza l’uso di magia o di poteri divini, e – in quanto tali – dotati di una elevata autorevolezza.

VALORE EPISTEMOLOGICO DEI GEMELLI DIGITALI

Ci pare che dalla interpretazione ontologica “The World in the Model – The World in the Twins” possa discendere la più calzante visione del ruolo epistemico dei modelli di simulazione e dei gemelli digitali, quella proposta dagli autori di mediatori [5] tra teoria e realtà, e tra realtà e osservatore.

Questo punto di vista – dicono gli autori - funge anche da antidoto contro il rischio di concepire i gemelli e i modelli matematici come “sola matematica” e sposta la discussione dalla categoria di ciò che è vero e ciò che è falso a quella della qualità […] dell’artefatto e dei suoi componenti, su cui il giudizio è messo in relazione al task che deve svolgere.

Tuttavia – nell’adozione di questa visione epistemologica - vanno tenuti in considerazione una serie di elementi potenzialmente critici:

  • Quando definiamo come “matematici” i modelli di simulazione e i gemelli, rischiamo di focalizzarci su una vista parziale della loro natura poiché ben spesso questi includono nozioni teoriche (ricordiamoci come ogni esperimento sia carico di teoria), concetti matematici, tecniche digitali, fatti stilizzati, dati empirici, visioni normative , analogie e metafore. Questa considerazione richiede la consapevolezza che il modello – nel suo ruolo di mediatore – espande notevolmente la dialettica tra teoria e realtà.
  • La complessità – in termini di ipotesi principali ed ausiliarie, teorie principali e “di sfondo”, elementi “non matematici” – dei gemelli digitali e di molti modelli, li espone, secondo la tesi di Duhem-Quine, a grandi difficoltà interpretative degli insuccessi e delle divergenze tra i risultati della simulazione e la realtà osservata: spesso non è possibole comprendere quale parte del modello non stia facendo il suo dovere e se sia necessario “fare il mondo più semplice o il modello più complesso”.
  • L’ontologia di mediatore dei modelli richiede, inoltre, l’accortezza di non sovrapporre il modello con il suo referente, di non dimenticare che il gemello è un modello e non la realtà.

ETICA DELLA COSTRUZIONE E DELL’USO DEI GEMELLI

Le avvertenze e le considerazioni di stampo epistemologico evidenziate dagli autori  (e da molti autori citati nell’  articolo, si vedano per questo gli appunti bibliografici), aprono la porta ad una serie di considerazioni di carattere morale [6], la prima considerazione delle quali – secondo me alla base di tutte le successive - è quella, ironica, di G. Box, tutti i modelli sono sbagliati ma alcuni sono utili. Il focus sull’utilità deve far riflettere, sia chi li costruisce che chi li usa, sul perché sono stati creati, sulle ragioni di chi li commissiona o li finanzia e su chi e come li utilizzerà.

Come conseguenza, gli autori mettono in guardia sulla possibilità che i gemelli possano essere:

  • riduzionisti, che ignorano dimensioni scomode o difficili da rappresentare, inficiando la validità del modello o trascurando istanze morali minoritarie;
  • economicisti, che mettono in primo piano, proprio come valore morale, la dimensione economica [7], trascurando i bisogni non materiali;
  • giustificazionisti, costruiti e adattati con il fine di giustificare delle soluzioni, degli obiettivi o delle politiche - definite a priori o che emergono in corso d’opera
  • decisionisti, mirati a semplificare la realtà in modo tale da permettere ai policy maker di prendere delle decisioni più agevolmente.

Queste distorsioni fanno capo all’obiezione di Niklas Luhmann, per cui «la scienza è spesso chiamata a “risolvere i paradossi” delle decisioni politiche, ossia a farle sembrare il risultato di un processo razionale [basato sull’oggettività dei numeri] invece che il risultato di una negoziazione tra interessi in competizione», oppure – peggio ancora – a privare i cittadini della loro possibilità di azione politica, che viene inclusa nei modelli solo in apparenza.

CONCLUSIONI

La consapevolezza di questi rischi e di queste potenziali distorsioni conducono gli autori a concludere che i gemelli vanno considerati parte del dibattito sulle questioni – ambientali, sociali, energetiche - che sono chiamati a simulare e non i produttori di risposte vere ed autentiche, di interpretazioni scientifiche ed oggettive.

Non è – secondo gli autori– la natura digitale dei modelli e dei gemelli ad essere critica ma il sistema di governance e di ownership da cui sono motivati e in cui sono immersi.

Nella realizzazione e nell’uso, quindi, devono essere tenute in debito conto le due dimensioni, tecnica e normativa, della loro qualità; la dimensione delle istanze morali che li motivano; la dimensione più ampiamente pubblica delle assunzioni e delle conclusioni e delle azioni che suggeriscono.

Ricordando la lezione di Giuseppe Scifo e interpolandola con le indicazioni normative di Funtowicz e Ravetz di cui abbiamo parlato recentemente, viene da suggerire di affidarsi meno ai modelli e ragionare, quando si deve analizzare, su “cosa succederebbe se” per avere supporto nelle decisioni politiche, in termini di scenari, cioè di fasci di modelli che variano al variare delle assunzioni su variabili il cui comportamento non è prevedibile; su gli known unknowns; sulle istanze morali minoritarie.

Programmare le azioni future sulla base di scenari permette di mantenere aperto lo spettro delle possibilità e di non trascurare le reali esigenze delle collettività.

 

 

NOTE

[1] Minerva, A Review of Science, Learning and Policy, Springer Nature, 09 April 2025

[2] Traduzione mia dall’originale: A digital twin is a virtual representation of an object or system designed to reflect a physical object accurately. It spans the object's lifecycle, is updated from real-time data and uses simulation, machine learning and reasoning to help make decisions.

[3] “Il mondo” è il referente del modello, può essere un oggetto o un ambiente, come abbiamo visto sopra

[4] Distanti anche in senso logistico: soprattutto quando si tratta di rappresentazioni del mondo naturale o dell’ambiente, i modellisti operano lontani dall’oggetto rappresentato e questa distanza favorisce la sovrapposizione del modello alla realtà.

[5] Cfr.: Morgan & Morrison (1999)

[6] Come di consueto, preferisco adottare il termine morale, anziché etico, per sottolineare la necessità di chiarire quali siano le istanze di fondo, i principi morali, appunto, su cui si basano le valutazioni, i giudizi e l’azione. È l’azione – basata su principi morali, ad essere etica. Tutte le volte che si parla di etica è – a mio avviso – necessario chiarire (o chiarirsi) quale sia la morale ispiratrice.

[7] La dimensione economica del mondo è, a mio avviso, una istanza morale che non va condannata o trascurata, poiché è quella che permette a tutti noi di mangiare, vestirci e avere una vita soddisfacente. Deve, però, avere questa visione ampia, non esclusivamente mirata allo sviluppo delle aziende.