“Ostipitalità” - Controversia di un concetto (anche) politico

Dopo la cosiddetta “crisi dei rifugiati” che ha segnato profondamente l’Europa e l’Italia negli ultimi anni, il concetto di ospitalità ha assunto una rilevanza centrale nel dibattito pubblico e politico. Lontano dall’essere un semplice gesto privato di gentilezza, l’ospitalità è diventata una posta in gioco etica e politica, un banco di prova per le democrazie contemporanee. Accogliere chi fugge da guerre, persecuzioni o condizioni di vita insostenibili significa oggi confrontarsi con domande fondamentali: chi ha diritto di entrare? Chi decide le condizioni dell’accoglienza? Quali obblighi morali e sociali comporta il prendersi cura dell’altro?

In questo contesto, l’ospitalità rivela tutta la sua ambivalenza. Da un lato, rappresenta un’apertura verso l’altro, un riconoscimento della sua vulnerabilità e un tentativo di costruire legami di solidarietà e coesistenza. Dall’altro, proprio nel momento in cui viene istituzionalizzata – attraverso leggi, regolamenti, dispositivi di controllo – l’ospitalità può diventare uno strumento di esclusione, di selezione, di subordinazione. Le pratiche di accoglienza si situano dunque in una zona grigia, dove generosità e potere, cura e controllo, si intrecciano in modi spesso contraddittori.

È in questo intreccio che diventa urgente interrogarsi sul significato profondo dell’ospitalità e sulle sue implicazioni nei confronti della cittadinanza, dell’identità e della giustizia sociale.

NON SAPPIAMO COSA SIA L’OSPITALITÀ

«Non sappiamo cosa sia l’ospitalità». Con questa frase, Jacques Derrida (2000: 7, Hostipitality) riassume tutta l’ambivalenza del gesto di accogliere. L’ospitalità non si può definire in astratto, perché prende forma solo dentro contesti concreti, attraversati da emozioni contrastanti, relazioni asimmetriche, limiti materiali. È proprio nello scarto tra l’ideale dell’accoglienza incondizionata e la pratica quotidiana che l’ospitalità rivela il suo carattere conflittuale. A prima vista appare come un gesto di apertura, generosità, cura verso l’altro. Ma basta osservarla da vicino per coglierne il lato meno rassicurante. L’ospitalità non è mai neutra: implica sempre una posizione di potere, una gerarchia, una condizione. E può facilmente trasformarsi in una forma sottile di controllo.

È a partire da questa tensione che Derrida elabora alla fine degli anni Novanta il concetto – oggi più attuale che mai – di ostipitalità, un neologismo che unisce “ospitalità” e “ostilità”. Con questa idea, il filosofo mette in luce il potere tacito di chi ospita nel fissare regole, limiti e condizioni dell’accoglienza. L’ospitalità, quindi, non è solo un gesto di solidarietà: è anche un dispositivo di normalizzazione. Il suo paradosso, per Derrida, sta proprio qui: promette apertura, ma la limita per mantenere l’autorità dell’ospitante.

In questo senso, ospitalità e cittadinanza sono concetti “gemelli”. Entrambi tracciano confini: tra chi ha diritto a restare e chi può solo transitare, tra chi appartiene e chi viene tollerato, tra chi stabilisce le regole e chi deve adeguarvisi.

IL DEBITO INVISIBILE

C’è poi un altro elemento meno evidente, ma altrettanto incisivo: l’aspettativa del “contro-dono”. Chi viene accolto dovrebbe, in qualche modo, ricambiare. Mostrare gratitudine, adattarsi, non disturbare. Come spiegava l’antropologo Marcel Mauss (1925), ogni dono porta con sé l’obbligo di rispondere. E l’ospitalità non fa eccezione. Anche quando è presentata come “incondizionata”, si accompagna spesso a richieste implicite: di rispetto, di conformità, di invisibilità. È così che la persona accolta entra in una posizione fragile: deve dimostrare di meritare l’ospitalità; deve evitare di apparire “troppo esigente” o “fuori posto”. L’asimmetria è evidente, anche se si presenta con il volto della solidarietà. Chi accoglie ha il potere di definire cosa è giusto, normale, accettabile. Chi è accolto deve adeguarsi.

ACCOGLIERE SELEZIONANDO

Uno degli aspetti più evidenti dell’ostipitalità italiana è la sua natura selettiva. Si accolgono alcuni, i “veri rifugiati”, i “profughi ucraini”, i “minori stranieri non accompagnati”, mentre altri vengono respinti, criminalizzati o semplicemente ignorati. Si costruiscono gerarchie di merito, in cui il diritto all’accoglienza dipende da criteri morali, politici o culturali. Le leggi sull’immigrazione, dalla Bossi-Fini ai decreti sicurezza, fino al recente “Piano Mattei”, consolidano questa distinzione, trasformando l’ospitalità in un privilegio riservato a chi si adatta, rispetta, non disturba.

Questo approccio prende forma nei dispositivi di governo: i CAS (Centri di Accoglienza Straordinaria) si aprono e si chiudono in base all’emergenza del momento; le commissioni territoriali decidono chi ha diritto a restare e chi deve andarsene; le frontiere (da Lampedusa al confine italo-sloveno) si trasformano in luoghi di ostilità permanente, dove ogni gesto di accoglienza appare come una minaccia da contenere. Anche il linguaggio è attraversato da questa logica ostile: termini come “clandestino”, “emergenza”, “degrado” servono a delegittimare l’idea stessa di accoglienza, trasformandola in problema, in anomalia da gestire o nascondere.

Nelle città, questa ostilità si riflette nello spazio: l’accoglienza è tollerata solo se invisibile, silenziosa, discreta. Laddove non è possibile renderla invisibile, si tenta di spostarla ai margini. Sempre più spesso, il compito dell’accoglienza viene lasciato al volontariato, mentre il welfare pubblico si ritira, ridotto a una presenza intermittente e inefficace. Così, l’ospitalità smette di essere un diritto e diventa un gesto condizionato, fragile, continuamente messo alla prova.

VIVERE L’OSPITALITÀ

Eppure, tra ospitalità e ostilità esiste una zona grigia, fatta di pratiche quotidiane: è in questa zona che si muovono i volontari, i mediatori, gli operatori sociali. Il caso delle “famiglie accoglienti” – famiglie che accolgono nella loro abitazione un rifugiato per un tempo che va da poche settimane fino, in rari casi, a molti anni – è un esempio concreto dell’esperienza paradossale e dilemmatica dell’ospitalità. Come messo in evidenza da alcune ricerche (Sperandio e Lampredi, 2024), è in queste pratiche concrete che nascono dilemmi che possono diventare profondamente politici: come rispettare l’altro senza annullare le proprie abitudini? Come evitare di imporre? Come convivere con differenze radicali? Sono momenti scomodi, ma preziosi, perché mettono in discussione l’idea stessa di appartenenza, sicurezza, normalità. L’ospitalità, allora, non è più solo un gesto di apertura, ma un processo di apprendimento. Non è una concessione, ma una relazione da coltivare, sbagliare, ripensare. Queste pratiche mostrano che l’ospitalità è un processo fragile e trasformativo, non una condizione data. È qualcosa che si costruisce, e si mette in discussione, ogni giorno, nei rapporti concreti con l’altro. È proprio nel confronto con le contraddizioni che può emergere un senso più profondo di responsabilità e giustizia.

CONCLUSIONE: NON INVISIBILIZZARE LE CONTROVERSIE DELL’OSPITALITÀ, MA AFFRONTARLE

La vera sfida, allora, non è eliminare (o invisibilizzare) l’ambiguità dell’ospitalità, ma imparare a riconoscerla e ad attraversarla. Significa costruire forme di convivenza che non cancellino la differenza, che non trasformino la solidarietà in paternalismo, che non implichino silenziosamente un dovere di riconoscenza. Significa anche accettare che l’ospitalità, per essere davvero etica e politica, deve saper trasformare le sue imperfezioni in occasioni per rivalutare costantemente le radici etico-politiche del vivere comune. Deve esporsi al rischio del fraintendimento, del conflitto, dell’errore. Solo così può diventare, davvero, un’apertura all’altro – non come proiezione dei nostri ideali, ma come incontro imprevedibile e trasformativo. In un’epoca in cui l’ospitalità è invocata tanto per includere quanto per escludere, riflettere sul suo carattere paradossale non è un lusso teorico. È un’urgenza politica.

 

 

RIFERIMENTI BIBLIOGRAFICI

Derrida, J. (2000). Hostipitality. Angelaki: Journal of Theoretical Humanities5(3), 3-18.

Mauss, M. (1925). Essai sur le don. Forme et raison de l’échange dans les sociétés archaïques. L’Année sociologique, 1(2), 30–186.

Sperandio, E., & Lampredi, G. (2024). From hospitality to dwelling: a lens for migrant homesharing in Italy. Journal of Ethnic and Migration Studies, 1-19. https://doi.org/10.1080/1369183X.2024.2346618


Un'ombra sulla democratizzazione della tecnoscienza - Il fallimento della consultazione nazionale CNAPI

Nell’articolo precedente abbiamo provato a dare un’idea di cosa sia il progetto del Deposito Nazionale delle scorie radioattive e della situazione di stallo in cui versa – in questo momento – tra una legge approvata nel 2011 e l’apparente cambiamento di piani enunciato dal Ministro dell’Ambiente meno di un mese fa.

Abbiamo anche accennato che il processo di identificazione della località dove costruire il Deposito1 doveva passare attraverso la Consultazione Pubblica, un iter che prevede la discussione pubblica, con «tutti i soggetti interessati alla realizzazione e all’esercizio del deposito, inclusi i comuni in cui potrebbero essere localizzati, le regioni coinvolte, le associazioni ambientaliste e i cittadini residenti nelle aree interessate».

OBIETTIVI DELLA CONSULTAZIONE PUBBLICA

Nel disegno delineato da Sogin, la Consultazione Pubblica aveva tre obiettivi:

  • il primo, di ampio respiro, era spiegare a tutti gli stakeholder coinvolti cos’è il Deposito, perché è necessario farlo, come viene fatto e perché non comporta rischi significativi per l’ambiente e la popolazione;
  • il secondo obiettivo era arrivare alla Carta Nazionale delle Aree Idonee per la costruzione del deposito escludendo quelle 2 che – sulla base delle considerazioni fatte dagli interessati – presentano delle criticità ancora non considerate;
  • il terzo, il più importante di tutti, era stimolare la candidatura di alcune delle Aree giudicate Idonee a luogo in cui costruire il Deposito.

COME SI FA LA CONSULTAZIONE POPOLARE

La Consultazione Popolare è costituita da un ciclo – chiamato Seminario Nazionale - di 10 sessioni: 2 plenarie di apertura e di chiusura dei lavori, una nazionale e una sessione per ciascuna delle 7 Regioni 3 in cui si trovano il 67 siti potenzialmente idonei.

Le sessioni e le relative discussioni sono tenute in video conferenza 4 e trasmesse in streaming in tempo reale, può partecipare chiunque, istituzioni, associazioni, privati cittadini.

La struttura delle sessioni, ripetuta quasi identicamente per ogni regione, è in forma di dialogo contradditorio, con:

  • la componente promotrice del Progetto, costituita da Sogin, ISIN 5, Nucleco 6, le Università direttamente coinvolte nel progetto o nei Seminari;
  • le parti portatici di interessi potenzialmente contrari o di richieste di chiarimento, come le Regioni, le Provincie, i Comuni, le Arpa 7, i rappresentanti degli agricoltori, le associazioni ambientaliste.

Il colloquio procede secondo uno schema di narrazione, obiezioni, risposte alle obiezioni, conclusione istituzionale; all’interno del confronto è prevista una sessione di domande fatte dai partecipanti – inclusi i cittadini – e di relative risposte da parte del responsabile del progetto: l’Ing. Chiaravalli di Sogin.

Ogni sessione è seguita da una sintesi e da una formalizzazione dei risultati.

A titolo di esempio, ecco il programma della Sessione dedicata a Basilicata e Puglia:

In filigrana, nello svolgimento dei Seminari si intuisce che:

  • Sogin domina il contraddittorio da una posizione cattedratica: è il referente delle domande, fornisce chiarimenti e neutralizza le obiezioni;
  • il confronto mira a neutralizzare le obiezioni sull’impianto generale del progetto, a convincere gli ascoltatori della necessità e non pericolosità del Deposito. Solo occasionalmente censisce fattori di esclusione di alcuni siti.

QUALI DUBBI E OBIEZIONI SONO EMERSI?

Nelle sintesi degli incontri sono riportate le principali classi di obiezioni emerse durante i seminari. Sogin identifica due classi di argomenti ricorrenti:

  • quelli di carattere generale (non direttamente collegati ai territori interessati dalla CNAPI);
  • quelli legati direttamente alla CNAPI e all’applicazione dei Criteri di localizzazione della Guida Tecnica n. 29 (Sintesi Sessione Piemonte) 8.

Nel secondo gruppo figurano problemi come:

  • aspetti geologici locali (ad esempio: sismicità locale o particolarità idrogeologiche) non considerati che potrebbero sconsigliare la localizzazione in una determinata area;
  • la presenza di aree naturali protette, di habitat faunistici, di direttive protezionistiche, quale, ad esempio, il Geoparco degli etruschi, in Lazio (Sintesi Sessione Lazio);
  • la «presenza di coltivazioni di prodotti di pregio e la presenza di zone sottoposte a vincolo di tutela ambientale e dei beni culturali» o una concentrazione abitativa superiore a quanto rilevato (Restituzione dei lavori – Sessione Sicilia);
  • possibili difficoltà logistiche, quali le condizioni dei trasporti e delle strade 9.

Questo genere di obiezioni è stato preso in considerazione dal Progetto 10 e ha portato all’esclusione di 16 siti potenzialmente idonei dalla Carta definitiva delle Aree Idonee, che ne contiene solo 51.

Scrive Sogin nella Sintesi della Sessione Lazio: «i temi affrontati e le indicazioni pervenute costituiscono un arricchimento della sua base conoscitiva, integrando le descrizioni preliminari fornite nelle Relazioni d’Area pubblicate a corredo della CNAPI […] Le tematiche evidenziate […] saranno debitamente tenute in conto nel corso delle eventuali successive fasi del processo di caratterizzazione. Le segnalazioni di potenziali criticità ed elementi di attenzione […] completeranno l’insieme delle conoscenze attualmente disponibili per ognuna delle API e integreranno la base conoscitiva a partire dalla quale verrà eventualmente elaborato il Piano di Indagine per la caratterizzazione tecnica di dettaglio delle aree idonee».

 


In questo senso, si può sostenere che la Consultazione Pubblica abbia raggiunto uno degli obiettivi: disegnare la mappa dei siti in cui è effettivamente possibile – visto il parere degli stakeholder nazionali e locali - costruire il Deposito Nazionale delle scorie radioattive.


Nella prima classe di obiezioni espresse dagli stakeholder, invece, ricadono temi quali:

  • il mancato coinvolgimento nella decisione sui criteri per le Aree Potenzialmente Idonee;
  • la mancata considerazione di principi rilevanti quali, ad esempio, la presenza di coltivazioni di prodotti di pregio (Coldiretti), di aree protette (WWF, LegaAmbiente), di vincoli dei beni culturali, che avrebbero potuto delineare con maggiore precisione la mappa di idoneità;
  • la visione datata del territorio, in termini di densità abitativa, di antropizzazione, di tutele e di evoluzione dei vicoli, a causa del fatto che il Progetto è nato nel 2011, che le osservazioni spesso sono precedenti a quella data e che il Seminario si tiene nel 2021;
  • la componente reputazionale dei territori, molti dei quali hanno una forte identità turistica – accentuata dal turismo di wilderness – che può essere messa in crisi dalla presenza del Deposito;
  • la modalità eccessivamente strutturata e rigida della Consultazione Pubblica;
  • infine, una serie di domande e obiezioni generali sulla pericolosità del Deposito, sull’opportunità di realizzarlo, sulla forma e sui contenuti del progetto 11.

Queste domande e obiezioni sono state neutralizzate dalle risposte di Sogin, che ha difeso, giustificato e sostenuto – di fatto senza possibilità di replica – l’adeguatezza del progetto e della consultazione, senza però – sembrerebbe dal tenore delle domande della Sessione conclusiva 12 – placare più di tanto i timori degli stakeholder.

IL FALLIMENTO DELLA DEMOCRATIZZAZIONE DELLA DECISIONE

Il terzo obiettivo della Consultazione Pubblica, quello di stimolare le candidature degli enti locali come aree obiettivo per la localizzazione del Deposito, è stato, invece, platealmente mancato.

Come abbiamo già visto, nessun Ente locale, fatto salvo per il Comune di Trino Vercellese che però non fa parte delle Aree Idonee, ha manifestato interesse ad ospitare il Deposito, vanificando di fatto lo sforzo organizzativo ed economico della Consultazione.

Tuttavia, è evidente che:

  1. la forma di road-show 13 con esposizione frontale e risposta alle obiezioni, adottata da Sogin per la consultazione pubblica, ha certamente favorito la contrapposizione tra il Progetto e le obiezioni, tra Sogin e le comunità locali;
  2. la segmentazione temporale e spaziale, regione per regione, dei lavori ha lasciato campo libero alla fuga dalla responsabilità, aggiungendo alla posizione NIMBY quella dello “scaricabarile” verso il successivo attore consultato;
  3. lo scarso coinvolgimento iniziale dei diversi attori e la mancanza sia di una fase co-creazione dei presupposti e dei valori dell’iniziativa, che di una adeguata “traduzione” del progetto e di un progressivo “arruolamento”, nei confronti delle comunità locali 14, hanno minato alla base il processo.

DARE SPAZIO AL DECISIONISMO OPPURE RIPROVARCI?

Si possono, ora delineare due possibili percorsi per uscire dall’impasse: il primo è – banalmente – che Sogin abdichi al ruolo (mal recitato, finora) di primus inter pares, che cerca di mettere d’accordo le istanze di tutti gli attori coinvolti, e la decisione passi nelle mani del Governo.

Tuttavia, dato che la mappa delle aree idonee, gli stakeholder e le obiezioni sono note a tutti e che – soprattutto – il fattore tempo non è ancora così stringente, si può pensare di fare un passo indietro e salvare l’idea della democratizzazione del processo di localizzazione.

Si può, forse, adottare un approccio co-creativo di maggiore coinvolgimento, sollecitare un dialogo paritetico tra tutti gli stakeholder, dedicare tempo e energie a esplicitare le scale valoriali locali, e condividere il valore irrinunciabile della realizzazione del deposito, l’analisi del rischio, le ragioni del timore, le opportunità, le regole per la localizzazione; si possono stimare le condizioni per l’alternativa di più siti, la componente economica, i vantaggi e le rinunce che comportano le diverse soluzioni – per sceglierne una che conti sull’adesione convinta di tutti.

Tuttavia, il fallimento di questo genuino 15 tentativo di coinvolgimento degli stakeholder getta un’ombra 16 inquietante sull’applicabilità del principio di democratizzazione delle decisioni tecnoscientifiche; perlomeno nei casi – come questo – di rilievo sociale e politico di grande respiro, con numerosi e variegati interessi coinvolti, che richiedano una forte assunzione di responsabilità da parte di alcuni segmenti di popolazione, il cui senso – soprattutto – sia legato a questioni ideologiche.

È possibile che alcune di queste decisioni, il cui oggetto ha carattere tecnoscientifico ma che sono così strettamente legate al sociale e al politico, implicano in ogni caso lo scontento di qualcuno: devono quindi essere affrontate con un articolato processo di ascolto degli interessi e dei potenziali vincoli, ma devono poi per forza convergere in una presa di responsabilità, informata e trasparente, ad opera di chi governa super partes.

 

 

 

NOTE:

1 Nell’ipotesi di legge, uno solo, centralizzato, in un’unica località.
2 Contenute nella CNAPI, proposta delle Aree Potenzialmente Idonee
3 Sicilia, Sardegna, Basilicata, Puglia, Toscana, Lazio e Piemonte
4 Va ricordato che il ciclo di incontri è stato effettuato da settembre a dicembre 2021, quando ancora erano ni vigore molte delle misure restrittive per la pandemia Covid-19.
6 Nucleco è la società del Gruppo Sogin leader in Italia nel campo dei servizi radiologici, nella gestione dei rifiuti radioattivi e nelle attività di decontaminazione e bonifica di impianti nucleari e siti industriali
7 Agenzie regionali per la Protezione dell’Ambiente
8 In questo caso si tratta delle considerazioni sintetiche sulla Sessione fatta in Piemonte, ma la classificazione non varia per le altre sessioni
10 Progetto inteso come Sogin e tutta l’organizzazione che ha sviluppato il progetto del Deposito e la dinamicha di confronto con gli stakeholder
11 È esemplare la considerazione di una privata cittadina, rivolta alla moderatrice, che avrebbe dovuto garantire il dialogo e il confronto: «Gent.le Dottoressa Romano non ritiene che la short list delle aree potenzialmente idonee che entreranno nella CNAI sia già stata scritta, relegando il compassato Seminario autogestito da Sogin, giudice di se stesso nell’intero arco del confronto, ad una operazione dovuta ma priva di reale significato? Non ritiene che limitando progressivamente la evidenziazione dei contributi degli stakeholder, prima con una irragionevole limitazione nella esposizione e, successivamente, con una”restituzione” in forma di abstract, releghi il Seminario ad una operazione di facciata?» Si veda la Trascrizione degli interventi degli stakeholder, Regione Lazio, in https://www.depositonazionale.it/documenti/pagine/documenti-seminario-nazionale.aspx
13 Modello di pubblicizzazione mutuato dalle iniziative di business
14 Arruolamento per il quale non mancano concreti elementi di opportunità, primi fra tutti l’incremento di occupazione e di prodotto interno offerti dai cantieri di realizzazione
15 Chi scrive è stato testimone diretto, nel corso di momenti di lavoro con Sogin, della buona fede e della genuinità del progetto di confronto con gli stakeholder.

Dopo tre anni di trattative, l’Oms ha approvato il primo Piano pandemico globale

Quasi un anno fa, su questa rivista avevamo parlato del Piano pandemico globale, sollevando non poche critiche. In questi giorni, dopo tre anni di negoziazioni, il piano è stato approvato. I voti a favore sono stati 124, mentre 11 i Paesi si sono  astenuti: Italia, Russia, Bulgaria, Polonia, Romania, Slovacchia, Giamaica, Guatemala, Paraguay, Israele e Iran. Nessuno contrario.

Due le considerazioni. In primo luogo, il testo ha perso l’impostazione iniziale che appariva fortemente “dirigista”. Le sovranità nazionali non sembrano più surclassate perché è specificato che l’Oms non sarà autorizzato né a prescrivere leggi nazionali né a incaricare gli Stati di intraprendere azioni specifiche come vietare i viaggi, imporre blocchi o vaccinazioni e misure terapeutiche. Per il segretario generale dell’Oms, Tedros Adhanom Ghebreyesus, il piano «è una garanzia che si possa proteggere meglio il mondo da future pandemie. Ed è anche un riconoscimento da parte della comunità internazionale che i nostri cittadini, le nostre società e le nostre economie non devono subire nuovamente perdite come quelle subite durante il Covid 19».

Seconda considerazione: la porta Oms non è del tutto chiusa per nessuno. Il Piano pandemico verrà inviato a tutti i 60 Stati membri per essere ratificato dai Parlamenti, e sarà allora che il “sì” o il “no” dei singoli Stati diventerà definitivo. 

Il fatto che l’Italia non abbia votato il Piano è stato visto come un segnale forte; per chi, in Italia, ritiene che il governo italiano abbia fatto bene, dovrà vigilare affinché questa posizione  venga mantenuta quando il Parlamento sarà chiamato a esprimersi. Va detto che il trattato entrerà in vigore, a livello internazionale, solo per i Paesi che lo ratificano. 

Quali sono le perplessità? I tempi sembrano allungarsi ancora – si ipotizza fino a marzo 2026 - perché il Piano potrà essere votato soltanto quando sarà ultimato in ogni suo allegato e al momento manca quello dedicato alla trasmissione dei patogeni (che riguarda cioè le misure di sicurezza per i laboratori che isolano batteri o virus).

A preoccupare chi dovrebbe sentirsi rassicurato dal linguaggio ammorbidito di Ghebreyesus, c’è però il Regolamento sanitario approvato dall’Oms il 1° giugno scorso: un testo che ha la volontà di censurare qualsiasi informazione considerata come non-informazione e che surclasserebbe le leggi nazionali. I Paesi hanno tempo fino al 19 luglio per respingerlo, inviando una lettera (in questo caso varrebbe il Regolamento sanitario precedente del 2015) altrimenti entrerà in vigore di default. 


Genocidio o crimini di guerra? Una questione anche metodologica

Diversi conflitti e discussioni molto accese (a volte anche violente) potrebbero essere evitate (o almeno ridimensionate) se prima di passare al giudizio si riflettesse collettivamente (e si provasse a trovare un accordo, almeno momentaneo) sul significato dei termini che usiamo. Ne avevamo già accennato in un precedente post[1], parlando di “definizione operativa”.

L’IMPORTANZA DELLA “DEFINIZIONE OPERATIVA”

Nelle scienze si dà molta attenzione (o almeno si dovrebbe) alle caratteristiche (o attributi) di un concetto. In quel post si facevano i seguenti esempi: che cosa fa di una persona un/a ‘pover*’? Quali requisiti deve avere un collettivo per essere definito una ‘famiglia’? La definizione che il/la ricercatrice/tore ne darà, offrirà una guida operativa per selezionare (oppure escludere) i casi e poi intervistare le persone ritenute avere requisiti.

Alle due domande appena formulate, le risposte possono essere molteplici. Ma risposte diverse portano anche a “costruire” oggetti di studio diversi, portando alla non comparabilità dei risultati delle diverse ricerche e (in definitiva) alla incomunicabilità.

Mitchell e Karttunen (1991), analizzando una serie di ricerche finlandesi sugli/lle “artist*”, avevano riscontrato la produzione di risultati diversi a seconda della definizione (operativa) di ‘artista’ che veniva impiegata dai/lle ricercatori/trici e che poi guidava la costruzione del campione. In alcune ricerche veniva incluso nella categoria ‘artista’ (i) chi si autodefiniva come tale; in altri casi (ii) colui che produceva in modo duraturo e continuativo opere d’arte; altre volte (iii) chi veniva riconosciut* come artista dalla società nel suo complesso, oppure (iv) colui/colei che veniva riconosciut* dalle associazioni delle/gli artist*.

Appare evidente come la conseguenza di ciò sia l'impossibilità di comparare gli esiti queste ricerche. E quanto l’espressione “costruire l’oggetto di studio”, anziché registrare dei fatti, sia tutt’altro che una boutade.

COSA STA SUCCEDENDO A GAZA?

Veniamo al tragico argomento di questi mesi: a Gaza si sta realizzando un ‘genocidio’’, un crimine di guerra’, una azione di ‘legittima difesa’ del governo israeliano o altro ancora? Per rispondere, bisognerebbe trovare un accordo (impossibile, lo so bene) sulla definizione (quindi il significato) di questi termini ed espressioni.

Che cosa fa di un evento (o serie di eventi) un ‘genocidio’? Quali sono gli attributi/caratteristiche (intensione) dei concetti di ‘genocidio’, ‘crimine di guerra’ ecc.?

Secondo l'ONU[2], si intendono per genocidio

«gli atti commessi con l'intenzione di distruggere, in tutto o in parte, un gruppo nazionale, etnico, razziale o religioso». Come tale:

(a) uccisione di membri del gruppo;

(b) lesioni gravi all'integrità fisica o mentale di membri del gruppo;

(c) il fatto di sottoporre deliberatamente il gruppo a condizioni di vita intese a provocare la sua distruzione fisica, totale o parziale;

(d) misure miranti a impedire nascite all'interno del gruppo;

(e) trasferimento forzato di fanciulli da un gruppo ad un altro».

In accordo con questa definizione sono stati considerati genocidi: la guerra in Bosnia ed Erzegovina nell'ambito delle guerre jugoslave, il genocidio del Ruanda, quello cambogiano, l'Olocausto ebraico, il genocidio armeno. Ovviamente è una definizione di “parte” nel senso che non è riconosciuta da tutt*. Ad es. il genocidio armeno è riconosciuto solo da alcuni Stati[3].

Se per analizzare quello che succede a Gaza, accettiamo la definizione dell’ONU (e non tutti gli Stati, però, la accettano), possiamo notare che i cinque attributi ricorrono tutti:

(a) ci sono quotidiane uccisioni di palestinesi non armat*;

(b) i/le quali sono isolat*, senza possibilità di ricevere aiuti umanitari (cibo, medicinali, assitenza). Per cui la loro all'integrità fisica (anche per la mancanza di cibo) o mentale (data dalla situazione di prostrazione in cui vivono) sembra gravemente lesionata;

(c) vi è un deliberato progetto di “distruggere completamente Gaza”, come ha dichiarato il ministro delle finanze israeliano Bezalel Smotrich, il 6 maggio scorso in un convegno[4]. Il giorno prima, lo stesso, aveva affermato in una conferenza stampa a Gerusalemme: “Israele occuperà Gaza per rimanerci" e "non ci sarà alcun ritiro, nemmeno in cambio degli ostaggi";

(d) un piano che (pare) Smotrich avesse sin dal 2017[5]: avviare una pulizia etnica, riducendo le nascite dei/lle palestinesi e aumentando quelle degli/lle ebre*, al fine di diventare maggioranza;

(e) trasferire un milione e mezzo di palestinesi in altri luoghi; un progetto di deportazione già iniziato molti anni prima, in modo chirurgico, abbattendo le case di palestinesi per forzarl* a migrare in altri posti[6].

Ovviamente non tutt* sono d’accordo con queste osservazioni. Alcun* giornalist* e politic* (non serve fare nomi, rimaniamo sui contenuti) chiamano “messa in sicurezza” quello che altr* chiamano “deportazione”. Alcun* ritengono legittimo schedare (mediante riconoscimento facciale[7]) le persone a cui viene dato il cibo (a quando la mezzaluna cucita sul petto?). Altr* sostengono che si tratta di ‘crimini di guerra’[8] e non di genocidio[9]; ma la guerra si fa tra eserciti, e un esercito palestinese non esiste. O almeno ora non esiste più, se si intendeva Hamas come un esercito. Ma quelli di Hamas non erano dei “terroristi”? O sono terroristi o sono un esercito. Non possono essere le due cose contemporaneamente.

Come si può vedere le domande sono tante e una riflessione “scientifica” (fra giornalisti competenti, storici, scienziati sociali, politologi, organizzazioni umanitarie) sarebbe necessaria.

La cosa interessante è che nelle ultime settimane sempre più quotidiani cominciano ad adottare le parole “genocidio” e “sterminio”, al posto di termini meno forti.

È il preludio a un futuro riconoscimento?

 

 

 

 

RIFERIMENTO BIBLIOGRAFICO

Mitchell, R. and Karttunen, S. (1991), ‘Perché e come definire un artista?’ Rassegna Italiana

di Sociologia, 32(3): 349–64.

 

NOTE:

1 https://www.controversie.blog/definizione-operativa-limportanza-delle-definizioni-prima-di-aprir-bocca/

2https://it.wikipedia.org/wiki/Genocidio#:~:text=Con%20genocidio%2C%20secondo%20la%20definizione,etnico%2C%20razziale%20o%20religioso%C2%BB

3 https://it.wikipedia.org/wiki/Genocidio_armeno#/media/File:Nations_recognising_the_Armenian_Genocide.svg

4 https://stream24.ilsole24ore.com/video/mondo/ministro-israeliano-gaza-sara-completamente-distrutta/AHWXOdc

5 https://www.ilfattoquotidiano.it/2025/05/15/nakba-israele-gaza-palestina-smotrich/7988997/

6 Istruttivo, a tal fine, è No Other Land, un film documentario del 2024 diretto, prodotto, scritto e montato da un collettivo israelo-palestinese formato da Basel Adra, Yuval Abraham, Rachel Szor ed Hamdan Ballal (https://it.wikipedia.org/wiki/No_Other_Land), È stato premiato con l'Oscar al miglior documentario ai premi Oscar 2025.

7 https://www.controversie.blog/cibo-in-cambio-di-impronte-retiniche/

8 https://it.wikipedia.org/wiki/Crimine_di_guerra

9 https://www.youtube.com/watch?v=F4vDYhIMmm8&t=3s


Il Golem, il capro espiatorio e altri gattopardi - Vale la pena di giocare a «Algoritmo libera tutti»?

1. ALGORITMI

Nel subcontinente indiano si celebra l’Agnicayana, il più antico rituale documentato nel mondo ad essere ancora praticato: consiste nella costruzione dell’altare Syenaciti, a forma di falco, che celebra la ricomposizione del corpo del dio primordiale Prajapati dopo la creazione del mondo – fatica da cui è uscito letteralmente a pezzi. La modalità di costruzione dell’altare è complessa, è prescritta da un algoritmo, ed è scandita da un mantra che accompagnano la posa delle pietre. Paolo Zellini riferisce che nelle civiltà della Mesopotamia e dell’India le conoscenze matematiche, l’organizzazione sociale, le pratiche religiose, erano governate da schemi procedurali con una via di accesso al sapere alternativa alla formalizzazione logica – la via della dimostrazione assiomatico-deduttiva che appassionava i greci (1). Questa soluzione non ha permesso agli scribi del Vicino e del Medio Oriente di raggiungere l’univocità del concetto di numero, a partire dai numerali con cui gestivano le questioni nei vari contesti di applicazione: il sistema che organizzava le derrate di grano e di riso era diversa da quella che permetteva di contare i soldati, da quella che quantificava pecore e cavalli, da quella che misurava i debiti; ma ha permesso di evitare le difficoltà che i numeri irrazionali, e la relazione spigolosa della diagonale con il lato del quadrato, hanno suscitato nel mondo greco-romano.

L’algoritmo non è un’astrazione concettuale occidentale contemporanea, ma un dispositivo che emerge dalla cultura materiale, dalle procedure sociali di gestione del lavoro. L’etichetta proviene dal latino medievale, e si riferisce al metodo di calcolo con numeri posizionali descritto in un saggio di al-Kuwarizmi (andato perduto nella versione originale, ma conservato in due traduzioni latine). A partire dal XIII secolo il ricorso al metodo indiano di calcolo con cifre posizionali si diffonde in tutta Europa, soprattutto per la sua utilità in ambito commerciale: è di nuovo una pratica sociale a veicolare e a materializzarsi nel successo dell’algoritmo, iscrivendolo nella fioritura della nuova cultura urbana, e nel corpo delle relazioni costruite dai traffici della borghesia nascente (2).

Il calcolo posizionale insiste su matematica ed economia; ma qualunque sequenza di istruzioni che trasformino un certo materiale di partenza in un risultato finale, attraverso un numero finito di passi, (ognuno dei quali sia definito in modo abbastanza chiaro da non autorizzare interpretazioni variabili in modo arbitrario), è un algoritmo. Una ricetta di cucina, le istruzioni dell’Ikea, il meccanismo di lettura della scrittura alfabetica, sono esempi di algoritmi con cui possiamo avere più o meno dimestichezza (e fortuna). Gran parte della nostra esistenza si consuma nella frequentazione di procedure di questo tipo; la creatività, quando compare, può somigliare all’adattamento ingegnoso di una di loro, o alla combinazione inedita di pezzi di procedimenti diversi. Secondo alcuni teorici, come Ronald Burt, non si danno nemmeno casi del genere, ma solo importazioni di algoritmi da culture diverse, che i compatrioti ancora non conoscono, ma che possono digerire grazie ad adattamenti e traduzioni opportune (3).

In un articolo recente pubblicato su Controversie si è sostenuto che il rapporto tra algoritmi e esseri umani ha smesso di essere simmetrico e co-evolutivo, perché in qualche momento dell’epoca contemporanea la macchina si sarebbe sostituita ai suoi creatori, sarebbe diventata prescrittiva, avrebbe imposto griglie di interpretazione della realtà e avrebbe cominciato a procedere in modo autonomo a mettere in atto le proprie decisioni. Credo che una simile valutazione derivi da due sovrapposizioni implicite, ma la cui giustificazione comporta diversi problemi: la prima è quella che identifica gli algoritmi e le macchine, la seconda è quella che equipara il machine learning dei nostri giorni all’AGI, l’Intelligenza Artificiale Generale, capace di deliberazione e di cognizione come gli esseri umani.

2. PRIMO ASSUNTO

Non c’è dubbio sul fatto che gli automi siano messi in funzione da sequenze di istruzioni; ma questo destino non tocca solo a loro, perché gran parte dei comportamenti degli uomini non sono meno governati da algoritmi, appena mascherati da abitudini. Più le operazioni sono l’esito di un percorso di formazione culturale, più l’intervento delle direttive standardizzate diventa influente. Parlare una lingua, leggere, scrivere, dimostrare teoremi matematici, applicare metodi di analisi, giocare a scacchi o a calcio, sono esempi di addestramento in cui gli algoritmi sono stati interiorizzati e trasformati in gesti (che sembrano) spontanei. Adattando un brillante aforisma di Douglas Hofstadter (4) alla tecnologia dei nostri giorni, se ChatGPT potesse riferirci il proprio vissuto interiore, dichiarerebbe che le sue risposte nascono dalla creatività libera della sua anima.

Le lamentele che solleviamo contro gli algoritmi, quando gli effetti delle macchine contrastano con i nostri canoni morali, è paragonabile all’accusa che rivolgeremmo al libro di ricette se la nostra crostata di albicocche riuscisse malissimo. L’Artusi però non è responsabile del modo maldestro con cui ho connesso le sue istruzioni con gli algoritmi che prescrivono il modo di scegliere e maneggiare gli ingredienti, il modo di misurare le dosi, il modo di usare gli elettrodomestici della cucina: parlo per esperienza. Tanto meno è responsabile della mia decisione di cucinare una crostata di albicocche. Allo stesso modo, il software COMPAS che è stato adottato per collaborare con i giudici di Chicago non ha deciso in autonomia di discriminare tutte le minoranze etniche della città: la giurisprudenza su cui è avvenuto il training, che include l’archivio di tutte le sentenze locali e federali, è il deposito storico dei pregiudizi nei confronti di neri e diseredati. Il suo uso, che non è mai confluito nella pronuncia autonoma di verdetti, può anzi vantare il merito di aver portato alla luce del dibattito pubblico un’evidenza storica: generazioni di giudici, del tutto umani, hanno incorporato nel loro metodo di valutazione algoritmi ereditati dalla consuetudine, dall’appartenenza ad una classe sociale che perpetua se stessa, in cui questi preconcetti sono perdurati e si sono applicati in sentenze eseguite contro persone reali.

Allo stesso modo, non è il software The Studio a muovere guerra ai civili di Gaza: un’accusa di questo genere servirebbe a nascondere le responsabilità che devono essere imputate ai politici e ai militari che hanno deciso i massacri di questi mesi. Nello scenario del tutto fantascientifico in cui  l’intelligenza artificiale avesse davvero selezionato gli obiettivi, e fosse stata in grado di organizzare le missioni di attacco (come viene descritto qui) – in realtà avrebbe ristretto gli attacchi ai soli obiettivi militari, con interventi chirurgici che avrebbero risparmiato gran parte degli effetti distruttivi della guerra. Purtroppo, in questo caso, l’AI non è in alcun modo capace di sostituirsi agli uomini, perché – a quanto si dichiara – i suoi obiettivi non sarebbero stati il genocidio, ma l’eliminazione di un justus hostis secondo le caratteristiche tradizionali dello spionaggio nello scontro bellico dichiarato. Il fatto che l’impostazione stessa del conflitto non sia mai stata tesa a battere un nemico, ma a sterminare dei terroristi, mostra che le intenzioni umane, erano ben diverse fin dall’inizio. Gli algoritmi selezionano mezzi e procedure per l’esecuzione di obiettivi, che sono sempre deliberati in altro luogo.

3. SECONDO ASSUNTO

Questa riflessione ci conduce alla seconda assunzione: tutto il software oggi è AI, e i dispositivi di deep learning sono in grado di maturare intenzioni, articolarle in decisioni autonome – e addirittura, in certe circostanze, avrebbero anche l’autorità istituzionale di coordinare uomini e mezzi per mandarle in esecuzione.

Basta smanettare un po’ con ChatGPT per liberarsi da questo timore. Le AI generative trasformative testuali sono meravigliosi programmi statistici, che calcolano quale sarà la parola che deve seguire quella appena stampata. Ad ogni nuovo lemma aggiunto nella frase, viene misurata la probabilità del termine successivo, secondo la distribuzione vettoriale dello spazio semantico ricavato dal corpus di testi di training. È la ragione per cui può accadere che ChatGPT descriva nelle sue risposte un libro che non esiste, ne fissi la data di pubblicazione nel 1995, e stabilisca che nel suo contenuto viene citato un testo stampato nel 2003, nonché descritta una partita di Go svolta nel 2017 (5). ChatGPT, Claude, DeepSeek, e tutta l’allegra famiglia delle intelligenze artificiali generative, non hanno la minima idea di quello che stanno dicendo – non hanno nemmeno idea di stare dicendo qualcosa. AlphaGo non sa cosa significhi vincere una partita a Go, non conosce il gusto del trionfo – tanto che pur riuscendo a vincere contro il campione di Go, non sa estendere le sue competenze ad altri giochi, se non ripartendo da zero con un nuovo training.

L’AI attuale è in grado di riconoscere pattern, e di valutate la probabilità nella correlazione tra gli elementi specifici di cui il software si occupa, senza essere in grado di passare tra segmenti diversi dell’esperienza, generalizzando o impiegando per analogia le conoscenze che ha acquistato, come invece fanno gli esseri umani. Comprensione dei contenuti, intenzioni, strategie, sono attribuite alla macchina da chi ne osserva i risultati, sulla base delle ben note norme conversazionali di Paul Grice (6). I software di AI dispongono dello stesso grado di coscienza, e della stessa capacità di deliberare intenzioni e stabilire valori, che anima il forno in cui tento di cucinare la mia crostata di albicocche.

Non vale la pena dilungarsi oltre, visto che di questo tema ho già parlato qui e qui.

4. GATTOPARDI

Nessuna tecnologia è neutrale: non lo è nemmeno l’AI. Ma la comprensione del modo in cui i software incrociano il destino della società implica un’analisi molto più dettagliata e articolata di una crociata generica contro algoritmi e macchine, dove la fabbricazione di altari, la preparazione di torte di albicocche, il comportamento di Palantir (ma anche quello di ChatGPT, di AlphaFold, di Trullion), possono finire nello stesso mucchio, a beneficio di una santificazione di un’umanità che sarebbe vittima delle manipolazioni di perfidi tecnologi. La ghettizzazione urbanistica in America, la soppressione dello Jus Publicum Europaeum (7) e la scomparsa del diritto internazionale dagli scenari di guerra (che infatti non viene più dichiarata: ne ho già parlato qui), sono problemi che vengono nascosti dal terrore di un Golem che non esiste, ma di cui si continua convocare lo spettro leggendario, questa volta nelle vesti di Intelligenza Artificiale. Quanto più si disconosce la suggestione di questa tradizione mitologica, tanto più se ne subisce inconsapevolmente il potere. È solo con un esame paziente delle condizioni di cui siamo eredi, spesso nostro malgrado, con l’analisi della complessità dei fattori che agiscono in ciascun problema sociale, e l’ammissione che non esiste un fuori dai dispositivi, che si può tentare un’evoluzione quanto più prossima ai nostri requisiti di libertà e di dignità; il processo sommario al Golem, la convocazione dell’algoritmo (!) come capro espiatorio di tutti i misfatti della modernità, per rivendicare il diritto di rigettare tutto e ripartire da zero, non è che un modo per pretendere che tutto cambi – perché tutto rimanga come prima.

 

 

 

 

BIBLIOGRAFIA

Burt, Ronald, Brokerage and Closure: An Introduction to Social Capital, Oxford University Press, Oxford 2007.

ChatGPT-4, Imito, dunque sono?, a cura di Paolo Bottazzini, Bietti Editore, Milano 2023.

Grice, Paul, Studies in the Way of Words, Harvard University Press, Cambridge 1986.

Hofstadter, Douglas, Gödel, Escher, Bach. Un'eterna ghirlanda brillante. Una fuga metaforica su menti e macchine nello spirito di Lewis Carroll, tr. it. a cura di Giuseppe Trautteur, Adelphi, Milano 1980.

Pasquinelli, Matteo, The Eye of the Master: A Social History of Artificial Intelligence, Verso Books, Londra 2023

Schmitt, Carl, Il nomos della terra nel diritto internazionale dello «Jus publicum europaeum», tr. it. a cura di Franco Volpi, Adelphi, Milano 1991.

Zellini, Paolo, Gnomon. Una indagine sul numero, Adelphi, Milano 1999.


Depositi Nazionali delle scorie radioattive - Uno, nessuno o centomila?

Il 5 maggio 2025, il Ministro dell’Ambiente Gilberto Pichetto Fratin dichiara che «Abbiamo ormai scartato l’idea di un centro unico» di stoccaggio delle scorie radioattive «perché è illogico a livello di efficienza» e sostiene che sarebbe meglio costruire più depositi o «andare avanti con i 22 già esistenti». Con questa dichiarazione, il ministro sembra archiviare il progetto del Deposito Unico Nazionale dei rifiuti radioattivi studiato da Sogin – la società statale responsabile dello smantellamento degli impianti nucleari italiani e della gestione e messa in sicurezza dei rifiuti radioattivi – nei passati 20 anni.

DI CHE RIFIUTI RADIOATTIVI SI PARLA?

È il caso di adottare una rappresentazione quantitativa molto schematica per avere un’idea chiara del fenomeno in Italia, cercando anche di semplificare al massimo[1]:

I rifiuti, o scorie, radioattivi sono generati nel corso di:

  • numerose attività mediche diagnostiche – come, ad esempio, le radiografie, le scintigrafie, le PET - e di cura di patologie tumorali, tiroidee, del fegato;
  • alcune attività industriali volte a verificare le condizioni strutturali e di sicurezza di  impianti e costruzioni, a effettuare sterilizzazione biologica di strumenti medici, sementi agricole e anche di alimenti
  • la generazione di energia con impianti nucleari

La produzione di scorie, in Italia, è di questi ordini di grandezza:

  • i produttori, ospedalieri e industriali, sono poco più di 800
  • la produzione è nell’ordine di 300 metri cubi[2] all’anno
  • le fonti sono principalmente di tipo medico, diagnostico e di cura
  • i nuovi rifiuti prodotti sono tutti a bassa o bassissima intensità di radiazione e, quindi, di ridottissima pericolosità

Le quantità di scorie già immagazzinate – secondo l’Inventario ISIN a dicembre 2023 – sono poco più di 32.000 metri cubi[3], tutti di origine medicale e industriale, di cui:

  • 622 m3 a vita media molto breve, che diventano non pericolosi molto rapidamente e poi possono essere smaltiti come rifiuti convenzionali
  • 500 m3 a bassissima e bassa intensità radioattiva
  • 500 m3 a intensità radioattiva intermedia

Queste scorie sono immagazzinate in 22 depositi temporanei, distribuiti in modo ineguale sul territorio nazionale, che garantiscono sicurezza e isolamento dall’esterno, almeno per un altro decennio.

I siti temporanei esistenti in Italia non contengono nessun rifiuto ad elevata radioattività e da impianti di produzione di energia nucleare; quelli prodotti nelle 4 centrali, in funzione fino al 1987, sono custoditi in depositi ad elevata sicurezza in Francia e in Inghilterra, con un servizio di stoccaggio che costa al Governo italiano più di 50 milioni all’anno[4]. Questi rifiuti dovrebbero rientrare in Italia entro il 2025, ma la condizione per farlo è la presenza di una struttura di stoccaggio adeguata, quella oggetto del progetto Deposito Nazionale, appunto.

IL DEPOSITO NAZIONALE

Il Deposito Unico Nazionale è un progetto sviluppato da Sogin dal 2010, che prevede la realizzazione di una struttura di superficie – una specie di collina di una decina di ettari con al suo interno gli edifici magazzino - di smaltimento definitivo di tutti i rifiuti radioattivi a bassissima, bassa e media attività e di stoccaggio temporaneo dei rifiuti ad alta intensità attualmente custoditi in Francia e Inghilterra.

La parte di struttura destinata allo smaltimento definitivo garantisce sicurezza per 300 anni; quella per i rifiuti ad elevata intensità sarà sicuro per 40 anni, durante i quali è necessario costruire un ulteriore deposito geologico ad elevatissima sicurezza che ne garantisca lo stoccaggio per centinaia di migliaia di anni. Sopra e intorno al deposito vero e proprio si sviluppa un Parco Tecnologico con centri di ricerca e di formazione nazionali e internazionali.

È immediato farsi alcune domande su questo progetto, sulla sua necessità e sull’unicità del sito e sui relativi costi.

Perché è necessario? La realizzazione di questo deposito centralizzato è dettata dalla normativa di sicurezza italiana e europea sulla gestione delle scorie radioattive e dalla inadeguatezza degli attuali depositi temporanei per un periodo superiore a un’altra decina di anni. Si tratta di una questione ineludibile di sicurezza sanitaria pubblica, quindi, e di una questione economica che fa capo ai 50 milioni all’anno pagati a Francia e Inghilterra, con una prospettiva temporale sostanzialmente indefinita.

Quanto costa? L’investimento stimato per la realizzazione è di circa 1,5 miliardi di euro, un decimo della stima per il ponte sullo Stretto di Messina, per un volume di circa 85.000 m3 di rifiuti.

Perché farne uno solo? Secondo Sogin e secondo la legge costitutiva del 2010, data la complessità del progetto e il costo di realizzazione di ogni impianto, la realizzazione di più di un deposito costituirebbe una inefficienza finanziaria importante; inoltre, il costo della gestione corrente di più siti è sostanzialmente quello di un sito unico moltiplicato per il numero di siti.

DOVE? CARTA DELLE AREE IDONEE E CONSULTAZIONE PUBBLICA

Parallelamente al progetto di realizzazione del Deposito è nato quello relativo alla sua collocazione sul territorio nazionale. Il processo di identificazione della località dove costruirlo è molto articolato e non prevede che la decisione sia “calata dall’alto” sulle teste di istituzioni locali e cittadini, ma che sia discussa e condivisa in modo trasparente.

È opportuno vedere quale sia il processo che è stato definito da Sogin e approvato dal Parlamento:

  • il primo passo è la definizione dei criteri di esclusione per la sicurezza del sito[5]; tra questi ci sono la l’attività vulcanica e sismica, la presenza di faglie, i rischi idrogeologici, i fenomeni carsici, la prossimità a centri abitati, alle coste, a falde affioranti, a autostrade, linee ferroviarie,aree protette;
  • il secondo passo è la redazione della CNAPI – Carta Nazionale delle Aree Potenzialmente Idonee, ossia di tutti i luoghi che non vengono esclusi dai criteri di rischio; ne sono state identificate 67;
  • il terzo passo è quello della Consultazione Pubblica[6], che prevede la discussione trasparente, pubblica, con i portatori di interesse – gli stakeholder – ossia «tutti i soggetti interessati alla realizzazione e all'esercizio del deposito, inclusi i comuni in cui potrebbero essere localizzati, le regioni coinvolte, le associazioni ambientaliste e i cittadini residenti nelle aree interessate» che possono sollevare osservazioni e obiezioni ed inserire ulteriori criteri di esclusione; a questa discussione segue la definizione della Carta delle Aree Idonee - CNAI, cioè le 51 aree non escluse a seguito della Consultazione Pubblica.
  • la CNAI deve, poi, essere approvata dal Ministero dell’Ambiente e della Sicurezza Energetica, con una Valutazione Ambientale Strategica
  • una volta compiuta la VAS, è previsto di raccogliere le candidature «volontarie e non vincolanti» di Regioni e di Enti locali ad ospitare il Deposito; in caso di più manifestazioni di interesse viene stilata una graduatoria di idoneità e il MASE cerca un’intesa per definire l’accordo di collocazione. Ove non fosse raggiunta un’intesa è previsto che si avvii un processo interistituzionale che definisce per decreto il sito di realizzazione.

UNO, NESSUNO E CENTOMILA

UNO: il processo di localizzazione delineato da Sogin, al cui nucleo c’è la Consultazione Pubblica, prevista per garantire gli spazi di discussione, l’espressione delle obiezioni e delle osservazioni da parte di tutti - davvero tutti, a partire dagli enti locali fino ai singoli cittadini – ha il fine di trovare una sola area in cui costruire il Deposito.

NESSUNO: il processo, però, dopo quasi un anno di lavori – dal 5 gennaio al 15 dicembre 2021 – non ha avuto successo: nessun Ente locale, fatto salvo per il Comune di Trino Vercellese che però non fa parte delle Aree Idonee, ha manifestato interesse ad ospitare il deposito;

CENTOMILA: dopo alcuni mesi, il Ministro dell’Ambiente ha dichiarato che il progetto di collocazione unica è stato mandato in pensione e che l’opzione da percorrere è – sostanzialmente - quella della distribuzione dei rifiuti negli attuali depositi temporanei, ovviamente con opportune opere di adeguamento ai criteri di sicurezza a lungo termine.

TRE CONTROVERSIE

Si delineano – in questa storia - tre controversie in cui gli attori sono: la popolazione (rappresentata perlopiù dagli enti locali), le tecnoscienze, il cui rappresentante principale è Sogin, con i progettisti del Deposito e – infine – la dimensione politica, rappresentata dal Governo e dal suo Ministro Pichetto Fratin.

Le poste in gioco più significative sono quattro: la sicurezza della popolazione e dell’ambiente, ossia il rischio di emissioni e contaminazioni radioattive, l’efficienza economica e finanziaria nel processo di realizzazione e gestione del deposito, la necessità di prendere una decisione e, ultima, inattesa posta, l’opportunità economica e di sviluppo legata alla realizzazione del deposito, o dei depositi.

La prima controversia è tra le tecnoscienze e la popolazione, e si gioca nel corso della Consultazione popolare sulla diversa percezione di sicurezza: le tecnoscienze fanno leva sulla validità della progettazione, sulle evidenze disciplinari, sulle valutazioni di minimo rischio e sulla necessità di fare l’opera in tempi utili. E, nel corso della discussione, non cedono di un passo; la popolazione percepisce diversamente il rischio, ha paura, non considera la dimensione quasi esclusiva dei rifiuti a bassa intensità di origine medicale, associa nucleare alle centrali messe al bando con i referendum del 1987 e del 2011. E si arrocca in una posizione NIMBY, Not In My Back Yard.

La seconda controversia è tra le tecnoscienze e la dimensione politica: ancora una volta Sogin e i progettisti insistono sulle ragioni pratiche ed economiche dell’unicità del sito. La politica, il governo, invece, vede lo stallo - che si è creato per la mancanza di candidati - come un problema oggettivo da risolvere e aggiunge alla propria assiologia la possibilità di estendere l’opportunità economica, quella della creazione di posti di lavoro e di indotto produttivo, che si moltiplicano con l’opzione di più siti. Il tema dell’efficienza degli investimenti perde rilevanza rispetto al valore dello sviluppo economico.

Complice di queste controversie è il fattore tempo che sembra essere molto dilatato, nell’ordine della decina di anni per mettere in sicurezza i siti attuali o per realizzare quello unico, di 40 anni per il deposito geologico, comunque di anni prima di far ritornare da Francia e da UK le scorie più critiche.

L’ultima controversia – implicita e non (ancora) agita - riguarda l’approccio al coinvolgimento degli stakeholder nelle decisioni tecno-scientifiche in cui è coinvolta una significativa dimensione sociale: il modello di Consultazione pubblica impostato da Sogin nel 2010 risponde a criteri di democratizzazione delle tecnoscienze e di inclusione di attori civici e popolari, non esperti, nella discussione e nel processo di decisione.

Questo processo e metodo, esteso ad un intero territorio nazionale, ha mostrato la corda e ha evidentemente mancato l’obiettivo, malgrado la mediazione di una esperta in processi partecipativi[7]; è possibile che abbia anche mostrato chiaramente i limiti delle teorie sociologiche di scienza partecipata, soprattutto di fronte alla dimensione non locale della questione.

Tuttavia, sarebbe il caso di esaminare in modo più approfondito il modo in cui è stata progettata e condotta la consultazione, con i relativi tempi e modalità di discussione, per comprendere meglio come NON è il caso di fare scienza partecipata e democratica e come si sarebbe potuto lavorare sulle aree di sovrapposizione delle rispettive posizioni valoriali.

 

 

NOTE

[1] Per approfondimenti si consiglia di consultare il sito del Deposito Nazionale, l’Inventario ISIN del 2024 e la relazione del Senato della Repubblica, XVII Legislatura, Doc. XXIII, N. 40; “Il governo non vuole più costruire un unico deposito di scorie nucleari”, Il Post, 6 maggio 2025 – che ha stimolato questa riflessione

[2] pari a un cubo di circa 7 metri di lato

[3] Per avere un’idea, 30.000 m3 occupano un’area pari a un campo da calcio con uno spessore di 4 metri

[4] Fino a pochi anni fa questo costo era sostenuto dagli utilizzatori privati e non di energia elettrica, come “oneri di sistema”

[5] Cfr. Ispra, Guida tecnica N. 29

[6] La Consultazione pubblica, realizzata tra gennaio e dicembre 2021, ha incluso il Seminario Nazionale sulla CNAPI, svoltosi tra settembre e la fine di novembre dello stesso anno, con 10 sessioni pubbliche tra plenarie e regionali, di 1-2 giornate ciascuna. Tutti i documenti e gli streaming sono reperibili qui.

[7] Si tratta di Iolanda Romano, Architetta e Dottoressa di ricerca in Pianificazione Territoriale


Cibo in cambio di impronte retiniche. Israele e gli algoritmi dell’oppressione e dello sterminio

In Cloud di guerra, ho documentato l’uso dell’intelligenza artificiale nel conflitto in corso a Gaza – e con modalità differenti in Cisgiordania – evidenziandone le drammatiche conseguenze. Da allora, nuovi dati rivelano che Israele ha sviluppato ulteriori strumenti per consolidare la sua guerra contro Hamas.

Le inchieste condotte da +972 Magazine, Local Call e The Guardian nel 2024, hanno rivelato che Israele ha sviluppato sofisticati strumenti per condurre la guerra contro Hamas, tra i quali l’algoritmo di apprendimento automatico Lavender, utilizzato fin dall’inizio del conflitto, e ora perfezionato, senza mettere in conto le lateralità degli attacchi. L’utilizzo di Lavender ha avuto un ruolo centrale nell’individuazione di almeno 37.000 obiettivi, molti dei quali colpiti in operazioni che hanno causato migliaia di vittime civili..

CAVIE SEMANTICHE: QUANDO ANCHE LA LINGUA VIENE PRESA IN OSTAGGIO

Una nuova inchiesta di +972 Magazine, Local Call e The Guardian, pubblicata lo scorso 6 marzo 2025, ha rivelato che Israele ha messo a punto un nuovo modello linguistico, simile a ChatGPT, costruito esclusivamente su conversazioni private dei palestinesi in Cisgiordania: milioni di messaggi WhatsApp, telefonate, email, SMS intercettati quotidianamente. Un LLM (Large Language Model) alimentato non da testi pubblici, ma da frammenti intimi di vita quotidiana.

Idiomi, inflessioni, silenzi: ogni sfumatura linguistica diventa materia prima per addestrare strumenti di controllo predittivo.

I palestinesi diventano cavie semantiche, banchi di prova per armi algoritmiche progettate per prevedere, classificare, colpire. L’inchiesta dimostra come l’IA traduca automaticamente ogni parola in arabo captata nella Cisgiordania occupata, rendendola leggibile, tracciabile, archiviabile, riproducibile.

Non è solo sorveglianza: è architettura linguistica del dominio, fondata sulla violazione sistematica della dimensione personale e soggettiva della popolazione palestinese.

L’I.A. MILITARE ISRAELIANA IN AZIONE: IL CASO IBRAHIM BIARI

Un’inchiesta del New York Times riporta la testimonianza di tre ufficiali americani e israeliani sull’utilizzo, per localizzare Ibrahim Biari, uno dei comandanti di Hamas ritenuti responsabili dell’attacco del 7 ottobre, di uno strumento di ascolto delle chiamate e di riconoscimento vocale, integrato con tecnologie I.A. e sviluppato dall’Unità 8200[1] in un team che conta anche sulla collaborazione di riservisti impiegati in importanti società del settore. Airwars [2] documenta che, il 31 ottobre 2023, un attacco aereo guidato da queste informazioni ha ucciso Biari e, anche, più di 125 civili.

La precisione apparente dell’IA ha mostrato i suoi limiti etici e umani: la ratio militare si nasconde dietro la presunta precisione chirurgica degli attacchi e oggettività disumanizzata delle identificazioni degli obiettivi, per giustificare un rapporto obiettivo/ danni collaterali che include uccisioni di massa.

GAZA: LABORATORIO MONDIALE DELL’I.A. MILITARE

Israele sembra essere, di fatto, l’unico Paese al mondo ad aver sperimentato l’intelligenza artificiale in un contesto bellico reale, in cui Gaza svolge il ruolo di cavia e il campo di operazioni quello di laboratorio.

L’israeliana Hadas Lorber, fondatrice dell’Institute for Applied Research in Responsible AI, ha ammesso che la crisi israeliano-palestinese innescata il 7 ottobre ha intensificato la collaborazione tra l’Unità 8200 e i riservisti esperti di tecnologie, e accelerato l’innovazione, portando a “tecnologie rivoluzionarie rivelatesi cruciali sul campo di battaglia (di Gaza)”. Ha, però, anche ricordato che l’IA solleva “serie questioni etiche”, ribadendo che “le decisioni finali devono restare in mano umana”.

Ma la retorica non regge l’urto dei fatti:

  • la portavoce dell’esercito israeliano ribadisce l’“uso lecito e responsabile” delle tecnologie, ma – per ragioni di sicurezza nazionale - non può commentare nulla di specifico,
  • il CEO di Startup Nation Central[3], ha confermato il nodo: i riservisti delle big tech sono ingranaggi chiave dell’innovazione militare. Un esercito che da solo non avrebbe mai raggiunto tali capacità ora punta all’invisibilità del dominio algoritmico.
  • le multinazionali della tecnologia dalle cui fila provengono molti artefici degli strumenti israeliani, tacciono o – discretamente - prendono le distanze da quello che sembra essere un tessuto di conflitti e intrecci di interessi tra l’industria bellica e l’innovazione tecnologica che permea il nostro presente e modella il nostro futuro;
  • Silicon Valley, cybersecurity, intelligenza artificiale, piattaforme cloud sembrano essere strumenti di facilitazione e, nello stesso tempo, di controllo di massa mutato in arma[4].

CIBO IN CAMBIO DI IMPRONTE DELLA RÈTINA

Se l’intelligenza artificiale può decidere chi uccidere, può anche decidere chi sopravvive?

La domanda non è più speculativa.

A Gaza l’ultima frontiera è “umanitaria”: l’IA governa la carità. Secondo una recente proposta fatta da Washington in accordo con Israele — rigettata il 15 maggio 2025 dalle Nazioni Unite — per accedere agli aiuti alimentari sarà necessario il riconoscimento facciale.

Il piano, ideato dalla Gaza Humanitarian Foundation (GHF) [5], sembra prevedere la privatizzazione della distribuzione del cibo attraverso contractor statunitensi ed ex agenti dell’intelligence e la creazione di hub biometrici, presidiati da forze armate private, dove il pane si baratta col volto, le razioni e la vita con le impronte digitali e retiniche. Con la giustificazione di evitare infiltrazioni di Hamas, l’accesso agli aiuti sarà regolato da algoritmi e sistemi di riconoscimento facciale.

Dietro l’apparenza umanitaria, la struttura e la governance sembrano rivelare un’operazione affidata ad un attore para-militare che rischia di trasformare il soccorso in un ulteriore strumento di dominio.

Lo scenario è quello di una carità condizionata, tracciata, selettiva: una “umanità filtrata”, dove l’identità digitale rischia di precedere il bisogno, e l’accesso al pane dipendere dall’accettazione della sorveglianza.

Gaza sembra confermarsi come un laboratorio d’avanguardia: non solo per testare armi, ma per sperimentare nuovi modelli di apartheid tecnologico, di ostaggi biometrici, in cui sembra valere il principio che l’aiuto debba essere concesso solo a persone “note per nome e volto”, violando i principi di neutralità umanitaria e trasformando la fame in strumento di controllo identitario.

L’INDIGNAZIONE (SOLITARIA) DELLE ONG

UNICEF, Norwegian Refugee Council e altri attori umanitari hanno denunciato il piano GHF come un ulteriore controllo forzato della popolazione, destinato a produrre nuovi spostamenti, disgregazioni, traumi. È – secondo le ONG che vi si oppongono - il passaggio finale di un processo già in corso: i tagli ai fondi ONU, la delegittimazione dell’UNRWA, che ha giudicato i piani di controllo totale degli aiuti umanitari «una distrazione dalle atrocità compiute e uno spreco di risorse», la sostituzione della diplomazia con le piattaforme, della compassione con l’identificazione biometrica[6].

ETICA E IA: ULTIMA CHIAMATA

Questo intreccio tossico tra business, guerra, aiuti umanitari e sorveglianza apre un precedente pericolosissimo. Non solo per i palestinesi, ma per ogni società che oggi è costretta a negoziare tra sicurezza e diritti fondamentali. Dove la privacy è già fragile, nelle mani di chi governa col terrore tecnologico si riduce a nulla. L’Unione Europea e gli Stati Uniti devono scegliere da che parte stare: restare in silenzio significa legittimare pratiche tecnologiche sterminatrici e diventare complici di un genocidio.

Una volta di più si profila l’occasione per l’Unione Europea di ritagliarsi un ruolo per riportare al centro del dibattito i suoi valori e i principi fondativi, denunciando l’abuso, pretendendo trasparenza sui legami tra eserciti e industrie tech, imponendo una regolamentazione internazionale stringente sull’uso dell’intelligenza artificiale in contesti di guerra[7].

Favorendo, soprattutto, una presa di coscienza collettiva che rimetta al centro la dignità umana e i diritti inalienabili, prima che queste macchine diventino i complici silenziosi e apparentemente oggettivi di dominio e di sterminio.

 

 

 

NOTE

[1] L'Unità 8200 è una unità militare delle forze armate israeliane incaricata dello spionaggio di segnali elettromagnetici (SIGINT, comprendente lo spionaggio di segnali elettronici, ELINT), OSINTdecrittazione di informazioni e codici cifrati e guerra cibernetica. (Wikipedia, Unità 8200)

[2] Airwars è una organizzazione non-profit di trasparenza e di controllo che investiga, traccia, documenta e verifica le segnalazioni di danni ai civili nelle nazioni teatro di confitti armati.

[3] Startup Nation Central è un’azienda israeliana, che si autodefinisce “filantropica”, dedicata a valorizzare «l’unicità dell’ecosistema tecnologico di Israele e le soluzioni che questo offre per affrontare alcune delle sfide più pressanti che si presentano al mondo»

[4] Alberto Negri, giornalista de Il Manifesto, ha definito questo intreccio il “complesso militare-industriale israelo-americano”

[5] Sostenuta dall’amministrazione Trump e dal governo israeliano, la Gaza Humanitarian Foundation (GHF) nasce con l’obiettivo dichiarato di aggirare le agenzie umanitarie delle Nazioni Unite – in particolare l’UNRWA, già delegittimata e accusata da Israele di favorire indirettamente Hamas – per gestire direttamente una delle più vaste operazioni di soccorso nella Striscia: oltre 300 milioni di pasti in 90 giorni. Il piano, ufficialmente bloccato dall’ONU, non è stato archiviato. Anzi, alcuni test pilota sono già in corso nel sud della Striscia.

Fondata nel febbraio 2025, la GHF si presenta come una non-profit, ma la sua composizione solleva più di un sospetto per la presenza di ex ufficiali militari statunitensi, contractor della sicurezza privata e funzionari provenienti dalle ONG. Il piano della GHF prevede la creazione di quattro “Secure Distribution Sites” (SDS) nel sud della Striscia, ognuno destinato a servire 300.000 persone, con l’obiettivo di coprire progressivamente l’intera popolazione di Gaza. Se dovesse assumere il controllo totale della distribuzione, la fondazione arriverebbe a gestire risorse paragonabili – se non superiori – a quelle delle agenzie ONU. Il solo Flash Appeal 2025 prevede un fabbisogno minimo di 4,07 miliardi di dollari, con una stima ideale di 6,6 miliardi.

Il budget iniziale della GHF si aggira attorno ai 390 milioni di dollari, provenienti in larga parte dagli Stati Uniti. Ma sono proprio la mancanza di trasparenza sulle fonti di finanziamento e le criticità operative a sollevare allarmi..

[6] Il modello, del resto, era già stato testato: l’app israeliana Blue Wolf, in Cisgiordania, cataloga da tempo ogni volto palestinese in un enorme database per facilitare i controlli militari. Ora, lo stesso meccanismo si replica a Gaza sotto la forma di “aiuto”.

[7] Invece di promuovere una regolamentazione stringente, l’Unione Europea continua a favorire — direttamente o indirettamente — lo sviluppo di armi basate sull’I.A., collaborando con i fautori dell’innovazione bellica israeliana– e, chissà, di altri Paesi; rapporti del Parlamento Europeo (2024) e analisi di EDRi (European Digital Rights, 2025) mostrano come numerose imprese europee – tra cui startup e colossi del tech – intrattengano rapporti con l’Israel Innovation Authority, l’agenzia governativa che finanzia queste “innovazioni” in nome di una cooperazione tecnologica presentata come neutra, ma che di neutro non ha più nulla.

 


Tucidide e lo smartphone – Verità autoptica svelata dalle tecnologie quotidiane

TUCIDIDE E L’AUTOPSIA

In greco antico autopsia (αύτος, stesso + οψίς, vista) significa “vedere con i propri occhi” e, in senso esteso, “visione diretta” di un fenomeno.

Tucidide,  storico greco del V secolo A.C., nella sua narrazione della Guerra del Peloponneso, adottò il vedere con i propri occhi[1] come criterio di attendibilità storica: «la vista dello storico è infallibile» (I, 22, 2), «il risultato di quella degli altri va sottoposto al vaglio della comparazione critica» (cit., ibidem).

Per compiere opera di verità[2], Tucidide dava per vero solo ciò a cui aveva personalmente assistito o che era stato visto con i loro occhi da persone che considerava attendibili. Si fidava solo dell’αύτοψία, appunto.

EVIDENZA INCONTROVERTIBILE DI UN MASSACRO

Il 30 marzo 2025, nel distretto di al-Hashashin di Rafah, la città più a sud di Gaza, l’Ufficio per il Coordinamento degli Affari Umanitari (OCHA - Office for the Coordination of Humanitarian Affairs) rinviene, sepolti sotto la sabbia in una fossa comune, i corpi di 14 paramedici e soccorritori della Protezione Civile, palestinesi, che operavano sotto le insegne della Mezzaluna Rossa e di un funzionario dell’ONU. (IFRC - International Federation of Red Cross and Red Crescent Societies)

A breve distanza, vengono ritrovati i resti di 5 ambulanze della Croce Rossa e di un veicolo dei pompieri.

I morti presentano i segni di spari esplosi a brevissima distanza nella testa e nel torace. Sono ancora vestiti con le tute e i giubbotti con le strisce riflettenti di riconoscimento delle unità sanitarie e di soccorso.

Del convoglio di cui facevano parte si era perso il contatto radio il giorno 23 marzo.

Tucidide non avrebbe nulla da dire, su questi elementi storici: sono tutti – tristemente – visti con i propri occhi dal personale della IFRC e dell’OCHA intervenuto sul posto.

RICOSTRUZIONE DEI FATTI E CONTROVERSIA

L’OCHA ricostruisce che:

«I corpi […] e i veicoli di soccorso – chiaramente identificabili come ambulanze, camion dei pompieri e automobile delle Nazioni Unite – sono stati colpiti dalle forze israeliane e poi nascosti sotto la sabbia»[3]

Secondo J. Whittall, capo dell’OCHA nella Striscia di Gaza,

«le persone uccise domenica scorsa si trovavano a bordo di cinque ambulanze e di un camion dei pompieri e si stavano dirigendo verso una zona bombardata dall’esercito israeliano. I mezzi sono stati colpiti dal fuoco israeliano sebbene fossero visibilmente segnalati come veicoli di soccorso, e lo stesso è successo con un’automobile dell’ONU arrivata poco dopo»[4]

Dalle ferite trovate sui corpi, la ricostruzione suggerisce che i militari israeliani abbiano sparato ai soccorritori a distanza ravvicinata.

L’esercito israeliano ammette[5], dopo alcuni giorni, la propria responsabilità e diversi errori ma sostiene che:

  • gli errori siano dipesi dalla scarsa visibilità notturna (riportato in corsivo perché è rilevante);
  • distruggere le ambulanze e seppellire i corpi servisse a metterli al riparo e sgomberare la strada;
  • l’attacco fosse comunque giustificato dalla presenza di membri di Hamas.[6]

AUTOPSIA E VERITÀ: IL RUOLO DI UNA TECNOLOGIA QUOTIDIANA

Tucidide non ammetterebbe al rango di verità che nel convoglio ci fossero dei membri di Hamas: non l’ha visto né provato nessuno. Lo stesso vale per la necessità di distruggere le ambulanze al fine di metterle al riparo e a liberare il percorso: è un’opinione soggettiva, incontestabile ma – nello stesso tempo – inammissibile nella narrazione storica.

Invece, che ci fosse scarsa visibilità è una falsità evidenziata dal ritrovamento dello smartphone di una delle vittime.

Tra i documenti nello smartphone c’è - infatti - un filmato in cui si vede (e si sente) chiaramente che il convoglio si muoveva con i lampeggianti di segnalazione accesi e le sirene in funzione; che il personale vestiva – come, d’altra parte, è stato testimoniato dal ritrovamento dei corpi – l’abbigliamento di riconoscimento; che l’attacco è stato effettuato nonostante tutto questo; e che i colpi sono stati esplosi da vicino.[7]

Lo smartphone ha svolto, in questo caso il ruolo di agente autoptico: è stato il testimone oculare desiderato da Tucidide e il video è la vera e propria αύτοψία dell’accaduto.

L’ αύτοψία per mezzo di una tecnologia quotidiana ha permesso agli osservatori di compiere opera di verità e smentire le menzogne delle forze armate israeliane, che cercano di nascondere – come è, a questo punto, evidente anche dal tentativo di velare le prove fisiche sotto la sabbia – il massacro di persone intoccabili per statuto internazionale, quali sono gli operatori di soccorso e quali dovrebbero essere i civili.

D’altra parte, è anche grazie alle tecnologie della televisione con tutti i suoi apparati di comunicazione che siamo tutti testimoni oculari, agenti autoptici di una guerra combattuta soprattutto contro la popolazione civile.

Guerra di cui – senza queste tecnologie – con elevata probabilità, non conosceremmo nulla.

Tucidide sarebbe soddisfatto: la verità – termine a lui molto caro – emerge in virtù di una αύτοψία, tecnologica.

 

 

NOTE

[1] Erodoto, in realtà, fu il primo a pensare che “vedere con i propri occhi” fosse il principale criterio di verità storica.

[2] Cfr. L. Canfora, Prima lezione di storia greca, Laterza, 2023 e Tucidide. La menzogna, la colpa, l’esilio, Laterza, 2016

[3] Cfr. https://www.facebook.com/watch/?v=2189635674800875, traduzione mia

[4] Cfr.: Il Post, Lunedì 31 marzo 2025

[5] Cfr.: Il Post, 20 aprile 2025 e New York Times, 20 aprile 2025

[6] La presenza di membri di Hamas non è provata in alcun modo, come in molti altri casi di attacchi israeliani contro aree ed edifici civili. Non c’è traccia di testimonianza né oculare

[7] Cfr. ancora https://www.facebook.com/watch/?v=2189635674800875


Stabilizzare il farmaco, stabilizzare la biomedicina - Reciproche catture tra medici e vaccini

Se l’instabilità del pharmakon non è un nostro problema, quel che sembra distinguerci al contrario […] è l’intolleranza della nostra tradizione di fronte a questo tipo di situazione ambigua e l’angoscia che suscita. È necessario un punto fermo, un fondamento, una garanzia. È necessaria una differenza stabile tra il medicamento benefico e la droga malefica, tra la pedagogia razionale e il condizionamento suggestivo, tra la ragione e l’opinione” (Stengers, 2005: 40-41)

 

Se volessimo analizzare la farmacovigilanza tenendo in considerazione le parole di Stengers qui in epigrafe, potremmo ritenerla uno strumento volto a stabilizzare farmaci: distinguere vantaggi e pericoli sembra essere obiettivo precipuo di questa pratica. Ciò è ancor più evidente se ci riferiamo alla vaccinovigilanza. Scindere ciò che è benefico da ciò che risulta dannoso appare particolarmente opportuno nel caso dei vaccini: anche i documenti ufficiali rilevano che, in questo caso, “poiché la popolazione target è rappresentata prevalentemente da soggetti sani, per la maggior parte di età pediatrica, il livello accettabile di rischio è inferiore a quello degli altri prodotti medicinali. […] Queste peculiarità dei vaccini rendono necessarie attività di farmacovigilanza post-marketing che vadano oltre quelle routinarie, al fine di monitorare e valutare adeguatamente gli eventuali rischi” (AIFA, 2017:4). Tuttavia, nonostante i vaccini siano considerati tra i prodotti più controllati nel panorama farmacologico, abbiamo già avuto modo di esplorare come le pratiche di vaccinovigilanza siano dispositivi socio-culturali complessi (Lesmo, 2025).

Di fatto, i dubbi in merito a possibili correlazioni causali tra alcuni vaccini e determinati eventi avversi sembrano affiorare tra i professionisti. Nel corso della ricerca etnografica da me condotta sul tema tra il 2017 e il 2021, è emerso come diversi medici abbiano preso in considerazione in più occasioni questa ipotesi. Ciò è stato rilevato in vario modo. Non solo alcuni di essi hanno suggerito ai genitori di bambini con possibile danno da vaccino l’ipotesi di una correlazione, per poi spesso negarla dopo poco (secondo quanto i genitori mi hanno riferito).  La presenza di simili “dubbi” è stata poi esplicitata direttamente da alcuni medici da me intervistati, che ne hanno approfondito criticità e problematiche durante i colloqui. Oltre a queste testimonianze di prima mano,  alcuni libri,  pubblicazioni e lettere scritte da medici specialisti hanno proposto pubblicamente di re-interrogare la sicurezza e/o l’efficacia delle pratiche vaccinali in corso. Alcuni tra questi professionisti sono stati in seguito interpellati, richiamati, sospesi o finanche radiati dai rispettivi ordini, evidenziando una zona di tensione particolarmente evidente che intercorre tra il sapere vaccinale e la pratica medico-clinica. È dunque estremamente rilevante interrogare la relazione complessa che lega vaccinazioni, pratica biomedica e professionisti della cura. Come si costruiscono vicendevolmente questi rapporti? Quali obiettivi, più o meno consapevoli, essi si prefiggono?

“UNKNOWN KNOWNS”: CONOSCENZE SCONOSCIUTE

Bisogna però dire che attualmente le indicazioni della medicina occidentale accademica hanno una tendenza a non mettere in correlazione patologie avverse con la vaccinazione, proprio perché la tendenza è quella di dare un valore solo positivo alla vaccinazione escludendo tutti gli elementi negativi.

Questo è quanto afferma un medico da me intervistato quando riflettiamo insieme sul rapporto rischio/benefici associati ai vaccini. L’esclusione di alcuni elementi dalle pratiche di costruzione del sapere è un elemento intrinseco ad ogni epistemologia. Se già Foucault (2004) aveva illustrato come molteplici procedure di esclusione agissero nel dare consistenza a un discorso, conferendogli uno statuto di verità attraverso interdetti, evitamenti ed elisioni, questi temi sono stati ri-articolati successivamente da molti altri studiosi. Tra questi, l’antropologo Michael Taussig si è riferito al “lavoro del negativo” per evidenziare come “sapere che cosa non sapere” sia un passaggio fondamentale in molti processi socio-culturali oltre che epistemologici. Secondo quanto osserva Taussig, il “lavoro del negativo” nei singoli contesti di riferimento è così profondo che “pur riconoscendolo, pur nello sforzo di liberarci dal suo abbraccio vischioso cadiamo in trappole ancora più insidiose che ci siamo autocostruiti” (Taussig, 1999:6). Difficile è dunque acquisire consapevolezza in merito a talune esperienze note eppur sottese, che a volte fondano vere e proprie imprese epistemiche e sociali. Geissler, antropologo sociale, ha ripreso nei suoi studi il concetto ossimorico di “conoscenze sconosciute” [“unkwnown knowns”] (Geissler, 2013: 13) per evidenziare quanto queste possano talvolta aprire la strada a determinate pratiche di ricerca e/o di cura: il confine tra sapere e non-sapere risulta così estremamente labile.

Anche in ambito vaccinale sembra che alcune esperienze vengano talvolta “espulse” dall’orizzonte conoscitivo - quasi sulla soglia della consapevolezza - per rendere le pratiche di immunizzazione possibili. Una pediatra intervistata, con cui riflettiamo sulle posizioni discordanti sul tema in ambito biomedico, mi spiega:

Allora, ci sono secondo me alcuni vaccini su cui… effettivamente ci può essere una discussione, perché effettivamente non mettono a rischio la società, no? Ci sono dei vaccini invece per cui questa cosa qua si mette a maggior rischio e allora… […] Ci sono dei caposaldi che… che secondo me sono intoccabili.

In questo frammento di discussione, parte di uno scambio molto lungo e articolato, la pediatra evidenzia come certi dubbi non possano essere sollevati – a meno che non siano già sostanziati da studi scientifici solidi ed epidemiologicamente fondati. I dubbi così sommersi - questi sospetti silenziati - sembrano in qualche misura concretarsi anche nell’eliminazione simbolica, operata attraverso sanzioni disciplinari di vario genere, dei medici che tentano di palesarli. Quando interpellata in merito a tali sanzioni, un’altra pediatra intervistata ha ribadito come ciò fosse indispensabile, e finanche rassicurante, poiché la vaccinazione “è la base della medicina moderna” e “se un medico non crede ai vaccini, soprattutto un pediatra – e soprattutto alle vaccinazioni pediatriche… forse ha sbagliato campo”.

STABILIZZARE IL SAPERE BIOMEDICO

Per molti professionisti della cura, dunque, la fiducia nella vaccinazione sembra essere precondizione della stessa professione medica. Ciò è stato spesso attribuito al particolare statuto che le vaccinazioni risultano avere in biomedicina: per riprendere le espressioni qui proposte, esse sarebbero un “caposaldo”, se non “la base della medicina stessa”. Sembra così adeguato riprendere quanto asserito da Isabelle Stengers (2005) in relazione alla stabilizzazione di un sapere, che si intreccia saldamente con ciò che la studiosa definisce “reciproca cattura”, o “inter-presa”. La “reciproca cattura” è quel legame che vincola due entità attraverso la creazione di un valore reciproco. Secondo Stengers, tale cattura si attiva nel momento in cui due identità si costruiscono e si legittimano vicendevolmente. In questo caso il ruolo del medico sembra consolidarsi anche in base alle considerazioni che egli associa ai vaccini: sostenere sicurezza ed efficacia delle vaccinazioni in uso – “credere” nei vaccini come asserito più sopra – dimostra la competenza e la credibilità dei professionisti. Nel contempo, tuttavia, le pratiche vaccinali sono rinsaldate proprio dalla fiducia accordata loro dai medici, le cui competenze ne garantiscono l’affidabilità. Ciò produce un’ulteriore antinomia: i medici – ossia gli specialisti competenti che potrebbero eventualmente porre dubbi sui vaccini - non riescono a farlo, pena la perdita della propria credibilità sul campo. Questa circolarità non è però priva di uno scopo: come si può desumere dalle considerazioni sopra proposte, essa assolve un compito ben preciso, ossia la stabilizzazione del ruolo dei vaccini, attraverso la rimozione dell’ambivalenza ad essi intrinseca: scindendo, cioè, il potere di proteggere da quello di ferire. Se poi il vaccino diviene espressione del successo biomedico, allora è la biomedicina tutta che viene in questo modo rinsaldandosi. Come osserva Stengers, tuttavia, proprio l’“ossessione di differenziazione che ci contraddistingue” (ivi:43) può divenire pericolosa: essa rischia di conferire a certi oggetti epistemici “un potere che non hanno” (ibidem). Rilevare ed esplorare il “lavoro del negativo” in opera diviene dunque cruciale per cogliere le forme di “instabilità” esistenti e trovare modi alternativi di relazionarvisi.

 

 

BIBLIOGRAFIA

AIFA, 2017, “La vaccinovigilanza in Italia: ruolo e obiettivi”, https://www.aifa.gov.it/sites/default/files/La_Vaccinovigilanza_in_Italia_18.04.2017.pdf

Foucault M., 2004, L'ordine del discorso e altri interventi, Torino: Einaudi.

Geissler P. W., 2013, Public Secrets in Public Health: Knowing not to Know while Making Scientific Knowledge, “American Ethnologist”, Vol. 40 (1):13-34.

Lesmo I, 2025, “Ecologie delle evidenze in vaccinovigilanza: quali esperienze (non) si trasformano in conoscenza?”, Controversie-Ripensare le scienze e le tecnologie, 2025,4, https://www.controversie.blog/vaccinovigilanza/

Stengers, I., 2005, Cosmopolitiche, Roma: Luca Sossella Editore.

Taussig M., 1999, Defacement: Public Secrecy and the Labor of the Negative, Stanford University Press, Stanford.


Cloud di guerra - Militarizzazione dell’intelligenza artificiale e implicazioni etiche

Lo scorso 10-11 febbraio 2025, al Grand Palais di Parigi, si è svolta la terza edizione dell'Artificial Intelligence Action Summit, che ha riunito capi di Stato, leader di organizzazioni internazionali, CEO di aziende, accademici e rappresentanti della società civile per discutere delle sfide e opportunità legate all'intelligenza artificiale. Tuttavia, dietro il clamore di questa ‘tempesta di cervelli’, emerge il ritratto frammentato di un mondo sospeso tra promesse di innovazione e ombre inquietanti. I temi centrali? Il declino economico dell'Occidente, la crescente competizione con il modello cinese e la corsa dell'Europa a recuperare terreno.

Le iniziative proposte sono ambiziose, ma, a un’analisi più approfondita, si rivelano spesso incomplete o rischiano di sostenere progetti che, se non adeguatamente controllati, potrebbero alimentare il controllo centralizzato e accentuare la disuguaglianza globale. Con un fondo di 2,5 miliardi di euro destinato ad accelerare la crescita dell’IA open-source nei paesi in via di sviluppo e il lancio di 35 sfide globali legate agli obiettivi di sviluppo sostenibile, il summit ha fatto appello alla cooperazione internazionale. Tuttavia, dietro queste dichiarazioni, si nasconde il rischio di un vuoto di responsabilità, che la crisi economica che sta colpendo l’Europa amplifica, mettendo in dubbio l’effettivo impegno di Bruxelles. Nel frattempo, Donald Trump, con il suo progetto Stargate da 500 miliardi di dollari, si propone come un attore già consapevole di come l’IA possa essere utilizzata per il dominio economico e militare.

La realtà dell’intelligenza artificiale, tuttavia, non coincide con la visione futuristica di progresso che viene presentata, ma con le sue applicazioni concrete. Già adesso, l’IA non si limita più a gestire dati: li manipola. È questo il paradosso: quella che viene definita “Intelligenza Artificiale” è, in realtà, un inganno semantico che maschera la nostra ignoranza sull’intelligenza naturale, la nostra. Eppure, questa ‘non-intelligenza’ sta già scrivendo la storia di intere generazioni presenti e future.

I GIGANTI DEL TEC

Un’assenza allarmante ha contraddistinto il Summit: nessun accenno al vero volto dell'IA, quello che alimenta la macchina da guerra. Due inchieste del Washington Post (https://www.washingtonpost.com/technology/2025/01/21/google-ai-israel-war-hamas-attack-gaza/) e di The Guardian (https://www.theguardian.com/world/2025/jan/23/israeli-military-gaza-war-microsoft), hanno rivelato il coinvolgimento diretto di giganti tecnologici come Google, Amazon e Microsoft nella fornitura di tecnologie IA all’esercito israeliano durante l'offensiva a Gaza. Non si tratta più di semplici contratti commerciali, ma di un sostegno diretto alla macchina da guerra, che ha contribuito alla morte di migliaia di civili. L'accordo sul Progetto Nimbus, da 1,2 miliardi di dollari, firmato nel 2021, nasconde un collasso etico: Microsoft, pur avendo inizialmente perso la gara, si è successivamente integrata nel progetto, rafforzando la rete di sorveglianza e targeting.

Le inchieste raccontano come i prodotti di Google e Microsoft siano stati impiegati a partire dal 7 ottobre 2023 e come il loro utilizzo sia stato direttamente coinvolto nello sterminio dei palestinesi e nei crimini di guerra commessi nella Striscia di Gaza. Lanciato da Israele nel 2019 come un innocuo cloud computing destinato a modernizzare le infrastrutture digitali del paese, il Progetto Nimbus ha invece fornito all’esercito israeliano capacità avanzate di intelligenza artificiale. "Ampliare lo schema israeliano di sorveglianza, profilazione razziale e altre forme di violazione dei diritti umani assistite dalla tecnologia", così lo descriveva Ariel Koren, ex marketing manager di Google, nel 2022, che ha preferito dimettersi piuttosto che accettare la deriva immorale dell’azienda.

Google sostiene che "non è rivolto a carichi di lavoro altamente sensibili, classificati o militari rilevanti per armi o servizi segreti". Le inchieste dimostrano il contrario: Google e Amazon hanno accettato di personalizzare i loro strumenti su richiesta delle forze armate israeliane, potenziando la loro capacità di sorveglianza e identificazione degli obiettivi. Durante l’offensiva di Gaza dell'ottobre 2023, la piattaforma di intelligenza artificiale Vertex di Google è stata utilizzata per elaborare enormi set di dati per "previsioni", in cui gli algoritmi analizzano modelli comportamentali e metadati per identificare potenziali minacce.

A sostegno delle inchieste si aggiungono le dichiarazioni di Gaby Portnoy, capo della Direzione informatica nazionale israeliana fino al 19 febbraio 2025. Secondo lui, Nimbus è destinato a rinsaldare il profondo legame tra Amazon, Google e l’apparato di sicurezza nazionale israeliano. In una conferenza del 29 febbraio 2024, Portnoy ha dichiarato che “Le aziende sono state partner per lo sviluppo di un nuovo progetto che crea un framework per la difesa nazionale”, con strumenti di sicurezza basati sul cloud che hanno “favorito la rappresaglia militare del paese contro Hamas”. A lui si deve anche l'istituzione di nuove infrastrutture di difesa avanzate, note come Cyber Dome, evoluzione dell’Iron Dome.

LAVENDER, IL LATO OSCURO DELLA GUERRA A GAZA

Un tempo la guerra era fatta da uomini. Oggi, ai tempi dei cloud, non più. Un'inchiesta di +972 Magazine e Local Call, pubblicata il 3 aprile 2024, ha svelato un altro lato oscuro della guerra a Gaza: quello dei software progettati per uccidere. È stata la prima a rivelare l’esistenza di "Lavender", un sistema utilizzato dall’esercito israeliano per identificare e colpire obiettivi palestinesi, con supervisione umana limitata. “Un programma di omicidi di massa senza precedenti che combina il targeting algoritmico con un'elevata tolleranza per la morte e il ferimento dei civili circostanti”. E che tiene traccia di quasi tutti gli abitanti di Gaza, raccogliendo input di intelligence da videoclip, messaggi provenienti da social network e analisi delle reti di comunicazione.

Sulla base dei dati raccolti, l’algoritmo è in grado di determinare se una persona è un combattente di Hamas o appartiene ad altri gruppi armati palestinesi. Dopo aver identificato gli obiettivi, con un margine di errore del 10%, i nominativi vengono inviati a una squadra operativa di analisti, i quali verificano l’identità “in un tempo massimo di 20 secondi, che di solito serve a determinare se il nome è maschile o femminile, presupponendo che le donne non siano combattenti". Nella maggior parte dei casi, a quanto pare, “quegli analisti consigliano un attacco aereo”, ritenendo il margine di errore “accettabile, date le circostanze”. Durante le prime settimane di guerra, il sistema ha segnalato oltre 37.000 individui come potenziali obiettivi.

WHERE’S DADDY?

Un altro sistema, “Where’s daddy?”, è in grado di determinare se le persone prese di mira sono a casa o fuori grazie ai loro smartphone, consentendo attacchi aerei che spesso colpiscono intere famiglie. Secondo Local Call, l’esercito israeliano preferisce colpire le persone nelle loro case, perché raggiungerle è più facile rispetto a identificarle durante l’attacco. Le famiglie degli obiettivi e i loro vicini, considerati potenziali membri di Hamas, sono visti come danni collaterali di scarsa importanza.

Un ufficiale dell’intelligence israeliana ha descritto la maggior parte delle persone prese di mira come "individui non importanti", membri di basso rango di Hamas, ma comunque considerati “obiettivi legittimi” poiché classificati come combattenti, “anche se non di grande rilievo”. Eppure, come possiamo definire “legittimi” gli oltre 18.000 bambini trucidati durante questi mesi, la maggior parte di età inferiore ai 10 anni, e le decine di migliaia di donne rimaste uccise negli attacchi? Erano anche loro membri di basso rango di Hamas?

HABSORA: L’ALGORITMO CHE DECIDE CHI VIVE E CHI MUORE

L’intelligenza artificiale sta determinando chi vive e chi muore. Un sistema AI interno, usato dall’esercito israeliano, decide chi deve essere bombardato, con margini d’errore inquietanti e una logica che trasforma i civili in numeri. Si chiama “Habsora” e ha un funzionamento semplice e spietato: il sistema monitora i volti dei palestinesi per decidere chi è “buono” e chi “cattivo”, si basa su un insieme di modelli predittivi basati sull’analisi di immagini e metadati. Risultato? Migliaia di obiettivi individuati in tempi rapidissimi, bombardamenti mirati che spesso si trasformano in carneficine. Fonti interne allo stesso esercito israeliano, intervistate da +972, hanno ammesso che il sistema non è infallibile e che il tasso di errore è alto. L’algoritmo, così, assume il ruolo di decidere chi vive e chi muore. La guerra del futuro è già iniziata.

LA CATENA DI MORTE ACCELERATA

Un’indagine di Middle East Eye ha rivelato un ulteriore aspetto inquietante: l’automazione della guerra ha abbassato le soglie di tolleranza per le vittime civili. Secondo il Washington Post, l’IDF è passato da attacchi mirati a una logica di saturazione: eliminare cento obiettivi con un solo colpo è preferibile a rischiare di perdere anche uno solo. Questi strumenti mostrano come l'intelligenza artificiale venga usata come arma contro i civili, sollevando dubbi sul rispetto del diritto umanitario internazionale. Dopo il 7 ottobre, l’esercito israeliano ha adottato strumenti innovativi per selezionare obiettivi, distogliendosi dai leader armati. Una scelta che “rappresenta un pericoloso nuovo orizzonte nell’interazione uomo-macchina nei conflitti”

La militarizzazione dell’IA non è confinata ai conflitti: molte delle tecnologie impiegate a Gaza, come i sistemi di identificazione biometrica, sono stati inizialmente sviluppati in Occidente, e continuano a essere impiegati globalmente per "scopi di sicurezza". Mentre colossi come Google, Amazon e Microsoft rafforzano il loro legame con il settore militare, esistono realtà come Palantir – fondata da Peter Thiel – che già da anni operano nell’ombra con contratti miliardari nel settore della sorveglianza e dell’intelligence predittiva. Israele ha creato un gigantesco database su ogni palestinese sotto occupazione, raccogliendo informazioni su movimenti, contatti sociali, e attività online, limitando la libertà di espressione e movimento. Un “Grande fratello” al quale nulla sfugge.

LA PALESTINA COME LABORATORIO PER L’AI

Antony Loewenstein, giornalista investigativo australiano di origini ebraiche, autore di The Palestine Laboratory: How Israel Exports the Technology of Occupation Around the World, ha definito l’uso dell’AI da parte di Israele a Gaza “un modello terrificante”. Dal 7 ottobre 2023, “Tel Aviv usa la guerra e l'occupazione per testare le ultime forme di uccisione e sorveglianza di massa, mentre le forze di estrema destra in tutto il mondo osservano e imparano”. E aggiunge: “Israele non potrebbe combattere le sue guerre di conquista senza una schiera di attori stranieri che lo sostengono, armano e finanziano”.

Durante le ricerche per il suo libro, Loewenstein ha scoperto che il complesso militare-industriale di Israele considera l'occupazione dei Territori Palestinesi come un banco di prova fondamentale per le nuove tecnologie di morte e sorveglianza. I palestinesi “sono cavie in un esperimento di portata globale”, che non si ferma ai confini della Palestina. La Silicon Valley ha preso nota, e la nuova era Trump sta sancendo un'alleanza sempre più stretta tra le grandi aziende tecnologiche, Israele e il settore della difesa.

LA GUERRA NELL’ERA DELL’AI

La guerra non è mai stata pulita, ma oggi è diventata un gioco senza responsabilità, sempre più simile a un videogame. Tuttavia, la Cloud War non è virtuale: è letale, impersonale, automatizzata. Il software decide, l’uomo approva con un clic, il drone esegue. Il massacro diventa un output, i civili puntini su una mappa digitale. Un algoritmo calcola quante vite sacrificare per raggiungere l’obiettivo.

Questa non è fantascienza. È realtà. La tecnologia corre più veloce di noi, e Israele ha mostrato come devastare una popolazione senza conseguenze (per ora). Presto, l’intelligenza artificiale di Google, Microsoft e Amazon potrebbe essere usata ovunque. Pensate a quanti stati ambirebbero a raccogliere informazioni così complete su ogni cittadino, rendendo più facile colpire critici, dissidenti e oppositori.

Come in Terminator, la macchina non fa prigionieri. È solo questione di tempo prima che l'IA prenda il sopravvento, riducendo l'umanità a una variabile da ottimizzare. La nostra sopravvivenza non è questione di tecnologia, ma di coscienza. E la vera domanda non è se possiamo fermarla, ma se siamo davvero pronti per il giorno in cui non saremo più noi a decidere.