Dopo tre anni di trattative, l’Oms ha approvato il primo Piano pandemico globale

Quasi un anno fa, su questa rivista avevamo parlato del Piano pandemico globale, sollevando non poche critiche. In questi giorni, dopo tre anni di negoziazioni, il piano è stato approvato. I voti a favore sono stati 124, mentre 11 i Paesi si sono  astenuti: Italia, Russia, Bulgaria, Polonia, Romania, Slovacchia, Giamaica, Guatemala, Paraguay, Israele e Iran. Nessuno contrario.

Due le considerazioni. In primo luogo, il testo ha perso l’impostazione iniziale che appariva fortemente “dirigista”. Le sovranità nazionali non sembrano più surclassate perché è specificato che l’Oms non sarà autorizzato né a prescrivere leggi nazionali né a incaricare gli Stati di intraprendere azioni specifiche come vietare i viaggi, imporre blocchi o vaccinazioni e misure terapeutiche. Per il segretario generale dell’Oms, Tedros Adhanom Ghebreyesus, il piano «è una garanzia che si possa proteggere meglio il mondo da future pandemie. Ed è anche un riconoscimento da parte della comunità internazionale che i nostri cittadini, le nostre società e le nostre economie non devono subire nuovamente perdite come quelle subite durante il Covid 19».

Seconda considerazione: la porta Oms non è del tutto chiusa per nessuno. Il Piano pandemico verrà inviato a tutti i 60 Stati membri per essere ratificato dai Parlamenti, e sarà allora che il “sì” o il “no” dei singoli Stati diventerà definitivo. 

Il fatto che l’Italia non abbia votato il Piano è stato visto come un segnale forte; per chi, in Italia, ritiene che il governo italiano abbia fatto bene, dovrà vigilare affinché questa posizione  venga mantenuta quando il Parlamento sarà chiamato a esprimersi. Va detto che il trattato entrerà in vigore, a livello internazionale, solo per i Paesi che lo ratificano. 

Quali sono le perplessità? I tempi sembrano allungarsi ancora – si ipotizza fino a marzo 2026 - perché il Piano potrà essere votato soltanto quando sarà ultimato in ogni suo allegato e al momento manca quello dedicato alla trasmissione dei patogeni (che riguarda cioè le misure di sicurezza per i laboratori che isolano batteri o virus).

A preoccupare chi dovrebbe sentirsi rassicurato dal linguaggio ammorbidito di Ghebreyesus, c’è però il Regolamento sanitario approvato dall’Oms il 1° giugno scorso: un testo che ha la volontà di censurare qualsiasi informazione considerata come non-informazione e che surclasserebbe le leggi nazionali. I Paesi hanno tempo fino al 19 luglio per respingerlo, inviando una lettera (in questo caso varrebbe il Regolamento sanitario precedente del 2015) altrimenti entrerà in vigore di default. 


Genocidio o crimini di guerra? Una questione anche metodologica

Diversi conflitti e discussioni molto accese (a volte anche violente) potrebbero essere evitate (o almeno ridimensionate) se prima di passare al giudizio si riflettesse collettivamente (e si provasse a trovare un accordo, almeno momentaneo) sul significato dei termini che usiamo. Ne avevamo già accennato in un precedente post[1], parlando di “definizione operativa”.

L’IMPORTANZA DELLA “DEFINIZIONE OPERATIVA”

Nelle scienze si dà molta attenzione (o almeno si dovrebbe) alle caratteristiche (o attributi) di un concetto. In quel post si facevano i seguenti esempi: che cosa fa di una persona un/a ‘pover*’? Quali requisiti deve avere un collettivo per essere definito una ‘famiglia’? La definizione che il/la ricercatrice/tore ne darà, offrirà una guida operativa per selezionare (oppure escludere) i casi e poi intervistare le persone ritenute avere requisiti.

Alle due domande appena formulate, le risposte possono essere molteplici. Ma risposte diverse portano anche a “costruire” oggetti di studio diversi, portando alla non comparabilità dei risultati delle diverse ricerche e (in definitiva) alla incomunicabilità.

Mitchell e Karttunen (1991), analizzando una serie di ricerche finlandesi sugli/lle “artist*”, avevano riscontrato la produzione di risultati diversi a seconda della definizione (operativa) di ‘artista’ che veniva impiegata dai/lle ricercatori/trici e che poi guidava la costruzione del campione. In alcune ricerche veniva incluso nella categoria ‘artista’ (i) chi si autodefiniva come tale; in altri casi (ii) colui che produceva in modo duraturo e continuativo opere d’arte; altre volte (iii) chi veniva riconosciut* come artista dalla società nel suo complesso, oppure (iv) colui/colei che veniva riconosciut* dalle associazioni delle/gli artist*.

Appare evidente come la conseguenza di ciò sia l'impossibilità di comparare gli esiti queste ricerche. E quanto l’espressione “costruire l’oggetto di studio”, anziché registrare dei fatti, sia tutt’altro che una boutade.

COSA STA SUCCEDENDO A GAZA?

Veniamo al tragico argomento di questi mesi: a Gaza si sta realizzando un ‘genocidio’’, un crimine di guerra’, una azione di ‘legittima difesa’ del governo israeliano o altro ancora? Per rispondere, bisognerebbe trovare un accordo (impossibile, lo so bene) sulla definizione (quindi il significato) di questi termini ed espressioni.

Che cosa fa di un evento (o serie di eventi) un ‘genocidio’? Quali sono gli attributi/caratteristiche (intensione) dei concetti di ‘genocidio’, ‘crimine di guerra’ ecc.?

Secondo l'ONU[2], si intendono per genocidio

«gli atti commessi con l'intenzione di distruggere, in tutto o in parte, un gruppo nazionale, etnico, razziale o religioso». Come tale:

(a) uccisione di membri del gruppo;

(b) lesioni gravi all'integrità fisica o mentale di membri del gruppo;

(c) il fatto di sottoporre deliberatamente il gruppo a condizioni di vita intese a provocare la sua distruzione fisica, totale o parziale;

(d) misure miranti a impedire nascite all'interno del gruppo;

(e) trasferimento forzato di fanciulli da un gruppo ad un altro».

In accordo con questa definizione sono stati considerati genocidi: la guerra in Bosnia ed Erzegovina nell'ambito delle guerre jugoslave, il genocidio del Ruanda, quello cambogiano, l'Olocausto ebraico, il genocidio armeno. Ovviamente è una definizione di “parte” nel senso che non è riconosciuta da tutt*. Ad es. il genocidio armeno è riconosciuto solo da alcuni Stati[3].

Se per analizzare quello che succede a Gaza, accettiamo la definizione dell’ONU (e non tutti gli Stati, però, la accettano), possiamo notare che i cinque attributi ricorrono tutti:

(a) ci sono quotidiane uccisioni di palestinesi non armat*;

(b) i/le quali sono isolat*, senza possibilità di ricevere aiuti umanitari (cibo, medicinali, assitenza). Per cui la loro all'integrità fisica (anche per la mancanza di cibo) o mentale (data dalla situazione di prostrazione in cui vivono) sembra gravemente lesionata;

(c) vi è un deliberato progetto di “distruggere completamente Gaza”, come ha dichiarato il ministro delle finanze israeliano Bezalel Smotrich, il 6 maggio scorso in un convegno[4]. Il giorno prima, lo stesso, aveva affermato in una conferenza stampa a Gerusalemme: “Israele occuperà Gaza per rimanerci" e "non ci sarà alcun ritiro, nemmeno in cambio degli ostaggi";

(d) un piano che (pare) Smotrich avesse sin dal 2017[5]: avviare una pulizia etnica, riducendo le nascite dei/lle palestinesi e aumentando quelle degli/lle ebre*, al fine di diventare maggioranza;

(e) trasferire un milione e mezzo di palestinesi in altri luoghi; un progetto di deportazione già iniziato molti anni prima, in modo chirurgico, abbattendo le case di palestinesi per forzarl* a migrare in altri posti[6].

Ovviamente non tutt* sono d’accordo con queste osservazioni. Alcun* giornalist* e politic* (non serve fare nomi, rimaniamo sui contenuti) chiamano “messa in sicurezza” quello che altr* chiamano “deportazione”. Alcun* ritengono legittimo schedare (mediante riconoscimento facciale[7]) le persone a cui viene dato il cibo (a quando la mezzaluna cucita sul petto?). Altr* sostengono che si tratta di ‘crimini di guerra’[8] e non di genocidio[9]; ma la guerra si fa tra eserciti, e un esercito palestinese non esiste. O almeno ora non esiste più, se si intendeva Hamas come un esercito. Ma quelli di Hamas non erano dei “terroristi”? O sono terroristi o sono un esercito. Non possono essere le due cose contemporaneamente.

Come si può vedere le domande sono tante e una riflessione “scientifica” (fra giornalisti competenti, storici, scienziati sociali, politologi, organizzazioni umanitarie) sarebbe necessaria.

La cosa interessante è che nelle ultime settimane sempre più quotidiani cominciano ad adottare le parole “genocidio” e “sterminio”, al posto di termini meno forti.

È il preludio a un futuro riconoscimento?

 

 

 

 

RIFERIMENTO BIBLIOGRAFICO

Mitchell, R. and Karttunen, S. (1991), ‘Perché e come definire un artista?’ Rassegna Italiana

di Sociologia, 32(3): 349–64.

 

NOTE:

1 https://www.controversie.blog/definizione-operativa-limportanza-delle-definizioni-prima-di-aprir-bocca/

2https://it.wikipedia.org/wiki/Genocidio#:~:text=Con%20genocidio%2C%20secondo%20la%20definizione,etnico%2C%20razziale%20o%20religioso%C2%BB

3 https://it.wikipedia.org/wiki/Genocidio_armeno#/media/File:Nations_recognising_the_Armenian_Genocide.svg

4 https://stream24.ilsole24ore.com/video/mondo/ministro-israeliano-gaza-sara-completamente-distrutta/AHWXOdc

5 https://www.ilfattoquotidiano.it/2025/05/15/nakba-israele-gaza-palestina-smotrich/7988997/

6 Istruttivo, a tal fine, è No Other Land, un film documentario del 2024 diretto, prodotto, scritto e montato da un collettivo israelo-palestinese formato da Basel Adra, Yuval Abraham, Rachel Szor ed Hamdan Ballal (https://it.wikipedia.org/wiki/No_Other_Land), È stato premiato con l'Oscar al miglior documentario ai premi Oscar 2025.

7 https://www.controversie.blog/cibo-in-cambio-di-impronte-retiniche/

8 https://it.wikipedia.org/wiki/Crimine_di_guerra

9 https://www.youtube.com/watch?v=F4vDYhIMmm8&t=3s


Il Golem, il capro espiatorio e altri gattopardi - Vale la pena di giocare a «Algoritmo libera tutti»?

1. ALGORITMI

Nel subcontinente indiano si celebra l’Agnicayana, il più antico rituale documentato nel mondo ad essere ancora praticato: consiste nella costruzione dell’altare Syenaciti, a forma di falco, che celebra la ricomposizione del corpo del dio primordiale Prajapati dopo la creazione del mondo – fatica da cui è uscito letteralmente a pezzi. La modalità di costruzione dell’altare è complessa, è prescritta da un algoritmo, ed è scandita da un mantra che accompagnano la posa delle pietre. Paolo Zellini riferisce che nelle civiltà della Mesopotamia e dell’India le conoscenze matematiche, l’organizzazione sociale, le pratiche religiose, erano governate da schemi procedurali con una via di accesso al sapere alternativa alla formalizzazione logica – la via della dimostrazione assiomatico-deduttiva che appassionava i greci (1). Questa soluzione non ha permesso agli scribi del Vicino e del Medio Oriente di raggiungere l’univocità del concetto di numero, a partire dai numerali con cui gestivano le questioni nei vari contesti di applicazione: il sistema che organizzava le derrate di grano e di riso era diversa da quella che permetteva di contare i soldati, da quella che quantificava pecore e cavalli, da quella che misurava i debiti; ma ha permesso di evitare le difficoltà che i numeri irrazionali, e la relazione spigolosa della diagonale con il lato del quadrato, hanno suscitato nel mondo greco-romano.

L’algoritmo non è un’astrazione concettuale occidentale contemporanea, ma un dispositivo che emerge dalla cultura materiale, dalle procedure sociali di gestione del lavoro. L’etichetta proviene dal latino medievale, e si riferisce al metodo di calcolo con numeri posizionali descritto in un saggio di al-Kuwarizmi (andato perduto nella versione originale, ma conservato in due traduzioni latine). A partire dal XIII secolo il ricorso al metodo indiano di calcolo con cifre posizionali si diffonde in tutta Europa, soprattutto per la sua utilità in ambito commerciale: è di nuovo una pratica sociale a veicolare e a materializzarsi nel successo dell’algoritmo, iscrivendolo nella fioritura della nuova cultura urbana, e nel corpo delle relazioni costruite dai traffici della borghesia nascente (2).

Il calcolo posizionale insiste su matematica ed economia; ma qualunque sequenza di istruzioni che trasformino un certo materiale di partenza in un risultato finale, attraverso un numero finito di passi, (ognuno dei quali sia definito in modo abbastanza chiaro da non autorizzare interpretazioni variabili in modo arbitrario), è un algoritmo. Una ricetta di cucina, le istruzioni dell’Ikea, il meccanismo di lettura della scrittura alfabetica, sono esempi di algoritmi con cui possiamo avere più o meno dimestichezza (e fortuna). Gran parte della nostra esistenza si consuma nella frequentazione di procedure di questo tipo; la creatività, quando compare, può somigliare all’adattamento ingegnoso di una di loro, o alla combinazione inedita di pezzi di procedimenti diversi. Secondo alcuni teorici, come Ronald Burt, non si danno nemmeno casi del genere, ma solo importazioni di algoritmi da culture diverse, che i compatrioti ancora non conoscono, ma che possono digerire grazie ad adattamenti e traduzioni opportune (3).

In un articolo recente pubblicato su Controversie si è sostenuto che il rapporto tra algoritmi e esseri umani ha smesso di essere simmetrico e co-evolutivo, perché in qualche momento dell’epoca contemporanea la macchina si sarebbe sostituita ai suoi creatori, sarebbe diventata prescrittiva, avrebbe imposto griglie di interpretazione della realtà e avrebbe cominciato a procedere in modo autonomo a mettere in atto le proprie decisioni. Credo che una simile valutazione derivi da due sovrapposizioni implicite, ma la cui giustificazione comporta diversi problemi: la prima è quella che identifica gli algoritmi e le macchine, la seconda è quella che equipara il machine learning dei nostri giorni all’AGI, l’Intelligenza Artificiale Generale, capace di deliberazione e di cognizione come gli esseri umani.

2. PRIMO ASSUNTO

Non c’è dubbio sul fatto che gli automi siano messi in funzione da sequenze di istruzioni; ma questo destino non tocca solo a loro, perché gran parte dei comportamenti degli uomini non sono meno governati da algoritmi, appena mascherati da abitudini. Più le operazioni sono l’esito di un percorso di formazione culturale, più l’intervento delle direttive standardizzate diventa influente. Parlare una lingua, leggere, scrivere, dimostrare teoremi matematici, applicare metodi di analisi, giocare a scacchi o a calcio, sono esempi di addestramento in cui gli algoritmi sono stati interiorizzati e trasformati in gesti (che sembrano) spontanei. Adattando un brillante aforisma di Douglas Hofstadter (4) alla tecnologia dei nostri giorni, se ChatGPT potesse riferirci il proprio vissuto interiore, dichiarerebbe che le sue risposte nascono dalla creatività libera della sua anima.

Le lamentele che solleviamo contro gli algoritmi, quando gli effetti delle macchine contrastano con i nostri canoni morali, è paragonabile all’accusa che rivolgeremmo al libro di ricette se la nostra crostata di albicocche riuscisse malissimo. L’Artusi però non è responsabile del modo maldestro con cui ho connesso le sue istruzioni con gli algoritmi che prescrivono il modo di scegliere e maneggiare gli ingredienti, il modo di misurare le dosi, il modo di usare gli elettrodomestici della cucina: parlo per esperienza. Tanto meno è responsabile della mia decisione di cucinare una crostata di albicocche. Allo stesso modo, il software COMPAS che è stato adottato per collaborare con i giudici di Chicago non ha deciso in autonomia di discriminare tutte le minoranze etniche della città: la giurisprudenza su cui è avvenuto il training, che include l’archivio di tutte le sentenze locali e federali, è il deposito storico dei pregiudizi nei confronti di neri e diseredati. Il suo uso, che non è mai confluito nella pronuncia autonoma di verdetti, può anzi vantare il merito di aver portato alla luce del dibattito pubblico un’evidenza storica: generazioni di giudici, del tutto umani, hanno incorporato nel loro metodo di valutazione algoritmi ereditati dalla consuetudine, dall’appartenenza ad una classe sociale che perpetua se stessa, in cui questi preconcetti sono perdurati e si sono applicati in sentenze eseguite contro persone reali.

Allo stesso modo, non è il software The Studio a muovere guerra ai civili di Gaza: un’accusa di questo genere servirebbe a nascondere le responsabilità che devono essere imputate ai politici e ai militari che hanno deciso i massacri di questi mesi. Nello scenario del tutto fantascientifico in cui  l’intelligenza artificiale avesse davvero selezionato gli obiettivi, e fosse stata in grado di organizzare le missioni di attacco (come viene descritto qui) – in realtà avrebbe ristretto gli attacchi ai soli obiettivi militari, con interventi chirurgici che avrebbero risparmiato gran parte degli effetti distruttivi della guerra. Purtroppo, in questo caso, l’AI non è in alcun modo capace di sostituirsi agli uomini, perché – a quanto si dichiara – i suoi obiettivi non sarebbero stati il genocidio, ma l’eliminazione di un justus hostis secondo le caratteristiche tradizionali dello spionaggio nello scontro bellico dichiarato. Il fatto che l’impostazione stessa del conflitto non sia mai stata tesa a battere un nemico, ma a sterminare dei terroristi, mostra che le intenzioni umane, erano ben diverse fin dall’inizio. Gli algoritmi selezionano mezzi e procedure per l’esecuzione di obiettivi, che sono sempre deliberati in altro luogo.

3. SECONDO ASSUNTO

Questa riflessione ci conduce alla seconda assunzione: tutto il software oggi è AI, e i dispositivi di deep learning sono in grado di maturare intenzioni, articolarle in decisioni autonome – e addirittura, in certe circostanze, avrebbero anche l’autorità istituzionale di coordinare uomini e mezzi per mandarle in esecuzione.

Basta smanettare un po’ con ChatGPT per liberarsi da questo timore. Le AI generative trasformative testuali sono meravigliosi programmi statistici, che calcolano quale sarà la parola che deve seguire quella appena stampata. Ad ogni nuovo lemma aggiunto nella frase, viene misurata la probabilità del termine successivo, secondo la distribuzione vettoriale dello spazio semantico ricavato dal corpus di testi di training. È la ragione per cui può accadere che ChatGPT descriva nelle sue risposte un libro che non esiste, ne fissi la data di pubblicazione nel 1995, e stabilisca che nel suo contenuto viene citato un testo stampato nel 2003, nonché descritta una partita di Go svolta nel 2017 (5). ChatGPT, Claude, DeepSeek, e tutta l’allegra famiglia delle intelligenze artificiali generative, non hanno la minima idea di quello che stanno dicendo – non hanno nemmeno idea di stare dicendo qualcosa. AlphaGo non sa cosa significhi vincere una partita a Go, non conosce il gusto del trionfo – tanto che pur riuscendo a vincere contro il campione di Go, non sa estendere le sue competenze ad altri giochi, se non ripartendo da zero con un nuovo training.

L’AI attuale è in grado di riconoscere pattern, e di valutate la probabilità nella correlazione tra gli elementi specifici di cui il software si occupa, senza essere in grado di passare tra segmenti diversi dell’esperienza, generalizzando o impiegando per analogia le conoscenze che ha acquistato, come invece fanno gli esseri umani. Comprensione dei contenuti, intenzioni, strategie, sono attribuite alla macchina da chi ne osserva i risultati, sulla base delle ben note norme conversazionali di Paul Grice (6). I software di AI dispongono dello stesso grado di coscienza, e della stessa capacità di deliberare intenzioni e stabilire valori, che anima il forno in cui tento di cucinare la mia crostata di albicocche.

Non vale la pena dilungarsi oltre, visto che di questo tema ho già parlato qui e qui.

4. GATTOPARDI

Nessuna tecnologia è neutrale: non lo è nemmeno l’AI. Ma la comprensione del modo in cui i software incrociano il destino della società implica un’analisi molto più dettagliata e articolata di una crociata generica contro algoritmi e macchine, dove la fabbricazione di altari, la preparazione di torte di albicocche, il comportamento di Palantir (ma anche quello di ChatGPT, di AlphaFold, di Trullion), possono finire nello stesso mucchio, a beneficio di una santificazione di un’umanità che sarebbe vittima delle manipolazioni di perfidi tecnologi. La ghettizzazione urbanistica in America, la soppressione dello Jus Publicum Europaeum (7) e la scomparsa del diritto internazionale dagli scenari di guerra (che infatti non viene più dichiarata: ne ho già parlato qui), sono problemi che vengono nascosti dal terrore di un Golem che non esiste, ma di cui si continua convocare lo spettro leggendario, questa volta nelle vesti di Intelligenza Artificiale. Quanto più si disconosce la suggestione di questa tradizione mitologica, tanto più se ne subisce inconsapevolmente il potere. È solo con un esame paziente delle condizioni di cui siamo eredi, spesso nostro malgrado, con l’analisi della complessità dei fattori che agiscono in ciascun problema sociale, e l’ammissione che non esiste un fuori dai dispositivi, che si può tentare un’evoluzione quanto più prossima ai nostri requisiti di libertà e di dignità; il processo sommario al Golem, la convocazione dell’algoritmo (!) come capro espiatorio di tutti i misfatti della modernità, per rivendicare il diritto di rigettare tutto e ripartire da zero, non è che un modo per pretendere che tutto cambi – perché tutto rimanga come prima.

 

 

 

 

BIBLIOGRAFIA

Burt, Ronald, Brokerage and Closure: An Introduction to Social Capital, Oxford University Press, Oxford 2007.

ChatGPT-4, Imito, dunque sono?, a cura di Paolo Bottazzini, Bietti Editore, Milano 2023.

Grice, Paul, Studies in the Way of Words, Harvard University Press, Cambridge 1986.

Hofstadter, Douglas, Gödel, Escher, Bach. Un'eterna ghirlanda brillante. Una fuga metaforica su menti e macchine nello spirito di Lewis Carroll, tr. it. a cura di Giuseppe Trautteur, Adelphi, Milano 1980.

Pasquinelli, Matteo, The Eye of the Master: A Social History of Artificial Intelligence, Verso Books, Londra 2023

Schmitt, Carl, Il nomos della terra nel diritto internazionale dello «Jus publicum europaeum», tr. it. a cura di Franco Volpi, Adelphi, Milano 1991.

Zellini, Paolo, Gnomon. Una indagine sul numero, Adelphi, Milano 1999.