Cibo in cambio di impronte retiniche. Israele e gli algoritmi dell’oppressione e dello sterminio
In Cloud di guerra, ho documentato l’uso dell’intelligenza artificiale nel conflitto in corso a Gaza – e con modalità differenti in Cisgiordania – evidenziandone le drammatiche conseguenze. Da allora, nuovi dati rivelano che Israele ha sviluppato ulteriori strumenti per consolidare la sua guerra contro Hamas.
Le inchieste condotte da +972 Magazine, Local Call e The Guardian nel 2024, hanno rivelato che Israele ha sviluppato sofisticati strumenti per condurre la guerra contro Hamas, tra i quali l’algoritmo di apprendimento automatico Lavender, utilizzato fin dall’inizio del conflitto, e ora perfezionato, senza mettere in conto le lateralità degli attacchi. L’utilizzo di Lavender ha avuto un ruolo centrale nell’individuazione di almeno 37.000 obiettivi, molti dei quali colpiti in operazioni che hanno causato migliaia di vittime civili..
CAVIE SEMANTICHE: QUANDO ANCHE LA LINGUA VIENE PRESA IN OSTAGGIO
Una nuova inchiesta di +972 Magazine, Local Call e The Guardian, pubblicata lo scorso 6 marzo 2025, ha rivelato che Israele ha messo a punto un nuovo modello linguistico, simile a ChatGPT, costruito esclusivamente su conversazioni private dei palestinesi in Cisgiordania: milioni di messaggi WhatsApp, telefonate, email, SMS intercettati quotidianamente. Un LLM (Large Language Model) alimentato non da testi pubblici, ma da frammenti intimi di vita quotidiana.
Idiomi, inflessioni, silenzi: ogni sfumatura linguistica diventa materia prima per addestrare strumenti di controllo predittivo.
I palestinesi diventano cavie semantiche, banchi di prova per armi algoritmiche progettate per prevedere, classificare, colpire. L’inchiesta dimostra come l’IA traduca automaticamente ogni parola in arabo captata nella Cisgiordania occupata, rendendola leggibile, tracciabile, archiviabile, riproducibile.
Non è solo sorveglianza: è architettura linguistica del dominio, fondata sulla violazione sistematica della dimensione personale e soggettiva della popolazione palestinese.
L’I.A. MILITARE ISRAELIANA IN AZIONE: IL CASO IBRAHIM BIARI
Un’inchiesta del New York Times riporta la testimonianza di tre ufficiali americani e israeliani sull’utilizzo, per localizzare Ibrahim Biari, uno dei comandanti di Hamas ritenuti responsabili dell’attacco del 7 ottobre, di uno strumento di ascolto delle chiamate e di riconoscimento vocale, integrato con tecnologie I.A. e sviluppato dall’Unità 8200[1] in un team che conta anche sulla collaborazione di riservisti impiegati in importanti società del settore. Airwars [2] documenta che, il 31 ottobre 2023, un attacco aereo guidato da queste informazioni ha ucciso Biari e, anche, più di 125 civili.
La precisione apparente dell’IA ha mostrato i suoi limiti etici e umani: la ratio militare si nasconde dietro la presunta precisione chirurgica degli attacchi e oggettività disumanizzata delle identificazioni degli obiettivi, per giustificare un rapporto obiettivo/ danni collaterali che include uccisioni di massa.
GAZA: LABORATORIO MONDIALE DELL’I.A. MILITARE
Israele sembra essere, di fatto, l’unico Paese al mondo ad aver sperimentato l’intelligenza artificiale in un contesto bellico reale, in cui Gaza svolge il ruolo di cavia e il campo di operazioni quello di laboratorio.
L’israeliana Hadas Lorber, fondatrice dell’Institute for Applied Research in Responsible AI, ha ammesso che la crisi israeliano-palestinese innescata il 7 ottobre ha intensificato la collaborazione tra l’Unità 8200 e i riservisti esperti di tecnologie, e accelerato l’innovazione, portando a “tecnologie rivoluzionarie rivelatesi cruciali sul campo di battaglia (di Gaza)”. Ha, però, anche ricordato che l’IA solleva “serie questioni etiche”, ribadendo che “le decisioni finali devono restare in mano umana”.
Ma la retorica non regge l’urto dei fatti:
- la portavoce dell’esercito israeliano ribadisce l’“uso lecito e responsabile” delle tecnologie, ma – per ragioni di sicurezza nazionale - non può commentare nulla di specifico,
- il CEO di Startup Nation Central[3], ha confermato il nodo: i riservisti delle big tech sono ingranaggi chiave dell’innovazione militare. Un esercito che da solo non avrebbe mai raggiunto tali capacità ora punta all’invisibilità del dominio algoritmico.
- le multinazionali della tecnologia dalle cui fila provengono molti artefici degli strumenti israeliani, tacciono o – discretamente - prendono le distanze da quello che sembra essere un tessuto di conflitti e intrecci di interessi tra l’industria bellica e l’innovazione tecnologica che permea il nostro presente e modella il nostro futuro;
- Silicon Valley, cybersecurity, intelligenza artificiale, piattaforme cloud sembrano essere strumenti di facilitazione e, nello stesso tempo, di controllo di massa mutato in arma[4].
CIBO IN CAMBIO DI IMPRONTE DELLA RÈTINA
Se l’intelligenza artificiale può decidere chi uccidere, può anche decidere chi sopravvive?
La domanda non è più speculativa.
A Gaza l’ultima frontiera è “umanitaria”: l’IA governa la carità. Secondo una recente proposta fatta da Washington in accordo con Israele — rigettata il 15 maggio 2025 dalle Nazioni Unite — per accedere agli aiuti alimentari sarà necessario il riconoscimento facciale.
Il piano, ideato dalla Gaza Humanitarian Foundation (GHF) [5], sembra prevedere la privatizzazione della distribuzione del cibo attraverso contractor statunitensi ed ex agenti dell’intelligence e la creazione di hub biometrici, presidiati da forze armate private, dove il pane si baratta col volto, le razioni e la vita con le impronte digitali e retiniche. Con la giustificazione di evitare infiltrazioni di Hamas, l’accesso agli aiuti sarà regolato da algoritmi e sistemi di riconoscimento facciale.
Dietro l’apparenza umanitaria, la struttura e la governance sembrano rivelare un’operazione affidata ad un attore para-militare che rischia di trasformare il soccorso in un ulteriore strumento di dominio.
Lo scenario è quello di una carità condizionata, tracciata, selettiva: una “umanità filtrata”, dove l’identità digitale rischia di precedere il bisogno, e l’accesso al pane dipendere dall’accettazione della sorveglianza.
Gaza sembra confermarsi come un laboratorio d’avanguardia: non solo per testare armi, ma per sperimentare nuovi modelli di apartheid tecnologico, di ostaggi biometrici, in cui sembra valere il principio che l’aiuto debba essere concesso solo a persone “note per nome e volto”, violando i principi di neutralità umanitaria e trasformando la fame in strumento di controllo identitario.
L’INDIGNAZIONE (SOLITARIA) DELLE ONG
UNICEF, Norwegian Refugee Council e altri attori umanitari hanno denunciato il piano GHF come un ulteriore controllo forzato della popolazione, destinato a produrre nuovi spostamenti, disgregazioni, traumi. È – secondo le ONG che vi si oppongono - il passaggio finale di un processo già in corso: i tagli ai fondi ONU, la delegittimazione dell’UNRWA, che ha giudicato i piani di controllo totale degli aiuti umanitari «una distrazione dalle atrocità compiute e uno spreco di risorse», la sostituzione della diplomazia con le piattaforme, della compassione con l’identificazione biometrica[6].
ETICA E IA: ULTIMA CHIAMATA
Questo intreccio tossico tra business, guerra, aiuti umanitari e sorveglianza apre un precedente pericolosissimo. Non solo per i palestinesi, ma per ogni società che oggi è costretta a negoziare tra sicurezza e diritti fondamentali. Dove la privacy è già fragile, nelle mani di chi governa col terrore tecnologico si riduce a nulla. L’Unione Europea e gli Stati Uniti devono scegliere da che parte stare: restare in silenzio significa legittimare pratiche tecnologiche sterminatrici e diventare complici di un genocidio.
Una volta di più si profila l’occasione per l’Unione Europea di ritagliarsi un ruolo per riportare al centro del dibattito i suoi valori e i principi fondativi, denunciando l’abuso, pretendendo trasparenza sui legami tra eserciti e industrie tech, imponendo una regolamentazione internazionale stringente sull’uso dell’intelligenza artificiale in contesti di guerra[7].
Favorendo, soprattutto, una presa di coscienza collettiva che rimetta al centro la dignità umana e i diritti inalienabili, prima che queste macchine diventino i complici silenziosi e apparentemente oggettivi di dominio e di sterminio.
NOTE
[1] L'Unità 8200 è una unità militare delle forze armate israeliane incaricata dello spionaggio di segnali elettromagnetici (SIGINT, comprendente lo spionaggio di segnali elettronici, ELINT), OSINT, decrittazione di informazioni e codici cifrati e guerra cibernetica. (Wikipedia, Unità 8200)
[2] Airwars è una organizzazione non-profit di trasparenza e di controllo che investiga, traccia, documenta e verifica le segnalazioni di danni ai civili nelle nazioni teatro di confitti armati.
[3] Startup Nation Central è un’azienda israeliana, che si autodefinisce “filantropica”, dedicata a valorizzare «l’unicità dell’ecosistema tecnologico di Israele e le soluzioni che questo offre per affrontare alcune delle sfide più pressanti che si presentano al mondo»
[4] Alberto Negri, giornalista de Il Manifesto, ha definito questo intreccio il “complesso militare-industriale israelo-americano”
[5] Sostenuta dall’amministrazione Trump e dal governo israeliano, la Gaza Humanitarian Foundation (GHF) nasce con l’obiettivo dichiarato di aggirare le agenzie umanitarie delle Nazioni Unite – in particolare l’UNRWA, già delegittimata e accusata da Israele di favorire indirettamente Hamas – per gestire direttamente una delle più vaste operazioni di soccorso nella Striscia: oltre 300 milioni di pasti in 90 giorni. Il piano, ufficialmente bloccato dall’ONU, non è stato archiviato. Anzi, alcuni test pilota sono già in corso nel sud della Striscia.
Fondata nel febbraio 2025, la GHF si presenta come una non-profit, ma la sua composizione solleva più di un sospetto per la presenza di ex ufficiali militari statunitensi, contractor della sicurezza privata e funzionari provenienti dalle ONG. Il piano della GHF prevede la creazione di quattro “Secure Distribution Sites” (SDS) nel sud della Striscia, ognuno destinato a servire 300.000 persone, con l’obiettivo di coprire progressivamente l’intera popolazione di Gaza. Se dovesse assumere il controllo totale della distribuzione, la fondazione arriverebbe a gestire risorse paragonabili – se non superiori – a quelle delle agenzie ONU. Il solo Flash Appeal 2025 prevede un fabbisogno minimo di 4,07 miliardi di dollari, con una stima ideale di 6,6 miliardi.
Il budget iniziale della GHF si aggira attorno ai 390 milioni di dollari, provenienti in larga parte dagli Stati Uniti. Ma sono proprio la mancanza di trasparenza sulle fonti di finanziamento e le criticità operative a sollevare allarmi..
[6] Il modello, del resto, era già stato testato: l’app israeliana Blue Wolf, in Cisgiordania, cataloga da tempo ogni volto palestinese in un enorme database per facilitare i controlli militari. Ora, lo stesso meccanismo si replica a Gaza sotto la forma di “aiuto”.
[7] Invece di promuovere una regolamentazione stringente, l’Unione Europea continua a favorire — direttamente o indirettamente — lo sviluppo di armi basate sull’I.A., collaborando con i fautori dell’innovazione bellica israeliana– e, chissà, di altri Paesi; rapporti del Parlamento Europeo (2024) e analisi di EDRi (European Digital Rights, 2025) mostrano come numerose imprese europee – tra cui startup e colossi del tech – intrattengano rapporti con l’Israel Innovation Authority, l’agenzia governativa che finanzia queste “innovazioni” in nome di una cooperazione tecnologica presentata come neutra, ma che di neutro non ha più nulla.
C’era una volta il soggetto? Ibridi, protesi, algoritmi indossabili: tutti i supplementi di un latitante
Il supplemento viene al posto di un cedimento,
di un non-significato o di un non-rappresentato, di una non-presenza.
Non c'è nessun presente prima di esso,
è quindi preceduto solo da se stesso, cioè da un altro supplemento.
Jacques Derrida, Della grammatologia
1 MAPPE
Perché è stato Colombo a sbarcare sulle coste americane – e dopo di lui i ben più temibili Cortés e Pizarro – e non una flotta Inca ad attraccare nel porto di Lisbona o di Genova? Franco Farinelli ritiene che la casualità della storia e l’impredicibilità del comportamento degli uomini non possano soddisfare l’urgenza dell’interrogativo, quanto invece può fornire una risposta l’evidenza che è capitato agli europei di realizzare mappe dei mari e delle terre emerse, e non alle popolazioni amerinde. Si può diventare scopritori di continenti e conquistatori di imperi sconosciuti, solo carta alla mano. Non importa nemmeno se il contenuto della rappresentazione geografica sia corretto o meno; senza il diagramma, viene a mancare l’ingrediente che si rivela essere il più banale nella circostanza in cui la scrittura e la proiezione geometrica sono disponibili – il progetto dell’esplorazione, la motivazione alla partenza, il piano di conquista.
Le mappe offrono un contributo indispensabile alla formazione della soggettività dei navigatori, dei conquistatori e degli eroi. Tzvetan Todorov suggerisce però che per plasmare una coscienza come quella di Cortès serva un altro ingrediente tecnologico: la scrittura alfabetica e la sua capacità di «insegnare» la separazione e la connessione tra una catena di significanti e una di significati. Il conquistador infatti legge le operazioni epistemiche degli aztechi, interpreta la visione della realtà di Montezuma, simula attributi e ruoli per manipolare la loro comprensione degli eventi, partendo dalle credenze degli avversari: i segni possono essere separati dal loro referente, possono essere imitati, contraffatti, manomessi a piacimento. Al contrario, gli indigeni appaiono vincolati ad una prospettiva monolitica di percezione del mondo, in cui quello che accade deve essere la ripetizione di qualcosa di già avvenuto, e deriva la sua identità dal passato dei loro miti fondativi. La vittoria degli spagnoli viene conseguita sul piano cognitivo prima ancora che sul campo di battaglia.
2 SCRITTURA ALFABETICA
La scissione tra un piano del significante e uno del significato è la separazione che si è innalzata dalla scrittura alfabetica alla fondazione delle disgiunzioni essenziali della cultura occidentale, come quelle tra interno ed esterno, trascendenza e immanenza, spirito e materia.
In un articolo precedente su Controversie, Edmondo Grassi propone di osservare i dispositivi di wearable technology, gli strumenti che rendono smart le case e le città, e la generazione degli algoritmi che li gestiscono, un sistema o uno sciame di intelligenze che rimodellano la nostra presenza fisica, e soprattutto che ridefiniscono la nostra soggettività. La trasformazione in corso non avrebbe precedenti nella storia dell’umanità, perché non si limiterebbe a potenziare facoltà già esistenti, ma creerebbe nuove dimensioni di coscienza, estranee a quelle implicate nella natura umana. Credo che le considerazioni sviluppate su Colombo e su Cortès impongano di rivedere in modo più prudente queste dichiarazioni. L’entusiasmo per lo sviluppo delle macchine digitali degli ultimi decenni è legittimo, ma rischia di mettere in ombra alcune linee di continuità con la storia delle tecnologie più remote (di cui fanno parte anche il linguaggio e la scrittura), e di alimentare la fede in un fantasma come quello della natura umana, intesa come una struttura consegnata dall’evoluzione filogenetica ai nostri avi ancestrali, che incarnerebbe la nostra sostanza compiuta e immutabile: dal suo fondo sarebbero derivate le culture e le civiltà, che ne avrebbero potenziato alcuni aspetti, lasciando però intatta la sua essenza fino ai nostri giorni. L’asimmetria tra il dinamismo delle trasfromazioni che abbiamo sotto gli occhi oggi, e la presunta staticità di quello che abbiamo già incorporato e metabolizzato, con la pratica del dialogo e delle lettere, è troppo evidente per non destare qualche sospetto.
La Scuola di Toronto, soprattutto con Harold Innis ed Eric Havelock, ha sottoposto a scrutinio il rapporto tra tecnologie della scrittura e formazione sia della soggettività, sia della struttura politica della società. L’elaborazione greca dell’alfabeto introduce, rispetto alle altre tipologie di grafia, un elemento di forte innovazione: i segni non richiedono un’interpretazione semantica, come accade con i pittogrammi, ma rinviano in modo meccanico ad altri segni, ai suoni delle parole. La loro presenza materiale non si impone allo sguardo pretendendo l’interpretazione di un esperto – scriba o sacerdote – con un esercizio di esegesi specialistica e creativa, ma si spalanca in modo immediato sulla catena dei significati. Il senso emerge alla vista prima ancora del suo rappresentante simbolico: basti pensare a quanta attenzione richiede la revisione editoriale dei testi, e alla facilità con cui gli errori di battitura sfuggono alla rilettura – perché il significato appare all’occhio prima ancora della sua raffigurazione fisica. La scrittura alfabetica schiude lo spazio logico come evidenza percettiva, esibisce la dimensione dell’essere che è sottratta alla contingenza dello spazio e del tempo, che si dilata nell’universalità e nella necessità, e che è la protagonista della filosofia di Platone. Le idee hanno scavato un’interiorità nella vita degli individui, e hanno sostenuto la nascita della comunità scientifica: la verità privata e la verità pubblica, l’articolazione della loro distinzione e della loro unità, sono estensioni impreviste dello sviluppo tecnologico subito dai meccanismi di annotazione del linguaggio.
3 TRACCE
Le procedure di redazione e di lettura nell’Atene del V secolo non somigliavano di sicuro a quelle dei nostri giorni; tuttavia la rivoluzione avviata dalla tecnologia della scrittura nella Grecia antica ha contribuito a configurare la forma stessa della soggettività occidentale, così come ancora oggi la sperimentiamo. Ma anche questo scavo nell’archeologia dei sistemi di produzione documentale non mostra in modo abbastanza radicale il doppio legame che si stringe tra processi di ominazione e tecnologia.
Jacques Derrida e Bernard Stiegler ampliano la nozione di scrittura per includere una serie di fenomeni più varia, il cui valore consiste nel registrare programmi di azioni, che vengono archiviati e resi disponibili da una generazione all’altra. In questo senso anche la scheggiatura della selce, la preparazione di ogni genere di manufatti, permette di conservare le tracce delle operazioni con cui è avvenuta la loro realizzazione, e quelle della loro destinazione. L’innovazione non è una galleria di episodi disparati, ma si dispiega in gruppi tecnici, che dislocano lo stesso principio fisico in diversi contesti: la ruota per esempio sollecita la trasformazione dei mezzi di trasporto, ma decreta anche la nascita del tornio e quella della cisterna. La tecnica, come il linguaggio, sono artificiali, ma non «capricciosi»: l’organicità della realtà costruita contribuisce a elaborare l’ordinamento della ragione, che è sia logos, sia kosmos. Ma questa filogenesi culturale è il sintomo di due processi che sanciscono la differenza, e la distanza, dell’uomo da ogni altra creatura.
Il primo è testimoniato dalle indagini di paleontologia, che provano la collaborazione del fattore biologico e di quello tecnologico nell’evoluzione del sistema nervoso centrale dell’homo sapiens. La lavorazione della pietra e del legno non è stata avviata quando l’evoluzione fisiologica poteva dirsi conclusa, ma ha contribuito allo sviluppo cerebrale, rendendo l’espansione della massa neuronale e la raffinatezza nel trattamento dei materiali, insieme alla la complessità nella collaborazione dei gruppi sociali, due percorsi che si rispecchiano, si modellano e si rappresentano in modo reciproco.
Il secondo tenta una fondazione trascendentale di ciò che l’archeologia espone sul piano dei fatti. Nella ricostruzione del confronto di Leroi Gourhan con la descrizione speculativa che Rousseau schizza dell’uomo originario, Stiegler evidenzia che entrambi gli autori devono supporre un salto tra l’ominide ancora senza linguaggio, e l’essere umano compiuto, con una razionalità in grado di esprimersi in termini di simboli universali. La ragione, la tecnica (e il linguaggio come prima tecnica) compaiono tutti insieme, dal momento che sgorgano dalla stessa istanza capace di individuare l’uomo e distinguerlo da tutti gli altri esseri viventi: la consapevolezza della propria morte, e l’assunzione di tutte le iniziative possibili per dilazionarne l’imminenza. Da questo progetto di differimento scaturiscono la storia e le storie; per questo ogni linguaggio è a suo modo un programma di azione, che deve disporre già sempre di un carattere di ripetibilità e di universalità, e per questo ogni tecnica e ogni linguaggio sono una scrittura che plasma al contempo la realtà esterna e la soggettività del suo esecutore.
Non esiste una natura umana, e nessun ominide che sia identico all’uomo – solo privo di tecnica e di linguaggio, prima del salto che invera il miracolo della cultura. Né esiste un’essenza dell’umanità che preceda e che sia la fonte dei sistemi simbolici e delle procedure operative, che si succedono nelle epoche della storia, e di cui potremmo sbarazzarci o che possiamo implementare, senza esserne modellati nel profondo. La storia e le differenze delle scienze e delle tecniche sono anche il dispiegamento della natura umana nella varietà delle forme e delle identità in cui – soltanto – essa può assumere esistenza concreta.
BIBLIOGRAFIA
Derrida, Jacques, Della Grammatologia, trad. it. a cura di Gianfranco Dalmasso, Jaka Book, Milano 2020.
Havelock, Eric, Cultura orale e civiltà della scrittura. Da Omero a Platone, trad. it. a cura di Mario Capitella, Laterza, Bari 2019.
Innis, Harold, Imperi e comunicazione, trad. it. di Valentina Lovaglio, Meltemi, Roma 2001.
Farinelli, Franco, Geografia. Un’introduzione ai modelli del mondo, Einaudi, Torino 2003.
Leroi-Gourhan, André, L’uomo e la materia, trad. it. a cura di Franco Zannino, Einaudi, Torino 1977.
Rousseau, Jean-Jacques, Discorso sull’origine della disegueglianza, trad. it a cura di Diego Giordano, Bompiani, Milano 2012.
Stiegler, Bernard, La colpa di Epimeteo. La tecnica e il tempo, trad. it. a cura di Claudio Tarditi, Luiss University Press, Roma 2023.
Todorov, Tzvetan, La conquista dell’America. Il problema dell’Altro, trad. it. a cura di Aldo Serafini, Einaudi, torino 2014.
Coltivare la vita in laboratorio - Come siamo arrivati a intendere la materia vivente come tecnologia
Pensando al lavoro di scienziati o biologi in laboratorio non ci risulta strana la possibilità che questi possano essere impegnati nella coltivazione di cellule o linee cellulari provenienti da vari organismi viventi. Ad esempio, attualmente le cellule che provengono da esseri umani sono ampiamente utilizzate nei laboratori e in programmi di ricerca biomedica, così come rivestono un ruolo centrale nella ricerca farmaceutica. In breve, la possibilità di mantenere in vita cellule e tessuti umani al di fuori del corpo e di usarle come una materia tecnologica è qualcosa che accade di routine, è ritenuto normale e non desta alcun particolare senso di straniamento. Tuttavia, com’è possibile questo? Quando siamo arrivati a pensare la vita al di fuori del corpo come qualcosa di normale e non problematico? E in quale momento la vita e le cellule hanno assunto questa particolare forma tecnologica? Questi sono alcuni degli interrogativi da cui parte anche Hannah Landecker (2007), sociologa e storica della scienza, nel ricostruire la storia della coltura dei tessuti. Tali questioni ci possono aiutare a focalizzare l’attenzione su alcune delle condizioni che hanno permesso la costruzione di infrastruttura in cui è stato possibile standardizzare metodi, tecniche e oggetti sperimentali impiegati nella coltura cellulare.
Un evento da cui iniziare può essere rintracciato nel 1907, quando Ross Harrison, a partire dal tessuto embrionale di una rana, riuscì ad osservare la crescita di una fibra nervosa al di fuori del corpo. In quegli anni era in corso un vivace dibattito scientifico sulla natura e sviluppo delle fibre nervose a cui risultava difficile trovare una soluzione con le tecniche e i metodi sperimentali impiegati. Infatti, gli scienziati si affidavano principalmente a tecniche istologiche, le quali consistevano nell’acquisizione di sezioni del corpo di un animale in diverse fasi nel tempo, per cui era necessario sacrificare vari animali in diversi momenti per osservare degli sviluppi tissutali. I tessuti ottenuti in questo modo erano resi adeguati alla conservazione e all’analisi attraverso sostanze fissative e coloranti, e in questo modo fornivano dei modelli statici di momenti precisi dello sviluppo. Nonostante ciò, con queste tecniche istologiche non era possibile trovare una risposta sostanziale allo sviluppo delle fibre nervose: gli scienziati potevano dare delle interpretazioni opposte dello stesso frammento di tessuto reso in forma statica. Harrison risolse questa controversia cercando di rendere visibile, al di fuori del corpo, il processo di sviluppo di una fibra nervosa mentre avveniva. Partendo da nozioni di coltura dei microrganismi, egli riuscì a realizzare una preparazione a “goccia sospesa” (hanging-drop) che forniva un supporto attraverso della linfa coagulata per far crescere le fibre nervose di rana al di fuori del corpo. In questo modo, Harrison utilizzando delle cellule vive risolse il problema di come gli organismi biologici viventi cambiano nel tempo e rese visibili i processi che erano interni al corpo degli animali. È in questo senso che all’inizio del XX secolo inizia ad emergere la possibilità e l’idea di sperimentazione in vitro e non più solo in vivo.
Qualche anno più tardi Alexis Carrel e il suo assistente Montrose Burrows tentarono di sviluppare le tecniche adottate da Harrison nel tentativo di mantenere in vita le cellule al di fuori del corpo. Carrel e Burrows trasformarono “il metodo di Harrison per la crescita a breve termine di un tessuto embrionale in un metodo generalizzato per la coltivazione di tutti i tipi di tessuto” (Landecker 2007, p.53) e nel 1910 coniarono il termine “coltura tissutale” per riferirsi a questa serie di operazioni. In particolare, Carrel e Burrows cercarono di mantenere in vita le cellule attraverso la creazione di colture secondarie a partire da un frammento di tessuto: spostando una parte delle cellule in un nuovo medium plasmatico si generava una sorta di riattivazione cellulare e queste continuavano a vivere. Tuttavia, con questa tecnica le cellule cessavano di aumentare di massa e diventavano più piccole ad ogni trasferimento, per cui la soluzione tecnica che adottò Carrel fu quella di aggiungere del tessuto embrionale macinato – chiamato “succo embrionale” – per nutrire le cellule. Fu in questo contesto che Carrel affermò la possibilità di poter coltivare delle “cellule immortali”, che potevano vivere in maniera indefinita al di fuori del corpo. Infatti, per Carrel la morte cellulare era un “fenomeno contingente” che poteva essere rimandato attraverso la manipolazione del medium plasmatico e le sostanze in cui era immersa la cellula. Per questa ragione, Carrel brevettò una fiaschetta, nota come “Carrel flask”, che gli permise di coltivare le cellule in modo asettico evitando infezioni e manipolando le sostanze in cui erano immerse le cellule in modo controllato. Tuttavia, va precisato che negli anni ’60 si dimostrò che le uniche cellule che potevano essere tecnicamente immortali erano quelle di origine cancerosa.
È attraverso le pratiche sperimentali di Harrison e Carrel che inizia ad emergere una nuova enfasi sul corpo e sulla possibilità di coltivare delle cellule in vitro. All’inizio del XX secolo non era nuova la possibilità di tenere i tessuti al di fuori del corpo per un po’ di tempo, ma in quel contesto il corpo era concepito come l’elemento essenziale che garantiva la vita delle cellule, le quali non avrebbero potuto sopravvivere al di fuori di esso. Le pratiche sperimentali di Harrison e Carrel segnano un passaggio all’idea che le cellule e i tessuti non solo possono sopravvivere al di fuori del corpo, ma continuano a dividersi, differenziarsi e vivere. In questo senso, inizia ad emergere un senso di possibilità legato al fatto che le cellule possono vivere con una certa autonomia anche se staccate dal corpo.
È tra gli anni ’40 e ’50 con la campagna contro il virus della poliomielite che, attraverso una serie di sforzi infrastrutturali, fu reso possibile l’impiego per la prima volta di tessuti umani su larga scala: in precedenza ciò non era possibile e le cellule venivano coltivate in singoli laboratori senza la possibilità di scambi e trasferimenti. Nella prima metà del XX secolo i virus erano molto difficili da osservare e coltivare: venivano conservati in laboratorio facendoli passare attraverso uova ed animali infetti; ciò era un metodo molto complesso e costoso. Per questa ragione nel 1940 John Enders pensò di utilizzare i metodi di coltura tissutale per osservare lo sviluppo delle infezioni virali. In questo modo, Enders e il suo collega Weller svilupparono un modello cellulare per osservare il lento sviluppo nel tempo del virus della parotite, questo si rivelò poi anche utile per studiare la poliomielite. Pertanto, attraverso la coltura dei tessuti è diventato possibile osservare lo sviluppo delle infezioni virali osservando i cambiamenti cellulari invece che guardare i sintomi che si manifestavano negli animali infetti. In seguito, nel 1954 John Salk attraverso l’impiego di queste tecniche di coltura cellulare riuscì a realizzare un vaccino contro la poliomielite.
Va sottolineato che ciò che Enders e Salk riuscirono a fare va inserito in uno sforzo più ampio della comunità scientifica a partire dagli anni ’40 che ha permesso il miglioramento delle tecniche di coltura tissutale e la loro standardizzazione. In particolare, in quegli anni organizzazioni come la Tissue Culture Association (TCA) e la National Foundation for Infantile Paralysis (NFIP) si impegnarono nel tentativo di standardizzare e rendere disponibile alla comunità scientifica materiali e tecniche per la coltura cellulare: vennero organizzati convegni e in breve tempo diventò possibile acquistare terreni ed estratti con cui far crescere le cellule. Fu anche grazie a questo lavoro coordinato che fu possibile utilizzare la linea cellulare immortale HeLa come materiale standard per il test del vaccino contro la poliomielite in diversi laboratori. HeLa era stata stabilita da George Gey nel 1951 grazie alla biopsia di una massa tumorale prelevata da Henrietta Lacks, la quale si era recata in ospedale per ricevere assistenza e non sapeva come sarebbe stato impiegato il tessuto prelevato (Skloot 2010). Al termine della campagna contro la poliomielite HeLa era ampiamente diffusa nei laboratori e gli scienziati iniziarono ad utilizzarla per gli scopi di ricerca più disparati, generando così un’ampia mole di studi e pubblicazioni. Dunque, se in precedenza era possibile lavorare su oggetti dello stesso tipo – lo stesso tipo di topo o lo stesso tipo di tumore – attraverso HeLa diventò possibile lavorare sulla “stessa cosa” in tempi e luoghi diversi. Pertanto, è in questa cornice che i tessuti umani sono diventati così una base standard e un modello per la ricerca biomedica.
Secondo Landecker questa storia ci racconta di come la biotecnologia dal 1900 ad oggi si associ ai “crescenti tentativi di esplorare e realizzare la plasticità della materia vivente” (Landecker 2007, p. 232). Nello specifico, la plasticità riguarda la capacità della materia vivente di essere modificata dagli esseri umani, la quale continuando a vivere può reagire all’intervento anche in modi inaspettati. Inevitabilmente, in questo racconto la plasticità si associa al tentativo di rendere operativo il tempo biologico attraverso una manipolazione della cellula, del medium e delle sostanze in cui questa è immersa. In breve, questa storia ci può aiutare a comprendere il modo attraverso cui siamo arrivati alla concezione odierna di “vita come tecnologia”; ovvero, la possibilità di utilizzare le cellule come una forma tecnologica per interventi terapeutici, sviluppi farmaceutici e per l’industria alimentare. In secondo luogo, questo resoconto permette di evidenziare alcune delle condizioni attraverso cui è stato possibile costruire un’infrastruttura con cui poter mantenere stabilmente le cellule in laboratorio. Infatti, uno scienziato tende a dare per scontata l’idea che sia possibile coltivare delle cellule in laboratorio proprio perché nel tempo è stata sviluppata un’infrastruttura funzionale, e che per questo motivo tende a risultare “invisibile” (Star 1999). In tal senso, ripercorrere gli sviluppi della coltura tissutale permette di portare alla luce gli aspetti infrastrutturali e tecnici che invece rimarrebbero opachi nello sfondo.
BIBLIOGRAFIA
Landecker H. (2007). Culturing Life: how cells become technologies. Harvard University Press, Cambridge.
Skloot R. (2010). La vita immortale di Herietta Lacks. Adelphi, Milano.
Star S.L. (1999). The ethnography of infrastructure. American behavioral scientist, 43(3), 377-391.