La concezione tecnologica del vivente: dalla partenogenesi artificiale alla biologia sintetica - Seconda parte
Nella prima parte di questo articolo, Maurizio Esposito ha esaminato la prima delle tre coordinate che delineano lo spazio della concezione tecnologica del vivente, quella del fare. Nella sua analisi ha fatto riferimento alla controversia tra il fisiologo Jacques Loeb - per il quale la vita è totalmente riducibile a fenomeni fisico-chimici, e l’obiettivo della biologia deve essere la creazione e il controllo dei fenomeni viventi – e il biologo William Emerson Ritter propone una concezione “organicista”, in cui le entità biologiche non sono riducibili ai soli processi fisico-chimici, poiché possiedono proprietà emergenti che vanno considerate nella loro totalità. Controversia che anticipa l’affermazione della visione ingegneristica e della “science-based industry”.
Passiamo ora alla seconda coordinata: codificare. Non c’è dubbio che le scienze della vita contemporanee siano ormai inseparabili dall’informatica: oggi non si fa biologia senza calcolatori elettronici. Come osserva Hallam Stevens nel suo libro Life out of Sequence: A Data-Driven History of Bioinformatics (2013), durante e dopo Guerra Fredda, la biologia si trasforma in un settore tecnologico ed economico di primo piano anche grazie alle tecnologie digitali. I laboratori cambiano volto, e lo spazio dedicato all’uso delle tecnologie dell’informazione (i cosiddetti dry labs) si amplifica. L’incremento dell’impiego di strumenti digitali non ha avuto soltanto risvolti pratici ed economici, ma soprattutto implicazioni di natura epistemica. L’uso massiccio dei computer ridefinisce la concezione stessa del vivente: tutti i processi organici vengono tradotti in sequenze di zeri e uno, mentre algoritmi, database e software permettono di descrivere, simulare e manipolare processi biologici. L’aspetto forse più significativo della narrazione proposta da Stevens è l’osservazione secondo cui non è stata la tecnologia informatica ad adattarsi alle esigenze dei biologi, bensì i biologi stessi a rimodellare la propria disciplina in funzione delle tecnologie dell’informazione. Ne è scaturita una biologia data-driven, in cui la conoscenza non deriva più soltanto dalla formulazione di ipotesi e dalla loro verifica sperimentale, ma soprattutto dalla raccolta e dall’analisi di enormi quantità di dati. In genomica, per esempio, le sequenze di DNA, RNA e proteine vengono digitalizzate e trattate statisticamente. Malattie, tratti ereditari e caratteristiche fenotipiche si trasformano in insiemi di dati da mettere in correlazione. La conoscenza si manifesta nella capacità di decontestualizzare e poi ricontestualizzare dati discreti, riconoscendo pattern e regolarità che affiorano da basi di dati potenzialmente infinite.
Negli anni Sessanta, il biologo molecolare statunitense Joshua Lederberg fu tra i pionieri nell’uso delle tecnologie digitali in biologia, mentre il fisico nucleare Walter Goad applicò tecniche statistiche per modellare fenomeni biochimici complessi utilizzando calcolatori via via più complessi. Negli anni Settanta e Ottanta, la biologia cominciò a trattare DNA e proteine come “sequenze” di dati, aprendo la strada alla nascita della bioinformatica. Con il Progetto Genoma Umano, la disciplina si consolidò definitivamente, rendendo necessario l’uso di computer sempre più potenti per gestire e analizzare enormi quantità di dati in tempi brevi. Stevens osserva che i laboratori contemporanei richiedono così nuove figure professionali: matematici, informatici e ingegneri diventano componenti essenziali dei team di ricerca. In molte istituzioni, i biologi non rappresentano più la categoria predominante. La ricerca non consiste più soltanto nell’elaborazione di teorie, ma nella produzione, gestione e interpretazione dei dati, che assumono al tempo stesso valore scientifico ed economico.
Il Progetto Genoma Umano segnò senz’altro una svolta: sequenziare non era più un’attività ancillare, ma un obiettivo in sé, organizzato con criteri industriali. Per esempio, attraverso il suo studio etnografico condotto nei laboratori del Broad Institute di Boston, Stevens rileva l’adozione dei metodi della Lean production di Toyota: riduzione degli sprechi, ottimizzazione dei tempi e miglioramento della gestione dei dati. Si sviluppa così, secondo Stevens, una sorta di “Lean Biology”, in cui la produzione efficiente di dati diventa centrale. Il computer, in questo contesto, non è solo archivio: diventa strumento di modellizzazione, visualizzazione e sperimentazione virtuale. Le mappe genetiche e le rappresentazioni digitali permettono di manipolare fenomeni invisibili e di immaginare nuovi esperimenti. La bioinformatica non si limita a ordinare dati per fare biologia: essa stessa produce un nuovo tipo di scienza. Questa trasformazione ha reso la biologia una scienza predittiva e quantitativa, aprendo la strada alla medicina personalizzata e alla genetica individuale. Insomma, le tecniche digitali permettono di tradurre sequenze complesse in oggetti concreti e manipolabili, cambiando il modo stesso di concepire i fenomeni organici.
Veniamo infine alla terza coordinata: quella del promettere. Infatti, sostengo che questa concezione tecnologica del vivente si nutre di anticipazioni, proiezioni e utopie; cioè, non si limita a descrivere ciò che il vivente è, ma immagina e prefigura ciò che potrebbe diventare. Nel 2017, ho pubblicato un articolo intitolato “Expectation and Futurity: The Remarkable Success of Genetic Determinism”. Nell’articolo ho analizzato alcune delle visioni futuristiche che hanno accompagnato le scienze della vita nel corso del XX secolo. Nell’articolo osservavo che la costante ossessione per il futuro ha svolto una duplice funzione: da un lato, mantenere vivo l’interesse politico e sociale per determinati ambiti della ricerca scientifica; dall’altro, giustificare finanziamenti e sostegno pubblico, promettendo benefici straordinari, e al contempo concreti, nel breve e nel lungo periodo.
Già sul finire degli anni Venti del secolo scorso, lo scrittore di fantascienza Herbert G. Wells e il biologo inglese Julian Huxley, nel libro The Science of Life, immaginavano un mondo in cui la natura selvaggia si sarebbe trasformata in un giardino globale, privo di malattie e di specie pericolose. Nel 1934, in un articolo intitolato “The applied science of the next hundred years: Biological and social engineering”, Huxley scriveva che l’ingegneria biologica sarebbe diventata la scienza del futuro che avrebbe trasformato l'eredità biologica dell’umanità. Nel 1937, il genetista americano Hermann Muller tentò di persuadere Stalin che la genetica rappresentasse una risorsa fondamentale per il progresso della società sovietica. Come affermava enfaticamente in una lettera inviata a Stalin nel 1937, l’oggetto della missiva riguardava “…il controllo consapevole dell’evoluzione biologica dell’uomo, ossia la capacità dell’uomo di governare il patrimonio ereditario che sta alla base della vita umana” (Muller, 1937, mia traduzione). Nel discorso pronunciato durante la cerimonia del Premio Nobel ricevuto nel 1958, George Beadle ed Edward Tatum parlarono dell’avvento di un’epoca in cui il “codice” della vita sarebbe stato decifrato, aprendo la strada a un miglioramento radicale di tutti gli organismi viventi attraverso l’ingegneria biologica. Nel 1976, sulle pagine di BioScience, in un breve scritto intitolato “Recombinant DNA: On Our Own”, Robert Sinsheimer (il biologo molecolare che fu tra i principali ispiratori del Progetto Genoma Umano) immaginò che la biologia del futuro sarebbe stata in grado di rimodellare il mondo vivente secondo una proiezione della volontà umana.
Con il Progetto Genoma Umano, questa retorica della promessa si intensificò ulteriormente: nel 2005, Craig Venter dichiarò che conoscere il proprio genoma avrebbe permesso agli individui di prendere il controllo della propria vita e di prevedere il futuro delle proprie malattie. Imprenditori come Venter si sono adoperati per persuadere gli investitori del potenziale economico e sociale della genomica. Sebbene gli interlocutori cambino, l’idea di fondo rimane la stessa: il futuro della società dipende dalla capacità di controllare i geni, ossia le “lettere” che compongono l’”alfabeto” del vivente. In sintesi, la biologia deve diventare un’ingegneria del futuro, come Loeb aveva già prefigurato all’inizio del XX secolo.
La controversia tra Loeb e Ritter, tra riduzionismo ingegneristico e organicismo sistemico, rimane ancora oggi un nodo irrisolto. Sebbene l’approccio tecnologico al vivente abbia prodotto risultati di straordinaria rilevanza, esso rischia al contempo di appiattirne la complessità a meri dati, trascurando le dimensioni ecologiche e relazionali (una preoccupazione condivisa da tutti i discendenti di Ritter). In ogni caso, il potere della concezione tecnologica del vivente non risiede tanto nella sua pretesa di verità, quanto nella sua capacità di ridurre la complessità, semplificare e mostrare che la vita può essere manipolata e trasformata. Inoltre, proprio perché è una scienza orientata alla trasformazione, essa non teme di promettere più di quanto realizzi: vive infatti di proiezioni che vengono rapidamente dimenticate e sostituite da utopie ancora più ambiziose.
Oggi più che mai, mentre nuove biotecnologie come l’editing genetico e la biologia sintetica aprono possibilità inedite, la domanda rimane la stessa che animava la polemica tra Loeb e Ritter: la biologia deve limitarsi a comprendere la vita o deve rivendicare il potere di trasformarla radicalmente? Insomma, la biologia va intesa come una scienza naturale del presente o come un’ingegneria del futuro? Al di là delle opinioni che possiamo avere in proposito, la storia insegna che la forza della concezione tecnologica non deriva dalla sua abilità esplicativa, bensì dalla sua capacità di mobilitare risorse e orientare la ricerca in funzione di priorità e visioni future.
La concezione tecnologica del vivente: dalla partenogenesi artificiale alla biologia sintetica - Prima parte
Nel corso della storia della biologia sono emerse diverse concezioni su cosa sia un essere vivente. Ci si è spesso chiesti come distinguere ciò che è vivo da ciò che non lo è, da cosa è composta la materia vivente, come è organizzata e da dove deriva questa organizzazione. Gli antichi materialisti, per esempio, sostenevano che gli esseri viventi nascessero per generazione spontanea, cioè da un incontro casuale di determinati tipi atomi e da una sorta di “selezione naturale” che lasciava persistere solo quei composti atomici, e quindi quelle forme, che si inquadravano in certi tipi di ambiente. Aristotele, nelle sue principali opere filosofiche e biologiche, rifiutò l’idea che l’organizzazione degli esseri viventi potesse essere frutto dell’incontro fortuito di atomi. L’organizzazione biologica richiedeva per Aristotele un principio ordinatore: un’anima che dava forma alla materia, ne permetteva la riproduzione e ne garantiva la permanenza.
Dalla critica di Aristotele alla concezione materialistica nacque così un’altra visione del vivente: quella ilemorfica. Questa visione non solo affermava che un organismo era costituito di materia e forma, ma supponeva anche che in un essere vivente “il tutto era maggiore della somma delle sue parti”, ove il “tutto”” doveva spiegare perché le parti si organizzano in un modo e non in un altro. Il “naturalista” Aristotelico doveva pertanto studiare i fenomeni biologici partendo da quella “totalitá”, cioè dalle funzioni, dagli scopi e fini che spiegano la persistenza e conformazione della materia. Questo paradigma rimarrà dominante fino all’età moderna, quando un autore spagnolo ancora poco conosciuto, il medico medinense Gómez Pereira, propose, in un testo alquanto oscuro, intitolato Antoniana Margarita e pubblicato nel 1554, un’idea diversa: il principio organizzatore, cioè l’anima, esiste solo negli esseri umani. Animali, piante e organismi in generale, secondo Pereira, sarebbero semplici macchine e andrebbero studiati come tali. Cartesio riprenderà questa intuizione e ne farà un vero e proprio programma di ricerca. Un programma che conobbe un discreto successo, suscitando numerose critiche e controversie fino ai nostri giorni.
Si può senz’altro sostenere che la concezione meccanicistica sia, in realtà, già una concezione tecnologica, nella misura in cui trae ispirazione dalle macchine. Il meccanicismo, dopotutto, prende le sue mosse dalla costruzione di macchine: orologi, automi, fontane automatiche e dispositivi dedicati alla produzione. Tuttavia, come si cercherà di mostrare in ciò che segue, esistono differenze fondamentali tra la concezione meccanicistica classica e la concezione tecnologica che emergerà nel XX secolo, anche se entrambe condividono l’idea che il fare o costruire sia il principio cardine del conoscere. Per avvicinarsi alla concezione tecnologica che sto qui delineando, propongo quindi di considerare altre due coordinate fondamentali, oltre a quella d’ispirazione cartesiana. Si tratta, cioè, del passaggio da una scienza delle ipotesi a una scienza dei dati, e del carattere essenzialmente promissorio di questa visione, che alimenta aspettative riguardo a future soluzioni tecniche volte alla trasformazione direzionata del vivente in tutti i suoi aspetti. In sintesi, sostengo che la concezione tecnologica del vivente si collochi nello spazio delimitato da tre coordinate principali (pur senza escluderne altre possibili): fare, codificare e promettere.
Partiamo dalla prima coordinata. Un testo fondamentale che andrebbe riconsiderato è La concezione meccanicista della vita pubblicato nel 1912. L’autore è il fisiologo statunitense Jacques Loeb. In estrema sintesi, il libro di Loeb afferma due cose principali: primo, la vita è totalmente riducibile a fenomeni fisico-chimici; e secondo, l’obiettivo della biologia deve essere la creazione e il controllo dei fenomeni viventi. La biologia, dunque, non dovrebbe più appartenere al campo delle scienze naturali, ma collocarsi nell’ambito più concreto dell’ingegneria. Loeb giustifica le proprie conclusioni richiamando uno dei suoi esperimenti più celebri: quello sulla partenogenesi artificiale, in cui riuscì a indurre lo sviluppo di uova di riccio di mare senza fecondazione, ma tramite determinati stimoli fisico-chimici (soluzioni saline e cloruro di magnesio). Egli interpretò questo risultato come una prova decisiva del fatto che la vita potesse essere manipolata e attivata artificialmente. Il suo intento era dimostrare che, in linea di principio, tutti i processi vitali potevano essere ricondotti a meccanismi chimico-fisici, riproducibili e controllabili in laboratorio.
Come era prevedibile, le conclusioni di Loeb suscitarono numerose reazioni e controversie. Basti ricordare la reazione del biologo statunitense e primo direttore dello Scripps Institution of Oceanography, William Emerson Ritter. Nel 1919, dunque 7 anni dopo la pubblicazione del libro di Loeb, Ritter diede alle stampe un testo polemico intitolato The Unity of the Organism; Or, The Organismal Conception of Life. Nel testo, Ritter sosteneva che la concezione “meccanicistica” di Loeb dovesse essere sostituita da una concezione “organicista”. Le entità biologiche, infatti, non sono riducibili ai soli processi fisico-chimici, poiché possiedono proprietà emergenti che vanno considerate nella loro totalità. Il progetto di un’ingegnerizzazione del vivente si scontrava, secondo lui, con l’estrema complessità e flessibilità degli organismi. La concezione organicista da lui difesa poneva l’accento sull’unità e integrità delle entitá organiche. Il vivente costituiva una categoria ontologica autonoma, estranea a ogni riduzione ingegneristica. Inoltre, Ritter contrapponeva all’ideale di una scienza puramente sperimentale, orientata all’ingegneria del vivente, una visione più tradizionale delle scienze naturali, intese come discipline fondate sull’osservazione diretta dei fenomeni naturali.
Non c’è dubbio che, al di là delle differenti prospettive e sensibilità scientifiche e intellettuali, tra Loeb e Ritter esistessero anche divergenze politiche. Se Loeb rappresentava una visione tecnocratica, convinta che il progresso sociale e politico dovesse passare attraverso il controllo della vita stessa, Ritter, al contrario, rappresentava una visione più sistemica e “democratica”, in cui la biologia costituiva un sapere importante, ma non esclusivo, nella gestione dell’essere umano e della società. Non è un caso, per esempio, che Ritter fosse anche un critico acerrimo di ogni forma di determinismo genetico, che egli considerava una manifestazione di fatalismo.
La controversia tra Loeb e Ritter, infatti, si sviluppa in un momento storico particolare. Come sostiene David F. Noble nel suo libro America by Design (1977), negli Stati Uniti di fine Ottocento e inizio Novecento si generò una tensione tra le scienze naturali tradizionali e le nuove professioni emergenti legate alle “arti” applicate. In questo contesto, la professione dell’ingegnere acquisisce un prestigio crescente. A partire dal 1860, Università come il MIT, Harvard e Yale istituiscono corsi di scienze applicate, mentre grandi industrie come General Electric, DuPont ed Eastman Kodak fondano laboratori di ricerca propri, assumendo scienziati formati nelle università tradizionali con l’obiettivo di sviluppare nuove tecnologie. Nasce cosí quello che Noble definisce “science-based industry”. È in questo contesto storico che l’aggettivo “ingegneristico” assume un significato particolare. Quando Loeb parla di “biologia ingegneristica”, intende affermare che la biologia deve appartenere alle scienze produttive, cioè a quelle discipline capaci di trasformare materiali e processi vitali a fini umani. In altre parole, la biologia deve trovare il proprio posto all’interno di questa “science-based industry”. A posteriori, si può affermare che la visione ingegneristica di Loeb abbia avuto un successo di gran lunga superiore rispetto a quella di Ritter, che è rimasta piuttosto marginale (anche se non è mai scomparsa).
Un esempio significativo che ha sancito il successo di questa visione loebiana è rappresentato dalla biologia molecolare. Come mostra Lily Kay nel suo libro The Molecular Vision of Life (1993), questa disciplina fu plasmata non solo da esigenze interne alla scienza, ma anche da contesti ideologici e istituzionali. Gia a partire dagli anni trenta del XX secolo, fondazioni come la Rockefeller e istituzioni come il Caltech promossero una visione riduzionista, meccanicistica e orientata al controllo, che in seguito sarebbe entrata in sintonia con le logiche della Guerra Fredda. In un altro volume, Who Wrote the Book of Life? A History of the Genetic Code (2000), Kay analizzò lo sviluppo delle scienze della vita nel secondo dopoguerra, mettendo in evidenza l’emergere di metafore derivate dalla teoria dell’informazione e dall’ingegneria, che, secondo l’autrice, influenzarono profondamente la biologia, sia prima sia dopo la scoperta della struttura molecolare del DNA nel 1953. La concezione del DNA come “codice”, ovvero come un insieme di informazioni discrete contenute nelle macromolecole che costituiscono il materiale ereditario, deve molto all’ingegneria dell’informazione. L’organismo stesso viene così concepito come un sistema di input e output governato da leggi prevedibili. Come sottolinea Kay, la metafora del “codice” non è mai stata neutrale ma ha condizionato lo sviluppo della disciplina stessa. Tuttavia, tale “visione molecolare” ha spesso ignorato le complessità ambientali, epigenetiche e sistemiche che caratterizzano i fenomeni viventi.
La prossima settimana analizzeremo la seconda e la terza coordinata, codificare e promettere.
Coltivare la vita in laboratorio - Come siamo arrivati a intendere la materia vivente come tecnologia
Pensando al lavoro di scienziati o biologi in laboratorio non ci risulta strana la possibilità che questi possano essere impegnati nella coltivazione di cellule o linee cellulari provenienti da vari organismi viventi. Ad esempio, attualmente le cellule che provengono da esseri umani sono ampiamente utilizzate nei laboratori e in programmi di ricerca biomedica, così come rivestono un ruolo centrale nella ricerca farmaceutica. In breve, la possibilità di mantenere in vita cellule e tessuti umani al di fuori del corpo e di usarle come una materia tecnologica è qualcosa che accade di routine, è ritenuto normale e non desta alcun particolare senso di straniamento. Tuttavia, com’è possibile questo? Quando siamo arrivati a pensare la vita al di fuori del corpo come qualcosa di normale e non problematico? E in quale momento la vita e le cellule hanno assunto questa particolare forma tecnologica? Questi sono alcuni degli interrogativi da cui parte anche Hannah Landecker (2007), sociologa e storica della scienza, nel ricostruire la storia della coltura dei tessuti. Tali questioni ci possono aiutare a focalizzare l’attenzione su alcune delle condizioni che hanno permesso la costruzione di infrastruttura in cui è stato possibile standardizzare metodi, tecniche e oggetti sperimentali impiegati nella coltura cellulare.
Un evento da cui iniziare può essere rintracciato nel 1907, quando Ross Harrison, a partire dal tessuto embrionale di una rana, riuscì ad osservare la crescita di una fibra nervosa al di fuori del corpo. In quegli anni era in corso un vivace dibattito scientifico sulla natura e sviluppo delle fibre nervose a cui risultava difficile trovare una soluzione con le tecniche e i metodi sperimentali impiegati. Infatti, gli scienziati si affidavano principalmente a tecniche istologiche, le quali consistevano nell’acquisizione di sezioni del corpo di un animale in diverse fasi nel tempo, per cui era necessario sacrificare vari animali in diversi momenti per osservare degli sviluppi tissutali. I tessuti ottenuti in questo modo erano resi adeguati alla conservazione e all’analisi attraverso sostanze fissative e coloranti, e in questo modo fornivano dei modelli statici di momenti precisi dello sviluppo. Nonostante ciò, con queste tecniche istologiche non era possibile trovare una risposta sostanziale allo sviluppo delle fibre nervose: gli scienziati potevano dare delle interpretazioni opposte dello stesso frammento di tessuto reso in forma statica. Harrison risolse questa controversia cercando di rendere visibile, al di fuori del corpo, il processo di sviluppo di una fibra nervosa mentre avveniva. Partendo da nozioni di coltura dei microrganismi, egli riuscì a realizzare una preparazione a “goccia sospesa” (hanging-drop) che forniva un supporto attraverso della linfa coagulata per far crescere le fibre nervose di rana al di fuori del corpo. In questo modo, Harrison utilizzando delle cellule vive risolse il problema di come gli organismi biologici viventi cambiano nel tempo e rese visibili i processi che erano interni al corpo degli animali. È in questo senso che all’inizio del XX secolo inizia ad emergere la possibilità e l’idea di sperimentazione in vitro e non più solo in vivo.
Qualche anno più tardi Alexis Carrel e il suo assistente Montrose Burrows tentarono di sviluppare le tecniche adottate da Harrison nel tentativo di mantenere in vita le cellule al di fuori del corpo. Carrel e Burrows trasformarono “il metodo di Harrison per la crescita a breve termine di un tessuto embrionale in un metodo generalizzato per la coltivazione di tutti i tipi di tessuto” (Landecker 2007, p.53) e nel 1910 coniarono il termine “coltura tissutale” per riferirsi a questa serie di operazioni. In particolare, Carrel e Burrows cercarono di mantenere in vita le cellule attraverso la creazione di colture secondarie a partire da un frammento di tessuto: spostando una parte delle cellule in un nuovo medium plasmatico si generava una sorta di riattivazione cellulare e queste continuavano a vivere. Tuttavia, con questa tecnica le cellule cessavano di aumentare di massa e diventavano più piccole ad ogni trasferimento, per cui la soluzione tecnica che adottò Carrel fu quella di aggiungere del tessuto embrionale macinato – chiamato “succo embrionale” – per nutrire le cellule. Fu in questo contesto che Carrel affermò la possibilità di poter coltivare delle “cellule immortali”, che potevano vivere in maniera indefinita al di fuori del corpo. Infatti, per Carrel la morte cellulare era un “fenomeno contingente” che poteva essere rimandato attraverso la manipolazione del medium plasmatico e le sostanze in cui era immersa la cellula. Per questa ragione, Carrel brevettò una fiaschetta, nota come “Carrel flask”, che gli permise di coltivare le cellule in modo asettico evitando infezioni e manipolando le sostanze in cui erano immerse le cellule in modo controllato. Tuttavia, va precisato che negli anni ’60 si dimostrò che le uniche cellule che potevano essere tecnicamente immortali erano quelle di origine cancerosa.
È attraverso le pratiche sperimentali di Harrison e Carrel che inizia ad emergere una nuova enfasi sul corpo e sulla possibilità di coltivare delle cellule in vitro. All’inizio del XX secolo non era nuova la possibilità di tenere i tessuti al di fuori del corpo per un po’ di tempo, ma in quel contesto il corpo era concepito come l’elemento essenziale che garantiva la vita delle cellule, le quali non avrebbero potuto sopravvivere al di fuori di esso. Le pratiche sperimentali di Harrison e Carrel segnano un passaggio all’idea che le cellule e i tessuti non solo possono sopravvivere al di fuori del corpo, ma continuano a dividersi, differenziarsi e vivere. In questo senso, inizia ad emergere un senso di possibilità legato al fatto che le cellule possono vivere con una certa autonomia anche se staccate dal corpo.
È tra gli anni ’40 e ’50 con la campagna contro il virus della poliomielite che, attraverso una serie di sforzi infrastrutturali, fu reso possibile l’impiego per la prima volta di tessuti umani su larga scala: in precedenza ciò non era possibile e le cellule venivano coltivate in singoli laboratori senza la possibilità di scambi e trasferimenti. Nella prima metà del XX secolo i virus erano molto difficili da osservare e coltivare: venivano conservati in laboratorio facendoli passare attraverso uova ed animali infetti; ciò era un metodo molto complesso e costoso. Per questa ragione nel 1940 John Enders pensò di utilizzare i metodi di coltura tissutale per osservare lo sviluppo delle infezioni virali. In questo modo, Enders e il suo collega Weller svilupparono un modello cellulare per osservare il lento sviluppo nel tempo del virus della parotite, questo si rivelò poi anche utile per studiare la poliomielite. Pertanto, attraverso la coltura dei tessuti è diventato possibile osservare lo sviluppo delle infezioni virali osservando i cambiamenti cellulari invece che guardare i sintomi che si manifestavano negli animali infetti. In seguito, nel 1954 John Salk attraverso l’impiego di queste tecniche di coltura cellulare riuscì a realizzare un vaccino contro la poliomielite.
Va sottolineato che ciò che Enders e Salk riuscirono a fare va inserito in uno sforzo più ampio della comunità scientifica a partire dagli anni ’40 che ha permesso il miglioramento delle tecniche di coltura tissutale e la loro standardizzazione. In particolare, in quegli anni organizzazioni come la Tissue Culture Association (TCA) e la National Foundation for Infantile Paralysis (NFIP) si impegnarono nel tentativo di standardizzare e rendere disponibile alla comunità scientifica materiali e tecniche per la coltura cellulare: vennero organizzati convegni e in breve tempo diventò possibile acquistare terreni ed estratti con cui far crescere le cellule. Fu anche grazie a questo lavoro coordinato che fu possibile utilizzare la linea cellulare immortale HeLa come materiale standard per il test del vaccino contro la poliomielite in diversi laboratori. HeLa era stata stabilita da George Gey nel 1951 grazie alla biopsia di una massa tumorale prelevata da Henrietta Lacks, la quale si era recata in ospedale per ricevere assistenza e non sapeva come sarebbe stato impiegato il tessuto prelevato (Skloot 2010). Al termine della campagna contro la poliomielite HeLa era ampiamente diffusa nei laboratori e gli scienziati iniziarono ad utilizzarla per gli scopi di ricerca più disparati, generando così un’ampia mole di studi e pubblicazioni. Dunque, se in precedenza era possibile lavorare su oggetti dello stesso tipo – lo stesso tipo di topo o lo stesso tipo di tumore – attraverso HeLa diventò possibile lavorare sulla “stessa cosa” in tempi e luoghi diversi. Pertanto, è in questa cornice che i tessuti umani sono diventati così una base standard e un modello per la ricerca biomedica.
Secondo Landecker questa storia ci racconta di come la biotecnologia dal 1900 ad oggi si associ ai “crescenti tentativi di esplorare e realizzare la plasticità della materia vivente” (Landecker 2007, p. 232). Nello specifico, la plasticità riguarda la capacità della materia vivente di essere modificata dagli esseri umani, la quale continuando a vivere può reagire all’intervento anche in modi inaspettati. Inevitabilmente, in questo racconto la plasticità si associa al tentativo di rendere operativo il tempo biologico attraverso una manipolazione della cellula, del medium e delle sostanze in cui questa è immersa. In breve, questa storia ci può aiutare a comprendere il modo attraverso cui siamo arrivati alla concezione odierna di “vita come tecnologia”; ovvero, la possibilità di utilizzare le cellule come una forma tecnologica per interventi terapeutici, sviluppi farmaceutici e per l’industria alimentare. In secondo luogo, questo resoconto permette di evidenziare alcune delle condizioni attraverso cui è stato possibile costruire un’infrastruttura con cui poter mantenere stabilmente le cellule in laboratorio. Infatti, uno scienziato tende a dare per scontata l’idea che sia possibile coltivare delle cellule in laboratorio proprio perché nel tempo è stata sviluppata un’infrastruttura funzionale, e che per questo motivo tende a risultare “invisibile” (Star 1999). In tal senso, ripercorrere gli sviluppi della coltura tissutale permette di portare alla luce gli aspetti infrastrutturali e tecnici che invece rimarrebbero opachi nello sfondo.
BIBLIOGRAFIA
Landecker H. (2007). Culturing Life: how cells become technologies. Harvard University Press, Cambridge.
Skloot R. (2010). La vita immortale di Herietta Lacks. Adelphi, Milano.
Star S.L. (1999). The ethnography of infrastructure. American behavioral scientist, 43(3), 377-391.



