Tra plasticità, adattamento e impalcature “ostili”: un modello integrato della biologia ecologica per affrontare le sfide tecnologiche contemporanee
La pervasività delle tecnologie digitali, dell'intelligenza artificiale e delle infrastrutture algoritmiche sta riconfigurando profondamente i processi cognitivi, le norme sociali e i framework etici della società contemporanea (Floridi, 2023). Questa trasformazione richiede nuovi strumenti concettuali per comprendere le dinamiche di interazione tra organismi umani e ambienti tecnologici. La Teoria della Costruzione della Nicchia (NCT) rappresenta un'estensione della sintesi evoluzionistica moderna che riconosce agli organismi un ruolo attivo nella modificazione del proprio ambiente (Laland et al., 2016)[1]. Secondo questo paradigma, gli organismi non si limitano a rispondere passivamente alle pressioni selettive ambientali, ma modificano attivamente le fonti di selezione naturale attraverso le loro attività, alterando sia il proprio ambiente che quello delle generazioni successive.
LA COSTRUZIONE DELLA NICCHIA
Laland e colleghi (2016) definiscono la costruzione della nicchia come "il processo mediante il quale gli organismi, attraverso le loro attività, scelte e costruzioni metaboliche, modificano i propri ambienti e/o quelli di altre specie”. Questo processo opera a livello sia filogenetico che ontogenetico, generando dinamiche di feedback evolutivo in cui le modificazioni ambientali operate dagli organismi influenzano le pressioni selettive a cui essi stessi sono sottoposti.
Negli esseri umani, la costruzione di nicchia assume una dimensione particolarmente complessa, integrando componenti biologiche e culturali su molteplici livelli di intersezione. L’innovazione tecnologica rappresenta una forma di modificazione ambientale che ha da sempre accompagnato l'evoluzione umana attraverso l’invenzione di strumenti, dall'invenzione della ruota alla scrittura, fino alle attuali tecnologie digitali, configurando ciò che può essere definito come un processo di co-evoluzione gene-cultura-tecnologia. Come ampiamente sostenuto dal modello di ricerca epistemologica integrata dell’Università di Vrije di Amsterdam (VU), il TEND project[2], questo paradigma riflette su come le nicchie degli esseri umani siano intrinsecamente tecnologiche e, come tali, soggette a disruption attraverso l'innovazione tecnologica.
Questo modello epistemologico innovativo rappresenta un interessante spunto di riflessione dal punto di vista ecologico e interdisciplinare. Una nicchia, infatti, può essere concettualizzata come un sistema dinamico, caratterizzato al suo interno da continui stati di equilibrio e disequilibrio. Questo approccio si distacca da una visione statica della nicchia come semplice "spazio" occupato da un organismo, riconoscendone invece la natura processuale e relazionale. La prospettiva ecologica proposta da Gibson (1979)[3] con l’introduzione del concetto di affordance descrive l’interazione con l’ambiente in gradi di possibilità di azione strutturale e funzionale che l'ambiente offre all'organismo. Seppure questo modello sia ampiamente noto nella prospettiva cognitiva ecologica, gli ambienti digitali[4] e la Human-Machine Interaction in questo senso possono essere interpretata come una specifica forma di nicchia ecologica che fornisce specifiche affordance tecnologiche, le quali simultaneamente potenziano e vincolano l'esistenza degli agenti cognitivi embodied.
A sostegno della possibilità dell’organismo di costruire modelli relazionali e cognitivi sulla base della propria struttura cognitiva in relazione all’ambiente e su quanto esso sia continuamente coinvolto nelle attività di modellamento e alterazione dei circuiti interni, le riflessioni di Stanislas Dehaene risultano centrali in termini di plasticità e adattamento funzionale nel paradigma bio- psico-sociale. Dehaene (2009)[5], studiando i circuiti neurali della lettura e della scrittura, ha ampiamente dimostrato come il nostro cervello abbia adattato circuiti corticali pre-esistenti per creare una rete funzionale specifica, quella della letto-scrittura, fornendo una base neurobiologica al concetto di exaptation proposto da Gould (1982)[6]. L'exaptation, ovvero la capacità di cooptare circuiti pre-esistenti per nuovi scopi, si applica dunque alla possibilità di modificazione degli organismi appartenenti ad una nicchia per uno scopo specifico, sulla base delle possibilità che l’ambiente offre. Come sottolineato da Maryanne Wolf (2018)[7] nell'analisi delle funzioni cognitive legate all'alfabetizzazione ad esempio, i processi epigenetici e di sviluppo giocano un ruolo fondamentale nella riconfigurazione delle capacità cognitive in risposta alle trasformazioni ambientali, operando simultaneamente a livello biologico e culturale[8]. In questo quadro, le tecnologie non si configurano come mere estensioni esterne, ma componenti integrate del sistema cognitivo distribuito, secondo quanto teorizzato da Clark e Chalmers nel 1998 nel loro influente articolo sulla "mente estesa"[9].
IL CONCETTO DI DISRUPTION APPLICATO ALLA TEORIA DELLA NICCHIA
Il concetto di disruption (rottura, sconvolgimento) si pone come elemento fondamentale, come sostenuto dalla valenza euristica delle ricerche; esso è stato spesso applicato al contesto economico-manageriale per descrivere innovazioni che sovvertono radicalmente mercati e industrie consolidate, rendendo obsolete tecnologie e pratiche dominanti. Applicato alla sfera digitale e sociale e alla teoria ecologica della NCT, come nel framework del progetto TEND, il termine acquista una valenza più ampia. Osservando la disruption da una prospettiva ecologica, quando un nuovo elemento tecnologico interviene in un sistema, esso interrompe i cicli di feedback esistenti e costringe l'organismo a (ri)costruire relazioni interne della propria nicchia a diversi livelli: individuale, sociale e globale. La disruption tecnologica dunque rappresenta la soglia critica in cui alcuni equilibri consolidati collassano e nuove strutture emergono, richiedendo processi di riorganizzazione che operano simultaneamente a livello cognitivo, sociale e istituzionale.
A differenza della valenza semantica in economia, che enfatizza primariamente la dimensione competitiva e innovativa, l'applicazione del termine agli ecosistemi socio-tecnologici evidenzia le implicazioni per lo sviluppo del benessere umano, l'autonomia cognitiva e la coesione sociale.
Hopster (2021) definisce le tecnologie socialmente disruptive come quelle che «alterano significativamente le norme sociali, i valori, le pratiche o le istituzioni esistenti»[10], ma anche il modo di percepire, agire, conoscere e relazionarsi in una specifica nicchia. Negli ambienti digitali la disruption diventa una condizione pervasiva che rimodella non solo comunicazione e produzione, ma anche percezione, emozione e cognizione. La riflessione filosofica di Georges Canguilhem (1966)[11] offre uno strumento epistemologico interessante e una possibile apertura per interpretare l’evoluzione di questi nuovi processi di modificazione delle nicchie ecologiche. In Le normal et le pathologique, Canguilhem introduce il concetto di normatività come quella specifica capacità dell'organismo di ristabilire una relazione coerente e vitale con il proprio ambiente. Secondo Canguilhem, infatti, il concetto stesso di normalità, in stati organici sani o patologici, evolve nel tempo seguendo cambiamenti strutturali nella relazione organismo-ambiente. La patologia, secondo la lettura canghuilemiana, non è dunque intesa come mera disfunzione organica, ma come un momento di squilibrio e di incertezza che induce a una nuova modalità di interazione con l'ambiente, basata sull'attività normativa propria dell'organismo.
DISRUPTION COME RICONFIGURAZIONE NORMATIVA
Applicata al contesto tecnologico, questa prospettiva suggerisce che la disruption non costituisce necessariamente una condizione patologica (intesa come a-normale), ma rappresenta piuttosto una fase di riconfigurazione normativa in cui l'organismo deve sviluppare nuove strategie di adattamento o di exaptation alla Gould. La riflessione centrale di questi modelli ecologici integrati e interdisciplinari è proprio quella di individuare elementi fondamentali per comprendere come e in che modo tecnologie disruptive come l’IA si stiano diffondendo all’interno delle nicchie umane, a vari livelli, e quali cambiamenti in termini etici, normativi, cognitivi e sociali stiano apportando. Una possibile soluzione sarebbe quella di mirare allo sviluppo di nuove competenze interdisciplinari per la costruzione di un'impalcatura sociale etica e sostenibile sufficientemente robusta, ma allo stesso tempo flessibile da permettere la co-evoluzione con la disruption senza compromettere le strutture fondamentali dei sistemi di valori e credenze.
SCAFFOLDING OSTILE
Il concetto di scaffolding, che riprende il costrutto teorico della «zona di sviluppo prossimale» di Vygotskij[12], individua le strutture esterne che supportano e facilitano i processi cognitivi. Nel contesto tecnologico gli ambienti digitali dovrebbero idealmente fornire una forma di scaffolding cognitivo, estendendo e potenziando le capacità umane. Tuttavia, Timms e Spurrett (2021) hanno introdotto recentemente il concetto di hostile scaffolding per descrivere situazioni in cui "le strutture che dovrebbero supportare la cognizione possono simultaneamente vincolarla o distorcerla"[13]. Questo fenomeno si verifica quando le affordances tecnologiche, invece di facilitare processi cognitivi adattivi, generano pattern disfunzionali o controproducenti. Alcuni esempi di scaffolding “ostile” si verificano, ad esempio, in quella che viene definita la “crisi dell’attenzione”[14]. Le piattaforme digitali contemporanee infatti sono progettate secondo principi di "economia dell'attenzione"[15] che massimizzano il tempo di utilizzo attraverso meccanismi di rinforzo intermittente (notifiche push, feedback sociali, scrolling infinito). Queste architetture, come evidenziano numerosi studi, catturano e frammentano l'attenzione degli utenti, con effetti di grande impatto sull’intero sistema attentivo e sulle competenze metacognitive e riflessive, specialmente negli adolescenti e nei giovani adulti. Un altro esempio riguarda gli algoritmi di raccomandazione basati su modelli predittivi del comportamento utente, i quali tendono a creare delle vere e proprie bolle, le "filter bubbles" (bolle di filtraggio) ed "echo chambers", un fenomeno ormai noto e ampiamente studiato dalla letteratura scientifica per la capacità di esporre selettivamente gli utenti a contenuti che confermano le loro preesistenti inclinazioni cognitive e ideologiche, perpetrando bias di conferma e sempre maggiore polarizzazione dell’opinione pubblica[16]. Infine, nuovi e recenti studi stanno indagando sulle conseguenze a lungo termine dell'”effetto delega” di specifici task. Esso è reso possibile dall'automazione sempre maggiore di compiti cognitivi precedentemente eseguiti da agenti cognitivi umani nell’utilizzo di tecnologie AI based in specifici contesti sociali. Queste tecnologie producono non solo stati di potenziamento, ma possono produrre anche veri e propri fenomeni di depotenziamento di alcune funzioni cognitive specifiche a seguito di un progressivo aumento dello scarico cognitivo, come sottolineato dalle più recenti ricerche in merito.[17]
IN SINTESI
L’approccio integrato dunque riconosce la natura co-evolutiva e complessa della relazione tra organismi umani e tecnologie. Questa prospettiva ecologica ed epistemologica qui delineata evidenzia come la disruption tecnologica rappresenti un momento di rottura dello spazio epistemico che richiede processi di riconfigurazione normativa a livello individuale e collettivo attraverso un bilanciamento costante tra ciò che possiamo guadagnare e ciò che potremmo perdere.
Il riconoscimento delle impalcature potenzialmente ostili costituisce un primo passo verso la progettazione e il design di ambienti digitali in grado di potenziare le capacità cognitive e le strutture valoriali fondamentali dell'esistenza umana; verso un’infrastruttura tecnologica plastica, sostenibile e allineata con i valori cardine della nostra società.
NOTE
[1] Laland, K., Matthews, B., & Feldman, M. W. (2016). An Introduction to Niche Construction Theory. Evolutionary Ecology, 30(2), 191–202. https://doi.org/10.1007/s10682-016-9821-z
[2] Il progetto integrale “TEND” dell’Università Vrje di Amsterdam è visitabile al seguente indirizzo https://sites.google.com/view/tend-project/home
[3] Gibson, J. J. (1979). The Ecological Approach to Visual Perception. Boston: Houghton Mifflin.
[4] Della Rocca, M. (2025), Digital Environments and Information, Laboratorio dell’ISPF. 2025, vol. XXII [In Press].
[5] Dehaene S. (2009), Reading in the Brain: The New Science of How We Read, Penguin, New York.
[6] Gould, S. J. (1982). Exaptation: A Missing Term in the Science of Form. Paleobiology, 8(1), 4-15.
[7] Wolf, M., Proust and the Squid: The Story and Science of the Reading Brain, 2008, Icon Books Ltd.
[8] Morabito, C. (2018). Epigenetics and the Development of Cognitive Functions: Literacy as a Case Study. In D. Ceccarelli & G. Frezza (Eds.), Predictability and the Unpredictable: Life, Evolution and Behaviour (pp. 145-156). Rome: CNR Edizioni.
[9] Clark, A., & Chalmers, D. (1998). The Extended Mind. Analysis, 58(1), 7-19.
[10] Hopster, J. (2021). What Are Socially Disruptive Technologies? Technology in Society, 67, 101750. https://doi.org/10.1016/j.techsoc.2021.101750
[11] Canguilhem, G. (1966). Le normal et le pathologique. Paris: Presses Universitaires de France.
[12] Vygotsky, L. S. (1978). Mind and Society. Cambridge, MA: Harvard University Press. Il concetto di scaffolding, seppur ampiamente utilizzato per descrivere il concetto di «zona di sviluppo prossimale» di Vygotskij, comparse per la prima volta in Wood, D., Bruner, J. S., & Ross, G. (1976). The role of tutoring in problem-solving. Journal of Child Psychology and Psychiatry and Allied Disciplines, 17, 89–100.
[13] Timms, R., & Spurrett, D. (2021). Hostile Scaffolding. PhilArchive. https://philarchive.org/archive/TIMHSv1
[14] Campo, E. (2020) La testa altrove. L'attenzione e la sua crisi nella società digitale, Donzelli Editore.
[15] Il concetto di «economy of attention» fu teorizzato per la prima volta da Herbert Simon nel 1971 per indicare l’effetto dell’aumento delle informazioni nella società capitalistica e la conseguente diminuzione dell’attenzione.
[16] Scholz, R. (2016). Sustainable Digital Environments: What Major Challenges Is Humankind Facing? Sustainability, 8(8), 726. https://doi.org/10.3390/su80807
[17] Gerlich M. AI Tools in Society: Impacts on Cognitive Offloading and the Future of Critical Thinking. Societies. 2025; 15(1):6. https://doi.org/10.3390/soc15010006
BIBLIOGRAFIA
- Canguilhem, G. (1966). Le normal et le pathologique. Paris: Presses Universitaires de France.
- Clark, A., & Chalmers, D. (1998). The Extended Mind. Analysis, 58(1), 7-19.
- Brey, P., Roeser, S., & IJsselsteijn, W. (2019). Ethics of socially disruptive technologies. Project proposal for Netherlands Organisation of Scientific Research.
- Dehaene S. 2009, Reading in the Brain: The New Science of How We Read, Penguin, New York.
- Floridi, L. (2023). The Ethics of Artificial Intelligence: Principles, Challenges, and Opportunities. Oxford: OUP Oxford.
- Gerlich M. AI Tools in Society: Impacts on Cognitive Offloading and the Future of Critical Thinking. Societies. 2025; 15(1):6. https://doi.org/10.3390/soc15010006 ;
- Gibson, J. J. (1979). The Ecological Approach to Visual Perception. Boston: Houghton Mifflin.
- Gould, S. J. (1982). Exaptation: A Missing Term in the Science of Form. Paleobiology, 8(1), 4-15.
- Hopster, J. (2021). What Are Socially Disruptive Technologies? Technology in Society, 67, 101750. https://doi.org/10.1016/j.techsoc.2021.101750
- Laland, K., Matthews, B., & Feldman, M. W. (2016). An Introduction to Niche Construction Theory. Evolutionary Ecology, 30(2), 191-202. https://doi.org/10.1007/s10682-016-9821-z
- Morabito, C. (2018). Epigenetics and the Development of Cognitive Functions: Literacy as a Case Study. In D. Ceccarelli & G. Frezza (Eds.), Predictability and the Unpredictable: Life, Evolution and Behaviour (pp. 145-156). Rome: CNR Edizioni.
- Scholz, R. (2016). Sustainable Digital Environments: What Major Challenges Is Humankind Facing? Sustainability, 8(8), 726. https://doi.org/10.3390/su80807
- Timms, R., & Spurrett, D. (2021). Hostile Scaffolding. PhilArchive. https://philarchive.org/archive/TIMHSv1
- Varela, F., Thompson, E., & Rosch, E. (2017). The Embodied Mind (Revised Edition). Cambridge, MA: MIT Press.
La concezione tecnologica del vivente: dalla partenogenesi artificiale alla biologia sintetica - Seconda parte
Nella prima parte di questo articolo, Maurizio Esposito ha esaminato la prima delle tre coordinate che delineano lo spazio della concezione tecnologica del vivente, quella del fare. Nella sua analisi ha fatto riferimento alla controversia tra il fisiologo Jacques Loeb - per il quale la vita è totalmente riducibile a fenomeni fisico-chimici, e l’obiettivo della biologia deve essere la creazione e il controllo dei fenomeni viventi – e il biologo William Emerson Ritter propone una concezione “organicista”, in cui le entità biologiche non sono riducibili ai soli processi fisico-chimici, poiché possiedono proprietà emergenti che vanno considerate nella loro totalità. Controversia che anticipa l’affermazione della visione ingegneristica e della “science-based industry”.
-----
Passiamo ora alla seconda coordinata: codificare. Non c’è dubbio che le scienze della vita contemporanee siano ormai inseparabili dall’informatica: oggi non si fa biologia senza calcolatori elettronici. Come osserva Hallam Stevens nel suo libro Life out of Sequence: A Data-Driven History of Bioinformatics (2013), durante e dopo Guerra Fredda, la biologia si trasforma in un settore tecnologico ed economico di primo piano anche grazie alle tecnologie digitali. I laboratori cambiano volto, e lo spazio dedicato all’uso delle tecnologie dell’informazione (i cosiddetti dry labs) si amplifica. L’incremento dell’impiego di strumenti digitali non ha avuto soltanto risvolti pratici ed economici, ma soprattutto implicazioni di natura epistemica. L’uso massiccio dei computer ridefinisce la concezione stessa del vivente: tutti i processi organici vengono tradotti in sequenze di zeri e uno, mentre algoritmi, database e software permettono di descrivere, simulare e manipolare processi biologici. L’aspetto forse più significativo della narrazione proposta da Stevens è l’osservazione secondo cui non è stata la tecnologia informatica ad adattarsi alle esigenze dei biologi, bensì i biologi stessi a rimodellare la propria disciplina in funzione delle tecnologie dell’informazione. Ne è scaturita una biologia data-driven, in cui la conoscenza non deriva più soltanto dalla formulazione di ipotesi e dalla loro verifica sperimentale, ma soprattutto dalla raccolta e dall’analisi di enormi quantità di dati. In genomica, per esempio, le sequenze di DNA, RNA e proteine vengono digitalizzate e trattate statisticamente. Malattie, tratti ereditari e caratteristiche fenotipiche si trasformano in insiemi di dati da mettere in correlazione. La conoscenza si manifesta nella capacità di decontestualizzare e poi ricontestualizzare dati discreti, riconoscendo pattern e regolarità che affiorano da basi di dati potenzialmente infinite.
Negli anni Sessanta, il biologo molecolare statunitense Joshua Lederberg fu tra i pionieri nell’uso delle tecnologie digitali in biologia, mentre il fisico nucleare Walter Goad applicò tecniche statistiche per modellare fenomeni biochimici complessi utilizzando calcolatori via via più complessi. Negli anni Settanta e Ottanta, la biologia cominciò a trattare DNA e proteine come “sequenze” di dati, aprendo la strada alla nascita della bioinformatica. Con il Progetto Genoma Umano, la disciplina si consolidò definitivamente, rendendo necessario l’uso di computer sempre più potenti per gestire e analizzare enormi quantità di dati in tempi brevi. Stevens osserva che i laboratori contemporanei richiedono così nuove figure professionali: matematici, informatici e ingegneri diventano componenti essenziali dei team di ricerca. In molte istituzioni, i biologi non rappresentano più la categoria predominante. La ricerca non consiste più soltanto nell’elaborazione di teorie, ma nella produzione, gestione e interpretazione dei dati, che assumono al tempo stesso valore scientifico ed economico.
Il Progetto Genoma Umano segnò senz’altro una svolta: sequenziare non era più un’attività ancillare, ma un obiettivo in sé, organizzato con criteri industriali. Per esempio, attraverso il suo studio etnografico condotto nei laboratori del Broad Institute di Boston, Stevens rileva l’adozione dei metodi della Lean production di Toyota: riduzione degli sprechi, ottimizzazione dei tempi e miglioramento della gestione dei dati. Si sviluppa così, secondo Stevens, una sorta di “Lean Biology”, in cui la produzione efficiente di dati diventa centrale. Il computer, in questo contesto, non è solo archivio: diventa strumento di modellizzazione, visualizzazione e sperimentazione virtuale. Le mappe genetiche e le rappresentazioni digitali permettono di manipolare fenomeni invisibili e di immaginare nuovi esperimenti. La bioinformatica non si limita a ordinare dati per fare biologia: essa stessa produce un nuovo tipo di scienza. Questa trasformazione ha reso la biologia una scienza predittiva e quantitativa, aprendo la strada alla medicina personalizzata e alla genetica individuale. Insomma, le tecniche digitali permettono di tradurre sequenze complesse in oggetti concreti e manipolabili, cambiando il modo stesso di concepire i fenomeni organici.
Veniamo infine alla terza coordinata: quella del promettere. Infatti, sostengo che questa concezione tecnologica del vivente si nutre di anticipazioni, proiezioni e utopie; cioè, non si limita a descrivere ciò che il vivente è, ma immagina e prefigura ciò che potrebbe diventare. Nel 2017, ho pubblicato un articolo intitolato “Expectation and Futurity: The Remarkable Success of Genetic Determinism”. Nell’articolo ho analizzato alcune delle visioni futuristiche che hanno accompagnato le scienze della vita nel corso del XX secolo. Nell’articolo osservavo che la costante ossessione per il futuro ha svolto una duplice funzione: da un lato, mantenere vivo l’interesse politico e sociale per determinati ambiti della ricerca scientifica; dall’altro, giustificare finanziamenti e sostegno pubblico, promettendo benefici straordinari, e al contempo concreti, nel breve e nel lungo periodo.
Già sul finire degli anni Venti del secolo scorso, lo scrittore di fantascienza Herbert G. Wells e il biologo inglese Julian Huxley, nel libro The Science of Life, immaginavano un mondo in cui la natura selvaggia si sarebbe trasformata in un giardino globale, privo di malattie e di specie pericolose. Nel 1934, in un articolo intitolato “The applied science of the next hundred years: Biological and social engineering”, Huxley scriveva che l’ingegneria biologica sarebbe diventata la scienza del futuro che avrebbe trasformato l'eredità biologica dell’umanità. Nel 1937, il genetista americano Hermann Muller tentò di persuadere Stalin che la genetica rappresentasse una risorsa fondamentale per il progresso della società sovietica. Come affermava enfaticamente in una lettera inviata a Stalin nel 1937, l’oggetto della missiva riguardava “…il controllo consapevole dell’evoluzione biologica dell’uomo, ossia la capacità dell’uomo di governare il patrimonio ereditario che sta alla base della vita umana” (Muller, 1937, mia traduzione). Nel discorso pronunciato durante la cerimonia del Premio Nobel ricevuto nel 1958, George Beadle ed Edward Tatum parlarono dell’avvento di un’epoca in cui il “codice” della vita sarebbe stato decifrato, aprendo la strada a un miglioramento radicale di tutti gli organismi viventi attraverso l’ingegneria biologica. Nel 1976, sulle pagine di BioScience, in un breve scritto intitolato “Recombinant DNA: On Our Own”, Robert Sinsheimer (il biologo molecolare che fu tra i principali ispiratori del Progetto Genoma Umano) immaginò che la biologia del futuro sarebbe stata in grado di rimodellare il mondo vivente secondo una proiezione della volontà umana.
Con il Progetto Genoma Umano, questa retorica della promessa si intensificò ulteriormente: nel 2005, Craig Venter dichiarò che conoscere il proprio genoma avrebbe permesso agli individui di prendere il controllo della propria vita e di prevedere il futuro delle proprie malattie. Imprenditori come Venter si sono adoperati per persuadere gli investitori del potenziale economico e sociale della genomica. Sebbene gli interlocutori cambino, l’idea di fondo rimane la stessa: il futuro della società dipende dalla capacità di controllare i geni, ossia le “lettere” che compongono l’”alfabeto” del vivente. In sintesi, la biologia deve diventare un’ingegneria del futuro, come Loeb aveva già prefigurato all’inizio del XX secolo.
La controversia tra Loeb e Ritter, tra riduzionismo ingegneristico e organicismo sistemico, rimane ancora oggi un nodo irrisolto. Sebbene l’approccio tecnologico al vivente abbia prodotto risultati di straordinaria rilevanza, esso rischia al contempo di appiattirne la complessità a meri dati, trascurando le dimensioni ecologiche e relazionali (una preoccupazione condivisa da tutti i discendenti di Ritter). In ogni caso, il potere della concezione tecnologica del vivente non risiede tanto nella sua pretesa di verità, quanto nella sua capacità di ridurre la complessità, semplificare e mostrare che la vita può essere manipolata e trasformata. Inoltre, proprio perché è una scienza orientata alla trasformazione, essa non teme di promettere più di quanto realizzi: vive infatti di proiezioni che vengono rapidamente dimenticate e sostituite da utopie ancora più ambiziose.
Oggi più che mai, mentre nuove biotecnologie come l’editing genetico e la biologia sintetica aprono possibilità inedite, la domanda rimane la stessa che animava la polemica tra Loeb e Ritter: la biologia deve limitarsi a comprendere la vita o deve rivendicare il potere di trasformarla radicalmente? Insomma, la biologia va intesa come una scienza naturale del presente o come un’ingegneria del futuro? Al di là delle opinioni che possiamo avere in proposito, la storia insegna che la forza della concezione tecnologica non deriva dalla sua abilità esplicativa, bensì dalla sua capacità di mobilitare risorse e orientare la ricerca in funzione di priorità e visioni future.
La concezione tecnologica del vivente: dalla partenogenesi artificiale alla biologia sintetica - Prima parte
Nel corso della storia della biologia sono emerse diverse concezioni su cosa sia un essere vivente. Ci si è spesso chiesti come distinguere ciò che è vivo da ciò che non lo è, da cosa è composta la materia vivente, come è organizzata e da dove deriva questa organizzazione. Gli antichi materialisti, per esempio, sostenevano che gli esseri viventi nascessero per generazione spontanea, cioè da un incontro casuale di determinati tipi atomi e da una sorta di “selezione naturale” che lasciava persistere solo quei composti atomici, e quindi quelle forme, che si inquadravano in certi tipi di ambiente. Aristotele, nelle sue principali opere filosofiche e biologiche, rifiutò l’idea che l’organizzazione degli esseri viventi potesse essere frutto dell’incontro fortuito di atomi. L’organizzazione biologica richiedeva per Aristotele un principio ordinatore: un’anima che dava forma alla materia, ne permetteva la riproduzione e ne garantiva la permanenza.
Dalla critica di Aristotele alla concezione materialistica nacque così un’altra visione del vivente: quella ilemorfica. Questa visione non solo affermava che un organismo era costituito di materia e forma, ma supponeva anche che in un essere vivente “il tutto era maggiore della somma delle sue parti”, ove il “tutto”” doveva spiegare perché le parti si organizzano in un modo e non in un altro. Il “naturalista” Aristotelico doveva pertanto studiare i fenomeni biologici partendo da quella “totalitá”, cioè dalle funzioni, dagli scopi e fini che spiegano la persistenza e conformazione della materia. Questo paradigma rimarrà dominante fino all’età moderna, quando un autore spagnolo ancora poco conosciuto, il medico medinense Gómez Pereira, propose, in un testo alquanto oscuro, intitolato Antoniana Margarita e pubblicato nel 1554, un’idea diversa: il principio organizzatore, cioè l’anima, esiste solo negli esseri umani. Animali, piante e organismi in generale, secondo Pereira, sarebbero semplici macchine e andrebbero studiati come tali. Cartesio riprenderà questa intuizione e ne farà un vero e proprio programma di ricerca. Un programma che conobbe un discreto successo, suscitando numerose critiche e controversie fino ai nostri giorni.
Si può senz’altro sostenere che la concezione meccanicistica sia, in realtà, già una concezione tecnologica, nella misura in cui trae ispirazione dalle macchine. Il meccanicismo, dopotutto, prende le sue mosse dalla costruzione di macchine: orologi, automi, fontane automatiche e dispositivi dedicati alla produzione. Tuttavia, come si cercherà di mostrare in ciò che segue, esistono differenze fondamentali tra la concezione meccanicistica classica e la concezione tecnologica che emergerà nel XX secolo, anche se entrambe condividono l’idea che il fare o costruire sia il principio cardine del conoscere. Per avvicinarsi alla concezione tecnologica che sto qui delineando, propongo quindi di considerare altre due coordinate fondamentali, oltre a quella d’ispirazione cartesiana. Si tratta, cioè, del passaggio da una scienza delle ipotesi a una scienza dei dati, e del carattere essenzialmente promissorio di questa visione, che alimenta aspettative riguardo a future soluzioni tecniche volte alla trasformazione direzionata del vivente in tutti i suoi aspetti. In sintesi, sostengo che la concezione tecnologica del vivente si collochi nello spazio delimitato da tre coordinate principali (pur senza escluderne altre possibili): fare, codificare e promettere.
Partiamo dalla prima coordinata. Un testo fondamentale che andrebbe riconsiderato è La concezione meccanicista della vita pubblicato nel 1912. L’autore è il fisiologo statunitense Jacques Loeb. In estrema sintesi, il libro di Loeb afferma due cose principali: primo, la vita è totalmente riducibile a fenomeni fisico-chimici; e secondo, l’obiettivo della biologia deve essere la creazione e il controllo dei fenomeni viventi. La biologia, dunque, non dovrebbe più appartenere al campo delle scienze naturali, ma collocarsi nell’ambito più concreto dell’ingegneria. Loeb giustifica le proprie conclusioni richiamando uno dei suoi esperimenti più celebri: quello sulla partenogenesi artificiale, in cui riuscì a indurre lo sviluppo di uova di riccio di mare senza fecondazione, ma tramite determinati stimoli fisico-chimici (soluzioni saline e cloruro di magnesio). Egli interpretò questo risultato come una prova decisiva del fatto che la vita potesse essere manipolata e attivata artificialmente. Il suo intento era dimostrare che, in linea di principio, tutti i processi vitali potevano essere ricondotti a meccanismi chimico-fisici, riproducibili e controllabili in laboratorio.
Come era prevedibile, le conclusioni di Loeb suscitarono numerose reazioni e controversie. Basti ricordare la reazione del biologo statunitense e primo direttore dello Scripps Institution of Oceanography, William Emerson Ritter. Nel 1919, dunque 7 anni dopo la pubblicazione del libro di Loeb, Ritter diede alle stampe un testo polemico intitolato The Unity of the Organism; Or, The Organismal Conception of Life. Nel testo, Ritter sosteneva che la concezione “meccanicistica” di Loeb dovesse essere sostituita da una concezione “organicista”. Le entità biologiche, infatti, non sono riducibili ai soli processi fisico-chimici, poiché possiedono proprietà emergenti che vanno considerate nella loro totalità. Il progetto di un’ingegnerizzazione del vivente si scontrava, secondo lui, con l’estrema complessità e flessibilità degli organismi. La concezione organicista da lui difesa poneva l’accento sull’unità e integrità delle entitá organiche. Il vivente costituiva una categoria ontologica autonoma, estranea a ogni riduzione ingegneristica. Inoltre, Ritter contrapponeva all’ideale di una scienza puramente sperimentale, orientata all’ingegneria del vivente, una visione più tradizionale delle scienze naturali, intese come discipline fondate sull’osservazione diretta dei fenomeni naturali.
Non c’è dubbio che, al di là delle differenti prospettive e sensibilità scientifiche e intellettuali, tra Loeb e Ritter esistessero anche divergenze politiche. Se Loeb rappresentava una visione tecnocratica, convinta che il progresso sociale e politico dovesse passare attraverso il controllo della vita stessa, Ritter, al contrario, rappresentava una visione più sistemica e “democratica”, in cui la biologia costituiva un sapere importante, ma non esclusivo, nella gestione dell’essere umano e della società. Non è un caso, per esempio, che Ritter fosse anche un critico acerrimo di ogni forma di determinismo genetico, che egli considerava una manifestazione di fatalismo.
La controversia tra Loeb e Ritter, infatti, si sviluppa in un momento storico particolare. Come sostiene David F. Noble nel suo libro America by Design (1977), negli Stati Uniti di fine Ottocento e inizio Novecento si generò una tensione tra le scienze naturali tradizionali e le nuove professioni emergenti legate alle “arti” applicate. In questo contesto, la professione dell’ingegnere acquisisce un prestigio crescente. A partire dal 1860, Università come il MIT, Harvard e Yale istituiscono corsi di scienze applicate, mentre grandi industrie come General Electric, DuPont ed Eastman Kodak fondano laboratori di ricerca propri, assumendo scienziati formati nelle università tradizionali con l’obiettivo di sviluppare nuove tecnologie. Nasce cosí quello che Noble definisce “science-based industry”. È in questo contesto storico che l’aggettivo “ingegneristico” assume un significato particolare. Quando Loeb parla di “biologia ingegneristica”, intende affermare che la biologia deve appartenere alle scienze produttive, cioè a quelle discipline capaci di trasformare materiali e processi vitali a fini umani. In altre parole, la biologia deve trovare il proprio posto all’interno di questa “science-based industry”. A posteriori, si può affermare che la visione ingegneristica di Loeb abbia avuto un successo di gran lunga superiore rispetto a quella di Ritter, che è rimasta piuttosto marginale (anche se non è mai scomparsa).
Un esempio significativo che ha sancito il successo di questa visione loebiana è rappresentato dalla biologia molecolare. Come mostra Lily Kay nel suo libro The Molecular Vision of Life (1993), questa disciplina fu plasmata non solo da esigenze interne alla scienza, ma anche da contesti ideologici e istituzionali. Gia a partire dagli anni trenta del XX secolo, fondazioni come la Rockefeller e istituzioni come il Caltech promossero una visione riduzionista, meccanicistica e orientata al controllo, che in seguito sarebbe entrata in sintonia con le logiche della Guerra Fredda. In un altro volume, Who Wrote the Book of Life? A History of the Genetic Code (2000), Kay analizzò lo sviluppo delle scienze della vita nel secondo dopoguerra, mettendo in evidenza l’emergere di metafore derivate dalla teoria dell’informazione e dall’ingegneria, che, secondo l’autrice, influenzarono profondamente la biologia, sia prima sia dopo la scoperta della struttura molecolare del DNA nel 1953. La concezione del DNA come “codice”, ovvero come un insieme di informazioni discrete contenute nelle macromolecole che costituiscono il materiale ereditario, deve molto all’ingegneria dell’informazione. L’organismo stesso viene così concepito come un sistema di input e output governato da leggi prevedibili. Come sottolinea Kay, la metafora del “codice” non è mai stata neutrale ma ha condizionato lo sviluppo della disciplina stessa. Tuttavia, tale “visione molecolare” ha spesso ignorato le complessità ambientali, epigenetiche e sistemiche che caratterizzano i fenomeni viventi.
La prossima settimana analizzeremo la seconda e la terza coordinata, codificare e promettere.
Coltivare la vita in laboratorio - Come siamo arrivati a intendere la materia vivente come tecnologia
Pensando al lavoro di scienziati o biologi in laboratorio non ci risulta strana la possibilità che questi possano essere impegnati nella coltivazione di cellule o linee cellulari provenienti da vari organismi viventi. Ad esempio, attualmente le cellule che provengono da esseri umani sono ampiamente utilizzate nei laboratori e in programmi di ricerca biomedica, così come rivestono un ruolo centrale nella ricerca farmaceutica. In breve, la possibilità di mantenere in vita cellule e tessuti umani al di fuori del corpo e di usarle come una materia tecnologica è qualcosa che accade di routine, è ritenuto normale e non desta alcun particolare senso di straniamento. Tuttavia, com’è possibile questo? Quando siamo arrivati a pensare la vita al di fuori del corpo come qualcosa di normale e non problematico? E in quale momento la vita e le cellule hanno assunto questa particolare forma tecnologica? Questi sono alcuni degli interrogativi da cui parte anche Hannah Landecker (2007), sociologa e storica della scienza, nel ricostruire la storia della coltura dei tessuti. Tali questioni ci possono aiutare a focalizzare l’attenzione su alcune delle condizioni che hanno permesso la costruzione di infrastruttura in cui è stato possibile standardizzare metodi, tecniche e oggetti sperimentali impiegati nella coltura cellulare.
Un evento da cui iniziare può essere rintracciato nel 1907, quando Ross Harrison, a partire dal tessuto embrionale di una rana, riuscì ad osservare la crescita di una fibra nervosa al di fuori del corpo. In quegli anni era in corso un vivace dibattito scientifico sulla natura e sviluppo delle fibre nervose a cui risultava difficile trovare una soluzione con le tecniche e i metodi sperimentali impiegati. Infatti, gli scienziati si affidavano principalmente a tecniche istologiche, le quali consistevano nell’acquisizione di sezioni del corpo di un animale in diverse fasi nel tempo, per cui era necessario sacrificare vari animali in diversi momenti per osservare degli sviluppi tissutali. I tessuti ottenuti in questo modo erano resi adeguati alla conservazione e all’analisi attraverso sostanze fissative e coloranti, e in questo modo fornivano dei modelli statici di momenti precisi dello sviluppo. Nonostante ciò, con queste tecniche istologiche non era possibile trovare una risposta sostanziale allo sviluppo delle fibre nervose: gli scienziati potevano dare delle interpretazioni opposte dello stesso frammento di tessuto reso in forma statica. Harrison risolse questa controversia cercando di rendere visibile, al di fuori del corpo, il processo di sviluppo di una fibra nervosa mentre avveniva. Partendo da nozioni di coltura dei microrganismi, egli riuscì a realizzare una preparazione a “goccia sospesa” (hanging-drop) che forniva un supporto attraverso della linfa coagulata per far crescere le fibre nervose di rana al di fuori del corpo. In questo modo, Harrison utilizzando delle cellule vive risolse il problema di come gli organismi biologici viventi cambiano nel tempo e rese visibili i processi che erano interni al corpo degli animali. È in questo senso che all’inizio del XX secolo inizia ad emergere la possibilità e l’idea di sperimentazione in vitro e non più solo in vivo.
Qualche anno più tardi Alexis Carrel e il suo assistente Montrose Burrows tentarono di sviluppare le tecniche adottate da Harrison nel tentativo di mantenere in vita le cellule al di fuori del corpo. Carrel e Burrows trasformarono “il metodo di Harrison per la crescita a breve termine di un tessuto embrionale in un metodo generalizzato per la coltivazione di tutti i tipi di tessuto” (Landecker 2007, p.53) e nel 1910 coniarono il termine “coltura tissutale” per riferirsi a questa serie di operazioni. In particolare, Carrel e Burrows cercarono di mantenere in vita le cellule attraverso la creazione di colture secondarie a partire da un frammento di tessuto: spostando una parte delle cellule in un nuovo medium plasmatico si generava una sorta di riattivazione cellulare e queste continuavano a vivere. Tuttavia, con questa tecnica le cellule cessavano di aumentare di massa e diventavano più piccole ad ogni trasferimento, per cui la soluzione tecnica che adottò Carrel fu quella di aggiungere del tessuto embrionale macinato – chiamato “succo embrionale” – per nutrire le cellule. Fu in questo contesto che Carrel affermò la possibilità di poter coltivare delle “cellule immortali”, che potevano vivere in maniera indefinita al di fuori del corpo. Infatti, per Carrel la morte cellulare era un “fenomeno contingente” che poteva essere rimandato attraverso la manipolazione del medium plasmatico e le sostanze in cui era immersa la cellula. Per questa ragione, Carrel brevettò una fiaschetta, nota come “Carrel flask”, che gli permise di coltivare le cellule in modo asettico evitando infezioni e manipolando le sostanze in cui erano immerse le cellule in modo controllato. Tuttavia, va precisato che negli anni ’60 si dimostrò che le uniche cellule che potevano essere tecnicamente immortali erano quelle di origine cancerosa.
È attraverso le pratiche sperimentali di Harrison e Carrel che inizia ad emergere una nuova enfasi sul corpo e sulla possibilità di coltivare delle cellule in vitro. All’inizio del XX secolo non era nuova la possibilità di tenere i tessuti al di fuori del corpo per un po’ di tempo, ma in quel contesto il corpo era concepito come l’elemento essenziale che garantiva la vita delle cellule, le quali non avrebbero potuto sopravvivere al di fuori di esso. Le pratiche sperimentali di Harrison e Carrel segnano un passaggio all’idea che le cellule e i tessuti non solo possono sopravvivere al di fuori del corpo, ma continuano a dividersi, differenziarsi e vivere. In questo senso, inizia ad emergere un senso di possibilità legato al fatto che le cellule possono vivere con una certa autonomia anche se staccate dal corpo.
È tra gli anni ’40 e ’50 con la campagna contro il virus della poliomielite che, attraverso una serie di sforzi infrastrutturali, fu reso possibile l’impiego per la prima volta di tessuti umani su larga scala: in precedenza ciò non era possibile e le cellule venivano coltivate in singoli laboratori senza la possibilità di scambi e trasferimenti. Nella prima metà del XX secolo i virus erano molto difficili da osservare e coltivare: venivano conservati in laboratorio facendoli passare attraverso uova ed animali infetti; ciò era un metodo molto complesso e costoso. Per questa ragione nel 1940 John Enders pensò di utilizzare i metodi di coltura tissutale per osservare lo sviluppo delle infezioni virali. In questo modo, Enders e il suo collega Weller svilupparono un modello cellulare per osservare il lento sviluppo nel tempo del virus della parotite, questo si rivelò poi anche utile per studiare la poliomielite. Pertanto, attraverso la coltura dei tessuti è diventato possibile osservare lo sviluppo delle infezioni virali osservando i cambiamenti cellulari invece che guardare i sintomi che si manifestavano negli animali infetti. In seguito, nel 1954 John Salk attraverso l’impiego di queste tecniche di coltura cellulare riuscì a realizzare un vaccino contro la poliomielite.
Va sottolineato che ciò che Enders e Salk riuscirono a fare va inserito in uno sforzo più ampio della comunità scientifica a partire dagli anni ’40 che ha permesso il miglioramento delle tecniche di coltura tissutale e la loro standardizzazione. In particolare, in quegli anni organizzazioni come la Tissue Culture Association (TCA) e la National Foundation for Infantile Paralysis (NFIP) si impegnarono nel tentativo di standardizzare e rendere disponibile alla comunità scientifica materiali e tecniche per la coltura cellulare: vennero organizzati convegni e in breve tempo diventò possibile acquistare terreni ed estratti con cui far crescere le cellule. Fu anche grazie a questo lavoro coordinato che fu possibile utilizzare la linea cellulare immortale HeLa come materiale standard per il test del vaccino contro la poliomielite in diversi laboratori. HeLa era stata stabilita da George Gey nel 1951 grazie alla biopsia di una massa tumorale prelevata da Henrietta Lacks, la quale si era recata in ospedale per ricevere assistenza e non sapeva come sarebbe stato impiegato il tessuto prelevato (Skloot 2010). Al termine della campagna contro la poliomielite HeLa era ampiamente diffusa nei laboratori e gli scienziati iniziarono ad utilizzarla per gli scopi di ricerca più disparati, generando così un’ampia mole di studi e pubblicazioni. Dunque, se in precedenza era possibile lavorare su oggetti dello stesso tipo – lo stesso tipo di topo o lo stesso tipo di tumore – attraverso HeLa diventò possibile lavorare sulla “stessa cosa” in tempi e luoghi diversi. Pertanto, è in questa cornice che i tessuti umani sono diventati così una base standard e un modello per la ricerca biomedica.
Secondo Landecker questa storia ci racconta di come la biotecnologia dal 1900 ad oggi si associ ai “crescenti tentativi di esplorare e realizzare la plasticità della materia vivente” (Landecker 2007, p. 232). Nello specifico, la plasticità riguarda la capacità della materia vivente di essere modificata dagli esseri umani, la quale continuando a vivere può reagire all’intervento anche in modi inaspettati. Inevitabilmente, in questo racconto la plasticità si associa al tentativo di rendere operativo il tempo biologico attraverso una manipolazione della cellula, del medium e delle sostanze in cui questa è immersa. In breve, questa storia ci può aiutare a comprendere il modo attraverso cui siamo arrivati alla concezione odierna di “vita come tecnologia”; ovvero, la possibilità di utilizzare le cellule come una forma tecnologica per interventi terapeutici, sviluppi farmaceutici e per l’industria alimentare. In secondo luogo, questo resoconto permette di evidenziare alcune delle condizioni attraverso cui è stato possibile costruire un’infrastruttura con cui poter mantenere stabilmente le cellule in laboratorio. Infatti, uno scienziato tende a dare per scontata l’idea che sia possibile coltivare delle cellule in laboratorio proprio perché nel tempo è stata sviluppata un’infrastruttura funzionale, e che per questo motivo tende a risultare “invisibile” (Star 1999). In tal senso, ripercorrere gli sviluppi della coltura tissutale permette di portare alla luce gli aspetti infrastrutturali e tecnici che invece rimarrebbero opachi nello sfondo.
BIBLIOGRAFIA
Landecker H. (2007). Culturing Life: how cells become technologies. Harvard University Press, Cambridge.
Skloot R. (2010). La vita immortale di Herietta Lacks. Adelphi, Milano.
Star S.L. (1999). The ethnography of infrastructure. American behavioral scientist, 43(3), 377-391.




