Nel corso della storia della biologia sono emerse diverse concezioni su cosa sia un essere vivente. Ci si è spesso chiesti come distinguere ciò che è vivo da ciò che non lo è, da cosa è composta la materia vivente, come è organizzata e da dove deriva questa organizzazione. Gli antichi materialisti, per esempio, sostenevano che gli esseri viventi nascessero per generazione spontanea, cioè da un incontro casuale di determinati tipi atomi e da una sorta di “selezione naturale” che lasciava persistere solo quei composti atomici, e quindi quelle forme, che si inquadravano in certi tipi di ambiente. Aristotele, nelle sue principali opere filosofiche e biologiche, rifiutò l’idea che l’organizzazione degli esseri viventi potesse essere frutto dell’incontro fortuito di atomi. L’organizzazione biologica richiedeva per Aristotele un principio ordinatore: un’anima che dava forma alla materia, ne permetteva la riproduzione e ne garantiva la permanenza.

Dalla critica di Aristotele alla concezione materialistica nacque così un’altra visione del vivente: quella ilemorfica. Questa visione non solo affermava che un organismo era costituito di materia e forma, ma supponeva anche che in un essere vivente “il tutto era maggiore della somma delle sue parti”, ove il “tutto”” doveva spiegare perché le parti si organizzano in un modo e non in un altro. Il “naturalista” Aristotelico doveva pertanto studiare i fenomeni biologici partendo da quella “totalitá”, cioè dalle funzioni, dagli scopi e fini che spiegano la persistenza e conformazione della materia. Questo paradigma rimarrà dominante fino all’età moderna, quando un autore spagnolo ancora poco conosciuto, il medico medinense Gómez Pereira, propose, in un testo alquanto oscuro, intitolato Antoniana Margarita e pubblicato nel 1554, un’idea diversa: il principio organizzatore, cioè l’anima, esiste solo negli esseri umani. Animali, piante e organismi in generale, secondo Pereira, sarebbero semplici macchine e andrebbero studiati come tali. Cartesio riprenderà questa intuizione e ne farà un vero e proprio programma di ricerca. Un programma che conobbe un discreto successo, suscitando numerose critiche e controversie fino ai nostri giorni.

Si può senz’altro sostenere che la concezione meccanicistica sia, in realtà, già una concezione tecnologica, nella misura in cui trae ispirazione dalle macchine. Il meccanicismo, dopotutto, prende le sue mosse dalla costruzione di macchine: orologi, automi, fontane automatiche e dispositivi dedicati alla produzione. Tuttavia, come si cercherà di mostrare in ciò che segue, esistono differenze fondamentali tra la concezione meccanicistica classica e la concezione tecnologica che emergerà nel XX secolo, anche se entrambe condividono l’idea che il fare o costruire sia il principio cardine del conoscere. Per avvicinarsi alla concezione tecnologica che sto qui delineando, propongo quindi di considerare altre due coordinate fondamentali, oltre a quella d’ispirazione cartesiana. Si tratta, cioè, del passaggio da una scienza delle ipotesi a una scienza dei dati, e del carattere essenzialmente promissorio di questa visione, che alimenta aspettative riguardo a future soluzioni tecniche volte alla trasformazione direzionata del vivente in tutti i suoi aspetti. In sintesi, sostengo che la concezione tecnologica del vivente si collochi nello spazio delimitato da tre coordinate principali (pur senza escluderne altre possibili): fare, codificare e promettere.

Partiamo dalla prima coordinata. Un testo fondamentale che andrebbe riconsiderato è La concezione meccanicista della vita pubblicato nel 1912. L’autore è il fisiologo statunitense Jacques Loeb. In estrema sintesi, il libro di Loeb afferma due cose principali: primo, la vita è totalmente riducibile a fenomeni fisico-chimici; e secondo, l’obiettivo della biologia deve essere la creazione e il controllo dei fenomeni viventi. La biologia, dunque, non dovrebbe più appartenere al campo delle scienze naturali, ma collocarsi nell’ambito più concreto dell’ingegneria. Loeb giustifica le proprie conclusioni richiamando uno dei suoi esperimenti più celebri: quello sulla partenogenesi artificiale, in cui riuscì a indurre lo sviluppo di uova di riccio di mare senza fecondazione, ma tramite determinati stimoli fisico-chimici (soluzioni saline e cloruro di magnesio). Egli interpretò questo risultato come una prova decisiva del fatto che la vita potesse essere manipolata e attivata artificialmente. Il suo intento era dimostrare che, in linea di principio, tutti i processi vitali potevano essere ricondotti a meccanismi chimico-fisici, riproducibili e controllabili in laboratorio.

Come era prevedibile, le conclusioni di Loeb suscitarono numerose reazioni e controversie. Basti ricordare la reazione del biologo statunitense e primo direttore dello Scripps Institution of Oceanography, William Emerson Ritter. Nel 1919, dunque 7 anni dopo la pubblicazione del libro di Loeb, Ritter diede alle stampe un testo polemico intitolato The Unity of the Organism; Or, The Organismal Conception of Life. Nel testo, Ritter sosteneva che la concezione “meccanicistica” di Loeb dovesse essere sostituita da una concezione “organicista”. Le entità biologiche, infatti, non sono riducibili ai soli processi fisico-chimici, poiché possiedono proprietà emergenti che vanno considerate nella loro totalità. Il progetto di un’ingegnerizzazione del vivente si scontrava, secondo lui, con l’estrema complessità e flessibilità degli organismi. La concezione organicista da lui difesa poneva l’accento sull’unità e integrità delle entitá organiche. Il vivente costituiva una categoria ontologica autonoma, estranea a ogni riduzione ingegneristica. Inoltre, Ritter contrapponeva all’ideale di una scienza puramente sperimentale, orientata all’ingegneria del vivente, una visione più tradizionale delle scienze naturali, intese come discipline fondate sull’osservazione diretta dei fenomeni naturali.

Non c’è dubbio che, al di là delle differenti prospettive e sensibilità scientifiche e intellettuali, tra Loeb e Ritter esistessero anche divergenze politiche. Se Loeb rappresentava una visione tecnocratica, convinta che il progresso sociale e politico dovesse passare attraverso il controllo della vita stessa, Ritter, al contrario, rappresentava una visione più sistemica e “democratica”, in cui la biologia costituiva un sapere importante, ma non esclusivo, nella gestione dell’essere umano e della società. Non è un caso, per esempio, che Ritter fosse anche un critico acerrimo di ogni forma di determinismo genetico, che egli considerava una manifestazione di fatalismo. 

La controversia tra Loeb e Ritter, infatti, si sviluppa in un momento storico particolare. Come sostiene David F. Noble nel suo libro America by Design (1977), negli Stati Uniti di fine Ottocento e inizio Novecento si generò una tensione tra le scienze naturali tradizionali e le nuove professioni emergenti legate alle “arti” applicate. In questo contesto, la professione dell’ingegnere acquisisce un prestigio crescente. A partire dal 1860, Università come il MIT, Harvard e Yale istituiscono corsi di scienze applicate, mentre grandi industrie come General Electric, DuPont ed Eastman Kodak fondano laboratori di ricerca propri, assumendo scienziati formati nelle università tradizionali con l’obiettivo di sviluppare nuove tecnologie. Nasce cosí quello che Noble definisce “science-based industry”. È in questo contesto storico che l’aggettivo “ingegneristico” assume un significato particolare. Quando Loeb parla di “biologia ingegneristica”, intende affermare che la biologia deve appartenere alle scienze produttive, cioè a quelle discipline capaci di trasformare materiali e processi vitali a fini umani. In altre parole, la biologia deve trovare il proprio posto all’interno di questa “science-based industry”. A posteriori, si può affermare che la visione ingegneristica di Loeb abbia avuto un successo di gran lunga superiore rispetto a quella di Ritter, che è rimasta piuttosto marginale (anche se non è mai scomparsa).

Un esempio significativo che ha sancito il successo di questa visione loebiana è rappresentato dalla biologia molecolare. Come mostra Lily Kay nel suo libro The Molecular Vision of Life (1993), questa disciplina fu plasmata non solo da esigenze interne alla scienza, ma anche da contesti ideologici e istituzionali. Gia a partire dagli anni trenta del XX secolo, fondazioni come la Rockefeller e istituzioni come il Caltech promossero una visione riduzionista, meccanicistica e orientata al controllo, che in seguito sarebbe entrata in sintonia con le logiche della Guerra Fredda. In un altro volume, Who Wrote the Book of Life? A History of the Genetic Code (2000), Kay analizzò lo sviluppo delle scienze della vita nel secondo dopoguerra, mettendo in evidenza l’emergere di metafore derivate dalla teoria dell’informazione e dall’ingegneria, che, secondo l’autrice, influenzarono profondamente la biologia, sia prima sia dopo la scoperta della struttura molecolare del DNA nel 1953. La concezione del DNA come “codice”, ovvero come un insieme di informazioni discrete contenute nelle macromolecole che costituiscono il materiale ereditario, deve molto all’ingegneria dell’informazione. L’organismo stesso viene così concepito come un sistema di input e output governato da leggi prevedibili. Come sottolinea Kay, la metafora del “codice” non è mai stata neutrale ma ha condizionato lo sviluppo della disciplina stessa. Tuttavia, tale “visione molecolare” ha spesso ignorato le complessità ambientali, epigenetiche e sistemiche che caratterizzano i fenomeni viventi.

La prossima settimana analizzeremo la seconda e la terza coordinata, codificare e promettere.

Autore

  • Ricercatore presso l’Università degli Studi di Milano. Si occupa di storia e filosofia delle scienze della vita. Le sue ricerche riguardano l’evoluzione delle idee sul vivente, dal mondo antico alla scienza contemporanea, mettendo in luce il legame reciproco tra pensiero biologico e società. Inoltre, si interessa alla storia delle relazioni tra tecnologia e biologia, nonché alle continuità e discontinuità tra scienze naturali e umane, dal XVIII secolo a oggi.

    Leggi tutti gli articoli