Le mani e la techne - Storia di un’origine mancata, da Platone a Latour

1. TECHNE E PREGIUDIZIO

Una delle eredità più durature di Platone è il sospetto nei confronti della techne. La necessità di separare il vero sapere dall’arte dei sofisti è il movente di questo pregiudizio: Protagora, Gorgia, Lisia, e i loro colleghi, inventano tecniche di persuasione di cui vendono la padronanza, o i prodotti, al miglior offerente, senza mostrare alcun interesse per la verità. La manipolazione persegue il vantaggio egoistico di chi la pratica, mentre il logos della filosofia (della scienza) è guidato dalla physis, segue la forma e le prescrizioni di ciò che rimane stabile nell’Essere. L’atteggiamento con cui si pretende di mostrare l’appartenenza all’aristocrazia del gusto e del senno attraverso il rifiuto dell’innovazione tecnologica, e tramite l’ostentazione di disorientamento tra le pratiche e i prodotti digitali, ancora oggi è un atto di accusa contro la corruzione sofistica della techne, e una proclamazione di fedeltà alla purezza dello spirito.

2. MANCANZA DI ESSENZA

Platone proponeva lo scavo interiore per partecipare alla natura inalterabile della verità: l’anamnesi riporta alla luce le idee, la cui eternità si rispecchia in quella dei cieli che insegnano al sapiente la via per la disciplina del sapere e del decidere. La metafisica ha fissato nell’opposizione tra physis e techne, o tra logos e doxa (ma questo significa anche tra trascendentale ed empirico, tra origine e decadenza) il criterio di separazione tra il filosofo e il sofista, anche quando la tesi dell’accesso ad una sfera di universali eterni ha perso la sua presa sulla comunità scientifica, e la moda ha imposto a tutti un atto di fede nell’empirismo. Come insegna Stiegler (1994), il dibattito seguito all’atto di nascita dell’antropologia moderna, con il Discorso sull’origine e i fondamenti della disuguaglianza tra gli uomini di Rousseau, avrebbe dovuto mettere in guardia da tempo sulla validità di questa disgiunzione, introducendo almeno un nuovo genere di sospetto, che colpisce l’autonomia della natura da un lato, la strumentalità reificante della techne dall’altro lato, e la loro opposizione reciproca.

L’uomo delle origini viene descritto da Rousseau come quello moderno: ha mani e piedi e cammina eretto. Leroi-Gourhan (1964-65) dimostra con la paleontologia che la deambulazione bipede permette la liberazione della mano per la costruzione di utensili e strumenti. E l’affrancamento della mano per la tecnica stabilisce un nuovo rapporto tra la mano, il volto e la parola. Quindi Rousseau immagina un uomo delle origini che ha già le caratteristiche di quello tecnicizzato; ma nel suo errore (molto istruttivo) lo descrive come un quasi-animale che non pensa e non si sposta, usa le mani per afferrare e non per produrre, cogliendo tutto ciò che la natura gli offre in modo spontaneo. Nell’origine il tempo (lo spazio, il mondo) non esiste, proprio perché l’uomo non frequenta alcun presagio cosciente della morte, e in generale nessuna forma di programma: non ha desideri né preoccupazioni, ma solo bisogni soddisfatti immediatamente da ciò che è a portata di mano. Il pensiero e il lavoro non vengono alla luce se non per placare passioni e paura – che a loro volta irrompono nella vita dell’uomo solo se la previsione ha aperto un mondo dove gli strumenti materializzati dalla tecnica sono programmati per proteggere dall’incombenza della morte. 

L’istinto è costrittivo per gli animali: il gatto non mangia i tuberi o la frutta, in assenza di carne, e l’oca non mangia la carne in assenza di tuberi. L’uomo invece è libero di imitare il comportamento di qualunque animale, aprendosi la via alla soddisfazione del bisogno con la carne o con i tuberi, secondo la disponibilità. La libertà è una potenzialità dell’origine che annienta l’origine stessa nel momento in cui passa all’atto, perché la ragione che la realizza innesca quel mondo di tecnica e passioni che allontanano dall’immobilità e indifferenza originari. La libertà è la seconda origine dell’uomo, o la sua assenza di origine, la scomparsa o la mancanza di un’essenza. Le conclusioni speculative di Rousseau finiscono comunque per coincidere con quelle della paleontologia di Leroi-Gourhan.

Le passioni di Nietzsche, le pulsioni di Freud, la ragione di Hegel, la società di Hobbes, il lavoro di Marx non possono aspirare a descrivere la condizione essenziale dell’uomo, la sua origine, che invece è sempre già annullata nel momento stesso in cui l’ominazione viene messa in moto da progettazione e tecnica, e che procede con la storia del loro sviluppo: l’interiorità è un ripiegamento del programma di gesti con cui le mani fabbricano utensili, dello schema della loro applicazione per gli usi futuri, del piano per la loro disponibilità contro gli agguati della morte. Ma questa stessa filogenesi precipita nell’oblio (persa di vista da Rousseau e persino da Heidegger), dimenticata nell’eccesso di prossimità degli oggetti tecnici, resa invisibile nella disponibilità con cui i dispositivi sono sempre sottomano, cancellata nell’esperienza che in ogni epoca essi pongono in essere. Eppure, affinché intellettuali, politici e artisti possano ostentare il loro distacco dall’innovazione digitale e dalle tendenze delle comunità virtuali, affinché la spiritualità che effonde dal loro intimo possa segnalare a tutti la loro nobiltà d’animo, è necessaria tutta la storia delle tecniche, dalle tradizioni della coltivazione di tuberi e alberi da frutta, fino all’impaginazione di libri e riviste con InDesign e alla programmazione delle ALI che sviluppano testi e immagini pubblicati sui giornali internazionali. No techne, no party.

3. DISASTRI E SFERE

Sloterdijk (1998 e 1999) ricostruisce il processo con cui Copernico ha scoperchiato la Terra lasciandola esposta al freddo del cosmo, senza più l’involucro delle stelle fisse, e l’impegno con cui gli uomini hanno progettato sfere che tornassero ad avvolgerla e a riscaldarla. Eliminare la stabilità degli astri equivale a rimuovere l’architettura stessa della physis, il primo grande schema di design del mondo, che Platone ha posto come senso dell’universo, e come sistema di orientamento del saggio e della comunità: un vero e proprio disastro, cui è stato necessario rimediare attraverso la pianificazione di nuovi globi che hanno a più riprese protetto e dissolto i territori dei regni dell’Occidente, fino alla globalizzazione del mondo contemporaneo. 

L’uomo non esce mai in una natura spontanea che si dispiega in un «fuori» dalle sfere in cui agiscono le tecniche di immunità e comunità programmate dalla tecnica. Nell’universo di Platone le stelle fisse sono attori della strategia politica che salda la società ateniese, almeno quanto lo è l’istituto degli arconti o quello della bulè: a loro è assegnata la regìa ideologica della forma di vita nella città e l’ontologia dell’uomo greco. Latour (1984) mostra come i miasmi siano attori della struttura civile che compie la trasformazione sei-settecentesca dello Stato dalla configurazione feudale a quella burocratica moderna: la nascita degli uffici di igiene pubblica, l’educazione della famiglia e la cura dei figli, la nuova morale borghese, la ristrutturazione urbanistica delle grandi città, la modellazione della rete dei servizi fognari e idraulici, sono le mosse della costruzione di più sfere immunitarie contro la diffusione di peste e colera, e il contesto di formazione delle metropoli della rivoluzione industriale e del primo capitalismo. La vittoria del movimento di Pasteur coincide con l’introduzione di un nuovo attore sociale, il microbo, che in parte prende il posto dei miasmi, ma che di fatto sviluppa un nuovo mondo di istituzioni mediche e di welfare, quella che conduce all’antropologia occidentale moderna e postmoderna, dove alla cura dell’individuo si sostituisce il presidio di un’intera tassonomia di agenti patogeni. 

Il contributo sui Comunelli di Ferriere su Controversie mostra come un bosco non sia il «fuori» del villaggio, ma sia l’attore che ne consolida la comunità, arrestando il suo processo di disgregazione; quello su Gagliano Aterno evidenzia come la sfera di appartenenza alla comunità sia inscritta nella ripresa della tradizione della coltivazione dei tuberi e nell’innovazione della posa dei pannelli solari. Tuberi e alberi da frutto possono incrociare il programma genetico di alcune specie di animali, ed essere obbligati ad una simbiosi da cui non possono svincolarsi; per gli uomini il programma è tecnico, non è costrittivo ma deliberato, e come ogni gramma si iscrive negli attori coinvolti e viene regolato da una grammatica. Latour (2005) la tratteggia sul modello della grammatica attanziale di Greimas (1966), mostrando che ogni forma di vita si istanzia in una rete di relazioni tra ruoli registrati in attanti (malati, contadini, miasmi, batteri, canali fognari, tuberi – a pari diritto umani o non umani), il cui grado di integrazione nella sintassi del programma misura il livello di tenuta o di dissoluzione della società in cui esso si esprime. La struttura di rapporti da cui è disegnata la rete manifesta un significato, come le isotopie narrative di Greimas, che può essere tradotto nel programma di comportamento di altri sistemi: a loro volta, questi possono essere intercettati e arruolati – l’interazione dei turisti con la foresta di Ferriere si traduce nell’inserimento in una sfera di appartenenza territoriale, il contatto tra la nuova urbanistica del Settecento e la privatizzazione dei terreni agricoli (Enclosure Act 1773) alimenta la prima rivoluzione capitalistica, l’incontro tra il movimento della «pastorizzazione» e l’espansionismo coloniale apre la globalizzazione moderna.

Ora che il cielo non è più la cupola delle stelle fisse e delle scorribande degli dèi iperurani con le loro bighe, ma una sfera della quale ci dobbiamo prendere cura rammendando i buchi nella maglia di ozono – l’Actor Network Theory di Latour invita ad abbandonare la ricerca della verità in una psyché che, comunque interpretata, continua a macinare la metafisica delle idee di Platone: chiede di imparare a osservare un mondo dove l’uomo non esce mai in spazi non pianificati, ma progetta ambienti e tempi che sono sottoposti a revisioni continue. Rivendica la necessità di rendere questa attività di design finalmente consapevole e condivisa.

 

BIBLIOGRAFIA

Greimas, Algirdas Julien, Sémantique structurale: recherche de méthode, Larousse, Paris 1966.

Latour, Bruno, Les Microbes. Guerre et paix, suivi de Irréductions, Métailié, «Pandore», Paris 1984.

Latour, Bruno, Reassembling the social. An introduction to Actor-Network Theory, Oxford University Press, Oxford 2005.

Leroi-Gourhan, André, Le Geste et la Parole, Albin Michel,Parigi 1964-65.

Sloterdijk, Peter, Sphären I – Blasen, Mikrosphärologie, Suhrkamp, Frankfurt am Main 1998.

Sloterdijk, Peter, Sphären II – Globen, Makrosphärologie, Suhrkamp, Frankfurt am Main 1999.

Stiegler, Bernard, La Technique et le temps, volume 1: La Faute d’Épiméthée, Galilée, Paris 1994.


La politica dopo l’emergere di Gaia, il migliore dei mondi possibili

«
Noi amiamo il bello, ma con misura; amiamo la cultura dello spirito, ma senza mollezza. Usiamo la ricchezza piú per l’opportunità che offre all’azione che per sciocco vanto di parola, e non il riconoscere la povertà è vergognoso tra noi, ma piú vergognoso non adoperarsi per fuggirla. […] Sola infatti, tra le città del nostro tempo, si dimostra alla prova superiore alla sua stessa fama ed è pure la sola che al nemico che l’assale non è causa di irritazione, tale è l’avversario che lo domina; né ai sudditi motivo di rammarico, come sarebbe se i dominatori non fossero degni di avere il comando. Con grandi prove, dunque, non già senza testimoni, avendo noi conseguito tanta potenza, da contemporanei e da posteri saremo ammirati; non abbiamo bisogno di un Omero che ci lodi o di altro poeta epico che al momento ci lusinghi, mentre la verità toglierà il vanto alle presunte imprese, noi che abbiamo costretto ogni mare e ogni terra ad aprirsi al nostro coraggio; ovunque lasciando imperituri ricordi di disfatte e di trionfi
»

Con il celebre epitaffio di Pericle (Tucidide 1971, La guerra nel Peloponneso, vol. 1, pp. 121-128) si può dire che la natura faccia il suo primo ingresso nella politica.

O, meglio, in questo discorso, in cui il politico ateniese tesse le lodi della costituzione proto-illuminista e liberale della propria città ed elogia le virtù dei suoi cittadini, confrontandole con quelle dei nemici spartani, educati al rispetto dell’ordinamento castale della propria monarchia arcaica e conservatrice, emerge in maniera inedita una matrice retorica che imposta l’argomentazione politica come uno scontro fra civiltà, un conflitto in-group/out-group, o fra amico e nemico come direbbe Carl Schmitt, in breve, la politica come un inevitabile scontro fra nature opposte e inconciliabili.

Infatti, è improprio dire che siano stati i movimenti ambientalisti e i partiti verdi dell’ultimo quarto del secolo scorso ad introdurre la natura nella politica. Niente è mai stato più politicizzato della natura, e viceversa nessuna politica ha mai potuto prescindere dal ricorrere alla naturalizzazione per legittimarsi (Latour B. 2000, Politiche della natura. Per una democrazia delle scienze).

La circolarità della logica emerge chiaramente dal discorso di Pericle, dove la potenza e le conquiste di Atene, addirittura nella stessa frase, divengono fatti necessari, poiché rispecchiano la Verità che eventi storici accidentali non avrebbero potuto impedire, ma soltanto ostacolare o ritardare dall’affermarsi.

La politica della natura, in analogia con la concezione del sacro della tradizione cristiana, ha prodotto così una biforcazione del mondo fra le peripezie e i conflitti di opinioni degli umani, sul piano dell’azione storica e contingente, e il regno dei fini, collocato su quello ultraterreno, o metafisico, della Verità e della Giustizia (con la maiuscola), emanate dal fondo eterno e immutabile dell’universo o stabilite dal verbo divino. Esattamente come delle icone religiose acheropite, che sono rivelate, e non realizzate dal lavoro umano.

Ancora oggi, che si tratti di “Make America Great Again” oppure, più surrettiziamente, di “affermare i diritti umani”, non siamo in grado di fare a meno di ancorare la nostra politica ad una forma qualsiasi di giusnaturalismo (laico o volontaristico è indifferente). In altre parole, non rinunciamo all’immagine della caverna platonica, secondo la quale deve essere intrapresa la ricerca, o la progressione, verso la luminosa realtà delle cose in sé, uscendo da una condizione di illusione, o momentanea deviazione, rispetto a ciò che sarebbe vero e giusto.

Così possiamo distinguerci intellettualmente da quello che, senza mezzi termini, consideriamo un esercito di stupidi di riserva, che si crogiola in una falsa rappresentazione del mondo. Per inciso, spesso e volentieri, nella politica progressista come in quella reazionaria, fa la sua comparsa come espediente retorico “l’uomo ad una dimensione”, il “servo dei poteri forti”, così “banale nella sua malvagità”, che tiene al proprio vestito culturale, rimanendo incurante dei fatti della natura, la realtà dietro l’apparenza.

Ebbene, come diceva Eco, «la critica della cultura di massa è il peggior prodotto della cultura di massa» (1964, Apocalittici e integrati: comunicazioni di massa e teorie della cultura di massa), il cliché più trito e ritrito che esista.

Tuttavia, adesso abbiamo l’occasione di redimerci da questo classismo tascabile, dato l’avvento dell’Antropocene, o quello che Chakrabarty chiama l’emergere del planetario (2021, The Climate of History in a Planetary Age): questa etichetta per una nuova era geologica, in cui l’attività umana supera, letteralmente, quella delle altre biomasse, fino a sconvolgerne completamente la costituzione, segnala non già “la ribellione di madre natura”, ma proprio la morte della natura stessa. Infatti, con questa svolta, non si può piú fare riferimento a un fuori di alcun tipo.

Date le ingenti trasformazioni dell’ambiente, esso non può più essere ripreso come invariante naturale, cioè come posizione terza nella ripartizione fra il vero e il falso, il giusto e l’ingiusto, all’interno del quale ci andremmo a posizionare, compiendo delle azioni e delle scelte dentro a delle condizioni prestabilite. In altre parole, si tratta di scoprire ciò che abbiamo sempre saputo, ma al tempo stesso ignorato perché troppo impegnati a separare la natura dalla cultura: a pensarci bene, che senso ha dire che le formiche nel formicaio da loro costruito, o gli uccellini nel loro nido, si trovano nel loro habitat? È chiaro che invece l’habitat non è che un’estensione degli esseri viventi e della loro attività. Per cui non è davvero possibile ordinare il mondo come una matrioska, il contenuto non appartiene al contenitore: sono proprio la stessa cosa.

Questo è l’avvincente cambio di prospettiva suggerito dalla teoria di Gaia, sviluppata dai lavori di James Lovelock e Lynn Margulis, le cui scoperte contestano l’idea che la vita sulla terra si sia sviluppata perché erano già presenti le condizioni adatte, il famoso contesto: al contrario, sarebbero stati i primi microrganismi, attraverso la cooperazione, e non la competizione, a plasmare l’ambiente adatto alla propria sopravvivenza. Ciò significa che la natura ha una storia, essa non è un sistema indipendente di cui avremmo turbato l’equilibrio (tipo il mercato autoregolantesi).

Ma allora, come possiamo passare dall'essere al dover essere, se «Dio, fra tutti i mondi possibili, avesse scelto proprio il migliore, ovvero quello col maggior grado di perfezione»? Cioè se dovessimo restare nel mondo che abbiamo, rinunciando ad andare altrove? Come possiamo essere nel vero e nel giusto senza riferimenti a valori assoluti? In questo caso, dobbiamo ricordarci, come dice Deleuze, che aldilà del bene e del male non vuol dire aldilà di buono e cattivo. L’esistenzialismo infatti non ha niente a che vedere col nichilismo, ma con la trasformazione di tutti i valori: noi possiamo sempre odiare la guerra e amare la pace, avversando le forze che reprimono la vita e cospirando con quelle che la favoriscono. E se la vita è un collettivo di cui prendersi cura, un condivenire multispecie (Haraway, 2023, Chthulucene. Sopravvivere su un pianeta infetto), il suo benessere è rimesso alla risonanza fra le entità, umane e non-umane, che sanno vivere attraverso le une attraverso le altre, accogliendone le esigenze in unità sempre provvisorie e discutibili.

Allora, ci occorre una nuova definizione del bello, una nuova costituzione assurda e controversa: l’estetica potrebbe essere intesa come l’esercizio della sensibilità alle altre modalità di vita, altri modi possibili di articolare, modificare ed espandere la società, oltre la distinzione fra natura e cultura. Così più “nemici” e “stranieri” saremo in grado di includere nel nostro mondo, più saremo pluralisti e rappresentativi con esigenze aliene alle nostre, e più quello che potremo costruire sarà solido, vero e giusto (con la minuscola).


Quando un esperimento non basta: il regresso dello sperimentatore

Un risultato sperimentale da solo è sufficiente per dare credibilità ad a un asserto scientifico?

Sì, secondo l’epistemologia classica. La conoscenza prodotta in un laboratorio è “la realtà” perché gli scienziati, seguendo il metodo scientifico, riescono a cogliere la rappresentazione esatta del mondo. Ma chiunque abbia messo piede in un laboratorio di biologia, fisica, chimica ecc. si accorge che questa è una rappresentazione idealistica e normativa della scienza ideologica. Basti pensare a quante volte all’interno di un gruppo di ricerca gli scienziati discutono davanti a un esperimento, prodotto da loro o da altri laboratori, o si confrontano di fronte a un risultato sperimentale che non è in linea con quanto si aspettavano.

Dunque, cosa succede nel momento in cui risultati di un esperimento sono in disaccordo con una teoria già consolidata?

Secondo il sociologo della scienza Harry Collins, un risultato sperimentale non è sufficiente per dare credibilità a un asserto scientifico. Nel suo libro Changing Order (1985) ha analizzato una controversia scientifica avvenuta verso la fine degli anni ’60 e inizi degli anni ‘70 sulla rilevazione delle onde gravitazionali.

Collins osserva come nel 1969 il fisico Joseph Weber affermò di essere riuscito a rilevare grandi quantità di radiazioni gravitazionali. Progettò personalmente il suo rilevatore, costituito da una grossa barra in lega di alluminio sulla quale poteva misurare le deformazioni e le vibrazioni provocate dalle onde attraverso dei rilevatori. Molti scienziati non credettero alle affermazioni di Weber, perché in quel periodo la maggior parte della comunità scientifica era d’accordo nel sostenere che i corpi massivi in movimento producessero onde gravitazionali ma con intensità molto deboli, dunque difficilmente rilevabili. Non solo. Lo strumento progettato da Weber presentava alcune criticità. Un primo aspetto critico era che rilevatori registravano delle vibrazioni e non le onde gravitazionali; dunque, non erano in grado di distinguere fra vibrazioni causate da radiazioni gravitazionali e vibrazioni causate da altre forze o fonti di disturbo. Nel 1969 Weber affermò di aver rilevato sette picchi al giorno non generati da fonti esterne di rumore. Queste affermazioni furono accolte con scetticismo dalla comunità scientifica perché si trattava di una quantità troppo alta di radiazioni rispetto alle teorie cosmologiche dell’epoca. Nonostante ciò, Weber riuscì comunque a convincere altri scienziati a prendere seriamente in considerazione i suoi risultati, anche se non ufficialmente accreditati. Dunque, non basta semplicemente riportare i risultati di un esperimento per trasformarne l’esito in un fatto scientifico consolidato in grado di “uscire dai confini” del laboratorio che lo ha prodotto. Infatti, nel 1972 altri laboratori avevano costruito altre barre in lega di alluminio per captare le radiazioni gravitazionali: in questo momento inizia quello che Harry Collins chiama regresso dello sperimentatore, ovvero un ciclo di interdipendenza tra teoria ed evidenza.

Lo scienziato che proverà a replicare l’esperimento di Weber dovrà alla fine confrontarsi con una serie di iscrizioni grafiche su carta prodotte da un registratore. Il problema sarà capire se fra quelle iscrizioni ci sono dei massimi che rappresentano impulsi di onde gravitazionali, oppure semplicemente segni prodotti dal rumore. La posizione maggioritaria della comunità scientifica dell’epoca riteneva che quei picchi non fossero causati da onde gravitazionali, e per accettare questa tesi bisognava replicare l’esperimento di Weber.

Se però le repliche dell’esperimento avessero dato un risultato negativo, sarebbe stato giusto pubblicare i risultati sperimentali e affermare che non c’erano grandi flussi di gravità da trovare? E di conseguenza dichiarare errate le affermazioni di Weber?

La risposta non è semplice, perché il risultato negativo di un esperimento potrebbe essere dovuto anche a ragioni diverse (per così dire “esterne”) da quelle relative al contenuto dell’asserto scientifico stesso, che l’esperimento vorrebbe provare. Ad esempio, l’amplificatore utilizzato nella replica dell’esperimento potrebbe essere diverso, o meno potente, rispetto a quello utilizzato da Weber. Infatti Weber sosteneva che i suoi rivali non avessero preparato l’esperimento nel modo più appropriato per lo studio di un fenomeno così sfuggente. Anzi, la mancanza di risultati poteva essere dovuta all’imperizia dei rivali di Weber, che non potevano certo vantare la sua esperienza nella progettazione di strumenti così sofisticati

In questo caso le onde gravitazionali esisterebbero realmente ma lo strumento usato in quel particolare esperimento potrebbe non essere in grado di rilevarle e lo scienziato, nel registrare la non esistenza dei flussi gravitazionali, mostrerebbe la propria incompetenza a livello tecnico-sperimentale.

Dunque, se non si conosce il risultato, il corretto svolgimento dell’esperimento non può essere valutato facendo riferimento soltanto al risultato sperimentale perché non c’è un consenso su cosa sia considerato un “risultato corretto” o sull’esistenza di un fenomeno. Per cui la domanda da porsi diventa “qual è il risultato corretto?”.
Afferma Collins:

« 

La conoscenza del risultato corretto non può fornire la risposta. Il risultato corretto è la rivelazione delle onde gravitazionali o la non rivelazione delle onde gravitazionali? Dal momento che l'esistenza delle onde gravitazionali è il punto in questione, è impossibile conoscere la risposta all'inizio. Quindi, quale sia il risultato corretto dipende dal fatto che ci siano o no onde gravitazionali che colpiscono la Terra attraverso flussi rivelabili. Per scoprirlo, dobbiamo costruire un buon rivelatore di onde gravitazionali e guardare. Ma non sappiamo se abbiamo costruito un valido rivelatore fino a che non lo abbiamo messo alla prova e ottenuto il risultato corretto. Ma non sappiamo quale sia il risultato corretto fino a che... e così via, ad infinitum (Collins e Pinch, 1995, Il Golem. Tutto quello che dovremmo sapere sulla scienza, p. 132).

»

L’attività sperimentale può essere valutata facendo riferimento al risultato soltanto se si riesce ad interrompere questa spirale. Nella maggior parte dell’attività scientifica (che Kuhn chiamerebbe “scienza normale”) questa catena circolare viene interrotta perché sono già noti i limiti entro cui un esperimento si può considerare “corretto”. Invece, nelle controversie in cui il regresso dello sperimentatore non può essere evitato, gli scienziati ricorrono ad altri criteri per valutare la qualità di un esperimento, che sono indipendenti dal risultato stesso dell’esperimento. Collins, intervistando gran parte degli scienziati coinvolti nell’attività di ricerca sulle onde gravitazionali, ha messo in luce gli elementi che entrano in gioco per valutare gli esperimenti e i risultati sperimentali degli altri scienziati:

1- fiducia nelle capacità sperimentali e nell'onestà dello scienziato, basata su una precedente collaborazione di lavoro;
2- la personalità e la capacità intellettiva degli sperimentatori;
3- la fama dello scienziato ottenuta attraverso la gestione di un grande laboratorio;
4- l’aver o meno lavorato nel settore dell'industria o in un ambiente universitario;
5- il curriculum di uno scienziato, in relazione ai suoi eventuali precedenti fallimenti;
6- «Informazione confidenziale», cioè riservata e non destinata ad essere divulgata all’intera comunità scientifica;
7- lo stile dello scienziato e la sua capacità di presentare i risultati;
8- l'«approccio psicologico» dello scienziato all'esperimento;
9- l'importanza e il prestigio dell'università d'origine dello scienziato e di quella dove lavora;
10- il grado di integrazione dello scienziato in svariate reti di collaborazione scientifica;
11- la nazionalità dello scienziato.

Dunque, quando i risultati di un esperimento sono in disaccordo con una teoria consolidata, la pratica scientifica non segue mai soltanto criteri metodologici nel decidere se a essere sbagliato sia l’esperimento o la teoria. Ma anche criteri sociologici, come quelli appena elencati. Dunque, fare scienza richiede sia un’abilità retorica che tecnica (Collins 1995). ). Al termine di una controversia vengono definiti quali sono gli “esperimenti validi” – ad esempio gli esperimenti che rilevano le onde gravitazionali o quelli che non le rilevano – stabilendo così la competenza di alcuni scienziati a discapito di altri. In altre parole,

« 

Riuscire (...) a definire che cos'è un buon rivelatore di onde gravitazionali, e determinare se le onde gravitazionali esistono, sono lo stesso processo. Gli aspetti sociali e scientifici di questo processo sono inscindibili. È questo il modo in cui viene risolto il problema del regresso dello sperimentatore (ivi, p. 136).

» 

In conclusione, il concetto di regresso dello sperimentatore ha il merito di aver messo in luce come la veridicità di un asserto scientifico dipenda anche da “meccanismi di risoluzione” (ivi, p. 143)(in grado di chiudere una controversia) che generalmente non vengono considerati come costitutivi dell’attività scientifica, perché non fanno parte di argomentazioni di natura tecnica, ma elementi sociali. Tuttavia, senza questi la scienza non potrebbe esistere.

Come andò a finire la controversia sulle onde gravitazionali?
In questo modo: Joseph Weber e le onde gravitazionali – Vittime illustri di modi ideologici di fare scienza.


Omeopatia e memoria dell'acqua - Una storia di scienza

Ciclicamente la scienza è attraversata da grandi discussioni attorno a problemi che appassionano i ricercatori, forse anche perché trattano di temi che riguardano abbastanza evidentemente la quotidianità di tutti noi.

Temi che oltre a far discutere a volte anche animatamente, si rivelano alla fine divisivi nelle opinioni: chi sta di qua e chi sta di là della linea di demarcazione della verità. A volte le dispute sono feroci e lunghissime, e proprio la stessa storia delle scienze ne è fedele testimone.

Gli esempi che si potrebbero fare sono tantissimi, e alcuni riguardano l’elemento apparentemente più comune sul nostro pianeta: l’acqua.

-------

Non c’è solo il caso dell’abbaglio preso sulla cosiddetta poliacqua, un liquido che pareva essere differente ma che alla fine si era dimostrata semplicemente impura: uno dei casi ancora oggi aperti riguarda un altro aspetto dell’acqua, e cioè la sua presunta “memoria”.

Un dibattito che parte da molto lontano, e che forse non è ancora del tutto chiuso.

Pur senza mai nominare il termine “memoria”, che fu invece coniato dagli ambienti di divulgazione scientifica della notizia, questa presunta qualità che permetterebbe all’acqua di mantenere un "ricordo" delle sostanze con cui è venuta in contatto fu proposto per la prima volta nel 1988 dal medico francese Jacques Benveniste: l’idea era che, per produrre tale effetto, l'acqua debba essere agitata ("succussa") a ogni diluizione di nuova sostanza con cui entra in contatto.  Benveniste nei suoi lavori ipotizzò un meccanismo che spiegava in questo modo il presunto funzionamento dei rimedi omeopatici, la cui efficacia è, a tutt’oggi, non dimostrata. I preparati omeopatici, chimicamente composti di acqua e zucchero, vengono di fatto preparati miscelando più volte il principio attivo in acqua a diluizioni così spinte da perdere ogni presenza di molecole del principio attivo originario con cui vengono messi a contatto.

In verità non esiste alcuna prova scientifica che supporti l'esistenza del presunto fenomeno. Sebbene siano stati pubblicati studi che sembravano andare in quella direzione, in realtà tali studi non hanno mai superato la verifica in doppio cieco, necessaria per dare attendibilità ai risultati ottenuti.

Peraltro, a successive prove scientifiche effettuate nuovamente da “terzi”, i risultati ottenuti dal medico francese furono clamorosamente smentiti: le ricerche risultarono false e manipolate, e fu la rivista Nature a darne ampio risalto pubblicando una dettagliata relazione che smentiva i risultati ottenuti dal dott. Benveniste. Come apparse in modo chiaro e inequivocabile, da un punto di vista chimico-fisico l’acqua mantiene una relazione con le altre molecole con le quali viene in contatto per un tempo infinitesimale, nell’ordine di qualche decina di femtosecondi (unità di misura del tempo, sottomultiplo del secondo, pari a un milionesimo di miliardesimo di secondo, corrispondente al più breve impulso di luce mai realizzato).

Il concetto di memoria dell’acqua, insomma, così come proposto dagli studi (manipolati) di Benveniste appare pseudoscientifico e quindi privo di fondamento.

Nonostante ciò, il fascino del concetto rimane. Nel 2011, nella Conference Series del Journal of Physics (nota fra gli addetti ai lavori come serie con peer review alquanto debole, e quindi facilmente esposta a rischi di pubblicazioni non scientifiche) appare uno studio firmato dal premio Nobel per la medicina Luc A. Montagnier, biologo insignito appunto nel 2008 del prestigioso premio per la scoperta (assieme a Françoise Barré-Sinoussi) nel 1983 del virus HIV. In questo articolo, il team di ricerca di Montagnier dimostra come soluzioni acquose altamente diluite di sequenze di DNA proprio del virus HIV (e anche di altri virus e batteri), produrrebbero segnali elettromagnetici di bassa frequenza caratteristici del DNA in soluzione. Per i sostenitori dell’omeopatia, una sorta di manna dal cielo: i risultati del premio Nobel sembrano andare esattamente nella direzione della validità scientifica della proposta. Peccato che anche questa volta le cose non vadano bene: il lavoro viene additato a livello internazionale come privo di validità scientifica, carente nel protocollo sperimentale, nelle apparecchiature utilizzate e perfino incoerente nelle sue stesse basi teoriche. Un disastro, insomma. Montagnier, d’altro canto, ha spesso prestato il fianco a critiche anche feroci da parte di moltissimi suoi colleghi medici, biologi e virologi: le sue prese di posizione su virus, batteri e vaccini sono state disconosciute dall’intera comunità scientifica.

In ogni caso, quello che va ricordato è che la storia dell’acqua come veicolo di trasmissione di rimedi curativi è molto più antica del secolo scorso.

Benveniste non è stato certo il primo a parlarne, anche se ha avuto la visibilità maggiore. Lo stesso termine omeopatia ha radici molto più vecchie: lo si deve a un brillante studioso tedesco vissuto tra il 1755 e il 1843, Samuel Hahnemann. Bimbo prodigio, a dodici anni parla già diverse lingue e in soli 4 anni si laurea in Medicina a Erlangen nel 1779. Diventa grande e geniale medico, ma anche chimico, botanico, fisico e traduttore: in soli quattro anni, a partire dal 1785, furono edite ben duemila sue pagine di traduzioni e di opere originali. Fondatore dell’Omeopatia, ne coniò anche il termine, Homoepathie e denominò Allopathie la terapia classica: a differenza di quest’ultima, infatti, il principio ispiratore del nuovo approccio alla cura è espresso dall’aforisma “similia similibus curantur”, i simili si curano con i simili. Hahnemann fu certamente colpito dalle affermazioni provenienti dagli studi di Cullen: l’uso del chinino in un soggetto in buona salute provoca una sintomatologia simile a quella determinata dalla malattia che il chinino stesso è chiamato a curare. A partire da questa considerazione elaborò la teoria secondo cui ogni malattia va curata con un medicamento che provochi nell’uomo sano una analoga sintomatologia.

Così nacque l’Omeopatia. Nella storia del pensiero medico occidentale, Hahnemann è il primo e l’unico medico e pensatore che rompe completamente con tutti gli schemi scientifici, mentali e metodologici sino allora conosciuti in medicina.

Nonostante il lungo tempo trascorso, la sua opera ed il suo metodo sono tuttora oggetto di diatribe e accese discussioni. Per quanto l’Omeopatia abbia subito per oltre duecento anni gli attacchi più feroci, i boicottaggi più incredibili, le pubblicazioni più infamanti e ostracismi di ogni tipo, oggi essa è diffusa e praticata in quasi tutti i paesi del mondo, fra l’altro in costante e continua crescita. L’Omeopatia è sicuramente la metodica terapeutica che raccoglie in sé più prove scientifiche di ogni altro metodo curativo e assieme quella che fa registrare più opposizioni da parte del mondo accademico rispetto a tutte le altre terapie non convenzionali.

-------

Certezze poche, insomma. Se non quella che, a un’analisi eseguita con un approccio scientifico tradizionale (e fatto di quelle conoscenze finora disponibili) il tema della memoria dell’acqua (e quello a ruota dell’omeopatia) non abbiano superato lo sbarramento delle prove di scientificità.

Perché dunque continuare a parlarne? Semplicemente perché la verità forse non è (ancora) conoscibile. O forse è davvero complessa, a volte.

A testimonianza che le cose accadono al di là della nostra capacità umana di vederle, di comprenderle, di addomesticarle. Il che, spesso, non è assolutamente una brutta notizia.


Omeopatia e memoria dell’acqua - Per una ricerca oltre le contrapposizioni

Quando si parla di memoria dell’acqua, solitamente si cita il lavoro dell’immunologo francese Jacques Benveniste (1935–2004) - che coniò l’espressione “memoria dell’acqua” - e quello più recente di Luc Montagnier, che occasionalmente si trovò a descrivere le proprietà di una soluzione ultra diluita. E si afferma che questi lavori sarebbero stati confutati dalle confutazioni che avrebbero messo una pietra tombale sull’omeopatia. Tali confutazioni, tuttavia, sono state a lor volta respinte e ritenute non attendibili: si veda, ad esempio, il Report del Governo Svizzero del 2011 che rappresenta la valutazione più completa sulla Medicina Omeopatica mai scritta da un Governo (Bornhoft e Matthiessen, Homeopathy in Healthcare: Effectiveness, Appropriateness, Safety, Cost).

Fra le critiche all’omeopatia si afferma, da parte di clinici e farmacologi, che l’Omeopatia sia efficace solo per l’effetto placebo. Ma la gran parte dei nostri pazienti si rivolge a noi perché delusi dalla medicina “allopatica”, dopo essere stati in prima battuta dal loro medico di famiglia, poi anche dallo specialista di riferimento che non di rado è un clinico rinomato, cattedratico ecc… Inoltre, sappiamo che l’effetto placebo è insito in ogni terapia ed è relativo all’investimento di speranza e fiducia che il paziente ha nei confronti della medicina assunta.

Per cui sorge la domanda: come mai migliorano o guariscono solo con l’effetto placebo dell’omeopatia e non con quello dell’allopatia, tanto che essi sono costretti ad intraprendere altre strade per prendersi cura della propria salute?

La sperimentazione pura, ossia la somministrazione di un medicamento diluito a un soggetto sano, provoca una sintomatologia che, se presente in un paziente malato, quello stesso rimedio è in grado di guarire. Questa procedura che è stata avviata da Hahnemann e proseguita dai suoi allievi è insegnata in alcune scuole di omeopatia; anch’io all’inizio, quando ero ancora studentessa un po’ incredula, l’ho provata. È un modo per toccare con mano la legge dei simili, ma soprattutto per imparare a osservare se stessi e dunque anche i malati.

Il medico agisce in base ai bisogni del malato e ancora oggi non può sottrarsi a una certa dose di empirismo se vuole essere efficace e tempestivo; e spesso è guidato meglio dall’esperienza che dalle cosiddette Linee Guida.

La medicina è nata prima della scienza moderna e quest’ultima spesso si è trovata a spiegare a posteriori il meccanismo di azione di farmaci usati fino a quel momento in modo empirico.

L’esperienza di migliaia di omeopati e dei loro pazienti non può non essere considerata un’evidenza solo perché non è chiaro, alla luce delle attuali conoscenze scientifiche, quali sia il meccanismo di azione dei farmaci omeopatici.

E’ ragionevole pensare, proprio alla luce dello sviluppo storico della scienza, che presto il meccanismo di azione di un ultra diluizione sarà spiegato forse anche grazie alla fisica quantistica, di cui oggi si parla tanto (e non sempre a proposito, spesso consegnando al mondo new-age quanto dovrebbe appartenere a una ricerca seria).

Non dovremmo inoltre dimenticare, limitandoci alle diatribe sull’omeopatia, che abbiamo tutto un patrimonio di medicine tradizionali, con un bagaglio secolare di sapienza che rischia di andare perduto, se non si cercano con urgenza nuovi epistemi e nuove modalità di ricerca.

Quello che sarebbe importante è sedersi intorno a un tavolo, allopati ed omeopati senza rivalità od ostilità, e iniziare a studiare insieme questi fenomeni perché il tema della salute non può essere ristretto a un solo pensiero dominante e prevalente.

In fondo lo scollamento fiduciario, tra quello che i malati si aspettano dai medici e quello che i medici sono in grado di offrire oggi, è sempre più ampio ed è l’espressione di una crisi della medicina e della professione medica che è sotto gli occhi di tutti.

L’apporto delle Medicine Tradizionali e Complementari, con un’attenzione alla complessità della persona che soffre, alla relazione medico-paziente (che non è amabilità ma strumento di conoscenza per la giusta prescrizione), dovrebbe essere riconosciuto e apprezzato anche dal mondo accademico, perché quello che dovrebbe premere a tutti noi è solo la salute delle persone.


Sull’incommensurabilità e incomunicabilità dei paradigmi - Il caso dell’omeopatia

Si discute da decenni di omeopatia (dal greco omeios, simile e pathos, malattia). Un approccio alla cura, basato sulla legge dei simili, che prevede l'utilizzo di un rimedio (omeopatico) che produce nella persona sana gli stessi effetti (sintomi) della malattia che si vuole curare. Pertanto, il rimedio è simile alla malattia nella manifestazione dei sintomi che produce, ma di specie od origine diversa, cioè non è derivato o composto dello stesso agente che causa la malattia.
È certamente un’idea contro-intuitiva; e quindi non facile da accettare.
Ma anche il principio su cui sono nate le vaccinazioni era fortemente contro-intuitivo: inoculare un agente patogeno in un corpo, al fine di prevenire la malattia causata dallo stesso agente patogeno, all’inizio era considerata un’assurdità. Di solito se voglio non ammalarmi, cerco di stare a distanza dall’agente patogeno; non certamente lo introduco intenzionalmente nel mio corpo. Eppure sappiamo che con le vaccinazioni si fa proprio questo.

Le origini

Il medico tedesco Samuel C.F. Hahnemann (1755 – 1843) arrivò alla definizione di questo metodo di cura attraverso l’intuizione, la sperimentazione (dapprima della corteccia di China, da cui si estrae il chinino con cui si curava la malaria, e poi di altri rimedi su sé stesso, i suoi familiari e i suoi allievi, e raccogliendo una grande quantità di esempi clinici) e l'osservazione dei meccanismi della biologia, analizzando ciò che accade quando nello stesso soggetto si incontrano due malattie che hanno sintomi completamente diversi (malattie dissimili), oppure malattie con sintomi comuni (malattie simili).

Per evitare gli effetti collaterali delle medicine o rimedi omeopatici, Hahnemann ridusse sempre di più il loro dosaggio, arrivando così a dosi estremamente basse. Di fronte all'obiezione che dosi così piccole non potevano più essere efficaci, egli ribatté che l'efficacia curativa delle sostanze poteva essere enormemente aumentata tramite un processo chiamato "dinamizzazione", consistente nello scuotere (succussione) ripetutamente il prodotto.

Esistono oggi numerosi studi fisico-chimici che spiegano il meccanismo d'azione di tali diluizioni. Il problema rimane la riproducibilità di tali esperimenti, data l'instabilità di queste diluizioni (si veda Associazione Lycopodium 2019, Introduzione all’omeopatia).

Ai giorni nostri

Nel 1988 venne per la prima volta avanzata l'ipotesi della memoria elettromagnetica dell'acqua da parte dell’immunologo francese Jacques Benveniste (1935-2004). Quella che allora sembrava un'eresia, oggi è documentata da diversi gruppi di ricerca:

«In pratica, l'acqua ha un comportamento dinamico e le molecole sono in grado di formare dei reticoli assimilabili a un filo conduttore. Quando l'acqua viene posta in un campo magnetico le molecole si mettono ad oscillare all'unisono in modo coerente, o come si dice, in fase. La frequenza di oscillazione può essere trasmessa ai liquidi biologici» (Associazione Lycopodium 2019, Introduzione all’omeopatia).

In altre parole, l'acqua si comporta non come un materiale inerte e passivo, bensì dinamico nella trasmissione di una informazione energetica. Ogni stimolo fisico-chimico, e quindi anche la sostanza del rimedio, ha una certa frequenza di oscillazione che viene trasmessa all'acqua della soluzione, la quale continua a vibrare con la stessa frequenza anche quando la sostanza non è più presente.

«Il processo di agitazione del liquido (succussione) avrebbe proprio il compito di ‘riattivare la memoria dell'acqua’ ad ogni passaggio di diluizione, cioè 'rienergizzarla' con la stessa frequenza corrispondente alla sostanza iniziale. L'acqua fungerebbe così da messaggero, trasferendo poi la frequenza di oscillazione, ovvero l'informazione, ai tessuti e ai liquidi biologici dell'organismo che l'assume.

Sono state fatte altre ipotesi sul meccanismo di trasferimento dell'informazione da parte dell'acqua (tramite degli aggregati di molecole particolari, cavi al centro, che incorporerebbero così la molecola di soluto, i cosiddetti cluster) e la possibilità di una verifica sperimentale non sembra più così lontana.

La ricerca di base in Omeopatia ha ormai permesso di ritenere che il rimedio omeopatico sia dotato di una specificità nei confronti di sistemi 'recettoriali' dell'organismo. Il segnale veicolato dalla soluzione viene riconosciuto specificamente dall'organismo bersaglio ed elaborato in modo da indurre un'azione positiva su tutto il sistema. Si tratterebbe comunque di un'attività biologica in presenza di tracce di molecole, tanto che è stato coniato il termine di biologia metamolecolare, e l'informazione veicolata differisce da quella conosciuta dalla biologia e dalla farmacologia classiche» (Associazione Lycopodium 2019,Introduzione all’omeopatia).

Sappiamo che queste affermazioni sono ritenute prive di fondamento e di solide basi sperimentali da parte di molta medicina, biologia e farmacologia (più aperti sembrano invece i fisici teorici). Le diluizioni vengono considerate “acqua fresca” e gli effetti benefici dell’omeopatia come un “effetto placebo” dell’empatia, ascolto, attenzione, cura che il/la medico omeopata mette nella relazione con il/la paziente.

Una difficile mediazione

Come se ne esce? È possibile trovare una mediazione? Sì e no.

Sì,

nel senso che una mediazione è da tempo già praticata, anche in diverse strutture pubbliche del Sistema Sanitario Nazionale (ad esempio la Regione Toscana, sin dal 1996), dove la “medicina integrativa” o TCIM (Traditional, Complementary and Integrative Medicine) mostra tutta la sua utilità ed efficacia.

La TCIM, per come l’ha definita l’OMS (Organizzazione Mondiale della Sanità),

“è la dimora di numerose concezioni e sistemi medici, come la medicina tradizionale cinese, la medicina ayurvedica, l’omeopatia, la medicina antroposofica e le medicine tradizionali locali. La caratteristica della TCIM è quella di integrare le cure convenzionali, farmacologiche e non, con altri approcci basati sull’esperienza artistica, sul movimento, sulle cure infermieristiche, sul colloquio biografico. Metodi diversi che si appellano all’attivazione del paziente e che risvegliano risorse latenti di guarigione molto differenti fra loro. Inoltre, la TCIM si propone strategie di ricerca che tengano conto della salute globale, per esempio sviluppando approcci di cura rivolti alle malattie croniche o a contribuire ad affrontare problemi collettivi come quello della resistenza antimicrobica (Kienle et al. 2019; Baars et al. 2019). Questi sistemi medici sono orientati primariamente alla qualità della vita, ma non si limitano ad essa; inoltre, si rivolgono non solo al paziente, ma anche ai curanti, per la prevenzione del burnout (Ben Arye et al. 2021).

No,

perché quello a cui assistiamo è uno scontro tra paradigmi, nel senso di Kuhn (1962, La Struttura delle Rivoluzioni Scientifiche).

Ogni paradigma ha i suoi assunti (taciti e/o espliciti), le sue premesse epistemologiche, le sue convenzioni metodologiche relative a quali siano i metodi adatti e cosa rappresenti un prova o un’evidenza.

Approssimando non poco, perché sia all’interno della medicina allopatica che in quella omeopatica esistono molte differenze, sfumature e sensibilità, attualmente nella medicina allopatica è dominante l’approccio basato sull’evidenza (EBM), che al di là dell’altisonante uso del termine ‘evidenza’, con esso intende «l'uso di stime matematiche del rischio di benefici e danni, derivate da ricerche di alta qualità su campioni di popolazione, per informare il processo decisionale clinico nelle fasi di indagine diagnostica o la gestione di singoli pazienti» (Greenhalgh 2010, How To Read a Paper: The Basics of Evidence-Based Medicine, p. 1). In altre parole, le evidenze sono risultanze statistiche derivate da studi a doppio cieco su campioni di popolazione. Conosciamo però (oltre ai pregi, anche) tutti i limiti di questo metodo. Pensiamo soltanto che non pochi farmaci sono stati ritirati dal mercato (ad es. dietilstilbestrolo, talidomìde, vioxx) dopo aver passato rigorosissimi (almeno si spera) studi statistici a doppio cieco.

Come mai? Le ragioni sono tante (e servirebbe un post apposito per elencarle). Una per tutte è che ognuno di noi è fatto in modo diverso; siamo portatori di una biologia individuale o personalizzata (Lock, 1995; Lock & Nguyen, 2010; Merz, 2021). Per cui l’interazione tra una biologia individuale e un farmaco standardizzato produce un numero enorme di possibili esiti; ancor di più, quando l’interazione è tra due individualità, come ad esempio un individuo e un cibo, oppure una malattia.

Al contrario l’omeopatia è una practice-based medicine, cioè si basa sullo studio e l’osservazione di un paziente considerato nella sua individualità anziché rappresentatività. Su quello che accade concretamente a lui o lei, e solo a lui o lei. Sulla sua interazione con l’agente patogeno e la malattia, che è un’interazione del tutto particolare, specifica, personale. Su studi clinici (pochi casi) anziché statistici (molti casi).

Due diversi (e incomunicabili) concetti di empiria

Ci troviamo di fronte a due empirie diverse e (forse) incomunicabili. La prima (quella statistica), per cui i casi singoli non contano nulla. L’altra (quella clinica) per cui contano solo i casi individuali.

Ed è su questi differenti concetti di cosa sia ‘empirico’ che si è (anche) giocato lo scontro sulle terapie anti-Covid: da una parte molti medici di base (peraltro pienamente appartenenti alla medicina convenzionale, che nulla o poco avevano a che fare con l’omeopatia) che proponevano terapie precoci anti-covid basate su farmaci convenzionali (come ketoprofene, ibuprofene a basse dosi, morniflumato, aspirina, nimesulide, corticosteroidi, eparine, idrossiclorochina, Azitromicina, Paxlovid, Remdesivir, ecc.); dall’altra gli ospedalieri e la gran parte dei ricercatori/scienziati che sostenevano che bisognava aspettare gli esiti degli studi standardizzati prima proporre una terapia, perché non credevano alle esperienze empiriche (limitate nel numero di casi) dei medici di base. E così, in attesa di un bel studio a doppio cieco, le persone morivano senza assistenza… La cecità del doppio cieco, potremmo dire.

Spesso chi critica l’omeopatia sostiene che i suoi asserti non hanno superato i requisiti di riproducibilità di un esperimento, che insieme alla verificabilità di una ipotesi di lavoro, rappresentano i due pilastri fondamentali della ricerca scientifica. Chi ragiona in questo modo, però, dimentica che l’esperimento è solo una fra i (tanti) metodi scientifici che le scienze dispongono per validare le scoperte e le conoscenze. Anche perché l’esperimento (oltre agli innumerevoli pregi) è un metodo con molti limiti, capace di controllare soltanto un numero molto esiguo di variabili, che per funzionare deve necessariamente ridurre la complessità dell’interazione tra un individuo e il mondo circostante. In questo sta la straordinaria potenza dell’esperimento, ma al contempo la sua povertà intellettuale e culturale. L’esperimento non è capace di padroneggiare la complessità. Ha bisogno di ridurre…

Un’altra accusa, complementare alla precedente, che si muove all’omeopatia è che non è in grado di mostrare e replicare i meccanismi chimici su cui si basano le sue ipotesi. Oppure che affida le spiegazioni sul funzionamento molecolare dei rimedi omeopatici a future “magnifiche sorti e progressive” della fisica quantistica; mentre le spiegazioni noi le vorremmo ora, e non domani. In altri termini, si vedono gli effetti di un trattamento omeopatico, ma non si evidenziano chiaramente le cause, i meccanismi. Accusa speculare a quella che, invece, gli omeopati rivolgono ai farmaci convenzionali: intervengono sugli effetti e non sulle cause (innescando, a volte, anche reazioni avverse).

Anche in questo caso, l’impossibilità di comunicare e comprendersi è alta. Eppure pretendere di capire tutto e subito (di un farmaco, di un trattamento, di una teoria) è segno di scarsa apertura al possibile, all’inconoscibile, all’ignoto, al mistero…

L’aspirina

L’ASPIRIN è acido acetilsalicilico, della famiglia dei salicilati. Erodoto (V sec a.C.) nelle Storie narra di un popolo stranamente più resistente di altri alle comuni malattie, che era solito mangiare le foglie di salice. Ippocrate (V sec a.C.) descrisse una polvere amara estratta dalla corteccia del salice che era utile per alleviare mal di testa, febbre, dolori muscolari, reumatismi e brividi. Un rimedio simile è citato anche dai Sumeri, dagli antichi Egizi e dagli Assiri. Anche i nativi americani lo conoscevano e lo usavano.

Nell'era moderna è stato il reverendo Edward Stone, nel 1757, a scoprire gli effetti benefici della corteccia di salice. Sei anni dopo scrisse una famosa lettera alla Royal Society in cui giustificava in modo razionale l'utilizzo della sostanza contro le febbri.

La sostanza attiva dell'estratto di corteccia del salice bianco (Salix alba), chiamato salicina, fu isolata in cristalli nel 1828 da Johann A. Buchner e in seguito da Henri Leroux, un farmacista francese, e da Raffaele Piria, un chimico calabrese emigrato a Parigi, che diede al composto il nome attuale (acide salicylique).
Nel 1860 Hermann Kolbe e i suoi studenti dell'Università di Marburgo riuscirono a sintetizzare l'acido salicilico, immettendolo poi sul mercato nel 1874 a un prezzo dieci volte inferiore all'acido estratto dalla salicina, e già nel 1876 un gruppo di scienziati tedeschi, tra cui Franz Stricker e Ludwig Riess, pubblicarono su The Lancet gli esiti delle loro terapie basate sulla somministrazione di sei grammi di salicilati al giorno.

Il meccanismo di azione dell'aspirina fu conosciuto in dettaglio solamente nel 1970, dopo millenni di suo uso e 150 anni dal suo isolamento chimico.

Perché escludere che potrebbe accadere lo stesso anche per i preparati omeopatici?

In conclusione: l’omeopatia è una scienza?

Qualche tempo fa, Ioannidis (2005), medico ed epidemiologo greco e statunitense, uno dei più importanti scienziati nel suo campo, pubblicò un articolo dal titolo destabilizzante: Why most published research findings are false. Dieci anni più tardi, l’11 aprile 2015, Richard Horton (dal 1995 capo-redattore de The Lancet, forse la rivista medica più importante del settore) pubblicò una sorta di editoriale dal titolo “What is medicine’s 5 sigma?“, in cui afferma senza mezzi termini:

gran parte della letteratura scientifica, forse la metà, potrebbe semplicemente essere falsa (untrue). Afflitta da studi con campioni di piccole dimensioni, effetti risibili, analisi esplorative non valide e evidenti conflitti di interesse, insieme a un'ossessione nel perseguire tendenze alla moda di dubbia importanza, la scienza ha preso una svolta verso il buio. Come ha detto uno degli addetti ai lavori "metodi scadenti ottengono risultati".

Se adottiamo una visione realistica (lontana da una versione idealista o normativo/prescrittiva della scienza, purtroppo propria di molta filosofia della scienza) dobbiamo accettare che le situazioni descritte da Ioannidis e Horton sono… scienza. Che ci piaccia o no.

E se queste pratiche (incerte, dubbie, difettose) sono a tutti gli effetti attività scientifiche, perché non accogliere e considerare anche l’omeopatia una scienza?

Chi lo vieta? Soltanto un’ottusità di sapore neopositivista…

 


Bibliografia

Baars EW, Zoen EB, Breitkreuz T, Martin D, Matthes H, von Schoen-Angerer T, Soldner G, Vagedes J, van Wietmarschen H, Patijn O, Willcox M, von Flotow P, Teut M, von Ammon K, Thangavelu M, Wolf U, Hummelsberger J, Nicolai T, Hartemann P, Szőke H, McIntyre M, van der Werf ET, Huber R. (2019) The Contribution of Complementary and Alternative Medicine to Reduce Antibiotic Use: A Narrative Review of Health Concepts, Prevention, and Treatment Strategies. Evid Based Complement Alternat Med. Feb 3: 5365608.

Ben-Arye E, Zohar S, Keshet Y, Gressel O, Samuels N, Eden A, Vagedes J, Kassem S. (2021), Sensing the lightness: a narrative analysis of an integrative medicine program for healthcare providers in the COVID-19 department. Support Care Cancer, Sept. 15:1–8.

Gobo, G, Campo E. e Portalupi E. (2023), A Systemic Approach to Health and Disease: The Interaction of Individuals, Medicines, Cultures and Environment”, in Medicine: A Science in the Middle, Alessandro Pingitore and Alfonso Maurizio Iacono (eds.), Berlin: Springer, pp. 39-53.

Kienle GS, Ben-Arye E, Berger B, Cuadrado Nahum C, Falkenberg T, Kapócs G, Kiene H, Martin D, Wolf U, Szöke H. (2019), Contributing to Global Health: Development of a Consensus-Based Whole Systems Research Strategy for Anthroposophic Medicine. Evid Based Complement Alternat Med. Nov 12: 3706143.

Lock M. (1995). Encounters with aging: Mythologies of menopause in Japan and North America, Berkeley (California): University of California Press.

Lock M., & Nguyen V-K. (2010). An anthropology of biomedicine, Hoboken (New Jersey): Wiley-Blackwell.

Merz S. (2021). Global trials, local bodies: Negotiating difference and sameness in Indian for-profit clinical trials. Science, Technology, & Human Values, 46(4), 882-905.


L'anima - Origini antiche di un concetto impopolare

I confini dell’anima non riuscirai a trovarli per quanto tu percorra le sue vie.

Eraclito, frammento 45

Premessa

Accennavamo poco tempo fa agli eventi interiori che possono aver luogo nel teatro dell’anima. L’idea di anima non è molto popolare oggi, parlarne crea uno strano imbarazzo. Affascinati dalle immagini della Risonanza Magnetica funzionale, molti neuroscienziati tendono a considerare la coscienza umana come un prodotto del cervello. Un processo nervoso, talmente automatico, che si può tranquillamente escludere il libero arbitrio: qualcuno ha proposto addirittura di abolire il Diritto Penale; se uccido o rubo, non dipende da me, ma da tempeste ormonali e intrecci di neuroni.

Un noto divulgatore scientifico annovera tra i possibili sostituti dell’anima persino il DNA. Dico subito che il DNA non è più attivo e vitale della tastiera di un pianoforte: funziona a seconda di chi lo suona, ma se non viene stimolato rimane inerte. È solo un replicatore di mattoni dell’organismo.

In quanto al rapporto del cervello con la coscienza, è piuttosto difficile spiegare come un ammasso spugnoso di neuroni possa creare la Divina Commedia o la Nona di Beethoven. Un geniale filosofo australiano, David Chalmers, ha giustamente distinto ciò che esce dallo scoppiettio e dalle immagini delle macchine che indagano il cervello, dall’universo insondabile e soggettivo della coscienza umana: il primo è il “problema facile”, il secondo, quello “difficile”.

In effetti, la difficoltà di penetrare nei meandri della coscienza dipende primariamente dal fatto che pretendiamo di conoscere un’entità soggettiva con strumenti oggettivi. Possiamo allora indagare la coscienza tramite la coscienza? Beh, la psicoanalisi si è formata attorno a questa idea e, se la psiche non esiste, allora la psicoanalisi è la scienza del nulla.

Ma come è nata l’idea della psiche ? Le radici del nostro pensiero sono greche. Chiediamolo ai greci.

L’anima

Proiettiamoci in un lontano passato, in un carcere di Atene. Socrate ha lealmente accettato la sentenza di morte, ingiustamente stabilita dal tribunale della città. Gli amici che lo assistono sono disperati: la tua grande anima svanirà nel vento! Ma Socrate risponde con parole inaudite: l’anima non muore con il corpo e io resterò là dove sono sempre stato (Platone, Fedone).

Siamo nell’anno 399 del tempo precristiano e stiamo assistendo alla nascita dell’idea dell’anima. La cultura greca fino a quel tempo poggia sui grandi Misteri di Eleusi: dopo la morte l’anima si disperde nel vento, del resto ànemos (“άνεμος”) vuol dire proprio vento. Quel che resta di questo alito si rifugia in un’ombra pallida, prigioniera dell’Ade, il buio regno di Persefone. Non c’è vita oltre la morte: nella cupa discesa di Ulisse nell’Ade, l’ombra di Achille si dispera: «Vorrei essere un servo da vivo, piuttosto che regnare sui morti» (Omero, Odissea: XI, 489).

Noi ci serviamo delle parole per comunicare, ma guardate come il senso di un vocabolo può radicalmente mutare significato ed esperienza interiore. Fino a questo istante dell’anno 399 la parola pneuma (πνεύμα) indica un alito di vento, gli allievi di Socrate temono che il maestro morendo si dissolva come un soffio nel vento.

Ma da qui in poi πνεύμα diventa lo spirito immortale: qualche secolo più tardi, Giovanni il discepolo di Gesù, dirà al nobile fariseo Nicodemo: «Lo Spirito [Το πνεύμα] soffia dove vuole e tu odi la sua voce, ma non sai da dove viene, né dove va» (III, 8).

Socrate non si basa sulle dottrine di Eleusi, è un iniziato dei Misteri orfici del nord, portatori dell’idea rivoluzionaria dell’immortalità dell’anima. «Resterò dove sono anche dopo la morte» è la parafrasi di un pensiero ricorrente per Socrate, che può attardarsi a meditare anche prima di varcare la soglia di un amico che lo ha invitato a un festeggiamento (Platone, Il Simposio).

Il filosofo si interroga costantemente sul continuo mutare del mondo: «Perché ogni cosa si genera, perché si corrompe e perché esiste» ( Platone, Fedone 96 A, 9). Svela così il suo percorso di meditazione, che lo conduce a indagare a fondo le pieghe nascoste della coscienza, la sua logica, la sua mutevolezza, la sua incoerenza. L’anima assomiglia a una biga alata, trainata da due cavalli che vorrebbero seguire direzioni opposte (Platone, Fedro, 246).

Socrate non si limita a rivelare che l’anima è immortale, ma ne tratteggia le qualità: la capacità di apprendere, di ricordare, di formare concetti; descrive le sue lotte interiori, insegna come curarla. «Prendersi cura dell’anima» è un invito che il filosofo ripete spesso: proprio come ci prendiamo cura degli occhi fisici, perché possano vedere correttamente, così dobbiamo prenderci cura dell’occhio dell’anima, perché sensazioni ed emozioni siano chiare.

Per forza non crediamo più all’esistenza dell’anima: stiamo guardando dalla parte opposta! Gli occhi fisici non vedono la natura delle cose, ma solo il loro aspetto esteriore. Sono le emozioni che possono percepire oltre, ma devono essere pure, non mescolate con quelle del corpo. La rivelazione del Simposio è tutta qui, nel saper ascoltare intensamente, “eroticamente”, ma rinunciando al fisico.

La vera essenza delle cose non si manifesta in pensieri, ma in immagini; queste, però, sono sfumate, indefinite. Ecco che nell’attività del pensiero sorge la dimensione del dubbio. Socrate dice di «non sapere», ma è ricco di immagini. Questo è il motore della ricerca scientifica.

La prossima volta parleremo dei dubbi di Newton.


Ripensare le Scienze - Considerazioni a partire da "Il Golem"

La scienza sembra essere o tutta buona o tutta cattiva»[1]; così inizia Il Golem, saggio pubblicato nel 1993 dai sociologi Harry Collins e Trevor Pinch.

Il testo prende le distanze da una visione strettamente dicotomica dell’impresa scientifica che ne considera solo gli estremi (o tutta buona o tutta cattiva) e ne dà un giudizio etico.

Ma allora, addentrandoci nella trama e dei casi raccolti da Trevor e Pinch, viene da chiedersi: che cos’è la scienza?

Secondo gli autori, essa è un golem: «un umanoide creato dall’uomo con acqua e argilla, con incantesimi e magie»[2]; esso ha una forza formidabile, ma è goffo e addirittura pericoloso: «se non è sottoposto a controllo, un golem può distruggere i suoi padri con la sua smisurata energia»[3]. Scopo di questo libro, allora, è di mostrare come la scienza sia a tutti gli effetti un golem, quindi non un’entità necessariamente malvagia ma una creatura che, nonostante la sua forza, si rivela impacciata e maldestra.

E se la scienza è incerta, quando la vediamo zoppicare? Quando mostra le sue fragilità?

Per esempio, quando in una ricerca ci sono talmente tante variabili da confondere gli scienziati stessi, oppure quando si discute sull’eventuale ripetibilità di un esperimento. Queste considerazioni (e molte altre) fanno riflettere sulle difficoltà della Scienza Golem, la quale non sempre si muove con passo sicuro, traballa, oscilla tra “tentativi ed errori”, crea controversie, anche se «alla fine, […], è la comunità scientifica […] che porta ordine in questo caos, trasformando le goffe capriole della Scienza Golem collettiva in un pulito e ordinato mito scientifico. Non c’è nulla di sbagliato in tutto questo: l’unico peccato è non riconoscere che è sempre così»[4].

In aggiunta, cosa dovremmo dire di chi lavora in ambiti scientifici? L’idea espressa da Collins e Pinch afferma che «gli scienziati non sono né dèi né ciarlatani; sono semplicemente specialisti […]. La loro conoscenza non è più perfetta di quella di economisti, ministri per la sanità, […], avvocati, […], agenti di viaggi, meccanici di automobili, o idraulici»[5].

Quindi, se la scienza – e le scienze – sono imprese umane perché umani sono coloro che ci lavorano, è indubbio che risentono anch’esse di influssi storici, culturali o sociali, oltre a variabili personali come le preferenze, le idiosincrasie o le idee dei singoli scienziati e scienziate. Pertanto, la Scienza Golem incespica, inciampa e cade perché noi la costruiamo e la mettiamo all’opera: «l’“errore” umano va diritto verso il cuore della scienza, perché il cuore è fatto dell’attività umana»[6]. I suoi errori sono dunque i nostri errori.

Come viene affermato ne Il Golem, «è impossibile separare la scienza dalla società, eppure rimanendo legati all’idea che esistono due distinte sfere di attività si contribuisce a creare quell’immagine autoritaria della scienza così familiare alla maggior parte di noi. Perché tali sfere appaiono distinte?»[7].

Forse perché abbiamo affidato alle scienze un compito troppo difficile: essere le divinità di tempi secolarizzati, essere le entità sacre di una postmoderna forma di politeismo; quando il mondo occidentale ha perso i propri capisaldi, le scienze hanno dovuto rappresentare la certezza.

Quanto peso è stato messo sulle loro spalle!

Abbiamo compiuto un enorme salto ontologico e, così facendo, abbiamo occultato il lato umano che c’è, c’è sempre stato e sempre ci sarà nell’impresa scientifica. Rendendola una divinità laica, l’abbiamo infatti sottratta a quel dominio che è il nostro dominio, ci siamo alienati, con le distorsioni e le illogicità che questa azione comporta. Quindi, non consideriamo le scienze come giganti ultraterreni ma come tessere di un insieme più ampio, che ci riguarda in modo diretto.

Dopo tutte queste considerazioni, dovremmo quindi sfiduciare la scienza? Assolutamente no!

Non dobbiamo scoraggiarla, ma contestualizzarla e capirla, comprendendo che le scienze sono costruzioni umane e, come tali, abitano in quello spazio fluido, di transizione, che è lo stesso delle nostre vite. Uno spazio effimero, contingente, sempre in movimento; può capitare infatti che le certezze di oggi non siano quelle di ieri e non saranno quelle di domani, tanto nelle nostre esistenze quanto nelle scienze. Ed è proprio questo che rende l’avventura scientifica così affascinante.

Scopo del blog Controversie è proprio quello di ripensare le scienze. Più nello specifico, ribaltare quell’idea scientista, di matrice neo-positivista, che le considera ingenuamente come depositarie di un sapere assoluto e come base di tutta la conoscenza.

Invece, è molto meglio (e più plausibile) considerare le scienze all’interno di un ambiente reale e concreto, facendole scendere dal piedistallo sul quale sono state poste affinché dialoghino con altre imprese umane come, per esempio, società, storia, arte o filosofia. È così che creeremo vera cultura: non isolando i saperi, ma mostrando che sono tutti immersi in una rete in cui comunicano, si confrontano e si influenzano, arricchendosi reciprocamente. Per imparare, si deve dialogare e, per dialogare, ci si deve incontrare. E non si incontrerà proprio nessuno, se si resta sul piedistallo.

Impareremo così ad amare la scienza, «ad amare il gigante maldestro per quello che è»[8].


NOTE

[1] Harry Collins, Trevor Pinch, Il Golem. Tutto quello che dovremmo sapere sulla scienza, trad. it, Bari, Edizioni Dedalo, 1995, p. 11.

[2] Ibidem.

[3] Ivi, p. 12.

[4] Ivi, p. 196.

[5] Ivi, p. 188.

[6] Ivi, p. 184.

[7] Ibidem.

[8] Ivi, p. 13.


Newton, Leibniz e il calcolo infinitesimale - uno scontro tra visioni del mondo

Per Gottfried Wilhelm Leibniz (1646-1716) non furono erette statue o monumenti. Pochi, anzi pochissimi, parteciparono al suo funerale, benché fosse stato per tutta la vita vicino agli alti vertici dei nascenti stati nazione, e sebbene per decenni avesse svolto l’incarico di storico dell’allora casata di Hannover. Dieci anni più tardi, la morte di Isaac Newton (1642-1726) sortì tutt’altra reazione: al funerale presenziò persino Voltaire, poco più che trentenne, e che di lì a pochi anni avrebbe scritto gli Elements de la philosophie di Newton (1738), diventando, al ritorno dal suo esilio in Inghilterra,1 il principale divulgatore del pensiero newtoniano sul continente. Cinquant’anni più tardi l’architetto francese Étienne-Louis Boullée (1728-1799) realizzò in onore di Newton i sei disegni del fantaprogetto del cenotafio. Con lobbiettivo di «donare a Newton limmortale luogo di riposo, il paradiso»,2 Boullée progettò una colossale cupola alta circa centocinquanta metri adagiata su di una zona dappoggio adornata dalberi perfettamente allineati, impossibile da realizzare tecnicamente.

L'accesa rivalità tra due dei più eminenti filosofi e scienziati del proprio tempo è stata spesso semplificata e ridimensionata a una mera contesa. Il che ha comportato la riduzione del problema al solo tentativo di stabilire chi dei due sia giunto per primo alla formalizzazione del calcolo infinitesimale. La morte e i funerali a volte bastano per dichiarare un vinto e un vincitore. Lo scontro tra nazioni – e la correlata tendenza a prendere posizione da una parte o dell’altra dello stretto di Dover, e dunque a stare con Parigi o con Londra – ha ulteriormente alimentato tali opposizioni riduttive.

Dopo più di un millennio in cui il calcolo della superficie e del perimetro di figure curve si era accontentato dell’antico metodo d’esaustione, e dopo i primi vagiti di una nuova matematica che aveva preso forza a cavallo tra il sedicesimo e diciassettesimo secolo, Leibniz e Newton rappresentarono per l’Europa d’allora gli inventori dell’ analisi infinitesimale che permetteva, a partire dalla curva, il calcolo dell’ «equazione tangente e il valore della sua curvatura in un punto generico, […] la tangente, massimi e minimi»3 tramite ciò che Leibniz chiamò «rapporto differenziale» e Newton «calcolo delle flussioni».

In effetti, tra i due ci fu una contesa circa la paternità del calcolo. Il filosofo di Lipsia sosteneva di aver sviluppato il fulcro delle proprie scoperte ben prima dell’inglese, mentre quest’ultimo affermava di aver consegnato al tedesco una lettera, passata tra le mani dell’amico in comune Oldenburg, dove per la prima volta dimostrava le proprie scoperte.4 Mentre Newton aveva sviluppato il grosso della propria teoria già nel 1669, Leibniz iniziò ad ottenere dei risultati non prima del 1672, pubblicando le prime scoperte nel 1676. Nel 1711, per dirimere la disputa, fu chiamata in causa come parte giudicante la Royal Society, di cui lo stesso Newton era Barone dal 1715. Ne risultarono il Commercium epistolicum (1715) e la Recensio Libri, quest’ultima pubblicata anonimamente ma scritta con ogni probabilità dal fisico inglese, e in cui si condannava definitivamente Leibniz sotto gli occhi di tutto il mondo accademico del tempo.5 Newton, si diceva, aveva inventato il nuovo calcolo infinitesimale.

Riannodiamo i fili, la disputa tra Leibniz e Newton fu, semplicemente, una contesa? La sociologia delle scienze e delle tecnologie ci ha recentemente fornito un’interpretazione originale del concetto di controversia.6 Rivolgiamolo dunque al nostro caso. Ciò che accadde tra Leibniz e Newton fu una contesa o una controversia? Cambia qualcosa?

L’indicazione di Enrico Giusti è rivelatrice: «chi legge i documenti relativi alla disputa fra Leibniz e Newton circa l’invenzione del calcolo infinitesimale, […] ha l’impressione che si stia svolgendo un dialogo tra sordi».7 Non tanto perché i due non si siano voluti ascoltare, il che trasformerebbe nuovamente l’evento in una contesa. Per quanto comunichino e si attacchino, essi non paiono disquisire del medesimo oggetto. Il problema non è certo che «non si è mai capaci di parlare della stessa cosa». Piuttosto, ricostruendo il nugolo di considerazioni intorno al «calcolo infinitesimale» nell’uno e nell’altro autore, e al di là della disputa ufficiale, non ci troviamo più davanti a due oggetti simili che, in fondo, sono conciliabili. Simili - scrive sempre Giusti - «ma irrimediabilmente diversi».8

Se a parità di calcolo le due formulazioni restituiscono risultati pratici sostanzialmente sovrapponibili - dunque a parità di esattezza matematica - concettualmente sono in aspro contrasto, se non addirittura incompatibili. Finché ci si focalizza soltanto nello stabilire la paternità del calcolo, tutta la questione appare come una semplice contesa. Questa peculiarità del concetto di controversia è stata forse sottostimata: perché non ci sia controversia, basta non porsi la questione. Altro lato della medaglia: perché non ci sia controversia, basta ridurla a una contesa, alla morte dell’uno e al trionfo dell’altro, come d’altronde si premurò di fare l’esegesi illuminista che aveva infervorato Voltaire e Boullée, e che avrebbe spinto Immanuel Kant (1724-1804) a essere molto più newtoniano che leibniziano.

Ciò detto, rimane da risolvere il problema inverso. Supposto che una controversia possa differire da una contesa, bisognerà stabilire il senso di questa differenza. Se tra Leibniz e Newton avvenne una contesa, ci riduciamo a determinare storicamente chi è giunto per primo a ciò che chiamiamo «analisi infinitesimale». Il modo della relazione è già definito, ciò che resta da stabilire è unicamente la priorità cronologica di un attore sull’altro. Se, diversamente, tra i due ci fu una controversia - e qui ci viene in soccorso l’etimo della parola - ciò che v’è da stabilire è proprio il modo della relazione dell’uno e dell’altro: in una contesa ci si muove verso l’oggetto comune, in una controversia il moto è appunto «contrario» l’uno rispetto all’altro, per «versi» differenti. Ecco una seconda peculiarità: se il concetto di contesa è fin troppo generalizzabile - tutto può diventare contesa -, il concetto di controversia sembra perdere qualcosa di vitale laddove dovesse venire generalizzato. Una relazione già definita, come quella di contesa, è ipso facto generalizzabile. Al contrario, laddove si debba ancora definire il modo della relazione, non c’è alcunché di generalizzabile, se non tramite una semplice accezione negativa. Infatti, propriamente parlando, che si dica che due elementi sono in rapporto di controversia, è affermare che non è definito il modo di quel rapporto di direzione contraria dell’uno rispetto all’altro.

Torniamo dunque ai contendenti. Dei due, Leibniz è meno ambiguo sul posizionamento generale del calcolo all’interno del suo più ampio sistema di pensiero. Come hanno mostrato Gilles Deleuze ne La piega (1988) e Michel Serres nei due tomi de Le système de Leibniz et ses modèles mathématiques (1968), il rapporto differenziale dx/dy in combinazione con alcune considerazioni circa le serie convergenti, ossia tendenti verso un limite comune, rappresentano due principi ineliminabili dell’intero sistema matematico-metafisico del filosofo tedesco. A tal proposito, Ludovico Geymonat ha sostenuto, nel suo corso sulla Storia e filosofia del calcolo infinitesimale (1946-1947), che «mentre in Newton l’invenzione del calcolo infinitesimale fu dettata da preoccupazione essenzialmente tecniche, in Leibniz invece essa scaturì da considerazioni essenzialmente filosofiche».9 Il tedesco immaginava un fuscum subnigrum animato e in constante variazione. L’ha ripetuto Michel Serres nel Parassita, «il rumore di fondo è il fondo dell’essere».10 La monade è imperscrutabile qualora non considerassimo ciò che ha rimarcato Deleuze, se «le monadi non hanno finestre, attraverso le quali qualcosa possa entrare o uscire»,11 come recita la famosa VII proposizione de La monadologia, è perché tra monade e mondo c’è un rapporto di rispecchiamento reso possibile proprio dalle considerazioni di Leibniz circa il rapporto differenziale. Il calcolo di Leibniz - scrive sempre Deleuze - è inseparabile da un’anima: se il mondo è una serie infinitamente infinita di cui la monade è l’inversa, la coscienza funziona per integrazione di rapporti differenziali. Se un’infinita schiera di piccole percezioni inconsce si integrano tra di loro - ossia entrano in un rapporto differenziale convergente - divengono coscienti.12 Di conseguenza la soglia della coscienza non è l’effetto di un rapporto differenziale, bensì è il rapporto stesso, un «ripiegamento del mondo», una piega, o come annotava Leibniz nei Principi razionali della natura e della grazia «se fosse possibile dispiegare tutte le pieghe dell’anima, le quali tuttavia si esplicano in maniera evidente solo nel tempo, si potrebbe conoscere la bellezza dell’universo in ciascuna anima. Infatti ogni percezione distinta dell’anima contiene uninfinità di percezioni confuse che implicano tutto luniverso».13

Che dire di Newton? L’analisi infinitesimale ha una posizione ambigua. Se da un lato Newton sostenne sempre la finalità pratica del calcolo, e dunque la parziale estraneità dello strumento rispetto al reale, una ricognizione di ciò che scrisse in fatto di teologia e fisica[14] - caso paradigmatico è lo scolio generale che chiude i Principia[15] - rivela, in fondo, il tentativo di armonizzare la realtà stessa a quello che doveva essere un semplice «calcolo pratico». Insomma, diversamente da come si è ripetuto fino allo sfinimento, e a partire dalle accuse di oscurantismo e filosofeggiamenti che Newton mosse a Leibniz,16 chi dei due sia stato il vero empirico è tutto da vedere. Per riassumere nel modo più contratto la differenza sostanziale, si potrebbe affermare che mentre il sistema di Leibniz, inteso come immagine del reale, postula l’infinito in actu, implicato, come ragion sufficiente del sistema stesso, la teoria di Newton, rappresentazione della realtà-pratica, ostracizza l’infinito a favore dell’atomo e delle quantità «infinitamente piccole» che, tuttavia, rimangono «estese».17 Quello dell’inglese è un calcolo di flussioni, ossia dei movimenti di un punto per grandezze infinitamente piccole. E tuttavia, quest’ultimo sarà obbligato a reintrodurre ciò che aveva precedentemente escluso, così che il materialismo atomistico affermato con tanta dissimulata leggiadria venga calmierato reintroducendo un finalismo che ne giustifichi lunità di base. Lo chiamerà Dio poiché, come confidava in una lettera a Bentley, «il materialismo granulare non potrebbe in alcun modo ‘trasformare il caos in un cosmo’». Per Leibniz, contrariamente, l’atomismo scevro d’infinito è una semplice «debolezza dell’immaginazione»:18 dev’esserci, in fondo, un punto animato. Come ha scritto il sociologo Gabriel Tarde in Monadologia e sociologia (1895), «perfino nella parte solida, se la conoscessimo meglio, dovremmo eliminare quasi tutto. E così di eliminazione in eliminazione, dove arriveremo mai, se non al punto geometrico, cioè al punto nullo, a meno che questo punto non sia un centro?»[19]


NOTE

1 Com’è noto la figura di Pangloss, maestro filosofico di Candido, è una parodia del pensiero di Leibniz. Come si legge in “Candido o l’ottimismo” in Voltaire, Vol. II, tr. it. P. Angioletti, e M. Grasso, RBA, Milano 2017, p. 216, Pangloss, insegnante di «metafisico-teologo-comolonigologia provava in modo ammirevole come non potesse esistere effetto senza causa, e come nel migliore dei mondi possibili il castello del monsignor barone fosse il più bello dei castelli, e la signora la migliore di tutte le baronesse».

2 Da Etienne-Louis Boullée, Architecture: Essai sur l’Art , trans. Sheila de Vallée, in Helen Rosenau, Boullée and Visionary Architecture (London: 1976) in P. L. Ricci, Lux et tenebris: Etienne-Louis Boulé’s Cenotaph for Sir Isaac Newton.

3 L. Geymonat, Storia del pensiero filosofico. scientifico, Vol. II, Garzanti editore, Milano 1970, p. 378.

4 Si veda il recentemente ripubblicato Disputa Leibniz-Newton sull’analisi, a cura di G. Cantelli, Bollati Boringhieri editore, Torino 2023.

5 Per approfondire la successione cronologica degli eventi si veda A. R. Hall, Philosophers at war, Cambridge University Press, 2009.

6 H. M. Collins, T. Pinch, Il Golem (1993), Dedalo, Bari 1995.

7 E. Giusti, “Introduzione”, in Disputa Leibniz-Newton sull’analisi, cit., XIII

8 Ibidem.

9 L. Geymonat, Storia e filosofia dell’analisi infinitesimale, Bollati Boringhieri editore, Torino 2008, p. 141.

10 M. Serres, Il Parassita (1980), Mimesis edizioni, Milano 2022, p. 77.

[11] G. W. Leibniz, Monadologia, Bompiani editore, Milano 2017, §7, p. 61.

12 Per il rapporto tra coscienza e inconscio differenziale si veda il capitolo VII, “La percezione nelle pieghe” in G. Deleuze, La piega (1988), Giulio Einaudi editore, Torino 2004, pp. 139-162.

13 Ivi, “Principi razionali della natura e della grazia”, §13, p. 51.

14 Si veda I. Newton, Trattato sull’apocalisse, a cura di M. Mamiani, Bollati Boringhieri editore, Torino 2022.

15 Geymonat ne parla in Storia del pensiero filosofico e scientifico, Vol. II, Garzanti editore, Milano 1970, p. 524.

16 Scriveva Newton ne lo Scolio, «infatti qualsiasi cosa non si riesca a dedurre dai fenomeni, deve chiamarsi ipotesi; e tutte le ipotesi, siano esse della metafisica, della fisica, della meccanica o delle qualità occulte, non hanno posto nella filosofia sperimentale». Nelle battute conclusive della recensio libri si legge “Si deve senza dubbio ammettere che fra Newton e Leibniz sussiste un enorme differenza nel modo di trattare la filosofia. Il primo procedere solo fin dove lo conduce levidenza dei fenomeni e delle esperienze, [...] il secondo è tutto imbevuto di ipotesi, che avanza non già come proposizioni da doversi esaminare con lesperienza, ma che verità cui si deve credere a occhi chiusi”, Cantelli, p. 80.

17 Scrive Newton nello Scolio generale dei Principia, riportato da L. Geymonat, Storia del pensiero filosofico e scientifico, Vol. II, cit., p. 522, «l’estensione, la durezza, l’impenetrabilità, a mobilità e la forza d’inerzia delle part del tutto nasce dall’estensione, la durezza, l’impenetrabilità, dalla mobilità e dalla forza d’inerzia delle parti: di qui concludiamo che tutte le minime parti di tutti i corpi sono estese e Dre, impenetrabili, mobili, e dotate di forza d’inerzia. E questo è il fondamento dell’intera filosofia»

18 G. W. Leibniz, Nuovo sistema della natura e della comunicazione delle sostanza e dellunione tra lanima e il corpo” (1695), in Scritti Filosofici, vol. I, cit., p. 190, §3.

19 G. Tarde, Tarde, Monadologia e sociologia (1895), tr. it. F. Domenicali, Ombre corte, Verona, 2013, p. 45.


Storie segrete delle scienze - Un viaggio tra scienze, umano e società

Storie segrete della scienza è il titolo intrigante di una raccolta di saggi pubblicata da Mimesis il mese scorso. Al suo interno si trovano tradotti saggi di Jonathan Miller, Stephen Jay Gould, Daniel J. Kevles, Oliver Sacks, e Richard C. Lewontin, originariamente pubblicati a metà anni ‘90. Il lettore viene accompagnato dai racconti lungo la storia più o meno accidentata di alcune importanti scoperte della scienza contemporanea.

Gli autori, capaci narratori, coinvolgono nei percorsi personali delle figure che si sono scontrate nel dibattito delle idee. Ancora più interessante è però la capacità di questi scritti di inoltrarsi sempre più nella complessità dei rapporti tra umano, società e mondo.

 

Così, Miller racconta la storia del magnetismo e di Franz Anton Mesmer che lo scoprì nel XVIII secolo. Le mani imposte sul corpo dei pazienti di Mesmer inducevano in loro trances e convulsioni a cui seguiva la guarigione da vari disturbi mentali e non solo. Da Mesmer si aprono diverse strade. Esoterismo, ricerca, spettacolo e scoperta. Dallo spettacolo delle convulsioni magnetiche nasce come per gemmazione il “sonno nervoso”, l’ipnosi. Si aprono così possibilità di ricerca nella direzione dell’inconscio umano, sotterraneo e pieno di implicazioni politiche. Non solo la scienza è in gioco, ma piuttosto tutto il mondo: i nazionalismi dell’epoca e quelli odierni, le teorie politiche liberali o meno, la libertà dell’umano e Miller nel raccontare mantiene sempre dritta la rotta della scoperta (anche se quella rotta forse l’ha tracciata la storia per lui).

 

La rotta: stupenda metafora per l’esploratore che è in noi. Attenzione però alle metafore, al potere delle immagini, perché se in un primo momento possono aiutare a delineare la strada, a volte chiudono il mondo in quella rappresentazione. È ciò che racconta Gould riguardo alla figura della scala evolutiva. L’idea del progresso, idea potente e schiacciasassi, si è annidata nella storia della rappresentazione dell’evoluzione. Ecco, là in cima, l’uomo. Eretto, bianco, maschio (a volte la donna lo accompagna). Domina su tutte le specie prima di lui e le sovrasta: compimento dell’evoluzione. Gould si oppone. Senza accusare di mala fede chi illustra queste splendide metafore, rimane il fatto che esse non rappresentino adeguatamente quello che sappiamo sull’evoluzione. E il discorso non vale solo per la vita di tutti i giorni e le verità comuni. La comunità accademica e scientifica ha appena appena migliorato l’immagine dell’evoluzione raffigurandola nei manuali come un cono. Ma la diversità conseguente a una delle più importanti esplosioni della vita – quella Cambriana – ancora oggi non viene compresa nell’iconografia tradizionale. I mammiferi classificati in 4000 specie hanno ancora i rami più alti dell’albero e lo spazio più grande del cono, la cima, mentre alle più di 10.000 specie di insetti resta solo l’angusto sottobosco.

 

Che fare della rotta? Andiamo a vedere come si costruisce. Kevles, storico della scienza, racconta con molti e accurati particolari – sempre mantenendo uno stile piacevole – il difficile espandersi della ricerca sugli oncovirusDall’inizio del XX secolo con le osservazioni di un virus che scatena i tumori nei polli, la storia si articola in modo tortuoso, anche se non privo di progresso, scrive Kevles. I fattori in gioco sono tanti e spesso la ricerca si rannicchia nei laboratori di biologia di base, lontano da pressioni indiscrete. Esistono infatti preoccupazioni sociali, questioni “interne” alla struttura della disciplina o importanti influenze politiche. Tutte queste e altre – la sociologia delle scienze ce lo insegna – partecipano all’emergere o meno di una scoperta. 

Così questi studi sui virus vennero osteggiati quando implicavano la possibilità di rendere pericoloso il latte materno. Si pensava infatti potesse essere un vettore di trasmissione e si indagava per riconoscere il “fattore latte”, ma le conseguenze di questa ipotesi erano pericolose per la società. O ancora quando i ricercatori si devono confrontare con il dogma della biologia dell’epoca: non si torna indietro dall’RNA al DNA. Verrà scoperta la transcriptasi inversa e i retrovirus. Kevles osserva come proprio in quei piccoli laboratori la ricerca prosegue. La libertà che è concessa loro permette di sbagliare, di vagare per alcuni anni alla cieca e infine (magari grazie a scoperte concomitanti) riuscire davvero nell’osservazione di qualcosa di importante. 

Nel 1970 quindi viene dimostrata l’esistenza dei retrovirus. 5 anni dopo, per la scoperta, Renato Dulbecco, Howard Temin e David Baltimore riceveranno il Nobel (figura importante sarà anche Marguerite Vogt, che lavorava con Dulbecco). Ma nel frattempo la comunità medica stenta a riconoscere l’importanza di questa linea di ricerca. L’aiuto arriva per altra strada. Alcuni medici, Solomon Garb tra questi, spingono perché si dedichino finanziamenti alla ricerca sul cancro. Scoprire una cura per il cancro potrebbe avere importanti conseguenze nel confronto con l’Unione Sovietica. Nasce l’idea di un grande programma federale per la cura al cancro. Una Guerra al Cancro, che Nixon ha paragonato al Progetto Manhattan e al Programma Apollo. Tutta la società statunitense è movimentata e la ricerca esce dai piccoli laboratori. Lascio al lettore proseguire il racconto, nella speranza di averlo incuriosito. 

 

Come lettori veniamo accompagnati, io credo, non troppo bruscamente a comprendere quanto il sociale (e il personale) si intrecci con lo “scientifico”. La rotta non è mai stata persa però. Come sulle montagne russe ci spaventa pensare alla contingenza della scienza, ma sappiamo di essere assicurati alla linea del progresso e ci divertiamo.

Il saggio di Lewontin è un’affascinante storia della biologia contemporanea e della ridefinizione del ruolo tra vivente e ambiente. Ridimensionato il ruolo dell’adattamento, si riapre la porta alle potenzialità dell’organismo di plasmare il mondo. Le conseguenze pratiche per l’umano sono quelle di una visione ecologica che accetti il suo ruolo, vicina a quella di Timothy Morton che ho raccontato in un altro articolo. Ribaltato il ruolo dell’umano non resta che dare un ultimo colpo alla percezione della scienza come progresso necessario e cercare di capire che cosa rimane in piedi.

 

Nel saggio di Oliver Sacks sono raccolti diversi casi di teorie, scoperte e osservazioni cadute nel dimenticatoio. “Scotoma”, scrive Sacks, è il termine neurologico per queste rimozioni sociali. Qualcosa viene osservato e per motivi che non riusciamo a comprendere ritorna un giorno, in altre condizioni, modificato. Credere che esista una necessità all'emergere di queste idee è semplicistico. Le scienze e le persone che le compongono si incontrano e scontrano in modo “pulito”, nel dibattito delle idee e nella libertà. Ma altrettanto in modo “sporco”, come nel caso di Chandrasekhar che fu osteggiato dagli interessi personali del suo mentore. Non solo. Le due letture sono semplicistiche e permettono di mantenere una divisione ideale tra un campo da gioco con le sue regole e un mondo sporco di interessi personali che non dovrebbe entrarvi. Distinzione che nel quotidiano tende a confondersi, complicarsi, influendo negativamente sulla ricostruzione di una storia della scoperta.

La rotta non è mai scritta. Gli esploratori hanno delle indicazioni dalla realtà, da qualche collega, dai loro sogni. Il grande ruolo della contingenza sta proprio qui. Se si arriva alla scoperta e si torna indietro, alla società, si potrà disegnare una mappa. Al mondo resta la mappa e le nuove rotte di quelli che sono tornati. Di quelli che si sono persi e dei luoghi che avranno scoperto, sapremo forse qualcosa un giorno. In questo senso Sacks ha una visione positiva. Le scienze nell’ultimo secolo si sono spente nella capacità di descrivere il mondo. La medicina, a esempio, è passata dalle dettagliate ed estese descrizioni dei pazienti al tracciare spunte su cartelle cliniche già scritte. Tornare a quelle osservazioni permette di riprendere un’eredità della ricerca con uno sguardo nuovo, in un mondo nuovo e con tecnologie che permettono pratiche nuove. E la medicina non è l’unica a cercare nuove strade.

«Un nuovo tipo di teorizzazione, o di visione del mondo, è apparso un po’ dovunque negli ultimi quarant’anni, dalla nozione di auto-organizzazione in semplici sistemi fisici e biologici all’idea di complessi sistemi adattivi nella natura e nella società, dal concetto di proprietà emergenti nelle reti neurali a quello di selezione dei gruppi neuronali nel cervello. Sta emergendo una nuova “macro”-visione, non solo del carattere integrale della natura ma della natura come innovativa, emergente, creativa».