La valutazione oggettiva non esiste - È sempre guidata da una teoria (soggettiva) sottostante…

Si sente spesso pronunciare l’espressione “valutazione oggettiva”. Essa viene commissionata e richiesta a studiose, consulenti e valutatrici. In realtà tale espressione è un ossimoro. Perché la valutazione è sempre soggettiva. Forse, il vero pericolo è che diventi soltanto arbitraria. Ma a questo ci sono rimedi.

Le esperte e studiose serie di valutazione (non le praticone) lo sanno bene. E da molto tempo, ormai.

Cito solo tre approcci di importanti autori e autrici, che fin dagli anni ’80 hanno tematizzato questo aspetto, in polemica con la valutazione di impianto positivista e sperimentale:

  • la valutazione realistica (Realistic Evaluation) di Ray Pawson e Nick Tilley
  • la valutazione guidata dalla teoria (Theory-Driven Evaluation) di Chen e Rossi
  • la valutazione basata sulla teoria (Theory Based Evaluation) di Carol Weiss

Il tratto comune a questi tre approcci è mostrare (e teorizzare) come la valutazione sia sempre guidata da una teoria sottostante, e quindi basata sia su assunti epistemologici ma anche di conoscenze di senso comune.

Vediamo un esempio illuminante che ci proviene dall’economia 

Il valore di una professione

La New economics foundation (Nef) è un istituto di ricerca, consulenza e idee innovative (think tank) composto da una cinquantina di economiste, famose per aver portato nell'agenda del G7 e G8 (a fine anni duemila) temi quali il debito internazionale.

Nel 2009 si proposero di condurre una ricerca sul valore delle professioni, che adottasse però una prospettiva diversa (da quelle tradizionali). Tale prospettiva aveva lo scopo di “collegare gli stipendi al contributo di benessere che un lavoro porta alla comunità".

Come spiegarono nella stessa introduzione della ricerca, "abbiamo scelto un nuovo approccio per valutare il reale valore del lavoro. Siamo andati oltre la considerazione di quanto una professione viene valutata economicamente e abbiamo verificato quanto chi la esercita contribuisce al benessere della società. I principi di valutazione ai quali ci siamo ispirati quantificano il valore sociale, ambientale ed economico del lavoro svolto dalle diverse figure".

--------

In altre parole, se si modificano i criteri teorici, culturali, ideologici (ma questa è una scelta, una decisione, un atto soggettivo), avremmo risultati di ricerca molto diversi.

Il Nef calcolò così il valore economico di sei diversi lavori, tre pagati molto bene e tre molto poco, introducendo nuovi criteri e abbandonando i vecchi (soggettivi anche loro, ovviamente).

Il risultato fu sorprendente e rovesciava le gerarchie tradizionali. 

Ad esempio, comparando un operatore ecologico e un fiscalista, il Nef concludeva che il primo contribuisce con il suo lavoro alla salute dell'ambiente grazie al riciclo delle immondizie, mentre il secondo danneggia la società perché studia in che modo far versare ai contribuenti meno tasse. Quindi il primo dovrebbe essere pagato molto di più e il secondo molto di meno (per usare un eufemismo).

Lo stesso vale, dicono al Nef, per i banchieri che prosciugano la società e causano danni all'economia globale.

In generale, esaminando “il contributo sociale del loro valore, abbiamo scoperto che i lavori pagati meno sono quelli più utili al benessere collettivo".

Conclusione che certamente approverebbero i due uomini in giallo, ma anche Wim Wenders, visto che con il suo ultimo film Perfect Days (2023) fa un biopic di un addetto alle pulizie dei bagni pubblici di Shibuya (uno dei 23 quartieri speciali di Tokyo), quasi un eroe dei nostri tempi.

Le economiste del Nef sono molto chiare: “il nostro studio vuole sottolineare un punto fondamentale e cioè che dovrebbe esserci una corrispondenza diretta tra quanto siamo pagati e il valore che il nostro lavoro genera per la società. Abbiamo trovato un modo per calcolarlo e questo strumento dovrebbe essere usato per determinare i compensi". 

Per cui, la valutazione è primariamente un problema teorico

Solo secondariamente diventa un problema tecnico. 

Proprio l’opposto di quello che molte scienziate ci dicono, e continueranno a (men)dire…

 

 

RIFERIMENTI BIBLIOGRAFICI

Chen H. T. (1990), Theory driven Evaluation, Thousand Oaks: Sage.

Chen H. T. e Rossi P. H. (1981), The multi-goal, theory-driven approach to evaluation. A model linking basic and applied social science, in “Social Forces”, 59, pp. 106-22.

Pawson R. e Tilley N. (1997), Realistic evaluation, London: Sage.

Weiss C. H. (1995), Nothing as Practical as Good Theory: Exploring Theory-Based Evaluation for Comprehensive Community Initiatives for Children and Families, in Connell J. P., Kubisch A. C., Schorr L. B. e Weiss C. H. (a cura di), New Approaches to Evaluating Community Initiatives. Vol. 1 Concepts, Methods, and Contexts, The Aspen Institute, Washington (DC), pp. 65-92.

Weiss C. H. (1997a), How can Theory-Based Evaluation make greater headway? in “Evaluation Review”, 4, pp. 501-524.

Weiss C. H. (1997ab), Theory-based evaluation: past, present, and future, in “New Directions for Evaluation”, 76, pp. 41-55, 

Weiss C. H. (1998), Evaluation. Methods for studying programs and policies, Upper Saddle River (NJ): Prentice Hall, 1998.


La fisiologia dualista di Cartesio si regge sull’uso improprio degli animali?

Quando si parla di Cartesio (1596 - 1650) non va dimenticato che è uno scienziato (si direbbe oggi), un filosofo naturale (si diceva ai suoi tempi) che lavora per anni in modo moderno basandosi sul dubbio, rifuggendo il dogmatismo, osservando e costruendo le teorie sull’osservazione e sulla confutazione, discutendo con i suoi pari e antagonisti sulla fisiologia dei viventi, e che da questa fisiologia prende forma la sua teoria dualista del corpo e della mente.

Fisiologia dei viventi, sì; ma con al centro di tutto l’uomo[1]. Infatti, nella prima parte della sua opera, Descartes non considera gli animali se non di sfuggita e in modo conformista: l’animale è quello della tradizione aristotelico-scolastica, con qualche facoltà psichica ma senza intelligenza.

quanto alla ragione o buon senso, essendo questa la sola cosa che ci fa uomini e ci distingue dalle bestie” (Descartes, R, Discorso sul metodo e meditazioni filosofiche, Universale Laterza, 1978, p. 4)

Probabilmente a Descartes importava poco, degli animali, e non poteva essere collocato in modo netto su nessun versante della controversia naturalista e filosofica, tra teriofili e non-teriofili che si sviluppò  in Francia nella modernità [2] – cioè tra filosofi naturali e pensatori che sostengono che tra umano e animale non ci sia una grande distanza, in termini di fisiologia di capacità morali, di sensibilità e di intelligenza e, al contrario che ritengono gli animali inferiori all’umano secondo tutti questi aspetti.

La fisiologia dell’umano è, invece, al centro de L’Homme, che Descartes inizia nel 1630 e continua a scrivere per un decennio ma che non pubblica in vita [3].

Ne L’Homme, Cartesio sviluppa una fisiologia ponderosa, ampia, dettagliata, in parte sostenuta da osservazioni naturaliste, in parte congetturale o basata su teorie della tradizione, in cui il corpo, la res estensa, ha un ruolo molto ampio, acquista mano a mano sempre più potere, invade le aree della sensibilità, dell’adattamento, del pensiero e del giudizio.

Per Descartes, però, si delinea un rischio: perseguire la strada intrapresa con L’Homme, in cui le facoltà dell’adattamento all’ambiente, il pensiero e il giudizio sono funzioni del corpo, significa puntare verso il materialismo e il determinismo.

E, come se non bastasse, questo mette a repentaglio anche una serie di punti importanti del suo stesso pensiero e vitali per il contesto in cui vive e lavora il fisiologo Cartesio: la preminenza della ragione, la mente, la libertà di scelta e, addirittura, l’esistenza e immortalità dell’anima.

Come può fare, Descartes a salvare capra e cavoli, a mantenere, cioè, la fisiologia potente del corpo e, nello stesso tempo non mettere in crisi il potere della ragione, la scelta, l’anima immortale, e – in definitiva – il giudizio come parte della componente spirituale dell’umano, della sua mente?

Un modo valido per coniugare queste due esigenze sembra essere la separazione di corpo e mente, il dualismo. Cioè,  la divisione della fisiologia del vivente, con il corpo sede di funzioni della sensibilità, meccaniche, operative, di senso, e la mente che raccoglie, decodifica, decide e imposta valutazione, pensiero e azione.

Tuttavia, per non sminuire il lavoro fatto ne L’Homme, il “corpo-da-solo” deve poter essere autonomo, deve poter vivere senza pensiero, senza emozioni, senza anima, senza valutazione e giudizio.

Facile a dirsi ma difficile, però, a dimostrarsi; non sembrano esserci umani viventi che possono impersonare la mente senza corpo (certo, c’è l’anima immortale una volta separata dal corpo; ma questa è materia religiosa) né, tantomeno, un corpo ben funzionante senza la mente[4]

In soccorso di Descartes arrivano gli animali! Corpi e solo corpi, ottimamente funzionanti – in molti casi meglio degli umani: reattivi, efficaci e, nello stesso tempo, non senzienti, non pensanti, senza giudizio, senza scelta. Quindi, autonomi e automatici!

“molti animali, pur dimostrando maggiore abilità di noi in alcune loro azioni, non ne dimostrano affatto in molte altre: di modo che, quel ch'essi fanno meglio di noi, non prova affatto che abbiano ingegno, perché, se così fosse, ne avrebbero più di noi e anche nel resto farebbero meglio; ma prova piuttosto che non ne hanno punto, e ch'è la natura quella che opera in essi secondo la disposizione dei loro organi: a quel modo che un orologio, composto solo di ruote e di molle, conta le ore e misura il tempo più esattamente di noi con tutta la nostra intelligenza”. (Descartes, R, Discorso sul metodo e meditazioni filosofiche, Universale Laterza, 1978, p. 42)

Questa degli animali automatici è una soluzione, tutto sommato, molto a buon mercato; perché gli animali non possono lamentarsi e perché c’è già una ampia letteratura anti-teriofila, tra scienze naturali e fisiologia, che non attribuisce funzioni “superiori” ai non umani.

E non è una soluzione qualunque perché, se da un punto di vista epistemologico, Descartes mette al sicuro la veracità della conoscenza con il lumen naturale, con il cogito e – alla fine – con la garanzia della rappresentazione garantita da Dio, dal punto di vista ontologico, l’animale-macchina “salva” l’autonomia delle due res, cogitans e estensa, l’anima immortale, tutta la fisiologia.

E, da allora, gli animali non umani sono sempre più macchine, bruti, senza sentimenti, senza patimenti, oggetti. Fruibili a fini filosofici e “buoni da usare” (non solo da mangiare).

 

 

NOTE

[1] Inteso come essere umano. Cartesio non avrebbe, però, mai detto ‘essere umano’, e certamente non pensava alla parità di genere.

[2] A partire da Montaigne fino a Rousseau; per approfondimenti, cfr. Boas, The Happy Beast in French Thought of the Seventeenth Century, John Hopkins Press, 1933 e Singer P., La nuova rivoluzione animale, Il saggiatore, 2024, pagg. 61 e segg.

[3] Cfr.: Corpus Descartes, Édition en ligne des œuvres et de la correspondance de Descartes, https://www.unicaen.fr/puc/sources/prodescartes/accueil.html

[4] I tentativi di considerare corpo senza mente diverse forme di disabilità mentali non sembrano dare risultati validi: l’osservazione e la fisiologia mettono sempre in luce scampoli di mente sensibile


Nello specchio dell’Intelligenza Artificiale - The Eye of the Master

Specchi

Con consueta indiscrezione Oscar Wilde rivela che Dorian Gray si è immunizzato dai sintomi dell’invecchiamento e del degrado morale della sua condotta, proiettandone i sintomi su un ritratto che custodisce in soffitta. Solo puntando lo sguardo sul dipinto è possibile scorgere la verità che l’aspetto del personaggio sta mascherando. Cosa vediamo quando fissiamo gli occhi sull’intelligenza artificiale, che in qualche modo abbiamo costruito come un ritratto tecnologico della nostra umanità? Le scienze cognitive e gran parte delle pubblicazioni divulgative affermano che i dispositivi informatici riflettono la forma della nostra mente, anche se ancora in modo parziale e talvolta alterato. Nei computer riverbera la verità dello spirito, anche se ancora solo per speculum et in aenigmate, un po’ come secondo Agostino di Ippona e Paolo di Tarso la nostra esperienza ci permette di scorgere il volto di Dio in uno specchio, non ancora faccia a faccia – con tutte le contraffazioni che ai tempi dell’impero romano le superfici riflettenti praticavano sulle immagini.

Ma è possibile che nell’intelligenza artificiale si mostri quello che il lavoro collettivo della storia della tecnologia vi ha introdotto in fase di progetto e di sviluppo, più che la struttura o le funzioni della mente nella loro presunta universalità e immutabilità. La tesi che Matteo Pasquinelli dimostra in The Eye of the Master rende omaggio all’evidenza che nei dispositivi informatici troviamo quello che ci abbiamo messo più che quello che siamo, in una prospettiva che ha il pregio di muoversi in direzione opposta all’opinione comune, e con una strategia di argomentazione tutt’altro che triviale. I passaggi focali della sua ricostruzione sono due.

Ragazze che contano

Il primo si colloca all’origine della storia dell’informatica, o comunque in uno dei momenti considerati come essenziali per la nascita della disciplina: qui Pasquinelli sfida il presagio di noia dei lettori esperti, soffermandosi sugli studi condotti nella prima metà dell’Ottocento dal matematico Charles Babbage per la realizzazione della «Macchina Differenziale» (ed esponendo me ora allo stesso rischio). Il dispositivo non è mai stato portato a compimento, e si distingue dai computer progettati e costruiti nel Novecento per il fatto che non prevede una distinzione tra hardware e software: la macchina, anche nella sua veste definitiva, sarebbe stata in grado di processare un solo programma – quello del calcolo delle tavole logaritmiche. Babbage ha anche elaborato i piani per una «Macchina Analitica», che avrebbe potuto eseguire una pluralità di compiti diversi, ricorrendo a schede meccaniche paragonabili a quelle utilizzate nei telai Jacquard per l’esecuzione dei ricami. In questo caso però la pianificazione non ha condotto nemmeno al prototipo con azionamento manuale, che invece è stato messo a punto per la Macchina Differenziale. 

Il primo progetto è stato sollecitato da esigenze commerciali e militari, ottenendo anche un finanziamento pubblico di 1.500 sterline: le tavole logaritmiche sono essenziali per il tracciamento delle rotte, e sono state quindi uno strumento fondamentale per la solidità dell’impero coloniale costruito dagli inglesi fino dal Settecento. Il procedimento seguito da Babbage, da cui discende la tecnica moderna della programmazione, si fonda sulla nozione di divisione del lavoro divulgata da Adam Smith cinquant’anni prima e approfondita in due direzioni. 

La prima è quella della riduzione delle operazioni di calcolo ai passaggi meccanici di cui sono composte. Turing ripete lo stesso esercizio più di un secolo dopo, quando in piena Seconda Guerra Mondiale elabora il modello matematico per decrittare i messaggi in codice della marina tedesca. Computer ai tempi di Babbage, e ancora ai tempi di Turing, non è il nome di una macchina, ma l’etichetta di una professione esercitata per lo più da ragazze, che eseguono lunghe sequenze di calcoli meccanici in cui sono stati segmentati algoritmi predisposti da ingegneri e da matematici, per la misurazione di rotte, di distribuzioni statistiche, ecc. La riduzione di questa varietà di competenze a singoli passaggi automatici permette di organizzarli in una macchina, che quindi non è un oggetto ma la cristallizzazione di una configurazione di relazioni sociali e della divisione del lavoro che la governa.

La seconda direzione proviene dagli studi di Babbage in ambito di management aziendale, e dalla sua conapevolezza che la divisione del lavoro permette di calcolare il costo di ogni fase della produzione, e di abbatterlo attraverso l’assegnazione dei compiti più semplici a personale non qualificato, o a macchine che lo rimpiazzino. Babbage non coincide con l’immagine di apostolo dalla purezza della curiosità scientifica che l’agiografia dipinge da sempre, né è stato una figura isolata nella sua austerità accademica – né la sua invenzione è neutrale da un punto di vista morale e politico. Il computer cristallizza la piramide di competenze e le prestazioni dei matematici, degli ingegneri, delle signorine calcolatrici, riflettendo le gerarchie sociali e le strutture etiche che ne governano la divisione del lavoro: la macchina non è moralmente meno compromessa del ritratto di Dorian Gray. 

Autonomia, parzialità e fallibilismo

L’ordinamento gerarchico piramidale della cultura industriale si rispecchia nella tecnica di programmazione inaugurata da Babbage, che implementa una struttura di comando verticale in cui l’ingegnere del software definisce tutte le fasi di elaborazione, e i processi le eseguono in modo automatico. La società contemporanea non può essere controllata nello stesso modo, a causa della complessità delle interazioni, e del livello di distribuzione e di autonomia degli agenti coinvolti. I freelance che lavorano con il coordinamento delle imprese della gig economy, come gli autisti di Uber o i rider di Glovo, i creatori di contenuti che pubblicano sui social media, i webmaster che producono le pagine digitali indicizzate da Google, gli attori e i prodotti del mercato finanziario globale, sono alcune espressioni della mereologia tra organicità e frammentazione locale del mondo contemporaneo. I soggetti che lo abitano dispongono sempre di una conoscenza parziale dell’ambiente in cui operano, e sviluppano una comprensione della realtà che è stimata per congettura, con rappresentazioni che devono essere aggiornate o rivoluzionate sulla base dell’esperienza. 

Pur senza approfondire il modo in cui funzionano le intelligenza artificiali costruite con reti neurali, è possibile osservare che, dai primi esperimenti del Perceptron di Frank Rosenblatt nel 1957 alle attuali AI generative trasformative, i principi essenziali rimangono due: ogni unità di calcolo, ogni «neurone», accede ad una quantità di informazione limitata, che può essere persino sbagliata; il software nella sua totalità dispone di una rappresentazione statistica complessiva del fenomeno processato, in cui si bilanciano gli output di ogni «cellula» di calcolo. La natura probabilistica del risultato deriva dall’autonomia delle singole unità di processamento, e dall’adeguamento per tentativi ed errori con cui la macchina interagisce con l’ambiente: se la risposta esterna è negativa, il sistema rimodella la propria configurazione per migliorare l’output. Il secondo passaggio strategico dell’argomentazione di Pasquinelli consiste nella ricostruzione del debito che lega il progetto di Rosenblatt a The Sensory Order (1952) di Friedrich von Hayek. In questo testo l’autore proietta le tesi economiche e sociali del neoliberalismo – di cui è uno dei padri fondatori, insieme a von Mises e a Schumpeter – sul dominio della psicologia connessionista: il modello di apprendimento fondato sui principi di collegamento in rete dei neuroni corrisponde all’autonomia degli individui economici come agenti dotati di conoscenza limitata del mercato, e del sistema sociale come equilibrio tra le rappresentazioni probabilistiche e congetturali dei soggetti. L’assunto di una conoscenza completa delle necessità e delle transazioni sociali non è reputato solo impossibile, ma condannato come moralmente deprecabile. Il ritratto insegna a Dorian Gray non solo cos’è diventato, ma anche che è giusto che sia così.

Pasquinelli riprende il metodo e l’orientamento della scuola del Max Planck Institute di Berlino, con la capacità di rendere perspicuo il radicamento dei paradigmi tecnologici e di quelli scientifici nelle condizioni politiche e sociali in cui hanno visto la luce. Sarebbe stato interessante un approfondimento del modo in cui l’intelligenza artificiale di ultima generazione sta riplasmando l’ambiente materiale in cui è attiva, e la società che la circonda. Se c’è qualcosa di vero nel fatto che nella tecnologia possiamo osservare anche ciò che siamo, oltre a quello che ci abbiamo messo, è perché noi stessi siamo rimodellati dagli artefatti che produciamo: nella tecnica ritrattiamo in continuazione ciò che l’essenza della nostra umanità è stata per i nostri predecessori: eroismo aristocratico, telescopio eidetico, anima immortale, monade rappresentativa, macchina a stati finiti, rete connettiva. E ora?


Scoperte giuste, spiegazioni sbagliate: il caso del telegrafo senza fili

Una visione ingenua della scienza, che questo blog cerca di mettere in discussione, è convinta che ci sia sempre coerenza tra scoperte e spiegazioni. In altri termini, quando si scopre qualcosa è perché c’è dietro una corretta individuazione delle cause.

Ma non sempre è così, e una scienza aperta dovrebbe essere tollerante con le scoperte che non hanno (ancora) spiegazioni e non emarginarle soltanto perché non sono in grado di fornirle in modo adeguato o convincente. O sono contrarie alle credenze consolidate in un settore scientifico. E’ il caso del telegrafo senza fili di Marconi.

Nel 1894 Guglielmo Marconi, studente di fisica a Bologna, andò dal suo docente Augusto Righi, famoso per lo studio delle radiazioni elettromagnetiche. Marconi annunciò: “Professore, con le onde elettromagnetiche che lei ha scoperto, faccio il telegrafo senza fili da qui all’America”. Righi rispose: “Ma che stupidaggini. Esca fuori di qui prima che io la prenda a calci!”. Poco dopo un giornale di Parigi intervistò, sullo stesso argomento, Henri Poincarè, il massimo fisico teorico dell’epoca. Egli rispose ironicamente: “Marconi lo sa che la terrà è tonda o pensa ancora che la terra sia piatta?”. 

Infatti le onde elettromagnetiche si propagano in linea retta. Per cui, se forse potevano superare una collina, certamente non la curvatura terrestre.

Incurante di questa impossibilità teorica, Marconi installò un’antenna in Cornovaglia (UK) e una a Terranova (Canada). Il 12 dicembre del 1901, fece l’esperimento e il segnale raggiunse Terranova. Come mai? 

Perché esiste la ionosfera (una fascia dell'atmosfera terrestre, composta da gas), che agisce come uno specchio. Per cui l’onda emessa dalla Cornovaglia andava effettivamente in linea retta (conformemente alla teoria di Righi), ma poi raggiunta la ionosfera veniva rimbalzata nuovamente verso la terra. Ma né Righi né Marconi erano a conoscenza dell’esistenza della ionosfera, che fu attestata solo nel 1924.

Ma allora come faceva Marconi a prevedere il fenomeno della diffrazione delle onde elettromagnetiche? Perché era… ignorante! Nel senso che lui credeva (erroneamente) che le onde elettromagnetiche si propagassero parallelamente alla superficie terrestre. Infatti Marconi la laurea in fisica non la prese mai. Prese solo… il Nobel per la fisica (nel 1909).

Per cui non sempre accade che chi sa le cose vede giusto e chi non le sa vede sbagliato.

 

NOTA

Da una conferenza https://www.youtube.com/watch?v=46iHx2ydTdw di Emilio del Giudice (1940-2014), grande fisico (emarginato) ed eccellente divulgatore. https://it.wikipedia.org/wiki/Emilio_Del_Giudice


Il “doppio click”, ovvero l’atteggiamento blasé nel turismo e nella scienza

«Si riscosse sentendosi quasi chiamato e interrogato dalle ultime parole di Settembrini, ma, come quando quest’ultimo aveva voluto costringerlo solennemente a decidersi fra “Oriente e Occidente”, atteggiò il viso all’espressione di chi pone riserve e non si vuole arrendere, e tacque. Spingevano tutto all’estremo, quei due, come è forse necessario quando si viene ai ferri corti, e litigavano accaniti per un’alternativa suprema, mentre a lui sembrava che nel mezzo, tra le esagerazioni contestate, tra il retorico umanesimo e la barbarie analfabeta, ci doveva pur essere quello che si potrebbe chiamare l’umano». (Mann T. (1924), La montagna incantata, Corbaccio, Milano, 2015, p. 500)

Fra i personaggi più straordinari della letteratura possiamo annoverare sicuramente Lodovico Settembrini e Leo Naphta, i due precettori di Hans Castorp, il protagonista de La montagna incantata di Thomas Mann.

In questo romanzo di formazione infatti, il giovane ingegnere tedesco è costantemente sollecitato sul profilo intellettuale da queste due figure che – con fenomenale, e a tratti assurda, coerenza – lo invitano a scegliere fra visioni del mondo radicalmente contrapposte: da un lato, il massone italiano lo esorta ad abbracciare i valori illuministici del progresso, il culto della ragione, l’universalismo cosmopolita, l’arte classica e il liberalismo; dall’altro, il gesuita est-europeo lo spinge verso il socialismo, la relatività esistenziale del sapere e la sintesi idealista del corpo e della mente, sulla falsariga delle dottrine radicali teocratiche del medioevo.

La ricostruzione degli elementi e dei valori culturali propri di questi due personaggi, e dei loro partiti idealtipici, è talmente precisa e dettagliata, così completa nella presentazione fattane dall’autore, da far nascere costantemente dubbi nel lettore a proposito delle proprie convinzioni personali, una volta che queste vengono adeguatamente ricondotte a quello che Fleck[1] chiamerebbe il loro “stile di pensiero” originario.

Non solo, ma lo portano anche a dissociarsi dall’integralismo con cui i due personaggi difendono le proprie posizioni, talmente esasperato da sfidarsi a duello per affermarle nei confronti del rispettivo avversario.

La genialità e l’attualità dell’opera di Mann, a 100 anni dalla pubblicazione del libro, sta nel fatto che Settembrini e Naphta sono personaggi di fantasia, assolutamente improbabili, pur essendo caratterizzati ciascuno come un insieme di elementi di dettaglio estremamente reali e storicamente ben definiti. Altro che il Signore degli Anelli!

Piuttosto, suggerisce l’autore, è secondo un’ambigua convivenza di “ragione” e “sentimento” che l’uomo moderno, l’ingegnere - e noi che ci impersoniamo in lui - verosimilmente costruisce il proprio percorso di vita: come un coacervo di idee eterogenee, e talvolta in conflitto.

Per esempio, un accostamento inusuale è quello che associa la formazione della cosmologia moderna – nel senso antropologico di insieme di codici che definiscono e regolano l’ordine sociale – alla nascita del turismo, avvenuta fra il XVIII e il XIX secolo.

Infatti, nelle scienze sociali e nel senso comune si tende, generalmente, a derubricare superficialmente l’argomento, come se fosse meno rilevante della razionalizzazione, dell’individualizzazione e di altri cambiamenti di natura politica ed economica avvenuti nello stesso periodo (del resto, abbiamo giusto un paio di settimane di ferie l’anno purtroppo).

Eppure, come mostra lo storico Alain Corbin, nel suo libro L’invenzione del mare (Corbin A. (1988), Le territoire du vide. L’Occident et le désir de rivage, 1750-1840, Flammarion, Paris), all’emergere della prassi del turismo deve essere assegnato un ruolo di primaria importanza, poiché essa istituisce ex abrupto il movimento di ricerca verso l’ignoto, e lo consolida come consuetudine sociale che poi va sempre più generalizzandosi nel corso del tempo.

Il mare, dice appunto provocatoriamente, è stato inventato nel periodo contemporaneo, poiché precedentemente non esisteva, come, ad esempio, secondo il Verbo, esso non è nemmeno previsto nel giardino dell’Eden.

La società “pre-moderna” (qualunque cosa voglia dire questo ambiguo concetto) è una società esclusivamente di pianura, che acquisisce il “desiderio di riva”, la volontà di esplorare i territoires du vide, come un fatto inedito, saldato alla pratica di distinzione sociale dei rampolli dei ceti emergenti di quel periodo che, un po’ come Darwin alle Galapagos, Malinowski nelle Trobriand o Booth negli slum della Londra vittoriana, tenevano dei diari a proposito delle loro “robinsonate”, le gite esplorative delle coste e delle isole ignote che visitavano nel tempo libero.

Quello turistico è quindi, per prendere in prestito un’espressione bourdieusiana, un principio di visione e divisione sociale, un modo di vedere e organizzare la società, un tipo di sguardo sulle cose, una maniera di arrangiarle da un punto di vista materiale, che certamente è concomitante all’industrializzazione, ai processi di democratizzazione e secolarizzazione.

All’affermarsi del turismo possono essere quindi ricondotte tutta una serie di biforcazioni di cui ancora oggi ci avvaliamo: come quella fra natura e cultura, che rispecchia la suddivisione dello spazio in luoghi antropizzati e incontaminati; come la ripartizione economicista fra l’utile (il lavoro) e l’inutile (lo svago); e come la suddivisione dei ruoli sociali in essenze che appartengono, da un lato, ad un tempo passato - quello della campagna, o delle terre esotiche[2], immobili e unicamente da conservare e visitare come reliquie (è sempre, maledettamente, vietato toccare!), e dall’altro ad un futuro appropriabile, ma già ipotecato, quello della città - che chiede di essere imitata, stabilendo la direzione, ma senza offrire reali speranze.

Ma soprattutto[3] al turismo deve essere associato il nuovo modo in cui determiniamo ciò che è vero e ciò che è falso: tutti sanno benissimo che, quando un qualcosa è “per turisti”, significa che è “inautentico, fasullo, o ingannevole”, e che solo i “veri viaggiatori” sanno distinguere e apprezzare ciò che invece è “autentico”.

Come dice Goffman, nel mondo moderno -  in cui la struttura della società supera in estensione e per differenziazione quella familiare e comunitaria, dove la verità rimane nettamente distinta dalla menzogna, come il giorno dalla notte - è attraverso un’ipertrofia di apparati di intermediazione, tutta una serie di dispositivi e costruzioni, che viene assemblato l’ordine sociale.

Nella società contemporanea, la verità è una messa in scena, che deve essere costantemente performata, ed è sempre esposta al rischio di fallire[4] .

Le verità di cui ci avvaliamo sono sempre artefatte, ma, ciononostante, questo ci suona come un paradosso.

Il palcoscenico dove avvengono le rappresentazioni, infatti, lo consideriamo come un piano sostanzialmente illusorio e sovrastrutturale rispetto al retroscena che nasconde (con buona pace dei cuochi che non possono più tirarsi le padelle, visto che ora tutte le cucine sono a vista). La mediazione implica quindi l’istituzione di due dimensioni, una front region e una back region, dove la prima sarebbe come un manto di apparenze che avvolge la vera essenza delle cose nascoste della seconda: «hai finito con le chiacchiere e i sofismi? Vai al sodo, lascia parlare i fatti!».

Come epitomato dal flâneur di Baudelaire, il turismo ha affermato un modo di esistenza che ci spinge ad assegnare un valore al disinteresse, ad apprezzare il mondo e a considerarlo tanto più veritiero quanto più è libero ed irresponsabile nei confronti di un sistema di media, come se questi non operassero altro che distorsioni: si dimentica così della sua massima più famosa, perché ciò che vediamo nelle immagini da cartolina è sempre la meta, e mai la strada per arrivarci.

Mentre solo l’accesso diretto, come quello che pare procurarci il “doppio click” del mouse, consentirebbe una vera esperienza delle cose; poco importa poi che una ricerca scientifica disponga di strumenti e finanziamenti e un'altra solo della buona volontà, la natura è lì in ogni caso!

Come sentenzia Latour, noi moderni siamo incapaci di pronunciare con una sola emissione di voce la frase “è costruito, perciò deve essere vero”[5] .

Tuttavia, dice Cézanne, «guarda la montagna, una volta era fuoco!», troppo concentrati dalla vetta, ci dimentichiamo infatti che la strada per arrivarci dipende dalla nostra formazione, e il sentiero che sapremo aprirci sarà molto diverso se siamo guide alpine attrezzate o escursionisti domenicali, ma non necessariamente uno sarà più vero dell’altro. Piuttosto, essi differiranno nel grado di realtà che saranno in grado di mobilitare e trasformare a proprio vantaggio.

Così, conclude ironicamente Latour: «L’etnologo trova sempre comica l’eterna lamentela inventata dalla critica: “poiché accediamo alle cose conosciute tramite un percorso, questo significa che queste cose sono inaccessibili e inconoscibili di per sé”. Vorrebbe rispondere: “ma di cosa ti lamenti, visto che comunque puoi accedere ad esse?” “Sì” – continuano a piagnucolare – “ma ciò significa che non le cogliamo ‘in sé stesse’, non vediamo come sarebbero ‘senza di noi’. “Bene, ma visto che vuoi approcciarle, se vuoi che siano come sono ‘senza di te’, perché non smettere semplicemente di provare a raggiungerle?” Ancora in modo più lagnoso; “perché così non avremmo alcuna speranza di conoscerle”. Sospira esasperato l’etnologo: “è come se vi congratulaste con voi stessi che c’è un percorso per il monte Aiguille, ma poi vi lamentaste che vi ha permesso di arrampicarvi fino in cima…” La critica si comporta sempre come i turisti blasé, che vorrebbero sempre raggiungere i territori più incontaminati senza difficoltà, e senza incappare in altri turisti». (Latour B. (2013), An Inquiry into Modes of Existence. An Anthropology of the Moderns, Harvard University Press, p. 85)

 

 

NOTE

[1] Cfr. Fleck L. (1935), Genesis and Development of a Scientific Fact, Foreword by T. S. Kuhn, The University of Chicago Press.

[2] Cfr.: Said E. W. (1978), Orientalism, Pantheon Books, New York

[3] MacCannell D. (1976), The Tourist: A New Theory of the Leisure Class, Schocken Books, New York.

[4] Oltre alla ripartizione fra il mondo della pianura e il clima dell’altitudine, per dirla con Mann -  come ha intuito Dean MacCannell, in uno dei più importanti saggi di antropologia del secolo scorso ; Cfr.: Goffman E. (1959), The Presentation of Self in Everyday Life, Doubleday, Garden City

[5] Cfr. Latour B. (2013), An Inquiry into Modes of Existence. An Anthropology of the Moderns, Harvard University Press.


Le mani e la techne - Storia di un’origine mancata, da Platone a Latour

1. TECHNE E PREGIUDIZIO

Una delle eredità più durature di Platone è il sospetto nei confronti della techne. La necessità di separare il vero sapere dall’arte dei sofisti è il movente di questo pregiudizio: Protagora, Gorgia, Lisia, e i loro colleghi, inventano tecniche di persuasione di cui vendono la padronanza, o i prodotti, al miglior offerente, senza mostrare alcun interesse per la verità. La manipolazione persegue il vantaggio egoistico di chi la pratica, mentre il logos della filosofia (della scienza) è guidato dalla physis, segue la forma e le prescrizioni di ciò che rimane stabile nell’Essere. L’atteggiamento con cui si pretende di mostrare l’appartenenza all’aristocrazia del gusto e del senno attraverso il rifiuto dell’innovazione tecnologica, e tramite l’ostentazione di disorientamento tra le pratiche e i prodotti digitali, ancora oggi è un atto di accusa contro la corruzione sofistica della techne, e una proclamazione di fedeltà alla purezza dello spirito.

2. MANCANZA DI ESSENZA

Platone proponeva lo scavo interiore per partecipare alla natura inalterabile della verità: l’anamnesi riporta alla luce le idee, la cui eternità si rispecchia in quella dei cieli che insegnano al sapiente la via per la disciplina del sapere e del decidere. La metafisica ha fissato nell’opposizione tra physis e techne, o tra logos e doxa (ma questo significa anche tra trascendentale ed empirico, tra origine e decadenza) il criterio di separazione tra il filosofo e il sofista, anche quando la tesi dell’accesso ad una sfera di universali eterni ha perso la sua presa sulla comunità scientifica, e la moda ha imposto a tutti un atto di fede nell’empirismo. Come insegna Stiegler (1994), il dibattito seguito all’atto di nascita dell’antropologia moderna, con il Discorso sull’origine e i fondamenti della disuguaglianza tra gli uomini di Rousseau, avrebbe dovuto mettere in guardia da tempo sulla validità di questa disgiunzione, introducendo almeno un nuovo genere di sospetto, che colpisce l’autonomia della natura da un lato, la strumentalità reificante della techne dall’altro lato, e la loro opposizione reciproca.

L’uomo delle origini viene descritto da Rousseau come quello moderno: ha mani e piedi e cammina eretto. Leroi-Gourhan (1964-65) dimostra con la paleontologia che la deambulazione bipede permette la liberazione della mano per la costruzione di utensili e strumenti. E l’affrancamento della mano per la tecnica stabilisce un nuovo rapporto tra la mano, il volto e la parola. Quindi Rousseau immagina un uomo delle origini che ha già le caratteristiche di quello tecnicizzato; ma nel suo errore (molto istruttivo) lo descrive come un quasi-animale che non pensa e non si sposta, usa le mani per afferrare e non per produrre, cogliendo tutto ciò che la natura gli offre in modo spontaneo. Nell’origine il tempo (lo spazio, il mondo) non esiste, proprio perché l’uomo non frequenta alcun presagio cosciente della morte, e in generale nessuna forma di programma: non ha desideri né preoccupazioni, ma solo bisogni soddisfatti immediatamente da ciò che è a portata di mano. Il pensiero e il lavoro non vengono alla luce se non per placare passioni e paura – che a loro volta irrompono nella vita dell’uomo solo se la previsione ha aperto un mondo dove gli strumenti materializzati dalla tecnica sono programmati per proteggere dall’incombenza della morte. 

L’istinto è costrittivo per gli animali: il gatto non mangia i tuberi o la frutta, in assenza di carne, e l’oca non mangia la carne in assenza di tuberi. L’uomo invece è libero di imitare il comportamento di qualunque animale, aprendosi la via alla soddisfazione del bisogno con la carne o con i tuberi, secondo la disponibilità. La libertà è una potenzialità dell’origine che annienta l’origine stessa nel momento in cui passa all’atto, perché la ragione che la realizza innesca quel mondo di tecnica e passioni che allontanano dall’immobilità e indifferenza originari. La libertà è la seconda origine dell’uomo, o la sua assenza di origine, la scomparsa o la mancanza di un’essenza. Le conclusioni speculative di Rousseau finiscono comunque per coincidere con quelle della paleontologia di Leroi-Gourhan.

Le passioni di Nietzsche, le pulsioni di Freud, la ragione di Hegel, la società di Hobbes, il lavoro di Marx non possono aspirare a descrivere la condizione essenziale dell’uomo, la sua origine, che invece è sempre già annullata nel momento stesso in cui l’ominazione viene messa in moto da progettazione e tecnica, e che procede con la storia del loro sviluppo: l’interiorità è un ripiegamento del programma di gesti con cui le mani fabbricano utensili, dello schema della loro applicazione per gli usi futuri, del piano per la loro disponibilità contro gli agguati della morte. Ma questa stessa filogenesi precipita nell’oblio (persa di vista da Rousseau e persino da Heidegger), dimenticata nell’eccesso di prossimità degli oggetti tecnici, resa invisibile nella disponibilità con cui i dispositivi sono sempre sottomano, cancellata nell’esperienza che in ogni epoca essi pongono in essere. Eppure, affinché intellettuali, politici e artisti possano ostentare il loro distacco dall’innovazione digitale e dalle tendenze delle comunità virtuali, affinché la spiritualità che effonde dal loro intimo possa segnalare a tutti la loro nobiltà d’animo, è necessaria tutta la storia delle tecniche, dalle tradizioni della coltivazione di tuberi e alberi da frutta, fino all’impaginazione di libri e riviste con InDesign e alla programmazione delle ALI che sviluppano testi e immagini pubblicati sui giornali internazionali. No techne, no party.

3. DISASTRI E SFERE

Sloterdijk (1998 e 1999) ricostruisce il processo con cui Copernico ha scoperchiato la Terra lasciandola esposta al freddo del cosmo, senza più l’involucro delle stelle fisse, e l’impegno con cui gli uomini hanno progettato sfere che tornassero ad avvolgerla e a riscaldarla. Eliminare la stabilità degli astri equivale a rimuovere l’architettura stessa della physis, il primo grande schema di design del mondo, che Platone ha posto come senso dell’universo, e come sistema di orientamento del saggio e della comunità: un vero e proprio disastro, cui è stato necessario rimediare attraverso la pianificazione di nuovi globi che hanno a più riprese protetto e dissolto i territori dei regni dell’Occidente, fino alla globalizzazione del mondo contemporaneo. 

L’uomo non esce mai in una natura spontanea che si dispiega in un «fuori» dalle sfere in cui agiscono le tecniche di immunità e comunità programmate dalla tecnica. Nell’universo di Platone le stelle fisse sono attori della strategia politica che salda la società ateniese, almeno quanto lo è l’istituto degli arconti o quello della bulè: a loro è assegnata la regìa ideologica della forma di vita nella città e l’ontologia dell’uomo greco. Latour (1984) mostra come i miasmi siano attori della struttura civile che compie la trasformazione sei-settecentesca dello Stato dalla configurazione feudale a quella burocratica moderna: la nascita degli uffici di igiene pubblica, l’educazione della famiglia e la cura dei figli, la nuova morale borghese, la ristrutturazione urbanistica delle grandi città, la modellazione della rete dei servizi fognari e idraulici, sono le mosse della costruzione di più sfere immunitarie contro la diffusione di peste e colera, e il contesto di formazione delle metropoli della rivoluzione industriale e del primo capitalismo. La vittoria del movimento di Pasteur coincide con l’introduzione di un nuovo attore sociale, il microbo, che in parte prende il posto dei miasmi, ma che di fatto sviluppa un nuovo mondo di istituzioni mediche e di welfare, quella che conduce all’antropologia occidentale moderna e postmoderna, dove alla cura dell’individuo si sostituisce il presidio di un’intera tassonomia di agenti patogeni. 

Il contributo sui Comunelli di Ferriere su Controversie mostra come un bosco non sia il «fuori» del villaggio, ma sia l’attore che ne consolida la comunità, arrestando il suo processo di disgregazione; quello su Gagliano Aterno evidenzia come la sfera di appartenenza alla comunità sia inscritta nella ripresa della tradizione della coltivazione dei tuberi e nell’innovazione della posa dei pannelli solari. Tuberi e alberi da frutto possono incrociare il programma genetico di alcune specie di animali, ed essere obbligati ad una simbiosi da cui non possono svincolarsi; per gli uomini il programma è tecnico, non è costrittivo ma deliberato, e come ogni gramma si iscrive negli attori coinvolti e viene regolato da una grammatica. Latour (2005) la tratteggia sul modello della grammatica attanziale di Greimas (1966), mostrando che ogni forma di vita si istanzia in una rete di relazioni tra ruoli registrati in attanti (malati, contadini, miasmi, batteri, canali fognari, tuberi – a pari diritto umani o non umani), il cui grado di integrazione nella sintassi del programma misura il livello di tenuta o di dissoluzione della società in cui esso si esprime. La struttura di rapporti da cui è disegnata la rete manifesta un significato, come le isotopie narrative di Greimas, che può essere tradotto nel programma di comportamento di altri sistemi: a loro volta, questi possono essere intercettati e arruolati – l’interazione dei turisti con la foresta di Ferriere si traduce nell’inserimento in una sfera di appartenenza territoriale, il contatto tra la nuova urbanistica del Settecento e la privatizzazione dei terreni agricoli (Enclosure Act 1773) alimenta la prima rivoluzione capitalistica, l’incontro tra il movimento della «pastorizzazione» e l’espansionismo coloniale apre la globalizzazione moderna.

Ora che il cielo non è più la cupola delle stelle fisse e delle scorribande degli dèi iperurani con le loro bighe, ma una sfera della quale ci dobbiamo prendere cura rammendando i buchi nella maglia di ozono – l’Actor Network Theory di Latour invita ad abbandonare la ricerca della verità in una psyché che, comunque interpretata, continua a macinare la metafisica delle idee di Platone: chiede di imparare a osservare un mondo dove l’uomo non esce mai in spazi non pianificati, ma progetta ambienti e tempi che sono sottoposti a revisioni continue. Rivendica la necessità di rendere questa attività di design finalmente consapevole e condivisa.

 

BIBLIOGRAFIA

Greimas, Algirdas Julien, Sémantique structurale: recherche de méthode, Larousse, Paris 1966.

Latour, Bruno, Les Microbes. Guerre et paix, suivi de Irréductions, Métailié, «Pandore», Paris 1984.

Latour, Bruno, Reassembling the social. An introduction to Actor-Network Theory, Oxford University Press, Oxford 2005.

Leroi-Gourhan, André, Le Geste et la Parole, Albin Michel,Parigi 1964-65.

Sloterdijk, Peter, Sphären I – Blasen, Mikrosphärologie, Suhrkamp, Frankfurt am Main 1998.

Sloterdijk, Peter, Sphären II – Globen, Makrosphärologie, Suhrkamp, Frankfurt am Main 1999.

Stiegler, Bernard, La Technique et le temps, volume 1: La Faute d’Épiméthée, Galilée, Paris 1994.


La politica dopo l’emergere di Gaia, il migliore dei mondi possibili

«
Noi amiamo il bello, ma con misura; amiamo la cultura dello spirito, ma senza mollezza. Usiamo la ricchezza piú per l’opportunità che offre all’azione che per sciocco vanto di parola, e non il riconoscere la povertà è vergognoso tra noi, ma piú vergognoso non adoperarsi per fuggirla. […] Sola infatti, tra le città del nostro tempo, si dimostra alla prova superiore alla sua stessa fama ed è pure la sola che al nemico che l’assale non è causa di irritazione, tale è l’avversario che lo domina; né ai sudditi motivo di rammarico, come sarebbe se i dominatori non fossero degni di avere il comando. Con grandi prove, dunque, non già senza testimoni, avendo noi conseguito tanta potenza, da contemporanei e da posteri saremo ammirati; non abbiamo bisogno di un Omero che ci lodi o di altro poeta epico che al momento ci lusinghi, mentre la verità toglierà il vanto alle presunte imprese, noi che abbiamo costretto ogni mare e ogni terra ad aprirsi al nostro coraggio; ovunque lasciando imperituri ricordi di disfatte e di trionfi
»

Con il celebre epitaffio di Pericle (Tucidide 1971, La guerra nel Peloponneso, vol. 1, pp. 121-128) si può dire che la natura faccia il suo primo ingresso nella politica.

O, meglio, in questo discorso, in cui il politico ateniese tesse le lodi della costituzione proto-illuminista e liberale della propria città ed elogia le virtù dei suoi cittadini, confrontandole con quelle dei nemici spartani, educati al rispetto dell’ordinamento castale della propria monarchia arcaica e conservatrice, emerge in maniera inedita una matrice retorica che imposta l’argomentazione politica come uno scontro fra civiltà, un conflitto in-group/out-group, o fra amico e nemico come direbbe Carl Schmitt, in breve, la politica come un inevitabile scontro fra nature opposte e inconciliabili.

Infatti, è improprio dire che siano stati i movimenti ambientalisti e i partiti verdi dell’ultimo quarto del secolo scorso ad introdurre la natura nella politica. Niente è mai stato più politicizzato della natura, e viceversa nessuna politica ha mai potuto prescindere dal ricorrere alla naturalizzazione per legittimarsi (Latour B. 2000, Politiche della natura. Per una democrazia delle scienze).

La circolarità della logica emerge chiaramente dal discorso di Pericle, dove la potenza e le conquiste di Atene, addirittura nella stessa frase, divengono fatti necessari, poiché rispecchiano la Verità che eventi storici accidentali non avrebbero potuto impedire, ma soltanto ostacolare o ritardare dall’affermarsi.

La politica della natura, in analogia con la concezione del sacro della tradizione cristiana, ha prodotto così una biforcazione del mondo fra le peripezie e i conflitti di opinioni degli umani, sul piano dell’azione storica e contingente, e il regno dei fini, collocato su quello ultraterreno, o metafisico, della Verità e della Giustizia (con la maiuscola), emanate dal fondo eterno e immutabile dell’universo o stabilite dal verbo divino. Esattamente come delle icone religiose acheropite, che sono rivelate, e non realizzate dal lavoro umano.

Ancora oggi, che si tratti di “Make America Great Again” oppure, più surrettiziamente, di “affermare i diritti umani”, non siamo in grado di fare a meno di ancorare la nostra politica ad una forma qualsiasi di giusnaturalismo (laico o volontaristico è indifferente). In altre parole, non rinunciamo all’immagine della caverna platonica, secondo la quale deve essere intrapresa la ricerca, o la progressione, verso la luminosa realtà delle cose in sé, uscendo da una condizione di illusione, o momentanea deviazione, rispetto a ciò che sarebbe vero e giusto.

Così possiamo distinguerci intellettualmente da quello che, senza mezzi termini, consideriamo un esercito di stupidi di riserva, che si crogiola in una falsa rappresentazione del mondo. Per inciso, spesso e volentieri, nella politica progressista come in quella reazionaria, fa la sua comparsa come espediente retorico “l’uomo ad una dimensione”, il “servo dei poteri forti”, così “banale nella sua malvagità”, che tiene al proprio vestito culturale, rimanendo incurante dei fatti della natura, la realtà dietro l’apparenza.

Ebbene, come diceva Eco, «la critica della cultura di massa è il peggior prodotto della cultura di massa» (1964, Apocalittici e integrati: comunicazioni di massa e teorie della cultura di massa), il cliché più trito e ritrito che esista.

Tuttavia, adesso abbiamo l’occasione di redimerci da questo classismo tascabile, dato l’avvento dell’Antropocene, o quello che Chakrabarty chiama l’emergere del planetario (2021, The Climate of History in a Planetary Age): questa etichetta per una nuova era geologica, in cui l’attività umana supera, letteralmente, quella delle altre biomasse, fino a sconvolgerne completamente la costituzione, segnala non già “la ribellione di madre natura”, ma proprio la morte della natura stessa. Infatti, con questa svolta, non si può piú fare riferimento a un fuori di alcun tipo.

Date le ingenti trasformazioni dell’ambiente, esso non può più essere ripreso come invariante naturale, cioè come posizione terza nella ripartizione fra il vero e il falso, il giusto e l’ingiusto, all’interno del quale ci andremmo a posizionare, compiendo delle azioni e delle scelte dentro a delle condizioni prestabilite. In altre parole, si tratta di scoprire ciò che abbiamo sempre saputo, ma al tempo stesso ignorato perché troppo impegnati a separare la natura dalla cultura: a pensarci bene, che senso ha dire che le formiche nel formicaio da loro costruito, o gli uccellini nel loro nido, si trovano nel loro habitat? È chiaro che invece l’habitat non è che un’estensione degli esseri viventi e della loro attività. Per cui non è davvero possibile ordinare il mondo come una matrioska, il contenuto non appartiene al contenitore: sono proprio la stessa cosa.

Questo è l’avvincente cambio di prospettiva suggerito dalla teoria di Gaia, sviluppata dai lavori di James Lovelock e Lynn Margulis, le cui scoperte contestano l’idea che la vita sulla terra si sia sviluppata perché erano già presenti le condizioni adatte, il famoso contesto: al contrario, sarebbero stati i primi microrganismi, attraverso la cooperazione, e non la competizione, a plasmare l’ambiente adatto alla propria sopravvivenza. Ciò significa che la natura ha una storia, essa non è un sistema indipendente di cui avremmo turbato l’equilibrio (tipo il mercato autoregolantesi).

Ma allora, come possiamo passare dall'essere al dover essere, se «Dio, fra tutti i mondi possibili, avesse scelto proprio il migliore, ovvero quello col maggior grado di perfezione»? Cioè se dovessimo restare nel mondo che abbiamo, rinunciando ad andare altrove? Come possiamo essere nel vero e nel giusto senza riferimenti a valori assoluti? In questo caso, dobbiamo ricordarci, come dice Deleuze, che aldilà del bene e del male non vuol dire aldilà di buono e cattivo. L’esistenzialismo infatti non ha niente a che vedere col nichilismo, ma con la trasformazione di tutti i valori: noi possiamo sempre odiare la guerra e amare la pace, avversando le forze che reprimono la vita e cospirando con quelle che la favoriscono. E se la vita è un collettivo di cui prendersi cura, un condivenire multispecie (Haraway, 2023, Chthulucene. Sopravvivere su un pianeta infetto), il suo benessere è rimesso alla risonanza fra le entità, umane e non-umane, che sanno vivere attraverso le une attraverso le altre, accogliendone le esigenze in unità sempre provvisorie e discutibili.

Allora, ci occorre una nuova definizione del bello, una nuova costituzione assurda e controversa: l’estetica potrebbe essere intesa come l’esercizio della sensibilità alle altre modalità di vita, altri modi possibili di articolare, modificare ed espandere la società, oltre la distinzione fra natura e cultura. Così più “nemici” e “stranieri” saremo in grado di includere nel nostro mondo, più saremo pluralisti e rappresentativi con esigenze aliene alle nostre, e più quello che potremo costruire sarà solido, vero e giusto (con la minuscola).


Quando un esperimento non basta: il regresso dello sperimentatore

Un risultato sperimentale da solo è sufficiente per dare credibilità ad a un asserto scientifico?

Sì, secondo l’epistemologia classica. La conoscenza prodotta in un laboratorio è “la realtà” perché gli scienziati, seguendo il metodo scientifico, riescono a cogliere la rappresentazione esatta del mondo. Ma chiunque abbia messo piede in un laboratorio di biologia, fisica, chimica ecc. si accorge che questa è una rappresentazione idealistica e normativa della scienza ideologica. Basti pensare a quante volte all’interno di un gruppo di ricerca gli scienziati discutono davanti a un esperimento, prodotto da loro o da altri laboratori, o si confrontano di fronte a un risultato sperimentale che non è in linea con quanto si aspettavano.

Dunque, cosa succede nel momento in cui risultati di un esperimento sono in disaccordo con una teoria già consolidata?

Secondo il sociologo della scienza Harry Collins, un risultato sperimentale non è sufficiente per dare credibilità a un asserto scientifico. Nel suo libro Changing Order (1985) ha analizzato una controversia scientifica avvenuta verso la fine degli anni ’60 e inizi degli anni ‘70 sulla rilevazione delle onde gravitazionali.

Collins osserva come nel 1969 il fisico Joseph Weber affermò di essere riuscito a rilevare grandi quantità di radiazioni gravitazionali. Progettò personalmente il suo rilevatore, costituito da una grossa barra in lega di alluminio sulla quale poteva misurare le deformazioni e le vibrazioni provocate dalle onde attraverso dei rilevatori. Molti scienziati non credettero alle affermazioni di Weber, perché in quel periodo la maggior parte della comunità scientifica era d’accordo nel sostenere che i corpi massivi in movimento producessero onde gravitazionali ma con intensità molto deboli, dunque difficilmente rilevabili. Non solo. Lo strumento progettato da Weber presentava alcune criticità. Un primo aspetto critico era che rilevatori registravano delle vibrazioni e non le onde gravitazionali; dunque, non erano in grado di distinguere fra vibrazioni causate da radiazioni gravitazionali e vibrazioni causate da altre forze o fonti di disturbo. Nel 1969 Weber affermò di aver rilevato sette picchi al giorno non generati da fonti esterne di rumore. Queste affermazioni furono accolte con scetticismo dalla comunità scientifica perché si trattava di una quantità troppo alta di radiazioni rispetto alle teorie cosmologiche dell’epoca. Nonostante ciò, Weber riuscì comunque a convincere altri scienziati a prendere seriamente in considerazione i suoi risultati, anche se non ufficialmente accreditati. Dunque, non basta semplicemente riportare i risultati di un esperimento per trasformarne l’esito in un fatto scientifico consolidato in grado di “uscire dai confini” del laboratorio che lo ha prodotto. Infatti, nel 1972 altri laboratori avevano costruito altre barre in lega di alluminio per captare le radiazioni gravitazionali: in questo momento inizia quello che Harry Collins chiama regresso dello sperimentatore, ovvero un ciclo di interdipendenza tra teoria ed evidenza.

Lo scienziato che proverà a replicare l’esperimento di Weber dovrà alla fine confrontarsi con una serie di iscrizioni grafiche su carta prodotte da un registratore. Il problema sarà capire se fra quelle iscrizioni ci sono dei massimi che rappresentano impulsi di onde gravitazionali, oppure semplicemente segni prodotti dal rumore. La posizione maggioritaria della comunità scientifica dell’epoca riteneva che quei picchi non fossero causati da onde gravitazionali, e per accettare questa tesi bisognava replicare l’esperimento di Weber.

Se però le repliche dell’esperimento avessero dato un risultato negativo, sarebbe stato giusto pubblicare i risultati sperimentali e affermare che non c’erano grandi flussi di gravità da trovare? E di conseguenza dichiarare errate le affermazioni di Weber?

La risposta non è semplice, perché il risultato negativo di un esperimento potrebbe essere dovuto anche a ragioni diverse (per così dire “esterne”) da quelle relative al contenuto dell’asserto scientifico stesso, che l’esperimento vorrebbe provare. Ad esempio, l’amplificatore utilizzato nella replica dell’esperimento potrebbe essere diverso, o meno potente, rispetto a quello utilizzato da Weber. Infatti Weber sosteneva che i suoi rivali non avessero preparato l’esperimento nel modo più appropriato per lo studio di un fenomeno così sfuggente. Anzi, la mancanza di risultati poteva essere dovuta all’imperizia dei rivali di Weber, che non potevano certo vantare la sua esperienza nella progettazione di strumenti così sofisticati

In questo caso le onde gravitazionali esisterebbero realmente ma lo strumento usato in quel particolare esperimento potrebbe non essere in grado di rilevarle e lo scienziato, nel registrare la non esistenza dei flussi gravitazionali, mostrerebbe la propria incompetenza a livello tecnico-sperimentale.

Dunque, se non si conosce il risultato, il corretto svolgimento dell’esperimento non può essere valutato facendo riferimento soltanto al risultato sperimentale perché non c’è un consenso su cosa sia considerato un “risultato corretto” o sull’esistenza di un fenomeno. Per cui la domanda da porsi diventa “qual è il risultato corretto?”.
Afferma Collins:

« 

La conoscenza del risultato corretto non può fornire la risposta. Il risultato corretto è la rivelazione delle onde gravitazionali o la non rivelazione delle onde gravitazionali? Dal momento che l'esistenza delle onde gravitazionali è il punto in questione, è impossibile conoscere la risposta all'inizio. Quindi, quale sia il risultato corretto dipende dal fatto che ci siano o no onde gravitazionali che colpiscono la Terra attraverso flussi rivelabili. Per scoprirlo, dobbiamo costruire un buon rivelatore di onde gravitazionali e guardare. Ma non sappiamo se abbiamo costruito un valido rivelatore fino a che non lo abbiamo messo alla prova e ottenuto il risultato corretto. Ma non sappiamo quale sia il risultato corretto fino a che... e così via, ad infinitum (Collins e Pinch, 1995, Il Golem. Tutto quello che dovremmo sapere sulla scienza, p. 132).

»

L’attività sperimentale può essere valutata facendo riferimento al risultato soltanto se si riesce ad interrompere questa spirale. Nella maggior parte dell’attività scientifica (che Kuhn chiamerebbe “scienza normale”) questa catena circolare viene interrotta perché sono già noti i limiti entro cui un esperimento si può considerare “corretto”. Invece, nelle controversie in cui il regresso dello sperimentatore non può essere evitato, gli scienziati ricorrono ad altri criteri per valutare la qualità di un esperimento, che sono indipendenti dal risultato stesso dell’esperimento. Collins, intervistando gran parte degli scienziati coinvolti nell’attività di ricerca sulle onde gravitazionali, ha messo in luce gli elementi che entrano in gioco per valutare gli esperimenti e i risultati sperimentali degli altri scienziati:

1- fiducia nelle capacità sperimentali e nell'onestà dello scienziato, basata su una precedente collaborazione di lavoro;
2- la personalità e la capacità intellettiva degli sperimentatori;
3- la fama dello scienziato ottenuta attraverso la gestione di un grande laboratorio;
4- l’aver o meno lavorato nel settore dell'industria o in un ambiente universitario;
5- il curriculum di uno scienziato, in relazione ai suoi eventuali precedenti fallimenti;
6- «Informazione confidenziale», cioè riservata e non destinata ad essere divulgata all’intera comunità scientifica;
7- lo stile dello scienziato e la sua capacità di presentare i risultati;
8- l'«approccio psicologico» dello scienziato all'esperimento;
9- l'importanza e il prestigio dell'università d'origine dello scienziato e di quella dove lavora;
10- il grado di integrazione dello scienziato in svariate reti di collaborazione scientifica;
11- la nazionalità dello scienziato.

Dunque, quando i risultati di un esperimento sono in disaccordo con una teoria consolidata, la pratica scientifica non segue mai soltanto criteri metodologici nel decidere se a essere sbagliato sia l’esperimento o la teoria. Ma anche criteri sociologici, come quelli appena elencati. Dunque, fare scienza richiede sia un’abilità retorica che tecnica (Collins 1995). ). Al termine di una controversia vengono definiti quali sono gli “esperimenti validi” – ad esempio gli esperimenti che rilevano le onde gravitazionali o quelli che non le rilevano – stabilendo così la competenza di alcuni scienziati a discapito di altri. In altre parole,

« 

Riuscire (...) a definire che cos'è un buon rivelatore di onde gravitazionali, e determinare se le onde gravitazionali esistono, sono lo stesso processo. Gli aspetti sociali e scientifici di questo processo sono inscindibili. È questo il modo in cui viene risolto il problema del regresso dello sperimentatore (ivi, p. 136).

» 

In conclusione, il concetto di regresso dello sperimentatore ha il merito di aver messo in luce come la veridicità di un asserto scientifico dipenda anche da “meccanismi di risoluzione” (ivi, p. 143)(in grado di chiudere una controversia) che generalmente non vengono considerati come costitutivi dell’attività scientifica, perché non fanno parte di argomentazioni di natura tecnica, ma elementi sociali. Tuttavia, senza questi la scienza non potrebbe esistere.

Come andò a finire la controversia sulle onde gravitazionali?
In questo modo: Joseph Weber e le onde gravitazionali – Vittime illustri di modi ideologici di fare scienza.


Omeopatia e memoria dell'acqua - Una storia di scienza

Ciclicamente la scienza è attraversata da grandi discussioni attorno a problemi che appassionano i ricercatori, forse anche perché trattano di temi che riguardano abbastanza evidentemente la quotidianità di tutti noi.

Temi che oltre a far discutere a volte anche animatamente, si rivelano alla fine divisivi nelle opinioni: chi sta di qua e chi sta di là della linea di demarcazione della verità. A volte le dispute sono feroci e lunghissime, e proprio la stessa storia delle scienze ne è fedele testimone.

Gli esempi che si potrebbero fare sono tantissimi, e alcuni riguardano l’elemento apparentemente più comune sul nostro pianeta: l’acqua.

-------

Non c’è solo il caso dell’abbaglio preso sulla cosiddetta poliacqua, un liquido che pareva essere differente ma che alla fine si era dimostrata semplicemente impura: uno dei casi ancora oggi aperti riguarda un altro aspetto dell’acqua, e cioè la sua presunta “memoria”.

Un dibattito che parte da molto lontano, e che forse non è ancora del tutto chiuso.

Pur senza mai nominare il termine “memoria”, che fu invece coniato dagli ambienti di divulgazione scientifica della notizia, questa presunta qualità che permetterebbe all’acqua di mantenere un "ricordo" delle sostanze con cui è venuta in contatto fu proposto per la prima volta nel 1988 dal medico francese Jacques Benveniste: l’idea era che, per produrre tale effetto, l'acqua debba essere agitata ("succussa") a ogni diluizione di nuova sostanza con cui entra in contatto.  Benveniste nei suoi lavori ipotizzò un meccanismo che spiegava in questo modo il presunto funzionamento dei rimedi omeopatici, la cui efficacia è, a tutt’oggi, non dimostrata. I preparati omeopatici, chimicamente composti di acqua e zucchero, vengono di fatto preparati miscelando più volte il principio attivo in acqua a diluizioni così spinte da perdere ogni presenza di molecole del principio attivo originario con cui vengono messi a contatto.

In verità non esiste alcuna prova scientifica che supporti l'esistenza del presunto fenomeno. Sebbene siano stati pubblicati studi che sembravano andare in quella direzione, in realtà tali studi non hanno mai superato la verifica in doppio cieco, necessaria per dare attendibilità ai risultati ottenuti.

Peraltro, a successive prove scientifiche effettuate nuovamente da “terzi”, i risultati ottenuti dal medico francese furono clamorosamente smentiti: le ricerche risultarono false e manipolate, e fu la rivista Nature a darne ampio risalto pubblicando una dettagliata relazione che smentiva i risultati ottenuti dal dott. Benveniste. Come apparse in modo chiaro e inequivocabile, da un punto di vista chimico-fisico l’acqua mantiene una relazione con le altre molecole con le quali viene in contatto per un tempo infinitesimale, nell’ordine di qualche decina di femtosecondi (unità di misura del tempo, sottomultiplo del secondo, pari a un milionesimo di miliardesimo di secondo, corrispondente al più breve impulso di luce mai realizzato).

Il concetto di memoria dell’acqua, insomma, così come proposto dagli studi (manipolati) di Benveniste appare pseudoscientifico e quindi privo di fondamento.

Nonostante ciò, il fascino del concetto rimane. Nel 2011, nella Conference Series del Journal of Physics (nota fra gli addetti ai lavori come serie con peer review alquanto debole, e quindi facilmente esposta a rischi di pubblicazioni non scientifiche) appare uno studio firmato dal premio Nobel per la medicina Luc A. Montagnier, biologo insignito appunto nel 2008 del prestigioso premio per la scoperta (assieme a Françoise Barré-Sinoussi) nel 1983 del virus HIV. In questo articolo, il team di ricerca di Montagnier dimostra come soluzioni acquose altamente diluite di sequenze di DNA proprio del virus HIV (e anche di altri virus e batteri), produrrebbero segnali elettromagnetici di bassa frequenza caratteristici del DNA in soluzione. Per i sostenitori dell’omeopatia, una sorta di manna dal cielo: i risultati del premio Nobel sembrano andare esattamente nella direzione della validità scientifica della proposta. Peccato che anche questa volta le cose non vadano bene: il lavoro viene additato a livello internazionale come privo di validità scientifica, carente nel protocollo sperimentale, nelle apparecchiature utilizzate e perfino incoerente nelle sue stesse basi teoriche. Un disastro, insomma. Montagnier, d’altro canto, ha spesso prestato il fianco a critiche anche feroci da parte di moltissimi suoi colleghi medici, biologi e virologi: le sue prese di posizione su virus, batteri e vaccini sono state disconosciute dall’intera comunità scientifica.

In ogni caso, quello che va ricordato è che la storia dell’acqua come veicolo di trasmissione di rimedi curativi è molto più antica del secolo scorso.

Benveniste non è stato certo il primo a parlarne, anche se ha avuto la visibilità maggiore. Lo stesso termine omeopatia ha radici molto più vecchie: lo si deve a un brillante studioso tedesco vissuto tra il 1755 e il 1843, Samuel Hahnemann. Bimbo prodigio, a dodici anni parla già diverse lingue e in soli 4 anni si laurea in Medicina a Erlangen nel 1779. Diventa grande e geniale medico, ma anche chimico, botanico, fisico e traduttore: in soli quattro anni, a partire dal 1785, furono edite ben duemila sue pagine di traduzioni e di opere originali. Fondatore dell’Omeopatia, ne coniò anche il termine, Homoepathie e denominò Allopathie la terapia classica: a differenza di quest’ultima, infatti, il principio ispiratore del nuovo approccio alla cura è espresso dall’aforisma “similia similibus curantur”, i simili si curano con i simili. Hahnemann fu certamente colpito dalle affermazioni provenienti dagli studi di Cullen: l’uso del chinino in un soggetto in buona salute provoca una sintomatologia simile a quella determinata dalla malattia che il chinino stesso è chiamato a curare. A partire da questa considerazione elaborò la teoria secondo cui ogni malattia va curata con un medicamento che provochi nell’uomo sano una analoga sintomatologia.

Così nacque l’Omeopatia. Nella storia del pensiero medico occidentale, Hahnemann è il primo e l’unico medico e pensatore che rompe completamente con tutti gli schemi scientifici, mentali e metodologici sino allora conosciuti in medicina.

Nonostante il lungo tempo trascorso, la sua opera ed il suo metodo sono tuttora oggetto di diatribe e accese discussioni. Per quanto l’Omeopatia abbia subito per oltre duecento anni gli attacchi più feroci, i boicottaggi più incredibili, le pubblicazioni più infamanti e ostracismi di ogni tipo, oggi essa è diffusa e praticata in quasi tutti i paesi del mondo, fra l’altro in costante e continua crescita. L’Omeopatia è sicuramente la metodica terapeutica che raccoglie in sé più prove scientifiche di ogni altro metodo curativo e assieme quella che fa registrare più opposizioni da parte del mondo accademico rispetto a tutte le altre terapie non convenzionali.

-------

Certezze poche, insomma. Se non quella che, a un’analisi eseguita con un approccio scientifico tradizionale (e fatto di quelle conoscenze finora disponibili) il tema della memoria dell’acqua (e quello a ruota dell’omeopatia) non abbiano superato lo sbarramento delle prove di scientificità.

Perché dunque continuare a parlarne? Semplicemente perché la verità forse non è (ancora) conoscibile. O forse è davvero complessa, a volte.

A testimonianza che le cose accadono al di là della nostra capacità umana di vederle, di comprenderle, di addomesticarle. Il che, spesso, non è assolutamente una brutta notizia.


Omeopatia e memoria dell’acqua - Per una ricerca oltre le contrapposizioni

Quando si parla di memoria dell’acqua, solitamente si cita il lavoro dell’immunologo francese Jacques Benveniste (1935–2004) - che coniò l’espressione “memoria dell’acqua” - e quello più recente di Luc Montagnier, che occasionalmente si trovò a descrivere le proprietà di una soluzione ultra diluita. E si afferma che questi lavori sarebbero stati confutati dalle confutazioni che avrebbero messo una pietra tombale sull’omeopatia. Tali confutazioni, tuttavia, sono state a lor volta respinte e ritenute non attendibili: si veda, ad esempio, il Report del Governo Svizzero del 2011 che rappresenta la valutazione più completa sulla Medicina Omeopatica mai scritta da un Governo (Bornhoft e Matthiessen, Homeopathy in Healthcare: Effectiveness, Appropriateness, Safety, Cost).

Fra le critiche all’omeopatia si afferma, da parte di clinici e farmacologi, che l’Omeopatia sia efficace solo per l’effetto placebo. Ma la gran parte dei nostri pazienti si rivolge a noi perché delusi dalla medicina “allopatica”, dopo essere stati in prima battuta dal loro medico di famiglia, poi anche dallo specialista di riferimento che non di rado è un clinico rinomato, cattedratico ecc… Inoltre, sappiamo che l’effetto placebo è insito in ogni terapia ed è relativo all’investimento di speranza e fiducia che il paziente ha nei confronti della medicina assunta.

Per cui sorge la domanda: come mai migliorano o guariscono solo con l’effetto placebo dell’omeopatia e non con quello dell’allopatia, tanto che essi sono costretti ad intraprendere altre strade per prendersi cura della propria salute?

La sperimentazione pura, ossia la somministrazione di un medicamento diluito a un soggetto sano, provoca una sintomatologia che, se presente in un paziente malato, quello stesso rimedio è in grado di guarire. Questa procedura che è stata avviata da Hahnemann e proseguita dai suoi allievi è insegnata in alcune scuole di omeopatia; anch’io all’inizio, quando ero ancora studentessa un po’ incredula, l’ho provata. È un modo per toccare con mano la legge dei simili, ma soprattutto per imparare a osservare se stessi e dunque anche i malati.

Il medico agisce in base ai bisogni del malato e ancora oggi non può sottrarsi a una certa dose di empirismo se vuole essere efficace e tempestivo; e spesso è guidato meglio dall’esperienza che dalle cosiddette Linee Guida.

La medicina è nata prima della scienza moderna e quest’ultima spesso si è trovata a spiegare a posteriori il meccanismo di azione di farmaci usati fino a quel momento in modo empirico.

L’esperienza di migliaia di omeopati e dei loro pazienti non può non essere considerata un’evidenza solo perché non è chiaro, alla luce delle attuali conoscenze scientifiche, quali sia il meccanismo di azione dei farmaci omeopatici.

E’ ragionevole pensare, proprio alla luce dello sviluppo storico della scienza, che presto il meccanismo di azione di un ultra diluizione sarà spiegato forse anche grazie alla fisica quantistica, di cui oggi si parla tanto (e non sempre a proposito, spesso consegnando al mondo new-age quanto dovrebbe appartenere a una ricerca seria).

Non dovremmo inoltre dimenticare, limitandoci alle diatribe sull’omeopatia, che abbiamo tutto un patrimonio di medicine tradizionali, con un bagaglio secolare di sapienza che rischia di andare perduto, se non si cercano con urgenza nuovi epistemi e nuove modalità di ricerca.

Quello che sarebbe importante è sedersi intorno a un tavolo, allopati ed omeopati senza rivalità od ostilità, e iniziare a studiare insieme questi fenomeni perché il tema della salute non può essere ristretto a un solo pensiero dominante e prevalente.

In fondo lo scollamento fiduciario, tra quello che i malati si aspettano dai medici e quello che i medici sono in grado di offrire oggi, è sempre più ampio ed è l’espressione di una crisi della medicina e della professione medica che è sotto gli occhi di tutti.

L’apporto delle Medicine Tradizionali e Complementari, con un’attenzione alla complessità della persona che soffre, alla relazione medico-paziente (che non è amabilità ma strumento di conoscenza per la giusta prescrizione), dovrebbe essere riconosciuto e apprezzato anche dal mondo accademico, perché quello che dovrebbe premere a tutti noi è solo la salute delle persone.