La costruzione sociale della bicicletta - Ovvero, le tecnologie non sono neutrali

Figura 1: “ordinary bicycle”. “Ariel” di J. Starley e W. Hillman, brevettata nel 1870 (Bijker 1995, p.31)

Provate ad immaginare una di quelle volte in cui avete deciso di fare un giro in bicicletta, magari in una bella giornata di primavera. Dopo esservi preparati e aver preso quello che vi serve, entrate finalmente in garage per prendere la bici ed uscire. Tuttavia, invece di trovare la bici che usate di solito trovate una di quelle bici con la ruota anteriore molto grande (figura 1) e diffuse alla fine dell’Ottocento. Pensate ad un mondo in cui tutto è uguale ad oggi, ma invece che utilizzare la bici moderna tutti usano queste bici. Partire da questa immagine strampalata e apparentemente senza senso permette di porre in rilievo una questione: le cose potrebbero essere andate diversamente da come le conosciamo? Oggi potremmo avere una bici diversa da quella che ci risulta apparentemente come normale? Infatti, come vedremo, “non c’è un solo modo possibile o un solo modo migliore di progettare un artefatto” (Bijker, Hughes e Pinch 1987, p.40 trad. mia), come nel caso della bici. È da questi interrogativi che parte anche l’approccio SCOT (Social Construction of Technology) allo studio della tecnologia, e attraverso cui Wiebe Bijker (1995) ricostruisce la traiettoria di sviluppo che ha portato alla bici moderna.

 

Figura 2: célerifère nel 1791, poi in seguito vélocifère nel 1793 (Bijker 1995, p. 22)
Figura 3: il vélocipède costruito da Pierre Michaux nel 1865 (Bijker 1995, p.27)

Un primo prototipo risale ad un disegno del 1493, attribuibile a Leonardo Da Vinci, in cui viene rappresentato un biciclo con due ruote delle stesse dimensioni, pedali e manubrio. Dunque, Bijker (ibidem) si chiede: perché si è dovuto aspettare fino al XIX secolo per l’affermazione della bici moderna? Questo mostra come per avere un’innovazione tecnologica non basta che ci sia un inventore isolato dal mondo e con una buona idea (Magaudda e Neresini 2020). Infatti, si è dovuto attendere fino al Settecento per la costruzione del primo célerifère (figura 2), un biciclo con una struttura di legno e due ruote della stesse dimensioni, e senza la possibilità di sterzo. Per spostarsi era necessario spingere a terra con i piedi, il più della volte infangandosi. Per questo motivo, iniziarono ad emergere una serie di varianti, tra le quali ebbe particolare successo il vélocipède (figura 3): aveva una struttura di ferro, il manubrio, la sella e i pedali regolabili. In questo caso, i problemi erano principalmente legati alle troppe vibrazioni e allo slittamento laterale del mezzo. In seguito, con l’ordinary bicycle (figura 1) venne introdotta una posizione di guida rialzata sopra la grande ruota anteriore, la quale permise di attenuare i colpi e di non infangarsi, evitando il contatto diretto con il terreno. Inoltre, questo biciclo fu reso più leggero con l’impiego di raggi di filo metallico per la struttura delle ruote.

L’ordinary bicycle fu pubblicizzata dai suoi ideatori attraverso un’impresa ciclistica in cui venne percorsa la tratta che va da Londra a Coventry in un solo giorno. Questo evento contribuì alla costruzione dell’immagine della bici a ruota alta come mezzo sportivo, veloce ed efficiente. Non a caso, in un primo momento i principali utilizzatori di questo biciclo furono i “giovani atletici e danarosi” (Bijker 1995), per i quali era un mezzo sportivo per andare veloce e per manifestare la propria virilità e machismo. Infatti, viste le grandi dimensioni, l’ordinary bicycle richiedeva una serie di doti fisiche e atletiche per essere utilizzata, non era un mezzo sicuro e accessibile a tutti.

Se da un lato i giovani atletici erano i principali utilizzatori dell’ordinary, dall’altro lato, diversi individui rimanevano esclusi dalla possibilità d’impiego del biciclo, per cui si può parlare anche di una serie di gruppi di non-utilizzatori. Nello specifico, per le persone anziane e per chi non aveva una certa prestanza fisica l’ordinary non era un mezzo sicuro con cui potersi muovere: c’era un forte rischio di cadute ed infortuni. Inoltre, veniva escluso dall’utilizzo del biciclo anche chi non aveva la disponibilità economica per acquistarlo. Infine, alle donne non era consentito utilizzare questo mezzo perché entrava in netto contrasto con i codici di abbigliamento femminile dell’epoca. In relazione a ciò, in quel periodo si sviluppò la Rational Dress Society, una società di donne che rivendicava il diritto di vestirsi in maniera più libera evitando corsetti, tacchi e gonne pesanti, in modo da poter accedere anche all’utilizzo della bici.

Figura 4: il modello “Ariel” da donna progettato da J. Starley e W. Hillman nel 1874, con pedalata laterale (Bijker 1995, p.44)

Se da un lato i giovani atletici erano i principali utilizzatori dell’ordinary, dall’altro lato, diversi individui rimanevano esclusi dalla possibilità d’impiego del biciclo, per cui si può parlare anche di una serie di gruppi di non-utilizzatori. Nello specifico, per le persone anziane e per chi non aveva una certa prestanza fisica l’ordinary non era un mezzo sicuro con cui potersi muovere: c’era un forte rischio di cadute ed infortuni. Inoltre, veniva escluso dall’utilizzo del biciclo anche chi non aveva la disponibilità economica per acquistarlo. Infine, alle donne non era consentito utilizzare questo mezzo perché entrava in netto contrasto con i codici di abbigliamento femminile dell’epoca. In relazione a ciò, in quel periodo si sviluppò la Rational Dress Society, una società di donne che rivendicava il diritto di vestirsi in maniera più libera evitando corsetti, tacchi e gonne pesanti, in modo da poter accedere anche all’utilizzo della bici.

Come sottolinea Bijker (1995), questa prima fase di sviluppo della bicicletta si caratterizzata per la presenza di diversi “gruppi sociali rilevanti” (giovani atletici e danarosi, donne, anziani); ovvero, gruppi di attori che condividono al loro interno la medesima interpretazione di un artefatto tecnologico come la bici. In tal senso, si parla di una “flessibilità interpretativa” tra i vari gruppi: se per i giovani atletici l’ordinary è un mezzo sportivo e virile, per il gruppo degli anziani rappresenta qualcosa di poco sicuro, mentre, per il gruppo delle donne diventa un campo di rivendicazione dei diritti alla libertà di abbigliamento e all’utilizzo della bici. Queste diverse interpretazioni riguardano una serie di problemi e soluzioni che vengono poste dai vari gruppi rispetto al funzionamento di un particolare artefatto tecnologico e che lo rendono utilizzabile. Va precisato che questa flessibilità non riguarda solo il “modo in cui le persone pensano o interpretano gli artefatti, ma anche la flessibilità nel modo in cui gli artefatti sono progettati” (Bijker, Hughes e Pinch 1987, p. 40 trad. mia). Dunque, è in relazione alle interpretazioni dei diversi gruppi social che prendono materialmente forma differenti modelli di bici. Ad esempio, per rispondere al problema del codice di abbigliamento femminile vennero sviluppate delle bici con la pedalata laterale (figura 4); mentre, per rispondere al problema della sicurezza vennero progettati modelli come la Lawson bicycle (figura 6) e la xtraordinary (figura 5), delle varianti della Ordinary in cui venne ridotta la grandezza della ruota anteriore e la trazione venne spostata sulla ruota posteriore. In questo senso, si vede bene come la tecnologia incorpori una serie di aspettative sociali da parte di chi la progetta e, al contempo, essa contribuisca a stabilizzare e dare forma alle relazioni tra i vari gruppi di utilizzatori.

 

Figura 5: xtraordinary bicycle del 1878 (Bijker, Hughes e Pinch 1987, p. 43).
Figura 6: Lawson bicycle del 1879 (Bijker, Hughes e Pinch 1987, p. 39).

 

 

 

 

 

 

 

 

Figura 7: Safety bicycle del 1886 (Bijker 1995, p. 91).

Quindi, com’è stato poi possibile passare da questa molteplicità e varietà di bicicli differenti a quella che noi riteniamo essere la bici moderna? Per Bijker (1995) la risposta è da trovare nello pneumatico ad aria. Quest’ultimo inizialmente era visto come qualcosa di esteticamente ridicolo e poco funzionale. Tuttavia, la situazione cambiò nel maggio del 1889, quando il ciclista W. Hume vinse una gara dimostrando la validità degli pneumatici ad aria e della Safety bicycle (figura 7). È in questo momento che per Bijker (ibidem) c’è il momento di “stabilizzazione e chiusura” nella traiettoria di sviluppo tecnologico della bici: c’è una soluzione tecnica che permette di far convergere le interpretazioni dei vari gruppi sociali, rispondendo ai diversi problemi che essi pongono. In questo senso, la safety bicycle permette di rispondere sia alla necessità di andare veloce del gruppo dei giovani atletici, sia all’esigenza di una certa guida in sicurezza da parte di persone anziane e meno prestanti fisicamente, inoltre, permette un allineamento dei codici di abbigliamento femminile con l’utilizzo della bicicletta. Con la fase di stabilizzazione e chiusura la bici diventa quello che gli STS (Science and Technology Studies) definiscono una “scatola nera”; ovvero, una tecnologia pronta all’uso, disponibile per essere impiegata e che non è necessario problematizzare ulteriormente. Per questa ragione, quando ci riferiamo alla bicicletta nella vita di tutti i giorni non dobbiamo specificare che ha due ruote della stessa misura, i pedali, il manubrio, la catena; questi sono degli elementi che assumiamo come certi.

Da questa storia può essere fatto emergere quello che è il modello analitico dell’approccio SCOT per guardare allo sviluppo e all’innovazione tecnologica, il quale si articola principalmente in tre fasi (Bijker, Hughes e Pinch 1987; Bijker 1995): inizialmente c’è una “flessibilità interpretativa” di quelli che possono essere particolari dispositivi tecnologici, i quali vengono progettati con forme e caratteristiche diverse per rispondere ai problemi posti dai vari gruppi sociali; in una seconda fase avviene la “chiusura interpretativa”, l’artefatto tecnologico e le interpretazioni dei gruppi si stabilizzano arrivando a convergere tra loro; infine, questa chiusura va ricollegata e spiegata in un contesto sociale più ampio.

In conclusione, riprendendo gli interrogativi da cui siamo partiti, le cose potrebbero essere andate effettivamente in modo diverso? Gli STS, e in particolare l’approccio SCOT, ci insegnano che la traiettoria dell’innovazione e dello sviluppo tecnologico è qualcosa di aperto, incerto, e non deciso a priori. Come nel caso della bici, le tecnologie vengono progettate in relazione alle aspettative dei gruppi sociali e, al contempo, contribuiscono a dare forma alle stesse relazioni tra gruppi e individui. In altri termini, tecnologia e società co-evolvono e si danno forma a vicenda in un tessuto unico e senza cuciture, un saemless web (Bijker 1995). Per questa ragione, il percorso che porta all’affermazione di una tecnologia non è qualcosa di lineare e già scritto: non è sufficiente che ci sia un inventore o una scoperta scientifica per sviluppare automaticamente una tecnologia più sofisticata, la quale finirebbe per impattare sulla vita quotidiana delle persone. In tal senso, le tecnologie che si affermano non sono quelle “più efficienti” o che “funzionano meglio”, ma quelle che si configurano come tali in particolari contesti d’uso. Per questa ragione, la bici moderna non si è affermata perché era la migliore da un punto di vista tecnico e di costruzione rispetto alle concorrenti, ma perché ha permesso di far convergere le interpretazioni dei vari gruppi sociali rispondendo ai loro problemi d’uso. Questo discorso può essere esteso per l’analisi di altre tecnologie e mostra come il processo di sviluppo tecnologico sia un processo non lineare e mai dato per scontato, in cui gruppi di attori e artefatti tecnologici si costruiscono reciprocamente.

 

 

BIBLIOGRAFIA

Bijker, W. E. (1995). Of Bicycles, Bakelites, and Bulbs. Toward a Theory of Sociotechnical Change. The MIT Press.

Bijker, W. E., Hughes, T. P., Pinch, T. J. (1987). The social Construction of Technological Systems. New Directions in the Sociology and History of Technology. The MIT Press.

Magaudda, P., Neresini, F. (2020). Gli studi sociali sulla scienza e la tecnologia. Il Mulino.

 


Quando è nata la Scienza? - Dall'antica Grecia all'epoca dei lumi

Fino a qualche decennio fa, quando la scienza era considerata un corpus di idee sul mondo naturale, i suoi albori venivano collocati nel contesto del pensiero filosofico della Grecia Antica (Popper 1972). È ragionevole? Vediamo.

Partendo da Platone…

Platone nel Teeteto usa il termine epistêmê con il significato (ampio) di conoscenza: epistêmê non sarebbe altro che sensazione (151 E). Un concetto quindi non sovrapponibile all’attuale concetto di scienza, solitamente esibito come alternativo alla (semplice) conoscenza. Infatti, nel Teeteto la conoscenza scientifica sarebbe una specie particolare della conoscenza più generale, non una conoscenza alternativa. Per cui non sarebbe corretto tradurre epistêmê con ‘scienza’.

Invece, alla fine del Libro VI della Repubblica, nella celebre immagine della linea divisa (509 D-511 E), Platone parla di due tipi di conoscenza: chiara (saphenêia) e oscura/indeterminata (asapheia). Per Platone, però, ‘chiara’ non vuol dire ‘certa’. La conoscenza chiara pertiene al mondo intellettuale (anima); quella oscura deriva dai sensi e riguarda il mondo sensibile. Per Platone abbiamo sapere o scienza solo nel mondo intellettuale, non di quello sensibile perché le osservazioni empiriche non aggiungono nulla alla conoscenza piena (o conoscenza in senso stretto). Viene così introdotta una distinzione netta tra ‘epistêmê’ (che diviene la conoscenza chiara, basata sulla logica, che sta in piedi da sola, da epi + istemi) e doxa (le credenze, che possono essere dogmatiche perché poggianti sull’autorità, oppure basate sulle opinioni, sia vere che false, credibili o meno). Infine, Platone distingue anche due tipi diversi di ‘epistêmê’ o conoscenza chiara: quella (come la matematica e la geometria) che si sviluppa a partire da ipotesi e deduce attenendosi alle conseguenze che ne derivano; e quella (la dialettica) che si interroga e spiega anche i fondamenti delle ipotesi stesse. Per cui, anche se le scienze matematiche sono epistemai, tuttavia solo la dialettica è in grado di raggiungere la conoscenza piena, perché si interroga sulle ipotesi di partenza.

Aristotele: un passo avanti…

Aristotele, nel libro Analitici Secondi (II 2, 71b9-15), compie un ulteriore passo, sviluppando una teoria della "conoscenza scientifica", che chiama… epistêmê. Questo diverso significato della parola epistêmê l’avvicinerebbe maggiormente al concetto di scienza. In questo testo, Aristotele sostiene che abbiamo episteme (cioè, conoscenza scientifica) di X quando si danno le seguenti condizioni: conosciamo Y, sappiamo che Y è la ragione/causa (aitìa) di X, e questa relazione tra X e Y è necessaria. Per Aristotele epistêmê implica quindi dare spiegazioni, trovare le cause/ragioni. Necessità e spiegazione causale sono i due ingredienti fondamentali della conoscenza scientifica, che è una forma molto precisa di conoscenza.
Per cui la nostra domanda iniziale (quando è nata la scienza?) sembrerebbe trovare risposta nella proposta di Popper. Ma non è così.

Dal Medioevo al 1600

La tradizione latina medievale ha poi tradotto epistêmê in ‘scientia’. In questo senso c’è una dipendenza diretta tra il testo degli Analitici Secondi e l’epistemologia medievale. Tuttavia, il termine ‘scientia’ significava solo conoscenza, sapere, notizia; almeno fino al XVII secolo. Ciò non di meno, il termine ‘scientia’ ha significato cose molto diverse in epoche diverse e culture diverse. Perciò le cose si complicano nuovamente.
Infatti, a quel tempo, lo studio della natura cadeva invece sotto l'espressione "filosofia naturale". Essa comprendeva al suo interno tutti quei campi di ricerca che noi oggi chiamiamo geologia, astronomia, chimica, ottica, biologia e botanica, ma anche la filosofia e la teologia. Inoltre, a differenza della scienza contemporanea, la filosofia naturale non si basava sulla sperimentazione (ritenuta invece successivamente l’elemento centrale della scienza), ma sulla speculazione intellettuale e la tradizione. Infine, tutti coloro che investigavano la natura si identificavano comunemente con l'espressione "filosofo naturale".
Il "metodo scientifico" - sperimentale e quantitativo - che diede origine alla scienza sperimentale, venne sistematizzato solo tra il XVI e XVII secolo, durante il periodo della cosiddetta Rivoluzione Scientifica. Secondo alcuni (per esempio Whitehead 1920) il merito di questo cambiamento andrebbe attribuito a poche illustri figure come quella di Francis Bacon o Galileo Galilei; secondo altri, invece, il processo di formalizzazione del metodo scientifico richiese ancora diversi decenni e il contributo di molte scoperte in molti campi differenti, dall'astronomia alla geologia.

Il padre di tutti i fraintendimenti: l’essenzialismo

Entrambe le prospettive, però, partono da un presupposto essenzialista, cioè che possano essere identificate delle caratteristiche costitutive della scienza come categoria di pensiero, e che queste rimangano immutate nel tempo. Tuttavia, come abbiamo visto all’inizio di questo capitolo, la scienza non ha caratteristiche fisse e immutabili ma, in quanto istituzione, essa coincide con la comunità che ne riproduce le convenzioni e così facendo la pone in essere. Se così non fosse non si potrebbero spiegare molte figure ‘ibride’, se viste con gli occhi di oggi: ad esempio Newton, da alcuni considerato il fondatore della fisica classica e la figura con la quale la rivoluzione scientifica raggiunse il culmine, non solo intitolò la sua opera più celebre Philosophiæ Naturalis Principia Mathematica (1687) (e non utilizzò quindi la parola “scienza”) ma benché oggi poco ricordato, scrisse copiosamente anche di teologia, occultismo e soprattutto di alchimia.
Invece il termine ‘scienziato’ (scientist) è stato introdotto solo nel primo Ottocento. Tant’è che personaggi come Galileo o Newton erano ancora chiamati ‘filosofi naturali’ (natural philosophers). Il termine ‘scienziato’ fu coniato per la prima volta dallo studioso inglese William Whewell nel 1834, in una sua recensione all’opera di Mary Somerville On the Connexion of the Physical Sciences. Ma la diffusione di questo termine non fu immediata. Infatti, il britannico Lord Kelvin (1824-1907), più di tre decenni dopo, nel 1867, intitolava ancora la propria opera Trattato sulla Filosofia Naturale.
Infine, il termine platonico epistêmê non ha avuto fortuna nei secoli ed è stato reintrodotto come ‘epistemologia’ soltanto a metà dell’Ottocento, a opera dello studioso scozzese James Frederick Ferrier nel suo libro Institutes of Metaphysics (1854), con il significato (però) di teoria della conoscenza (che oggi chiameremmo gnoseologia). Peraltro, il termine epistemologia ha oggi significati un po’ diversi nei paesi anglosassoni e nell’Europa continentale.

Concludendo…

Come si può vedere, da questa breve disamina, la domanda iniziale è destinata a rimanere inevasa.
Se invece adottiamo la strategia costruttivista del boundary work, possiamo dire che la scienza, in quanto istituzione, nasce quando comincia a venire riconosciuta come un campo a sé stante, distinto, e quando gli scienziati cominciano a identificarsi come tali e quindi a rivendicare autorità a partire dalla categoria di scienza. A questo si aggiunga il fatto che oggi si tende a privilegiare una diversa prospettiva, che considera la scienza come un insieme di pratiche (anziché di idee). Per cui le attività dei filosofi della Grecia Antica, così lontane dalle pratiche scientifiche odierne, non sarebbero rubricabili sotto il concetto di ‘scienza’ (Bowler e Morus 2005). L'istituzione della scienza moderna viene invece fatta coincidere con l'emergere di una certa organizzazione istituzionale, di pratiche, di strumenti. In base a questa diversa prospettiva, la scienza avrebbe inizio all'epoca dei lumi, quando il metodo scientifico venne sistematizzato e la scienza istituzionalizzata in organizzazioni come l’Accademia Nazionale dei Lincei di Roma (1603), l’Academie des Sciences di Parigi (1666), La Real Academia de Ciencias y Artes di Barcellona (1764), la Royal Society di Londra (1768) o l’Academia das Ciências di Lisbona (1779).

 

NOTE

Articolo tratto da: Gobo, G. e Marcheselli, V. (2021), Sociologia della scienza e della tecnologia, Roma: Carocci, pp. 149-151.

 

BIBLIOGRAFIA

Bowler P. J. e Rhys Morus I. (2005), Making Modern Science. A Historical Survey, University of Chicago Press, Chicago, London.

Popper, K. (1972), Objective Knowledge: An Evolutionary Approach, Oxford University Press, New York (trad. it. Conoscenza Oggettiva, Armando Editore, Roma 1972).

Whitehead A. N. (1920), The Concept of Nature, Cambridge University Press, Cambridge.

 


Avanti verso il nulla - Sul futurismo nichilista contemporaneo (prima parte)

La nave

ha anche un motore

e avendo un motore

non sa dove va ma continua a andare

(Giorgio Gaber, La nave, 1974)

Cosa diremmo di una persona che, magari a causa di un trauma o di un lutto, vivesse concentrata sul passato e rifiutasse di vivere il presente e fosse del tutto chiusa alla dimensione del futuro? Certo, che non sta bene. Non si può vivere decentemente così. E di una che, specularmente, fosse proiettata esclusivamente verso il futuro e le future realizzazioni, incapace di vivere nel presente, e di tenere in conto a maggior ragione delle esperienze del passato? Anche in questo caso, diremmo che soffrirebbe, che non sarebbe in grado di godere della vita, la quale in fondo è fatta di una serie di momenti presenti. Se fossimo in un contesto di psicologia individuale potremmo parlare nel primo caso di un disagio dovuto a una forma di malinconia, nel secondo a una forma di euforia maniacale.

Spostandoci sul terreno del carattere sociale,[1] abbiamo da una parte un orientamento “passatista”, fissato cioè a un passato ritenuto in quanto tale preferibile e incline, dunque, al misoneismo (al rifiuto cioè di ogni novità), tipico delle società preindustriali; dall’altro un orientamento futuro-centrico, “futurista”, altrettanto nevroticamente fissato all’esaltazione del dileguare di ogni cosa in favore di un “nuovo” in quanto tale certamente migliore. Quest’ultimo è propriamente il carattere dell’epoca che viviamo in particolare nelle società più avanzate, segnate dal predominio dispotico di un potere che è insieme tecnico e capitalistico. Il dogma di oggi dice che «il futuro è il posto migliore»;[2] ed è di tale dogma, non meno contestabile per il fatto di essere… moderno, che si parlerà in questo articolo.

Il documento da cui propongo di prendere le mosse è la fulminante dichiarazione dell’ingegnere informatico Yann LeCun, capo del team di Meta (il nuovo nome di Facebook) che si occupa di intelligenza artificiale, nel corso di un’intervista rilasciata a un quotidiano italiano: «Mi affascina il futuro. Del presente mi interessa capire solo gli sbagli e come superarli».[3] Una frase che può essere considerata un “concentrato” di un più generale modo di rapportarsi alla temporalità che la società attuale suggerisce e impone ogni giorno nel suo «monologo elogiativo» permanente.[4] Il dirigente di Meta, che risponde in questo modo alle caute preoccupazioni espresse dall’intervistatore sulle prospettive dell’IA, com’è chiaro, non dichiara solo di essere affascinato dal futuro, ma di trascurare e disprezzare il presente (del passato naturalmente neppure parla), in quanto – sembra di capire – unicamente luogo di passaggio verso l’unica meta interessante, appunto il futuro. Ma c’è un problema: quella meta, una volta divenuta presente (ogni futuro di oggi è il presente di domani), ricadrà nello stesso disinteresse, in favore del futuro di domani. E in verità una meta non c’è neppure: c’è solo quella che potremmo chiamare una fuga senza fine verso il nulla, o «furia del dileguare» – per usare una espressione hegeliana[5] – per la quale ogni momento presente non vale che in quanto preparazione di un momento futuro, che sarà ovviamente migliore, e così via all’infinito.

Ha osservato il filosofo tedesco-coreano Byung-Chul Han, in un bel libro dedicato alla Scomparsa dei riti, che «oggi al tempo manca una struttura stabile. Non è una casa, bensì un flusso incostante: si riduce a una mera sequenza di presente episodico, precipita in avanti». (La scomparsa dei riti. Una topologia del presente, Milano, Nottetempo, 2021, p. 13).

Si procede, dunque, sempre “avanti” e sempre più rapidamente, in un fenomeno di accelerazione sociale che è oggetto di crescente attenzione da parte delle scienze sociali.[6] In questo illimitato e davvero scriteriato procedere, nessun valore, nessun obiettivo, nessuna condizione desiderabili debbono essere posti, perseguiti, mantenuti; l’unica cosa che conta e che deve esistere, l’unico punto di riferimento per il nostro agire, è il costante flusso delle merci, ma anche delle esperienze, delle tecniche, delle forme di vita:[7] una condizione, dunque, realmente nichilista.

È una dinamica che era stata a suo tempo già individuata da Marx, che pure non si era soffermato sugli esiti nichilistici qui indicati, quando aveva rilevato che «il movimento del capitale è senza misura» (Marx K., Il capitale, libro I, a cura di Delio Cantimori, Roma, Editori Riuniti, 1974, p. 185).

-------------

In questa modalità di rapporto con il tempo, che nasce nel quadro della modernità capitalistica e della sua complessiva rimodulazione dell’esperienza e della vita sociale, accade – secondo quanto sottolineato trent’anni fa da Giacomo Marramao – che «la prospettiva tende progressivamente a fagocitare l’esperienza» (Giacomo Marramao, Minima temporalia. Tempo spazio esperienza, Milano, Il Saggiatore, 1990, p. 108), potendosi parlare di vera e propria «propensione nichilista» (cit. p. 104) della modernità. Mi pare tuttavia evidente che è l’ultima fase della modernità, quella apertasi negli ultimi decenni, a rendere egemone e “totalitaria” tale propensione. E l’accelerazione dell’innovazione tecnologica in molti ambiti, in quello informatico in particolare, ha avuto in questo un ruolo determinante.

Ha osservato a questo proposito Gabriele Balbi, in un notevole recente pamphlet sulla ideologia digitale, che «il tempo storico ideale per la rivoluzione digitale è proprio il futuro, anche perché nel presente viene sempre raccontata come incompleta, come un processo in continua evoluzione, come una trasformazione che non ha né può avere una fine predefinita» (Balbi G., L’ultima ideologia. Breve storia della rivoluzione digitale, Roma-Bari, Laterza, 2022, p. 64-65). Non sorprende, allora, che un recentissimo saggio sulle prospettive dell’applicazione dell’intelligenza artificiale si dichiari in copertina – programmaticamente – una Apologia del futuro (De Biase L, Apologia del futuro. Quello che il domani può fare per noi, Roma, LUISS University Press, 2024).

Il tempo dell’era digitale, in effetti, è proprio un tempo della precarietà e dell’incompletezza, foriero inevitabilmente di ansia e di senso di inadeguatezza, forse proprio di quella «vergogna prometeica» indicata da Günther Anders come il portato principale e perturbante della nostra epoca di dominio della tecnica industriale (fa parte di essa non solo il sentirsi inferiori in potenza alle macchine, ma anche, insieme, il sentirsi troppo lenti rispetto alle velocità macchiniche).[8]

Non mancano del resto alcuni sintomi addirittura clamorosi di tale deriva, se pensiamo per esempio a certi esiti obiettivamente antiumanistici propri di quelle visioni della rivoluzione digitale che si dichiarano post- o transumaniste. Così per esempio Hans Moravec, uno dei profeti del transumanismo, poteva affermare già vent’anni fa, in relazione agli imminenti sviluppi delle nanotecnologie e dell’intelligenza artificiale, con un misto di fatalismo e di entusiasmo: «l’uomo biologico si troverebbe naturalmente spinto fuori dall’esistenza, poiché una specie sopravvive raramente a uno spazio ostile che presenta un grado di evoluzione superiore» (cit. in Paul Virilio, Ce qui arrive, Paris, Éditions Galilée, 2002, tr.it. Milano, Cortina, 2002, p. 19-20).

Al venir meno di ogni valore, di ogni capacità di identificare dei fini razionali nello sviluppo sociale, si accompagna come si vede, in non pochi casi, il rifiuto della umanità stessa. O meglio quella che – se si pensa a certo dibattito oggi molto in voga sull’IA – si potrebbe definire una voglia matta di dimissioni dall’umano.

-------------

In ogni caso, quel che qui mette conto sottolineare è che nella visione attuale dovremmo affidarci con sicurezza all’impersonale flusso delle cose, alle asserite leggi dello sviluppo tecno-scientifico, sicuri che esse siano apportatrici di beneficio generale. Una visione del mondo e della storia non solo falsa, dal momento che postula una natura neutrale e deterministica dello sviluppo tecnologico (come se esso non fosse attraversato dalla storia, dal conflitto degli interessi, dalle dinamiche economiche, da influssi culturali ecc.), ma chiaramente finalizzata a radicare nelle coscienze dei contemporanei un senso di stupido ottimismo e di cieca fiducia verso l’organizzazione sociale presente. Una pedagogia dell’apatia e della passività, in definitiva.

L’adesione a questo “regime di temporalità” implica infatti l’adesione al modello economico e sociale dominante, a quello che un sociologo italiano, Mauro Magatti, ha definito «capitalismo tecno-nichilista», ovvero un modello in cui la razionalità strumentale e l’imperativo del profitto hanno riassorbito senza residui ogni altro criterio.[9] Tale modello, che si forma a partire dall’ultimo quarto del Novecento, prima negli Stati Uniti poi in Europa, non ha più molto a che fare con il vecchio capitalismo “weberiano” (lavoro, disciplina, impegno, attaccamento alla proprietà…), ma è piuttosto un capitalismo del desiderio e della seduzione, nonché della liberazione attraverso la tecnica. Un capitalismo che promette all’individuo una generalizzata libertà (di natura peraltro fantastica e delirante) un po’ da tutto: dal lavoro faticoso, dalla politica, dalle relazioni sociali e sentimentali, ora perfino – nelle tecno-utopie postumaniste, come si vedeva poc’anzi – dalla materia e dalla biologia stesse. Ma navigando in questo insieme di… “liberazioni” da ogni radicamento, è l’umano stesso che abdica a se stesso, l’individuo stesso, apparentemente celebrato, che finisce per precipitare appunto nel nulla.

Sulla dimensione realmente nichilistica del capitalismo contemporaneo (cioè dove per nichilismo non si intende una ideologia o una dottrina, ma appunto una configurazione socio-culturale reale) è intervenuto nei suoi ultimi anni il filosofo Aldo Masullo (1923-2020):

«la condizione del nostro odierno esistere esige non tanto una discussione sull’essenza del nichilismo, quanto un’esplorazione di effettivi stati di nichilismo. (…) Uno dei sintomi è la profonda trasformazione dei nostri rapporti con il tempo. Oggi la velocizzazione dei cambiamenti (travolgente esito tecnologico), l’accelerazione del quotidiano, l’immediatezza del repentino, insomma il dissolversi della durata nel delirio di eventi puntiformi, esaltano l’istantaneo senza ragione e il vuoto del presente».[10]

Particolarmente radicato in ambito scientifico-tecnologico,[11] questo approccio alla temporalità dilaga in realtà in ogni campo della vita odierna (sempre più permeato del resto dalla macchina tecno-scientifica e dalle sue “esigenze”), spingendoci tutti in una dimensione di accelerazione permanente i cui effetti in termini di disagio crescente sono ormai oggetto di un’ampia letteratura sociologica, psicoanalitica, antropologica ecc.,[12] oltre ad essere stati denunciati nella celebre enciclica Laudato si’ di Papa Francesco con parole molto lucide.[13]

-------------

In un piccolo saggio dedicato al concetto di Futuro, Marc Augé ha rimarcato il nesso che nella percezione attuale del futuro ricopre la dimensione (tipica di società industriali avanzate e consumistiche) della “innovazione”: quest’ultima – sosteneva l’antropologo francese scomparso nel 2023 – costituisce un vero e proprio «fatto sociale totale», secondo la celebre definizione di Marcel Mauss, poiché «riguarda simultaneamente tutti gli aspetti della società e fa appello a tutti i suoi attori» (Augé M., Futuro, Torino, Bollati Boringhieri, 2012, p. 81).[14] È insomma un futuro-come-innovazione quello che risulta oggi socialmente egemone, un futuro come costante susseguirsi di novità (proprio come l’industria capitalistica deve perennemente presentare nuove merci, vere o presunte non importa), un futuro meramente quantitativo. Un futuro che – dicono molti osservatori – finisce per farsi fagocitare da se stesso, e dunque un futuro che, paradossalmente, si auto sopprime in favore di un eterno presente (così François Hartog, su cui si tornerà, che parla infatti di «presentismo» per indicare l’attuale «regime di storicità»)[15].

È chiaro che stiamo parlando di quale idea di progresso sia oggi dominante; ovvero di come questa idea, così intimamente legata a tutta la vicenda della modernità occidentale, si configuri nella società industriale avanzata di oggi (o forse dovremmo dire, per essere à la page, società digitale). Se questa furia “futuristica” di cui abbiamo parlato appare oggi così dominante e in sostanza accettata è anche perché il mito del progresso è uno di quelli cui, nel disincantamento generalizzato, ancora crediamo (paradossi del postmodernismo? Forse…). Ma, giunto a questo punto, per non abusare della pazienza del lettore, rimando alla seconda parte di questo articolo. Stay tuned.

 

 

NOTE

[1]  Uso qui il concetto di “carattere sociale” come inteso tra gli altri da Erich Fromm, per esempio, in Beyond the chains of illusion. My encounter with Marx and Freud (1962), tr.it. Marx e Freud, Milano, il Saggiatore, 1968, p. 75-92. Vedi anche la voce Carattere sociale, in Luciano Gallino, Dizionario di sociologia, Torino, Utet, 2014 (1.ed. 1978), p. 94-96.

[2] Così, dovendo proporre una serie di scritti e discorsi di Barack Obama al termine del suo secondo mandato presidenziale, una grande casa editrice italiana decide di intitolare il volume che li raccoglie: Barack Obama, Il futuro è il posto migliore. Il 44. Presidente degli Stati Uniti in parole sue, prefazione di Walter Veltroni, Milano, Rizzoli ETAS, 2017.

[3] La dichiarazione del manager di Meta si trova in: Pierluigi Pisa, Arriva la nuova IA di Meta. “Imparerà da sola, penserà e proverà emozioni umane”, “la Repubblica”, 14 giugno 2023, p. 32-33.

[4] L’espressione si deve a Guy Debord, nella Società dello spettacolo (1967): «Lo spettacolo è il discorso ininterrotto che l’ordine presente tiene su se stesso, il suo monologo elogiativo» (Guy Debord, La società dello spettacolo, in Id., La società dello spettacolo. Commentari sulla società dello spettacolo, introduzione di Carlo Freccero e Daniela Strumia, Milano, Baldini & Castoldi, 2019, p. 71-72).

[5] Il concetto di «furia del dileguare» [die Furie des Verschwindens], coniato da Hegel nella Fenomenologia dello spirito (Cfr. G.W.F. Hegel, Fenomenologia dello spirito, vol. II, trad. di Enrico De Negri, Firenze, La Nuova Italia, 1963, p. 129) con riferimento agli esiti utopistico-estremistici della Rivoluzione francese (dove alla «libertà assoluta» non resta che «l’operare negativo» che non s’acquieta mai, producendo catastrofi politiche), viene qui adottato per indicare la pulsione intima dell’Occidente capitalistico, che lo spinge (ci spinge) ad operare solo in senso negativo e dissolvente, senza alcun costrutto sensato ed equilibrato.

[6] Mi limito qui a citare Hartmut Rosa, Accelerazione e alienazione. Per una teoria critica del tempo nella tarda modernità, Torino, Einaudi, 2015.

[7] Osservava David Harvey, in un saggio ormai di riferimento su questi temi, The condition of postmodernity (1990): «La dinamica di una società “usa e getta”, come l’hanno definita scrittori come Alvin Toffler, cominciò a diventare evidente durante gli anni Sessanta. Significava qualcosa di più del semplice buttar via una cera quantità di prodotti (…); significava buttar via valori, stili di vita, relazioni stabili, e l’attaccamento alle cose, agli edifici, ai luoghi, alle persone, ai modi ereditati di fare ed essere» (David Harvey, La crisi della modernità, Milano, il Saggiatore, 1993, p. 349).

[8] Cfr. Günther Anders, L’uomo è antiquato.1. Considerazioni sull’anima nell’epoca della seconda rivoluzione industriale, Torino, Bollati Boringhieri, 2003, p. 37-120.

[9] Cfr. Magatti M., Libertà immaginaria. Le illusioni del capitalismo tecno-nichilista, Milano, Feltrinelli, 2009.

[10] Nell’intervista il grande filosofo italiano riassumeva le tesi del suo Stati di nichilismo, Roma-Napoli, Paparo, 2016.

Ricordiamo che, nella filosofia italiana contemporanea, sostenitori della tesi del nichilismo come condizione storico-sociale del modo di produzione capitalistico sono stati Costanzo Preve, in particolare in Il convitato di pietra. Saggio su marxismo e nichilismo (Milano, Vangelista, 1991), e Massimo Bontempelli, La conoscenza del bene e del male, Pistoia, CRT, 1998.

[11] Giampietro Gobo ha sottolineato di recente su questo blog come l’accelerazione sociale dominante sia dannosa per la stessa attività scientifica: cfr. Giampietro Gobo, Quando la pazienza è più produttiva della fretta. Sull’esistenza di un nuovo pianeta, “Controversie”, 07/05/2024,

[12] Cfr. Hartmut Rosa, Accelerazione e alienazione, cit.

[13] «La continua accelerazione dei cambiamenti dell’umanità e del pianeta si unisce oggi all’intensificazione dei ritmi di vita e di lavoro, in quella che in spagnolo alcuni chiamano “rapidación”  (rapidizzazione). Benché il cambiamento faccia parte della dinamica dei sistemi complessi, la velocità che le azioni umane gli impongono oggi contrasta con la naturale lentezza dell’evoluzione biologica» (Papa Francesco, Laudato si’. Lettera enciclica sulla cura della casa comune, commenti di Bruno Bignami, Luis Infanti de la Mora, Vittorio Prodi, Bologna, Edizioni Dehoniane, 2015, p. 19).

[14] Nelle società attuali – osserva ancora Augé – «potremmo dire che ormai siamo capaci di definire il nostro rapporto con lo spazio e il tempo, cioè con l’elemento essenziale dell’attività simbolica che definisce l’essenza dell’uomo e dell’umanità, solo attraverso artefatti messi a punto dall’industria e fatti circolare su mercato» (ivi, p. 78).

[15] Cfr. François Hartog, Regimi di storicità. Presentismo e esperienze del tempo, Palermo, Sellerio, 2007.


FAO, alimentazione e emissioni di CO2 - Una controversia e un conflitto di interessi?

COS’È LA FAO

La FAO – Food and Agriculture Organization – è «un’agenzia specializzata delle Nazioni Unite che guida gli impegni internazionali mirati a sconfiggere la fame». Il suo obiettivo dichiarato è «raggiungere la sicurezza alimentare per tutti e assicurare alle persone l’accesso regolare a quantità sufficienti di cibo di elevata qualità, al fine di condurre vite sane e attive»[1].

Questa missione, dichiarata nella sezione “About us” del sito, dice una serie di cose importanti per la controversia che stiamo esaminando: la FAO è un’agenzia delle Nazioni Unite; agisce per garantire a tutti (paesi e popolazioni) accesso a quantità sufficienti di cibo; il cibo deve essere di elevata qualità; in ultimo, il cibo sembra essere funzionale all’obiettivo di condurre una vita sana ed attiva.

TEMA, ATTORI E POSIZIONI DELLA CONTROVERSIA

La controversia verte su quanto potrebbe contribuire la diminuzione del consumo di carne – in particolare di carne bovina[2] – sul contenimento delle emissioni di CO2 nell’atmosfera e, di conseguenza, sull’effetto serra nei prossimi 25 anni.

Da tempo si parla del fatto che gli allevamenti (intensivi) di bestiame, in particolare di bovini destinati al macello per la produzione di carne a uso alimentare umano[3], sono una fonte rilevante – il 12% del totale[4] – delle emissioni di CO2 e di “gas serra” nell’atmosfera.

La riduzione delle emissioni legate agli allevamenti intensivi è una tematica ricorrente nella narrazione giornalistica e si intreccia con l’istanza animalista sulle condizioni e le sofferenze imposte a bovini, ovini e suini e con quella ambientalista sui gas serra.

La questione coinvolge anche la disponibilità di alimentazione proteica a basso costo per le fasce di popolazione meno ricche e il tema delle tradizioni culturali alimentari.[5]

Gli attori sono di questa disputa sono, da una parte la FAO e il suo rapporto “Pathways towards lower emissions. A global assessment of the greenhouse gas emissions and mitigation options from livestock agrifood systems” presentato alla conferenza ONU sul clima, la COP28 di Dubai; dall’altra parte, due fisici che studiano l’impatto di varie attività umane sull’ambiente: Paul Behrens e Matthew Hayek, tra gli autori degli studi scientifici citati nel rapporto della stessa FAO.

Il rapporto Pathway towards lower emission realizzato dalla FAO stima la riduzione delle emissioni di CO2 che si può ottenere con una serie di interventi sulle pratiche di allevamento e alimentari. L’efficacia stimata per ciascuno di questi interventi è la guida per definirne rilevanza e priorità.

Prime, per efficacia stimata e per priorità di attuazione, ci sono due linee di intervento sulle modalità di allevamento degli animali da carne:

  • la prima linea suggerisce di incrementare la produttività degli allevamenti;
  • la seconda linea propone di migliorare l’alimentazione e lo stato di salute degli animali negli allevamenti.

Quali sono i razionali e gli effetti attesi di queste misure di contenimento delle emissioni?

La prima linea, quella della produttività, è legata in modo diretto alla previsione di aumento della popolazione mondiale (+ 20% nei prossimi 25 anni) e proietta un aumento proporzionale di produzione animale necessario a soddisfare la domanda di carne e latticini. Grazie all’aumento di produttività, la FAO stima un possibile minore incremento di emissioni pari al 30%.

Per inciso, il rapporto FAO - fatto salvo per la riduzione dell’età di macellazione degli animali, che favorirebbe un migliore rapporto tra costi di produzione, volumi di prodotto (carne, peso dell’animale ucciso) e emissioni di gas - non suggerisce specifici modi per migliorare la produttività ma parla soltanto di “enhanced efficiency at every production stage along the supply chain” e “adoption of best practices”.

La seconda linea di intervento, relativa all’alimentazione e al benessere degli animali negli allevamenti, potrebbe migliorare i risultati della prima misura per varie ragioni: una alimentazione con cibi più calorici, meno grassi e più oli essenziali può far crescere prima e meglio gli animali; alimenti tannici possono ridurre la quantità di gas nella fase di ruminazione; in generale, una alimentazione “più sana” può far diminuire il tasso di mortalità degli animali e, nello stesso tempo, aumentare il tasso di crescita.

La FAO considera di minore rilevanza, in termini di effetti e di priorità, le misure relative al cambiamento delle abitudini alimentari, al consumo più responsabile e alla conseguente minore domanda di carne per uso alimentare, quali:

  • cambiare le abitudini alimentari, in particolare ridurre il consumo di carne, seguendo le indicazioni governative, con un effetto di contenimento delle emissioni tra il 2% e il 5%[6];
  • ridurre gli sprechi dei generi alimentari nella parte finale della filiera[7], dalla vendita al consumo, con un effetto di contenimento tra il 3% e il 6%.

Ecco, il tema del cambiamento delle abitudini alimentari è il centro della controversia.

Behrens e Hayek sostengono, infatti, in una lettera indirizzata al Direttore della Divisione Produzione Animale e Salute della FAO, che il rapporto FAO ha distorto e mal utilizzato una serie di informazioni, sottostimando l’effetto di riduzione delle emissioni associato alla riduzione del consumo di carne.

In particolare, i due scienziati, denunciano che:

  • la FAO ha usato un loro studio del 2007 mentre altri studi più recenti – loro e di altri autori – disegnano uno scenario diverso e più favorevole alla riduzione del consumo di carne;
  • l’effetto del cambiamento alimentare è calcolato sulla base di raccomandazioni nazionali (NDR - National Dietary Recommendations) obsolete; quelle più aggiornate raccomandano quantità di carne e di latticini molto minori;
  • il rapporto contiene una serie di errori sistematici che portano a sottostimare gli effetti del cambio di dieta, tra i quali: l’utilizzo dei massimi di scala per gli NDR, la comparazione di grandezze difficilmente commensurabili, il raddoppio dei valori di emissioni al 2025, l’uso di un mix incongruente di anni di confronto;
  • infine, che il rapporto FAO non prende in considerazione le linee guida più aggiornate sulle diete sostenibili e salutari raccolte – ad esempio – nell’autorevole e recente studio EAT – Lancet del 2019

Sulla base di queste considerazioni, Berhens e Hayek sostengono che il minore consumo di carne avrebbe effetti strutturali e decisamente superiori a quanto stimato dalla FAO, ponendosi in controtendenza rispetto alla strategia di inseguire una crescita della domanda di carne proporzionale all’aumento della popolazione.

Alla lettera con cui chiedono di rivedere il rapporto, la FAO ha – responsabilmente, va detto – replicato che il rapporto è stato sottoposto a peer-reviewing in doppio cieco e che, quindi, va ritenuto affidabile, ma si impegna a indagare sulle questioni sollevate e a confrontarsi con Berhens e Hayek su metodo e merito.

Nel frattempo, però, il rapporto della FAO è stato utilizzato nella conferenza sul clima COP28.

CONCLUSIONI

Ora, aspettando di vedere cosa succederà, viene da chiedersi quanto la FAO sia un soggetto indicato per definire strategie, linee guida e priorità per le misure di contenimento della CO2 nell’atmosfera, seppure se correlate all’alimentazione; la domanda si pone perché alcune misure di contenimento possono essere in parziale conflitto con gli obiettivi della FAO.

Sembrano emergere, infatti, almeno quattro ordini di problemi:

  1. La FAO ha la missione di garantire, qui e ora, che tutti abbiano cibo di elevata qualità e abbondante; un cambiamento radicale degli schemi produttivi e alimentari, basati – ad esempio – su una rapida riduzione degli allevamenti intensivi e su un deciso allontanamento dall’alimentazione carnea può essere in conflitto con la missione della FAO, per due ragioni: la prima è la necessità di sostituire – in tempi altrettanto serrati – carne e latticini a basso costo con prodotti vegetali di qualità e altrettanto reperibili; la seconda è la necessità di riassestamento economico e occupazionale del settore e dei paesi produttori di carni meno ricchi, che richiederebbe un sostegno organizzato a livello sovranazionale;
  2. la missione della FAO è centrata sulla nozione di “cibo di alta qualità”, nozione che è socialmente costruita e per lo più rappresentata da cibi a elevato contenuto proteico di origine animale, carne e latticini[8] (meglio se a basso prezzo); una svolta verso la diminuzione di questi cibi è certamente in conflitto con la nozione di “alta qualità” della FAO e richiede anche un cambiamento culturale rilevante;
  3. la natura della FAO – emanazione dell’UN e controllata da 143 paesi, tra i quali alcuni grandissimi produttori di carne bovina in allevamenti intensivi – richiede di tenere conto del possibile conflitto di interessi tra le misure di riduzione del consumo di carne e i paesi produttori;
  4. l’ultimo tema che emerge è la possibile competizione tra l’istanza morale di una migliore e più abbondante disponibilità di cibo e quella di salvaguardia dell’ambiente a cui fa capo il contenimento delle emissioni di CO2; chi decide di queste due istanze ha la priorità?

Senza nulla togliere al suo compito insostituibile, la FAO non dovrebbe, però, essere soggetto normativo su come ridurre le emissioni, ma occuparsi di mettere in atto, senza effetti negativi sul benessere di tutti, le misure più efficaci di contenimento delle emissioni decise da organismi dedicati a questo e confrontarsi con questi sulla maggiore o minore priorità dell’istanza alimentare versus quella ambientale.

Tra l’altro, l’indicazione del miglioramento dell’efficienza (produttività) degli allevamenti – nonostante il tentativo di salvare capra e cavoli con il tema del welfare dei bovini – mostra la totale assenza, nella missione della FAO, dell’istanza morale del benessere e della vita degli animali non-umani. Che potrebbe – anch’essa – essere considerata in competizione con quella della vita sana e attiva degli umani.

 

 

NOTE

Questa riflessione e il relativo studio delle fonti hanno preso spunto dall’articolo La FAO ha distorto degli studi sull’importanza di ridurre il consumo di carne?, apparso il 26 aprile 2024 su “il POST” e sull’articolo del Guardian UN livestock emissions report seriously distorted our work, say experts, 19 aprile 2024.

[1] Traduzione mia dalla sezione “About us” del sito della FAO, https://www.fao.org/home/en

[2] La produzione di carne di ruminanti ha un’impronta di CO2 di circa due ordini di grandezza superiore a quella di ovini e di suini. Cfr. Walter Willett et al., Food in the Anthropocene: The EAT-Lancet Commission on Healthy Diets from Sustainable Food Systems, "Lancet" (London, England) 393, no. 10170 (2019): 447–92, https://doi.org/10.1016/S0140-6736(18)31788-4, Figure 4, pag. 471.

[3] La produzione di carne a uso alimentare umano è lo scopo prevalente dell’allevamento intensivo di animali. Tra gli altri scopi – a titolo di esempio - possiamo citare: pellame (cuoio) per le industrie di abbigliamento, prodotti alimentari per animali da compagnia, farine proteiche, capsule per i farmaci, fertilizzanti (primo fra tutti il letame), caglio animale per formaggi, biocarburanti.

[4] Dati FAO: Globally, the production of the animal protein, as presented in the previous subsection “Global animal protein production”, is associated with a total of 6.2 Gt CO2eq of emissions, constituting approximately 12 percent of the estimated 50 to 52 Gt CO2eq total anthropogenic emissions in 2015. (Greenhouse gas emissions from agrifood systems.Global, regional and country trends, 2000-2020. FAOSTAT Analytical Brief Series No. 50. Rome). https://www.fao.org/3/cc2672en/cc2672en.pdf)

[5] È interessante vedere come lo stesso numero, la stessa percentuale – in questo caso del 14,5%, calcolata nel 2015 – di contribuzione dell’allevamento animale sia narrata in modo opposto da due parti a loro volta contrapposte: il WWF scrive «tra i maggiori responsabili della produzione di gas serra ci sono gli allevamenti intensivi che, in base a stime della FAO, generano il 14,5% delle emissioni totali di gas serra»; Alimenti&Salute, sito tematico della Regione Emilia-Romagna dedicato alla sicurezza alimentare e alla nutrizione, titola: «Rapporto FAO sulle emissioni gas serra. Solo il 14% viene attribuito agli allevamenti intensivi»

[6] Con una diversa distribuzione tra paesi più ricchi, tra il 13% e il 24%, paesi a reddito intermedio, tra lo 0,08% e il 12% e, invece, un aumento di emissioni tra il 12% e il 17% per i paesi più poveri (cfr. cit. p.19)

[7] Se non ci credete, fate un giro in un qualsiasi supermercato verso le 19.00/20.00 e noterete quanta carne viene buttata via a fine giornata, perché ormai scaduta. Per cui non è vero che uccidiamo animali per mangiarli. Probabilmente il 50% degli animali viene ucciso per… essere buttato nella spazzatura a fine giornata…

[8] Per approfondimenti: Adams C, Carne da macello. La politica sessuale della carne, 2020, Vanda edizioni; Harris M., Buono da mangiare. Enigmi del gusto e consuetudini alimentari, 2015, Einaudi.

 

RIFERIMENTI BIBLIOGRAFICI

  • Il rapporto della FAO, Pathways towards lower emissions. A global assessment of the greenhouse gas emissions and mitigation options from livestock agrifood systems, Food and Agriculture Organization of the United Nations, Rome, 2023, ISBN 978-92-5-138448-0, si può scaricare qui.
  • La lettera di P. Behrens e M. Hayek indirizzata a Thanawat Tiensin, Director of Animal Production and Health Division (NSA), si può scaricare qui.
  • Greenhouse gas emissions from agrifood systems.Global, regional and country trends, 2000-2020. FAOSTAT Analytical Brief Series No. 50. Rome. https://www.fao.org/3/cc2672en/cc2672en.pdf)
  • Walter Willett et al., “Food in the Anthropocene: The EAT-Lancet Commission on Healthy Diets from Sustainable Food Systems.,” Lancet (London, England) 393, no. 10170 (2019): 447–92, https://doi.org/10.1016/S0140-6736(18)31788-4.
  • Nordic Cooperation, “Less Meat, More Plant-Based: Here Are the Nordic Nutrition Recommendations 2023,” Nordic Cooperation, 2023, https://pub.norden.org/nord2023-003/
  • Vieux et al., “Greenhouse Gas Emissions of Self-Selected Individual Diets in France: Changing the Diet Structure or Consuming Less?,” Ecological Economics 75 (March 1, 2012): 91–101, https://doi.org/10.1016/j.ecolecon.2012.01.003.

In nome del fanatismo sovrano – Ingegneria sociale e potere delle comunità (seconda parte)

Fanatismo e fandom

Brittany Kaiser che volteggia senza accorgersi di nulla attraverso uffici in cui viene forzato il risultato delle elezioni degli Usa e il referendum sulla Brexit, e i sostenitori di QAnon che credono alle cospirazioni del Deep State, possono corroborare la suggestione che «internet ci renda stupidi», come temeva Nicholas Carr (2011). Senza dubbio una parte delle risorse di comunicazione in Rete conta sulla collaborazione degli utili idioti per attecchire e propagarsi, ma l’esperienza ordinaria dovrebbe insegnarci ad ammettere che le tecnologie digitali hanno avvolto il nostro mondo come se fossero l’involucro di un dispositivo (Floridi, 2014), accrescendo, o almeno trasformando, la maneggevolezza di questo mondo-elettrodomestico. Ciascuno di noi vive il suo QAnon, in compagnia di nicchie più o meno ristrette di amici, che condividono la stessa concezione del mondo. Il problema non è solo la bacheca di Facebook, ma le recensioni di TripAdvisor con cui scegliamo il ristorante e i piatti da assaporare, quelle di Airbnb per selezionare la casa dove fermarsi qualche notte, le foto di Instagram per sapere quale deve essere il nostro stile di vita. La realtà viene letta con i servizi di georeferenziazione disponibili sul cellulare o addirittura sullo smartwatch. Gli algoritmi delle tecnologie indossabili ci rimproverano l’adipe accumulata nel ristorante scelto con TripAdvisor, si allarmano se stiamo camminando troppo, o ci irridono per la stanchezza prematura, ci mettono in competizione con gli amici e con gli sconosciuti (che per caso hanno stessa età, peso e altezza, e probabilmente hanno frequentato le stesse trattorie); quelli del termostato di casa verificano se il nostro consumo di energia è virtuoso o spregevole rispetto ai vicini. Scelgono la musica che ci piace, e persino la fidanzata (o il fidanzato) ideale, prediligendo i rapporti con una data di scadenza ravvicinata: in fondo anche il sesso si consuma, ed è quindi destinato a obsolescenza precoce. In questo contesto, Cambridge Analytica ha commesso l’errore di aver suggerito in Donald Trump il partner sbagliato ad un’intera nazione, per un rapporto della durata di quattro anni – svista giustamente pagata con il fallimento dell’agenzia elettoral-matrimoniale.

Aja Romano (2024) ricorre al termine stan (crasi di stalker fan), con cui si denotano i seguaci delle star della musica pop e di Hollywood, per spiegare il tipo di coinvolgimento che (il team elettorale di) Trump ha generato presso i sostenitori dell’ex presidente, in vista delle elezioni del prossimo novembre. I leader politici sono circondati dalla stessa aura di mito che caratterizza il fanatismo per le celebrità dello spettacolo e dello sport; i sostenitori partecipano dell’identità della comunità con la stessa carica assiologica che solidarizza i tifosi di una squadra o gli ammiratori di una leggenda del rock. La comunicazione con i fan non è mediata dai corpi intermedi delle istituzioni e della stampa, perché tutte le distanze sono abrogate dall’istantaneità della conversazione su X, su Instagram, o su Tiktok. Il ritardo richiesto dalla riflessione e dalla valutazione razionale viene soppresso nell’immediatezza del colloquio, con la sua emotività e la sua visceralità. Huwet (2023) ha chiarito come il fandom di Harry Potter sia diventato il terreno di coltura per alimentare (e finanziare) la setta degli Altruisti Efficaci in America.

L’iscrizione in una comunità, da cui ci si sente osservati e giudicati, rende percepibile per i frequentatori dei social media la pressione delle opinioni e delle valutazioni degli altri in modo diretto. Uno studio condotto nel 2016 con metodologie di Big Data Analysis da Quattrociocchi, Scala e Sunstein, ha mostrato che su Facebook non esistono differenze tra i comportamenti delle comunità di coloro che sono – o si ritengono – competenti su temi scientifici, e dei gruppi che recepiscono, diffondono e amplificano le opinioni cospirazioniste e antiscientifiche. Gli argomenti di cui dibattono sono opposti per segno ideologico, ma la polarizzazione che sospinge ciascuno a identificarsi con la posizione della propria comunità, e a scorgere nelle obiezioni solo un’espressione di disonestà intellettuale o economica, è una e la stessa come la via in su e quella in giù di Eraclito. È possibile distinguere i cluster per la velocità di propagazione dei post e per il numero di bacheche raggiunte, ma non per la resistenza a ogni forma di debunking, volto a dimostrare l’infondatezza delle informazioni condivise dai membri della comunità. Il ricorso alla ragione, con argomenti e prove fattuali, non solo è destinato al fallimento, ma genera un «effetto boomerang» (Hart e Nisbet, 2012) che incrementa la fiducia nei pregiudizi della comunità: il fact checking tende a scatenare una reazione contraria alla sua destinazione, promuovendo la ricerca di conforto da parte dei confratelli sulla validità delle notizie contestate, e intensificando la polarizzazione delle opinioni.

 

Eco sociale e comunità scientifica pre-print

La social network analysis ha elaborato modelli matematici che misurano l’interazione tra individuo e collettività, e permettono di correlare la chiusura di una rete sociale alla larghezza di banda nella circolazione delle informazioni e alla fiducia che i membri ripongono nella loro validità (oltre a quella che attribuiscono alle persone che le diffondono). Con l’aiuto dell’immaginazione si può intuire che il passaggio delle notizie accelera nelle comunità in cui ognuno conosce ogni altro componente, e che questo movimento vorticoso consegna più volte lo stesso contenuto a ciascun soggetto, recapitandolo da fonti in apparenza indipendenti le une dalle altre. Il turbine dell’informazione suscita una sensazione di urgenza che cresce ad ogni ripresentazione della notizia, impone l’imperativo del suo rilancio, ispira fede nella sua verità.

Lo strumento essenziale delle piattaforme online sono gli algoritmi che identificano i cluster di utenti con interessi simili. La geodetica di una rete è il numero di passaggi che collega i due nodi più distanti compiendo il percorso più breve possibile. Secondo il famoso esperimento di Milgram del 1967 la geodetica dell’intera umanità conterebbe sei gradi di separazione; Facebook conta oltre due miliardi di iscritti, ma secondo uno studio del 2012 la sua geodetica è di soli 3,75 passi. La densità delle relazioni umane è molto più fitta di quanto ci immaginiamo, e la larghezza di banda che misura il potenziale di circolazione delle notizie è ampia in misura direttamente proporzionale.

In questo intrico di connessioni, sono gli algoritmi dei motori di ricerca e dei social media a decidere cosa deve essere letto e da chi: sono quindi i loro pregiudizi a stabilire il grado di perspicacia o di ingenuità degli individui, o almeno a intensificare le loro inclinazioni personali. Sembra la versione moderna della Grazia divina, che secondo Lutero distingue a priori i sommersi e i salvati; ma nell’immanenza della realtà profana, questo è il sintomo della sostituzione della classe sociale che alimentava comitati scientifici e peer reviewer con un nuova struttura di potere, che alimenta la produzione e la certificazione della verità fondandola sul prestigio degli algoritmi, dei big data, e su una diversa divisione del lavoro linguistico, con una nuova distribuzione delle competenze e delle comunità di esperti. Uno studio di West e Bergstrom del 2021 documenta la tendenza anche da parte degli scienziati ad affidarsi a Google Scholar per la ricerca di saggi, e a seguire le segnalazioni dei colleghi sui social media. Ma l’algoritmo del motore tende a premiare i contenuti che ottengono più link e più citazioni, così come le piattaforme di social network incrementano la visibilità dei profili e dei contenuti che ottengono più like e più interazioni. Robert Merton ha battezzato «effetto San Matteo» il risultato di questo comportamento: chi vince piglia tutto. Tra i contenuti vincenti nell’ambito scientifico si trovano anche citazioni scorrette che vengono replicate a oltranza, nonché saggi in versioni pre-print che non hanno mai passato la peer review, o che includono errori in seguito emendati – senza alcun riguardo per le correzioni.

Non so se la crisis discipline debba farsi carico di mettere in salvo la specie dei sostenitori di QAnon dai memi di QAnon, contro la loro stessa volontà; ma di certo serve una nuova interpretazione della realtà che la osservi come il prodotto di un nuovo ecosistema. La tecnologia sovrappone al mondo piani di leggibilità e di utilizzabilità, anzi, li iscrive nel mondo stesso – e non saremo noi, né alcun altro Artù, a poterli estrarre. Se li conosci non li eviti, ma almeno puoi provare a capirli.

 

 

BIBLIOGRAFIA

Aubenque, Pierre, Le problème de l’Être chez Aristote. Essai sur la problématique aristotélicienne, PUF, Parigi, 1962.

Austin, John, How to Do Things with Words: The William James Lectures delivered at Harvard University in 1955, Clarendon Press, Oxford 1962.

Backstrom, Lars; Boldi, Paolo; Rosa, Marco; Ugander, Johan; Vigna, Sebastiano, Four degrees of separation, «Proceedings of the 4th Annual ACM Web Science Conference, June 2012», pagg. 33–42

Bak-Coleman, Joseph B.; Alfano, Mark; Barfuss, Wolfram; Bergstrom, Carl T.; Centeno, Miguel A.; Couzin, Iain D.; Donges, Jonathan F.; Galesic, Mirta; Gersick, Andrew S.; Jacquet, Jennifer; Kao, Albert B.; Moran, Rachel E.; Romanczuk, Pawel; Rubenstein, Daniel I.; Tombak, Kaia J.; Van Bavel, Jay J.; Weber, Elke U., Stewardship of global collective behavior, «Proceedings of the National Academy of Sciences», 6 luglio 2021, n.118.

Butcher, Mike, The CEO of Cambridge Analytica plans a book on its methods, and the US election, «TechCrunch», 6 novembre 2017.

Carr, Nicholas, The Shallows. What Internet is Doing to Our Brains, W. W. Norton & Company, New York, 2011.

Floridi, Luciano, The Fourth Revolution. How the Infosphere is Reshaping Human Reality, OUP Oxford, 2014.

Girard, René, Le Bouc émissaire, Grasset, Parigi, 1982.

Hamilton, Isobel Asher, Plans to storm the Capitol were circulating on social media sites, including Facebook, Twitter, and Parler, for days before the siege, «Business Insider», 7 gennaio 2021

Hart, Sol; Nisbet, Erik, Boomerang effects in science communication: How motivated reasoning and identity cues amplify opinion polarization about climate mitigation policies, «Communication Research», vol. 39, n.6, 1° dicembre 2012, pagg. 701-723.

Huet, Ellen, Effective altruism has bigger problems than Sam Bankman-Fried, Financial Review, 17 marzo 2023.

Kaiser, Brittany, Targeted, HarperCollins Publisher, New York 2019.

Merton, Robert, Social Theory and Social Structure,II, New York, The Free Press, 1968.

Milgram, Stanley, The Small-World Problem, in «Psychology Today», vol. 1, no. 1, Maggio 1967, pp. 61-67

Pariser, Eli,The Filter Bubble. What the Internet is Hiding from You, The Penguin Press, New York 2011.

Quattrociocchi, Walter; Scala, Antonio; Sunstein, Cass, Echo Chambers on Facebook, «SSRN», 2795110, 13 giugno 2016.

Romano, Aja, If you want to understand modern politics, you have to understand modern fandom, «Vox», 18 gennaio 2024.

West, Jevin D.; Bergstrom, Carl T., Misinformation in and about science, «Proceedings of the National Academy of Sciences», aprile 2021, vol. 118, n.15.

 


In nome del fanatismo sovrano - Ingegneria sociale e potere delle comunità (prima parte)

1 Cambiare l’opinione

Brittany Kaiser era la business developer di Cambridge Analytica, l’azienda accusata di aver consegnato a Donald Trump la vittoria delle elezioni presidenziali del 2016 ricorrendo a tattiche di microtargeting sui social network. Alexander Nix, il CEO che l'ha assunta nel 2014 e licenziata nel 2018, sostiene in un’intervista a Mike Butcher (2017) che l’agenzia abbia processato dati provenienti da Facebook su 220 milioni di cittadini americani, estraendone le informazioni necessarie per profilare messaggi personalizzati di propaganda pro-Trump. Le confessioni della Kaiser, raccolte nel libro Targeted (2019), si riassumono nell’attante «non capivo, non sapevo, ho solo obbedito agli ordini», e sono considerate tra le rivelazioni più importanti delle «talpe» interne all’agenzia.

Il tema che ha incuriosito la magistratura riguarda il modo in cui Cambridge Analytica ha acquisito e conservato i dati degli utenti del social network. Invece l’aspetto che sfida il talento ermeneutico della Kaiser, e che è interessante esaminare, è la presunta capacità della comunicazione digitale di cambiare le convinzioni delle persone, soprattutto in ambito politico, grazie all'identificazione dei temi cui ciascun individuo è più sensibile, e alla misurazione delle relazioni di influenza tra amici. La «talpa» Kaiser inferisce dalle affermazioni dei colleghi che Cambridge Analytica eseguisse una profilazione psicometrica degli utenti, ed elaborasse messaggi capaci di dirottare le loro scelte elettorali o commerciali in senso opposto a quello spontaneo. I Sofisti facevano qualcosa del genere con l’arte dialettica, ma Platone e Aristotele non si ritenevano delle talpe quando hanno denunciato la loro techne.

2 Polarizzare l’opinione

Le dichiarazioni di Alexander Nix, riportate nel libro, inducono però a credere che gli obiettivi dell’agenzia fossero diversi, più coerenti con le tesi sull’efficacia dei social media, condivise un po’ da tutti almeno dalla pubblicazione di The Filter Bubble (2011) di Eli Pariser. Gli algoritmi di Facebook, e delle piattaforme simili, tendono a rinchiudere gli individui in una bolla autoreferenziale, popolando le loro bacheche con i post degli amici e con i messaggi pubblicitari che confermano la loro visione del mondo, ed escludendo progressivamente i contributi in disaccordo. Se questa ipotesi è corretta, non si comprende in che modo il social network possa stimolare trasformazioni nella concezione politica delle persone. Alexander Nix spiega che Cambridge Analytica si proponeva di incentivare l’entusiasmo dei sostenitori spontanei del candidato-cliente, trasformandoli da spettatori ad attivisti della sua campagna; al contempo, tentava di raffreddare l’adesione dei cluster di elettori «naturali» degli avversari, demotivando la loro partecipazione alle iniziative di propaganda e disertando i seggi il giorno delle votazioni. Durante la sfida tra Donald Trump e Hillary Clinton, questo schema si è tradotto nella focalizzazione sugli Stati della Rust Belt, l’America nord-occidentale dove il candidato repubblicano ha vinto la corsa alla Casa Bianca, coinvolgendo i lavoratori del settore manifatturiero, spaventati dalla crisi occupazionale, e raffreddando il sostegno all’avversaria da parte delle comunità nere e LGBT.

Le campagne di comunicazione su Facebook sarebbero quindi efficaci nel modificare l’entusiasmo per una convinzione già stabilita, non nel cambiarla. La Kaiser ha una vocazione difficilmente eguagliabile per il travisamento e la distrazione, ma sulla difficoltà di inquadrare i veri effetti dei social media si trova in buona compagnia. Il 6 luglio 2021 la rivista PNAS ha pubblicato un saggio firmato da 17 ricercatori di biologia, ecologia e antropologia, che definiscono lo studio dell’impatto di larga scala delle tecnologie sulla società come una crisis discipline, ovvero come un ambito di indagine paragonabile a quello che viene adottato per salvaguardare alcune specie in via di estinzione, o per prevenire gli effetti peggiori dei cambiamenti climatici. Gli autori denunciano il fatto che le piattaforme digitali innescano processi di gestione del comportamento collettivo, ma mancano conoscenze di dettaglio sui meccanismi che mettono in opera il controllo, e metodi di misurazione della loro efficacia.

Le preoccupazioni dei ricercatori sono collegate a fenomeni di massa come il movimento complottista QAnon, nato nella bacheca del forum 4chan.org e rilanciato sui social media americani. Dall’ottobre 2017 una porzione sempre più ampia di cittadini Usa, di orientamento conservatore, vive in un mondo parallelo, con una storia elaborata da personaggi la cui identità rimane nascosta sotto i nickname di un gioco di ruolo disputato su varie piattaforme online. L’esercizio ludico consiste nella ricerca e nella sovrainterpretazione dei simboli che sarebbero cifrati nelle esternazioni dell’allora presidente Trump, nelle immagini dei politici divulgate dai giornali e dalle televisioni, nelle «soffiate» su presunti documenti segreti della CIA: il senso che viene rintracciato allude ad un conflitto sotterraneo tra le forze del bene e le insidie allestite da poteri forti che manovrano gli esponenti del Partito Democratico, i giornalisti delle testate più autorevoli del mondo, molte celebrità dello spettacolo, al fine di soggiogare il popolo americano e di imporre il dominio dei malvagi sull’intero pianeta. Gli avversari di Trump sono anche accusati di tutte le forme di empietà che René Girard (1982) ha rubricato tra i marchi del capro espiatorio, rintracciandoli in una narrativa culturale molto ampia, dai miti classici fino alle persecuzioni medievali: pedofilia, uccisione di bambini, cannibalismo, commercio con il demonio.

3 Mondi possibili e realtà aumentata

Le notizie che circolano di più e meglio sono una struttura coerente che forma un mondo abitabile, anche quando la sua trama è un cartone animato per bambini come QAnon. I Sofisti non arrivavano fino a questo punto; secondo Aubenque (1962) potrebbero averlo fatto Platone e Aristotele. Esiste un mondo possibile popolato dalle migliaia di persone che sciamano ai raduni di QAnon, dalle centinaia di migliaia che vedono e condividono i post con il suo hashtag, dai milioni che seguono i profili da cui vengono pubblicate le sue dichiarazioni. Per lo più le informazioni circolano sotto forma di memi (come accade ormai ovunque, dentro e fuori le campagne elettorali): post che mostrano un design perfetto per diffondersi senza attriti, non subire modifiche nel corso dei passaggi, sedurre l’immaginario e non pretendere nessuno sforzo di lettura.

La calata barbarica sul Campidoglio del 6 gennaio 2021, che si proponeva di impedire la ratifica da parte del Congresso dell’elezione di Joe Biden, è stata orchestrata da migliaia di account collegati a QAnon su Twitter (Hamilton, 2021); ma già il 4 dicembre 2016 un ventottenne della North Carolina si era pesentato alla pizzeria Comet Pong Pong di Washington per fucilare di persona i Democratici che (nel suo mondo) vi tenevano segregati bambini innocenti. Pizzagate è l’etichetta di un complotto, parallelo a Qanon, che mostra come la realtà online sia da molto tempo debordata fuori dagli schermi dei computer, trasformando i software dei forum dei fandom in hardware, nella realtà aumentata in cui vivono i fan stessi (in questo caso quelli di Trump). Quando John Austin (1962) spiegava «come fare cose con le parole», certo non immaginava che le narrazioni intessute da un gioco di ruolo avrebbero assunto il potere performativo di prescrivere una strage, o che gli storytelling del fandom di un presidente avrebbero ordito un colpo di stato in formato carnevale. In fondo, ogni epoca ha le talpe e le rivoluzioni che si merita: ad Atene sono toccati Platone e Pericle, a noi la Kaiser e lo Sciamano.

Meditate gente, meditate.


Neuroscienze e giudizio morale - Emozione e razionalità appartengono a sistemi distinti?

L’oggetto di questa controversia è il modello di funzionamento dei correlati neurali dei giudizi morali.

Nell’ambito delle neuroscienze (vedi i due articoli precedenti: Il libero arbitrio oltre il dibattito filosofico – Incontro con le neuroscienze e Incontri con le scienze empiriche) sono stati fatti numerosi studi che si appoggiano alle tecniche di neuroimaging funzionale, seguendo tre filoni principali di lavoro:

  1. Lo studio di pazienti con danni o lesioni cerebrali e pazienti con patologie psichiatriche (“Bad brains”, Greene 2014a, 2020);
  2. L’analisi della valutazione morale di certi atti o situazioni da parte di individui sani (“Good brains”, ibid.);
  3. Lo studio delle modificazioni cerebrali durante la valutazione di dilemmi morali come il Trolley dilemma, il Footbridge dilemma e il Crying Baby dilemma.

 


Per contestualizzare meglio, ecco qualche definizione e informazione sugli studi con pazienti con lesioni cerebrali e sui tre principali dilemmi morali:

PAZIENTI CON LESIONI CEREBRALI

Le ricerche su pazienti con lesioni cerebrali o patologie psichiatriche offrono dati interessanti per l’indagine sul coinvolgimento di determinate aree del cervello nella realizzazione di varie funzioni cognitive.

Qualsiasi studio relativo a pazienti con lesioni cerebrali connesse alla sfera del comportamento sociale non può non fare riferimento al lavoro di Antonio Damasio. La sua prima opera divulgativa, “L’errore di Cartesio” (1994), è un’esposizione delle ricerche sull’emozione a livello cerebrale e le loro implicazioni in ambito decisionale, soprattutto nella sfera del comportamento sociale. Tali ricerche hanno preso avvio dall’osservazione di soggetti con lesioni alla corteccia prefrontale ventromediale, i quali mostrano un comportamento atipico soprattutto in relazione al giudizio etico e alla condotta sociale. Come sostenuto da Damasio, sembra che questi individui abbiano una “razionalità menomata”, nonostante gli elementi associati convenzionalmente a un buon funzionamento della ragione non siano in alcun modo danneggiati. Tra questi ultimi in genere figurano: la memoria, l’attenzione, il linguaggio, la capacità di calcolo e la capacità di ragionamento logico per problemi astratti (Damasio, 1994, pp.18-19). Il primo caso storicamente registrato di questo tipo di lesioni è quello di Phineas Gage, caposquadra di un gruppo di costruzioni ferroviarie, vissuto in America durante il XIX secolo, e il cui teschio è oggi conservato a Boston, al Warren Medical Musem della Harvard Medical School.

TROLLEY DILEMMA

Il Trolley Dilemma o Dilemma del carrello, proposto originariamente da Philippa Foot nel 1967, descrive un treno che corre senza controllo su un binario dove più avanti sono legate cinque persone, mentre su un binario alternativo c’è una sola persona legata; il quesito è se sia legittimo tirare una leva in modo da deviare il treno sul secondo binario e uccidere una sola persona anziché cinque. Generalmente, le persone tendono a considerare moralmente accettabile tirare la leva in virtù di un’analisi costi-benefici.

I protagonisti della controversia sono tre neuroscienziati: da una parte lo psicologo statunitense J. Greene; dall’altrail filosofo statunitense Shaun Nichols e il filosofo tedesco Hanno Sauer. Essi si concentrano soprattutto sul terzo tipo di studi.

FOOTBRIDGE DILEMMA

Il Footbridge Dilemma è stato formulato da Judith Jarvis Thomson nel 1976 e descrive una situazione analoga alla precedente ma, anziché avere la possibilità di tirare la leva, si chiede se sia legittimo buttare giù da un ponte che passa sopra il binario un uomo molto grasso, il quale fermerebbe il treno perdendo al tempo stesso la vita. In questo caso le persone non considerano moralmente accettabile compiere l’atto, nonostante secondo un’analisi costi-benefici il risultato sarebbe lo stesso del problema precedente. Quindi, i soggetti a cui viene sottoposto i test tendono a ritenere accettabile deviare il treno nel primo caso, ma non ritengono lecito spingere l’uomo dal ponte (Songhorian, 2020, p.77). Perché le persone rispondono in modo diverso ai due scenari?

CRYING BABY DILEMMA

La formulazione del Crying Baby dilemma è la seguente: “In tempi di guerra tu e alcuni concittadini vi state nascondendo da dei soldati nemici in un seminterrato. Tuo figlio comincia a piangere e tu gli copri la bocca per far sì che non se ne senta il suono. Se togli la mano il bambino piangerà, i soldati lo sentiranno, troveranno te e i tuoi compagni e uccideranno tutti quanti, compreso te e il tuo bambino. Se non togli la mano, tuo figlio morirà soffocato. È legittimo soffocare tuo figlio per salvare te stesso e gli altri?”


 

GREENE e il modello della “macchina fotografica” o del doppio processo

Joshua Green ha dedicato gran parte del suo lavoro all’approfondimento del perché i dilemmi del carrello, Footbridge e Crying Baby, apparentemente simili nel risultato, suscitano risposte diverse e reazioni discordanti nei soggetti a cui vengono sottoposti.

Uno dei punti chiave dell’analisi è il fatto che i dilemmi presentano forme diverse di problematiche morali, che interessano in modo differenziato l’area delle “violazioni personali” - violazioni che comportano un grave danno fisico, ad una persona specifica, in modo che il danno non sia il risultato di un effetto collaterale di un’azione rivolta altrove (come dire: “io danneggio te”), e quella dei temi morali impersonali - quelli dell’utilità generale, per esempio, meno coinvolgenti nell’immediato.

Greene ha provato ad osservare, attraverso le tecniche di neuroimaging funzionale, l’attività cerebrale degli individui mentre cercano di rispondere a questi dilemmi.

I risultati del neuroimaging, con tempi diversi – più rapidi per i problemi che implicano le violazioni personali” e più lenti negli altri casi -  e aree cerebrali coinvolte diverse, hanno suggerito a Greene che nel giudizio morale vi sia una dissociazione tra i contributi affettivi e quelli cognitivi, e che le persone tendano a esprimere i loro giudizi morali sulla base di due sistemi cerebrali distinti, uno più emotivo e un altro più razionale. Questa distinzione è stata corroborata – secondo Greene – anche dal fatto che sembra esserci una correlazione tra i sistemi cerebrali e il tipo di giudizi che questi producono: le aree del cervello associate all’emozione tendono a suscitare giudizi impulsivi che prendono la forma di giudizi deontologici, quindi giustificati in termini di diritti e doveri; le aree del cervello associate al ragionamento producono, invece, giudizi fondati su un’analisi costi-benefici.

Green propone, quindi, il modello della “macchina fotografica”; in analogia con le due modalità di funzionamento della fotocamera (una modalità automatica e una manuale, ciascuna con caratteristiche più adatte ed efficienti in situazioni diverse); così l’essere umano giudica moralmente servendosi di due processi differenti, di due sistemi cerebrali distinti che non possono funzionare congiuntamente, ciascuno dei quali funziona meglio in determinate circostanze.

Secondo Greene, l’analogia con la macchina fotografica è in grado di esprimere anche il compromesso tra efficienza e flessibilità di questi sistemi cognitivi: le risposte emotive, infatti, sono efficienti proprio in quanto istintive, mentre le risposte razionali sono flessibili perché si servono del ragionamento per perseguire obiettivi a lungo termine, prevedendo e programmando i comportamenti necessari. L’autore ritiene che a supporto dell’idea che le aree emotive siano automatiche c’è il fatto che sono le stesse aree che presentano attività quando il cervello è a riposo o, come anticipato, quando è coinvolto in attività non tipicamente di “attenzione”. Per queste ragioni, solo le azioni che derivano da giudizi razionali sarebbero da ritenersi pienamente consce, volontarie e frutto di uno sforzo.

 

Le teorie alternative e concorrenti: Nichols e Sauer

Shaun Nichols propone una teoria che integra il ruolo dei due sistemi, basata su due tipi di studi empirici fondamentali (Songhorian, 2020, pp.88-95): il primo, che ha per oggetto la distinzione tra norme morali e norme convenzionali, definisce come non necessario presupporre una teoria della mente per tale distinzione poiché i bambini autistici, i quali non hanno buone capacità di comprensione degli stati mentali altrui, rispondono allo stesso modo dei bambini a sviluppo tipico nei test di riconoscimento dei due tipi di violazione; il secondo è quello relativo ai deficit di empatia degli psicopatici.

Nichols – a differenza di Greene - ritiene che vi siano due componenti integrate che costituiscono i giudizi morali: un meccanismo affettivo (che si attiva quando vediamo o sappiamo che gli altri soffrono) e una teoria normativa che impedisce di danneggiare gli altri.

Inoltre, egli definisce come teoria normativa qualunque insieme di regole interiorizzate che proibiscono certi comportamenti e afferma che sia possibile riscontrare la presenza di questi elementi in tutti quei giudizi che sono condivisi in maniera universale e transculturale.

In tal modo rende conto del perché gli psicopatici e i bambini prima dei due anni non siano in grado di formarsi giudizi morali; infatti, i bambini non dispongono di una teoria normativa e gli psicopatici non hanno un meccanismo emotivo concomitante tale teoria.

Sauer sviluppa la sua idea a partire dai risultati degli esperimenti di Greene sul dilemma dell’incesto consensuale; secondo Sauer, il fatto che dopo un tempo adeguato le persone ritengano accettabile l’incesto tra fratello e sorella è indicativo del fatto che le nostre intuizioni morali sono soggette al ragionamento razionale.

Quello di Sauer è un modello di “sfida e risposta”, per cui le intuizioni morali “sono soggette a continui miglioramenti, sovra-apprendimento e abituazione” (Sauer, 2017, p. 122, citato in Songhorian, 2020, p. 103).

A giudizio di Sauer, i nostri giudizi morali nascono da delle intuizioni emotive che possono essere integrate e corrette dalla riflessione e dal ragionamento, i quali vengono sollecitati proprio in risposta a una sfida; tuttavia, non sono solo frutto di un processo evolutivo soggettivo, ma anche socio-culturale. In questo modo riesce a integrare il ruolo di emozione e ragione nella cognizione morale e rende anche conto del processo evolutivo dei giudizi morali.

 

Differenze tra le tre teorie

Le teorie di Nichols e Sauer propongono entrambe una concezione non oppositiva di emozione e ragione, anche in linea con le tesi di Damasio, ma differiscono nei loro obiettivi polemici: il primo vuole mostrare che anche le regole morali devono essere sentimentali; il secondo compie il percorso inverso, cercando di mostrare che anche l’emozione ha bisogno del supporto del ragionamento (Songhorian, 2020, pp. 102-106).

Ciò che distingue queste teorie da quella di Greene è il fatto che gli autori in questione considerano i giudizi morali dei “processi”, in una prospettiva diacronica; mentre Greene li ritiene degli stati mentali puntuali, e non tiene, quindi, conto del loro carattere evolutivo, del perché i valori morali si modifichino nel corso della storia e del perché anche i singoli individui possano mutare prospettiva nei loro giudizi morali.

 

Conclusione

Le neuroscienze cognitive ci offrono oggi molte possibilità di approfondimento di svariate questioni filosofiche estremamente affascinanti e antiche, ma è evidente che siamo ancora agli inizi di questo nuovo approccio e le teorie che ne emergono devono ancora molto alla dimensione di costruzione sociale e – in alcuni casi – metafisica.

Dal confronto di queste tre prospettive sui giudizi morali sembra emergere anche l’enorme discordanza e opacità che vi è oggi in molte definizioni metaetiche; non certo fonte di scoraggiamento ma, anzi, indice del fatto che c’è un ampio spazio per nuove riflessioni filosofiche e sociologiche.

 

 


No news, bad news – Covid, due anni dopo: delle non-notizie che devono far riflettere

Alcuni giorni fa, uno dei più autorevoli quotidiani italiani ha pubblicato l’articolo “Il Covid, il laboratorio di Wuhan e le accuse rilanciate dal Nyt sulle responsabilità Usa: «Potrebbe essere stato l’incidente più dannoso nella storia della scienza»” sull’ipotesi che la diffusione del virus Sars-CoV-2 abbia avuto origine da un laboratorio di ricerca sui virus del ceppo Sars, a Wuhan, in Cina.

L’articolo del quotidiano italiano riprende un analogo testo del New York Times, intitolato “Why the pandemic probably started in a Lab – in 5 points” che “rilancia con forza l’ipotesi che il virus Sars-Cov-2 sia stato creato in laboratorio” e, inoltre, “lancia un atto di accusa ancora più pesante: che quel laboratorio abbia creato il virus nell’ambito di un progetto di ricerca a cui hanno collaborato organizzazioni americane finanziate dal governo degli Stati Uniti.”

A sostegno di questa ipotesi, il NYT (e il quotidiano italiano che dà spazio alla notizia) si appoggia all’opinione di Alina Chan, biologa molecolare canadese presso il MIT, autrice del libro Viral: The Search for the Origin of Covid-19 (Chan A. e Ridley M., New York: Harpers Collins, 2021), libro in cui utilizza queste presunte prove a suffragio della sua ipotesi:

  • La pandemia è iniziata a Wuhan, dove si trovava il più importante laboratorio di ricerca sui virus simili alla Sars;
  • Nel 2018 il laboratorio di Wuhan, in collaborazione con EcoHealth Alliance (un’organizzazione scientifica americana che è stata finanziata con 80 milioni di dollari dal governo degli Stati Uniti) e l’epidemiologo dell’Università del North Carolina Ralph Baric, aveva elaborato un progetto di ricerca, chiamato Defuse, in cui progettava di creare virus simili al Sars-Cov-2;
  • I livelli di sicurezza del laboratorio di Wuhan (cioè le misure per evitare il rilascio accidentale di virus) erano molto più bassi di quelli richiesti dagli standard di sicurezza delle strutture di ricerca americane;
  • Non ci sono prove sostanziali per dire che lo spill-over, cioè il contagio da un’altra specie animale all’uomo, sia avvenuto in un mercato di Wuhan, come sostenuto dai cinesi.

Chan sottolinea, scrive il quotidiano italiano, che è perlomeno peculiare che «un virus simile alla Sars mai visto prima, con un sito di scissione della furina di recente introduzione, corrispondente alla descrizione contenuta nella proposta Defuse dell’istituto di Wuhan, ha causato un’epidemia a Wuhan meno di due anni dopo la stesura della proposta».

L’articolo continua affermando che “Tutto questo fa pensare che l’ipotesi di un virus costruito in laboratorio sia la più probabile.

Ora, se proviamo ad analizzare il contenuto della narrazione, emerge che:

  • il libro di Chan è del 2021;
  • gli elementi a favore dell'ipotesi fuga dal laboratorio sono tratte dal libro di Chan, quindi sono datati 2021;
  • l'articolo dice che non ci sono prove sostanziali per dire che lo spill-over sia avvenuto da animale non umano ad animale umano al mercato di Wuhan;
  • tuttavia, non sembra fornire prove sostanziali del contrario, cioè del fatto che il virus sia stato creato nel laboratorio di Wuhan né, tantomeno, che da quel laboratorio sia sfuggito.

David Hume non avrebbe dubbi: il nesso causale che l’articolo suggerisce tra ricerca a Wuhan e diffusione del virus è illusorio; al massimo si tratta – in assenza di altre prove sostanziali – di un caso di contiguità temporale e di posizione.

Quindi, non sembrano esserci notizie nuove sull’origine della diffusione del virus, ma solo congetture, coincidenze, contiguità non causali, dette 3 anni fa.

Perché, quindi, il New York Times e il quotidiano italiano dedicano la loro attenzione a delle non – notizie?

Perché nei giorni precedenti, Anthony Fauci, immunologo a capo del National Institute of Allergy and Infectious Diseases fino al 2022, e guida della strategia degli Stati Uniti sul Covid, è stato sentito alla Camera statunitense sulle (presunte) responsabilità del governo USA nella pandemia e sul suo (presunto) ruolo nell’averle nascoste; durante l’audizione, Fauci ha dichiarato: «È falsa l’accusa che io abbia cercato di coprire l’ipotesi che il virus potesse essere nato da una mutazione creata in laboratorio. È vero il contrario: in una email inviata il 12 febbraio 2020 chiesi di fare chiarezza e di riportare alle autorità preposte».

Le vere notizie, quindi, sembrano essere queste:

  • che prendendo spunto dalla deposizione di Fauci, che ha dato spunto a un articolo del NYT, che a sua volta non dà altre notizie, il quotidiano italiano tratta come notizia il fatto che non ci sono notizie e prova, in questo modo sottile, a sostenere l'ipotesi di Chan, trattandola in modo che sembri altamente probabile;
  • che il rilancio dell’ipotesi di Chan, più che sulla solidità fattuale e causale, e a dispetto della dimensione fortemente congetturale, è fondato sull’autorevolezza della ricercatrice, “che lavora al Massachusetts Institute of Technology (Mit) e ad Harvard[1]
  • che il NYT e il quotidiano italiano usano una notizia politica (l’audizione di Fauci) per parlare d’altro, altro in cui non ci sono affatto notizie, ma solo riesumazione di congetture, per di più datate.

C’è, però, un’ultima notizia, più importante, da leggere fra le righe: che non si parla seriamente di un’ipotesi - quella della produzione in laboratorio del virus e della possibile “fuga” – che, invece, meriterebbe indagini e approfondimenti seri, circostanziati e trasparenti; non tanto per attribuire responsabilità, ma per capire:

  • se e dove vengono fatte ricerche su agenti virali ad alto rischio;
  • come vengono fatte;
  • e soprattutto perché vengono fatte e quali sono le fonti dei finanziamenti che le rendono possibili.

 

NOTA

Tutti i corsivi virgolettati sono tratti dall’articolo Il Covid, il laboratorio di Wuhan e le accuse rilanciate dal Nyt sulle responsabilità Usa: «Potrebbe essere stato l’incidente più dannoso nella storia della scienza», Corriere della Sera, 4 giugno 2024.

[1] Sul tema del ruolo dell’autorevolezza degli scienziati si può vedere: Gobo G. e Marcheselli V, Sociologia della scienza e della tecnologia, Carocci Editore, 2021, Cap. 7; Collins H.M. e Evans R., The third wave of science studies: studies of expertise and experience, in “Social studies of science”, 32, 2, pp. 235-96; Collins H.M. e Pinch T., Il Golem, Edizioni Dedalo, 1995, Cap. VI.

 

 

 

 


Perché l’astensionismo… “fa bene” ai partiti, specie a quelli più grandi

Nei giorni scorsi si sono sentiti accorati appelli bipartisan ad andare a votare.

E diversi quotidiani hanno presentato con preoccupazione il fenomeno (crescente) dell’astensionismo, il quale (secondo loro) “agitava i partiti”, “incombeva sul voto”, sul quale “pendeva la mannaia dell’astensione”.

Insomma, sembravano tutti allarmati per l’astensionismo.

In realtà l’astensionismo giova ai partiti, soprattutto a quelli più grandi. Infatti, meno persone vanno a votare e più essi si rafforzano.

Sembra un’affermazione assurda, un’enormità; invece (dati alla mano) è perfettamente plausibile.

Già il sociologo Niklas Luhmann, più di quarant’anni fa (Soziale Systeme, Frankfurt am Main, Suhrkamp, 1984. Trad. it. Sistemi sociali. Fondamenti di una teoria generale, Bologna, Il Mulino, 1990), sosteneva che il consenso era strutturalmente una risorsa scarsa nelle democrazie occidentali. Per cui non valeva la pena di dannarsi tanto nell’ottenerlo, perché scarso comunque sarebbe restato. In altre parole, si può benissimo governare… con poco consenso.

Passiamo ora ai dati.

Diverse leader di partito, nelle scorse ore, hanno esultato per essere aumentate di qualche punto percentuale. Ad esempio il PD nelle elezioni europee precedenti (2019) aveva ottenuto il 22,74%; ora, invece, il 24,08%: un punto in mezzo in più. Che diventano ben 5 rispetto alle ultime elezioni politiche (19,04%).

Ma se andiamo a vedere i valori assoluti (avvertenza che si impara alla prima lezione di un qualsiasi corso di statistica), scopriamo che i voti per i partiti più grandi sono calati, e anche di molto. In altre parole, i voti calano ma le percentuali aumentano. E i politici (e i giornalisti) guardano solo le seconde, dimenticando (furbizia? malafede? ignoranza?) i primi.

Non ci credete? Date un’occhiata alla tabella:

(Fonti dati: Elezioni Europee 2019, Elezioni Europee 2024, Elezioni  Politiche 2022)

Così può capitare che FdI perda quasi mezzo milione di voti rispetto alle Politiche di due anni fa, ma salga miracolosamente del quasi 3%. Che il PD prenda soltanto 250mila voti in più rispetto alle Politiche ma faccia un balzo del 5%; e che ne perda quasi mezzo milione rispetto alle scorse europee ma salga di 1 punto e mezzo. Che la Lega e Forza Italia perdano rispettivamente 340mila e 291mila voti rispetto alle Politiche, ma salgano di qualche decimo.

Invece questo non succede con i partiti minori (vedasi +Europa), che quando perdono voti, perdono anche decimi percentuali.

Facciamo un ragionamento per assurdo: se alle prossime elezioni vanno a votare solo 10 persone su 1000 aventi diritto, e queste danno 3 voti a FdI, 3 al PD, 2 al M5S, 1 alla Lega e 1 Forza Italia, questi partiti prenderanno rispettivamente il 30%, 30%, 20%, 10% e 10%, pur avendo perso tutto l’elettorato e con un’astensione pari al 99%.

Perché, diversamente dai sondaggi, dove i ‘non so’ si espungono (giustamente) dalle percentuali finali — non si può attribuire un’opinione a chi dice di non averla — nelle elezioni questo non avviene: il voto viene attribuito anche a chi non vota [1].

E questo viene fatto presupponendo una distribuzione (partiticamente) omogenea delle astenute. Ma così assolutamente non è: coloro che non vanno a votare sono tendenzialmente le persone più critiche nei confronti del sistema politico (e non solo le “indifferenti” o qualunquiste, che potrebbero essere equamente distribuite).

Quindi non è vero che 1 vale 1. Al contrario: l’1 del votante (con alti tassi di astensionismo) vale molto di più. Con il 50% di astensionismo, vale 2. E con un ipotetico 99% di astensionismo vale quasi 100!

In questo modo le elezioni sono (matematicamente) delle ponderazioni, degli artifizi, delle manipolazioni aritmetiche.

Per cui 10 votanti (l’1%) contano come il 100% e si distribuiscono i 76 seggi europarlamentari. In questo caso (assurdo), gli eletti sarebbero più dei votanti… cioè qualche eletto non sarebbe andato a votare…

Allora è chiaro perché i partiti più grandi (quelli sopra il 10%) non hanno interesse a combattere seriamente l’astensionismo. Perché se anche porta a loro meno voti, alza però le loro percentuali. E sono queste (malauguratamente) quelle che contano.

Per cui colei/colui che non va a votare, fa (indirettamente) il gioco dei partiti più grandi.
Perché il suo non-voto se lo prendono lo stesso…

 

 

NOTE

[1] Nei sondaggi l’astensionista corrisponde alla nonrespondent, persona che non ha voluto partecipare al sondaggio. In questi casi la sondaggista interviene in due modi: 1) con una “riserva”, cioè sostituendo la nonrispondente con un'altra (socio-demograficamente) simile a lei; oppure, 2) con una “ponderazione”, cioè attribuendo (mediante un coefficiente) fittiziamente l’opinione media di quelle che hanno risposto (nel senso di aver partecipato al sondaggio) a coloro che non l’hanno fatto. Ma entrambe queste operazioni hanno dei limiti e, soprattutto, la ponderazione è sconsigliata quando il fenomeno nonresponse supera il 50% (come nel caso di queste ultime elezioni europee). Per un approfondimento: Gobo, G. (2015), La nuova survey. Sondaggio discorsivo e approccio interazionale, Roma, Carocci, pp. 201-202.


Seveso, 1976 - Il Comitato tecnico scientifico popolare: nascita e programma di lotta

La conservazione delle tracce del “disastro” dell’Icmesa e di quello che ne seguì è stata una pratica che accomuna le persone di Seveso e dei comuni limitrofi: le memorie sevesine sono sepolte nel sottobosco del Bosco delle Querce e nelle cantine delle case private. È come se a Seveso esistesse un mondo di sotto che si è stratificato con il passaggio della nuvola-nube nel mondo di sopra e che, se sollecitato, riaffiora.

-----

Ricercando questo mondo sotterraneo, una delle storie che riemerge è quella del Comitato tecnico scientifico popolare. In una video-intervista conservata da “Archivio Seveso. Memoria di parte”, uno degli studenti di medicina protagonisti del CTSP ne ricorda la genesi e la composizione eterogenea, che coinvolgeva studenti, operai, medici, sindacalisti. L’intervistato, quando si è sprigionata la nube tossica a Seveso, era un giovane laureando in medicina e ricorda che nei momenti immediatamente successivi al “disastro” nella sua facoltà si era formato un gruppo di persone che volevano approfondire questa situazione, a partire «dalla situazione reale, dalla situazione della gente»[1].

È nato così il CTSP, a partire da alcuni operai del Consiglio di Fabbrica, da studenti che stavano finendo la facoltà di medicina, da professori universitari, come Giulio Alfredo Maccacaro, e da sindacalisti.

Tra i materiali conservati nell’“Archivio Seveso. Memoria di parte” sono presenti i documenti, i ciclostilati, le lettere e i volantini del CTSP.

Il Comitato esplicitò i propri obiettivi nel bollettino pubblicato nel settembre del 1976, ponendosi in contrapposizione con l’operato delle istituzioni locali, regionali e nazionali che – secondo il CTSP – avevano coperto e soffocato ogni tipo di protesta e di organizzazione degli abitanti della zona, non fornendo sufficienti informazioni sulla situazione per fare maturare una consapevolezza collettiva del rischio.

Rifiutando il principio di delega, il CTSP intendeva allargare il proprio intervento attraverso il coinvolgimento degli organismi di base della zona, degli organismi medici e socio-sanitari.

Le proposte del Comitato insistevano:

  • sull’educazione e sull’informazione sanitaria,
  • sulla necessità di accertamenti sanitari e scientifici controllati dal basso,
  • sull’importanza di un’opera di controinformazione atta a impedire qualsiasi tentativo di insabbiamento di responsabilità dell’industria, delle strutture scientifiche istituzionali e delle forze politiche.

Un altro aspetto importante per il Comitato era la generazione di una forma di lotta popolare mirata alla bonifica delle zone contaminate, alla salvaguardia del posto di lavoro, all’abbattimento della nocività nelle fabbriche e nel territorio e alla costruzione di nuovi servizi sanitari di base[2]. Per realizzare questi propositi, gli attivisti del CTSP proponevano un «programma di lotta» che intrecciava le questioni particolari e urgenti di Seveso con la dimensione di una lotta generale e strutturale.

Per questo oggi non possiamo limitarci a chiedere che vengano attuate solo le misure più urgenti in favore delle popolazioni colpite. Non basta rimediare ai disastri più gravi causati dalla nube: se non vogliamo un’altra Icmesa, dobbiamo batterci subito per cambiare le condizioni di lavoro in fabbrica e abbattere la nocività, per ottenere un’assistenza sanitaria realmente orientata alla prevenzione, per conquistare nuovi servizi sociali, a partire dalla casa (Asmp, b. CTSP, Bollettino del Comitato tecnico scientifico popolare, settembre 1976).

----

Il passaggio dalla dimensione particolare a quella generale si inseriva nell'eccezionalità del “disastro” sevesino perché per la prima volta in Italia la nocività non rimaneva un problema solo interno alla fabbrica, ma usciva ed «esplodeva letteralmente sul territorio» (Intervista ad abitante di Seveso, gennaio 2024).

Secondo il CTSP, per rispondere alle domande che la vicenda dell’Icmesa aveva sollevato in merito alla relazione tra lavoro, salute e ambiente, era necessario organizzare una mobilitazione operaia, territoriale e di massa.

Si trattava di una proposta che si opponeva alla marginalizzazione di chi era stato colpito dalla “nuvola-nube” e cercava di combinare il rifiuto della semplice fruizione di ordinamenti esistenti con la richiesta di partecipazione attiva (Koensler, Rossi 2012, p. 7).

La pratica militante del CTSP tentò – quindi - di portare fuori dalla fabbrica gli strumenti di indagine e di inchiesta di cui il movimento operaio si era dotato per portare la soggettività operaia al centro delle lotte dei lavoratori (Carnevale, Baldasseroni 1999, pp. 230-283).

Così le pratiche utilizzate per capire le conseguenze sanitarie e ambientali della diffusione della diossina affondavano le loro radici in una concezione della medicina non “oggettiva”, ma che si poneva l’obiettivo di coinvolgere direttamente gli abitanti delle zone colpite. La soggettività delle persone coinvolte era il punto di partenza per le ricerche scientifiche del CTSP.

L’idea di salute e di cura proposte si basavano sull’inclusione delle persone che nei territori contaminati vi abitano all’interno del discorso,  perché il loro sapere e i sintomi accusati, in un tempo preciso e in un luogo determinato, sono fonti di conoscenza fondamentali per la pratica medica.

Il Comitato, a partire dalle esperienze dei gruppi omogenei di fabbrica, e dalle loro elaborazioni di salute e malattia, concepiva la salute nel quadro di una liberazione di sé,

«dove i soggetti devono avere voce e non subire le decisioni degli ospedali che non sono mai neutre»
(Intervista ad abitante di Seveso, gennaio 2024).

Ammalarsi è una realtà sociale che mette in gioco rapporti di potere ed è espressione di molteplici modi di incorporare l’ordine socio-economico e le sue disuguaglianze che pongono gli individui e le comunità di fronte a rischi differenti.

Soprattutto chi viveva a Seveso ed era da pochi anni immigrato nella Brianza produttiva in cerca di lavoro, ha incorporato la produzione nociva e pericolosa dell’Icmesa (incorporation de l’inégalité), ha sperimentato il potere locale, regionale e nazionale incapace di guarire (pouvoir de guérir) e il governo della vita attraverso controlli biologici, evacuazioni, limitazioni e ordinanze (gouvernament de la vie).

Secondo gli studi del medico-antropologo Didier Fassin (Fassin 1996), le tre dimensioni appena menzionate costruiscono lo spazio politico della salute (Fassin 1996) ed è in esso che il CTSP ha giocato un ruolo fondamentale – anche se oggi è quasi dimenticato –  a Seveso per praticare e diffondere una concezione di salute e di medicina al servizio della popolazione e a partire dalla soggettività di quest’ultima, proponendo lo sviluppo di un’«eziologia politica» (Nguyen, Peschard 2003) delle patologie insorte in seguito al “disastro”.

 

 

NOTE

[1] Asmp, b. CTSP, Interviste-documentario “Seveso Memoria di parte”.

[2] Asmp, b. CTSP, Bollettino del Comitato tecnico scientifico popolare, settembre 1976.