Franco Basaglia e la legge 180: frammenti dello scenario sociale e politico

Franco Basaglia nasce a Venezia nel 1924, un anno e mezzo dopo la presa di potere fascista.

Cresce e studia tra regime fascista e Seconda guerra mondiale. Consegue la maturità classica nel 1943; poi, si iscrive a medicina a Padova, dove svolge anche attività antifascista, che lo porta all’arresto, nel dicembre del 1944. Resta in carcere fino ad aprile del 1945, alla fine della guerra.

Nel 1949 si laurea in medicina e inizia la pratica clinica nel dipartimento per le malattie nervose e mentali di Padova, studia con Roberto Belloni, pioniere della neurofisiologia clinica, della neurochimica applicata e della neuroradiologia, base diagnostica delle neuroscienze cliniche padovane.

Negli anni dell’Università e della pratica clinica si dedica anche allo studio filosofico, all’esistenzialismo di Sartre, alla psichiatria fenomenologia di L. Binswanger.

Nel 1953 si specializza in malattie nervose e mentali e sposa Franca Ongaro, che – a differenza di quanto spesso si pensa – non era medica, né psicologa, ma letterata. Con lei lavora per tutta la vita.

Dal 1953 al 1961, assistente di Belloni a Padova, si dedica alla ricerca e alla pratica clinica, come; nel 1958 ottiene la libera docenza in psichiatria.

Il 1961 è l’anno della svolta: Franco Basaglia inizia il rivoluzionario lavoro di direzione dell’ospedale psichiatrico di Gorizia.

Tra il 1961 e il 1970 visita una comunità terapeutica di Maxwell Jones in Scozia e le esperienze di apertura francesi. Nel 1967 cura il volume Che cos'è la psichiatria? e nel 1968 L'istituzione negata. Rapporto da un ospedale psichiatrico, che racconta l'esperienza di Gorizia.

Tra il 1970 e il 1971, dirige – per poco tempo – la struttura psichiatrica di Colorno, vicino a Parma e, nel 1971, accetta la direzione dell’ospedale psichiatrico di Trieste, enorme struttura che sorge sul colle di San Giovanni e ospita 1182 malati di cui 840 sottoposti a regime coatto.

Trieste è il luogo in cui mette in pratica, in modo ampio e completo, il suo approccio di normalizzazione della malattia mentale e di apertura dell’ospedale psichiatrico alla città e della città all’ospedale psichiatrico.

Nel 1973 fonda la Società Italiana di Psichiatria Democratica; nello stesso anno l’Organizzazione Mondiale della Sanità riconosce Trieste come zona pilota per la ricerca sui servizi per la salute mentale.

Il 1978 è l’anno in cui il suo approccio prende forma in termini istituzionali con l’approvazione della legge 13 maggio 1978, n. 180 - la Legge Orsini, chiamata quasi sempre Legge Basaglia – che abroga quasi completamente la legge del 14 febbraio 1904, n.36 e che impone la chiusura dei manicomi, regolamenta il trattamento sanitario obbligatorio e istituisce i servizi di igiene mentale pubblici.

Franco Basaglia nel 1980 prende servizio come coordinatore dei servizi psichiatrici della Regione Lazio – dove potrebbe mettere in pratica il modello di psichiatria aperta e territoriale ma, colpito da un tumore, muore nel mese di agosto, a 56 anni.

FRAMMENTI DI CONTESTO SOCIALE ED ECONOMICO

Per comprendere “dove e come” nascono ed evolvono il pensiero e l’opera di Franco Basaglia e dei suoi colleghi, abbiamo provato a isolare alcuni frammenti di contesto che esemplificano quale fosse lo stile di pensiero che ha accompagnato questa evoluzione.

FRAMMENTO #1– IL REGIME FASCISTA

Franco Basaglia studia tra fascismo e Seconda guerra mondiale e viene incarcerato per alcuni mesi tra 1944 e 1945, per attività antifascista. È il periodo in cui, gli eccessi fascisti e nazisti, le leggi razziali e la repressione politica stimolano il desiderio di libertà. Durante il regime fascista le libertà fondamentali, di parole, di movimento, di educazione e di professione sono negate e il manicomio – più che nel passato  -è usato come strumento politico, di contenimento, non solo della cosiddetta devianza sociale e mentale, ma anche della opposizione politica.

Un caso emblematico è quello di «Giuseppe Massarenti, leader del movimento bracciantile emiliano e poi sindaco socialista di Molinella – ricordato come il Santo del Socialismo italiano – fu mandato al confino nel 1926 e da lì seguirà un doloroso processo di impoverimento e di caduta nella marginalità che si concluse con il trasferimento alla Clinica delle malattie nervose e mentali di Roma prima e al celebre ospedale psichiatrico della capitale – il Santa Maria della Pietà – poi. Delirio paranoico la prognosi. Un classico» (Petracci M., I matti del duce. Manicomi e repressione politica nell’Italia fascista, 2014, Donzelli, XVIII, p. 238).

Durante il regime di Mussolini il numero di reclusi psichiatrici quasi raddoppia rispetto ai decenni precedenti, i manicomi italiani passano ad ospitare da 55 mila (dati del 1920) a 95 mila persone (dati del 1941)[1]

FRAMMENTO #2 – L’IMMEDIATO DOPOGUERRA

Il periodo della laurea e degli studi per la specializzazione scorre tra la fine della guerra e i primi anni ’60. Sono gli anni del boom economico, della scoperta del benessere, in Italia, per (quasi) tutti, della condanna delle miserie come quelle dei Sassi di Matera (la visita di P. Togliatti a Matera è del 1948), dell’affermazione di una nuova economia industriale – della Fiat che “importa” manodopera dal sud del Paese, della “fabbrica aperta” di Adriano Olivetti; sono anni in cui – sollevata dall’oppressione del regime, dalle disgrazie della guerra e dalla miseria delle difficoltà economiche - la società italiana può pensare anche a cose marginali: i matti e la malattia mentale, per esempio, le modalità coercitive in cui vengono trattati.

Nel 1957 Sergio Zavoli realizza il documentario radiofonico Clausura all’interno di un monastero di clausura delle Carmelitane scalze e – intervistando Padre Rotondi, cita Pio XII che, nell’enciclica Sponsa Christi aveva definito non più tollerabili certi disagi in cui vivono le monache di clausura.

Questo atteggiamento – però - non sembra toccare la facoltà di medicina di Padova e – in particolare – l’istituto di malattie nervose e mentali, diretto da Belloni, che era «intriso di positivismo scientista e lombrosiano […] fedele alla tesi organicistica che vede la malattia mentale come la conseguenza di tare biologiche congenite».

In quegli stessi anni, la fenomenologia e l’esistenzialismo dominano la scena filosofica e si spingono all’interno del perimetro della psicologia, della medicina, della psichiatria.

FRAMMENTO #3: GLI ANNI ’60, FINO AL 1968

Il periodo in cui Basaglia dirige l’ospedale psichiatrico di Trieste, tra il 1961 e il 1970, è quello in cui maturano le istanze che sfoceranno nella “rivoluzione” del 1968.

È un vero e proprio tentativo di rovesciamento del paradigma sociale, in cui la tradizione e la conservazione dei valori borghesi della fine del XIX secolo e anche del primo dopoguerra – gli stessi valori di ricerca del benessere economico che hanno favorito l’attenzione ai marginali – vengono messi in crisi.

Sono gli anni in cui si parla, si scrive, si canta e si urla – nelle manifestazioni e nei momenti di lotta - di immaginazione al potere, di libertà da ogni costrizione – culturale, sociale, sessuale.

È nel 1968 che il Ministro della Sanità Luigi Mariotti firma la Legge di riforma psichiatrica che porta il suo nome e che abolisce l’obbligo di iscrizione nel Casellario giudiziale e prevede la possibilità del ricovero volontario e i Centri di Igiene Mentale con equipe multi professionali composte da psichiatri, psicologi, infermieri, assistenti sociali [2]

Sono gli anni in cui inizia la fine del boom economico e – sulla scia del libertarismo del ’68 – si affermano le istanze di rivendicazione economica e sociale dei lavoratori delle fabbriche, sostenuti da ampie schiere di studenti liceali e universitari.

Nel 1968, ancora Zavoli, “entra” nel manicomio di Gorizia con le telecamere di TV7 a documentare

FRAMMENTO #4: DAL 1968 AL 1978

Negli anni tra il 1968 e la promulgazione della Legge 180 accadono fatti che possono essere ricordati come elementi rilevanti per la formazione del pensiero di Basaglia e del suo gruppo di co-pensatori, per il favore che questo pensiero può trovare tra società e contesto politico.

Si tratta – ad esempio - della crescita di consenso del Partito Comunista Italiano, che nel 1976 raggiunge il 34% delle preferenze, guadagnando quasi 10 punti percentuali e 5 milioni di voti rispetto al 1963, a solo 4 punti dalla Democrazia Cristiana.

Si tratta anche del tentativo di rovesciare il paradigma di contrapposizione partitica tra DC e  PCI, che aveva dominato fino ad allora, attraverso la formula del compromesso storico che si sostanziò prima nel governo di solidarietà nazionale (1976), a guida Andreotti, e nell’ipotesi di entrata del Partito Comunista nella compagine del successivo governo, studiata da Enrico Berlinguer e da Aldo Moro e sostenuta da Zaccagnini. Il compromesso storico naufragò proprio nel 1978 con il rapimento e la successiva uccisione di Aldo Moro.

Sono anche gli anni del sindacalismo, della promulgazione della Legge 20 maggio 1970, n. 300 nota come Statuto dei lavoratori, che riconosce formalmente e in maniera organica una serie di diritti ai lavoratori di tutti i comparti, diritti fino ad allora spesso negati o ignorati, a partire dal Diritto all’opinione (Art. 1 della Legge Cit.) e del diritto all’Assemblea Sindacale, considerata in molti casi un atto di sedizione.

E del contro-sindacalismo: nel 1969 vengono ufficialmente riconosciuti i consigli di fabbrica;  Alla fine del 1970 i CdF sono già 1.374 con 22.609 delegati: nel 1971, 2.566 con 30.493 delegati, nel 1972 un totale di 83.000 delegati; non mancano - però – le forme di opposizione da parte di alcune frange sindacali, che vedono nel Consiglio di Fabbrica un sistema per ingabbiare la protesta e suggeriscono mezzi di espressione con base più ampia e – in alcuni casi – modi più aggressivi.

Le assemblee sono un elemento chiave dei due decenni che seguono il 1960: note solo come momenti di aggregazione partitica o di movimento – molto spesso clandestine - diventano in breve tempo uno degli strumenti teoricamente portatori di democrazia più diffusi nelle fabbriche, nelle aziende, nelle scuole e nelle università; tutto si discute in assemblea, tutto si decide in assemblea, tutti i leader vengono nominato o acclamati in assemblea.

Le assemblee sono un modo per fare sentire la propria voce, per fare partecipare, per sentirsi liberi; Libertà è partecipazione, canta Giorgio Gaber nel 1972.

Far sentire la voce di chi non l’ha mai avuta in pubblico è anche uno dei momenti – chiave delle prime radio libere “impegnate”[3], che fanno intervenire gli ascoltatori al telefono in diretta.

Tra le voci che conquistano il diritto ad essere – finalmente – ascoltate ci sono quelle delle donne che, ad esempio, nonostante dure opposizioni interne, conquistano una propria progressiva rilevanza all’interno dei movimenti sindacali verso la metà degli anni ’70; e lo fanno con assemblee e comitati femminili, non contrapposti ma paralleli a quelli sindacali ufficiali.

E, a Verona, nel 1976, si svolge il primo processo per stupro in cui la vittima rifiuta di interpretare il ruolo passivo di “oggetto” della violenza sessuale per diventare “soggetto” di un’accusa che trascende i suoi stupratori, spiegando quanto la sua vicenda “personale” sia in realtà “politica”. In aula la ragazza è sostenuta dalla presenza di un coordinamento di gruppi femministi e la sua voce – non più silenziata come nei casi analoghi – si fa sentire in una dimensione pubblica, grazie alla copertura dei media più tradizionali e della televisione, che ne fa un documentario trasmesso in prima serata alla fine di ottobre dello stesso anno.

-----------

È in questo scenario o, meglio, questo susseguirsi di scenari sociali e politici – delineato in pochi tratti a cui manca sicuramente molta “storia” – che si forma l’esperienza e la rivoluzione di Franco Basaglia, di Franca Ongaro, di Giovanni Jervis e dei loro colleghi.

Idee ed esperienze che attingono anche a quella che fu chiamata da Pasolini – e non a torto - «ubriacatura di astrazione teorica» ma che ha sicuramente segnato la trasformazione della società italiana dal dopoguerra alla fine degli anni ’70.

 

NOTE

[1] Cfr. Petracci M., Cit.

[2] Reggio Emilia è in prima fila nell’avvio dell’esperienza territoriale e nel 1968 la Provincia apre i primi Centri di Igiene Mentale, affidati dal 1969 a Giovanni Jervis, psichiatra che aveva lavorato con Basaglia a Gorizia.

[3] Cfr. F. Monteleone, Storia della radio e della televisione in Italia, Feltrinelli, 2021


Epistemologia e clinica (oltre la politica) in Franco Basaglia

“Basaglia” è il nome di una rivoluzione quasi universalmente riconosciuta, anche se poco o nulla applicata fuori dall’Italia. I dibattiti sulla legge 180, sulle sue luci impossibili da spegnere, ma anche sui suoi limiti attuali, si susseguono ciclicamente. Spesso il Basaglia clinico tende a essere offuscato dalla, giustamente celebre, portata politica della sua battaglia e del suo gesto. Eppure, clinica e politica, in lui, sono legati.

Figlio della tradizione della psichiatria fenomenologica, esistenziale, dasein-analitica, in lui sono costanti i riferimenti a pensatori ritenuti fondamentali fino agli anni 60’-70’, e oggi un po’ in ombra, come Sartre, Heidegger, Merlau-Ponty, Husserl, Biswanger. Autori politici, ognuno a suo modo, da cui Basaglia trarrà i propri echi; correnti di pensiero appunto, non solo strettamente filosofiche, tali da investire tutti i campi delle scienze cosiddette “umane”.

La psichiatria è chiaramente una scienza limite, avendo come oggetto qualcosa di eternamente sfuggente come l’umano, rimanendo con un piede o entrambi, all’interno di un’altra scienza limite, cioè la medicina.

Medicina: sapere, tecnica, che unisce arte, nel senso ippocratico, e scienza transitata nella cornice del moderno. E sullo psi della iatreia (cura), su cosa sia o come sia quella psyché a salire fino alla nostra “psiche” o “mente” la risposta non è definitiva.

Tantomeno sulle sue malattie e le sue cure. Ne consegue che teoria e prassi, epistemologia e azione sono indissociabili; di qui, il problema storico, sociologico e infine politico non cesserà mai di ripresentarsi.

In Un problema di psichiatria istituzionale e testi vicini (L’ideologia del corpo, Corpo, sguardo e silenzio, ecc), l’originalità dell’intreccio che presenta Basaglia è evidente: emerge una teoria della clinica come specchio di una teoria politico-critica.

Il sottotitolo è eloquente: L’esclusione come categoria socio-psichiatrica. Da un punto di vista di filosofia politica, o anche socio-antropologico, la categoria dell’escluso è inerente a ogni società, e in particolare in quelle dove siano presenti divisioni gerarchiche.

Il capro espiatorio è quel “dispositivo” (politico, sociologico, antropologico) in cui le contraddizioni di una società vanno a concretizzarsi, scaricando l’aggressività che esse comportano.

Ma il malato mentale ha una sua peculiarità: egli è posto fuori dalla dialettica. Quelli che oggi chiameremmo “gruppi marginalizzati” hanno sempre avuto un potenziale attivo di rivolta. Il malato mentale è una figura più enigmatica: se Foucault voleva dare parola alla follia, è perché essa non parla mai in modo univoco, e dunque è al confine col silenzio; ma se il malato mentale è ridotto all’espressione della propria malattia, confine sempre aperto, la sua stessa parola sarà puro silenzio.

Così funziona la realtà di quest’esclusione peculiare: ogni parola di risposta, di tentativo di dialettica, è nuovo rinforzo, motivo per prolungare l’esclusione.

Il tutto comporta per Basaglia, che egli è all’interno della sua stessa epistemologia, cioè nel dispositivo per dire e poi curare, trattare, la follia come malattia mentale. Comporta che la psichiatria può trovare le leve per dialettizzare il malato. Le parole quasi d’ordine dell’impianto degli autori sopracitati sono imperniate intorno alla soggettività, alla libertà, al corpo, alla scelta.

Il problema centrale per quest’approccio è la questione della scelta, scelta di sé come libertà e dell’angoscia che questa comporta, eco esistenzialista, la cui difesa primigenia è l’esclusione. Ma non solo: l’altro da sé è anche la propria “fattità”.

Fattità che si è come corpo, “corpo oggettuale”, opacità, passività, nonché soggetto delle percezioni, corporeità con cui si è nel mondo (Merleau-Ponty), di cui ci si deve appropriare per essere soggetti di scelta propria, cioè per soggettivarsi.

L’opacità è anche, specularmente, quella dell’altro. Dunque, incorporare la propria estraneità è parte dello stesso processo del riconoscere l’altro come altro da sé. Non solo come oggetto, come “concretizzazione” dell’estraneità che si rifiuta, ma come a sua volta luogo di una soggettività. Corpo oggettuale, ma anche – husserlianamente – centro di un “io fungente”.

Al contrario, la mancata appropriazione della propria opacità corporea – della vulnerabilità, della materialità – dell’essere corpo-oggetto sia di se stessi sia dello sguardo altrui porterà alla sua esclusione nell’altro divenuto “osceno”. Altro incomprensibile e dunque riducibile soltanto a oggetto, così come a oggetto dell’altro si è sempre ricondotti in questa dinamica.

La genialità di Basaglia, nell’intrecciare clinica e politica, sta qui nel proporre una diagnosi strutturale tra nevrosi e psicosi, capisaldi freudiani, come due modi di essere-nel-mondo con connotazione politica: esclusione ideologica e utopia psicotica. Se per Freud il conflitto centrale della prima è tra Io ed Es, per accettazione del mondo esterno, quello della seconda tra Io e mondo esterno, per lo strabordare dell’Es, qui il conflitto è frutto di un’esclusione del reale.

Per il nevrotico tale esclusione è ideologica, nel senso che non v’è rinuncia a un rapporto con l’altro, ma comunque rifiuto della propria contingenza, dell’ansia derivante dalla scelta di sé e dell’appropriazione del proprio corpo.

Come risposta – o difesa – edificherà un’ideologia, un’immagine “ideale” del corpo, con cui controllarne l’opacità, potendosi per lo meno relazionare con l’altro per il quale avrà comunque una certa oblatività.

È sull’altro e nel desiderio di essere accettato, che egli la edificherà. Pagando questo al prezzo di un’angoscia che produce inibizione, indeterminazione, restringimento.

L’altro è dunque mantenuto nella sua soggettività, sempre nel filtro di un’ideologia che lo conduce alla malafede sartriana.

Per lo psicotico, invece, il rifiuto è ben più radicale. Il risultato di questo processo non è la costruzione di un’ideologia, ma di un’utopia.

La contestazione che il reale continua a far irrompere, reale come opacità, viene a tal punto mal tollerata che è solo nel delirio – cioè in una costruzione sganciata dall’altro, dal “co-mondano” – che uno psicotico potrà trovare una sorta di stabilizzazione e controllo.

Ma proprio lì è un mondo senza limiti, sotto la costante minaccia di quell’angoscia che non cesserà di tormentarlo, divenendo sempre più schiacciante e distruttiva con conseguenti difese estreme.

Se la terminologia politica è qui esplicita, diviene evidente il problema politico dei manicomi: alla regressione psicotica viene aggiunta, intrecciata, una regressione istituzionale. All’esclusione che il malato opera si aggiunge l’esclusione che la società opera su di lui attraverso le mura del manicomio, difesa non del malato, ma dei sani.

L’opacità, l’incomprensibilità del malato di mente, è ridotta a pericolosità sociale. Egli rimane quell’“osceno” (fuori-scena) privo di qualunque soggettività. Alla malattia si sovrappone dunque una malattia indotta direttamente dall’istituzione, in un circolo vizioso in cui le due diventano indistinguibili, fortificandosi a vicenda e giustificando quindi l’apparato manicomiale.

Il restringimento dell’Io – il rimpicciolimento, il rinchiudersi della soggettività, a cui già fa fronte il malato – è speculare al risultato di quella “carriera morale” a cui è sottoposto dall’istituzione disciplinare. L’Io è ridotto a spettro, uomo privato di tutto, homo sacer o musulmano di Auschiwtz, seguendo la concettualizzazione successiva di Giorgio Agamben: non a caso c’è riferimento esplicito a Primo Levi.

È qui che si innesta una specifica teoria del potere: rifiuto dell’autorità o dell’autoritarismo, ma non rifiuto del potere tout court. Perché il potere contiene in sé anche lo spazio di una dialettica, che non si riduca a quella servo-signore hegeliana.

Da questo breve excursus si può notare come epistemologia, clinica e politica non siano dissociabili. Al netto dell’impossibilità di liberarsi della contingenza, in particolare storica, quando si tratta della prassi, Basaglia offre un originale e si spera non dimenticato esempio di questo gesto di annodamento.


La morale della storI.A. - Corpus documentali, training e decisioni

GENTE DI TROPPA FEDE

Nel libro Paura della scienza Enrico Pedemonte racconta che nel Kentucky, a Petersburg, il pastore australiano Ken Ham ha investito 27 milioni di dollari per costruire un parco tematico in cui la storia della Terra viene esposta secondo il punto di vista della Bibbia. Dalla sua fondazione, nel 2007, il Creation Museum ha accolto oltre 3 milioni e mezzo di visitatori, che hanno potuto vedere con i loro occhi come il nostro pianeta non conti più di 6.000 anni di vita, e come i dinosauri esistessero ancora durante il Medioevo – quando San Giorgio e gli altri cavalieri li hanno sterminati, scambiandoli per draghi. Ai tempi di Dante il WWF avrebbe raffigurato la minaccia di estinzione con un povero tirannosauro, bullizzato da giovanotti di buona famiglia in armatura rilucente – altro che panda.

Una porzione molto ampia dell’opinione pubblica coltiva un rapporto con l’intelligenza artificiale paragonabile a quello che gli abitanti della «Bible Belt» americana nutrono nei confronti della storia: una fede che libera da ogni fatica di studio e approfondimento. Solo che gli imbonitori delle fantasticherie tecnologiche non hanno nemmeno bisogno di cimentarsi nella fatica di costruire parchi a tema per persuadere i loro spettatori: non mancherebbero i mezzi, visto che tra le loro fila si schierano personaggi come Elon Musk e Sam Altman. Nel film fantasy di portata universale che propone l’AGI come un evento imminente, i ruoli sembrano invertiti: il computer che raggiungerà l’intelligenza artificiale generale viene descritto come un vero drago di talento e raziocinio, con personalità propria, autonomia di giudizio, memoria illimitata, conoscenze smisurate, lucidità strategica, sottigliezza logica, e (perché no?) cinismo teso al dominio sull’uomo e sull’universo. Cosa potrà fare un San Giorgio moderno, negli abiti di un programmatore nerd, o di un eroico poeta in carne e ossa, o di un chirurgo che si prodiga per la salute dei suoi pazienti, o di un giudice che brama difendere la giustizia quanto Giobbe davanti a Dio – cosa potranno questi santi laici di fronte a un mostro simile?

Nick Bostrom ha avvisato più di dieci anni fa che se dovesse comparire questa forma di intelligenza, per tutti noi e i nostri santi sarebbe già troppo tardi, perché la macchina che raggiungesse le prestazioni dell’AGI non si fermerebbe al nostro livello di razionalità, ma crescerebbe a intensità esponenziale, conquistando gradi di perspicacia tali da impedire la scoperta delle sue manovre, e da inibire l’interruttore di spegnimento.

TOSTAPANI CON TALENTO PER LA STATISTICA

Ma è davvero così?

L’AGI è grande, e ChatGPT è il suo profeta: molti lo considerano tale. Il software di OpenAI è stimato l’avanguardia nel settore dell’intelligenza artificiale, grazie al marketing che gli ex e gli attuali soci fondatori hanno animato intorno alle sue prestazioni: il licenziamento di Sam Altman da CEO nel novembre 2023, rientrato dopo meno di una settimana, e le polemiche con Elon Musk, hanno contribuito ad amplificare il clamore intorno ai prodotti dell’azienda californiana. Ma se proviamo ad aprire l’armatura che protegge la macchina, ed esaminiamo l’euristica del suo funzionamento, troviamo un dispositivo che calcola quale dovrà essere la prossima parola da stampare nella sequenza sintattica della frase, sulla base del grado maggiore di probabilità che il lemma possiede nel campo semantico in cui compare il suo predecessore. I campi semantici sono strutture matematiche in cui ogni parola è convertita in un vettore che misura la frequenza delle sue occorrenze accanto alle altre parole, nel corpus di testi che compongono il database di training. Per esempio, il lemma finestra compare con maggiore frequenza vicino a casa, strada, balcone; la sua presenza è meno probabile dopo transustaziazione o eucaristia

Naturalmente ChatGPT è un prodigio di ingegneria, perché calcola (al momento) 1.500 miliardi di parametri ad ogni parola che viene aggiunta nella sequenza proposizionale; ma in ogni caso non ha la minima idea di cosa stia dicendo, non sa nemmeno di stare parlando, non ha alcuna percezione di cosa sia un interlocutore e che esista un mondo su cui vertono i suoi discorsi. Lo provano i «pappagalli stocastici» che ricorrono nelle sue composizioni: gli errori che possono apparire nelle sue dichiarazioni non violano solo le verità fattuali (quali possono essere inesattezze di datazione, citazioni false, e simili), ma aggrediscono la struttura delle «conoscenze di Sfondo», la logica trascendentale che rende possibile l’esperienza stessa. Per i testi redatti da ChatGPT un libro pubblicato nel 1995 può citare saggi usciti nel 2003 o descrivere una partita di Go avvenuta nel 2017: l’eloquio del software è infestato da allucinazioni che provano l’assenza di comprensione, in qualunque senso del termine intelligente, di ciò che significa la sequenza dei significanti allineati dal suo chiacchiericcio. Un dispositivo che non mostra alcun intendimento dell’esistenza del mondo, e delle sue configurazioni più stabili, non è nemmeno in grado di perseguire obiettivi autonomi, di giudicare, stimare, volere, decidere. ChatGPT è un software con l’intelligenza di un tostapane, e uno smisurato talento per il calcolo della probabilità nella successione delle parole.

COSA DICE L’I.A. SUGLI UMANI

Come se la passano i fratelli, i cugini e i parenti vicini e lontani di ChatGPT?

Consideriamo il caso esemplare, descritto da Gerd Gigerenzer, del software COMPAS adottato dai tribunali americani per collaborare con i giudici nella valutazione della libertà sulla parola. Ogni anno la polizia degli Stati Uniti arresta circa dieci milioni di persone, e il magistrato deve stabilire se convalidare l’imprigionamento o lasciare libero il cittadino, sulla base della convinzione che non reitererà il reato. COMPAS ha contribuito ad emanare circa un milione di sentenze, dopo essere stato formato sull’intera giurisprudenza depositata nei provvedimenti di ogni ordine e grado dei tribunali americani. L’analisi delle sue proposte ha evidenziato una serie di pregiudizi che discriminano per colore della pelle, genere, età e censo, sfavorendo gli uomini neri, giovani, che provengono da quartieri poveri. Tuttavia la penalizzazione a sfondo razziale che è implicita nelle decisioni del software non proviene dal carattere ghettizzante dell’intelligenza artificiale: la macchina non ha autonomia di giudizio, ma sintetizza le opinioni catalogate nell’archivio delle ordinanze dei magistrati in carne e ossa, che sono i reali agenti dei preconcetti e dell’intolleranza di cui il dispositivo digitale è solo il portavoce. La convinzione che la sospensione del ricorso all’IA, in favore dell’autonomia di delibera da parte dei giudici umani, possa mettere a tacere l’intolleranza che serpeggia tra le valutazioni del software, è un’illusione come l’Eden del Creation Museum: gli autori dei testi da cui COMPAS ha appreso il funzionamento del suo mestiere continueranno ad applicare i principi – più o meno inconsapevoli – del razzismo che innerva la società americana e l’upper class giuridica. 

Al pregiudizio concettuale i magistrati umani aggiungono anche le deviazioni dettate dalla loro fisiologia. Uno studio congiunto della Columbia Business School e della Ben-Gurion University pubblicato nel 2011 ha dimostrato che i giudici scelgono con la pancia – e lo fanno in senso letterale, poiché i verdetti diventano sempre più severi quanto più ci si allontana dall’orario dei pasti. Almeno i software non sono sensibili ai morsi della fame. 

Nemmeno vale la pena di coltivare illusioni sul miglioramento del trattamento dei candidati per le selezioni dei posti di lavoro: gli uffici del personale che abbandonano la lettura dei curricula ai dispositivi di IA (che a loro volta hanno imparato a discriminare nel training sul database delle assunzioni precedenti) non sarebbero pronti a compiere valutazioni migliori – con ogni probabilità si limiterebbero a non leggere i CV.

RATING UNIVERSALE E ALTRI ANIMALI FANTASTICI

Gigerenzer invita a verificare con cura i numeri divulgati dagli uffici marketing e dai giornalisti affamati di sensazionalismo: ne abbiamo già parlato in un altro articolo su Controversie.

La convinzione che qualche nazione sia in grado di gestire un calcolo del rating sociale di ciascuno dei suoi cittadini appartiene al repertorio degli effetti dei mass media per la generazione del panico. L’opinione che la Cina sia in grado di praticarlo, con quasi 1,4 miliardi di abitanti, è ancora meno credibile. Per allestire un processo di portata così vasta occorre una potenza di calcolo che al momento non può essere gestita da alcuna infrastruttura tecnologica. La realtà di questo progetto è assimilabile a qualcuno degli animali del bestiario del Creation Museum, qui a beneficio della propaganda del regime di Pechino e della sua aspirazione a gonfiare muscoli informatici inesistenti. Il governo cinese razzia dati sui cittadini anche dalle imprese che rilasciano servizi di comunicazione e di ecommerce, con l’obiettivo di armare sistemi di controllo di larga scala, che l’Unione Europea ha già vietato con l’AI Act entrato in vigore lo scorso luglio. Senza dubbio è una giusta preoccupazione prevenire simili tentazioni di amministrazione della distribuzione delle utilità sociali; ma il focus su questa minaccia sembra al momento meno urgente della normativa che obblighi i produttori di software a pubblicare le euristiche con cui funzionano i dispositivi di intelligenza artificiale. La consapevolezza che l’euristica alla base di ChatGPT è il calcolo della parola con maggiore probabilità di trovarsi subito dopo quella appena stampata, avrebbe liberato il pubblico dall’ansia e dall’euforia di marciare sulla soglia di un’AGI pronta a rubare il lavoro e a giudicare gli imputati, imminente al prossimo cambio di stagione. Avrebbe anche sterminato le occasioni per Musk e Altman di favoleggiare risultati miracolosi nel marketing dei loro prodotti – più spietatamente di quanto San Giorgio massacrasse dinosauri. 

I rischi più realistici riconducibili all’intelligenza  artificiale riguardano proprio la trasparenza delle euristiche, la bolla finanziaria indotta da società prive di un modello di business (come OpenAI), le attese senza fondamento alimentate da società di consulenza e da formatori improvvisati, il monopolio sui modelli fondamentali già conquistato da pochi giganti della Silicon Valley, il tentativo di accaparrarsi lo sviluppo dell’intero settore da parte di personaggi con finalità politiche ed economiche come Musk e Altman.

Chi costruisce Creation Museum di ogni tipo non ha mai come scopo la divulgazione; dovrebbe essere compito degli intellettuali tornare a smascherare i draghi di questi impostori, come coraggiosi San Giorgio della ragione.

 

 

BIBLIOGRAFIA

Bostrom, Nick, Superintelligence: Paths, Dangers, Strategies, Oxford University Press, Oxford 2014. 

Bottazzini, Paolo, La fine del futuro - I.A. e potere di predizione, «Controversie», 10 settembre 2024.

ChatGPT-4, Imito dunque sono?, Bietti Edizioni, Milano 2023.

Danziger, Shai; Levav, Jonathan; Avnaim-Pesso, Liora, Extraneous factors in judicial decisions, «Proceedings of the National Academy of Sciences», vol. 108, n.17, 2011.

Gigerenzer, Gerd, How to Stay Smart in a Smart World Why Human Intelligence Still Beats Algorithms, Penguin, New York 2022. 

Pedemonte, Enrico, Paura della scienza, Treccani Editore, Torino 2022.


La medicina è dei medici ma la salute è di tutti

Dopo la recente inflazione di mediche[1] sui mass media, si è fatta strada l’idea che le esperte di salute siano loro. Tant’è che capita frequentemente che qualche personaggio televisivo, molto aggressivo e arrogante, di formazione medica (me ne vengono in mente almeno un paio, uomini) dica alle sue interlocutrici che lo criticano: “lei prima si prenda una laurea in medicina, e poi ne parliamo”. Nessuna però risponde a lui, che parla di comportamenti a rischio o di come ragionano i pazienti: “lei prima si prenda una laurea in sociologia o psicologia, e poi ne parliamo”. Ma, si sa, la simmetria non è un’attività molto praticata da superbi e prepotenti.

Come la fisica è delle fisiche, ma la natura o l’ambiente è di tutte (ne parleremo in un prossimo post), così la salute è un tema a cui possono dare un contributo molti tipi di esperte; non solo le mediche.

Facciamo un paio di esempi  [2]:

IL CASO DELL’AIDS

All’inizio degli anni Novanta, durante i drammatici dibattiti sulla sperimentazione di medicinali contro l’AIDS e l’HIV, il sociologo Steven Epstein notò come alcuni movimenti di attiviste, per lo più composti dalle stesse pazienti, erano riusciti a trasformare la loro posizione marginale in un contributo attivo e autorevole. Epstein (1995) si concentrò su come questi gruppi di attiviste fossero riuscite a ottenere una certa credibilità e farsi riconoscere come “esperte non professioniste” (lay experts), creando una breccia nella divisione tra esperte e non esperte. A quel tempo, la difficoltà di gestione della malattia da un punto di vista farmacologico, il suo veloce diffondersi soprattutto nelle fasce di popolazione in giovane età e la mancanza di risposte ritenute adeguate da parte della medicina convenzionale, avevano creato da un lato una certa sfiducia nel riguardo della sperimentazione dei nuovi farmaci, e dall’altro un terreno fertile per le attiviste che erano così riuscite a far ascoltare la loro voce all’interno del dibattito. Il contesto storico, culturale ed economico delle sperimentazioni farmacologiche, come spesso avviene, era caratterizzato da una moltitudine di attori sociali: mediche e scienziate di varia formazione (immunologhe, epidemiologhe, mediche di famiglia ecc.), autorità sanitarie locali, federali e nazionali, compagnie farmaceutiche ecc. Ma dove collocare le pazienti e i loro parenti? Secondo Epstein, mediante una serie di strategie — come per esempio l’acquisizione di alcune conoscenze particolari che le rendessero capaci di discutere con competenza di questioni mediche e legali, la creazione di una rappresentazione politica, la presa di posizione in dibattiti metodologici preesistenti e la fusione di richieste di ordine etico con quelle di ordine epistemologico — questi gruppi di attiviste creati dalle pazienti e loro familiari riuscirono a farsi accreditare come lay expert. In questo modo, esse riuscirono a mettere in discussione alcuni assunti impliciti delle sperimentazioni, che troppo spesso emarginavano (e ancora emarginano) dal processo decisionale proprio le dirette interessate. 

GLI EFFETTI DEL DISASTRO NUCLEARE DI CHERNOBYL 

A partire dagli anni Novanta, l’“information deficit model” (ovvero l’idea paternalista secondo cui ogni resistenza nei confronti dell’innovazione, e della scienza in generale, deriva da una sua mancata comprensione da parte dell’opinione pubblica. Di conseguenza, quest’ultima dev’essere educata e fornita di tutte le informazioni necessarie) è stato criticato su più fronti anche grazie a studi come quello del sociologo inglese Brian Wynne (1992) a proposito della crisi della pastorizia in Cumbria (UK) a seguito del disastro nucleare di Chernobyl. In un primo momento, il governo Britannico aveva minimizzato il rischio di contaminazione, incontrando tuttavia la resistenza delle allevatrici che invece si erano immediatamente allertate. Le “esperte” degli enti governativi avevano screditato queste proteste come “irrazionali” e frutto di una mancata comprensione della valutazione scientifica delle esperte. Fu solo in un secondo momento, e dopo un lungo dibattito, che le scienziate si videro costrette a rivedere la propria valutazione. Nel frattempo, però, la sottovalutazione del fenomeno aveva già creato ingenti danni economici alla pastorizia locale. Le interviste condotte da Wynne con le allevatrici rivelarono che la loro non era una semplice mancanza di comprensione. Al contrario, esse confrontavano le informazioni fornite dagli enti governativi alla luce della loro esperienza quotidiana degli eventi atmosferici, delle acque e delle caratteristiche del terreno di quella particolare regione. Le nozioni scientifiche riguardanti il rischio e le prescrizioni su come comportarsi, venivano certamente recepite e comprese da parte delle allevatrici; ma anche attivamente trascurate per la scarsa fiducia che esse riponevano nelle istituzioni. La fiducia, infatti, non riguardava le singole informazioni o indicazioni, ma l’intero “pacchetto sociale” fatto di relazioni, interazioni e interessi all’interno del quale i vari attori sociali di muovono. 

UN NUOVO MODELLO DI COMPETENZA

Grazie a questi studi, Epstein e Wynne mostrarono sia che la scienza non è una sfera autonoma sia che anche coloro che vengono considerate semplicemente pazienti e allevatrici potevano, e volevano, avere un ruolo attivo. Questo non è un caso isolato e molti sono gli esempi che potrebbero essere menzionati: i gruppi femministi nella ricerca medica contro il cancro al seno, i gruppi ambientalisti, i movimenti delle agricoltrici e molti altri ancora. In tutti questi casi, la competenza si estende ben al di là dei limiti della comunità scientifica. Proprio perché la scienza non garantisce un accesso privilegiato alla “verità”, esistono altri tipi di sapere che possono tornare utili, altre competenze e priorità da prendere in considerazione. Attribuire competenza solamente alle scienziate impedisce all’intero processo decisionale di maturare una consapevolezza della complessità degli obiettivi da porsi e delle molte possibili strade per raggiungerli. 

 

NOTE

[1] Uso il femminile sovraesteso.

[2] Cfr. Gobo, G. e Marcheselli, V. (2021), Sociologia della scienza e della tecnologia, Roma: Carocci.

 

RIFERIMENTI BIBLIOGRAFICI

Epstein, Steven. 1995. “The Construction of Lay Expertise: AIDS Activism and the Forging of Credibility in the Reform of Clinical Trials”. Science, Technology, & Human Values 20(4): 408-437.

Irwin, Alan e Brian Wynne (1996), Misunderstanding science? The public reconstruction of science and technology. Cambridge: Cambridge University Press.

Wynne, B. (1992), Misunderstood Misunderstanding: Social Identities and Public Uptake of Science, in “Public Understanding of Science”, 1, 3, pp. 281-304.


Cicli glaciali e attività antropica. La concentrazione dei gas serra in atmosfera - Seconda parte

Nel precedente post[1] abbiamo mostrato che, anche se è stata dimostrata la correlazione tra l’aumento spontaneo della concentrazione di gas serra in atmosfera e il comportamento dei moti millenari del pianeta Terra, rimanevano comunque da comprendere alcune incongruenze riguardo a:
- la grande e anomala quantità di gas serra attualmente presente in atmosfera e
- la sua non riconducibilità alla sola attività dell’era industriale.

Quando si parla di emissioni di metano e di cambiamento climatico, il primo e spontaneo pensiero è di puntare il dito verso gli allevamenti di ruminanti. Complice di questo automatismo è la contingenza storica di crescente avversione nei confronti degli allevamenti intensivi per l'approvvigionamento alimentare.

Meno frequentato è, invece, un altro concorrente a questo genere di emissioni che, anche se meno celebre, è non meno importante. Anzi, è forse storicamente ben più influente nell’emissione di questo specifico gas serra: si tratta della coltivazione sommersa del riso[2].

Come promesso, riporterò qui, per brevissimi tratti, l’interessante teoria che William F. Ruddiman, paleoclimatologo della Virginia University, pubblicò nel 2001 assieme all’allora suo studente Jonathan S. Thomson, e che mette in relazione l'invenzione e la diffusione di questa tecnica di coltivazione con l’aumento anomalo di metano immesso registrato a partire da cinque millenni fa.

Mi soffermerò maggiormente sugli aspetti storici e logici che hanno permesso la validazione di questo studio[3].

L’IMPATTO ANTROPOGENICO IN GENERALE

Nei termini di adozione tecnologica, di qualità del processo produttivo e di quantità produttiva, è oggi un’evidenza apprezzabile e scientificamente dimostrata quella dell’impatto che le attività umane hanno sull’alterazione di un equilibrio climatico “naturale”. La schiera di convinti negazionisti è ormai ridotta ad una esigua cerchia che conta più che altro provocatori con altri fini o fenomeni da studio sociologico, che si autoescludono dalle discussioni serie su questo tema.

Tra la fine XIII e la metà del XIX secolo vi è stato un aumento progressivo dell’attività di disboscamento col fine di alimentare gli stabilimenti produttivi e le attività di tipo estrattivo, mentre oggi prosegue principalmente per ampliare la superficie coltivabile del pianeta.

La scoperta dei combustibili fossili avvenuta nel XIX secolo e il loro progressivo impiego in ambito industriale hanno portato all’aumento spropositato delle emissioni di anidride carbonica.

L’aumento delle emissioni di metano è, invece, per lo più imputabile: alla sua fuga accidentale durante l’estrazione e il trasporto delle risorse fossili; all’aumento della popolazione mondiale, combinato al miglioramento delle relative condizioni di vita[4], all’aumento della produzione di rifiuti e alla conseguente dell’estensione delle relative discariche a cielo aperto.

A questi fenomeni si aggiunge anche il necessario aumento delle aree agricole irrigate e di allevamento, che portano a legittimare quel “dito contro” a cui abbiamo inizialmente accennato, rivolto contro le emissioni fisiologiche dei ruminanti, ossia dalle deiezioni e dalla fermentazione enterica, ovvero dalla digestione del cibo.

Alla fine del XX secolo queste emissioni saranno tali da aver raggiunto livelli che equivalgono ai record paleoclimatici di molti milioni di anni fa, in particolari fasi dei processi di intensa formazione delle terre oggi emerse.

Abbiamo, dunque, un sospetto più che fondato: l’impatto antropogenico è la principale causa di questo aumento anomalo degli ultimi tre secoli.

Siamo ora pronti a tornare alla proposta di Ruddiman e Thomson.

LA NASCITA DELL’AGRICOLTURA E LA SCOPERTA DELL’IRRIGAZIONE SOMMERSA: L’ALTRA METÀ MANCANTE DELLE EMISSIONI DI METANO

Intrapresa la strada della ricerca sulla via del sospetto ruolo antropogenico precedente all’era industriale, i due iniziarono a valutare anche i dati archeologici provenienti proprio dall’epoca di quella prima anomalia: la naturale diminuzione di concentrazione di metano in atmosfera si arrestò e iniziò invece a risalire, contrariamente a quanto sarebbe dovuto accadere per migliaia di anni da allora fino alla prossima glaciazione.

Secondo Ruddiman e Thomson la più probabile spiegazione di questa inversione è da attribuirsi all’invenzione dell’irrigazione del riso, la cui domesticazione della pianta risalirebbe ad almeno 9000 anni fa in Cina, nel bacino dello Yangtze.

La tecnica della coltivazione sommersa, lo dimostrano i ritrovamenti archeologici, era già in uso nelle pianure Sud-Est Asiatiche 5000 anni fa[5], e si estese, 2000 anni dopo, fin nelle pianure dell’India del Nord e Centro-Orientale. Alla sua diffusione si aggiunse poi la progressiva evoluzione dell’ingegneria agricola con la creazione di sistemi di canali sempre più complessi, che portavano l’acqua dai punti più depressi delle pianure fino anche ai fianchi delle colline.

Per comprendere la portata del fenomeno studiato da Ruddiman e Thomson è, tuttavia, opportuno allontanare dalla mente la tecnica di coltivazione odierna di questa pianta erbacea, che ci porterebbe fuori strada

Diversamente dai rifiuti e dall’allevamento, la coltivazione del riso richiede per la propria produzione un’estensione non direttamente proporzionale al numero degli esseri umani che ne dipendono. Questo diviene evidente se pensiamo alla certa inefficienza della coltura del riso a partire dalle sue origini in termini di:

  • varietà meno produttive che, a parità di raccolto, imponevano la necessità di inondare aree più estese del suolo;
  • maggiore presenza di varietà di erbe infestanti e di biodiversità connesse all’ambiente palustre, ossia alla loro relativa decomposizione nelle stesse risaie.

Come abbiamo visto nello studio del meteorologo J. Kutzbach[6], in tutte le aree palustri, la decomposizione della materia organica in clima anaerobico è a carico dei microrganismi metanogeni, incluse in questa categoria ambientale vi sono le coltivazioni sommerse del riso.

Aree sommerse più estese, in termini pragmatici, significano una maggiore produzione di metano prodotta da questo genere di coltura.

Si può parlare di efficienza tangibile di questa tecnica agricola solo a partire dalla metà del XX secolo, con l’invenzione dei pesticidi e dei diserbanti, i quali non erano prima d’allora nel dominio d’azione tecnologica dell’agricoltore, e anche con l'evoluzione della selezione genetica delle varietà seminate. Efficienza anch’essa con i suoi costi notevoli in termini di impatto ambientale, ma che esulano dal tema che stiamo qui trattando.

Se pensiamo dunque all’insieme di elementi di estensione delle risaie collegata alla loro bassa efficienza, alla loro progressiva diffusione crescente, per millenni, sull’intero pianeta abitato e agli effetti spontanei dovuti all’habitat anaerobico palustre, comprendiamo meglio perché Ruddiman e Thomson avessero ben intuito che dietro alla spiegazione di questa anomalia e delle sue crescenti dimensioni ci fosse sempre una matrice antropogenica: l’invenzione dell’irrigazione agricola, soprattutto quella sommersa del riso.

 

NOTE

[1] “John Kutzbach e le correlazioni naturali tra i cicli glaciali e la concentrazione dei gas serra in atmosfera.” è il post in questione. Consigliamo al lettore anche la lettura di “Stiamo ritardando la prossima glaciazione? Si.” per aver una visione più chiara e solida del terreno d’indagine in cui si inserisce il presente post.

[2] Faccio presente al lettore che anche il metano (CH₄), per quanto sia un gas più dannoso, è anche meno “famoso” del suo concorrente l’anidride carbonica (CO2). In termini di inquinamento atmosferico il primo è infatti di 25-30 volte più dannoso della seconda.

[3] Il clima globale del Pianeta è un sistema altamente complesso, l’invito che faccio al lettore è di approfondire dunque gli aspetti specifici di questa teoria nel testo di riferimento principale utilizzato per presentargliela: “L’aratro, la peste, il petrolio - L’impatto umano sul clima” di William F. Ruddiman.

[4] Si tenga presente che secondo le stime attuali, l'aumento della popolazione è raddoppiata circa ogni 1000-1500 anni, da 5000 a questa parte. È solo con l'avvento della rivoluzione industriale che la crescita demografica prende ritmi mai visti. Si è stimato il raggiungimento di circa mezzo miliardo di esemplari della specie umana verso la fine 1500, mentre a inizio 1800 era 1 miliardo: oggi circa 8 miliardi in più rispetto a inizio 1500. La stima, su base archeologica, proiettata a 5000 anni fa ammonta a circa 40 milioni.

[5] Curiosità: nello Xinjiang di quasi 4000 anni fa, nell’attuale Cina, si estraeva e si faceva uso domestico del carbone fossile.

[6] Si veda la Nota #1.

 

FONTI

Willian F. Ruddiman, Jonathan S. Thomson, “The case for human causes of increased atmospheric CH4 over the last 5000 years”, Quaternary Science Reviews, vol. 20, Issue 18, December 2001, pp. 1769-1777, 2001

Ruddiman, “L’aratro, la peste, il petrolio - L’impatto umano sul clima”, UBE Paperback, 2015

Alice Fornasiero, Rod A. Wing, Pamela Ronald, “Rice domestication”, Current Biology, vol. 32, 1º gennaio 2022, pp. R20–R24

Istituto Superiore per la Protezione e la Ricerca Ambientale RAPPORTI 374/2022 Il metano nell’inventario nazionale delle emissioni di gas serra. L’Italia e il Global Methane Pledge, 2022

NASA, “Atmospheric Methane Concentrations”, ONLINE https://climate.nasa.gov/vital-signs/methane?intent=121

IMEO, “Methane Data”, ONLINE, https://methanedata.unep.org/plumemap


Sperimentare su di sé - Virus anti-tumorali, cura di sé e problemi etici

Beata Halassy ha 53 anni ed è una virologa dell’Università di Zagabria. […] ha sperimentato su sé stessa un trattamento che consiste nell’iniettare virus nei tessuti tumorali, in modo da indurre il sistema immunitario ad attaccarli, con l’obiettivo di curare in questo modo anche la malattia. A quattro anni di distanza, il tumore non si è più presentato e sembra quindi che la terapia abbia funzionato, ma ci sono ancora molti aspetti da chiarire. Non è la prima volta in cui viene provato un trattamento di questo tipo, ma il fatto che la ricercatrice lo abbia provato su di sé e al di fuori di un test clinico vero e proprio ha aperto un ampio dibattito, soprattutto sull’opportunità dell’iniziativa da un punto di vista etico.

Tratto da Il Post, 12.11.2024,
La ricercatrice che si è iniettata
dei virus per curarsi un tumore

 

SPERIMENTARE SU DI SÉ

La sperimentazione su di sé di farmaci, cure e interventi medici non è una cosa nuova. Publio Elio Aristide, retore greco del II secolo che prova su di sé una serie di rimedi – alcuni estremamente pericolosi, come i tuffi nel mare gelato d’inverno - suggeriti in sogno dal Dio Asclepio; Max von Pettenkofer, a fine ‘800 –beve un bicchiere pieno di vibrioni del colera (e non ne muore, si dice) per provare che i microbi non provocano malattie; Edward Jenner, alla fine del ‘700 sperimenta il vaccino contro il vaiolo sul figlio di poco più di un anno; Evan O'Neill Kane, nel 1921, si asporta da sé – con un sistema di specchi - un’appendice per dimostrare la praticità dell’anestesia locale; Werner Forssmann (premio Nobel 1956), pratica il primo cateterismo cardiaco su di sé; Barry Marshall, (Nobel 2005), come Pettenkover, ma con obiettivi opposti,  beve una coltura di Helicobacter pylori per dimostrare che causa l’ulcera gastrica; Max Theiler, (Nobel 1951) testa su di sé il primo vaccino contro la febbre gialla.

OBIEZIONI ETICHE

La auto-sperimentazione di un trattamento senza prove sistematiche di efficacia che Halassy ha effettuato è stata bersaglio di numerose critiche di ordine etico da parte delle comunità medico-scientifiche.

In prima battuta, i critici hanno evidenziato il rischio che la pubblicazione di questo caso «incoraggi altri a rifiutare i trattamenti convenzionali e provare qualcosa di simile […] Le persone con il cancro sono particolarmente suscettibili a provare trattamenti non testati» (Jacob Sherkow , in This scientist treated her own cancer with viruses she grew in the lab, Nature, 08.11.2024 – traduzione degli autori). Tuttavia, in questo caso, la complessità del trattamento sembra essere a portata di mano di pochissimi, riducendo a quasi nulla il rischio di emulazione.

Altre obiezioni di stampo etico – evidenziate su Practical Ethics, blog della Oxford University – riguardano: la consapevolezza di Beata e il consenso informato su quello a cui si stava sottoponendo; il grado di ragionevolezza del rischio a cui si è esposta, la proporzionalità tra questo rischio e quello delle terapie standard. Appare ovvio che la ricercatrice fosse informata – da sé stessa – e consapevole del livello di rischio, ed emerge[1] che in questo caso il rischio era ragionevole poiché i virus utilizzati hanno un buon livello di sicurezza. Inoltre, La terapia[2] è stata condotta sotto il monitoraggio degli oncologi che avevano in cura Beata.

Ecco un ulteriore punto etico che possiamo sollevare: la responsabilità è stata condivisa dagli oncologi che hanno monitorato la auto-terapia? Un medico che sa che il proprio paziente sta curandosi da sé in modo non ortodosso, dovrebbe impedirglielo?
Stando ai media – di massa e più specialistici – il gruppo di oncologi sarebbe stato pronto ad intervenire in caso di complicanze e le condizioni dell’esperimento erano di rischio ragionevole: queste considerazioni neutralizzano la prima di queste due obiezioni e perimetrano favorevolmente la seconda.

Il punto più controverso sembra quindi essere quello della mancanza di protocolli di sperimentazione strutturati e rigorosi.

Ad esempio, l'infettivologo Matteo Bassetti ritiene che l’auto-sperimentazione sia la cifra di una mentalità eticamente spregiudicata, fuori luogo in un contesto di medicina in cui «Si è cominciato a fare statistica, ad applicare metodi, sono arrivati i dati e i computer ma soprattutto è cambiata la mentalità, che è oggi più etica».

Il punto, secondo Bassetti, è che «L’autoesperimento è oggi il trionfo dell’anedottica ovvero l’esatto contrario della medicina dell’evidenza».

Tuttavia, riteniamo di poter obiettare che se l’auto-esperimento ha – come sembra finora - davvero funzionato, in un quadro morale di valore dell’esistenza in vita degli individui:

  • si tratta di un successo morale poiché ha probabilmente salvato una vita, quella di Beata Halassy
  • se fosse ripetibile, potrebbe essere lo spunto per una ricerca sistematica e diventare un nuovo protocollo di cura per quel tipo di tumore.

È, invece, eticamente eccepibile la scelta di censurare[3] - in nome dell’ortodossia, del corpus disciplinare della ricerca medica e farmacologica, della evidence medicine - la sperimentazione fatta da Beata, confondendo i protocolli sperimentali rigorosi e strutturati, le prassi operative, la morale procedurale, con il vero obiettivo della medicina, che dovrebbe essere curare i malati.

Non vogliamo, con questo, negare l’importanza della ricerca e della sperimentazione rigorosa, che riteniamo un caposaldo irrinunciabile per contenere il rischio reale di deregolamentazione farmaceutica, ma – ancora una volta - suggeriamo una maggiore permeabilità della medicina maggioritaria[4] alle istanze morali dell’individuo da guarire.

CURA DI SÉ

Come detto, qui non è in gioco solo la sperimentazione su di sé. La particolarità di questo caso è di aver a che fare con la sperimentazione di una scienza che si prende cura della persona. Sperimentazione su di sé, ma anche cura di sé.

La cura di sé è riemersa nella seconda metà del secolo scorso, dopo un periodo di riposo forzato o quanto meno indotto. Con gli anni ‘70 e e ‘80 torna in auge un concetto diverso di paziente. A esempio negli USA il dottor Keith Senher nel 1970 inizia un percorso di insegnamento a gruppi di pazienti. Le sue lezioni comprendono pratiche come la misurazione della pressione arteriosa (oggi è comune prendersi la pressione da sé), l’auto-sommistrazione di farmaci tramite iniezioni e l’uso di altri presidi medici. Obiettivo di Sehnert era quello di rendere il paziente attivo e collaborativo, anziché semplice consumatore.

Conoscenze e pratiche che vengono incentivate anche da cliniche e ospedali. I pazienti attivi permettono di sgravare il sistema sanitario dalla presa in carico di patologie comuni e facilmente curabili. Era vero in America, è vero anche in questo secolo per il nostro Sistema Sanitari Nazionale, che non è più in grado di prendersi carico della cronicità.

L’educazione del paziente diventa una risorsa per promuovere l’aderenza alle terapie così come uno stile di vita salubre. Imparate a nuotare, è un piacere farlo, ma aiuta anche a salvarsi se la nave affonda.

Rinnovato nei metodi, il Self-Care ritorna però anche per altri motivi.

Uno è la delusione profonda nei confronti della rotta che la nave sanitaria ha preso: l’istituzione ha preso possesso del corpo, ma non si dimostra capace di rispondere al bisogno. Il Self-Care reclama il possesso del corpo, tenta di strapparlo al controllo del medico. All’eccesso, il rifiuto dell’identità di consumatore porta alla negazione totale della medicina e della cura.

Questo è stimolato anche da un’altra posizione di opposizione. Quella delle persone discriminate. Il corpo della donna era vissuto come costruito socialmente per l’uomo compagno o l’uomo dottore. Questo corpo diventa il fulcro di una lotta per la riappropriazione di sé, totale e non soltanto terapeutica, economica e politica. Un territorio occupato di cui riprendere possesso. Ancora negli anni ‘70 alcuni libri titolano How to help your doctor help you, mentre di contro vengono pubblicati classici del Self-Care femminista come Our bodies, ourselves o Taking our bodies back.

Una contesa lontana dal concludersi se pensiamo al libro denuncia di Anne Boyler, pulitzer 2021, sull’abbandono sociale e sanitario che possono vivere le donne con cancro al seno. Se pensiamo alla vulvodinia, sindrome ginecologica con sintomatologia dolorosa e cronica, che ancora risulta per lo più invisibile alla medicina. O ancora agli attacchi alla legge 194, al bisogno delle donne di fare rete per darsi mutuo riconoscimento e aiuto anche contro l’impostazione maschile di una certa ginecologia.

La cura del sé è stata ed è in questi casi veicolo per l’emancipazione della persona e altrettanto per l’emancipazione della scienza da sé stessa. Diventa infatti motore fondamentale per la scoperta scientifica, promuovendo uno sguardo che oltrepassa il dito.

È stata fondamentale perché si iniziasse a curare l’AIDS e si sviluppassero terapie, oltre lo stigma sociale della malattia. Così come l’apporto delle organizzazioni di pazienti e simpatizzanti promosse le terapie per la fibrosi cistica, mentre i grandi finanziamenti si perdevano nella corsa all’oro della genetica degli anni ‘90.

Un’ultima considerazione: il self-care non implica necessariamente una critica della scienza medica contemporanea e della sua idea di corpo, ma si presenta più come una forma di resistenza alla mistificazione del corpo. Ancora nel XVIII era frequente che grandi scienziati – oltre che a sperimentare su di sé come detto in apertura – dessero al pubblico prescrizioni di carattere igienico sanitarie come Medicus sui ipsius di Linneo.

Con il XIX secolo però, la medicina scopre il «silenzio spontaneo della natura». Nelle grandi cliniche di Parigi e Vienna si fa strada una nuova idea che viene ben raccontata dal filosofo e medico Georges Canguilhem. La natura parla solo se la si interroga bene e questo il malato non è certo in grado di farlo. Come distinguere un segno e un sintomo? Rimettersi al medico. È il positivismo: «Non c’è igiene senza medico».

Il self-care rivendica il possesso di un corpo costruito dalla medicina scientifica positivista. Non si oppone necessariamente all’epistemologia che fonda la medicina. Non ci si richiama necessariamente a una visione sistemica, olistica o esistenziale. Halassy ha fatto fatica, ma ha vinto. Lo spettacolo deve continuare.

 

NOTE

[1] Cfr. https://blog.practicalethics.ox.ac.uk/2024/11/is-it-ever-ok-for-scientists-to-experiment-on-themselves/

[2] La terapia ha impiegato prima un virus del morbillo e poi un virus della stomatite vescicolare, patogeni già studiati in contesti di viroterapia oncolitica.

[3] Come il dottor Bassetti l’hanno fatto le numerose riviste che si sono rifiutate di pubblicare l’articolo – scientifico – di resoconto scritto da Beata

[4] Sul concetto di Scienza maggioritaria e scienza minoritaria – coniato in questo blog da Alessio Panella e Gianluca Fuser – si veda qui

 


Cicli glaciali e attività antropica - La concentrazione dei gas serra in atmosfera

Come abbiamo accennato in un precedente post[1],dallo studio sui cicli glaciali emerge una relazione diretta tra il variare della radiazione solare e la concentrazione naturale dell’anidride carbonica e del metano presenti in atmosfera.

La prima spiegazione valida a questo fenomeno arrivò nel 1981, quando il meteorologo John Kutzbach pubblicò uno studio in cui ipotizzava che, alle latitudini tropicali e in corrispondenza coi moti ciclici millenari terrestri, all’aumento della radiazione solare corrispondesse un aumento di intensità del fenomeno dei monsoni estivi che coinvolgono il Nord Africa [2], con relativa crescita di umidità ed espansione delle aree verdi in regioni attualmente desertiche.

Una delle conferme più incisive di questa teoria arrivò dagli studi effettuati sui carotaggi della calotta glaciale antartica estratti dalla stazione russa di Vostock (arrivata a circa 3.300 metri di profondità), al cui interno si trovavano imprigionate bolle d’aria risalenti fino a circa 400.000 anni fa. Oltre a confermare la maggiore umidità globale nell’epoca interessata dallo studio di Kutzbach, questi risultati rivelarono anche una maggiore presenza di metano nell’atmosfera nei periodi di più intenso irraggiamento solare [3], ossia in coincidenza con la maggiore presenza di vegetazione alle latitudini tropicali.

IL COMPORTAMENTO NATURALE DEL METANO NEI MILLENNI

Da quanto emerge dai carotaggi glaciali e da quelli oceanici, il ciclo di concentrazione atmosferica di CH₄ ha sempre mantenuto un’oscillazione costante nelle decine e centinaia di millenni passati, in correlazione coi moti millenari del pianeta [4].

Come risulta dalle verifiche effettuate in seguito sullo studio di Kutzbach, la variazione della concentrazione di metano in atmosfera è dovuta al fatto che in queste vastissime aree tropicali si trovavano grandi aree verdi che, nei momenti di maggiore intensità monsonica, venivano sommerse: la teoria aveva trovato le sue conferme.

In sostanza, il ristagno di queste acque innescava su scala macroscopica fenomeni di decomposizione organica anaerobica a carico dei microrganismi metanogeni, del tutto analoga a quella degli ambienti palustri.

Questa attività monsonica e i suoi effetti scatenanti le emissioni naturali di metano vanno estesi, oltre che alla regione del Sahel nordafricano studiato da Kutzbach, anche a tutte le vastissime aree tropicali che attraversano l’Arabia meridionale, l’India, il Sudest asiatico, fino ad arrivare alla Cina meridionale [5].

PERCHÉ AUMENTO ANOMALO “RECENTE” DELLE EMISSIONI DI CH₄?

Il ciclo di precessione coi suoi relativi effetti studiati da Kutzbach si compie in circa 25.000 anni, con intensità variabili dovute al concorso degli altri moti millenari compiuti dalla Terra.

Al giorno d’oggi ci troviamo nel minimo storico della radiazione solare estiva, a circa 10.000 anni di distanza dal massimo, e la concentrazione atmosferica di metano, anziché diminuire come era stato previsto, è aumentata.

Come risulta dalle diverse attività di studio elencate in precedenza, l’arresto del decremento e questo trend di anomalo aumento sono cominciati ben 5000 anni fa, ossia molto prima della rivoluzione industriale, a cui fino ad allora si attribuiva l’unica variazione anomala, e il cui inizio oscilla tra 250 e 200 anni fa.

Rimaneva ancora inspiegato e dunque attribuito a fattori "naturali" e “non-industriali” l’incremento precedente a quest’ultima era della produzione umana, a vantaggio anche dei negazionisti di un anomalo cambiamento climatico in atto e di chi faceva dunque risalire le cause a questi non ben precisati fenomeni naturali.

Se la spiegazione determinante di questi cambiamenti fosse risieduta nella sola “Natura”, allora il clima terrestre sarebbe dovuto andare incontro a un raffreddamento globale. Invece non è stato così.

Non solo le temperature medie sono aumentate, ma anche le emissioni di gas serra prodotte negli ultimi 250-200 anni non erano spiegabili, in quanto rappresentavano la sola metà del totale presente in atmosfera registrato all’epoca dei suoi studi.

La metà mancante andava cercata altrove e, escluse di per certo le cause naturali, il sospetto rimaneva in ambito antropico.

---------------------

La risposta a questo comportamento anomalo pre-industriale arrivò quando William Ruddiman ebbe un'intuizione, che verrà descritta in un prossimo post.

 

 

NOTE

[1] Il post è “Stiamo ritardando la prossima glaciazione? Si.” e ne consigliamo la lettura in quanto propedeutico alla comprensione di questo presente.

[2] Questa teoria nacque dall’obiettivo primario di comprendere perché nella zona desertica del Sahel vi siano testimonianze di una precedente esistenza di fiumi e vegetazione.

[3]Vedi nota #1

[4] Fatta ovviamente esclusione per le emissioni straordinarie di metano dovute alle naturali attività vulcaniche, riconoscibili perché corrispondono ad aumenti di proporzione in un lasso brevissimo di tempo.

[5] Il lettore sarà  agevolato nella comprensione di questo fenomeno di desertificazione progressiva se riporterà  la sua mente agli studi scolastici sulle popolazioni della “Mezzaluna Fertile”, nonché ai monumenti e alle città  ritrovate, ora in pieno deserto.


Necro-spider hand - Due facce della medaglia della tecnoscienza

Si dice che divertirsi aiuti a rilassarsi, ad imparare più facilmente e, anche, ad essere più creativi.

Sembra assodato che il divertimento sia un tassello fondamentale della vita quotidiana e sembra che sia importante anche nella vita e nel lavoro degli scienziati. 

Anche durante la ricerca scientifica, è utile trovare il giusto divertimento, così da poter "scoprire ridendo". 

Su questa linea di pensiero è stato pensato il premio IgNobel, un riconoscimento che «onora risultati di ricerca così sorprendenti da far prima RIDERE e poi RIFLETTERE»; il premio  vuole «celebrare l’inusuale, premiare l’immaginifico e suscitare interesse, nel grande pubblico, per le scienza, la medicina, le tecnologie».  

Le ricerche che portano alla vittoria di questo tanto ambito premio – dieci vincitori ogni anno - sono pubblicate sulla rivista umoristico-scientifica Annals of Improbable Research, che raccoglie studi su argomenti strani, inaspettati e che dimostrano quanto gli scienziati si divertano a fare ricerca.

In questo post parliamo di un premio IgNobel del 2023, quello assegnato a Te Faye Yap, Zhen Liu, Anoop Rajappan, Trevor Shimokusu, and Daniel Preston, “per aver rianimato ragni morti da usare come micro-strumenti meccanici di presa”.

Faye Yap e colleghi sono bravi ingegneri con un pizzico di eccentricità; immaginiamoli dopo una giornata di lavoro passata “tra bulloni e viti” a costruire una mano robotica, che notano un ragno morto sulla scrivania e – probabilmente  - pensano: «Ma non si potrebbe usare…».

Quello che potrebbe far pensare ad un episodio di Black Mirror,  è il risultato di una ricerca vera e sorprendentemente utile. Gli autori si sono ispirati alla fisiologia degli aracnidi, dando vita a una branca della meccanica che potremmo definire necrobotica.

La necrobotica è l'unione tra biologia e robotica, dove parti di organismi morti vengono riutilizzate come componenti robotici. In questo caso, i ricercatori hanno sfruttato le proprietà naturali del ragno per creare un dispositivo di presa micromeccanico.

I ragni muovono le loro zampe attraverso un sistema idraulico: pompando emolinfa nel loro esoscheletro, le zampe si estendono e quando la pressione diminuisce, si contraggono. Dopo la morte  il sistema idraulico del ragno non funziona più, ma la struttura meccanica rimane intatta. Inserendo un ago nel prosoma (la parte anteriore del corpo del ragno) e applicando una piccola quantità di aria pressurizzata, i ricercatori sono stati in grado di controllare l'apertura e la chiusura delle zampe, trasformando il ragno in una pinza naturale.

Figura 1 - Esempio di creazione della manina-ragno
(immagine tratta dall'articolo di Te Faye Yap, Zhen Liu,
Anoop Rajappan, Trevor Shimokusu, and Daniel Preston)

Questo sistema ha dimostrato di essere sorprendentemente efficace: il ragno "cyber-zombificato" può afferrare oggetti fino a 130 volte il proprio peso. 

Si possono immaginare le applicazioni in micro-ingegneria o in situazioni dove sono necessari strumenti delicati e biodegradabili.

Figura 2 - Esempi di utilizzo della manina-ragno
(immagine tratta dall'articolo di Te Faye Yap, Zhen Liu,
Anoop Rajappan, Trevor Shimokusu, and Daniel Preston)

Sfortunatamente, la durata funzionale della pinza-ragno era limitata a circa due giorni dopo la morte del ragno, a causa della disidratazione che rendeva le articolazioni più fragili e suscettibili a fratture meccaniche nel tempo. 

A cosa può veramente servire questa ricerca? 

Questa tecnologia potrebbe essere impiegata nell'assemblaggio di microelettronica o per la cattura di insetti nel loro habitat naturale. Infatti, la pinza-ragno è in grado di afferrare oggetti delicati e con geometrie particolari, come solo un aracnide può fare. È anche possibile modulare la forza di presa variando la pressione applicata, per applicazioni che richiedono forze dell'ordine di decine o centinaia di micronewton.

Studiare la forza di presa in ragni di diverse dimensioni o specie potrebbe portare a una comprensione più approfondita della relazione tra le dimensioni del ragno e la forza esercitata. I futuri lavori potrebbero includere l'esplorazione di metodi di rinforzo per migliorare la durata e la robustezza della pinza necrobotica, magari con qualche trattamento antietà per mantenere le articolazioni ben lubrificate.

Questa innovazione è una prova del fatto che possiamo imparare molto dalla natura, facendoci dare darci una mano nel migliorare le tecnologie attuali. 

Infatti, la progettazione e la fabbricazione dei robot tradizionali comportano spesso processi complessi e tediosi. La necrobotica, tuttavia, bypassa gran parte del processo di fabbricazione incorporando componenti robotici all’interno di materiali biologici (e anche a chilometro zero) - o viceversa.

Un altro elemento da considerare è che le applicazioni della necrobotica sono realizzate per la maggior parte con materiali biodegradabili e, quindi, non contribuiranno al crescente flusso di rifiuti tecnologici – costituendo un significativo passo per l'ecosostenibilità.

DUE CONCLUSIONI, DUE FACCE DELLA MEDAGLIA

In conclusione, da un lato sembra evidente che il divertimento e la stranezza debbano essere i benvenuti nei laboratori di ricerca e che questi possono portare stimoli e idee tanto simpatici quanto utili per quella cosa che Latour definisce tecnoscienza.

Dall’altro lato, questa storia ci ricorda che “la natura” e gli animali considerati inferiori - in questo caso i ragni - vengono ancora utilizzati per la ricerca e per scopi di innovazione tecnologica con assoluta noncuranza per una loro possibile soggettività e capacità di vivere e sentire in modo complesso: «Il materiale biologico grezzo (i cadaveri dei ragni) venne procurato praticando l’eutanasia attraverso l’esposizione a temperature di congelamento (circa - 4°) per un periodo di circa 5-7 giorni».

 

BIBLIOGRAFIA

Te Faye Yap, Zhen Liu, Anoop Rajappan, Trevor J. Shimokusu, Daniel J. Preston. Necrobotics: Biotic Materials as Ready-to-Use Actuators. DOI: https://doi.org/10.1002/advs.202201174. Link diretto allo studio: https://onlinelibrary.wile


Deus absconditus. L’emancipazione di Homo “sacer” - Seconda parte

IL CONCETTO DI “IMMATERIALE” E QUELLO DI “INTANGIBILE”

La scorsa volta abbiamo cominciato a esplorare le sopravvivenze del sacro nel mondo secolarizzato, che a torto s’immagina essere emancipato dalle istanze più arcaiche di Homo sapiens. Certamente il lettore di STS è informato dai protocolli congiunti di ragione, scienza e tecnica, il sacro essendo per lui al più un ricordo d’infanzia legato all’educazione scolastica e famigliare. Se un’indole religiosa ancora lo abita, è quella dell’agnostico/a. Ciò nondimeno, questo episodio della serie è dedicato a chiunque, pur professandosi ateo o agnostico, è persuaso che un mondo “immateriale” si accompagni a quello materiale, mostrando così come il sacro permei tuttora la sua concezione del mondo.

Per sconfiggere questa forma residuale di superstizione, certamente meno grave di quella religiosa ancorché altrettanto diffusa, cominciamo con l’esaminare l’uso linguistico del lemma “immateriale”. Non a caso esso è aggettivale, si pensi a espressioni quali “corpo immateriale”, “patrimonio immateriale”, “cultura immateriale”, ecc. Senza un campo d’applicazione concreto, non avrebbe ragion d’essere. Il sostantivo che di volta in volta il lemma parassita non si riferisce a un “ni-ente”, ma a un ente vampirizzato. Se l’intensione del concetto rimanda a enti inconsistenti di fatto inesistenti, la sua estensione si riferisce a espressioni linguistiche multiuso al servizio di utilizzatori persuasi che esistano due mondi. Quello di “immateriale” è un concetto figlio della superstizione dualistica, la quale a sua volta è debitrice del sacro. Se non è il caso di espungerlo dal vocabolario delle lingue umane, pena un impoverimento del mondo, certamente va bandito dall’orizzonte onto-epistemologico.

Al suo posto andrebbe utilizzato il concetto di “intangibile”, da cui “corpo intangibile”, “patrimonio intangibile”, “cultura intangibile”, ecc. L’equivoco che si insinua tra i due concetti non discende solo dalla sfera sacrale e da concezioni filosofiche superate, ma anche dalla serie di precondizioni materiali che ne sono alla radice. Sul banco degli imputati va convocata la natura eterogenea del mesocosmo terrestre, laddove immagini, suoni e odori si propagano attraverso un’atmosfera rarefatta e una forza gravitazionale debole. Quello che comunemente si ritiene “immateriale” è una rete inafferrabile di relazioni materiali a bassa densità, della quale partecipa la coscienza. La nostra impalpabile soggettività ci sembra abitare un corpo gettato in un mondo a sua volta conteso tra spirito e materia, una superstizione tanto ubiqua, quanto congenita.

Qualcuno obietterà che passi la materialità controintuitiva dell’aria, delle immagini, dei suoni e degli odori. Ma le emozioni, i sentimenti, le idee e la cultura non sono identificabili con alcun supporto materiale. Per eliminare ogni residuo spiritualista, è sufficiente applicare il concetto di intangibilità a ogni ambito della sfera spirituale. Prendiamo il più impalpabile degli enti, la mente. In polemica a distanza con il dualismo cartesiano, al giorno d’oggi si parla opportunamente di “mente estesa” (CLARK-CHALMERS 1998), tanto nell’alveo della filosofia analitica che, con qualche resistenza, in quello della filosofia continentale europea. Se l’estensione è disomogenea nello spazio e nel tempo, se una mente estesa è differentemente localizzata, allora è dis-locata. Essa consiste in un processo interamente materiale che evolve di corpo pensante in corpo pensante, depositandosi all’occorrenza su supporti inerti che attendono di essere animati. Nelle culture alfabetizzate, per esempio, poggia sui differenti media che ci hanno insegnato a leggere queste righe, e che assieme al resto si sono depositati in noi sub specie di informazione elettrochimica, non prima che colpissero i sensi attraverso luci, suoni, odori, sensazioni in genere. A ciò si unisce la voce che i significati declama prima di imparare a silenziarli nel pensiero o a trascriverli su un supporto, la quale necessita delle corde vocali per propagarsi. Non parliamo dell’esperienza di vita che la voce forgia. L’intero processo che fa capo a ciò che siamo è chiamato in causa, il quale altro non è se non la nostra mente estesa. Questo contribuisce a farla ritenere priva di quel corpo materiale che in effetti non ha, perché ne ha molti in relazione tra loro. Tra di essi, i significati, le idee e la cultura di cui la mente si sostanzia, tutti necessariamente materiali.

Chi, leggendo queste righe, si fosse persuaso che il monismo materialista è cosa buona e giusta, provi a ripensare a un solo ente immateriale: non ci riuscirà più. La sua nuova fede comporta l’abbandono di altri tre concetti indebiti: quello di riduzionismo, di panpsichismo e di creazione intelligente. Al monismo materialista non può che accompagnarsi una concezione emergentista in un mondo causalmente autonomo (cfr. ZHOK 2011). Assegnare una mente creatrice alla sostanza generalizzata significa far rientrare dalla finestra la divinità cacciata dalla porta, come la Pimpa che anima gli enti applicando loro un paio d’occhi. Sovrapporli agli oggetti quotidiani, ai feticci della divinità o all’universo mondo non fa alcuna differenza, se l’artefice è chi sovrappone. Quanto al riduzionismo, in aperta contraddizione è chi pretende di ridurre gli enti ai suoi costituenti non essendo a sua volta ridotto. In un mondo composito, a densità variabile e caratterizzato da organizzazioni spazio-temporali relativamente in/dipendenti, non si vede a quale livello si sia legittimati a fondare. Ritenere il microcosmo come il livello più autentico significa perdere di vista non solo il mesocosmo terrestre e chi lo abita, ma anche il macrocosmo. La danza delle galassie necessita anch’essa del vuoto quale pista da ballo, il quale non è immateriale, è vuoto e basta.

Insomma Dio è morto, Marx pure e anche l’immateriale sembra debba lasciarci.

 

 

NOTE

Clark, A. - Chalmers, D., The extended mind, Analysis, 58.1, January 1998, pp. 7-19.

Zhok, A., Emergentismo. Le proprietà emergenti della materia e lo spazio ontologico della coscienza nella riflessione contemporanea, ETS, 2011


Ridiamo delle macchine? – Seconda parte

IL DISTRATTO E L’OSTINATO

Torniamo, per un’ultima volta, all’esempio dell’inciampo. Chiediamoci: quando affermiamo, nel corso dell’analisi, che la corsa dell’uomo che inciampa è fin troppo meccanizzata? Soltanto quando è già intervenuto un elemento di disturbo - un ciottolo, un’irregolarità, un imprevisto - che interrompe il regolare corso di un’abitudine. Fino a quel momento, fin quando egli non era caduto, l’idea o la sensazione di ridere non ci aveva minimamente sfiorato. Sarebbe evidentemente contro fattuale asserire che ridiamo di ogni abitudine, benché le abitudini siano, in qualche grado, una ripetizione. Con la caduta, l’abitudine contratta diventa immediatamente risibile, ma contemporaneamente è diventata «troppo meccanica», «abitudine irrigidita», e così via. L’elemento di disturbo non ha semplicemente «mostrato» l’abitudine troppo meccanica, ma l’ha in qualche modo determinata, l’ha resa per ciò stesso troppo meccanica per la realtà con cui è entrata in contrasto: la «rigidità di meccanismo» e «l’elemento di disturbo» nascono in unisono, laddove fino all’attimo prima operavano congiuntamente.

Tutto ciò ci permette di proporre una questione alternativa, nata in seno alla divisione delle due ragioni precedentemente espresse: il riso, in questa sua funzione squisitamente sociale, non è forse, piuttosto che essere il castigo di ciò che è umanamente troppo meccanizzato, il meccanismo sociale ad un tempo di razionalizzazione e oggettificazione per carpire e respingere ciò che di imprevedibile tocca l’abitudine?

Consideriamo i due casi del «distratto» e dell’ «eccentrico» o «ostinato», entrambi citati da Bergson[1]. Quando rido del distratto, in superficie irrido ciò che c’è di troppo meccanismo nei suoi atti, mentre in profondità la risata è l’atto stesso con cui allontano e oggettivo da me, singolo o società, l’evento dell’imprevedibilità che colpisce «qualcuno sino ad allora come me». Il riso è un atto di differenziazione non da ciò che è “troppo meccanico”, ma da ciò che è stato reso “troppo meccanico”, e dalla forza che è responsabile d’essersi “impossessata” di quell’abitudine: non allontano solamente il soggetto divenuto oggetto, ma in pari tempo la forza che ha reo possibile quell’oggettificazione. È qualcosa che Bergson tocca, seppur fugacemente e con gran dose d’ambiguità, nelle battute finali dell’opera: il riso, come il sogno, «è distacco».

Quando, diversamente, irrido colui che è ostinato oltre ogni ragione, in superficie posso sì affermare che, nuovamente, sto deridendo ciò che v’è di troppo meccanico in questi atti, ma la risata è, in profondità, il preciso meccanismo con cui allontano e dissacro ciò che v’è di imprevedibile negli atti di qualcosa che si «discosta dal centro comune».

Dell’ostinato non ridiamo per via della sua ostinazione, ma per il timore che ispira l’inintelligibilità delle sue ragioni, come il «raccapricciante e imprevedibile» citato da Friedrich Nietzsche (Aurora, p. 17) Infatti, si dovrà pur spiegare perché il folle ispiri così profondamente la coscienza comica.

Con buona pace di Bergson, la vergogna e la colpa impiegate dal riso, «intimidire umiliando» (Cit, p.98) della società non sarebbero dunque la vita vivente e mutevole che castiga ciò che c’è di «troppo automatizzato nella volontà» (Cit. p.94), ma i mezzi diretti per la gestione dell’imprevedibilità. Il riso è strumento dell’economia dell’imprevedibile.

Ridiamo del distratto e dell’ostinato, ma mentre nel primo caso l’evento comico è separato dal soggetto - «Giovanni non è la sua caduta», ma rido contemporaneamente di «Giovanni caduto» e della forza che ha fatto sì che egli divenisse quella forma oggettiva e meccanica -, nel secondo caso l’ostinazione fa tutt’uno con il soggetto - la forza che ha oggettificato il distratto è esterna, la forza che ha stravolto l’ostinato è interna. Non ci vendichiamo dei distratti ma degli ostinati.

Se dovessimo dare una semplicistica differenziazione basata sul binomio volontà-mondo, il distratto intimorisce l’intromissione del mondo negli eventi che provocano un errore, l’ostinato intimorisce per l’intromissione di qualcosa di imprevisto o irregolare nella volontà stessa del soggetto, più che del mondo.

Il riso diretto al distratto distanzia il ridente dall’oggettificazione di una volontà per via di un elemento di intromissione che se ne è come “impossessato”, il riso verso l’ostinato è esso stesso l’atto con cui si tenta di oggettificare una volontà - sbagliato.

Allora, dopo aver detto tutto ciò, ritorniamo a chiederci: ridiamo delle macchine? La risposta di Bergson è doppia: non ridiamo di ciò che è meccanico in quanto tale, ma se ne ridiamo è all’opera una qualche forma di antropomorfosi, un’analogia. Di conseguenza, nella e della macchina non c’è nulla che spieghi la funzione sociale del riso. Eppure, da ciò che si è scritto consegue un’ipotesi alternativa e correlativa.

Non ridiamo delle macchine, non perché queste non partecipano della variabile variabilità che contraddistingue la vita, ma in quanto non partecipano di ciò che comunemente si intende come essenza della volontà, ossia l’imprevedibilità, e la forza di quest’imprevedibilità di trasformare la stessa volontà in cose.

Perché la volontà vuole per sé quell’imprevedibilità che proviene dalla forza dell’ignoto, essa vuole oggettificare ma non vuole essere oggettificata.

 

NOTE

[1] Cfr, H. Bergson, Il riso