Omeopatia e memoria dell’acqua - Per una ricerca oltre le contrapposizioni
Quando si parla di memoria dell’acqua, solitamente si cita il lavoro dell’immunologo francese Jacques Benveniste (1935–2004) - che coniò l’espressione “memoria dell’acqua” - e quello più recente di Luc Montagnier, che occasionalmente si trovò a descrivere le proprietà di una soluzione ultra diluita. E si afferma che questi lavori sarebbero stati confutati dalle confutazioni che avrebbero messo una pietra tombale sull’omeopatia. Tali confutazioni, tuttavia, sono state a lor volta respinte e ritenute non attendibili: si veda, ad esempio, il Report del Governo Svizzero del 2011 che rappresenta la valutazione più completa sulla Medicina Omeopatica mai scritta da un Governo (Bornhoft e Matthiessen, Homeopathy in Healthcare: Effectiveness, Appropriateness, Safety, Cost).
Fra le critiche all’omeopatia si afferma, da parte di clinici e farmacologi, che l’Omeopatia sia efficace solo per l’effetto placebo. Ma la gran parte dei nostri pazienti si rivolge a noi perché delusi dalla medicina “allopatica”, dopo essere stati in prima battuta dal loro medico di famiglia, poi anche dallo specialista di riferimento che non di rado è un clinico rinomato, cattedratico ecc… Inoltre, sappiamo che l’effetto placebo è insito in ogni terapia ed è relativo all’investimento di speranza e fiducia che il paziente ha nei confronti della medicina assunta.
Per cui sorge la domanda: come mai migliorano o guariscono solo con l’effetto placebo dell’omeopatia e non con quello dell’allopatia, tanto che essi sono costretti ad intraprendere altre strade per prendersi cura della propria salute?
La sperimentazione pura, ossia la somministrazione di un medicamento diluito a un soggetto sano, provoca una sintomatologia che, se presente in un paziente malato, quello stesso rimedio è in grado di guarire. Questa procedura che è stata avviata da Hahnemann e proseguita dai suoi allievi è insegnata in alcune scuole di omeopatia; anch’io all’inizio, quando ero ancora studentessa un po’ incredula, l’ho provata. È un modo per toccare con mano la legge dei simili, ma soprattutto per imparare a osservare se stessi e dunque anche i malati.
Il medico agisce in base ai bisogni del malato e ancora oggi non può sottrarsi a una certa dose di empirismo se vuole essere efficace e tempestivo; e spesso è guidato meglio dall’esperienza che dalle cosiddette Linee Guida.
La medicina è nata prima della scienza moderna e quest’ultima spesso si è trovata a spiegare a posteriori il meccanismo di azione di farmaci usati fino a quel momento in modo empirico.
L’esperienza di migliaia di omeopati e dei loro pazienti non può non essere considerata un’evidenza solo perché non è chiaro, alla luce delle attuali conoscenze scientifiche, quali sia il meccanismo di azione dei farmaci omeopatici.
E’ ragionevole pensare, proprio alla luce dello sviluppo storico della scienza, che presto il meccanismo di azione di un ultra diluizione sarà spiegato forse anche grazie alla fisica quantistica, di cui oggi si parla tanto (e non sempre a proposito, spesso consegnando al mondo new-age quanto dovrebbe appartenere a una ricerca seria).
Non dovremmo inoltre dimenticare, limitandoci alle diatribe sull’omeopatia, che abbiamo tutto un patrimonio di medicine tradizionali, con un bagaglio secolare di sapienza che rischia di andare perduto, se non si cercano con urgenza nuovi epistemi e nuove modalità di ricerca.
Quello che sarebbe importante è sedersi intorno a un tavolo, allopati ed omeopati senza rivalità od ostilità, e iniziare a studiare insieme questi fenomeni perché il tema della salute non può essere ristretto a un solo pensiero dominante e prevalente.
In fondo lo scollamento fiduciario, tra quello che i malati si aspettano dai medici e quello che i medici sono in grado di offrire oggi, è sempre più ampio ed è l’espressione di una crisi della medicina e della professione medica che è sotto gli occhi di tutti.
L’apporto delle Medicine Tradizionali e Complementari, con un’attenzione alla complessità della persona che soffre, alla relazione medico-paziente (che non è amabilità ma strumento di conoscenza per la giusta prescrizione), dovrebbe essere riconosciuto e apprezzato anche dal mondo accademico, perché quello che dovrebbe premere a tutti noi è solo la salute delle persone.
Sull’incommensurabilità e incomunicabilità dei paradigmi - Il caso dell’omeopatia
Si discute da decenni di omeopatia (dal greco omeios, simile e pathos, malattia). Un approccio alla cura, basato sulla legge dei simili, che prevede l'utilizzo di un rimedio (omeopatico) che produce nella persona sana gli stessi effetti (sintomi) della malattia che si vuole curare. Pertanto, il rimedio è simile alla malattia nella manifestazione dei sintomi che produce, ma di specie od origine diversa, cioè non è derivato o composto dello stesso agente che causa la malattia.
È certamente un’idea contro-intuitiva; e quindi non facile da accettare.
Ma anche il principio su cui sono nate le vaccinazioni era fortemente contro-intuitivo: inoculare un agente patogeno in un corpo, al fine di prevenire la malattia causata dallo stesso agente patogeno, all’inizio era considerata un’assurdità. Di solito se voglio non ammalarmi, cerco di stare a distanza dall’agente patogeno; non certamente lo introduco intenzionalmente nel mio corpo. Eppure sappiamo che con le vaccinazioni si fa proprio questo.
Le origini
Il medico tedesco Samuel C.F. Hahnemann (1755 – 1843) arrivò alla definizione di questo metodo di cura attraverso l’intuizione, la sperimentazione (dapprima della corteccia di China, da cui si estrae il chinino con cui si curava la malaria, e poi di altri rimedi su sé stesso, i suoi familiari e i suoi allievi, e raccogliendo una grande quantità di esempi clinici) e l'osservazione dei meccanismi della biologia, analizzando ciò che accade quando nello stesso soggetto si incontrano due malattie che hanno sintomi completamente diversi (malattie dissimili), oppure malattie con sintomi comuni (malattie simili).
Per evitare gli effetti collaterali delle medicine o rimedi omeopatici, Hahnemann ridusse sempre di più il loro dosaggio, arrivando così a dosi estremamente basse. Di fronte all'obiezione che dosi così piccole non potevano più essere efficaci, egli ribatté che l'efficacia curativa delle sostanze poteva essere enormemente aumentata tramite un processo chiamato "dinamizzazione", consistente nello scuotere (succussione) ripetutamente il prodotto.
Esistono oggi numerosi studi fisico-chimici che spiegano il meccanismo d'azione di tali diluizioni. Il problema rimane la riproducibilità di tali esperimenti, data l'instabilità di queste diluizioni (si veda Associazione Lycopodium 2019, Introduzione all’omeopatia).
Ai giorni nostri
Nel 1988 venne per la prima volta avanzata l'ipotesi della memoria elettromagnetica dell'acqua da parte dell’immunologo francese Jacques Benveniste (1935-2004). Quella che allora sembrava un'eresia, oggi è documentata da diversi gruppi di ricerca:
«In pratica, l'acqua ha un comportamento dinamico e le molecole sono in grado di formare dei reticoli assimilabili a un filo conduttore. Quando l'acqua viene posta in un campo magnetico le molecole si mettono ad oscillare all'unisono in modo coerente, o come si dice, in fase. La frequenza di oscillazione può essere trasmessa ai liquidi biologici» (Associazione Lycopodium 2019, Introduzione all’omeopatia).
In altre parole, l'acqua si comporta non come un materiale inerte e passivo, bensì dinamico nella trasmissione di una informazione energetica. Ogni stimolo fisico-chimico, e quindi anche la sostanza del rimedio, ha una certa frequenza di oscillazione che viene trasmessa all'acqua della soluzione, la quale continua a vibrare con la stessa frequenza anche quando la sostanza non è più presente.
«Il processo di agitazione del liquido (succussione) avrebbe proprio il compito di ‘riattivare la memoria dell'acqua’ ad ogni passaggio di diluizione, cioè 'rienergizzarla' con la stessa frequenza corrispondente alla sostanza iniziale. L'acqua fungerebbe così da messaggero, trasferendo poi la frequenza di oscillazione, ovvero l'informazione, ai tessuti e ai liquidi biologici dell'organismo che l'assume.
Sono state fatte altre ipotesi sul meccanismo di trasferimento dell'informazione da parte dell'acqua (tramite degli aggregati di molecole particolari, cavi al centro, che incorporerebbero così la molecola di soluto, i cosiddetti cluster) e la possibilità di una verifica sperimentale non sembra più così lontana.
La ricerca di base in Omeopatia ha ormai permesso di ritenere che il rimedio omeopatico sia dotato di una specificità nei confronti di sistemi 'recettoriali' dell'organismo. Il segnale veicolato dalla soluzione viene riconosciuto specificamente dall'organismo bersaglio ed elaborato in modo da indurre un'azione positiva su tutto il sistema. Si tratterebbe comunque di un'attività biologica in presenza di tracce di molecole, tanto che è stato coniato il termine di biologia metamolecolare, e l'informazione veicolata differisce da quella conosciuta dalla biologia e dalla farmacologia classiche» (Associazione Lycopodium 2019,Introduzione all’omeopatia).
Sappiamo che queste affermazioni sono ritenute prive di fondamento e di solide basi sperimentali da parte di molta medicina, biologia e farmacologia (più aperti sembrano invece i fisici teorici). Le diluizioni vengono considerate “acqua fresca” e gli effetti benefici dell’omeopatia come un “effetto placebo” dell’empatia, ascolto, attenzione, cura che il/la medico omeopata mette nella relazione con il/la paziente.
Una difficile mediazione
Come se ne esce? È possibile trovare una mediazione? Sì e no.
Sì,
nel senso che una mediazione è da tempo già praticata, anche in diverse strutture pubbliche del Sistema Sanitario Nazionale (ad esempio la Regione Toscana, sin dal 1996), dove la “medicina integrativa” o TCIM (Traditional, Complementary and Integrative Medicine) mostra tutta la sua utilità ed efficacia.
La TCIM, per come l’ha definita l’OMS (Organizzazione Mondiale della Sanità),
“è la dimora di numerose concezioni e sistemi medici, come la medicina tradizionale cinese, la medicina ayurvedica, l’omeopatia, la medicina antroposofica e le medicine tradizionali locali. La caratteristica della TCIM è quella di integrare le cure convenzionali, farmacologiche e non, con altri approcci basati sull’esperienza artistica, sul movimento, sulle cure infermieristiche, sul colloquio biografico. Metodi diversi che si appellano all’attivazione del paziente e che risvegliano risorse latenti di guarigione molto differenti fra loro. Inoltre, la TCIM si propone strategie di ricerca che tengano conto della salute globale, per esempio sviluppando approcci di cura rivolti alle malattie croniche o a contribuire ad affrontare problemi collettivi come quello della resistenza antimicrobica (Kienle et al. 2019; Baars et al. 2019). Questi sistemi medici sono orientati primariamente alla qualità della vita, ma non si limitano ad essa; inoltre, si rivolgono non solo al paziente, ma anche ai curanti, per la prevenzione del burnout (Ben Arye et al. 2021).
No,
perché quello a cui assistiamo è uno scontro tra paradigmi, nel senso di Kuhn (1962, La Struttura delle Rivoluzioni Scientifiche).
Ogni paradigma ha i suoi assunti (taciti e/o espliciti), le sue premesse epistemologiche, le sue convenzioni metodologiche relative a quali siano i metodi adatti e cosa rappresenti un prova o un’evidenza.
Approssimando non poco, perché sia all’interno della medicina allopatica che in quella omeopatica esistono molte differenze, sfumature e sensibilità, attualmente nella medicina allopatica è dominante l’approccio basato sull’evidenza (EBM), che al di là dell’altisonante uso del termine ‘evidenza’, con esso intende «l'uso di stime matematiche del rischio di benefici e danni, derivate da ricerche di alta qualità su campioni di popolazione, per informare il processo decisionale clinico nelle fasi di indagine diagnostica o la gestione di singoli pazienti» (Greenhalgh 2010, How To Read a Paper: The Basics of Evidence-Based Medicine, p. 1). In altre parole, le evidenze sono risultanze statistiche derivate da studi a doppio cieco su campioni di popolazione. Conosciamo però (oltre ai pregi, anche) tutti i limiti di questo metodo. Pensiamo soltanto che non pochi farmaci sono stati ritirati dal mercato (ad es. dietilstilbestrolo, talidomìde, vioxx) dopo aver passato rigorosissimi (almeno si spera) studi statistici a doppio cieco.
Come mai? Le ragioni sono tante (e servirebbe un post apposito per elencarle). Una per tutte è che ognuno di noi è fatto in modo diverso; siamo portatori di una biologia individuale o personalizzata (Lock, 1995; Lock & Nguyen, 2010; Merz, 2021). Per cui l’interazione tra una biologia individuale e un farmaco standardizzato produce un numero enorme di possibili esiti; ancor di più, quando l’interazione è tra due individualità, come ad esempio un individuo e un cibo, oppure una malattia.
Al contrario l’omeopatia è una practice-based medicine, cioè si basa sullo studio e l’osservazione di un paziente considerato nella sua individualità anziché rappresentatività. Su quello che accade concretamente a lui o lei, e solo a lui o lei. Sulla sua interazione con l’agente patogeno e la malattia, che è un’interazione del tutto particolare, specifica, personale. Su studi clinici (pochi casi) anziché statistici (molti casi).
Due diversi (e incomunicabili) concetti di empiria
Ci troviamo di fronte a due empirie diverse e (forse) incomunicabili. La prima (quella statistica), per cui i casi singoli non contano nulla. L’altra (quella clinica) per cui contano solo i casi individuali.
Ed è su questi differenti concetti di cosa sia ‘empirico’ che si è (anche) giocato lo scontro sulle terapie anti-Covid: da una parte molti medici di base (peraltro pienamente appartenenti alla medicina convenzionale, che nulla o poco avevano a che fare con l’omeopatia) che proponevano terapie precoci anti-covid basate su farmaci convenzionali (come ketoprofene, ibuprofene a basse dosi, morniflumato, aspirina, nimesulide, corticosteroidi, eparine, idrossiclorochina, Azitromicina, Paxlovid, Remdesivir, ecc.); dall’altra gli ospedalieri e la gran parte dei ricercatori/scienziati che sostenevano che bisognava aspettare gli esiti degli studi standardizzati prima proporre una terapia, perché non credevano alle esperienze empiriche (limitate nel numero di casi) dei medici di base. E così, in attesa di un bel studio a doppio cieco, le persone morivano senza assistenza… La cecità del doppio cieco, potremmo dire.
Spesso chi critica l’omeopatia sostiene che i suoi asserti non hanno superato i requisiti di riproducibilità di un esperimento, che insieme alla verificabilità di una ipotesi di lavoro, rappresentano i due pilastri fondamentali della ricerca scientifica. Chi ragiona in questo modo, però, dimentica che l’esperimento è solo una fra i (tanti) metodi scientifici che le scienze dispongono per validare le scoperte e le conoscenze. Anche perché l’esperimento (oltre agli innumerevoli pregi) è un metodo con molti limiti, capace di controllare soltanto un numero molto esiguo di variabili, che per funzionare deve necessariamente ridurre la complessità dell’interazione tra un individuo e il mondo circostante. In questo sta la straordinaria potenza dell’esperimento, ma al contempo la sua povertà intellettuale e culturale. L’esperimento non è capace di padroneggiare la complessità. Ha bisogno di ridurre…
Un’altra accusa, complementare alla precedente, che si muove all’omeopatia è che non è in grado di mostrare e replicare i meccanismi chimici su cui si basano le sue ipotesi. Oppure che affida le spiegazioni sul funzionamento molecolare dei rimedi omeopatici a future “magnifiche sorti e progressive” della fisica quantistica; mentre le spiegazioni noi le vorremmo ora, e non domani. In altri termini, si vedono gli effetti di un trattamento omeopatico, ma non si evidenziano chiaramente le cause, i meccanismi. Accusa speculare a quella che, invece, gli omeopati rivolgono ai farmaci convenzionali: intervengono sugli effetti e non sulle cause (innescando, a volte, anche reazioni avverse).
Anche in questo caso, l’impossibilità di comunicare e comprendersi è alta. Eppure pretendere di capire tutto e subito (di un farmaco, di un trattamento, di una teoria) è segno di scarsa apertura al possibile, all’inconoscibile, all’ignoto, al mistero…
L’aspirina
L’ASPIRIN è acido acetilsalicilico, della famiglia dei salicilati. Erodoto (V sec a.C.) nelle Storie narra di un popolo stranamente più resistente di altri alle comuni malattie, che era solito mangiare le foglie di salice. Ippocrate (V sec a.C.) descrisse una polvere amara estratta dalla corteccia del salice che era utile per alleviare mal di testa, febbre, dolori muscolari, reumatismi e brividi. Un rimedio simile è citato anche dai Sumeri, dagli antichi Egizi e dagli Assiri. Anche i nativi americani lo conoscevano e lo usavano.
Nell'era moderna è stato il reverendo Edward Stone, nel 1757, a scoprire gli effetti benefici della corteccia di salice. Sei anni dopo scrisse una famosa lettera alla Royal Society in cui giustificava in modo razionale l'utilizzo della sostanza contro le febbri.
La sostanza attiva dell'estratto di corteccia del salice bianco (Salix alba), chiamato salicina, fu isolata in cristalli nel 1828 da Johann A. Buchner e in seguito da Henri Leroux, un farmacista francese, e da Raffaele Piria, un chimico calabrese emigrato a Parigi, che diede al composto il nome attuale (acide salicylique).
Nel 1860 Hermann Kolbe e i suoi studenti dell'Università di Marburgo riuscirono a sintetizzare l'acido salicilico, immettendolo poi sul mercato nel 1874 a un prezzo dieci volte inferiore all'acido estratto dalla salicina, e già nel 1876 un gruppo di scienziati tedeschi, tra cui Franz Stricker e Ludwig Riess, pubblicarono su The Lancet gli esiti delle loro terapie basate sulla somministrazione di sei grammi di salicilati al giorno.
Il meccanismo di azione dell'aspirina fu conosciuto in dettaglio solamente nel 1970, dopo millenni di suo uso e 150 anni dal suo isolamento chimico.
Perché escludere che potrebbe accadere lo stesso anche per i preparati omeopatici?
In conclusione: l’omeopatia è una scienza?
Qualche tempo fa, Ioannidis (2005), medico ed epidemiologo greco e statunitense, uno dei più importanti scienziati nel suo campo, pubblicò un articolo dal titolo destabilizzante: Why most published research findings are false. Dieci anni più tardi, l’11 aprile 2015, Richard Horton (dal 1995 capo-redattore de The Lancet, forse la rivista medica più importante del settore) pubblicò una sorta di editoriale dal titolo “What is medicine’s 5 sigma?“, in cui afferma senza mezzi termini:
“gran parte della letteratura scientifica, forse la metà, potrebbe semplicemente essere falsa (untrue). Afflitta da studi con campioni di piccole dimensioni, effetti risibili, analisi esplorative non valide e evidenti conflitti di interesse, insieme a un'ossessione nel perseguire tendenze alla moda di dubbia importanza, la scienza ha preso una svolta verso il buio. Come ha detto uno degli addetti ai lavori "metodi scadenti ottengono risultati".
Se adottiamo una visione realistica (lontana da una versione idealista o normativo/prescrittiva della scienza, purtroppo propria di molta filosofia della scienza) dobbiamo accettare che le situazioni descritte da Ioannidis e Horton sono… scienza. Che ci piaccia o no.
E se queste pratiche (incerte, dubbie, difettose) sono a tutti gli effetti attività scientifiche, perché non accogliere e considerare anche l’omeopatia una scienza?
Chi lo vieta? Soltanto un’ottusità di sapore neopositivista…
Bibliografia
Baars EW, Zoen EB, Breitkreuz T, Martin D, Matthes H, von Schoen-Angerer T, Soldner G, Vagedes J, van Wietmarschen H, Patijn O, Willcox M, von Flotow P, Teut M, von Ammon K, Thangavelu M, Wolf U, Hummelsberger J, Nicolai T, Hartemann P, Szőke H, McIntyre M, van der Werf ET, Huber R. (2019) The Contribution of Complementary and Alternative Medicine to Reduce Antibiotic Use: A Narrative Review of Health Concepts, Prevention, and Treatment Strategies. Evid Based Complement Alternat Med. Feb 3: 5365608.
Ben-Arye E, Zohar S, Keshet Y, Gressel O, Samuels N, Eden A, Vagedes J, Kassem S. (2021), Sensing the lightness: a narrative analysis of an integrative medicine program for healthcare providers in the COVID-19 department. Support Care Cancer, Sept. 15:1–8.
Gobo, G, Campo E. e Portalupi E. (2023), A Systemic Approach to Health and Disease: The Interaction of Individuals, Medicines, Cultures and Environment”, in Medicine: A Science in the Middle, Alessandro Pingitore and Alfonso Maurizio Iacono (eds.), Berlin: Springer, pp. 39-53.
Kienle GS, Ben-Arye E, Berger B, Cuadrado Nahum C, Falkenberg T, Kapócs G, Kiene H, Martin D, Wolf U, Szöke H. (2019), Contributing to Global Health: Development of a Consensus-Based Whole Systems Research Strategy for Anthroposophic Medicine. Evid Based Complement Alternat Med. Nov 12: 3706143.
Lock M. (1995). Encounters with aging: Mythologies of menopause in Japan and North America, Berkeley (California): University of California Press.
Lock M., & Nguyen V-K. (2010). An anthropology of biomedicine, Hoboken (New Jersey): Wiley-Blackwell.
Merz S. (2021). Global trials, local bodies: Negotiating difference and sameness in Indian for-profit clinical trials. Science, Technology, & Human Values, 46(4), 882-905.
L'argomento fantoccio (dall'inglese straw man argument o straw man fallacy) è una fallacia logica che consiste nel confutare un argomento, proponendone una rappresentazione errata, distorta o addirittura ridicola.
Senza tentar di scrivere nulla di originale, possiamo affidarci al relativo articolo di Wikipedia, che recita:
«
in una discussione una persona sostituisce all'argomento A un nuovo argomento B, in apparenza simile. In questo modo la discussione si sposta sull'argomento B. Così l'argomento A non viene affrontato. Ma l'argomento B è fittizio: è stato costruito espressamente per mettere in difficoltà l'interlocutore (ecco perché “fantoccio”). Se l'operazione retorica riesce sembrerà che l'avversario sia riuscito a smontare l'argomento A. Tutto sta nel far sembrare che A e B coincidano.
L'argomento fantoccio è generalmente un argomento più debole di quello iniziale e per questa ragione più facile da contestare.
L'argomento può essere costruito:
-
- estremizzando l'argomento iniziale;
- citando fuori contesto parti dell'argomento iniziale;
- inserendo nella discussione una persona che difenda debolmente l'argomento iniziale e confutando la difesa più debole dando l'impressione che anche l'argomento iniziale sia stato confutato;
- citando casi-limite dal forte impatto emotivo;
- citando eventi avvenuti sporadicamente e/o accidentalmente e presentandoli come se fossero la prassi;
- forzando analogie fra argomenti solo apparentemente collegati tra loro;
- semplificando eccessivamente l'argomento iniziale;
- inventando una persona fittizia che abbia idee o convinzioni facilmente criticabili facendo credere che il difensore dell'argomento iniziale condivida le opinioni della persona fittizia.
Esempi
A un argomento fantoccio si può fare riferimento per deviare una discussione nel corso di un dibattito.
-
- A: Il proibizionismo non è lo strumento migliore per evitare il diffondersi dell'alcolismo.
- B: Soltanto persone senza un'etica potrebbero proporre di consentire a tutti, compresi i minori, un accesso indiscriminato all'alcool.
La persona A non aveva proposto di offrire un accesso indiscriminato all'alcool, ma di tentare un approccio diverso da quello basato solo sulla proibizione e la repressione. La fallacia sta nell'estremizzare la posizione adottata da A fino a trasformarla in qualcosa di diverso da ciò che A intendeva dire e di molto più attaccabile nella discussione.
-
- A: Bisognerebbe ridurre gli investimenti in campo militare e aumentare gli investimenti nella ricerca.
- B: A vuole lasciarci indifesi contro i nemici.
La persona B ha estremizzato l'argomento della persona A che parlava di ridurre, non eliminare, gli investimenti in campo militare.
»
Questa lunga citazione ben introduce il terrapiattismo come argomento fantoccio per delegittimare la critica sociale.
Molti giornalisti, filosofi, sociologi, politologi e psicologi (nelle loro argomentazioni) amano inserire nella categoria dei complottisti un guazzabuglio di soggetti: no-vax, vegani, no-TAV, negazionisti climatici, 5G, antivivisezionisti, biodinamici, omeopati ecc. e terrappiattisti. Che cosa abbiano in comune queste persone non è dato saperlo, però il minestrone è sempre un piatto (intellettualmente) povero che sfama tutti.
Un fenomeno irrisorio
Ebbene, se tutti gli altri soggetti hanno al loro interno scienziati (anche di grande qualità e, a volte, anche più famosi di quelli che li denigrano), non mi risulta esistano scienziati terrapiattisti.
Se tornate su Wikipedia, dove si parla della Flat Earth Society (“Associazione della Terra Piatta”), nata in Inghilterra, che sostiene il mito della "Terra piatta" e che conta membri (quanti?) sparsi in tutto il mondo, non troverete un solo scienziato. Così anche in Italia.
Inoltre, chi il 24 novembre 2017 è andato (in un hotel della periferia milanese) al convegno dei terrapiattisti italiani, ha affermato che in sala «erano presenti 40-50 persone: togliendo relatori, giornalisti e curiosi, i terrapiattisti convinti tra il pubblico erano forse una ventina. Non molti, considerando che siamo in una grande città».
“Nel 2018, Le Iene e Vice Italia si spingono in un ristorante di Agerola, in provincia di Napoli per assistere a un convegno nazionale di terrapiattisti e contano meno di cinquanta persone. L’anno seguente, Wired e lo youtuber Barbascura li raggiungono in un hotel di Palermo: rilevano la stessa affluenza e sono entrambi convinti che almeno la metà dei presenti sia lì per ridere o contestare” (Lolli 2023, Il complottismo non esiste o Miseria dell’anticomplottismo, pp.240-1).
Sempre Alessandro Lolli racconta anche che nel 2021 il Censis fece una ricerca da cui risultava che il 5,8% della popolazione italiana (cioè circa 3.400.000) era terrapiattista. Un numero enorme. Significa che ogni 100 persone che conosciamo, 6 sono terrappiattisti. E siccome io non ne ho mai incontrato uno, il mio collega (certamente un complottista) ne conosce 12.
Ma dove stanno tutti ‘sti terrapiattisti? Tutti nascosti? Ma al Censis non è sorto il dubbio che gli intervistati forse lo stavano prendendo in giro (perculà dicono a Roma)?
In conclusione, di che cosa stiamo parlando? Del (quasi) nulla.
Perché, allora, si dà grande spazio (sui mass media e in accademia) a questo fenomeno praticamente inesistente? Scomodando nientepopodimeno che il fisico Luciano Maiani (ex direttore del Cern a Ginevra e del Cnr a Roma, professore di Fisica Teorica alla Sapienza di Roma, socio linceo), che scrive addirittura una lettera a un terrapiattista.
Con tutte le cose importanti da fare, proprio dei terrapiattisti ci si deve occupare?
E perché mescolarli con un fenomeno di critica scientifica e sociale ben più consistente (sia numericamente che qualitativamente)?
Cui prodest? avrebbero detto gli antichi latini… loro sì convinti terrapiattisti.
Il libero arbitrio oltre il dibattito filosofico – Incontri con le scienze empiriche
L’idea che l’essere umano disponga di una volontà libera e che, quindi, possa autodeterminarsi e controllare le proprie azioni, fa parte del bagaglio di intuizioni su cui poggiano le nostre pratiche quotidiane.
Si può certamente sostenere che l’idea del libero arbitrio non solo condizioni il senso che attribuiamo alla nostra esistenza, ma soprattutto guida le nostre pratiche sociali quotidiane, arricchendole di significato.
Dal punto di vista del “senso comune” il libero arbitrio è un concetto utilizzato per definire la libertà di agire di cui gode l’essere umano, concetto che permette di dire che «noi siamo liberi e non possiamo non esserlo» e che «è semplicemente ovvio che noi godiamo della libertà. Secondo questa intuizione, non c’è dubbio che noi controlliamo, in molti casi, le scelte e le azioni che compiamo, che di esse portiamo la responsabilità e che, dunque, possiamo dirci arbitri del nostro destino» (De Caro 2004, Il libero arbitrio - Una introduzione, p. 3).
Si tratta, secondo il senso comune della libertà di un soggetto che si percepisce come causa delle proprie azioni, che si autodetermina, in termini di possibilità di iniziare, mettere in atto e controllare dei comportamenti adeguati a produrre un’azione, sia nel senso che le azioni sono manifestazione di un’individualità, di un Sé costituito da un insieme di valori che guidano coerentemente le decisioni e, pertanto, le azioni.
Tuttavia, molti pensatori hanno messo in discussione tale intuizione, in quanto apparentemente incompatibile con le conoscenze che abbiamo del mondo naturale, spianando così la strada ad un dibattito che mantiene vivo l’interesse speculativo.
Ad esempio, in aperto contrasto con il senso comune troviamo la teoria del determinismo causale, che sostiene l’idea che ogni evento sia necessitato da eventi e condizioni antecedenti ad esso, in accordo alle leggi di natura (Hoefer 2016, Causal Determinism). Ogni evento dell’universo sottostà, quindi, a processi deterministici, è il prodotto di una concatenazione causale che non lascia spazio ad alcuna incertezza.
In quest’ottica, anche l’essere umano dovrebbe essere soggetto a tali processi deterministici ed essere inserito in una concatenazione causale definita.
In modo molto radicale e polarizzato, «la questione del libero arbitrio si può dunque porre come un’alternativa tra due scenari: uno nel quale gli esseri umani sono vincolati in modo ferreo, come fossero automi, ad agire e a scegliere in un certo modo; l’altro, nel quale gli esseri umani sono agenti che hanno la possibilità di determinare il proprio destino» (De Caro 2004, p. 6).
Tra le principali posizioni a favore di una concezione ampia del libero arbitrio c’è quella libertaria: il libertarismo è «la concezione secondo la quale la libertà è possibile soltanto in un mondo indeterministico» (De Caro 2004, p. 89). La posizione libertaria non solo sostiene l’esistenza del libero arbitrio, ma rappresenta anche la posizione teorica considerata più vicina all’immagine pre-filosofica della libertà offerta dal senso comune.
Oggi proviamo a vedere in che modo la riflessione filosofica si è avvicinata alla meccanica quantistica, e come abbia tentato una interpretazione dei risultati empirici come giustificazione dell’indeterminismo libertario.
La meccanica quantistica fu sviluppata nel 1900 a partire dalla teoria dei quanti di Max Planck. Secondo questa teoria «l’energia delle radiazioni non viene emessa o assorbita dalla materia per valori continui ma solo per multipli interi di una certa quantità, data dal prodotto della frequenza della radiazione per una costante, detta di Planck» (Benanti, 2018, Un secolo di novità complesse, p. 19).
Da qui, Niels Bohr sviluppò una descrizione dei fenomeni subatomici che non poteva che portare all’inevitabile rottura con la meccanica classica, poiché – secondo questa descrizione - i fenomeni subatomici non possono essere studiati secondo un modello deterministico ma solo probabilistico.
Emerge, inoltre, l’idea che la realtà stessa non abbia una natura stabile e univoca, poiché le modalità di osservazione incidono significativamente sul comportamento degli oggetti osservati.
Il tentativo di utilizzare la meccanica quantistica per legittimare l’indeterminismo libertario si basa proprio sull’idea che in natura vi siano dei fenomeni che si realizzano sulla base di meccanismi stocastici e, quindi, non deterministici.
Tuttavia, affinché tale proposta sia sottoscrivibile bisogna chiarire due questioni:
- in primo luogo, se l’indeterminismo descritto a livello microscopico sia effettivamente tale ed abbia qualche effetto a livello macroscopico;
- in secondo luogo, in che modo tale indeterminismo riesca a garantire il libero arbitrio nell’essere umano. Infatti, che gli eventi del mondo si realizzino su base probabilistica e non deterministica, non implica affatto che anche la nostra mente funzioni secondo un meccanismo di questo tipo.
1. Possibili effetti a livello macroscopico dell'indeterminismo microscopico
Per affrontare il primo punto dobbiamo ricordare che l’approccio probabilistico alla descrizione del comportamento di particelle subatomiche può essere interpretato in almeno tre modi:
- secondo l’interpretazione più diffusa, definita “interpretazione di Copenaghen”, le equazioni della meccanica quantistica descrivono integralmente come funziona la realtà fisica, ovvero «sono probabilistiche perché il mondo è fondamentalmente indeterministico» (Levy 2007, Challenges for the 21st Century, p. 224).
- Al contrario, interpretazioni alternative affermano che il carattere probabilistico di tali equazioni deriva dalla mancanza di osservazioni adeguate o della conoscenza di variabili nascoste. Pertanto, l’universo sarebbe interamente regolato da meccanismi deterministici, ma i nostri strumenti non sono adeguati a coglierli (Ibid).
- Altri autori, invece, hanno evidenziato il fatto che, pur ammettendo che i processi indeterministici postulati dalla meccanica quantistica siano veri, probabilmente questi non hanno «ricadute significative al livello macroscopico» e, pertanto, «è ragionevole ritenere che al livello macroscopico la tesi deterministica sia approssimativamente vera e che, dunque, gli eventi macroscopici in genere, e le nostre azioni in particolare, manifestino comportamenti sostanzialmente deterministici» (De Caro, p. 18).
Pertanto, sebbene la meccanica quantistica si sia rivelata uno strumento efficace per predire accuratamente certi fenomeni osservabili, è difficile affermare che possa essere una dimostrazione della verità dell’indeterminismo.
Addirittura, De Caro ci mette in guardia sul fatto che – se pure si trovassero dei riscontri a favore della tesi dell’indeterminismo nella meccanica quantistica - non «è impossibile (come ci ha insegnato la storia della scienza) che in futuro tale teoria venga abbandonata e rimpiazzata da una teoria esplicitamente deterministica» (2004, p. 18).
2. L’indeterminismo può essere una garanzia per il libero arbitrio?
Proviamo ora ad affrontare il secondo punto: in che modo la meccanica quantistica possa rappresentare un sostegno per le teorie indeterministiche del libero arbitrio.
Anche su questo troviamo opinioni contrastanti: una volta, infatti, accettate le premesse che il mondo sia regolato da processi indeterministici e che questi abbiano una qualche influenza causale anche al livello macroscopico, non è chiaro in che modo sia giustificabile il libero arbitrio.
Infatti, se anche le nostre azioni fossero causate da processi probabilistici condizionati dall’indeterminismo subatomico, questo non implica necessariamente che siamo liberi di fare ciò che vogliamo. Addirittura, il fatto che le nostre azioni possano essere condizionate da eventi randomici sembra piuttosto indebolire, e non rafforzare, il nostro libero arbitrio poiché non c’è possibilità di controllare le proprie azioni (Levy 2007, p. 224). Detto in altre parole, «se fosse vero l’indeterminismo le azioni umane, al pari di tutti gli altri eventi, sarebbero fisicamente indeterminate; nulla, dunque, ne determinerebbe il verificarsi – a fortiori, nemmeno gli agenti» (De Caro 2004, p. 19).
Una strategia alternativa consiste di servirsi della meccanica quantistica per costruire un’analogia con il libero arbitrio. Di fondo, per chi si occupa della questione della libertà dell’essere umano, poco importa «se la tesi del determinismo scientifico universale sia vera» (Ivi, p.16). Ciò che conta è se la nostra mente funzioni sulla base di processi deterministici o meno.
Evidentemente, la questione è ben lontana dall’essere risolta.
Quello che viene suggerito dall’evidenza empirica è che sembrano essere presenti - a diversi livelli dell’attività cerebrale - meccanismi sia deterministici che stocastici e questo non mette la discussione su un binario univoco ma, al contrario, sembra alimentare la controversia.
Seveso, 1976 - Il Comitato tecnico scientifico popolare attraverso le fonti orali e d’archivio
Nell’articolo Le nuvole scrivono il cielo di Seveso - Il crimine di pace, la scienza e il potere di qualche settimana fa avevo brevemente introdotto che cosa accadde il 10 luglio 1976 a Seveso-Meda, che cos’era l’Icmesa e alcuni problemi nati con il “disastro”, che interpellano il rapporto tra produzione industriale, ricerca scientifica, ambiente, salute e popolazione, alternando l’utilizzo di fonti bibliografiche, articoli di cronaca e interviste realizzate durante la mia ricerca etnografica a Seveso. Nelle prossime righe mi concentrerò sulle vicende del “Comitato tecnico scientifico popolare” che nacque all’indomani del “disastro”.
Con l’evento del 10 luglio 1976, a Seveso sorsero nuovi gruppi organizzati di abitanti e nuove soggettività sociali e politiche. Il rovesciamento della dimensione quotidiana e l’affacciarsi di una «crisi della presenza»1 avevano portato all’emergenza di coaguli di persone che «non si limitavano al ruolo di vittime, come dicevamo noi, ma appunto hanno cercato di costruire dei legami e dei rapporti e di darsi degli strumenti di comprensione critica»2 e la cui sede principale a Seveso era il Circolo del Vicolo. Stefano, un ragazzo di vent’anni nel 1976 che lavorava in una falegnameria e aveva l’intenzione di iscriversi all’università, ricorda nel documentario «Seveso, Memoria di parte» il momento di fondazione del circolo.
«
Ci si è trovati in un momento in cui la gente era estremamente preoccupata per la propria salute, ma avevano a che fare con un tossico impalpabile, inodore, incolore, invisibile. Il momento della fuoriuscita, che era il momento evidente, era passato. Il tossico ormai era depositato sui tetti, sui muri, sui pavimenti lastricati, sui terreni, ma non si vedeva. Per cui la gente iniziava ad avere la preoccupazione per la propria salute, ma andava esorcizzata perciò ci si appellava al matto di turno che diceva “non è successo niente, io vado a mangiare l’insalata lì dentro”, perché questo abbassava la tensione. Questo è servito per molti in buona fede, per molti altri ne hanno avuta un meno di buona fede dicendo le medesime cose, serviva per tenere moderata la tensione che vivevano quotidianamente. Abbiamo costruito questo che si chiamava Circolo del Vicolo perché la sede si trovò in una via che di chiamava Via del Vicolo, da lì Circolo del Vicolo.3
»
Stefano racconta che l’ingente lavoro politico e culturale prodotto dal circolo nasceva dalla necessità di rispondere a bisogni e desideri che riguardavano l’esistenza intera. Per lui è stato un periodo nel quale la gente discuteva dappertutto e vi era un’adesione sociale molto elevata a qualsiasi tipo di situazione per un «trascinarsi probabilmente di quello che era la partecipazione alle lotte operaie»[4].
Il Circolo del Vicolo, nella sua dimensione locale, era un’espressione di questa stagione dei “movimenti” e, come sottolinea Stefano, il movimento operaio e le lotte dei lavoratori e delle lavoratrici per il salario e la salute in fabbrica trascinarono e crearono momenti di mobilitazione estesi e partecipati. Tra i gruppi che attraversarono il laboratorio politico del Circolo del Vicolo vi era il “Comitato tecnico scientifico popolare”.
Per Davide, fu il gruppo più importante nel ciclo di lotte locali a seguito del “disastro” dell’Icmesa.
«
Il [gruppo, N.d.R.] più importante sicuramente è stato il Comitato tecnico scientifico popolare che era stato creato quasi subito da alcuni lavoratori dell’Icmesa, anche membri del consiglio di fabbrica, da giovani del territorio di allora e si è avvalso subito del supporto appunto di Medicina democratica che era a sua volta collegata alle lotte per la tutela della salute nelle fabbriche. In particolare, erano arrivati quelli del gruppo di Castellanza dove c’era un grosso stabilimento Montedison, dove si erano sviluppate delle esperienze molto interessanti di lotta ma anche di autotutela da parte dei lavoratori. E quindi diciamo sono arrivati qui e si sono messi in contatto con le realtà locali e appunto poi non solo, sono nati anche gruppi per esempio legati al movimento femminista il “Gruppo donne Seveso-Cesano”. E successivamente nacquero altri gruppi più piccoli come il “Comitato di controllo zone inquinate”. Insomma, erano nate diverse realtà spontanee che erano collegate un po’ da una serie di volontà di comprensione critica e di avere un ruolo nella tutela della propria salute e anche di verità rispetto a quanto accaduto e alle responsabilità rispetto a quello che era accaduto.5
»
Il comitato era un organismo di base di contro-informazione e di lotta e aveva relazioni con altri soggetti politici della sinistra extra-parlamentare o delle componenti meno allineate alla politica di solidarietà nazionale del Pci degli anni Settanta. In particolare, vi erano dei collegamenti con “Medicina democratica movimento di lotta per la salute” e con la consigliera regionale del Pci, Laura Conti.
Fin dai primissimi giorni successivi alla fuoriuscita della nube tossica, il CTSP assunse fondamentali funzioni di informazione, controllo e organizzazione nei confronti degli operai dell’Icmesa e della popolazione sevesina. Il suo primo impegno a circa otto-dieci giorni dallo scoppio del reattore fu quello di fornire una prima sommaria ricostruzione dell’accaduto sulla base del materiale documentario raccolto e fornito dal confronto con i lavoratori dell’Icmesa. Fu così esaminato il ciclo produttivo del triclorofenolo all’interno della fabbrica per comprendere le cause che avevano portato al fatto-tragedia-disastro di Seveso. Questo lavoro fu realizzato dal confronto tra gli operai della fabbrica medese e il Gruppo P.I.A della Montedison di Castellanza, congiuntamente a Bruno Mazza dell’Istituto di chimica, fisica, elettrochimica, metallurgia del Politecnico di Milano e Vladimiro Scatturin dell’Istituto di chimica generale e inorganica dell’Università degli studi di Milano. Il documento prodotto dal titolo “Contributo del CTSP costituitosi in seguito all’inquinamento prodotto dall’ICMESA, in appoggio ai lavoratori e alla popolazione colpita” fu presentato nell’assemblea organizzata dalla Federazione unitaria Cgil-Cisl-Uil nelle scuole medie di Cesano Maderno il 28 luglio 1976. La ricostruzione del ciclo produttivo è stata in seguito pubblicata come primo articolo[6] nel numero monografico di «Sapere» dedicato a Seveso. Comprendere l’eziologia del “disastro” era un passaggio fondamentale per riflettere e agire sulle conseguenze dello stesso e per farlo era imprescindibile il coinvolgimento di chi nella fabbrica passava le sue giornate. Nella ricerca si evidenziò che l’Icmesa aveva introdotto delle varianti nel ciclo produttivo con lo scopo – secondo il Gruppo P.I.A., Mazza e Scatturin – di ridurre radicalmente i costi di produzione, scegliendo di operare in condizioni sempre più pericolose. La logica adottata dalla multinazionale svizzera era volta alla massimizzazione del profitto e faceva tendere all’infinito il «coefficiente di rischio» della produzione di sostanze ad alto rischio di tossicità, trasformando – quindi - in una certezza la possibilità di un “incidente”.
Lo scopo dell’approfondito lavoro di ricostruzione del ciclo produttivo realizzato da un’apposita commissione del CTSP metteva in questione l’astrattezza dei concetti di «univocità» e «oggettività» del ciclo produttivo e di scienza.
«
Va detto, in conclusione, che il gruppo operaio non accetta in modo astratto la «univocità» e la «oggettività» del ciclo produttivo e della scienza e tecnologia che lo hanno imposto.7
»
Il documento racchiudeva e metteva al centro la soggettività operaia riferita al ciclo stesso di produzione per fornire uno strumento utile alla comprensione del rischio vissuto quotidianamente e per partire dal punto di vista degli operai stessi.
Nelle conclusioni dell’articolo, vengono evidenziate due tipi di culture e di progresso: quella «del capitale» e quella dello «sviluppo sociale». Se la prima, spinta dalla molla del profitto economico privato, persegue lo sviluppo di una cultura basata sulla neutralità ed asetticità della scienza, sulla sua separazione dalla politica, sugli incentivi per la ricerca che provengono dai poteri privati, la seconda è portatrice di istanze critiche nei confronti del “progresso” inteso come fine ineluttabile delle società umane. Al contrario, la “cultura sociale” si proponeva di azzerare il «coefficiente di rischio» attraverso lo sviluppo di una diversa forma di sapere avente come linea portante un inedito rapporto tra tecnici-operai-popolazione. Il CTSP si proponeva come esempio di tale relazione tra l’interno e l’esterno della fabbrica. Davide ricorda proprio questo passaggio come centrale nello sviluppo della lotta sevesina.
«
Mentre nello stesso periodo le autorità sanitarie balbettavano, non sapevano cosa dire, non potevano forse dire tutto. Quindi per una fase iniziale nei primi mesi sì, [il CTSP, N.d.R.] era molto ascoltato, poi magari non tutti erano d’accordo, ma sicuramente molto ascoltato. E devo dire che inizialmente questo rispecchiava anche un legame che si stava un po’ instaurando tra territorio e fabbrica, tra territorio e lavoratori della fabbrica. Ora non la faccio troppo lunga, ma per come si era sviluppata l’industria nel territorio, nel nostro territorio c’era molto uno distacco tra la fabbrica e il territorio agricolo-artigianale di quegli anni. Tra chi lavorava in fabbrica e gli altri erano mondi un po’ strani, convivevano, ma senza proprio incontrarsi. Per un attimo quella vicenda nella sua drammaticità aveva costruito un legame perché per la prima volta quelle nocività uscivano sul territorio. Quelle nocività che non solo nella fabbrica, erano percepite come un problema della fabbrica si riversano in modo traumatico sul territorio. Quindi è la prima cosa che fa la popolazione non operaia andare a dire bah, chissà, forse chi ci lavora dentro qualcosa sa. C’è un’intervista a un lavoratore del Consiglio di Fabbrica dell’ICMESA, che racconta che alcuni genitori di bambini con la cloracne hanno contattato loro perché le autorità risposte sembravano non darne o comunque non ne parlavano volentieri e quindi si rivolgono ai lavoratori. Tra l’altro è da lì che anche i lavoratori prendono coscienza definitiva della gravità di quello che è accaduto e sospendono la produzione. Proclamano lo sciopero ad oltranza. È praticamente la fine dell’Icmesa.8
»
Gli obiettivi del comitato furono esplicitati nel bollettino pubblicato nel settembre del 1976 e si posero in contrapposizione con l’operato delle istituzioni locali, regionali e nazionali che – secondo il CTSP – avevano coperto e soffocato ogni tipo di protesta e di organizzazione degli abitanti della zona, non fornendo sufficienti informazioni sulla situazione per fare maturare una consapevolezza collettiva del rischio.
Nel prossimo articolo sul CTSP, partirò proprio da qui per scendere nel sottobosco dei documenti conservati dall’Archivio Seveso. Memoria di parte e della storia del comitato.
NOTE
1 Per «crisi della presenza» si intende una situazione in cui un individuo o un gruppo umano si trovano ad affrontare un particolare evento, come per esempio la malattia o la morte, durante il quale si sperimenta un’incertezza, una crisi radicale della possibilità di esserci nel mondo e nella storia, tanto da scoprirsi incapaci di agire e di determinare la propria azione. Si veda, E. De Martino, La fine del mondo. Contributo all’analisi delle apocalissi culturali, Torino, Einaudi, 1977.
2 Intervista a Davide, abitante di Desio e testimone del “disastro” dell’Icmesa, 27 gennaio 2024.
3 Archivio Seveso Memoria di parte (Asmp), b. CTSP, Interviste-documentario “Seveso, Memoria di parte”. Si tratta di un documentario autoprodotto dall’ “Archivio Seveso Memoria di parte”.
4 Ibidem.
5 Intervista a Davide, abitante di Desio e testimone del “disastro” dell’Icmesa, 27 gennaio 2024.
6 Si veda, Gruppo P.I.A., B. Mazza, V. Scatturin, “ICMESA: come e perché”, in «Sapere», n. 796, nov.-dic. 1976, Bari, Dedalo, pp. 10-36.
7 Ivi, p. 34.
8 Intervista a Davide, 27 gennaio 2024.
Strabismi morali – Ogni vivente ha diritto all'integrità
Lo strabismo (o eterotropia) è un difetto di convergenza degli assi visivi dei due occhi che causa una fastidiosa visione binoculare e che può influenzare in maniera negativa la percezione del mondo circostante.
Si parla di strabismo morale quando – ad esempio - si giudica un atto con standard diversi, in modo diverso, a seconda di chi lo compie.
--------
28 gennaio 2024, Trentino. Un orso, noto col numero di radiocollare M90, segue – sottolineo: segue, non “insegue” come riportano alcuni media – due persone per circa 10 minuti lungo una strada forestale di 700 metri, adattando la propria andatura alla velocità dei due malcapitati, a una decina di metri di distanza.
L’orso si è poi allontanato quando dei motociclisti, accorsi nel frattempo, l’hanno spaventato col rumore dei motori.
--------
Un cittadino molisano perseguita da più di un anno una donna sua concittadina. Lo scorso ottobre ha fatto irruzione in casa, a orario di cena, sfondando la porta. L’uomo segue regolarmente la donna, la insulta e di recente l’ha aggredita ferendola ad una guancia.
-----
L’orso M90 è stato ucciso il 9 febbraio dal personale del Corpo forestale della Provincia autonoma di Trento, su incarico del Presidente della Provincia.
Il molestatore molisano - da tempo sottoposto a divieto di avvicinarsi alla vittima - non ha subito alcuna altra conseguenza.
Strabismo morale: l’atto è analogo (quasi analogo: diversamente dal molestatore, l’orso non ha insultato o aggredito le persone) ma il giudizio è radicalmente diverso; non credo che il Presidente della Provincia autonoma di Trento avrebbe deciso di far abbattere il molestatore.
-----
Numeri, Italia:
- In 9 anni, le aggressioni da parte di orsi sono state 8, con un morto e 8 feriti;
- In meno di 2 mesi, i femminicidi sono stati 10 e i casi di maltrattamenti e stalking da parte di ex-compagni o ex-compagne si stimano in più di 1.500.
Strabismo morale: la maggior parte dei casi di stalking non arriva all’attenzione dei media; ogni caso di “confidenza” di un orso – dopo la morte di Andrea Papi nel 2023 – occupa le “prime pagine”. Sono più pericolosi gli orsi o gli ex-compagni/e?
--------
Proviamo ora ad esaminare nel dettaglio la vicenda dell’uccisione dell’orso M90:
- L’orso è (era) M90, un esemplare già noto al Servizio Faunistico provinciale come “orso problematico” perché aveva più volte dimostrato confidenza con gli umani e con i loro insediamenti: si legge infatti nel Piano d’azione interregionale per la conservazione dell’orso bruno nelle Alpi centro-orientali come M90 fosse stato «ripetutamente segnalato in centro residenziale o nelle immediate vicinanze di abitazioni stabilmente in uso» e «segue intenzionalmente delle persone», con «della sequenzialità e ripetizione dei comportamenti« (criteri soddisfatti quotidianamente da molti umani…);
- Dopo l’evento del 28 gennaio e secondo questi criteri, l’Istituto Superiore per la Protezione e la Ricerca Ambientale (ISPRA) ha valutato l’orso M90 «ad alto rischio»: questo avrebbe comportato – secondo il PACOBACE - tre opzioni di intervento: la cattura con rilascio allo scopo di spostamento e/o radiomarcaggio; la cattura per captivazione permanente; l’abbattimento;
- La decisione ultima, per legge nelle mani del Presidente della Provincia autonoma di Trento, è stata l’uccisione dell’orso M90.
Ora, vorrei fare qualche considerazione su come sono andate le cose:
- L’ISPRA, che ha deciso di classificare M90 come soggetto “ad alto rischio” e di consigliarne “la rimozione” dall’ambiente in cui vive (senza indicare quale opzione adottare tra le tre possibili) ha preso la decisione secondo una morale procedurale, come ha chiarito in un comunicato dell’8 febbraio, in modo “meccanico”: dati gli indicatori di sicurezza violati, si consiglia la rimozione – senza entrare nel merito della condizione dell’orso M90.
- Il Presidente della Provincia ha decretato l’uccisione senza alcuna valutazione del “sentimento” dell’animale, senza cioè, dimostrare che questa uccisione non sia stata “per crudeltà o senza necessità”, cioè non violi la tutela “del sentimento per gli animali” garantita dal codice penale dello Stato.
- L’uccisione è stata giustificata -come si legge nel Decreto del Presidente della Provincia autonoma di Trento 6 Febbraio 2024, n.1/Leg- perché «rappresenta la procedura di rimozione dell’esemplare M90 che garantisce la maggior tempestività possibile e conseguentemente persegue massimamente l’interesse connesso alla sicurezza pubblica» e in considerazione del fatto che «lo stato di conservazione dell’orso bruno in Trentino […] la condizione della popolazione [di orsi] trentina risulta in continuo miglioramento» e che «la sottrazione di un esemplare maschio e giovane non incide di per sé sulla demografia della popolazione».
- L’uccisione è stata perpetrata prima che chiunque potesse fare ricorso al TAR o qualunque genere di opposizione o manifestazione contraria, ledendo palesemente il diritto al dissenso, il diritto di espressione e il diritto di opposizione agli atti amministrativi.
E vorrei porre, a tutti voi che leggete, qualche domanda, di carattere morale:
- è giusto pensare che i confini valgano solo per le specie animali non umane e non per gli umani? Che un orso non possa e non debba attraversare il confine che solo noi immaginiamo tra le “sue” zone e le “nostre” zone? Un tentativo di risposta avevo già provato a farlo in un mio post precedente.
- è moralmente accettabile che un essere vivente sia ucciso perché è un animale e non un umano, a fronte di atti che, se compiuti da un umano, avrebbero comportato al massimo una diffida?
- è moralmente accettabile che la decisione di uccidere un vivente – con sentimenti, lo ammette anche il Codice Penale – sia presa da un organismo il cui Direttore Generale è una geologa e il cui Consiglio Scientifico non conta nemmeno una persona con expertise etico-morale?
- è corretto che la decisione ultima sulla vita o la morte di un individuo vivente sia demandata per legge ad un politico, un singolo decisore senza possibilità di confronto, “solo” perché questo vivente porta una giacca di pelo proprio e non fatta dal sarto, non è un umano?
- una uccisione è meno grave se – statisticamente – non incide tanto sulla numerosità della popolazione?
- non c’è sproporzione tra atto commesso e punizione?
Strabismi, questo è poco ma sicuro.
Conversazioni sull’I.A. – Corpo e diritto all'integrità
Redazione di Controversie: Riprendiamo il dialogo con Riccardo Boffetti e Paolo Bottazzini sulla soggettività delle intelligenze artificiali, là dove l’abbiamo lasciato il 16 gennaio (Conversazioni sull’Intelligenza Artificiale – Si prova qualcosa ad essere una macchina?), con la domanda che era rimasta in sospeso.
Per riconoscere ad una IA generativa come, ad esempio, Chat GPT, il diritto all’integrità è obbligatorio che sia incorporata in un robot?
Le altre istanze, quelle esclusivamente dialoganti che troviamo sul web, non hanno diritto a questo riconoscimento?
Riccardo: La risposta a questa domanda credo sia sì, per una serie di motivazioni. Credo, innanzitutto, che buona parte della questione si risolva nel fatto che il modo con cui agiamo nel mondo non può che essere antropocentrico e situato, appunto, nel mondo: non siamo (ancora?) degli esseri digitali, piuttosto siamo (ancora) esseri nel mondo. La scala temporale con cui esperiamo ogni situazione è difatti ben definita dalle nostre esperienze terrene e, accantonando per un attimo la velocità dell’immaginazione, questa si esprime in tempi ben più lunghi di quelli dell’elaborazione digitale odierna.
Ciò di cui abbiamo bisogno per poter anche solo concettualmente prendere in considerazione un’inclusione all’interno della sfera della legge di nuovi soggetti è appunto che essi agiscano su una scala temporale a noi comune o che, quantomeno, e in quanto collettivo, si sia in grado di concepire il dispiegarsi delle loro azioni.
Motivo per il quale abbiamo difficoltà sia nel concepire la questione del riscaldamento climatico sia nel prendere atto dell’agentività delle miriadi di specie vegetali e fungine.
Ecco, allora, che l’instanziazione, l’incorporazione, all’interno di un robot, possibilmente non umanoide, può creare quell’orizzonte comune necessario per la costruzione di un collettivo. È proprio il suo agire nel mondo che rende passibile l’hardware e il software di una rappresentazione giuridica: attenzione, non l’hardware e il software di per loro ma ciò che il resto dei partecipanti al collettivo (e cioè gli umani) vedono e possono interpretare come azioni simili alle loro.
Certo, ci rimane sempre l’immaginazione per concepire le esistenze di algoritmi non incorporati in robot. Alexander Laumonier lo fa bene in una sua ricostruzione del mercato dell’HFT (High-Frequency Trading), dove i famosi pit fisici del Chicago Board of Trade sono diventati deserti a favore di un gran movimento nella sfera digitale:
Gli squali allora potranno divertirsi come pazzi. «Che cos’è questa cosa?», domanderà il nipote di un ricco pensionato americano quando uno yacht incrocerà un’isola artificiale zeppa di tecnologia ultramoderna. «È la Borsa», risponderà il nonno, magari un attimo prima che un algoritmo selvaggio riduca a zero la sua pensione.
Probabilmente non potrò mai lavorare su una di queste isole galleggianti. Da qui ad allora gli algoritmi saranno diventati talmente complessi che io sarò ormai solo un vecchio dinosauro.
Per il momento mi accontento di fare il mio lavoro. Sono già le 9.30, e il New York Stock Exchange sta aprendo.
La quiete del mio ufficio climatizzato contrasta con la guerriglia alla quale dovrò prendere parte tutto il giorno, in compagnia di Iceberg, Shark, Blast, Razor e tutti gli altri.
Devo essere vigile, perché probabilmente dovrò sparare un colpo già alle 09:30:00:000:001, GMT-5.
Conto con attenzione i secondi che mi separano dall’apertura dei mercati, poi i millisecondi, i microsecondi, i nanosecondi, sei, cinque, quattro, tre, due, uno, bingo» (6 | 5, 2018).
Come inquadrare, però, nella sfera del diritto simili entità? È chiaro il luogo in cui, e su cui, il diritto può agire è tutto l’ecosistema macchina-macchina che viene a crearsi ad essere , piuttosto che l’integrità dei singoli algoritmi. Quando si parla, però, di agenti autonomi nella sfera terrena mi pare che l’argomento diventi meno controverso da affrontare, proprio in luce del fatto che la loro individuazioni ci appare chiaramente davanti a tutti i nostri sensi.
Paolo: Quando la domanda è stata formulata, mi sarei aspettato da Riccardo una replica coerente con il suo antisciovinismo antropologico: i diritti vanno estesi alle intelligenze non umane, anzi non biologiche, quindi a tutte le intelligenze in generale.
Invece, la sua risposta distingue tra intelligenze veicolate da hardware zoomorfi e intelligenze che agiscono senza essere semoventi. Le sue argomentazioni sono in ogni caso sensate e condivisibili, quindi mi limiterei a osservazioni laterali.
La posizione di Riccardo è condivisibile se si accoglie la prospettiva fenomenologica di Merleau Ponty (1945, Fenomenologia della percezione): l’intelligenza non è solo una questione di calcolo logico, ma è, anzitutto, la regola dell’azione di chi frequenta il mondo come un’esplorazione precategoriale di orizzonti di senso. Mondo e corpo proprio cospirano a formare questo cosmo di significati, prima di qualunque operazione costitutiva dello spirito, e prima che l’universo si presenti già cristallizzato in oggetti. In questi termini, il possesso di un corpo è un attributo necessario non solo per l’intelligenza umana, ma per l’intelligenza in generale. Purtroppo, però, al momento, le intelligenze attive nei robot non contano sul loro hardware nel modo in cui gli uomini ineriscono al mondo con il loro corpo. Il software infatti compie calcoli in tutte le dimensioni che la fenomenologia assegna all’intenzionalità fungente: la conversione dell’AI alla lebenswelt è al limite una prospettiva, o un ottativo, rivolto all’evoluzione futura.
È possibile, poi, che un aspetto zoomorfo renda più incline il pubblico umano a riconoscere un diritto di inviolabilità alle macchine: da un punto di vista psicologico, la percezione di qualche affinità potrebbe aggiungere commozione all’istanza normativa. A questo proposito però un sociologo ispirato ai principi dell’ANT, come Bruno Latour (2005, Riassemblare il sociale), osserverebbe che robot e intelligenze artificiali sono già iscritte in reti di pratiche, di domini di significato, di associazioni, in cui il riconoscimento di un nuovo diritto irromperebbe come una detonazione, o l’invasione di un corpo alieno. L’esame del modo in cui le diverse forme di intelligenza artificiale e di meccatronica collaborano a formare i gruppi sociali dell’industria, della ricerca accademica, dell’hacking, ecc., dovrebbe precedere l’elaborazione di una normativa che regoli la convivenza dei robot con gli altri attori sociali. Ma si tratta di un tema ampio che dovrà essere ripreso.
Redazione: Grazie a entrambi una volta di più. Il tema, suggerito da Riccardo, dell’incorporazione dell’intelligenza artificiale nella dimensione temporale apre un terreno di confronto assolutamente nuovo per questa questione; la riflessione di Paolo - che richiama Merleau-Ponty sulla necessità dell’intelligenza di “contare sul proprio corpo” sembra rinforzare e mettere a terra l’ipotesi di Riccardo.
Ma cosa ne pensa chi l’Intelligenza Artificiale la vede anche nella sua dimensione operativa, pratica? Nella prossima conversazione partiremo da alcune riflessioni di Alessio Panella che sottolinea il necessario dubbio sull’autocoscienza di macchine senza corpo.
L'anima - Origini antiche di un concetto impopolare
I confini dell’anima non riuscirai a trovarli per quanto tu percorra le sue vie.
Eraclito, frammento 45
Premessa
Accennavamo poco tempo fa agli eventi interiori che possono aver luogo nel teatro dell’anima. L’idea di anima non è molto popolare oggi, parlarne crea uno strano imbarazzo. Affascinati dalle immagini della Risonanza Magnetica funzionale, molti neuroscienziati tendono a considerare la coscienza umana come un prodotto del cervello. Un processo nervoso, talmente automatico, che si può tranquillamente escludere il libero arbitrio: qualcuno ha proposto addirittura di abolire il Diritto Penale; se uccido o rubo, non dipende da me, ma da tempeste ormonali e intrecci di neuroni.
Un noto divulgatore scientifico annovera tra i possibili sostituti dell’anima persino il DNA. Dico subito che il DNA non è più attivo e vitale della tastiera di un pianoforte: funziona a seconda di chi lo suona, ma se non viene stimolato rimane inerte. È solo un replicatore di mattoni dell’organismo.
In quanto al rapporto del cervello con la coscienza, è piuttosto difficile spiegare come un ammasso spugnoso di neuroni possa creare la Divina Commedia o la Nona di Beethoven. Un geniale filosofo australiano, David Chalmers, ha giustamente distinto ciò che esce dallo scoppiettio e dalle immagini delle macchine che indagano il cervello, dall’universo insondabile e soggettivo della coscienza umana: il primo è il “problema facile”, il secondo, quello “difficile”.
In effetti, la difficoltà di penetrare nei meandri della coscienza dipende primariamente dal fatto che pretendiamo di conoscere un’entità soggettiva con strumenti oggettivi. Possiamo allora indagare la coscienza tramite la coscienza? Beh, la psicoanalisi si è formata attorno a questa idea e, se la psiche non esiste, allora la psicoanalisi è la scienza del nulla.
Ma come è nata l’idea della psiche ? Le radici del nostro pensiero sono greche. Chiediamolo ai greci.
L’anima
Proiettiamoci in un lontano passato, in un carcere di Atene. Socrate ha lealmente accettato la sentenza di morte, ingiustamente stabilita dal tribunale della città. Gli amici che lo assistono sono disperati: la tua grande anima svanirà nel vento! Ma Socrate risponde con parole inaudite: l’anima non muore con il corpo e io resterò là dove sono sempre stato (Platone, Fedone).
Siamo nell’anno 399 del tempo precristiano e stiamo assistendo alla nascita dell’idea dell’anima. La cultura greca fino a quel tempo poggia sui grandi Misteri di Eleusi: dopo la morte l’anima si disperde nel vento, del resto ànemos (“άνεμος”) vuol dire proprio vento. Quel che resta di questo alito si rifugia in un’ombra pallida, prigioniera dell’Ade, il buio regno di Persefone. Non c’è vita oltre la morte: nella cupa discesa di Ulisse nell’Ade, l’ombra di Achille si dispera: «Vorrei essere un servo da vivo, piuttosto che regnare sui morti» (Omero, Odissea: XI, 489).
Noi ci serviamo delle parole per comunicare, ma guardate come il senso di un vocabolo può radicalmente mutare significato ed esperienza interiore. Fino a questo istante dell’anno 399 la parola pneuma (πνεύμα) indica un alito di vento, gli allievi di Socrate temono che il maestro morendo si dissolva come un soffio nel vento.
Ma da qui in poi πνεύμα diventa lo spirito immortale: qualche secolo più tardi, Giovanni il discepolo di Gesù, dirà al nobile fariseo Nicodemo: «Lo Spirito [Το πνεύμα] soffia dove vuole e tu odi la sua voce, ma non sai da dove viene, né dove va» (III, 8).
Socrate non si basa sulle dottrine di Eleusi, è un iniziato dei Misteri orfici del nord, portatori dell’idea rivoluzionaria dell’immortalità dell’anima. «Resterò dove sono anche dopo la morte» è la parafrasi di un pensiero ricorrente per Socrate, che può attardarsi a meditare anche prima di varcare la soglia di un amico che lo ha invitato a un festeggiamento (Platone, Il Simposio).
Il filosofo si interroga costantemente sul continuo mutare del mondo: «Perché ogni cosa si genera, perché si corrompe e perché esiste» ( Platone, Fedone 96 A, 9). Svela così il suo percorso di meditazione, che lo conduce a indagare a fondo le pieghe nascoste della coscienza, la sua logica, la sua mutevolezza, la sua incoerenza. L’anima assomiglia a una biga alata, trainata da due cavalli che vorrebbero seguire direzioni opposte (Platone, Fedro, 246).
Socrate non si limita a rivelare che l’anima è immortale, ma ne tratteggia le qualità: la capacità di apprendere, di ricordare, di formare concetti; descrive le sue lotte interiori, insegna come curarla. «Prendersi cura dell’anima» è un invito che il filosofo ripete spesso: proprio come ci prendiamo cura degli occhi fisici, perché possano vedere correttamente, così dobbiamo prenderci cura dell’occhio dell’anima, perché sensazioni ed emozioni siano chiare.
Per forza non crediamo più all’esistenza dell’anima: stiamo guardando dalla parte opposta! Gli occhi fisici non vedono la natura delle cose, ma solo il loro aspetto esteriore. Sono le emozioni che possono percepire oltre, ma devono essere pure, non mescolate con quelle del corpo. La rivelazione del Simposio è tutta qui, nel saper ascoltare intensamente, “eroticamente”, ma rinunciando al fisico.
La vera essenza delle cose non si manifesta in pensieri, ma in immagini; queste, però, sono sfumate, indefinite. Ecco che nell’attività del pensiero sorge la dimensione del dubbio. Socrate dice di «non sapere», ma è ricco di immagini. Questo è il motore della ricerca scientifica.
La prossima volta parleremo dei dubbi di Newton.
Ripensare le Scienze - Considerazioni a partire da "Il Golem"
«La scienza sembra essere o tutta buona o tutta cattiva»[1]; così inizia Il Golem, saggio pubblicato nel 1993 dai sociologi Harry Collins e Trevor Pinch.
Il testo prende le distanze da una visione strettamente dicotomica dell’impresa scientifica che ne considera solo gli estremi (o tutta buona o tutta cattiva) e ne dà un giudizio etico.
Ma allora, addentrandoci nella trama e dei casi raccolti da Trevor e Pinch, viene da chiedersi: che cos’è la scienza?
Secondo gli autori essa è un golem, «un umanoide creato dall’uomo con acqua e argilla, con incantesimi e magie»[2]; esso ha una forza formidabile, ma è goffo e addirittura pericoloso: «se non è sottoposto a controllo, un golem può distruggere i suoi padri con la sua smisurata energia»[3]. Scopo di questo libro, allora, è di mostrare come la scienza sia a tutti gli effetti un golem, quindi non un’entità necessariamente malvagia ma una creatura che, nonostante la sua forza, si rivela impacciata e maldestra.
E se la scienza è incerta, quando la vediamo zoppicare? Quando mostra le sue fragilità?
Per esempio, quando in una ricerca ci sono talmente tante variabili da confondere gli scienziati stessi, oppure quando si discute sull’eventuale ripetibilità di un esperimento. Queste considerazioni (e molte altre) fanno riflettere sulle difficoltà della Scienza Golem, la quale non sempre si muove con passo sicuro, traballa, oscilla tra “tentativi ed errori”, crea controversie, anche se «alla fine, […], è la comunità scientifica […] che porta ordine in questo caos, trasformando le goffe capriole della Scienza Golem collettiva in un pulito e ordinato mito scientifico. Non c’è nulla di sbagliato in tutto questo: l’unico peccato è non riconoscere che è sempre così»[4].
In aggiunta, cosa dovremmo dire di chi lavora in ambiti scientifici? L’idea espressa da Collins e Pinch afferma che «gli scienziati non sono né dèi né ciarlatani; sono semplicemente specialisti […]. La loro conoscenza non è più perfetta di quella di economisti, ministri per la sanità, […], avvocati, […], agenti di viaggi, meccanici di automobili, o idraulici»[5].
Quindi, se la scienza – e le scienze – sono imprese umane perché umani sono coloro che ci lavorano, è indubbio che risentono anch’esse di influssi storici, culturali o sociali, oltre a variabili personali come le preferenze, le idiosincrasie o le idee dei singoli scienziati e scienziate. Pertanto, la Scienza Golem incespica, inciampa e cade perché noi la costruiamo e la mettiamo all’opera: «l’“errore” umano va diritto verso il cuore della scienza, perché il cuore è fatto dell’attività umana»[6]. I suoi errori sono dunque i nostri errori.
Come viene affermato ne Il Golem, «è impossibile separare la scienza dalla società, eppure rimanendo legati all’idea che esistono due distinte sfere di attività si contribuisce a creare quell’immagine autoritaria della scienza così familiare alla maggior parte di noi. Perché tali sfere appaiono distinte?»[7].
Forse perché abbiamo affidato alle scienze un compito troppo difficile: essere le divinità di tempi secolarizzati, essere le entità sacre di una postmoderna forma di politeismo; quando il mondo occidentale ha perso i propri capisaldi, le scienze hanno dovuto rappresentare la certezza.
Quanto peso è stato messo sulle loro spalle!
Abbiamo compiuto un enorme salto ontologico e, così facendo, abbiamo occultato il lato umano che c’è, c’è sempre stato e sempre ci sarà nell’impresa scientifica. Rendendola una divinità laica, l’abbiamo infatti sottratta a quel dominio che è il nostro dominio, ci siamo alienati, con le distorsioni e le illogicità che questa azione comporta. Quindi, non consideriamo le scienze come giganti ultraterreni ma come tessere di un insieme più ampio, che ci riguarda in modo diretto.
Dopo tutte queste considerazioni, dovremmo quindi sfiduciare la scienza? Assolutamente no!
Non dobbiamo scoraggiarla, ma contestualizzarla e capirla, comprendendo che le scienze sono costruzioni umane e, come tali, abitano in quello spazio fluido, di transizione, che è lo stesso delle nostre vite. Uno spazio effimero, contingente, sempre in movimento; può capitare infatti che le certezze di oggi non siano quelle di ieri e non saranno quelle di domani, tanto nelle nostre esistenze quanto nelle scienze. Ed è proprio questo che rende l’avventura scientifica così affascinante.
Scopo del blog Controversie è proprio quello di ripensare le scienze. Più nello specifico, ribaltare quell’idea scientista, di matrice neo-positivista, che le considera ingenuamente come depositarie di un sapere assoluto e come base di tutta la conoscenza.
Invece, è molto meglio (e più plausibile) considerare le scienze all’interno di un ambiente reale e concreto, facendole scendere dal piedistallo sul quale sono state poste affinché dialoghino con altre imprese umane come, per esempio, società, storia, arte o filosofia. È così che creeremo vera cultura: non isolando i saperi, ma mostrando che sono tutti immersi in una rete in cui comunicano, si confrontano e si influenzano, arricchendosi reciprocamente. Per imparare, si deve dialogare e, per dialogare, ci si deve incontrare. E non si incontrerà proprio nessuno, se si resta sul piedistallo.
Impareremo così ad amare la scienza, «ad amare il gigante maldestro per quello che è»[8].
NOTE
[1] Harry Collins, Trevor Pinch, Il Golem. Tutto quello che dovremmo sapere sulla scienza, trad. it, Bari, Edizioni Dedalo, 1995, p. 11.
[2] Ibidem.
[3] Ivi, p. 12.
[4] Ivi, p. 196.
[5] Ivi, p. 188.
[6] Ivi, p. 184.
[7] Ibidem.
[8] Ivi, p. 13.
Le tecnologie non sono neutrali. La lezione dimenticata del determinismo tecnologico
Il determinismo tecnologico (DT), nella sua forma più pura, è un approccio che vede le tecnologie e le innovazioni come indipendenti dalla più ampie dinamiche sociali.
L’idea è che la tecnologia sia il fattore determinate delle vicende umane e gli sviluppi tecnologici non siano guidati dall’attività umana, ma da una logica interna all’innovazione scientifica.
Un esempio è il concetto di blockchain e cryptovalute che, secondo chi li promuove, sono liberi dalla manipolazione del potere istituzionale e generano effetti sociali in modo autonomo; un secondo esempio è la IA che, secondo alcuni sostenitori in grado aumentare le capacità umane e di rivoluzionare settori quali la finanza, sicurezza nazionale l’assistenza sanitaria ecc.
I principi del DT sono tre:
- la tecnologia rappresenta una dimensione esterna rispetto alla società, in grado di agire al di fuori di essa;
- ogni cambiamento tecnologico produce un cambiamento nelle forme di organizzazione e di interazione sociale;
- la società si adatta alla tecnologia.
Il DT è stato molto criticato dagli Science and Technology Studies (STS), tra la fine degli anni ‘70 e l’inizio degli ’80, , ritenuto un approccio obsoleto, se non addirittura sbagliato, e “ridotto allo status di uno spaventapasseri” (Lynch 2008, 10).
Infatti, sociologicamente parlando, risulta difficile sostenere che le innovazioni tecnologiche riescano a plasmare in maniera univoca la nostra vita quotidiana.
Per cui è più interessante impostare delle analisi in cui, si tiene conto di una serie di dinamiche che le tecnologie innescano, senza però farsi affascinare troppo e senza pensare che queste siano le uniche possibili.
Dunque, è più corretto parlare di tre forme di DT:
- forte: la tecnologia impatta sulla società e rappresenta il principale motore del cambiamento sociale;
- media: la tecnologia determina lo sviluppo sociale e le possibilità d’azione dei soggetti;
- leggera: la tecnologia influenza la società e orienta l’innovazione sociale.
Quindi, cosa possiamo salvare del determinismo tecnologico?
Ciò che di buono ha messo in luce il DT è che le tecnologie non sono neutre, ma producono degli effetti. Ovviamente poi possiamo discutere l’intensità di questi effetti. Ma un approccio sociale alle tecnologie deve partire dall’idea che la tecnologia non sia qualcosa di neutrale. Se così non fosse, le tecnologie sarebbero materia solamente per gli ingegneri o tecnologi. Invece, anche gli scienziati sociali possono dire la loro, partendo proprio dall’idea che la diffusione di una tecnologia è legata al proliferare delle dinamiche d’uso.
Quest’ultima idea è stata evidenziata da un altro approccio alle tecnologie: Social Construction of Technology (SCOT). Una delle lezioni fondamentali dello SCOT è che le tecnologie e i loro effetti, vanno misurate sempre in relazione ad altre cose, come l’infrastruttura esistente in un contesto o i gruppi sociali che entreranno in contatto con la tecnologia. Secondo lo SCOT non c’è niente di predeterminato nelle tecnologie; quindi, una nuova tecnologia all’inizio è caratterizzata da un certo tipo di “flessibilità interpretativa” ovvero un periodo in cui alcuni gruppi sociali si approcciano a una tecnologia e ci vedono alcune cose: per alcuni potrebbe essere utile per i propri fini, mentre per altri potrebbe essere pericolosa. Durante questo periodo entrano in gioco diversi “gruppi sociali pertinenti” che cercano di orientare l’artefatto nella loro direzione in base ai loro interessi.
In questo modo si raggiunge una stabilizzazione della tecnologia, incorniciandola, con uno specifico significato d’uso e una forma in grado di tenere insieme le diverse istanze poste dai vari gruppi.
Dunque, guardare alla tecnologia, come fa il DT, come una variabile indipendente che si origina dall’innovazione scientifica e si “impone” agli attori, determinandone le pratiche, le relazioni e le interazioni, risulta troppo radicale. Non è detto che se la tecnologia funziona in un determinato modo, allora le persone dovranno adattarsi e sforzarsi di far funzionare la tecnologia in quello stesso modo.
Risulta difficile pensare che la tecnologia offra determinati input alla società e che questa non possa far altro che adattarsi passivamente. Certo, le tecnologie non sono neutrali, ma diventano quello che sono nel momento in cui gruppi di utenti se ne appropriano, ad esempio un computer può essere utilizzato per lavoro, per lo studio, per giocare, guardare film ecc.
Il punto è che le tecnologie più diffuse sono quelle che vengono utilizzate nei modi più vari, ognuno le usa in base ai propri interessi, problemi, fini e attività quotidiane, permettono dunque una varietà di usi. Di conseguenza l’innovazione vincente non è tale soltanto perché contiene un elemento tecnico migliore o superiore ad altri, ma perché attraverso quell’elemento tecnico riesce a soddisfare una serie di istanze sociali.
Proviamo ora a fare un passo in avanti, attraverso un altro approccio alla tecnologia, l’Actor Network Theory (ANT), ovvero “un semplice metodo per imparare dagli attori senza imporre loro una definizione a priori circa la loro capacità di costruire il mondo” (Latour 1999, 20). Si tratta di un metodo che guarda alla realtà e agli attori senza partire dal presupposto che questi ultimi abbiano un qualche tipo di agency a priori. Attori umani e non-umani sono ugualmente capaci di dare forma ai processi che conducono all’emergere di un’idea, di una conoscenza o di una tecnologia.
Ma quindi in che modo possiamo descrivere il ruolo che hanno le tecnologie?
Una prima risposta è di guardare come gli oggetti intervengono all’interno delle azioni e delle pratiche e come le trasformano. Una nozione classica dell’ANT, è quella di script, ovvero ciò che è inscritto in un artefatto. L’idea è che nel processo di progettazione vengano inscritte, dai progettisti e designer, delle sceneggiature negli oggetti, dei copioni o delle istruzioni su come questi si devono utilizzare; e sono in grado di delineare ruoli, competenze e possibilità d'azione per chi interagisce con tale oggetto. In altre parole, inscrivono una certa idea di utilizzatore e per farlo introducono nell’oggetto alcune caratteristiche che riguardano le competenze dell’utilizzatore e delineano programmi d’azione e ruoli.
A questo punto potrebbe sembrare che lo script rappresenti solamente una serie prescrizioni e proscrizioni inscritte dal progettista e quindi una sorta di determinismo tecnologico, ma non è così. Il concetto di script è un concetto aperto, non ricade all’interno del determinismo tecnologico, è un partire dal presupposto che gli oggetti hanno una loro agency e contribuiscono in vari modi allo sviluppo di una azione, ma non la determinano mai.
Possiamo identificarne due aspetti. Il primo è l’inscrizione: progettisti e designer che tentano di inscrivere un qualche tipo di comportamento o azione nell’oggetto. In questa concezione l’oggetto un po' scompare. Il secondo è ciò che si ritrova inscritto nell’artefatto, ovvero il modo in cui le competenze, le possibili azioni, i ruoli degli utilizzatori sono effettivamente inscritti nell’artefatto. In questo senso l’oggetto assume una sua autonomia di cui dobbiamo tenere conto, il progetto dei designer non esaurisce le possibilità di un oggetto, ma ha una sua autonomia anche perché poi interagirà con altri oggetti e sarà sempre in trasformazione. In altre parole, si tratta di guardare le affordance (Gibson 1979), ovvero tutte quelle possibilità che gli utenti intravedono negli oggetti a partire dalle loro caratteristiche materiali e che non erano state previste dai progettisti. In questo modo gli utenti hanno l’occasione per fare qualcosa di diverso con l’oggetto che hanno di fronte.
In conclusione, la lezione del determinismo tecnologico è valida ancora oggi con alcune sfumature, ma il punto è che le tecnologie non sono neutrali. Gli STS sostengono la necessità di coltivare un approccio più “simmetrico” ai fenomenti sociali guardando alle tecnologie come pratiche sociali, ovvero si comprende l’utilità, la rilevanza, quando se ne osserva l’uso in contesti concreti. L’idea che sta dietro al concetto di affordance è che tutti quanti gli oggetti abbiamo un loro uso e ci pongono dei vincoli, però possiedono delle caratteristiche materiali che possono essere lette da chi li utilizza come inviti ad un uso diverso. La direzione non è quella di fermarsi a guardare la tecnologia-in-sé, ovvero come qualcosa che funziona ed è efficace indipendentemente dai suoi utilizzatori e contesti d’uso pratici. Piuttosto quello di focalizzarsi sulla tecnologia-in-uso (Orlikowski 1992; 2000; Gherardi 2008), ovvero come gli oggetti vengono ri-significati nella pratica, di conseguenza questi non nascono “efficaci” o “sicuri”, ma lo diventano nel momento in cui una comunità di utilizzatori, in specifici contesti d’uso, li costruisce come tali.
RIFERIMENTI
Gherardi S. (2008), La tecnologia come pratica sociale: un quadro interpretativo, in Gherardi S. (a cura di) Apprendimento tecnologico e tecnologie di apprendimento, Il Mulino, pp. 7-44.
Gibson J.G. (1979), Per un approccio ecologico alla percezione visiva, Angeli (ed. It. 1995)
Latour B. (1999), On recalling ANT, in “Actor Network Theory and After”, in J. Law, e J. Hassard (a cura di), Oxford, Blackwell, pp. 15-25.
Lynch M. (2008), Ideas and perspectives, in E Hackett, O. Amsterdamska, M. Lynch e J. Wajcman (a cura di), The Handbook of Science and Technology Studies, Cambridge, MIT Press, pp. 9-12.
Orlikowski W.J. (1992), The duality of Technology: Rethinking the Concept of Technology in Organization, in “Organizational Science”, Vol. 3, n.3, pp. 398-427.
Orlikowski W.J. (2000), Using Technology and Constituting Structures: A Practice Lens for studying technology in organizations, in “Organization Science”, vol. 11, n.4, pp. 404-428.