Razionale e reale - Osservazioni a margine del problema della determinazione dell’individuale-concreto

La tradizione classica vuole che dell’individuale non si dia scienza.

Ciascuna concrezione individuale appare contrassegnata da una quantità di connotazioni accidentali, contingenti, che sfuggono alla possibilità di una normatività esaustiva. Di conseguenza, si è consuetamente ritenuto sensato che la scienza si occupi del generico (o specifico), ossia del categoriale, di ciò che ha una sua forma (e quindi uno statuto legale) in linea di principio esaustivamente definibile.

La costituzione teorica razionale-astrattiva, per quanto saturabile di contenuti reali mediante determinazione delle variabili empiriche delle strutture formali, soggiace comunque alla limitazione della irraggiungibilità del concreto.

In questa prospettiva, H. Weyl parla di una genericità intrinseca alla scienza, che non può giungere mai all’individualità fenomenica: i suoi oggetti concreti restano indeterminati, o meglio, sono determinati “a meno di un isomorfismo” (1). E gli isomorfismi non sono altro che identità strutturali (di natura formale) tra eventi o processi potenzialmente del tutto differenti, per quanto concerne i corrispettivi contenuti materiali.

Individuale materiale e individuale formale

Il problema della determinazione del concreto-reale, ossia di ciò che è per principio individuale, non è connesso solo alla complessità della contingenza, ossia non affonda le sue radici solo nel momento materiale, bensì si presenta già nel momento formale.

In geometria, l’inafferrabilità del particolare-reale, dell’individuale, si è affacciata all’origine della cultura occidentale con la scoperta dell’incommensurabilità, una scoperta che fece peraltro vacillare la fiducia nell’idea stessa di razionalità.

L’irrazionalità dell’individuale-formale, in ambito matematico o geometrico, si esprime nella non-finitezza della sua determinazione numerica.

Del tutto correlativamente - in ambito materiale - la costituzione fenomenologica dell’individuale percettivo si realizza attraverso un infinito e inesauribile processo di avvicinamento all’oggettualità trascendente, un processo-limite chiamato adombramento (Abschattung) (2).

Da questo ordine di riflessioni emerge, in una prospettiva più generale, l’inafferrabilità di principio della determinazione individuale mediante un numero finito di determinazioni razionali (irrazionalità del reale)

Secondo A. N. Whitehead (3), ciascuna “occasione reale” (ossia ciascun oggetto o evento concreto) include una “gerarchia astrattiva infinita di oggetti eterni” (ove con “oggetti eterni” sono da intendersi le unità concettuali). Quando invece la gerarchia astrattiva è finita, si tratta di “inclusione parziale”, e pertanto di eventi mentali, e non reali (ricordi, immaginazioni, idee, ecc.).

Un altro modo di significare che solo gli enti irreali, costruibili e immanenti, sono esaustivamente definibili mediante una serie finita di determinazioni. Una proprietà, questa, che può essere vista anche come criterio per una distinzione fenomenologica tra configurazioni reali (trascendenti la coscienza) e configurazioni ideali (immanenti).

I numeri irrazionali trascendenti: numeri che sfuggono agli algoritmi

Restringiamo ora le nostre osservazioni alla determinazione formale dell’individuale.

Il genio della lingua matematica rispecchia lo stato delle cose sopra accennato fino nella semantica della teoria dei numeri reali.

I cosiddetti numeri razionali sono i numeri interi o quelli esprimibili come rapporti tra numeri interi.

Vi sono poi i numeri irrazionali (algebrici), che presentano una irrazionalità - diciamo così - di primo livello, in quanto si tratta di numeri che, seppure non esprimibili mediante rapporti di numeri interi, sono però esprimibili come radici di equazioni algebriche.

I razionali e gli irrazionali algebrici sono entrambi costruibili secondo algoritmo generativo, e pertanto è possibile stabilire un criterio affinché siano posti in correlazione biunivoca. Georg Cantor dimostrò (4) che l’insieme dei numeri razionali e quello dei numeri irrazionali algebrici (che parrebbero molto “di più”) hanno la medesima potenza: la prima potenza infinita, ossia quella del numerabile, una potenza, cioè, gerarchicamente inferiore alla potenza del continuo.

In altre parole, né l’infinita discrezione degli interi, né l’infinita densità dei razionali e degli irrazionali algebrici sono in grado di riempire tutti i “buchi” della retta reale, ossia non sono in grado di costituire la continuità, che è infinitamente più coesa.

La classe numerica che dà coesione e compattezza alla continuità della retta numerica reale è quella dei numeri irrazionali trascendenti (ossia i numeri che trascendono l’algebra). Si tratta di numeri che non possono essere espressi come radici di equazioni algebriche a coefficienti reali. Immaginativamente, possiamo vedere gli infiniti numeri interi, razionali e irrazionali algebrici, come isole sporadiche e trascurabili nell’oceano della continuità dei trascendenti.

E il curioso è che questi numeri trascendenti, che costituiscono l’infinita maggioranza dei numeri reali, non sono sistematicamente costruibili secondo alcun algoritmo generativo meccanico. Anzi, se ne conoscono relativamente pochi individui (e, π, e i loro composti) e alcune sporadiche specie costruibili.

Del resto, trascendere l’algebra significa trascendere l’algoritmo.

Il numero reale è pertanto, nella sua assoluta generalità, un numero irrazionale trascendente. La probabilità di estrarre casualmente dalla retta reale un numero che non sia un irrazionale trascendente, è formalmente nulla. Possiamo dire quindi che il reale si identifica con l’irrazionale trascendente.

Se non esiste un algoritmo generativo dei numeri reali, esiste però un principio determinativo generale, per quanto non-costruttivo, un principio ideale dato in forma definitoria e non algoritmica. Nell’analisi matematica della retta reale, il numero reale, ossia l’individuo generico, si identifica con il limite di successioni convergenti di numeri razionali (definizione di Cantor). Tra l’altro, nella visione cantoriana, la successione stessa, intesa come individualità attualmente infinita, è da vedersi come il numero reale, mentre l’identificazione del suo valore con il limite della successione, è una conseguenza, ossia un teorema (5).

Irrazionalità, non-costruibilità e non-riproducibilità del reale: ambiguità del concetto di virtuale

Dalle circostanze qui brevemente esposte, derivano alcune considerazioni di carattere significativo generale, almeno in ambito formale.

La prima e fondamentale è che l’individuale-reale è per essenza irrazionale, ossia non è esaustivamente determinabile mediante un numero finito di determinazioni finite (razionali).

In secondo luogo, la trascendenza esprime la circostanza che esso non è, nella generalità, costruibile. Abbiamo detto che trascendere l’algebra significa trascendere l’algoritmo. Ciò significa che la determinazione individuale non è - in linea di principio - raggiungibile da algoritmo.

In sintesi, l’individuale, nella sua costituzione formale, si mostra come una attualità infinita, irrazionale e trascendente la costruibilità algoritmica.

Un altro genere di considerazioni riguarda la circostanza che la determinazione formale dell’individuale-reale non riguarda unicamente la data individualità in questione, ma coinvolge per principio un insieme infinito di altre entità individuali particolari (razionali). Queste entità razionali, per quanto “oasi sporadiche nell’oceano della continuità trascendente”, sono pur esse infinite e densamente (inestricabilmente) connesse con la compattezza del reale. Ciò significa che la determinazione formale dell’individuo reale non è - in linea di principio - estrapolabile dal contesto d’ordine in cui esso è inserito, ma è inestricabilmente connessa con la totalità attualmente infinita dell’ordinamento reale. In altre parole, la determinazione dell’individuale-reale non può considerarsi avulsa dalla comprensione dell’infinita compattezza e connessione della contingenza reale e della gerarchia astrattiva razionale in esso inclusa.

Tutte queste considerazioni convergono all’evidenza che i procedimenti di simulazione e modellazione algoritmica - cosi come i procedimenti costruttivi in generale - non possono giungere, per principio, alla concretezza trascendente della determinazione reale-individuale.

La constatazione della trascendenza del reale rispetto la computabilità logica è contenuta già nel principio di ragion sufficiente di Leibniz. Così come il suo principio degli indiscernibili esclude la possibilità formale di eguaglianza numerica tra configurazioni reali.

L’individuale-reale non è, per principio, né computabile né riproducibile.

Nel dibattito odierno la dualità reale-virtuale, sostanzialmente fattuale, pare predominante rispetto alle distinzioni categoriali classiche.

L’odierna accezione di virtuale mutua il termine dalla tradizione meccanica dell’età illuministica.

Nel principio dei lavori virtuali di D’Alembert (6), con virtuali si intendono gli spostamenti o le deformazioni (di un sistema materiale rigido o elastico) infinitesime e compatibili con i vincoli al contorno. Da questo principio si evince infine che la configurazione reale è, di caso in caso, una sola e unica composizione - tra quelle potenzialmente infinite - di equilibrio e di congruenza. Il calcolo variazionale si mostrava allora come lo strumento analitico privilegiato per la determinazione della configurazione effettuale entro l’infinito ventaglio della potenzialità.

Con virtualità si intende dunque, originariamente, una categoria modale, e precisamente il potenzialmente reale. Evidentemente oggi il termine mostra una traslazione di senso, circostanza che porta con sé le inevitabili zone di ambiguità.

Oltre l’obiettivismo

Forse oggi soffriamo l’assenza di una consuetudine all’analisi categoriale, che nell’ontologia critica della prima metà del ‘900 aveva raggiunto elevati livelli di raffinatezza.

Probabilmente, per certi argomenti altamente problematici, quali la riproducibilità, la modellabilità, la simulabilità e la computabilità del concreto, così come - a monte - per i problemi concernenti la conoscenza formale in-genere (ossia quella non semplicemente empirico-percettiva), potrebbe essere adeguato e fruttuoso non limitarsi a procedimenti di tipo dimostrativo-computazionale.

Godel, in uno dei suoi ultimi scritti (7), invitava i giovani e i futuri ricercatori a trovare la via d’uscita dai paradossi, dalle indecidibilità e dalle oscurità delle teorie formali, non tanto in progressivi ampliamenti metateorici o complessificazioni computazionali, quanto piuttosto in un rigoroso lavoro immanente di chiarificazione e di elaborazione dei significati fondanti.

Il problema dell’obiettivismo, denunciato programmaticamente nella Crisi di Husserl (8), non si presenta solo nelle scienze empiriche, ma, del tutto coerentemente, anche nelle scienze logiche e matematiche, ossia nelle discipline formali.

Più precisamente, l’obiettivismo si mostra in queste ultime sotto forma del primato della computazione e della dimostrazione formale, ossia di procedimenti che possiamo anche chiamare - oggi - artificiali, in quanto per principio avulsi da ogni riferimento all’intenzionalità.

E in questa prospettiva la distinzione procedurale-intenzionale è ben più fondativa di quella (fattuale) artificiale-naturale.

Ma qui si apre evidentemente un altro orizzonte di tematiche.

 

 

Riferimenti bibliografici

(1) Weyl, Filosofia della matematica e delle scienze naturali, 1949

(2) Husserl, Idee per una fenomenologia pura e per una filosofia fenomenologica, Vol. 1, 1913.

(3) N. Whitehead, La scienza e il mondo moderno, 1925

(4) Cantor, Su una proprietà dell’insieme di tutti i numeri reali algebrici, 1874

(5) Cantor, Fondamenti di una teoria generale delle molteplicità, § 9, 1883

(6) B. Le Ronde d’Alembert, Traité de dynamique, 1743

(7) Gödel, Il moderno sviluppo dei fondamenti della matematica alla luce della filosofia, 1961

(8) Husserl, La crisi delle scienze europee e la fenomenologia trascendentale, 1938


Il doppio click – Seconda parte: il complottismo come scientismo pop, un confronto fra il modello a diffusione e quello a traduzione

Nella prima parte di questa riflessione sul tema del doppio click come atteggiamento blasé nei confronti del mondo, abbiamo associato lo scientismo, ovvero la forma mentis che assegna alla scienza il monopolio della verità, a quanto di più frivolo possa esserci, la pratica del turismo, con il suo portato inevitabilmente classista ed essenzialista[1].

In questa seconda parte, tenteremo di completare questa prima argomentazionecon la pars construens: ovvero, ora che sappiamo distinguere lo scienziato dal sacerdote e dalla guida turistica, come possiamo prendere le distanze da un modo di fare scienza in maniera indifferente e ingenua, e invece affermarne uno responsabile?

Per rispondere possiamo seguire ancora Latour, nel suo confronto fra il modello a diffusione, tipico dello scientismo, a cui oppone quello a traduzione[2].

 

Il modello a diffusione

Questo modello ci è molto familiare e definisce il sapere e la cultura basandosi sul concetto di scoperta. In breve, si ritiene che le discipline scientifiche accrescano di un certo quantitativo le cose conosciute sui fatti del mondo, e quanto più si sarà in possesso di nuove scoperte a proposito della natura di questi fatti, quanto più sarà possibile divulgarli, ovvero diffonderli, presso il pubblico più allargato.

Attraverso la diffusione, questo pubblico può prendere atto e venire a patti col nuovo stato di cose. Stato che, in fondo, potrebbe parlare da sé, mentre basta che sia semplicemente rivelato dagli esperti, di modo che «quando un fatto non viene creduto, quando un’innovazione non viene recepita, quando una teoria viene impiegata in modo del tutto diverso, il modello a diffusione si limita a dire ‘alcuni gruppi fanno resistenza’ … [Quindi] i diffusionisti non fanno altro che aggiungere al ritratto nuovi gruppi sociali passivi che possono rallentare con la loro inerzia la diffusione dell'idea o smorzare gli effetti della tecnica. In altre parole, il modello a diffusione inventa una società per spiegare l'ineguale diffusione di idee e di macchine» (Latour B. (1998), La scienza in azione, Edizioni di Comunità, Roma/Ivrea, p. 183).

Questa, a dire il vero, e l’idea più comune che abbiamo dell’attività del sapere istituzionalizzato, a cui affidiamo un ruolo emancipatorio. Ovvero, pensiamo che al multiculturalismo tipico dei gruppi sociali vada sempre comunque opposto il mononaturalismo offerto dalla ricerca scientifica. L’unica dimensione capace di far convergere le disposizioni delle intelligenze umane su una base di accordo universale, a scapito dei turbamenti politici, sociali, e degli interessi di parte.

Il modello a diffusione è quindi inevitabilmente asimmetrico (sì, classista), perché ogni nuova “scoperta” prevede qualcuno che ancora non la conosce, ma a cui presto deve perentoriamente adeguarsi, pena la sua arretratezza e ignoranza: pensiamo, ad esempio, alla frase-comando «ormai viviamo nell’epoca dell’IA…».

Il progressismo, o l’attitudine al pensiero critico[3] , in realtà, non appartiene solamente agli scienziati col camice bianco, ma è un atteggiamento diffuso trasversalmente, per esempio anche dai complottisti, gli “acerrimi avversari” degli scienziati. «Vi ricordate i bei vecchi tempi, quando i professori universitari potevano guardare dall’alto in basso le persone comuni perché quei buzzurri credevano ingenuamente alla chiesa, la famiglia e la torta di mele? Le cose sono cambiate un sacco, almeno nel mio paese. Adesso sono io quello che crede ingenuamente in alcuni fatti perché sono istruito, mentre gli altri tizi sono troppo poco sofisticati per essere dei creduloni: che cosa è accaduto alla critica quando il mio vicino mi giudica come uno irrimediabilmente ingenuo perché credo che gli Stati Uniti siano stati attaccati dai terroristi? ‘Ma dove vivi? Non lo sai che sono stati il Mossad e la CIA?’» (Latour B. (2004), Why Has Critique Run out of Steam? From Matters of Fact to Matters of Concern, in «Critical Inquiry», 30, University of Chicago, p. 228)

 

Il modello a traduzione

Così, per cercare di appianare le divergenze fra esperti e profani che nascono da un fraintendimento comune, Latour propone il modello a traduzione, per il quale invece, come dice il nome, l’attività della ricerca non ha niente a che vedere con la scoperta. Secondo questo approccio infatti, che si tratti di una nuova interpretazione di un’opera letteraria a partire da un manoscritto, del conteggio della popolazione di microorganismi in una coltura, della somministrazione di un questionario o della rivelazione di particelle subatomiche in un acceleratore, quello che noi facciamo, e che finisce nei nostri articoli scientifici, sono sempre trasformazioni di un determinato contenuto di realtà, sotto forma di testo, grafici, immagini, simboli o diagrammi. Per Latour, la ricerca consiste in un’attività di manipolazione continua delle informazioni, in quanto esse stesse sono il frutto di mediazioni precedenti.

Questo – chiedo scusa per il gioco di parole – cambia tutto. In altre parole, «dire è dire altrimenti. Altrimenti detto è tradurre» (Latour B. (2021), Politiche del design. Semiotica degli artefatti e forme della socialità, Mimesis, Milano, cfr. il capitolo Irriduzioni, p. 254): ogni calcolo, etichettamento, definizione, campionamento, riassunto, misurazione, è un modo per représenter[4]una certa entità in maniera diversa, e secondo il linguaggio proprio dello strumento con cui è rappresentata, in modo da renderla così comparabile, gestibile, associabile, predittiva o vincolante rispetto alle altre entità con cui è messa a confronto.

Perciò, poiché permette di mobilitare risorse, raggruppare alleati e avversari, e definire i campi di lotta, ogni forma di sapere, è prima di tutto una tecnica di governo. Anziché un modo per “osservare” in modo “neutrale” la “natura”.

Prendiamo un esempio, quale i rapporti del IPCC (Intergovernmental Panel on Climate Change) sui cambiamenti climatici: essi non riportano banalmente le prove che il cambiamento climatico è causato dall’attività umana, ma con le loro conclusioni, a cui hanno fatto seguito azioni politiche, questi agiscono come portavoce – come il deputato del nostro collegio o il rappresentante sindacale nel CDA dell’azienda per cui lavoriamo – parlando a nome di tutti i dispositivi che sono serviti come strumenti mediatori del vasto repertorio di capta (presi, anziché dati) per produrre grafici, tabelle e indicazioni testuali, come satelliti, boe oceanografiche, stazioni di rilevamento dell’anidride carbonica, e così, via; tutti finanziati e implementati dagli Stati. Se si tolgono questi ultimi, se si toglie l’organizzazione sociale che foraggia il lavoro di ricerca, esterno all’accademia e agli altri istituti, le prove svaniscono. O meglio, non hanno più di che distinguersi dalle presunte contro-deduzioni degli scettici del clima, che solitamente non dispongono di un paragonabile apparato strumentale. Ma ciononostante, seguendo il positivismo, hanno capito benissimo come servirsi dell’argomento dell’impossibilità di ottenere evidenze verificate per sollevare dubbi e polemiche, con una certa efficacia.

Perciò, quello che cambia di sostanziale nel modello a traduzione è che il mondo scientifico e quello politico non possono più essere visti come due dimensioni in conflitto, da mantenere distinte.

Anzi, più l’istituzione scientifica dispone di mezzi, più essi vengono discussi pubblicamente e definiti nei loro obbiettivi, più l’attività di ricerca sarà presentata come una pratica come le altre, che lavora e costruisce i propri “fatti” (anziché fornici l’accesso diretto a questi fatti), e più sarà in grado di tradurre le nostre volontà con enunciati solidi e legittimati.

Per cui, infine, «se vogliamo che le persone comprendano la scienza, bisogna mostrare come è prodotta» (Intervista rilasciata al Guardian il 06/06/20)

 

 

NOTE

[1] Con essenzialismo, nelle scienze sociali, si indica quel presupposto erroneo per il quale una certa entità possiede una natura – immodificabile, inevitabile e inopinabile – che ne determina il comportamento. Fra gli esempi più celebri in questo senso possiamo citare la teoria della razza di De Gobinau, quella del delinquente nato di Lombroso, e la frenologia di Gall (che pure, in un certo senso è tornata di moda con il pericolosissimo film Pixar Inside Out). Il turismo sarebbe essenzialista perché si basa precisamente sul fatto che «da qualche parte» esistano popolazioni e territori che conservano un’identità “autentica”, cioè naturale e immutabile, venendo così trasformata in un loro destino. Cfr. Barthes R., Miti d’oggi, Einaudi, Torino, 2016. In particolare, il capitolo La Guida Blu.

[2] Cfr Latour B. (1998), La scienza in azione, Edizioni di Comunità, Roma/Ivrea

[3] Con “pensiero critico”, che ereditiamo da Kant, in senso lato intendiamo la concezione per cui esista una verità oggettiva e naturale che ci può essere più o meno evidente in base alla nostra rappresentazione soggettiva e culturale di essa. Si pensi ad esempio, all’enorme successo del grande classico 1984 di George Orwell e della sua importanza per il pensiero politico progressista, in cui il protagonista Winston Smith alla fine si arrende al bipensiero imposto dal Grande Fratello, il quale può imporre a suo piacimento che 2+2 faccia 5. Per un superamento di questa sorta di riduzionismo matematico prêt-à-porter, confronta l’articolo di Benoit Mandelbrot How Long Is the Coast of Britain? Statistical Self-Similarity and Fractional Dimension: https://it.wikipedia.org/wiki/How_Long_Is_the_Coast_of_Britain%3F_Statistical_Self-Similarity_and_Fractional_Dimension

[4] In italiano, a differenza dell’inglese o il francese, abbiamo due sostantivi diversi per indicare la rappresentanza e la rappresentazione, finendo per pensare che si tratti di due attività differenti e separate, dove una ha a che vedere con la mobilitazione politica, e l’altra con la produzione di immagini mentali. Si può dire che l’intera opera di Latour è incentrata precisamente sul rifiuto di questo dualismo.


Antropologia dell’IA - Stereotipi, discriminazioni di genere e razzismi

Da un twitter divenuto virale nel 2019 si è venuti a conoscenza del fatto che Goldman Sachs, una delle più importanti banche d’investimento del mondo, aveva escluso una potenziale cliente dall’accesso a una prestigiosa ed esclusiva Apple card in base a una profilazione erronea e discriminatoria. Il fatto si è saputo perché l’autore del twitter, un danese sviluppatore di software, è il marito della persona a cui era stata negata la card, che lui invece aveva ottenuto pur guadagnando meno di lei. In sostanza, la donna per ragioni opache e non trasparenti era stata considerata non idonea per quel determinato prodotto.

Discriminazioni di genere

Se non ci fosse stato quel twitter non si sarebbe saputo nulla di tutto ciò, ovvero di una sistematica e silenziosa discriminazione di genere. La vicenda rappresenta una plastica esemplificazione della nota metafora del cosiddetto “soffitto di cristallo”: la possibilità che una donna ha di poter scalare il potere o di avere pari opportunità di carriera è spesso preclusa da una sorta di soffitto trasparente, che costituisce una barriera invisibile eppure potente e limitante. Per ragioni imperscrutabili, non esplicitate chiaramente e senza la possibilità di entrare nel merito, gli algoritmi rischiano di attuare politiche discriminatorie, che si supponeva dovessero appartenere al passato e non alle tecnologie del futuro. La rappresentazione, l’interpretazione e la codificazione degli esseri umani attraverso dataset di training e le modalità con cui i sistemi tecnologici raccolgono, etichettano e utilizzano questi materiali sono aspetti decisamente cruciali nel riprodurre stereotipi, pregiudizi, forme di discriminazione di genere o razziale. I bias trovano sempre una strada per inserirsi nel sistema, o meglio in un certo senso i bias fanno parte del sistema. A questo proposito, è noto che fino al 2015 Amazon reclutasse i suoi futuri dipendenti tramite un sistema che si era “allenato” sui curricula, in genere di uomini, ricevuti nei dieci anni precedenti. I modelli avevano quindi imparato a raccomandare gli uomini, autoalimentando e amplificando le disuguaglianze di genere dietro la facciata di una supposta neutralità tecnica. Tanto per fare un esempio, il curriculum di un aspirante dipendente di Amazon veniva scartato se al suo interno conteneva la parola “donna”, perché il sistema aveva imparato a gestire di dati così (Dastin 2018).

Il razzismo dell’IA

L’IA produce e riflette le relazioni sociali, una determinata visione del mondo e, inevitabilmente, i rapporti economici e di potere, visto il notevole capitale in termini finanziari che occorre per investire in essa. Basti pensare che i sistemi di riconoscimento facciale, che contribuiscono fortemente a etichettare la realtà e gli umani, derivano dai primi tentativi sperimentali della Cia e dell’FBI negli anni Sessanta, passando per i database basati sulle immagini dei carcerati, per arrivare all'epoca attuale, dove i principali sistemi di questo tipo sono alimentati da volti e scatti liberamente messi in circolazione sui social (Crawford 2021:105-135). Ovviamente l'accresciuta complessità tecnologica e il suo considerevole impatto sociale hanno fatto emergere anche i tratti più controversi dell’IA, a cominciare dai pregiudizi automaticamente inseriti nei dataset utilizzati per nutrire l'intelligenza artificiale. Si pensi al fatto che c’è stato un lungo dibattito sul riconoscimento facciale, in cui si è visto che è più difficile distinguere i neri, proprio perché i dataset di training si fondano prevalentemente su materiale fotografico di bianchi, raccolto e categorizzato soprattutto da bianchi.

Le differenze razziali, culturali e di genere sono elementi che non si limitano ad affiancarsi o a sommarsi uno sull’altro, ma interagiscono producendo nuove e incomparabili forme di segregazione e di assoggettamento, che si stratificano su vecchi e consumati stereotipi e discriminazioni. A questo riguardo, sui media ha molto circolato la storia di un’afroamericana che non riusciva ad avere il mutuo per acquistare una casa e non si capiva perché, visto che aveva un buon lavoro in una università americana; finché non è apparso chiaro che ciò dipendeva dal quartiere afroamericano in cui abitava e dal suo essere afroamericana (Glantz, Martinez, 2018). In pratica, l’IA acuiva le asimmetrie già esistenti riguardo i singoli gruppi umani a partire dalla loro supposta affidabilità in termini creditizi. Limitando le chance di un futuro migliore si perpetua e “naturalizza” un razzismo esistente e conclamato seppure mai apertamente dichiarato.

Secondo la scienziata esperta in intelligenza artificiale Timnit Gebru e la studiosa di linguistica computazionale Emily Bender un gigante come Google riafferma e ratifica continuamente le disuguaglianze. Ad esempio, il suo programma di riconoscimento facciale è meno accurato nell’identificare le donne e le persone di colore (Hao 2020). Gli algoritmi, concepiti a partire da tecnologie innovative, possono convalidare forme di razzismo istituzionalizzato. Addirittura in uno studio dell’Università del Maryland è stato riscontrato che in alcuni software di riconoscimento facciale le emozioni negative vengono maggiormente attribuite ai neri piuttosto che ai bianchi (Crawford, 2021:197).

Il contesto socio-culturale  dell’IA

Lo sviluppo esponenziale dell’IA ha in qualche maniera obbligato a ragionare su determinati aspetti, come quelli per così dire più umani delle machine learning. Gli stereotipi, le forme di discriminazione e di razzismo infatti vengono automaticamente appresi e inseriti nei dataset, ma questi ovviamente erano e sono già presenti in internet e nella realtà quotidiana al di là della IA. Per cui bisogna tornare a monte, appunto. Di cosa si nutre l’IA? Chi costruisce l’intelligenza artificiale? Perché è ovvio che non si tratta di semplicemente di correggere errori una volta che emergono, come il caso dei curricula di Amazon o della Apple card di Goldman Sachs. Le immagini inserite nei dataset basati sulla visione artificiale per il riconoscimento degli oggetti, nel categorizzare i generi si ritrovano a organizzare, etichettare ad esempio foto in cui gli uomini sono spesso stati fotografati outdoor presi in qualche attività sportiva e con oggetti relativi allo sport e le donne prevalentemente in cucina con qualche utensile relativo al cucinare (Wang, A., Liu, A., Zhang, R., Kleiman, A., Kim, L., Zhao, D.,Shirai, I. Narayanan, A. Russakovsky, O., 2021: 9). Questo dato è di per sé rilevante e in qualche modo va analizzato perché i bias sono già incapsulati nel sistema.

Fei-Fei Li, un’esperta di visione artificiale che si occupa anche di debiasing, come ridurre i bias che i dataset tendono ad inglobare, afferma che le conseguenze della attuale situazione sono “dataset non sufficientemente diversificati, compreso quello di ImageNet [a cui la stessa Li ha lavorato, n.d.a.], esacerbate da algoritmi testati male e decisioni discutibili. Quando internet presenta un’immagine prevalentemente bianca, occidentale e spesso maschile della vita quotidiana, ci resta una tecnologia che fatica a dare un senso a tutti gli altri” (Li, 2024: 253). I dataset riflettono anche una concezione del mondo fortemente ancorata a quella di coloro che ci lavorano.

È interessante sapere che, secondo il Guardian, nel team di Sam Altman il 75% dei dipendenti di OpenAI è uomo (Kassova, 2023). E la domanda che inevitabilmente sorge è: quali sono le conseguenze di una IA sviluppata senza la piena partecipazione delle donne, delle minoranze e di Paesi non occidentali? Perché allo stato attuale è ovvio che la loro mancanza di rappresentanza nel settore tech ha come conseguenza che gli algoritmi funzionano male con coloro che non sono bianchi e maschi.

L’IA e il marchio del capitalismo

Le altre domande altrettanto cruciali sono: per chi è fatta l’IA? Chi possiede i dataset e che uso ne fa? E qua ovviamente entra in gioco anche la democrazia sulla trasparenza e l’etica della non discriminazione. Uno degli elementi chiave riguardo i dati è che sono presi senza contesto e senza consenso. Nick Couldry e Ulises Mejias (2022) fanno un interessante parallelismo tra epoca coloniale e società attuale. Se nell’epoca del colonialismo, il potere agiva in maniera estrattiva, ovvero i colonizzatori spoliavano i paesi colonizzati di materie prime preziose e di forza lavoro (tramite lo schiavismo), i corrispettivi contemporanei per profitto estraggono dati senza chiedere il consenso ai legittimi possessori, come nel caso di Midjourney che, come recentemente emerso in una class action promossa da alcuni artisti americani, ha utilizzato le opere di 16.000 artisti senza chiedere il consenso e aggirando il copyright. I maggiori giganti tecnologici sono costantemente e voracemente in cerca di enormi quantità di dati per alimentare e allenare i sistemi di intelligenza artificiale (Metz, C., Kang, C., Frenkel, S., Thompson, S.A., Grant, N., 2024). Internet è stato concepito da coloro che operano nel settore dell’IA come una sorta di risorsa naturale, disponibile da cui si possono estrarre dati a piacimento. Il colonialismo dei dati è un ordine sociale emergente basato su un nuovo tentativo di impadronirsi delle risorse del mondo a beneficio di alcune élite, come era avvenuto in passato con il “classico” colonialismo. C’è una continuità profonda nei metodi di acquisizione, negli atteggiamenti mentali, nelle forme di esclusione e di preservazione del potere. È incredibile come ciò sia a volte incastonato in qualche biografia emblematica: Elon Musk, ad esempio, ha un padre che è stato proprietario di una miniera di smeraldi in Zambia. In famiglia la forma di colonizzazione si è solo evoluta con i tempi e con le tecnologie, ma il marchio è lo stesso.

L’intelligenza artificiale, come un tempo il colonialismo, genera valore in modo iniquo e asimmetrico, impattando negativamente su molte persone, non importa se le definiamo in termini di razza, classe o genere, o tramite l’intersezione di tutte queste categorie.

E renderla più inclusiva non sarà una battaglia facile.

 

 

RIFERIMENTI BIBLIOGRAFICI

Crawford, K. (2021), Né intelligente né artificiale: il lato oscuro della IA, Il Mulino, Bologna.

Couldry, N., Mejias, U.A. (2022), il prezzo della connessione: Come i dati colonizzano la nostra vita e se ne appropriano per fare soldi, Il Mulino, Bologna.

Dastin, J. (2018), “Amazon Scraps Secret AI Recruiting Tool That Showed Bias against Women”, in Reuters, October 11.

Glantz, A., Martinez of Reveal, E. (2018), “Kept out: How Banks Block People of Color from Homeownership, APnews, February 15.

Hao, K. (2020), “We Read the Paper That Forced Timnit Gebru Out of Google. Here’s What It Says”, in MIT Technology Review, December 4.

Kassova, L. (2023) “Where are All the ‘Godmothers’ of AI? Women’s Voices are not being Heard”, The Guardian, November 25.

Li, F.F, (2024), Tutti i mondi che vedo, Luiss University Press, Roma.

Metz, C., Kang, C., Frenkel, S., Thompson, S.A., Grant, N. (2024), “How Tech Giants Cuts Corners to Harvest Data for A.I.”, The New York Times, April 6.

Telford, T. (2019), “Apple Card algorithm sparks gender bias allegations against Goldman Sachs”, Washington Post, November 11.

Wang, A., Liu, A., Zhang, R., Kleiman, A., Kim, L., Zhao, D., Shirai, I. Narayanan, A. Russakovsky, O., (2021,“A Tool for Misuring and Mitigating Bias in Visual Dataset”, arXiv: 2004.07999v4 [cs.CV] 23 Jul 2021.


Cibo di alta qualità, crescita economica, salvare il pianeta o salvare gli animali? - 4 istanze morali in tensione

Due settimane fa, parlando della FAO e della controversia sulle misure più efficaci per contenere le emissioni di gas serra, abbiamo evidenziato un possibile conflitto tra l’obiettivo di diminuire significativamente la CO2 immessa nell’atmosfera e la missione della FAO stessa di garantire a tutti abbastanza cibo di alta qualità.

Nell’accezione della FAO, infatti, il cibo di alta qualità è principalmente rappresentato dalle proteine di origine animale e, quindi, ridurre le emissioni di CO2 che vengono dagli allevamenti intensivi significa mettere in crisi il meccanismo di approvvigionamento di una parte importante del cibo di alta qualità.

Questa tensione tra i due obiettivi mostra come, spesso, i problemi di carattere scientifico (il modo in cui ridurre la produzione di CO2 è indubbiamente un problema scientifico) celino una dimensione politica e, quindi, di scelte morali [1].

In questo caso, esaminando con maggiore attenzione i termini della controversia, emerge che ci sono almeno quattro obiettivi di carattere politico e morale in tensione reciproca:

  • La riduzione della CO2 anche attraverso il drastico ridimensionamento dell’industria della carne [2], che fa capo all’istanza morale di “salvare il pianeta”,
  • La garanzia che tutti abbiano sufficiente cibo di alta qualità, che fa capo all’istanza morale di “salvare le persone umane” dalla fame e dagli effetti negativi che derivano da una alimentazione insufficiente o troppo povera,
  • La salvaguardia dell’economia e dell’occupazione delle sfere sociali in cui operano i produttori di carne, la cui istanza morale può essere riassunta in “garantire lavoro e sussistenza”,
  • L’attenzione alla vita e al benessere degli animali non umani, importante per una sempre più diffusa sensibilità la cui istanza morale di riferimento è “non uccidere e non far soffrire tutti gli animali”.

In modo molto schematico e semplificato, la tensione reciproca tra le 4 istanze morali è abbastanza evidente considerando gli effetti della riduzione degli allevamenti:

  • ridurre significativamente gli allevamenti (e la CO2 che producono) può generare crisi economica e disoccupazione, almeno nel breve periodo e, contestualmente, ridurre la disponibilità di cibo di alta qualità per chi ne ha bisogno
  • mantenere in continuità gli allevamenti con la conseguente stabilità economica e occupazionale, può – invece – impedire il raggiungimento degli obiettivi di contenimento della CO2 e (senza può) provoca morte e sofferenza a milioni di animali non umani (bovini, ovini e suini)

A queste 4 istanze morali va aggiunta quella del rispetto e della continuità delle tradizioni, tra cui quelle alimentari, che includono – spesso – il consumo di carne, abitudinario o addirittura con sfumature rituali (ad esempio, il Sunday Roast in Gran Bretagna, il capitone a Natale e l’agnello a Pasqua in Italia, il tacchino per il Thanksgiving negli US ecc.), che complica ulteriormente il quadro.

Questa contrapposizione di obiettivi mostra chiaramente come, dietro una questione scientifica (il maggiore o minore valore della CO2 da allevamenti), si ponga la necessità di fare delle scelte morali, di determinare quali siano le priorità da assegnare alle diverse opzioni e ai diversi obiettivi, cosa sia più importante, quale sia il valore da collocare in cima alla scala.

E, ancora una volta, mostra che le scienze e il lavoro scientifico non siano neutrali ma

  • influenzate da istanze sociali, politiche e morali; l’interpretazione riduttiva del tasso di CO2 legato agli allevamenti intensivi, in questo caso, può essere stato influenzato da considerazioni di natura economica, occupazionale e alimentare
  • politicamente e socialmente attive; in questo caso, ancora, la lettura della FAO ha orientato l’agenda politica e ambientale in direzione diversa da quella della riduzione dell’allevamento di animali da carne

È, perciò, opportuno non credere alla presunta obiettività e neutralità delle scienza ma – riconoscendone la rilevanza per la vita di tutti e senza cadere in forme di critica distruttiva – fare attenzione alle implicazioni sociali, politiche e morali che esse sottendono. 

--------

A ben vedere, inoltre, queste contrapposizioni tra istanze morali che, prese una alla volta, sono tutte ampiamente condivisibili (chi non vuole salvare la Terra? E chi non vorrebbe eliminare la fame dal mondo? E chi si opporrebbe ad una economia florida e con meno disoccupazione? A chi piace veder soffrire e morire animali innocenti?) sono ben rappresentate tra gli organismi sovranazionali che, in particolare, fanno capo alle Nazioni Unite:

  • la FAO – che ha la missione di assicurare cibo sufficiente e di qualità per tutti
  • l’UNEP – che lavora a favore della tutela dell’ambiente e della sostenibilità
  • la WOAH – che si occupa della salute e del benessere degli animali non umani
  • l’ILO – organizzazione internazionale per il lavoro, con il fine di creare maggiori opportunità di occupazione e redito dignitosi
  • la Banca Mondiale e il Fondo Monetario Internazionale – che dovrebbero impegnarsi per uno sviluppo equo ed equilibrato di tutte le nazioni

Organismi e obiettivi in tensione o, addirittura, in parziale conflitto tra loro. Come si possono – quindi – armonizzare agende [3] tanto diverse tra loro?

Un primo passopotrebbe essere quello di abbattere una sorta di tabù, quello dell’identificazione del cibo di alta qualità con la carne animale seguendo, ad esempio, le linee guida del Rapporto EAT – Lancet, che indica vie alternative (e spesso a minor costo) di alimentazione ricca e completa. Se la FAO adottasse questo punto di vista uno dei termini di opposizione si eliminerebbe.

Un secondo passo potrebbe essere, conseguenza del primo, l’adozione di una politica di progressiva trasformazione dell’economia dell’allevamento in economia della produzione e trattamento dei cereali per alimentazione umana, con misure di sostegno eco-finanziario da parte della Banca Mondiale, e con risultati efficaci per la salvaguardia dell’ambiente (meno CO2), del benessere di animali umani (meno rischi cardiaci) e non umani (meno sofferenze e morti).

Inoltre, eludendo la difficoltà di armonizzare politiche mondiali, potrebbe essere opportuno focalizzare gli interventi su aree micro economiche ed ambientali, in cui le misure di contenimento delle emissioni di CO2 possono essere orientate in modo mirato e gli interventi per la trasformazione ambientale, alimentare e produttiva possono essere sostenuti in modo più efficace, creando esperienze pilota e buone pratiche da diffondere.

Sempre con un occhio attento alle relazioni tra scienze, società, morale e politica, e con le orecchie aperte alle istanze minoritarie – anche quelle scientifiche – che possono alimentare l’innovatività e le soluzioni meno ovvie.

 

 

NOTE

[1] In modo molto semplificato, possiamo definire scelta morale una scelta fatta in modo consapevole sulla base di esperienze, convinzioni e scale di priorità e di valori. Per fare queste scelte usiamo, infatti, quello che sappiamo, quello che abbiamo provato, quello che ci ha insegnato se la scelta ci farà bene o male; per sapere se quello che accadrà ci farà bene o male usiamo l’esperienza del piacere e del dolore; per discernere tra piacere e dolore utilizziamo una scala di valori, cioè una classifica di cosa fa più bene o più male.

[2] Soprattutto bovina, cfr. Pathways towards lower emissions. A global assessment of the greenhouse gas emissions and mitigation options from livestock agrifood systems, Food and Agriculture Organization of the United Nations, Rome, 2023, ISBN 978-92-5-138448-0, si può scaricare qui, p. 12

[3] Qualcosa, in questo senso, è stato fatto: si tratta di ONE HEALTH un approccio integrato alla salute umana, animale e ambientale, che coinvolge la FAO, la WHO e la WOAH, e che – per ora – consiste in un gruppo trasversale di esperti costituito nel 2021 con l’obiettivo di sviluppare un punto di vista olistico su salute e ambiente e di fornire consulenza su questo tema alle Agenzie che lo formano. Questo approccio sembra essere, tuttavia, molto orientato alla tutela della salute umana.


La valutazione oggettiva non esiste - È sempre guidata da una teoria (soggettiva) sottostante…

Si sente spesso pronunciare l’espressione “valutazione oggettiva”. Essa viene commissionata e richiesta a studiose, consulenti e valutatrici. In realtà tale espressione è un ossimoro. Perché la valutazione è sempre soggettiva. Forse, il vero pericolo è che diventi soltanto arbitraria. Ma a questo ci sono rimedi.

Le esperte e studiose serie di valutazione (non le praticone) lo sanno bene. E da molto tempo, ormai.

Cito solo tre approcci di importanti autori e autrici, che fin dagli anni ’80 hanno tematizzato questo aspetto, in polemica con la valutazione di impianto positivista e sperimentale:

  • la valutazione realistica (Realistic Evaluation) di Ray Pawson e Nick Tilley
  • la valutazione guidata dalla teoria (Theory-Driven Evaluation) di Chen e Rossi
  • la valutazione basata sulla teoria (Theory Based Evaluation) di Carol Weiss

Il tratto comune a questi tre approcci è mostrare (e teorizzare) come la valutazione sia sempre guidata da una teoria sottostante, e quindi basata sia su assunti epistemologici ma anche di conoscenze di senso comune.

Vediamo un esempio illuminante che ci proviene dall’economia 

Il valore di una professione

La New economics foundation (Nef) è un istituto di ricerca, consulenza e idee innovative (think tank) composto da una cinquantina di economiste, famose per aver portato nell'agenda del G7 e G8 (a fine anni duemila) temi quali il debito internazionale.

Nel 2009 si proposero di condurre una ricerca sul valore delle professioni, che adottasse però una prospettiva diversa (da quelle tradizionali). Tale prospettiva aveva lo scopo di “collegare gli stipendi al contributo di benessere che un lavoro porta alla comunità".

Come spiegarono nella stessa introduzione della ricerca, "abbiamo scelto un nuovo approccio per valutare il reale valore del lavoro. Siamo andati oltre la considerazione di quanto una professione viene valutata economicamente e abbiamo verificato quanto chi la esercita contribuisce al benessere della società. I principi di valutazione ai quali ci siamo ispirati quantificano il valore sociale, ambientale ed economico del lavoro svolto dalle diverse figure".

--------

In altre parole, se si modificano i criteri teorici, culturali, ideologici (ma questa è una scelta, una decisione, un atto soggettivo), avremmo risultati di ricerca molto diversi.

Il Nef calcolò così il valore economico di sei diversi lavori, tre pagati molto bene e tre molto poco, introducendo nuovi criteri e abbandonando i vecchi (soggettivi anche loro, ovviamente).

Il risultato fu sorprendente e rovesciava le gerarchie tradizionali. 

Ad esempio, comparando un operatore ecologico e un fiscalista, il Nef concludeva che il primo contribuisce con il suo lavoro alla salute dell'ambiente grazie al riciclo delle immondizie, mentre il secondo danneggia la società perché studia in che modo far versare ai contribuenti meno tasse. Quindi il primo dovrebbe essere pagato molto di più e il secondo molto di meno (per usare un eufemismo).

Lo stesso vale, dicono al Nef, per i banchieri che prosciugano la società e causano danni all'economia globale.

In generale, esaminando “il contributo sociale del loro valore, abbiamo scoperto che i lavori pagati meno sono quelli più utili al benessere collettivo".

Conclusione che certamente approverebbero i due uomini in giallo, ma anche Wim Wenders, visto che con il suo ultimo film Perfect Days (2023) fa un biopic di un addetto alle pulizie dei bagni pubblici di Shibuya (uno dei 23 quartieri speciali di Tokyo), quasi un eroe dei nostri tempi.

Le economiste del Nef sono molto chiare: “il nostro studio vuole sottolineare un punto fondamentale e cioè che dovrebbe esserci una corrispondenza diretta tra quanto siamo pagati e il valore che il nostro lavoro genera per la società. Abbiamo trovato un modo per calcolarlo e questo strumento dovrebbe essere usato per determinare i compensi". 

Per cui, la valutazione è primariamente un problema teorico

Solo secondariamente diventa un problema tecnico. 

Proprio l’opposto di quello che molte scienziate ci dicono, e continueranno a (men)dire…

 

 

RIFERIMENTI BIBLIOGRAFICI

Chen H. T. (1990), Theory driven Evaluation, Thousand Oaks: Sage.

Chen H. T. e Rossi P. H. (1981), The multi-goal, theory-driven approach to evaluation. A model linking basic and applied social science, in “Social Forces”, 59, pp. 106-22.

Pawson R. e Tilley N. (1997), Realistic evaluation, London: Sage.

Weiss C. H. (1995), Nothing as Practical as Good Theory: Exploring Theory-Based Evaluation for Comprehensive Community Initiatives for Children and Families, in Connell J. P., Kubisch A. C., Schorr L. B. e Weiss C. H. (a cura di), New Approaches to Evaluating Community Initiatives. Vol. 1 Concepts, Methods, and Contexts, The Aspen Institute, Washington (DC), pp. 65-92.

Weiss C. H. (1997a), How can Theory-Based Evaluation make greater headway? in “Evaluation Review”, 4, pp. 501-524.

Weiss C. H. (1997ab), Theory-based evaluation: past, present, and future, in “New Directions for Evaluation”, 76, pp. 41-55, 

Weiss C. H. (1998), Evaluation. Methods for studying programs and policies, Upper Saddle River (NJ): Prentice Hall, 1998.


Un fiume norvegese, il governo e dei pescatori tradizionali - La conoscenza scientifica come forma di colonialismo?

Noi occidentali abbiamo imparato a dare per scontato che la conoscenza scientifica abbia un primato epistemologico sulle altre forme di conoscenza. Ma esistono anche delle conoscenze tradizionali che non sono formalizzate in teorie, concetti specifici, ma che possono avere una forte presa sulla realtà.

------------

Nel saggio “Indigeneity, science and difference: notes on the politics of how”, John Law e Solveig Joks (2019) analizzano una controversia coloniale riguardante la regolamentazione della pesca del salmone nel fiume Deatnu.

Da un lato c’è il governo norvegese che, con i suoi ricercatori e biologi, vuole imporre delle norme per preservare le popolazioni di salmoni attraverso la riduzione delle attività di pesca. Secondo il governo e i ricercatori, gli obiettivi di stoccaggio non venivano raggiunti e il numero di salmoni stava diminuendo.

Questo gruppo di scienziati finlandesi e norvegesi aveva raccolto statistiche, modellato stock ittici ed eseguito proiezioni demografiche; sulla base di questi elementi aveva elaborato delle regole rigide su chi può e chi non può pescare in questo fiume scandinavo, con quali tecniche, in quali periodi e in quale ora del giorno. Queste norme sono il prodotto di statistiche e proiezioni biologiche sulla popolazione ittica.

Dall’altro lato ci sono le popolazioni indigene dei Sàmi che abitano sulle rive del fiume: i Sami conoscono come si comporta il livello dell'acqua nella sua loro parte di Deatnu, conoscono l'ora del giorno più propizia, il momento della stagione più favorevole per pescare, le predisposizioni dei vari tipi di salmone, e come incidono la temperatura, il sole, il vento, la pioggia e la neve sulla pesca.

In altre parole, hanno pratiche e concezioni diverse del fiume e del salmone.

Inoltre, la cautela e il rispetto per il fiume e per il salmone, il senso del luogo, la modestia, sono valori fondamentali che orientano la loro pratica di pesca; ad esempio, non pescano più salmone del necessario, non contano i pesci che catturano (farlo sarebbe irrispettoso) e non pescano quando i salmoni stanno per riprodursi. Fanno affidamento su un tipo di conoscenza caratterizzata da un'avversione per le statistiche. Anche i pescatori Sàmi si preoccupano per il salmone, solo che non lavorano con i numeri, ma si chiedono: arriverà il salmone? Continueranno ad arrivare? E, se ne arrivano meno, perché?

Nonostante ciò, il governo norvegese ha adottato le norme prodotte dal gruppo di scienziati riducendo i periodi di pesca da 11 (nel 2016) a 4 (nel 2017).

Queste regole - però -  impedivano ai Sami di pescare quando le condizioni erano giuste, oppure glielo impedivano in un’altra parte del fiume anche se lì le condizioni sono giuste ma non in quella dove loro abitavano; impedivano di pescare anche se lo stato del tempo e del fiume sono ottimali, o le attività degli altri pescatori e l’ottima pesca dell’ultimo periodo hanno fatto capire loro che quello è un buon momento per pescare.

-------------

Il punto è che queste regole ignorano le competenze delle popolazioni locali e la loro più profonda preparazione perché le costringe a pescare in orari predeterminati e, a volte, inappropriati; oppure permettono di pescare quando invece non si può perché non c’è nessuno che ti può aiutare con le reti, oppure perchè l’acqua è troppo bassa o alta.

Gli autori dello studio mettono in luce l’asimmetria di potere tra le pratiche della biologia e le conoscenze ecologiche tradizionali dei Sami. La scienza dei biologi e ricercatori si basa sulla raccolta e l’elaborazione rigorosa di dati sistematici all'interno di un modello o ipotesi di ricerca, in grado di produrre un tipo di conoscenza oggettiva.

Quella dei Sàmi, invece, è un tipo di conoscenza in gran parte basata sull’esperienza, orale e visiva, intuitiva, e altamente qualitativa. Proprio per questo motivo viene marginalizzata.

Questo produce degli effetti più ampi.

In primo luogo, con la pesca limitata a quattro periodi all’anno, diventerà quasi impossibile per i giovani Sami imparare l’arte della pesca tradizionale, e questo la farà piano piano scomparire, insieme a quell’insieme di saperi e conoscenze sul come controllare una barca e maneggiare una rete, ma anche su come funziona il fiume, dove scorrono i canali profondi, dove è probabile che nuotino i salmoni. Tutto ciò richiede tempo, pazienza e pratica, ma con l’introduzione di queste regole tutto ciò viene loro tolto.

In secondo luogo, la scelta di adottare quelle norme ha una forte dimensione politica. Siamo di fronte a due modi differenti di assemblare la realtà. La modellazione scientifica della pesca mette in scena un modello fatto di meccanismi causali standard per  spiegare le specificità di particolari fiumi, popolazioni e tassi di sfruttamento. In questo mondo non c’è spazio per le pratiche di pesca Sámi.

Gli autori parlano di un “soffocamento ontologico”, da parte del mondo delle regole che ignora le contingenze tradizionali dei locali e mette in atto un altro tipo di realtà. I modelli degli scienziati mettono in pratica una logica di colonizzazione perché presumono che esista un unico mondo “scopribile” attraverso meccanismi e/o correlazioni.

Ma questo tipo di rappresentazione non lascia spazi per storie, realtà e conoscenza alternative.

Sembra evidente che, a volte, la conoscenza scientifica ha lo stesso effetto del colonialismo sui Paesi che sono diventati colonie, cioè l’imposizione di un modo di pensare alla realtà in aperto contrasto e incompatibile con gli stili di vita tradizionali.

L’idea dell’oggettività, dello sguardo da nessun luogo non è realistica, I laboratory studies (Latour e Woolgar 1979; Knorr Cetina 1997) hanno mostrato come l’oggettività venga prodotta attraverso una continua manipolazione degli oggetti.

In questo caso abbiamo una ontologia, quella degli scienziati e biologi, che viene sovrapposta all’ontologia dei Sàmi.

I Sami hanno, infatti, una visione di cos’è oggettivo, ma la scienza impone una realtà divergente, che poi propone alla politica e pretende che sia implementata.

CONCLUSIONE

Nel momento in cui le norme vengono implementate si genera un circolo vizioso, in cui alcuni scienziati possono giustificare le proprie pratiche con frasi del tipo “eh ma sono scelte politiche”.  Allo stesso tempo, la politica, implementando quel tipo di decisioni può deresponsabilizzarsi, attraverso il famoso mantra “lo dice la scienza”. La scienza fornisce una importante legittimazione alle scelte politiche a causa della sua autorità epistemica sulle altre forme di sapere, ma proprio per questo motivo non può rivendicare una neutralità perchè le decisioni prese producono degli effetti.

La scienza è una pratica sociale che crea un tipo di realtà e, spesso attraverso la politica, la mette in atto. Non c’è spazio per altre versioni. La natura viene rappresentata come un'unica realtà modellata da meccanismi generali che possono essere individuati dai ricercatori, mentre la cultura viene vista come multipla, soggettiva e normativa.

La sfida non è convincere le popolazioni Sami che la conoscenza scientifica è epistemicamente superiore, ma piuttosto fare in modo  che la conoscenza dei Sami venga integrata nella scienza. La necessità è quella di creare pratiche materiali concrete che avvicinino gli uffici, i laboratori, i modelli biologici dei coloni” alle pratiche locali dei Sámi.

Nel caso specifico la direzione potrebbe essere quella di “ammorbidire” il realismo della biologia.

 

 

BIBLIOGRAFIA

Knorr-Cetina K. (1997), Sociality with Objects. Theory, Culture and Society 14 (4):1-30. 

Latour B. e Woolgar S. (1979), Laboratory life: The construction of scientific facts, Princeton University Press, Princeton.

Law, J., & Joks, S. (2019). Indigeneity, Science, and Difference: Notes on the Politics of How. Science, Technology, & Human Values44(3), 424-447. 

 


Il contagio corre su internet - Malattie social-media-mente trasmissibili

Melanconie

Secondo Agamben (1979) non si sono mai aggirati per l’Europa tanti fantasmi come nel Medioevo. Il problema non è da ricondurre alle superstizioni del periodo, ma alle regioni più elevate della scienza del periodo Scolastico: alla fantasia e ai suoi prodotti, i fantasmi, spetta un ruolo centrale nella teoria della conoscenza. Sono immagini quelle che i sensi catturano dalla realtà, ma è compito della fantasia trattenerle e svilupparle nel sistema di specchi che in cui si articola la parte più spirituale della razionalità – quella speculativa. Il Medioevo era, quindi, più ossessionato dall’immagine di quanto lo sia la nostra epoca; ha anche elaborato una riflessione raffinata sull’ossessione, tanto che la nozione stessa di «idea fissa» è in debito con le concezioni medievali della «melanconia», e con il potere degli spiriti intermedi (o dei demoni) di imprimere un’immagine nella fantasia senza permetterle di focalizzare più alcun’altra figura. Il suo oggetto non esiste, ma questa evidenza non le impedisce di sbarrare la strada verso la propria realizzazione, che è l’imitazione di Cristo, e di riconoscere la vera felicità, che è Dio.

Le fibre dell’isolamento

Il testo di Leslie Jamison - Esami di empatia - mostra che, in età contemporanea, le immagini continuano a fissarsi nello stesso modo, con la sola differenza che l’agente non è più un demone ma Internet, e il gioco degli specchi coinvolge anche gli altri soggetti che condividono la stessa monomania, e che con la loro approvazione rendono l’ossessione abitabile, oggettiva, invalicabile, meglio di quanto potessero fare i vecchi spiriti.

Tra i fantasmi descritti da Jamison, due evidenziano meglio il carattere autodistruttivo dell’ossessione: due malattie che contagiano in prevalenza le donne, due epidemie che hanno cominciato a espandersi dopo il 2001 e che hanno trovato nei canali di Internet il veicolo principale, anche se con due destini del tutto diversi.

La prima delle due è stata tenuta a battesimo su un forum online da Mary Leitao, una biologa tecnica di laboratorio, che l’ha etichettata «morbo di Morgellons», sulla base dei sintomi censiti in una rivista medica francese del Seicento. Una dermatite che può originare anche dolore e irritazioni, e che costringe il paziente a grattarsi fino all’escoriazione, è l’anamnesi della malattia di cui soffre anche il figlio della Leitao, e che nessun medico è riuscito a ridurre ad una diagnosi convincente. Nelle piaghe provocate dagli strofinamenti per lenire il prurito, come aveva pronosticato Thomas Brown mentre esaminava i ragazzi (i «Morgellons») della regione di Languedoc, la biologa ha rintracciato fibre sottili e granelli scuri. A questi corpi estranei si dovrebbe imputare l’infezione e il dispiegamento dell’intera collezione di sofferenze connesse; ma la rivelazione che la filologia ha consegnato alla Leitao è rimasta una scoperta malinconica, una verità ripudiata e stigmatizzata come eresia dalla comunità medica. Secondo la scienza istituzionale le cause del morbo risalgono ad una sindrome di «Münchausen by proxy», una reazione auto-immune ipertrofica indotta da paranoie di vario genere, insieme al bisogno di ottenere attenzioni.

Dalla metà degli anni Duemila la Fondazione Charles Holman convoca una volta all’anno ad Austin, nella Chiesa di Westoak, i pazienti di Morgellons che si sentono traditi dalla medicina ufficiale, per sviluppare colloqui tra malati e ricercatori. Quando Jamison ha partecipato all’evento nel 2012 ha incontrato persone con un’immagine di sé stesse del tutto distorta – ma adeguata all’isolamento sociale cui sono consegnate dalla loro condizione economica, lavorativa, famigliare. La malinconia che opprime queste conversazioni – interviste, o saggi di empatia – riesce a far coincidere i confini del concetto medievale con la nostra nozione di prostrazione emotiva. Le pazienti, anche quelle che a giudizio della giornalista godono di un aspetto attraente, si percepiscono sfigurate dalle macchie e dalle piaghe della dermatite, e accettano la conseguenza di consegnarsi ad un destino di clausura, il cui unico contenuto è l’ispezione delle proprie ulcere, alla ricerca di filamenti e di micro-frammenti scuri. Al convegno di Austin i «morgi» ritrovano un’identità nel nome proscritto del loro morbo, nella censura che è ad un tempo dannazione e salvezza della loro comunità. Il riconoscimento reciproco si ferma a questa assenza o a questo esilio, e la compresenza nella Chiesa di Westoak è una giustapposizione di solitudini che non si parlano, separate dalla varietà dei sintomi e delle convinzioni sulla natura del contagio, ma soprattutto dall’introversione dell’autoesame, dall’ossessione per gli specchi e le lenti di ingrandimento.

La sindrome dell’influencer

Decine, se non centinaia di migliaia di Morgellons sono stati curati dai medici con una combinazione di antinfiammatori e di ansiolitici: alcuni si sono fatti guidare dalla terapia e sono guariti, altri sono rimasti imprigionati dalla sindrome. Una sorte del tutto differente è toccata all’altra malattia, che nelle pagine della Jamison è ancora senza un nome ufficiale: la vulvodinia non è una sindrome per diseredati, ed è stata sostenuta dalla testimonianza di numerose influencer sui social media. La legge presentata nel 2022 In Italia al Senato vantava come ambassador Giorgia Soleri, influencer su TikTok e – a quel tempo – fidanzata di Damiano dei Måneskin. Sui media istituzionali le pazienti vengono contate con percentuali di vaste proporzioni (10%-15% di tutte le donne), senza mai citare la fonte del dato: denunciano una sofferenza nell’area genitale, per la quale i medici non riescono a risalire ad una causa fisiologica univoca.  In questo caso però le testimoni sono di riguardo, e come ricostruisce Fontana (2024), qualunque contestazione della loro posizione viene stigmatizzata come un rigurgito di patriarcato che ancora scuote l’inconscio della comunità scientifica. Gli influencer non possono essere accusati di Schwärmerei, la possessione fanatica che Lutero imputava ai contadini ribelli di Melantone (sostenitori della Riforma luterana ma antagonisti dell’aristocrazia feudale con cui Lutero aveva stretto un’alleanza politica), e che i medici rintracciano nei Morgellons: non li si può accusare di non essere padroni della loro parola, di essere solo il veicolo della voce dei demoni che li abitano. Quindi l’OMS ha riconosciuto la formazione di questa nuova identità morbosa, e della comunità di cittadini che ne soffre, e l’ha iscritta nell’ICD-11, con il nome in cui si riconoscono i suoi pazienti.

Il potere di dire la verità

La comunità scientifica è incompatibile con i Morgellons ma compatisce la vulvodinia. Nel primo caso occorre liberare l’anima da un demone, che assoggetta gli individui a immagini capaci di fissare un discorso eretico nella mente, e di trasformare il corpo nel teatro che lo mette in scena. Nel secondo caso i pazienti sono peer reviewer di un discorso scientifico che, attraverso la diagnosi della malattia, contribuisce a liberare l’identità femminile (e l’intera società, che nella soggettività femminile trova la sua espressione più avanzata) dai pregiudizi riemergenti del patriarcato. Jamison presenta una galleria di saggi di empatia, in cui tenta di restituire a questo termine un contenuto sperimentale, una comprensione dell’altro attraverso l’adesione alla sua identità, la partecipazione alle condizioni che imprimono sulla sua vita la forma della sua individualità, con una pressione che è passione e patologia. Nelle sue pagine la vulvodinia si afferma come il dolore che la tradizione occidentale incide nel corpo delle donne nell’assegnarle al genere femminile: una forma di potere di coesione sociale che è congruente e accessibile al regime classificatorio del potere di veridizione da parte della comunità scientifica. I Morgellons sono l’espressione di un’esclusione, l’introiezione di un esilio sociale che li isola anche l’uno dall’altro: un esercizio congruente con la pratica del potere scientifico di rimuovere ciò che non deve appartenere alla tassonomia dell’oggettività, di rigettare la soggettività chi non ha abbastanza forza per partecipare alla peer reviewing

O forse la vulvodinia è uno degli ultimi compromessi che le comunità di internet cercano di stabilire con le procedure e gli attori delle istituzioni tradizionali, in attesa che le identità modellate online non abbiano più bisogno di altro credito se non l’autonomia della propria fondazione per abitare il proprio mondo, sovrapposto e incompatibile, anempatico, con quelli posseduti dagli altri.

 

 

BIBLIOGRAFIA

Agamben, Giorgio, Stanze, Einaudi, Torino 1979.

Fontana, Laura, Il complesso mondo delle malattie “Internet-based”, «Link», 19 febbraio 2024.

Jamison, Leslie, The Empathy Exams, Graywolf Press, Minneapolis 2021.


La costruzione sociale della bicicletta - Ovvero, le tecnologie non sono neutrali

Figura 1: “ordinary bicycle”. “Ariel” di J. Starley e W. Hillman, brevettata nel 1870 (Bijker 1995, p.31)

Provate ad immaginare una di quelle volte in cui avete deciso di fare un giro in bicicletta, magari in una bella giornata di primavera. Dopo esservi preparati e aver preso quello che vi serve, entrate finalmente in garage per prendere la bici ed uscire. Tuttavia, invece di trovare la bici che usate di solito trovate una di quelle bici con la ruota anteriore molto grande (figura 1) e diffuse alla fine dell’Ottocento. Pensate ad un mondo in cui tutto è uguale ad oggi, ma invece che utilizzare la bici moderna tutti usano queste bici. Partire da questa immagine strampalata e apparentemente senza senso permette di porre in rilievo una questione: le cose potrebbero essere andate diversamente da come le conosciamo? Oggi potremmo avere una bici diversa da quella che ci risulta apparentemente come normale? Infatti, come vedremo, “non c’è un solo modo possibile o un solo modo migliore di progettare un artefatto” (Bijker, Hughes e Pinch 1987, p.40 trad. mia), come nel caso della bici. È da questi interrogativi che parte anche l’approccio SCOT (Social Construction of Technology) allo studio della tecnologia, e attraverso cui Wiebe Bijker (1995) ricostruisce la traiettoria di sviluppo che ha portato alla bici moderna.

 

Figura 2: célerifère nel 1791, poi in seguito vélocifère nel 1793 (Bijker 1995, p. 22)
Figura 3: il vélocipède costruito da Pierre Michaux nel 1865 (Bijker 1995, p.27)

Un primo prototipo risale ad un disegno del 1493, attribuibile a Leonardo Da Vinci, in cui viene rappresentato un biciclo con due ruote delle stesse dimensioni, pedali e manubrio. Dunque, Bijker (ibidem) si chiede: perché si è dovuto aspettare fino al XIX secolo per l’affermazione della bici moderna? Questo mostra come per avere un’innovazione tecnologica non basta che ci sia un inventore isolato dal mondo e con una buona idea (Magaudda e Neresini 2020). Infatti, si è dovuto attendere fino al Settecento per la costruzione del primo célerifère (figura 2), un biciclo con una struttura di legno e due ruote della stesse dimensioni, e senza la possibilità di sterzo. Per spostarsi era necessario spingere a terra con i piedi, il più della volte infangandosi. Per questo motivo, iniziarono ad emergere una serie di varianti, tra le quali ebbe particolare successo il vélocipède (figura 3): aveva una struttura di ferro, il manubrio, la sella e i pedali regolabili. In questo caso, i problemi erano principalmente legati alle troppe vibrazioni e allo slittamento laterale del mezzo. In seguito, con l’ordinary bicycle (figura 1) venne introdotta una posizione di guida rialzata sopra la grande ruota anteriore, la quale permise di attenuare i colpi e di non infangarsi, evitando il contatto diretto con il terreno. Inoltre, questo biciclo fu reso più leggero con l’impiego di raggi di filo metallico per la struttura delle ruote.

L’ordinary bicycle fu pubblicizzata dai suoi ideatori attraverso un’impresa ciclistica in cui venne percorsa la tratta che va da Londra a Coventry in un solo giorno. Questo evento contribuì alla costruzione dell’immagine della bici a ruota alta come mezzo sportivo, veloce ed efficiente. Non a caso, in un primo momento i principali utilizzatori di questo biciclo furono i “giovani atletici e danarosi” (Bijker 1995), per i quali era un mezzo sportivo per andare veloce e per manifestare la propria virilità e machismo. Infatti, viste le grandi dimensioni, l’ordinary bicycle richiedeva una serie di doti fisiche e atletiche per essere utilizzata, non era un mezzo sicuro e accessibile a tutti.

Se da un lato i giovani atletici erano i principali utilizzatori dell’ordinary, dall’altro lato, diversi individui rimanevano esclusi dalla possibilità d’impiego del biciclo, per cui si può parlare anche di una serie di gruppi di non-utilizzatori. Nello specifico, per le persone anziane e per chi non aveva una certa prestanza fisica l’ordinary non era un mezzo sicuro con cui potersi muovere: c’era un forte rischio di cadute ed infortuni. Inoltre, veniva escluso dall’utilizzo del biciclo anche chi non aveva la disponibilità economica per acquistarlo. Infine, alle donne non era consentito utilizzare questo mezzo perché entrava in netto contrasto con i codici di abbigliamento femminile dell’epoca. In relazione a ciò, in quel periodo si sviluppò la Rational Dress Society, una società di donne che rivendicava il diritto di vestirsi in maniera più libera evitando corsetti, tacchi e gonne pesanti, in modo da poter accedere anche all’utilizzo della bici.

Figura 4: il modello “Ariel” da donna progettato da J. Starley e W. Hillman nel 1874, con pedalata laterale (Bijker 1995, p.44)

Se da un lato i giovani atletici erano i principali utilizzatori dell’ordinary, dall’altro lato, diversi individui rimanevano esclusi dalla possibilità d’impiego del biciclo, per cui si può parlare anche di una serie di gruppi di non-utilizzatori. Nello specifico, per le persone anziane e per chi non aveva una certa prestanza fisica l’ordinary non era un mezzo sicuro con cui potersi muovere: c’era un forte rischio di cadute ed infortuni. Inoltre, veniva escluso dall’utilizzo del biciclo anche chi non aveva la disponibilità economica per acquistarlo. Infine, alle donne non era consentito utilizzare questo mezzo perché entrava in netto contrasto con i codici di abbigliamento femminile dell’epoca. In relazione a ciò, in quel periodo si sviluppò la Rational Dress Society, una società di donne che rivendicava il diritto di vestirsi in maniera più libera evitando corsetti, tacchi e gonne pesanti, in modo da poter accedere anche all’utilizzo della bici.

Come sottolinea Bijker (1995), questa prima fase di sviluppo della bicicletta si caratterizzata per la presenza di diversi “gruppi sociali rilevanti” (giovani atletici e danarosi, donne, anziani); ovvero, gruppi di attori che condividono al loro interno la medesima interpretazione di un artefatto tecnologico come la bici. In tal senso, si parla di una “flessibilità interpretativa” tra i vari gruppi: se per i giovani atletici l’ordinary è un mezzo sportivo e virile, per il gruppo degli anziani rappresenta qualcosa di poco sicuro, mentre, per il gruppo delle donne diventa un campo di rivendicazione dei diritti alla libertà di abbigliamento e all’utilizzo della bici. Queste diverse interpretazioni riguardano una serie di problemi e soluzioni che vengono poste dai vari gruppi rispetto al funzionamento di un particolare artefatto tecnologico e che lo rendono utilizzabile. Va precisato che questa flessibilità non riguarda solo il “modo in cui le persone pensano o interpretano gli artefatti, ma anche la flessibilità nel modo in cui gli artefatti sono progettati” (Bijker, Hughes e Pinch 1987, p. 40 trad. mia). Dunque, è in relazione alle interpretazioni dei diversi gruppi social che prendono materialmente forma differenti modelli di bici. Ad esempio, per rispondere al problema del codice di abbigliamento femminile vennero sviluppate delle bici con la pedalata laterale (figura 4); mentre, per rispondere al problema della sicurezza vennero progettati modelli come la Lawson bicycle (figura 6) e la xtraordinary (figura 5), delle varianti della Ordinary in cui venne ridotta la grandezza della ruota anteriore e la trazione venne spostata sulla ruota posteriore. In questo senso, si vede bene come la tecnologia incorpori una serie di aspettative sociali da parte di chi la progetta e, al contempo, essa contribuisca a stabilizzare e dare forma alle relazioni tra i vari gruppi di utilizzatori.

 

Figura 5: xtraordinary bicycle del 1878 (Bijker, Hughes e Pinch 1987, p. 43).
Figura 6: Lawson bicycle del 1879 (Bijker, Hughes e Pinch 1987, p. 39).

 

 

 

 

 

 

 

 

Figura 7: Safety bicycle del 1886 (Bijker 1995, p. 91).

Quindi, com’è stato poi possibile passare da questa molteplicità e varietà di bicicli differenti a quella che noi riteniamo essere la bici moderna? Per Bijker (1995) la risposta è da trovare nello pneumatico ad aria. Quest’ultimo inizialmente era visto come qualcosa di esteticamente ridicolo e poco funzionale. Tuttavia, la situazione cambiò nel maggio del 1889, quando il ciclista W. Hume vinse una gara dimostrando la validità degli pneumatici ad aria e della Safety bicycle (figura 7). È in questo momento che per Bijker (ibidem) c’è il momento di “stabilizzazione e chiusura” nella traiettoria di sviluppo tecnologico della bici: c’è una soluzione tecnica che permette di far convergere le interpretazioni dei vari gruppi sociali, rispondendo ai diversi problemi che essi pongono. In questo senso, la safety bicycle permette di rispondere sia alla necessità di andare veloce del gruppo dei giovani atletici, sia all’esigenza di una certa guida in sicurezza da parte di persone anziane e meno prestanti fisicamente, inoltre, permette un allineamento dei codici di abbigliamento femminile con l’utilizzo della bicicletta. Con la fase di stabilizzazione e chiusura la bici diventa quello che gli STS (Science and Technology Studies) definiscono una “scatola nera”; ovvero, una tecnologia pronta all’uso, disponibile per essere impiegata e che non è necessario problematizzare ulteriormente. Per questa ragione, quando ci riferiamo alla bicicletta nella vita di tutti i giorni non dobbiamo specificare che ha due ruote della stessa misura, i pedali, il manubrio, la catena; questi sono degli elementi che assumiamo come certi.

Da questa storia può essere fatto emergere quello che è il modello analitico dell’approccio SCOT per guardare allo sviluppo e all’innovazione tecnologica, il quale si articola principalmente in tre fasi (Bijker, Hughes e Pinch 1987; Bijker 1995): inizialmente c’è una “flessibilità interpretativa” di quelli che possono essere particolari dispositivi tecnologici, i quali vengono progettati con forme e caratteristiche diverse per rispondere ai problemi posti dai vari gruppi sociali; in una seconda fase avviene la “chiusura interpretativa”, l’artefatto tecnologico e le interpretazioni dei gruppi si stabilizzano arrivando a convergere tra loro; infine, questa chiusura va ricollegata e spiegata in un contesto sociale più ampio.

In conclusione, riprendendo gli interrogativi da cui siamo partiti, le cose potrebbero essere andate effettivamente in modo diverso? Gli STS, e in particolare l’approccio SCOT, ci insegnano che la traiettoria dell’innovazione e dello sviluppo tecnologico è qualcosa di aperto, incerto, e non deciso a priori. Come nel caso della bici, le tecnologie vengono progettate in relazione alle aspettative dei gruppi sociali e, al contempo, contribuiscono a dare forma alle stesse relazioni tra gruppi e individui. In altri termini, tecnologia e società co-evolvono e si danno forma a vicenda in un tessuto unico e senza cuciture, un saemless web (Bijker 1995). Per questa ragione, il percorso che porta all’affermazione di una tecnologia non è qualcosa di lineare e già scritto: non è sufficiente che ci sia un inventore o una scoperta scientifica per sviluppare automaticamente una tecnologia più sofisticata, la quale finirebbe per impattare sulla vita quotidiana delle persone. In tal senso, le tecnologie che si affermano non sono quelle “più efficienti” o che “funzionano meglio”, ma quelle che si configurano come tali in particolari contesti d’uso. Per questa ragione, la bici moderna non si è affermata perché era la migliore da un punto di vista tecnico e di costruzione rispetto alle concorrenti, ma perché ha permesso di far convergere le interpretazioni dei vari gruppi sociali rispondendo ai loro problemi d’uso. Questo discorso può essere esteso per l’analisi di altre tecnologie e mostra come il processo di sviluppo tecnologico sia un processo non lineare e mai dato per scontato, in cui gruppi di attori e artefatti tecnologici si costruiscono reciprocamente.

 

 

BIBLIOGRAFIA

Bijker, W. E. (1995). Of Bicycles, Bakelites, and Bulbs. Toward a Theory of Sociotechnical Change. The MIT Press.

Bijker, W. E., Hughes, T. P., Pinch, T. J. (1987). The social Construction of Technological Systems. New Directions in the Sociology and History of Technology. The MIT Press.

Magaudda, P., Neresini, F. (2020). Gli studi sociali sulla scienza e la tecnologia. Il Mulino.

 


Quando è nata la Scienza? - Dall'antica Grecia all'epoca dei lumi

Fino a qualche decennio fa, quando la scienza era considerata un corpus di idee sul mondo naturale, i suoi albori venivano collocati nel contesto del pensiero filosofico della Grecia Antica (Popper 1972). È ragionevole? Vediamo.

Partendo da Platone…

Platone nel Teeteto usa il termine epistêmê con il significato (ampio) di conoscenza: epistêmê non sarebbe altro che sensazione (151 E). Un concetto quindi non sovrapponibile all’attuale concetto di scienza, solitamente esibito come alternativo alla (semplice) conoscenza. Infatti, nel Teeteto la conoscenza scientifica sarebbe una specie particolare della conoscenza più generale, non una conoscenza alternativa. Per cui non sarebbe corretto tradurre epistêmê con ‘scienza’.

Invece, alla fine del Libro VI della Repubblica, nella celebre immagine della linea divisa (509 D-511 E), Platone parla di due tipi di conoscenza: chiara (saphenêia) e oscura/indeterminata (asapheia). Per Platone, però, ‘chiara’ non vuol dire ‘certa’. La conoscenza chiara pertiene al mondo intellettuale (anima); quella oscura deriva dai sensi e riguarda il mondo sensibile. Per Platone abbiamo sapere o scienza solo nel mondo intellettuale, non di quello sensibile perché le osservazioni empiriche non aggiungono nulla alla conoscenza piena (o conoscenza in senso stretto). Viene così introdotta una distinzione netta tra ‘epistêmê’ (che diviene la conoscenza chiara, basata sulla logica, che sta in piedi da sola, da epi + istemi) e doxa (le credenze, che possono essere dogmatiche perché poggianti sull’autorità, oppure basate sulle opinioni, sia vere che false, credibili o meno). Infine, Platone distingue anche due tipi diversi di ‘epistêmê’ o conoscenza chiara: quella (come la matematica e la geometria) che si sviluppa a partire da ipotesi e deduce attenendosi alle conseguenze che ne derivano; e quella (la dialettica) che si interroga e spiega anche i fondamenti delle ipotesi stesse. Per cui, anche se le scienze matematiche sono epistemai, tuttavia solo la dialettica è in grado di raggiungere la conoscenza piena, perché si interroga sulle ipotesi di partenza.

Aristotele: un passo avanti…

Aristotele, nel libro Analitici Secondi (II 2, 71b9-15), compie un ulteriore passo, sviluppando una teoria della "conoscenza scientifica", che chiama… epistêmê. Questo diverso significato della parola epistêmê l’avvicinerebbe maggiormente al concetto di scienza. In questo testo, Aristotele sostiene che abbiamo episteme (cioè, conoscenza scientifica) di X quando si danno le seguenti condizioni: conosciamo Y, sappiamo che Y è la ragione/causa (aitìa) di X, e questa relazione tra X e Y è necessaria. Per Aristotele epistêmê implica quindi dare spiegazioni, trovare le cause/ragioni. Necessità e spiegazione causale sono i due ingredienti fondamentali della conoscenza scientifica, che è una forma molto precisa di conoscenza.
Per cui la nostra domanda iniziale (quando è nata la scienza?) sembrerebbe trovare risposta nella proposta di Popper. Ma non è così.

Dal Medioevo al 1600

La tradizione latina medievale ha poi tradotto epistêmê in ‘scientia’. In questo senso c’è una dipendenza diretta tra il testo degli Analitici Secondi e l’epistemologia medievale. Tuttavia, il termine ‘scientia’ significava solo conoscenza, sapere, notizia; almeno fino al XVII secolo. Ciò non di meno, il termine ‘scientia’ ha significato cose molto diverse in epoche diverse e culture diverse. Perciò le cose si complicano nuovamente.
Infatti, a quel tempo, lo studio della natura cadeva invece sotto l'espressione "filosofia naturale". Essa comprendeva al suo interno tutti quei campi di ricerca che noi oggi chiamiamo geologia, astronomia, chimica, ottica, biologia e botanica, ma anche la filosofia e la teologia. Inoltre, a differenza della scienza contemporanea, la filosofia naturale non si basava sulla sperimentazione (ritenuta invece successivamente l’elemento centrale della scienza), ma sulla speculazione intellettuale e la tradizione. Infine, tutti coloro che investigavano la natura si identificavano comunemente con l'espressione "filosofo naturale".
Il "metodo scientifico" - sperimentale e quantitativo - che diede origine alla scienza sperimentale, venne sistematizzato solo tra il XVI e XVII secolo, durante il periodo della cosiddetta Rivoluzione Scientifica. Secondo alcuni (per esempio Whitehead 1920) il merito di questo cambiamento andrebbe attribuito a poche illustri figure come quella di Francis Bacon o Galileo Galilei; secondo altri, invece, il processo di formalizzazione del metodo scientifico richiese ancora diversi decenni e il contributo di molte scoperte in molti campi differenti, dall'astronomia alla geologia.

Il padre di tutti i fraintendimenti: l’essenzialismo

Entrambe le prospettive, però, partono da un presupposto essenzialista, cioè che possano essere identificate delle caratteristiche costitutive della scienza come categoria di pensiero, e che queste rimangano immutate nel tempo. Tuttavia, come abbiamo visto all’inizio di questo capitolo, la scienza non ha caratteristiche fisse e immutabili ma, in quanto istituzione, essa coincide con la comunità che ne riproduce le convenzioni e così facendo la pone in essere. Se così non fosse non si potrebbero spiegare molte figure ‘ibride’, se viste con gli occhi di oggi: ad esempio Newton, da alcuni considerato il fondatore della fisica classica e la figura con la quale la rivoluzione scientifica raggiunse il culmine, non solo intitolò la sua opera più celebre Philosophiæ Naturalis Principia Mathematica (1687) (e non utilizzò quindi la parola “scienza”) ma benché oggi poco ricordato, scrisse copiosamente anche di teologia, occultismo e soprattutto di alchimia.
Invece il termine ‘scienziato’ (scientist) è stato introdotto solo nel primo Ottocento. Tant’è che personaggi come Galileo o Newton erano ancora chiamati ‘filosofi naturali’ (natural philosophers). Il termine ‘scienziato’ fu coniato per la prima volta dallo studioso inglese William Whewell nel 1834, in una sua recensione all’opera di Mary Somerville On the Connexion of the Physical Sciences. Ma la diffusione di questo termine non fu immediata. Infatti, il britannico Lord Kelvin (1824-1907), più di tre decenni dopo, nel 1867, intitolava ancora la propria opera Trattato sulla Filosofia Naturale.
Infine, il termine platonico epistêmê non ha avuto fortuna nei secoli ed è stato reintrodotto come ‘epistemologia’ soltanto a metà dell’Ottocento, a opera dello studioso scozzese James Frederick Ferrier nel suo libro Institutes of Metaphysics (1854), con il significato (però) di teoria della conoscenza (che oggi chiameremmo gnoseologia). Peraltro, il termine epistemologia ha oggi significati un po’ diversi nei paesi anglosassoni e nell’Europa continentale.

Concludendo…

Come si può vedere, da questa breve disamina, la domanda iniziale è destinata a rimanere inevasa.
Se invece adottiamo la strategia costruttivista del boundary work, possiamo dire che la scienza, in quanto istituzione, nasce quando comincia a venire riconosciuta come un campo a sé stante, distinto, e quando gli scienziati cominciano a identificarsi come tali e quindi a rivendicare autorità a partire dalla categoria di scienza. A questo si aggiunga il fatto che oggi si tende a privilegiare una diversa prospettiva, che considera la scienza come un insieme di pratiche (anziché di idee). Per cui le attività dei filosofi della Grecia Antica, così lontane dalle pratiche scientifiche odierne, non sarebbero rubricabili sotto il concetto di ‘scienza’ (Bowler e Morus 2005). L'istituzione della scienza moderna viene invece fatta coincidere con l'emergere di una certa organizzazione istituzionale, di pratiche, di strumenti. In base a questa diversa prospettiva, la scienza avrebbe inizio all'epoca dei lumi, quando il metodo scientifico venne sistematizzato e la scienza istituzionalizzata in organizzazioni come l’Accademia Nazionale dei Lincei di Roma (1603), l’Academie des Sciences di Parigi (1666), La Real Academia de Ciencias y Artes di Barcellona (1764), la Royal Society di Londra (1768) o l’Academia das Ciências di Lisbona (1779).

 

NOTE

Articolo tratto da: Gobo, G. e Marcheselli, V. (2021), Sociologia della scienza e della tecnologia, Roma: Carocci, pp. 149-151.

 

BIBLIOGRAFIA

Bowler P. J. e Rhys Morus I. (2005), Making Modern Science. A Historical Survey, University of Chicago Press, Chicago, London.

Popper, K. (1972), Objective Knowledge: An Evolutionary Approach, Oxford University Press, New York (trad. it. Conoscenza Oggettiva, Armando Editore, Roma 1972).

Whitehead A. N. (1920), The Concept of Nature, Cambridge University Press, Cambridge.

 


Avanti verso il nulla - Sul futurismo nichilista contemporaneo (prima parte)

La nave

ha anche un motore

e avendo un motore

non sa dove va ma continua a andare

(Giorgio Gaber, La nave, 1974)

Cosa diremmo di una persona che, magari a causa di un trauma o di un lutto, vivesse concentrata sul passato e rifiutasse di vivere il presente e fosse del tutto chiusa alla dimensione del futuro? Certo, che non sta bene. Non si può vivere decentemente così. E di una che, specularmente, fosse proiettata esclusivamente verso il futuro e le future realizzazioni, incapace di vivere nel presente, e di tenere in conto a maggior ragione delle esperienze del passato? Anche in questo caso, diremmo che soffrirebbe, che non sarebbe in grado di godere della vita, la quale in fondo è fatta di una serie di momenti presenti. Se fossimo in un contesto di psicologia individuale potremmo parlare nel primo caso di un disagio dovuto a una forma di malinconia, nel secondo a una forma di euforia maniacale.

Spostandoci sul terreno del carattere sociale,[1] abbiamo da una parte un orientamento “passatista”, fissato cioè a un passato ritenuto in quanto tale preferibile e incline, dunque, al misoneismo (al rifiuto cioè di ogni novità), tipico delle società preindustriali; dall’altro un orientamento futuro-centrico, “futurista”, altrettanto nevroticamente fissato all’esaltazione del dileguare di ogni cosa in favore di un “nuovo” in quanto tale certamente migliore. Quest’ultimo è propriamente il carattere dell’epoca che viviamo in particolare nelle società più avanzate, segnate dal predominio dispotico di un potere che è insieme tecnico e capitalistico. Il dogma di oggi dice che «il futuro è il posto migliore»;[2] ed è di tale dogma, non meno contestabile per il fatto di essere… moderno, che si parlerà in questo articolo.

Il documento da cui propongo di prendere le mosse è la fulminante dichiarazione dell’ingegnere informatico Yann LeCun, capo del team di Meta (il nuovo nome di Facebook) che si occupa di intelligenza artificiale, nel corso di un’intervista rilasciata a un quotidiano italiano: «Mi affascina il futuro. Del presente mi interessa capire solo gli sbagli e come superarli».[3] Una frase che può essere considerata un “concentrato” di un più generale modo di rapportarsi alla temporalità che la società attuale suggerisce e impone ogni giorno nel suo «monologo elogiativo» permanente.[4] Il dirigente di Meta, che risponde in questo modo alle caute preoccupazioni espresse dall’intervistatore sulle prospettive dell’IA, com’è chiaro, non dichiara solo di essere affascinato dal futuro, ma di trascurare e disprezzare il presente (del passato naturalmente neppure parla), in quanto – sembra di capire – unicamente luogo di passaggio verso l’unica meta interessante, appunto il futuro. Ma c’è un problema: quella meta, una volta divenuta presente (ogni futuro di oggi è il presente di domani), ricadrà nello stesso disinteresse, in favore del futuro di domani. E in verità una meta non c’è neppure: c’è solo quella che potremmo chiamare una fuga senza fine verso il nulla, o «furia del dileguare» – per usare una espressione hegeliana[5] – per la quale ogni momento presente non vale che in quanto preparazione di un momento futuro, che sarà ovviamente migliore, e così via all’infinito.

Ha osservato il filosofo tedesco-coreano Byung-Chul Han, in un bel libro dedicato alla Scomparsa dei riti, che «oggi al tempo manca una struttura stabile. Non è una casa, bensì un flusso incostante: si riduce a una mera sequenza di presente episodico, precipita in avanti». (La scomparsa dei riti. Una topologia del presente, Milano, Nottetempo, 2021, p. 13).

Si procede, dunque, sempre “avanti” e sempre più rapidamente, in un fenomeno di accelerazione sociale che è oggetto di crescente attenzione da parte delle scienze sociali.[6] In questo illimitato e davvero scriteriato procedere, nessun valore, nessun obiettivo, nessuna condizione desiderabili debbono essere posti, perseguiti, mantenuti; l’unica cosa che conta e che deve esistere, l’unico punto di riferimento per il nostro agire, è il costante flusso delle merci, ma anche delle esperienze, delle tecniche, delle forme di vita:[7] una condizione, dunque, realmente nichilista.

È una dinamica che era stata a suo tempo già individuata da Marx, che pure non si era soffermato sugli esiti nichilistici qui indicati, quando aveva rilevato che «il movimento del capitale è senza misura» (Marx K., Il capitale, libro I, a cura di Delio Cantimori, Roma, Editori Riuniti, 1974, p. 185).

-------------

In questa modalità di rapporto con il tempo, che nasce nel quadro della modernità capitalistica e della sua complessiva rimodulazione dell’esperienza e della vita sociale, accade – secondo quanto sottolineato trent’anni fa da Giacomo Marramao – che «la prospettiva tende progressivamente a fagocitare l’esperienza» (Giacomo Marramao, Minima temporalia. Tempo spazio esperienza, Milano, Il Saggiatore, 1990, p. 108), potendosi parlare di vera e propria «propensione nichilista» (cit. p. 104) della modernità. Mi pare tuttavia evidente che è l’ultima fase della modernità, quella apertasi negli ultimi decenni, a rendere egemone e “totalitaria” tale propensione. E l’accelerazione dell’innovazione tecnologica in molti ambiti, in quello informatico in particolare, ha avuto in questo un ruolo determinante.

Ha osservato a questo proposito Gabriele Balbi, in un notevole recente pamphlet sulla ideologia digitale, che «il tempo storico ideale per la rivoluzione digitale è proprio il futuro, anche perché nel presente viene sempre raccontata come incompleta, come un processo in continua evoluzione, come una trasformazione che non ha né può avere una fine predefinita» (Balbi G., L’ultima ideologia. Breve storia della rivoluzione digitale, Roma-Bari, Laterza, 2022, p. 64-65). Non sorprende, allora, che un recentissimo saggio sulle prospettive dell’applicazione dell’intelligenza artificiale si dichiari in copertina – programmaticamente – una Apologia del futuro (De Biase L, Apologia del futuro. Quello che il domani può fare per noi, Roma, LUISS University Press, 2024).

Il tempo dell’era digitale, in effetti, è proprio un tempo della precarietà e dell’incompletezza, foriero inevitabilmente di ansia e di senso di inadeguatezza, forse proprio di quella «vergogna prometeica» indicata da Günther Anders come il portato principale e perturbante della nostra epoca di dominio della tecnica industriale (fa parte di essa non solo il sentirsi inferiori in potenza alle macchine, ma anche, insieme, il sentirsi troppo lenti rispetto alle velocità macchiniche).[8]

Non mancano del resto alcuni sintomi addirittura clamorosi di tale deriva, se pensiamo per esempio a certi esiti obiettivamente antiumanistici propri di quelle visioni della rivoluzione digitale che si dichiarano post- o transumaniste. Così per esempio Hans Moravec, uno dei profeti del transumanismo, poteva affermare già vent’anni fa, in relazione agli imminenti sviluppi delle nanotecnologie e dell’intelligenza artificiale, con un misto di fatalismo e di entusiasmo: «l’uomo biologico si troverebbe naturalmente spinto fuori dall’esistenza, poiché una specie sopravvive raramente a uno spazio ostile che presenta un grado di evoluzione superiore» (cit. in Paul Virilio, Ce qui arrive, Paris, Éditions Galilée, 2002, tr.it. Milano, Cortina, 2002, p. 19-20).

Al venir meno di ogni valore, di ogni capacità di identificare dei fini razionali nello sviluppo sociale, si accompagna come si vede, in non pochi casi, il rifiuto della umanità stessa. O meglio quella che – se si pensa a certo dibattito oggi molto in voga sull’IA – si potrebbe definire una voglia matta di dimissioni dall’umano.

-------------

In ogni caso, quel che qui mette conto sottolineare è che nella visione attuale dovremmo affidarci con sicurezza all’impersonale flusso delle cose, alle asserite leggi dello sviluppo tecno-scientifico, sicuri che esse siano apportatrici di beneficio generale. Una visione del mondo e della storia non solo falsa, dal momento che postula una natura neutrale e deterministica dello sviluppo tecnologico (come se esso non fosse attraversato dalla storia, dal conflitto degli interessi, dalle dinamiche economiche, da influssi culturali ecc.), ma chiaramente finalizzata a radicare nelle coscienze dei contemporanei un senso di stupido ottimismo e di cieca fiducia verso l’organizzazione sociale presente. Una pedagogia dell’apatia e della passività, in definitiva.

L’adesione a questo “regime di temporalità” implica infatti l’adesione al modello economico e sociale dominante, a quello che un sociologo italiano, Mauro Magatti, ha definito «capitalismo tecno-nichilista», ovvero un modello in cui la razionalità strumentale e l’imperativo del profitto hanno riassorbito senza residui ogni altro criterio.[9] Tale modello, che si forma a partire dall’ultimo quarto del Novecento, prima negli Stati Uniti poi in Europa, non ha più molto a che fare con il vecchio capitalismo “weberiano” (lavoro, disciplina, impegno, attaccamento alla proprietà…), ma è piuttosto un capitalismo del desiderio e della seduzione, nonché della liberazione attraverso la tecnica. Un capitalismo che promette all’individuo una generalizzata libertà (di natura peraltro fantastica e delirante) un po’ da tutto: dal lavoro faticoso, dalla politica, dalle relazioni sociali e sentimentali, ora perfino – nelle tecno-utopie postumaniste, come si vedeva poc’anzi – dalla materia e dalla biologia stesse. Ma navigando in questo insieme di… “liberazioni” da ogni radicamento, è l’umano stesso che abdica a se stesso, l’individuo stesso, apparentemente celebrato, che finisce per precipitare appunto nel nulla.

Sulla dimensione realmente nichilistica del capitalismo contemporaneo (cioè dove per nichilismo non si intende una ideologia o una dottrina, ma appunto una configurazione socio-culturale reale) è intervenuto nei suoi ultimi anni il filosofo Aldo Masullo (1923-2020):

«la condizione del nostro odierno esistere esige non tanto una discussione sull’essenza del nichilismo, quanto un’esplorazione di effettivi stati di nichilismo. (…) Uno dei sintomi è la profonda trasformazione dei nostri rapporti con il tempo. Oggi la velocizzazione dei cambiamenti (travolgente esito tecnologico), l’accelerazione del quotidiano, l’immediatezza del repentino, insomma il dissolversi della durata nel delirio di eventi puntiformi, esaltano l’istantaneo senza ragione e il vuoto del presente».[10]

Particolarmente radicato in ambito scientifico-tecnologico,[11] questo approccio alla temporalità dilaga in realtà in ogni campo della vita odierna (sempre più permeato del resto dalla macchina tecno-scientifica e dalle sue “esigenze”), spingendoci tutti in una dimensione di accelerazione permanente i cui effetti in termini di disagio crescente sono ormai oggetto di un’ampia letteratura sociologica, psicoanalitica, antropologica ecc.,[12] oltre ad essere stati denunciati nella celebre enciclica Laudato si’ di Papa Francesco con parole molto lucide.[13]

-------------

In un piccolo saggio dedicato al concetto di Futuro, Marc Augé ha rimarcato il nesso che nella percezione attuale del futuro ricopre la dimensione (tipica di società industriali avanzate e consumistiche) della “innovazione”: quest’ultima – sosteneva l’antropologo francese scomparso nel 2023 – costituisce un vero e proprio «fatto sociale totale», secondo la celebre definizione di Marcel Mauss, poiché «riguarda simultaneamente tutti gli aspetti della società e fa appello a tutti i suoi attori» (Augé M., Futuro, Torino, Bollati Boringhieri, 2012, p. 81).[14] È insomma un futuro-come-innovazione quello che risulta oggi socialmente egemone, un futuro come costante susseguirsi di novità (proprio come l’industria capitalistica deve perennemente presentare nuove merci, vere o presunte non importa), un futuro meramente quantitativo. Un futuro che – dicono molti osservatori – finisce per farsi fagocitare da se stesso, e dunque un futuro che, paradossalmente, si auto sopprime in favore di un eterno presente (così François Hartog, su cui si tornerà, che parla infatti di «presentismo» per indicare l’attuale «regime di storicità»)[15].

È chiaro che stiamo parlando di quale idea di progresso sia oggi dominante; ovvero di come questa idea, così intimamente legata a tutta la vicenda della modernità occidentale, si configuri nella società industriale avanzata di oggi (o forse dovremmo dire, per essere à la page, società digitale). Se questa furia “futuristica” di cui abbiamo parlato appare oggi così dominante e in sostanza accettata è anche perché il mito del progresso è uno di quelli cui, nel disincantamento generalizzato, ancora crediamo (paradossi del postmodernismo? Forse…). Ma, giunto a questo punto, per non abusare della pazienza del lettore, rimando alla seconda parte di questo articolo. Stay tuned.

 

 

NOTE

[1]  Uso qui il concetto di “carattere sociale” come inteso tra gli altri da Erich Fromm, per esempio, in Beyond the chains of illusion. My encounter with Marx and Freud (1962), tr.it. Marx e Freud, Milano, il Saggiatore, 1968, p. 75-92. Vedi anche la voce Carattere sociale, in Luciano Gallino, Dizionario di sociologia, Torino, Utet, 2014 (1.ed. 1978), p. 94-96.

[2] Così, dovendo proporre una serie di scritti e discorsi di Barack Obama al termine del suo secondo mandato presidenziale, una grande casa editrice italiana decide di intitolare il volume che li raccoglie: Barack Obama, Il futuro è il posto migliore. Il 44. Presidente degli Stati Uniti in parole sue, prefazione di Walter Veltroni, Milano, Rizzoli ETAS, 2017.

[3] La dichiarazione del manager di Meta si trova in: Pierluigi Pisa, Arriva la nuova IA di Meta. “Imparerà da sola, penserà e proverà emozioni umane”, “la Repubblica”, 14 giugno 2023, p. 32-33.

[4] L’espressione si deve a Guy Debord, nella Società dello spettacolo (1967): «Lo spettacolo è il discorso ininterrotto che l’ordine presente tiene su se stesso, il suo monologo elogiativo» (Guy Debord, La società dello spettacolo, in Id., La società dello spettacolo. Commentari sulla società dello spettacolo, introduzione di Carlo Freccero e Daniela Strumia, Milano, Baldini & Castoldi, 2019, p. 71-72).

[5] Il concetto di «furia del dileguare» [die Furie des Verschwindens], coniato da Hegel nella Fenomenologia dello spirito (Cfr. G.W.F. Hegel, Fenomenologia dello spirito, vol. II, trad. di Enrico De Negri, Firenze, La Nuova Italia, 1963, p. 129) con riferimento agli esiti utopistico-estremistici della Rivoluzione francese (dove alla «libertà assoluta» non resta che «l’operare negativo» che non s’acquieta mai, producendo catastrofi politiche), viene qui adottato per indicare la pulsione intima dell’Occidente capitalistico, che lo spinge (ci spinge) ad operare solo in senso negativo e dissolvente, senza alcun costrutto sensato ed equilibrato.

[6] Mi limito qui a citare Hartmut Rosa, Accelerazione e alienazione. Per una teoria critica del tempo nella tarda modernità, Torino, Einaudi, 2015.

[7] Osservava David Harvey, in un saggio ormai di riferimento su questi temi, The condition of postmodernity (1990): «La dinamica di una società “usa e getta”, come l’hanno definita scrittori come Alvin Toffler, cominciò a diventare evidente durante gli anni Sessanta. Significava qualcosa di più del semplice buttar via una cera quantità di prodotti (…); significava buttar via valori, stili di vita, relazioni stabili, e l’attaccamento alle cose, agli edifici, ai luoghi, alle persone, ai modi ereditati di fare ed essere» (David Harvey, La crisi della modernità, Milano, il Saggiatore, 1993, p. 349).

[8] Cfr. Günther Anders, L’uomo è antiquato.1. Considerazioni sull’anima nell’epoca della seconda rivoluzione industriale, Torino, Bollati Boringhieri, 2003, p. 37-120.

[9] Cfr. Magatti M., Libertà immaginaria. Le illusioni del capitalismo tecno-nichilista, Milano, Feltrinelli, 2009.

[10] Nell’intervista il grande filosofo italiano riassumeva le tesi del suo Stati di nichilismo, Roma-Napoli, Paparo, 2016.

Ricordiamo che, nella filosofia italiana contemporanea, sostenitori della tesi del nichilismo come condizione storico-sociale del modo di produzione capitalistico sono stati Costanzo Preve, in particolare in Il convitato di pietra. Saggio su marxismo e nichilismo (Milano, Vangelista, 1991), e Massimo Bontempelli, La conoscenza del bene e del male, Pistoia, CRT, 1998.

[11] Giampietro Gobo ha sottolineato di recente su questo blog come l’accelerazione sociale dominante sia dannosa per la stessa attività scientifica: cfr. Giampietro Gobo, Quando la pazienza è più produttiva della fretta. Sull’esistenza di un nuovo pianeta, “Controversie”, 07/05/2024,

[12] Cfr. Hartmut Rosa, Accelerazione e alienazione, cit.

[13] «La continua accelerazione dei cambiamenti dell’umanità e del pianeta si unisce oggi all’intensificazione dei ritmi di vita e di lavoro, in quella che in spagnolo alcuni chiamano “rapidación”  (rapidizzazione). Benché il cambiamento faccia parte della dinamica dei sistemi complessi, la velocità che le azioni umane gli impongono oggi contrasta con la naturale lentezza dell’evoluzione biologica» (Papa Francesco, Laudato si’. Lettera enciclica sulla cura della casa comune, commenti di Bruno Bignami, Luis Infanti de la Mora, Vittorio Prodi, Bologna, Edizioni Dehoniane, 2015, p. 19).

[14] Nelle società attuali – osserva ancora Augé – «potremmo dire che ormai siamo capaci di definire il nostro rapporto con lo spazio e il tempo, cioè con l’elemento essenziale dell’attività simbolica che definisce l’essenza dell’uomo e dell’umanità, solo attraverso artefatti messi a punto dall’industria e fatti circolare su mercato» (ivi, p. 78).

[15] Cfr. François Hartog, Regimi di storicità. Presentismo e esperienze del tempo, Palermo, Sellerio, 2007.