La dura verità. Dalla sodomia della lettura alla veridizione nell’epoca della riproducibilità tecnica

SODOMIE

In molte iscrizioni del V secolo a.C., distribuite tra la Magna Grecia e l’Attica, il lettore viene etichettato katapúgōn, sodomizzato, e viene additato alla comunità come l’individuo che si è lasciato possedere dall’autore dell’epigrafe. Si comprende perché Platone nel Teeteto raccomandi prudenza e moderazione nel rapporto con i testi scritti, e perché abbia sospettato di questa forma di comunicazione per tutta la vita – sebbene i suoi Dialoghi abbiano contribuito a rendere per noi il libro la fonte di conoscenza più autorevole. Jesper Svenbro, in uno dei suoi saggi più brillanti di antropologia della lettura (1), rileva che l’esercizio di decodificare il testo, e di ricostruire il significato delle frasi, incorra per gran parte dell’antichità nelle difficoltà della scriptio continua, senza stacchi tra le parole e senza interpunzioni: fino al Medioevo, la maggior parte degli interpreti deve compitare ad alta voce le lettere, come fanno i bambini alle prime armi con la decifrazione della scrittura, per ascoltare il senso di ciò che sta pronunciando – più che riconoscerlo in quello che sta vedendo. Il lettore quindi presta la propria voce, il proprio corpo, al desiderio di espressione dello scrittore: il testo esiste nella proclamazione orale del contenuto, mentre il suo formato tipografico resta lettera morta. 

Nella cultura greca, molto agonistica, questa subordinazione di ruoli non può rimanere inosservata. Per di più, la sua forma è congruente con quella che si stabilisce tra il giovane che deve seguire il suo percorso di formazione e l’amante adulto che finanzia i suoi studi, visto che non è il padre né la famiglia naturale a sostenere questi costi: al termine della paideia il ragazzo deve testimoniare in pubblico se l’erasts abbia abusato del suo corpo, degradandolo al rango passivo di uno schiavo. L’adolescente deve conquistare un protettore di età più matura, senza però concedersi rinunciando alle prerogative del cittadino libero.

 

 

Il lettore incauto, o troppo appassionato, abbandona il proprio corpo all’io parlante dello scrittore: un’abdicazione al dominio di sé cui le persone perbene costringono gli schiavi, sottraendosi ad ogni rischio. Per un greco classico la verità è una caratteristica di quello che è stato visto con i propri occhi, come viene comprovato dagli storici Erodoto e Tucidide; Socrate e Platone hanno affidato il loro insegnamento al dialogo dal vivo. L’Accademia, e anche il Liceo di Aristotele, sorgono accanto a palestre dedicate alla preparazione atletica e militare degli ateniesi; Platone è un soprannome che indica le «spalle larghe» del maestro di dialettica.

IL POTERE DI VERIDIZIONE

Il potere di dire la verità, all’atto di nascita della filosofia, si legittimava su requisiti che appaiono del tutto diversi da quelli che lo hanno ratificato negli ultimi secoli, e che come osserva Sergio Gaiti in un recente articolo su Controversie, sono in affanno nel mondo contemporaneo. 

Per i greci la formazione dell’uomo libero coinvolgeva i valori della prestanza fisica, del coraggio, dell’obbedienza alle leggi patrie, della frequentazione di buone compagnie: la verità poteva emergere solo in un contesto che rispettasse questi requisiti – che dal nostro punto di vista sembrano più indicati per un raduno neofascista, che per un seminario di intellettuali, o per la consulenza ad un board aziendale, o per i principi di una disposizione di governo. Eppure l’epoca di Platone e Aristotele è senza dubbio una delle massime espressioni del talento intellettuale dell’Occidente, e il momento assiale per la nascita della tradizione scientifica. Nella nostra epoca, almeno fino all’irruzione dei social media e dei portali di ricerca, nessuno avrebbe mosso obiezioni all’assunto che i garanti della verità sono i metodi di peer review delle riviste scientifiche, la sorveglianza delle commissioni di concorso e di esame per le carriere universitarie, il vaglio della comunità degli intellettuali su qualunque dichiarazione relativa alla natura, alla storia e alla società, il filtro degli editori di stampa, radio, televisione, cinema e musica, su quali temi meritino l’attenzione pubblica e cosa sia invece trascurabile. In altre parole, anche per l’epoca contemporanea esiste (esisteva?) una cerchia di individui, che rappresenta la classe delle buone compagnie da frequentare per accedere all’Acropoli della verità, il luogo in cui si sa di cosa ci si debba occupare e in che modo si debba farlo. Al di là delle dichiarazioni di intenti e dei cardini ideologici, in tutti i paesi avanzati è tendenzialmente sempre la stessa classe sociale ad alimentare le fila degli accademici, dei politici, dei manager, dei giornalisti – è lo stesso cluster economico e culturale a formare controllori e controllati del potere, in tutte le sue forme (2).

Ma più che l’appartenenza ad una élite per censo e discendenza, ciò che conta è l’affiliazione ad una categoria accomunata dalla formazione universitaria, con la condivisione dei valori sullo statuto della verità, sui metodi della sua esplorazione, sui criteri di accesso ai suoi contenuti, sulle procedure della sua archiviazione, riproduzione, comunicazione. Come osserva Bruno Latour (3), l’adesione a queste prescrizioni coincide con l’accesso ad una comunità di pari, fondata sull’addestramento a vedere le stesse cose quando i suoi membri si raccolgono nel laboratorio dello scienziato – qualunque sia la disciplina in causa. Restano fuori tutti coloro che non sono iniziati alla percezione di questo grado del reale.

DIVISIONE DEL LAVORO LINGUISTICO

Nei termini di Foucault (4), ripresi da Agamben (5), questi processi di legittimazione e di produzione del sapere sono dei dispositivi, in grado di porre in essere esperienze che hanno riconoscimento intersoggettivo e consistenza pubblica. Le piattaforme digitali come Google e Facebook, nonché le varie tipologie di social media da cui è colonizzato il nostro mondo, non hanno fatto altro che automatizzare i meccanismi alla base del loro funzionamento, estendendo la base di accesso a tutti. Ma questo gesto di apertura ha innescato una rivoluzione di cui nessuno avrebbe potuto sospettare la portata.

L’algoritmo dal quale si è sviluppato Google, PageRank, misura la rilevanza di un contenuto partendo dal calcolo della quantità di link in ingresso da altre pagine web, e dalla ponderazione della loro autorevolezza, sulla base di un calcolo ricorsivo. L’algoritmo è la traduzione in chiave digitale del principio della bibliometria accademica, con cui il valore di un saggio (anche per la carriera del suo autore) corrisponde al numero di citazioni in altri studi scientifici (6)(7). Ma nel circuito delle università, l’autorevolezza di riviste e collane editoriali è stabilito a priori da altre istituzioni, quali ministeri o agenzie di rating, che giudicano il loro credito scientifico. 

La strategia di Google e dei giganti della tecnologia è consistita nell’imposizione di una democrazia dal basso, fondata sul riconoscimento empirico del modo in cui la fiducia si distribuisce di fatto nel pubblico più ampio. L’assunto è che, in quella che Hilary Putnam ha descritto come la divisione sociale del lavoro linguistico (8), ciascuna nicchia di interesse coltiva autori specialistici, in grado di valutare (ed eventualmente linkare) i contenuti degli altri – e lettori occasionali o devoti, immersi in un movimento di approfondimento non gerarchico e non lineare tra i testi. L’esistenza stessa di Google incentiva chiunque a divulgare il proprio contributo sugli argomenti di cui si ritiene esperto, in virtù della possibilità di incontrare un pubblico di curiosi o di entusiasti che lo consulteranno. Wikipedia, l’enciclopedia «nata dal basso», ha raggiunto in questo modo un’autorevolezza di fatto superiore all’Enciclopedia Britannica, e conta su oltre 7 milioni di voci (in inglese), contro le 120 mila della concorrente più antica e più blasonata. 

Il meccanismo di controllo sulla validità dei contenuti – per la comunità di riferimento – è rimasto lo stesso di prima, ma si sono moltiplicate le congregazioni di esperti, i temi di competenza, ed è in via di dissoluzione la capacità di governare l’agenda setting di interesse collettivo da parte della classe che disponeva del monopolio di veridizione, almeno fino a un paio di decenni fa. In italiano le voci di Wikipedia sono poco meno di 2 milioni, e 2.711 di queste sono dedicate al mondo immaginario di Harry Potter, 1.643 a quello Dragon Ball, 951 a quello di Naruto; la voce Naruto conta 9.245 parole, contro le 5.557 della voce Umberto Eco, e le 6.686 di Cesare Pavese. I focus dell’attenzione e l’intensità del coinvolgimento sono distanti da quelli un tempo decretati dalle istituzioni, sono molto più numerosi, e le comunità che li coltivano possono ignorarsi o entrare in conflitto, ricorrendo a criteri del tutto divergenti di selezione dei dati, modalità di analisi, interessi pragmatici, sostegni ideologici.

L’ORIENTAMENTO DELLA CIVETTA

Quando l’11 dicembre 2016 The Guardian ha denunciato che i primi dieci risultati di Google per la domanda «Did the Holocaust really happen?» linkavano pagine negazioniste, i fondatori del motore di ricerca, Larry Page e Sergey Brin (entrambi di famiglia ebraica), hanno immaginato di risolvere il problema modificando il codice del software. Il progetto di aggiornamento Owl dell’algoritmo avrebbe dovuto trovare un metodo automatico per discriminare i contenuti veri da quelli falsi, eliminando le fake news dalla lista delle risposte (9). Un obiettivo così ambizioso dal punto di vista epistemologico non è mai stato raggiunto, sebbene Google abbia implementato da allora decine di aggiornamenti per premiare contenuti «di maggiore qualità». 

È probabile che la ricognizione degli ingegneri abbia seguito una pista sbagliata: la verità non è una proprietà formale degli enunciati che possa essere catturata con una struttura di calcolo, complesso a piacere. Per restaurare una forma univoca di verità si sarebbe dovuto ripristinare il monopolio delle istituzioni che ne stabilivano il perimetro, la gerarchia della rilevanza, il dizionario e i criteri di valutazione. La sconfinata periferia delle comunità che circondano e che assediano l’Acropoli del sapere non è popolata da gruppi che hanno sempre allignato in qualche tipo di latenza, in modo informale e sottotraccia: senza una piattaforma che permetta agli individui di riconoscere le proprie passioni (o le proprie ossessioni) come un mondo intersoggettivo, che è possibile ammobiliare e abitare con altri che le condividono, non esiste identità collettiva, confraternita, aggregazione in qualche modo individuabile. La rintracciabilità universale di qualunque contenuto, la trasformazione dei media, ha modificato il panorama della verità, in cui si muove con smarrimento solo la classe che in precedenza ne deteneva il monopolio. Lo sconcerto peraltro non riguarda i contenuti, che nella prospettiva della classe intellettuale sono rimasti gli stessi di prima – ma la denegazione della perdita di potere, il rifiuto di accettarne le conseguenze, un po’ come è capitato a Page e Brin nella loro veste di clerici. Le altre comunità appaiono invece sicure nell’elezione delle loro fonti accreditate, nell’interazione con i modelli di comportamento e di pensiero, nei criteri di discriminazione del plausibile – che non riguardano i processi di adaequatio intellectus et rei, ma il miglior adattamento all’ambiente sociale e informativo di appartenenza. Dai ragazzi di Atene a quelli che si chillano scorrendo le bacheche di TikTok nella Milano di oggi, è questa la competenza che guida in modo infallibile al riconoscimento della |verità| (10).

 

 

BIBLIOGRAFIA

(1) Svenbro, Jesper, Phrasikleia: Anthropologie de la lecture en Grece ancienne, Editions La Decouverte, Paris, 1988.

(2) Ventura, Raffaele Alberto, Radical choc. Ascesa e caduta dei competenti, Einaudi, Torino, 2020.

(3) Latour, Bruno, Non siamo mai stati moderni, tr. it. di Guido Lagomarsino e Carlo Milani, Eleuthera, Milano 2018.

(4) Foucault, Michel, L'Archéologie du savoir, Gallimard, Parigi 1969.

(5) Agamben, Giorgio, Che cos’è un dispositivo?, Nottetempo, Roma 2006.

(6) Page, Larry; Brin, Sergey; Motwani, Rajeev; Winograd, Terry, The PageRank Citation Ranking: Bringing Order to the Web, in Technical Report, Stanford InfoLab 1999.

(7) Bottazzini, Paolo, Anatomia del giudizio universale. Presi nella rete, Mimesis, Milano 2015.

(8) Putnam, Hilary,The Meaning of Meaning, in Mind, Language and Reality: Philosophical Papers, Cambridge University Press, Londra 1975, pp. 215-271.

(9) Sullivan, Danny, Google’s ‘Project Owl’ — a three-pronged attack on fake news & problematic content, «Search Engine Land», 25 aprile 2017 (https://searchengineland.com/googles-project-owl-attack-fake-news-273700) 

(10) Arielli, Emanuele; Bottazzini, Paolo, Idee virali. Perché i pensieri si diffondono, Il Mulino, Bologna 2018.


I disturbi neurologici funzionali: oltre il dualismo mente-corpo

I disturbi neurologici funzionali (o FND, dall'inglese Functional Neurological Disorders) rappresentano una delle condizioni mediche più affascinanti e complesse del panorama neurologico contemporaneo; caratterizzati da sintomi reali e invalidanti, non spiegati da alterazioni strutturali del sistema nervoso, costituiscono un caso di studio emblematico per comprendere l'intricata relazione tra mente e corpo.

DEFINIZIONE E CARATTERISTICHE CLINICHE

I disturbi neurologici funzionali sono definiti come condizioni causate da alterazioni nel funzionamento delle reti cerebrali piuttosto che da cambiamenti nella struttura del cervello stesso. Questa distinzione fondamentale è spesso illustrata attraverso l'analogia del computer: mentre in altre patologie neurologiche si osserva un danno all'"hardware" cerebrale (come la degenerazione dei neuroni nella substantia nigra nei Parkinsonismi), nei disturbi neurologici funzionali il problema risiede nel "software", ovvero nei “programmi” che regolano il funzionamento del sistema nervoso.

La sintomatologia dei disturbi neurologici funzionali è estremamente variegata e può comprendere debolezza o paralisi degli arti, disturbi del movimento come tremori e distonie, crisi epilettiche non epilettiche, problemi sensoriali, difficoltà del linguaggio, problemi visivi e uditivi, dolore cronico e alterazioni cognitive, interferendo notevolmente con la qualità di vita dei pazienti, dei loro caregiver e comportando una spesa notevole per il SSN; l’esordio può avvenire a qualsiasi età, sebbene sia più comune tra l'adolescenza e l'età adulta precoce, con una maggiore incidenza nel sesso femminile (in rapporto 3:1).

NEUROBIOLOGIA TRA FUNZIONE E STRUTTURA

Le neuroscienze hanno fornito evidenze crescenti che i disturbi neurologici funzionali non sono disturbi "immaginari" ma rappresentano condizioni neurobiologiche genuine con correlati neurali identificabili. In questo senso, appare straordinariamente attuale l’intuizione di Jean-Martin Charcot, che già alla fine del XIX secolo ipotizzava nei pazienti con isteria l’esistenza di una “lesione funzionale”, ovvero una disfunzione reale del sistema nervoso priva di una base strutturale visibile. Sebbene privo degli strumenti della neurologia moderna, Charcot riconobbe che l’assenza di una lesione anatomica non implicava l’inesistenza di un disturbo neurologico autentico - un’intuizione che trova oggi conferma nei dati neurobiologici contemporanei. Particolarmente significative sono le alterazioni osservate a carico del salience network, del default mode network e nelle connessioni tra aree cortico-limbiche e regioni motorie. Il salience network, composto principalmente dall'insula anteriore e dalla corteccia cingolata anteriore dorsale, è responsabile del rilevamento e del filtraggio degli stimoli rilevanti e della regolazione emotiva. Nei pazienti con disturbo neurologico funzionale, questo sistema mostra iperattivazione e connettività alterata con le aree motorie, suggerendo un'influenza eccessiva dei processi emotivi sul controllo motorio. Il default mode network, attivo durante il riposo cosciente e coinvolto nei processi di auto-riferimento e nella costruzione del senso di sé, presenta anch'esso alterazioni in questi pazienti. Queste modificazioni potrebbero riflettere disturbi nei processi di integrazione dell'esperienza soggettiva e nella percezione di agency, ovvero nella sensazione di controllo sulle proprie azioni.

I DISTURBI NEUROLOGICI FUNZIONALI COME PARADIGMA DEL RAPPORTO MENTE-CORPO

Storicamente, l’approccio cartesiano alla medicina ha portato a una netta distinzione tra cause organiche e psicogene, relegando i disturbi neurologici funzionali nell’ambito delle patologie “senza base organica”. Tuttavia, le evidenze attuali dimostrano che questa dicotomia è riduttiva: gli stati mentali, come lo stress, il trauma o i conflitti emotivi, possono indurre alterazioni misurabili nei circuiti cerebrali, nei pattern di attivazione neuronale e nei processi di integrazione sensomotoria, senza che vi sia necessariamente un danno strutturale rilevabile con le tecniche diagnostiche convenzionali.

La definizione storica di “disturbo di conversione” o “di somatizzazione” per quelli che oggi chiamiamo disturbi neurologici funzionali, radicata nella teoria freudiana della conversione di conflitti psichici in sintomi somatici, rifletteva una comprensione limitata e spesso stigmatizzante della condizione. Oggi, la ricerca riconosce che questi disturbi non sono semplicemente manifestazioni di conflitti inconsci, ma il risultato di una complessa interazione tra vulnerabilità biologiche (come predisposizioni genetiche o alterazioni neurochimiche), fattori psicologici (traumi, stili di coping, attenzione selettiva ai sintomi) e contesti sociali (stress ambientali, dinamiche familiari, influenze culturali).

L’approccio attuale è quindi multidisciplinare e integrato: la diagnosi si basa su criteri clinici positivi e segni neurologici specifici, mentre il trattamento prevede interventi personalizzati che possono includere la riabilitazione neurologica, la psicoterapia e, quando necessario, il supporto farmacologico. Questa visione supera la dicotomia cartesiana, promuovendo una comprensione più ampia e meno stigmatizzante della malattia, e sottolinea l’importanza di un approccio empatico e collaborativo nella gestione dei pazienti con disturbo neurologico funzionale.

CONCLUSIONI

I disturbi neurologici funzionali costituiscono un caso emblematico della complessità del rapporto mente-corpo, rivelando quanto siano ormai inadeguate le dicotomie tradizionali della medicina occidentale per spiegare la natura (che è invece profondamente integrata) dell’essere umano. Lungi dall’essere semplici anomalie “psicogene”, si impongono oggi come una sfida cruciale per la medicina contemporanea: non solo per la loro eterogeneità clinica e l’impatto sulla qualità di vita, ma soprattutto per l’opportunità epistemologica che rappresentano. 

La moderna comprensione di questa condizione così fraintesa in passato, alimentata dai progressi delle neuroscienze, offre una finestra privilegiata per indagare i meccanismi attraverso cui l’esperienza soggettiva si incarna nel corpo e nel cervello, mostrando come stati mentali complessi possano influenzare direttamente il funzionamento dei network cerebrali. In tal senso, i disturbi neurologici funzionali mettono in discussione le rigide separazioni tra neurologia e psichiatria, tra cause organiche e fattori psicologici. L’evoluzione della ricerca scientifica, insieme a una crescente sensibilità clinica, sta gradualmente restituendo legittimità e riconoscimento a una condizione per troppo tempo relegata ai margini del sapere medico. Questa condizione ci obbliga a ricordare che mente e cervello non sono domini separati, ma aspetti interdipendenti di una stessa realtà incarnata, e ci sollecitano a ripensare profondamente non solo le categorie diagnostiche, ma anche il modo in cui intendiamo la cura. 

 

 

RIFERIMENTI BIBLIOGRAFICI

Aybek, S., & Perez, D. L. (2022). Diagnosis and management of functional neurological disorder. BMJ, o64. https://doi.org/10.1136/bmj.o64 

Baek, K., Doñamayor, N., Morris, L. S., Strelchuk, D., Mitchell, S., Mikheenko, Y., Yeoh, S. Y., Phillips, W., Zandi, M., Jenaway, A., Walsh, C., & Voon, V. (2017). Impaired awareness of motor intention in functional neurological disorder: Implications for voluntary and functional movement. Psychological Medicine, 47(9), 1624–1636. https://doi.org/10.1017/S0033291717000071 

Edwards, M. J., Yogarajah, M., & Stone, J. (2023). Why functional neurological disorder is not feigning or malingering. Nature Reviews Neurology, 19(4), 246–256. https://doi.org/10.1038/s41582-022-00765-z 

Hallett, M., Aybek, S., Dworetzky, B. A., McWhirter, L., Staab, J. P., & Stone, J. (2022). Functional neurological disorder: New subtypes and shared mechanisms. The Lancet Neurology, 21(6), 537–550. https://doi.org/10.1016/S1474-4422(21)00422-1 

Voon, V., Brezing, C., Gallea, C., & Hallett, M. (2011). Aberrant supplementary motor complex and limbic activity during motor preparation in motor conversion disorder. Movement Disorders, 26(13), 2396–2403. https://doi.org/10.1002/mds.23890


Il cosmismo russo e le sue continuazioni

I cosmisti erano guidati dal desiderio di superare l'entropia del mondo e, come conseguenza, raggiungere l'immortalità umana, partendo dall'analogia tra il microcosmo umano e il macrocosmo universale. Se l'universo è infinito nello spazio, allora l'uomo deve essere infinito nel tempo e, dunque, solo nell'unione con il cosmo è possibile realizzare l’idea di immortalità. La realizzazione del progetto deve cominciare con la trasformazione antropologica dell'essere umano, basata su cambiamenti spirituali e morali. In sostanza, il cosmismo russo è una fase dell'evoluzionismo teistico, esistente da tempo, che prese la forma di un progetto dettagliato nel XIX secolo in Russia. Il progetto del XIX è stato seguito da una adozione, seppur modificata, nel pensiero sovietico post-rivoluzionario.

All'interno del grande movimento del cosmismo russo si distinguono tre direzioni:

  • quella scientifico-naturale, in cui si poneva maggiore attenzione all'esplorazione scientifica e tecnica dello spazio;
  • quella religioso-filosofica, che interpretava il significato dello sviluppo spirituale e morale dell'uomo;
  • quella artistico-estetica, che insisteva sul ruolo predominante dell'arte come mezzo per la trasformazione cosmica del mondo.

Queste direzioni non si opponevano l'una all'altra, ma esistevano come tre in uno, con un obiettivo comune, la stessa piattaforma spirituale e un'unica idea della struttura del mondo, dell'uomo e dello spazio.

Il fondatore della direzione scientifico-naturale del cosmismo russo è il filosofo Nikolaj Fëdorov (1829–1903). Egli sosteneva che l'uomo, la natura e lo spazio sono uniti e interconnessi, perciò i cambiamenti nell'uomo, lo sviluppo della sua capacità di controllarsi non solo spiritualmente ma anche fisicamente, porteranno al controllo dell'uomo sulla natura e sullo spazio. E per fare ciò, è necessario superare le mancanze e i peccati che causano divisione tra le persone e ostilità. La direzione dell'evoluzione umana è indicata da Cristo nell'idea della resurrezione. Fëdorov unisce la dottrina cristiana al positivismo: per regolare la natura (stabilire nuove leggi), è necessario ricomporre gli atomi, il che cambierà non solo i fenomeni naturali, ma anche l'organismo umano.

Il più alto stadio di regolazione sarà uno stato della materia, della mente e dello spirito tale da permettere la resurrezione degli antenati defunti: essi appariranno nel mondo in una nuova forma ideale, dotata della capacità di autocreare un corpo a partire da sostanze inorganiche. Fëdorov non parla dell'immortalità cristiana delle anime, ma dell'immortalità dei corpi, che diventeranno come esemplari viventi da museo. Questo stadio dell'evoluzione verrà raggiunto quando l'umanità imparerà a controllare non solo se stessa e la natura, ma anche il Sole e l'Universo, che diventeranno il luogo per il reinsediamento degli antenati resuscitati e dei nuovi nati.

Konstantin Tsiolkovsky (1857–1935) credeva che non ci fosse alcuna frattura ontologica tra la mente e il mondo e, di conseguenza, che il cervello umano fosse una parte materiale dell'universo e che la volontà di un individuo riflettesse la volontà dell'universo.

Tsiolkovsky credeva nell'immortalità come indistruttibilità dell'essenza del mondo, che cambia solo forma. Creò una sua versione del Nuovo Testamento, secondo la quale Dio e l'universo, spirito e materia sono una cosa sola. La futura “beatitudine cosmica” non è immaginabile nello spazio tridimensionale: essa esiste in un oceano multidimensionale di luce, volontà razionale e grazia, abitato da esseri umani ideali. La competizione capitalista e lo sfruttamento devono essere sostituiti dal collettivismo e dalla solidarietà tra le persone.

Per avvicinare la felicità sulla Terra, Tsiolkovsky propose un piano di ricostruzione della società, che consisteva in uno stato totalitario su scala globale con una gestione gerarchica, al cui vertice si trovavano scienziati e artisti.

L'idea di Fëdorov di reinsediare gli antenati resuscitati nello spazio e di viaggiare attraverso le galassie ispirò Tsiolkovsky a sviluppare un modello di astronave. Egli effettuò i calcoli matematici dei parametri tecnici di un razzo in grado di lanciare un veicolo in orbita terrestre. In seguito, questi calcoli furono utilizzati da F.A. Zander, uno dei creatori del primo razzo sovietico a combustibile liquido, e da S.P. Korolev, progettista generale della tecnologia missilistica e spaziale sovietica.

Il “Regno dei Cieli” cosmico nella concezione di Vladimir Vernadsky (1863–1945) si manifesta nella forma della noosfera. Con noosfera (sfera dell'intelligenza), Vernadsky intendeva una fase nello sviluppo della biosfera, in cui l'attività razionale e intellettuale dell'umanità collettiva comincia ad avere una portata geologica, planetaria e poi extraplanetaria. Essa nasce come naturale sviluppo della biosfera in direzione etica e creativa.

L'ideale dello sviluppo noosferico diventa la sua “autotrofia”, cioè la liberazione dal bisogno di ottenere energia dalla biosfera terrestre e l'espansione dello sviluppo evolutivo dell'umanità prima nello spazio vicino (il sistema solare), e poi nello spazio lontano.

(Alla corrente religiosa e filosofica del cosmismo russo appartenevano Vladimir Solov’ëv, Nikolaj Berdjaev, Sergej Bulgakov, Pavel Florenskij e altri.

Il suo principale rappresentante, Vladimir Solov’ëv (1853–1900), affermava che l'umanità può rinascere solo attraverso la verità in Cristo, che comporta la distruzione della «grossolana ignoranza delle masse, la prevenzione della devastazione spirituale delle classi alte e l'umiliazione della violenza brutale dello Stato».

Solov’ëv riponeva le sue speranze nella trasformazione dell'umanità attraverso la teocrazia, ovvero tramite la creazione di uno Stato giusto e di un ordine sociale equo, in grado di realizzare gli ideali cristiani.

Come per gli altri cosmisti russi, nella sua visione l'idea dell'unità universale delle persone è di importanza primaria; questa idea, nella tradizione ortodossa russa, è chiamata "sobornost’" (conciliarità). Essa non è intesa come un'unione meccanica di individui, ma come:

«l'unità di tutti in uno, la coscienza di tutti in sé stessi e di sé stessi in tutti».

Tutti i cosmisti consideravano l'arte come mezzo di trasformazione del mondo, e non in senso metaforico, bensì in senso pratico: l'arte era riconosciuta come capace di trasformare fisicamente la materia.

Questo era il pensiero di Aleksandr Skrjabin (1872–1915), il rappresentante più coerente della corrente artistico-estetica del cosmismo russo. Con la sua ultima composizione (rimasta incompiuta), intitolata “Mistero”, il compositore intendeva completare l'esistenza del mondo attuale, unire lo spirito del mondo con la materia e dare così origine alla nascita di un nuovo mondo in forme non solo spirituali, ma anche materiali.

Quest'opera grandiosa e sincretica era pensata per un'enorme orchestra, un coro di 7.000 cantanti, luci, danza e movimenti plastici, e doveva essere rappresentata sulle rive del fiume Gange, in un tempio che si elevava sopra la Terra. L'intento era quello di unire l'umanità in un amore universale (compreso l'amore erotico), portando questo sentimento a uno stato estatico, in cui la materia si sarebbe fusa in un altro stato, unendosi con lo Spirito Assoluto per dare origine a una nuova vita cosmica in altre dimensioni.


Riassumendo le idee principali del cosmismo russo, possiamo evidenziare alcune proposte fondamentali considerate necessarie per raggiungere la fase cosmica dello sviluppo umano, nel senso più ampio del termine:

  • Fede nei valori cristiani come base spirituale dello sviluppo umano.
  • Relazione tra spirito e materia: lo sviluppo evolutivo della materia conduce a forme superiori di coscienza, la quale, a sua volta, è in grado di ricostruire la materia in una fase avanzata del progresso.
  • Al centro del cosmismo vi è la creazione di un nuovo tipo antropologico di uomo e, di conseguenza, di una nuova umanità:
  • Unità tra antropologico, sociale e ontologico: in altre parole, il modo fisico di esistenza dell'umanità è determinato dalle caratteristiche antropologiche dell'uomo, che a loro volta determinano la struttura sociale.
  • La società spaziale del futuro si fonda sull'unione fraterna dell'umanità, basata sull'amore, sull'uguaglianza e sulla solidarietà a livello planetario.
  • Le utopie cosmiste descrivono una società futura centralizzata, collettivistica e gerarchica, con scienziati e artisti al vertice della gerarchia cosmica, a testimonianza di una dominanza dello spirituale nella scala di valori.

Paradossalmente, ma in modo naturale, uno sviluppo concreto delle idee cosmiste fu rappresentato dalla Repubblica Sovietica nata nel 1917, che mirava alla costruzione di una società senza classi, in cui le differenze tra gli individui fossero superate. L'individualismo venne sostituito dal collettivismo, che trae origine sia dalla fratellanza cosmica che dalla sobornost’ ortodossa.

I comunisti sostituirono l'unità in Dio con l'unità nel collettivo, mettendo gli interessi della società e dello Stato al di sopra di quelli individuali. Questo contribuì al raggiungimento di straordinari risultati in tempi brevi, come i progressi scientifici e spaziali dell'URSS. Il “Codice del Costruttore del Comunismo” – documento ufficiale del Partito Comunista – proponeva una morale affine ai comandamenti cristiani, benché l'ideologia sovietica fosse basata sul materialismo marxista. La morale comunista affermava la prevalenza dello spirituale sul materiale, sia per l'individuo che per la collettività.

Fu così introdotta l'istruzione obbligatoria e gratuita per tutti, e fu assegnato un ruolo speciale a scienziati, letterati e artisti, che – come nei testi cosmisti – occupavano il vertice della piramide sociale. L'impulso spirituale collettivo, che pervadeva la coscienza popolare, conteneva in sé il potenziale per trasformarsi in risultati materiali concreti. Come affermò Lenin:

«Un'idea che si impadronisce delle masse diventa una forza materiale».

Tuttavia, i comunisti non portarono avanti l'idea di immortalità fisica, forse perché si prefiggevano di costruire il “Paradiso in Terra”, cioè il comunismo come ideale società terrena. È interessante notare come la descrizione dell'utopia terrena di Tsiolkovskij, il più materialista dei cosmisti, anticipi elementi della società sovietica: gerarchia, totalitarismo, collettivismo, centralizzazione.

La realizzazione di questo “paradiso in terra” era però possibile solo con un nuovo tipo di uomo, l'uomo ideale sovietico, caratterizzato da altruismo, eroismo, volontà, spirito, alto livello di istruzione, disprezzo per il materiale, dedizione al lavoro, modestia e umanesimo. Sebbene nella realtà non fosse possibile trasformare tutta la popolazione in esseri ideali, si ritiene che basti l'8% della popolazione a possedere queste caratteristiche per innescare un salto evolutivo. È ciò che accadde: l'URSS fu la prima a progettare un'astronave e a mandare un uomo nello spazio. È simbolico che il cognome del primo cosmonauta, Gagarin, fosse lo stesso del padre fondatore del cosmismo, Nikolaj Fëdorov.

Le idee dei cosmisti russi del XIX e XX secolo stanno tornando particolarmente attuali nel XXI secolo. Tra gli obiettivi dichiarati oggi ci sono:

  • l'esplorazione dello spazio,
  • il controllo dei cataclismi naturali,
  • la trasformazione radicale del corpo umano (cambio di sesso, razza, ecc.),
  • l'immortalità attraverso clonazione, ingegneria genetica, sostituzione degli organi.

Molti osservano come questo progetto transumanista e spaziale presenti somiglianze con le teorie cosmiste e con le ideologie di sinistra radicale. Tuttavia:

  1. Il progetto sovietico è un caso unico, in quanto ha unito una visione radicale di sinistra con la mentalità tradizionale russa, dando origine a un fenomeno socio-antropologico irriducibile ad altre teorie precedenti.
  2. Nonostante le somiglianze apparenti, esiste una differenza fondamentale: i cosmisti ponevano al centro la trasformazione spirituale e morale dell'uomo, come fonte primaria di ogni altro cambiamento, anche materiale. Al contrario, i progetti moderni partono dalla trasformazione fisica del corpo, della Terra e dello spazio. Ma un futuro costruito solo su queste basi potrebbe sembrare più un inferno che un paradiso.

Oggi, lo spazio vicino alla Terra, divenuto campo di competizione corporativa, è una discarica orbitale; si ipotizza perfino il suo uso militare. La gestione “efficiente” del pianeta, ignorando solidarietà e fratellanza, non resuscita i morti, ma uccide i vivi. La ricerca ossessiva dell'immortalità fisica ignora le anime. La disuguaglianza sociale cresce, l'amore fra gli esseri umani diminuisce. Questo vettore di sviluppo dell'umanità moderna è l'opposto di ciò che i filosofi cosmisti auspicavano.


L’Effetto Proteo: Quando l’Avatar cambia chi siamo

Nell’era digitale, l’identità personale non è più confinata al corpo fisico: sempre più spesso si estende ai nostri avatar, quei corpi virtuali che abitiamo nei social network, nei videogiochi, negli ambienti digitali in generale. Ma cosa succede quando l’aspetto di questi avatar inizia a influenzare profondamente il nostro comportamento reale? Questo è il cuore dell’“Effetto Proteo”, un fenomeno psicologico che mette in luce il potere trasformativo dell’identità digitale.

DALLA MASCHERA ALL’AVATAR: LE ORIGINI DELL’EFFETTO PROTEO

Coniato nel 2007 da Nick Yee 1 e Jeremy Bailenson 2, il termine “Effetto Proteo” richiama la figura mitologica greca di Proteo, capace di cambiare forma a piacimento. L’idea alla base è semplice ma potentissima: quando adottiamo un avatar in un ambiente digitale, tendiamo inconsciamente a comportarci in modo coerente con il suo aspetto. Se l’avatar è alto e attraente, potremmo mostrarci più sicuri di noi; se appare debole, potremmo essere più remissivi.

Già Oscar Wilde, ben prima del digitale, scriveva: “Man is least himself when he talks in his own person. Give him a mask, and he will tell you the truth”. La maschera, oggi, è l’avatar, e funziona da catalizzatore per l’esplorazione dell’identità.

Nell’affrontare l’identificazione tra avatar ed essere umano si analizzeranno, in prima battuta, i meccanismi psicologici e cognitivi che sono alla base dell’esistenza dell’Effetto Proteo; successivamente, verranno valutati gli effetti di stereotipi e bias su comportamento e identità; infine, si tenterà una sintesi di quanto analizzato, vagliando come e quanto l’identificazione nel proprio avatar conduca a delle modifiche nella percezione di sé, tanto nei mondi virtuali quanto in quello reale.

INQUADRAMENTO PSICOLOGICO

Numerosi studi hanno indagato i fondamenti teorici dell’Effetto Proteo. Uno dei principali è la “self-perception theory” di Daryl Bem 3. Secondo questa teoria non sempre conosciamo i nostri stati interiori in modo immediato: spesso ci osserviamo dall’esterno, proprio come farebbe un osservatore qualsiasi, e traiamo conclusioni su cosa proviamo in base al nostro comportamento visibile. Questo meccanismo diventa particolarmente evidente quando mancano segnali interni chiari o quando ci troviamo in contesti ambigui. Negli ambienti virtuali ciò significa che, quando “indossiamo” un avatar, tendiamo a comportarci secondo le caratteristiche estetiche e simboliche che gli abbiamo attribuito, e da tali comportamenti inferiamo i nostri stati d’animo. L’avatar, quindi, non è solo una maschera, ma anche uno specchio che riflette (e crea) il nostro Sé.

Un’altra teoria rilevante è la “deindividuation theory” di Philip Zimbardo 4, sviluppata a partire dagli anni Sessanta. Secondo Zimbardo, in situazioni di anonimato o di forte immersione in un gruppo, l’individuo tende a perdere il senso della propria individualità, diminuendo l’autocontrollo e mostrando comportamenti che normalmente inibirebbe. L’anonimato riduce la paura del giudizio altrui e attenua il senso di responsabilità personale: in un ambiente digitale queste condizioni si verificano con facilità. Secondo Zimbardo, l’effetto della de-individuazione è tendenzialmente negativo, e conduce a comportamenti antisociali; tuttavia, altri autori hanno evidenziato che individui in condizione di de-individuazione, temendo meno il giudizio sociale, possono esibire anche espressioni di empatia, solidarietà o affetto.

Questa visione è stata successivamente affinata da Tom Postmes 5, Russell Spears 6 e Martin Lea 7 attraverso il modello SIDE (Social Identity Model of Deindividuation Effects). Gli autori sostengono che l’anonimato non elimina l’identità personale, ma favorisce il passaggio a un’identità sociale condivisa. Quando un individuo si sente parte di un gruppo tende a interiorizzarne norme e valori, comportandosi in maniera coerente con le aspettative collettive. Ciò significa che, in un contesto digitale, l’utente può sviluppare un forte senso di appartenenza a una comunità online assumendo atteggiamenti e comportamenti che riflettono la cultura del gruppo stesso. Come osservano gli autori, il bisogno di sentirsi accettati nella cerchia sociale di riferimento supera qualsiasi considerazione etica riguardo il comportamento adottato. In questo senso, l’avatar non è solo uno strumento di espressione individuale, ma anche di conformità sociale. L’interazione tra anonimato, immersione e identità condivisa crea una cornice psicologica che amplifica le norme del gruppo. In positivo, questo può rafforzare la cooperazione, il supporto reciproco e l’inclusività; in negativo, può alimentare polarizzazioni, intolleranze e comportamenti aggressivi.

STEREOTIPI E IDENTITÀ DIGITALI

Gli stereotipi giocano un ruolo centrale nell’Effetto Proteo. Già nel 1977, Mark Snyder 8 dimostrava che le aspettative proiettate sull’interlocutore influenzano profondamente l’interazione. Tre fenomeni descrivono l’impatto degli stereotipi:

  • Stereotype threat: la paura di confermare uno stereotipo negativo conduce a prestazioni peggiori.
  • Stereotype lift: l’identificazione con un gruppo visto positivamente migliora fiducia e risultati.
  • Stereotype boost: l’appartenenza a gruppi stereotipicamente forti conduce a benefici in prestazioni e autostima 9.

Nei videogiochi è stato osservato che avatar maschili e femminili esibiscono comportamenti diversi quando utilizzati da persone del sesso opposto: tale fenomeno è noto come “gender swapping”. Gli uomini tendono a usare avatar femminili per ottenere vantaggi sociali, mentre le donne lo fanno per evitare attenzioni indesiderate. Uno studio condotto su World of Warcraft (Yee, Bailenson, & Ducheneaut, 2009) ha rilevato che avatar più attraenti o più alti generano atteggiamenti più estroversi, mentre avatar meno imponenti portano a comportamenti più schivi. In uno studio parallelo, condotto su giocatrici e giocatori di EverQuest II (Huh & Williams, 2010), è stato evidenziato che personaggi maschili controllati da donne sono più attivi in combattimento, mentre personaggi femminili controllati da uomini si dedicano maggiormente alla socializzazione: in entrambi i casi si assiste alla messa in atto di comportamenti stereotipici, aderenti a ciò che un determinato individuo si aspetta da persone identificate in un genere altro.

IDENTITÀ DESIDERATA E OVERCOMPENSATION

Il fenomeno dell’identificazione desiderata, o “wishful identification”, si manifesta quando l’individuo si immedesima in personaggi con qualità che vorrebbe possedere. Nel 1975 Cecilia von Feilitzen 10 e Olga Linné 11 teorizzavano che gli spettatori più giovani dei programmi televisivi tendessero a proiettarsi nei protagonisti delle storie che consumavano per sentirsi più intelligenti, forti o valorosi. Questo desiderio di immedesimazione non richiede necessariamente una somiglianza fisica tra soggetto e personaggio: l’importante è che il personaggio incarni qualità desiderabili, e assenti nella vita reale dell’osservatore. Nei mondi virtuali, tale meccanismo assume una dimensione interattiva: non ci si limita più a osservare un eroe sullo schermo, ma lo si diventa, scegliendo avatar che riflettono i nostri desideri più profondi e agendo attraverso di essi.

Una manifestazione concreta di questo processo si osserva nel fenomeno dell’overcompensation. In uno studio condotto da Roselyn Lee-Won 12 e colleghi, a un gruppo di giovani uomini è stato chiesto di sottoporsi a una serie di test stereotipicamente associati alla mascolinità (forza fisica, cultura generale “virile”, autovalutazioni). Coloro che ottenevano risultati deludenti tendevano poi a creare avatar in The Sims 3 con tratti fisici accentuatamente maschili: muscoli pronunciati, lineamenti decisi, capelli corti. Questa costruzione ipermaschile del proprio alter ego virtuale rappresenta una forma di riaffermazione identitaria, un tentativo inconscio di compensare una percezione negativa del proprio Sé fisico o sociale. Non solo: quando questi stessi individui ripetevano i test dopo aver interagito con l’avatar, i loro risultati miglioravano. Questo suggerisce che l’identificazione con un corpo virtuale desiderato possa rafforzare l’autoefficacia anche nel mondo reale. Il Sé digitale, in questo senso, non è solo uno strumento di espressione, ma anche un vero e proprio alleato nella costruzione di fiducia e autostima.

Questa dinamica di retroazione è una delle più affascinanti implicazioni dell’Effetto Proteo: non è solo l’avatar a essere influenzato dall’utente, ma anche l’utente a essere modificato dal suo avatar. L’identità digitale, quindi, diventa non solo espressione, ma anche motore di trasformazione del Sé.

ETICA E DESIGN DELL’IDENTITÀ DIGITALE

L’Effetto Proteo non è un semplice artificio sperimentale: è una dinamica concreta con ripercussioni reali su comportamento, percezione di sé e relazioni sociali.

Come vogliamo che ci vedano gli altri? E quanto siamo pronti ad accettare che il nostro comportamento possa cambiare, anche profondamente, in base al corpo digitale che abitiamo? La progettazione di avatar non può essere considerata solo una questione estetica: è un atto di modellazione identitaria. Costruire un corpo digitale significa anche dare forma a una possibile versione di sé, con tutto il potere trasformativo che questo comporta.

 

 

NOTE:

1 Nick Yee è un ricercatore americano, la cui ricerca si concentra sulla rappresentazione di sé e sulle interazioni sociali negli ambienti virtuali.
2 Jeremy Bailenson è fondatore e direttore del Virtual Human Interaction Lab dell’Università di Stanford. La sua ricerca si concentra sullo studio della psicologia della Realtà Virtuale e della Realtà Aumentata
3 Daryl Bem è uno psicologo sociale americano. Oltre allo studio della “self-perception theory” si è occupato di processi decisionali e dinamiche di gruppo.
4 Philip Zimbardo è stato uno psicologo americano. Nel corso della sua carriera si è occupato della de-individuazione e dei suoi effetti, dissonanza cognitiva, e persuasione.
5 Tom Postmes è professore di Psicologia Sociale presso l’Università di Groningen, e studia il comportamento umano in gruppi e comunità virtuali.
6 Russell Spears è uno psicologo sociale. Il focus della sua ricerca è nell’analisi delle relazioni cooperative e conflittuali tra gruppi sociali.
7 Martin Lea è un ricercatore indipendente; si occupa di comunicazione via Internet, resilienza digitale e psicologia dei disastri.
8 Mark Snyder è uno psicologo sociale americano, riconosciuto come creatore della “Self-Monitoring Scale”, un test di autovalutazione della personalità in situazioni sociali.
9 Le definizioni degli effetti degli stereotipi sul comportamento derivano da studi ed esperimenti che, in virtù dell’epoca storica in cui sono stati svolti, non includevano l’uso di avatar. Gli strumenti prescelti consistevano in test scolastici standardizzati (Steele & Aronson, 1995), interazioni sociali svolte per via telefonica (Snyder, Tanke, & Berscheid, 1977), test di valutazione di una specifica competenza (Shih, Pittinsky, & Ambady, 1999; Walton & Cohen, 2002).
10 Cecilia von Feilitzen è stata una studiosa svedese di media e comunicazione. La sua ricerca sulla “wishful identification” ha rivoluzionato profondamente gli studi successivi sulla formazione dell’identità.
11 Olga Linné è stata una ricercatrice svedese. Si è occupata principalmente di identificazione tra bambini e personaggi televisivi.
12 Roselyn Lee-Won è professoressa associata presso la Ohio State University. La sua ricerca riguarda i social media e i processi affettivi e cognitivi nella Computer Mediated-Interaction e nella Human-Computer Interaction.

RIFERIMENTI BIBLIOGRAFICI

Bem, D. (1972). Self-Perception Theory. In L. Berkovitz (ed.), Advances in Experimental Social Psychology, vol. 6. New York: Academic Press.
Gergen, K. J., Gergen, M. M., & Barton, W. H. (1976). Deviance in the Dark. In Psychology Today, vol. 7, no. 5. New York: Sussex Publishers.

Huh, S., & Williams, D. (2010). “Dude Looks like a Lady: Gender Swapping in an Online Game”. In W. S. Bainbridge (ed.), Online Worlds: Convergence of the Real and the Virtual. Londra: Springer.

Hussain, Z., & Griffiths, M. D. (2008). Gender Swapping and Socializing in Cyberspace: An Exploratory Study. In CyberPsychology & Behavior, vol. 11, no. 1. Larchmont: Mary Ann Liebert, Inc.

Lee-Won, R. J., Tang, W. Y., & Kibbe, M. R. (2017). When Virtual Muscularity Enhances Physical Endurance: Masculinity Threat and Compensatory Avatar Customization Among Young Male Adults. In Cyberpsychology, Behavior, and Social Networking, vol. 20, no. 1. Larchmont: Mary Ann Liebert, Inc.

Postmes, T., Spears, R., & Lea, M. (1998). Breaching or Building Social Boundaries?: SIDE-Effects of Computer-Mediated Communication. In Communication Research, vol. 25, no. 6. Thousand Oaks: SAGE Publishing.

Shih, M., Pittinsky, T. L., & Ambady, N. (1999). Stereotype Susceptibility: Identity Salience and Shifts in Quantitative Performance. In Psychological Science, vol. 10, no. 1. New York: SAGE Publishing.

Snyder, M., Tanke, E. D., & Berscheid, E. (1977). Social Perception and Interpersonal Behavior: On the Self-Fulfilling Nature of Social Stereotypes. In Journal of Personality and Social Psychology, vol. 35, no. 9. Washington, D.C.: American Psychological Association.

Steele, C. M., & Aronson, J. (1995). Stereotype Threat and the Intellectual Test Performance of African Americans. In Journal of Personality and Social Psychology, vol. 69, no. 5. Washington, D.C.: American Psychological Association.

Walton, G. M., & Cohen, G. L. (2003). Stereotype Lift. In Journal of Experimental Social Psychology, vol. 39, no. 5. Amsterdam: Elsevier.

Yee, N., & Bailenson, J. (2007). The Proteus Effect: The Effect of Transformed Self-Representation on Behavior. In Human Communication Research, vol. 33, no. 3. Oxford: Oxford University Press.

Yee, N., Bailenson, J., & Ducheneaut, N. (2009). The Proteus Effect. Implications of Transformed Digital Self-Representation on Online and Offline Behavior. In Communication Research, vol. 36, no. 2. New York: SAGE Publishing.

Zimbardo, P. G. (1969). The Human Choice: Individuation, Reason, and Order versus Deindividuation, Impulse, and Chaos. In W. J. Arnold, & D. Levine (eds.), Nebraska Symposium on Motivation, vol. 17. Lincoln: University of Nebraska Press.

 


“Ostipitalità” - Controversia di un concetto (anche) politico

Dopo la cosiddetta “crisi dei rifugiati” che ha segnato profondamente l’Europa e l’Italia negli ultimi anni, il concetto di ospitalità ha assunto una rilevanza centrale nel dibattito pubblico e politico. Lontano dall’essere un semplice gesto privato di gentilezza, l’ospitalità è diventata una posta in gioco etica e politica, un banco di prova per le democrazie contemporanee. Accogliere chi fugge da guerre, persecuzioni o condizioni di vita insostenibili significa oggi confrontarsi con domande fondamentali: chi ha diritto di entrare? Chi decide le condizioni dell’accoglienza? Quali obblighi morali e sociali comporta il prendersi cura dell’altro?

In questo contesto, l’ospitalità rivela tutta la sua ambivalenza. Da un lato, rappresenta un’apertura verso l’altro, un riconoscimento della sua vulnerabilità e un tentativo di costruire legami di solidarietà e coesistenza. Dall’altro, proprio nel momento in cui viene istituzionalizzata – attraverso leggi, regolamenti, dispositivi di controllo – l’ospitalità può diventare uno strumento di esclusione, di selezione, di subordinazione. Le pratiche di accoglienza si situano dunque in una zona grigia, dove generosità e potere, cura e controllo, si intrecciano in modi spesso contraddittori.

È in questo intreccio che diventa urgente interrogarsi sul significato profondo dell’ospitalità e sulle sue implicazioni nei confronti della cittadinanza, dell’identità e della giustizia sociale.

NON SAPPIAMO COSA SIA L’OSPITALITÀ

«Non sappiamo cosa sia l’ospitalità». Con questa frase, Jacques Derrida (2000: 7, Hostipitality) riassume tutta l’ambivalenza del gesto di accogliere. L’ospitalità non si può definire in astratto, perché prende forma solo dentro contesti concreti, attraversati da emozioni contrastanti, relazioni asimmetriche, limiti materiali. È proprio nello scarto tra l’ideale dell’accoglienza incondizionata e la pratica quotidiana che l’ospitalità rivela il suo carattere conflittuale. A prima vista appare come un gesto di apertura, generosità, cura verso l’altro. Ma basta osservarla da vicino per coglierne il lato meno rassicurante. L’ospitalità non è mai neutra: implica sempre una posizione di potere, una gerarchia, una condizione. E può facilmente trasformarsi in una forma sottile di controllo.

È a partire da questa tensione che Derrida elabora alla fine degli anni Novanta il concetto – oggi più attuale che mai – di ostipitalità, un neologismo che unisce “ospitalità” e “ostilità”. Con questa idea, il filosofo mette in luce il potere tacito di chi ospita nel fissare regole, limiti e condizioni dell’accoglienza. L’ospitalità, quindi, non è solo un gesto di solidarietà: è anche un dispositivo di normalizzazione. Il suo paradosso, per Derrida, sta proprio qui: promette apertura, ma la limita per mantenere l’autorità dell’ospitante.

In questo senso, ospitalità e cittadinanza sono concetti “gemelli”. Entrambi tracciano confini: tra chi ha diritto a restare e chi può solo transitare, tra chi appartiene e chi viene tollerato, tra chi stabilisce le regole e chi deve adeguarvisi.

IL DEBITO INVISIBILE

C’è poi un altro elemento meno evidente, ma altrettanto incisivo: l’aspettativa del “contro-dono”. Chi viene accolto dovrebbe, in qualche modo, ricambiare. Mostrare gratitudine, adattarsi, non disturbare. Come spiegava l’antropologo Marcel Mauss (1925), ogni dono porta con sé l’obbligo di rispondere. E l’ospitalità non fa eccezione. Anche quando è presentata come “incondizionata”, si accompagna spesso a richieste implicite: di rispetto, di conformità, di invisibilità. È così che la persona accolta entra in una posizione fragile: deve dimostrare di meritare l’ospitalità; deve evitare di apparire “troppo esigente” o “fuori posto”. L’asimmetria è evidente, anche se si presenta con il volto della solidarietà. Chi accoglie ha il potere di definire cosa è giusto, normale, accettabile. Chi è accolto deve adeguarsi.

ACCOGLIERE SELEZIONANDO

Uno degli aspetti più evidenti dell’ostipitalità italiana è la sua natura selettiva. Si accolgono alcuni, i “veri rifugiati”, i “profughi ucraini”, i “minori stranieri non accompagnati”, mentre altri vengono respinti, criminalizzati o semplicemente ignorati. Si costruiscono gerarchie di merito, in cui il diritto all’accoglienza dipende da criteri morali, politici o culturali. Le leggi sull’immigrazione, dalla Bossi-Fini ai decreti sicurezza, fino al recente “Piano Mattei”, consolidano questa distinzione, trasformando l’ospitalità in un privilegio riservato a chi si adatta, rispetta, non disturba.

Questo approccio prende forma nei dispositivi di governo: i CAS (Centri di Accoglienza Straordinaria) si aprono e si chiudono in base all’emergenza del momento; le commissioni territoriali decidono chi ha diritto a restare e chi deve andarsene; le frontiere (da Lampedusa al confine italo-sloveno) si trasformano in luoghi di ostilità permanente, dove ogni gesto di accoglienza appare come una minaccia da contenere. Anche il linguaggio è attraversato da questa logica ostile: termini come “clandestino”, “emergenza”, “degrado” servono a delegittimare l’idea stessa di accoglienza, trasformandola in problema, in anomalia da gestire o nascondere.

Nelle città, questa ostilità si riflette nello spazio: l’accoglienza è tollerata solo se invisibile, silenziosa, discreta. Laddove non è possibile renderla invisibile, si tenta di spostarla ai margini. Sempre più spesso, il compito dell’accoglienza viene lasciato al volontariato, mentre il welfare pubblico si ritira, ridotto a una presenza intermittente e inefficace. Così, l’ospitalità smette di essere un diritto e diventa un gesto condizionato, fragile, continuamente messo alla prova.

VIVERE L’OSPITALITÀ

Eppure, tra ospitalità e ostilità esiste una zona grigia, fatta di pratiche quotidiane: è in questa zona che si muovono i volontari, i mediatori, gli operatori sociali. Il caso delle “famiglie accoglienti” – famiglie che accolgono nella loro abitazione un rifugiato per un tempo che va da poche settimane fino, in rari casi, a molti anni – è un esempio concreto dell’esperienza paradossale e dilemmatica dell’ospitalità. Come messo in evidenza da alcune ricerche (Sperandio e Lampredi, 2024), è in queste pratiche concrete che nascono dilemmi che possono diventare profondamente politici: come rispettare l’altro senza annullare le proprie abitudini? Come evitare di imporre? Come convivere con differenze radicali? Sono momenti scomodi, ma preziosi, perché mettono in discussione l’idea stessa di appartenenza, sicurezza, normalità. L’ospitalità, allora, non è più solo un gesto di apertura, ma un processo di apprendimento. Non è una concessione, ma una relazione da coltivare, sbagliare, ripensare. Queste pratiche mostrano che l’ospitalità è un processo fragile e trasformativo, non una condizione data. È qualcosa che si costruisce, e si mette in discussione, ogni giorno, nei rapporti concreti con l’altro. È proprio nel confronto con le contraddizioni che può emergere un senso più profondo di responsabilità e giustizia.

CONCLUSIONE: NON INVISIBILIZZARE LE CONTROVERSIE DELL’OSPITALITÀ, MA AFFRONTARLE

La vera sfida, allora, non è eliminare (o invisibilizzare) l’ambiguità dell’ospitalità, ma imparare a riconoscerla e ad attraversarla. Significa costruire forme di convivenza che non cancellino la differenza, che non trasformino la solidarietà in paternalismo, che non implichino silenziosamente un dovere di riconoscenza. Significa anche accettare che l’ospitalità, per essere davvero etica e politica, deve saper trasformare le sue imperfezioni in occasioni per rivalutare costantemente le radici etico-politiche del vivere comune. Deve esporsi al rischio del fraintendimento, del conflitto, dell’errore. Solo così può diventare, davvero, un’apertura all’altro – non come proiezione dei nostri ideali, ma come incontro imprevedibile e trasformativo. In un’epoca in cui l’ospitalità è invocata tanto per includere quanto per escludere, riflettere sul suo carattere paradossale non è un lusso teorico. È un’urgenza politica.

 

 

RIFERIMENTI BIBLIOGRAFICI

Derrida, J. (2000). Hostipitality. Angelaki: Journal of Theoretical Humanities5(3), 3-18.

Mauss, M. (1925). Essai sur le don. Forme et raison de l’échange dans les sociétés archaïques. L’Année sociologique, 1(2), 30–186.

Sperandio, E., & Lampredi, G. (2024). From hospitality to dwelling: a lens for migrant homesharing in Italy. Journal of Ethnic and Migration Studies, 1-19. https://doi.org/10.1080/1369183X.2024.2346618


Un'ombra sulla democratizzazione della tecnoscienza - Il fallimento della consultazione nazionale CNAPI

Nell’articolo precedente abbiamo provato a dare un’idea di cosa sia il progetto del Deposito Nazionale delle scorie radioattive e della situazione di stallo in cui versa – in questo momento – tra una legge approvata nel 2011 e l’apparente cambiamento di piani enunciato dal Ministro dell’Ambiente meno di un mese fa.

Abbiamo anche accennato che il processo di identificazione della località dove costruire il Deposito1 doveva passare attraverso la Consultazione Pubblica, un iter che prevede la discussione pubblica, con «tutti i soggetti interessati alla realizzazione e all’esercizio del deposito, inclusi i comuni in cui potrebbero essere localizzati, le regioni coinvolte, le associazioni ambientaliste e i cittadini residenti nelle aree interessate».

OBIETTIVI DELLA CONSULTAZIONE PUBBLICA

Nel disegno delineato da Sogin, la Consultazione Pubblica aveva tre obiettivi:

  • il primo, di ampio respiro, era spiegare a tutti gli stakeholder coinvolti cos’è il Deposito, perché è necessario farlo, come viene fatto e perché non comporta rischi significativi per l’ambiente e la popolazione;
  • il secondo obiettivo era arrivare alla Carta Nazionale delle Aree Idonee per la costruzione del deposito escludendo quelle 2 che – sulla base delle considerazioni fatte dagli interessati – presentano delle criticità ancora non considerate;
  • il terzo, il più importante di tutti, era stimolare la candidatura di alcune delle Aree giudicate Idonee a luogo in cui costruire il Deposito.

COME SI FA LA CONSULTAZIONE POPOLARE

La Consultazione Popolare è costituita da un ciclo – chiamato Seminario Nazionale - di 10 sessioni: 2 plenarie di apertura e di chiusura dei lavori, una nazionale e una sessione per ciascuna delle 7 Regioni 3 in cui si trovano il 67 siti potenzialmente idonei.

Le sessioni e le relative discussioni sono tenute in video conferenza 4 e trasmesse in streaming in tempo reale, può partecipare chiunque, istituzioni, associazioni, privati cittadini.

La struttura delle sessioni, ripetuta quasi identicamente per ogni regione, è in forma di dialogo contradditorio, con:

  • la componente promotrice del Progetto, costituita da Sogin, ISIN 5, Nucleco 6, le Università direttamente coinvolte nel progetto o nei Seminari;
  • le parti portatici di interessi potenzialmente contrari o di richieste di chiarimento, come le Regioni, le Provincie, i Comuni, le Arpa 7, i rappresentanti degli agricoltori, le associazioni ambientaliste.

Il colloquio procede secondo uno schema di narrazione, obiezioni, risposte alle obiezioni, conclusione istituzionale; all’interno del confronto è prevista una sessione di domande fatte dai partecipanti – inclusi i cittadini – e di relative risposte da parte del responsabile del progetto: l’Ing. Chiaravalli di Sogin.

Ogni sessione è seguita da una sintesi e da una formalizzazione dei risultati.

A titolo di esempio, ecco il programma della Sessione dedicata a Basilicata e Puglia:

In filigrana, nello svolgimento dei Seminari si intuisce che:

  • Sogin domina il contraddittorio da una posizione cattedratica: è il referente delle domande, fornisce chiarimenti e neutralizza le obiezioni;
  • il confronto mira a neutralizzare le obiezioni sull’impianto generale del progetto, a convincere gli ascoltatori della necessità e non pericolosità del Deposito. Solo occasionalmente censisce fattori di esclusione di alcuni siti.

QUALI DUBBI E OBIEZIONI SONO EMERSI?

Nelle sintesi degli incontri sono riportate le principali classi di obiezioni emerse durante i seminari. Sogin identifica due classi di argomenti ricorrenti:

  • quelli di carattere generale (non direttamente collegati ai territori interessati dalla CNAPI);
  • quelli legati direttamente alla CNAPI e all’applicazione dei Criteri di localizzazione della Guida Tecnica n. 29 (Sintesi Sessione Piemonte) 8.

Nel secondo gruppo figurano problemi come:

  • aspetti geologici locali (ad esempio: sismicità locale o particolarità idrogeologiche) non considerati che potrebbero sconsigliare la localizzazione in una determinata area;
  • la presenza di aree naturali protette, di habitat faunistici, di direttive protezionistiche, quale, ad esempio, il Geoparco degli etruschi, in Lazio (Sintesi Sessione Lazio);
  • la «presenza di coltivazioni di prodotti di pregio e la presenza di zone sottoposte a vincolo di tutela ambientale e dei beni culturali» o una concentrazione abitativa superiore a quanto rilevato (Restituzione dei lavori – Sessione Sicilia);
  • possibili difficoltà logistiche, quali le condizioni dei trasporti e delle strade 9.

Questo genere di obiezioni è stato preso in considerazione dal Progetto 10 e ha portato all’esclusione di 16 siti potenzialmente idonei dalla Carta definitiva delle Aree Idonee, che ne contiene solo 51.

Scrive Sogin nella Sintesi della Sessione Lazio: «i temi affrontati e le indicazioni pervenute costituiscono un arricchimento della sua base conoscitiva, integrando le descrizioni preliminari fornite nelle Relazioni d’Area pubblicate a corredo della CNAPI […] Le tematiche evidenziate […] saranno debitamente tenute in conto nel corso delle eventuali successive fasi del processo di caratterizzazione. Le segnalazioni di potenziali criticità ed elementi di attenzione […] completeranno l’insieme delle conoscenze attualmente disponibili per ognuna delle API e integreranno la base conoscitiva a partire dalla quale verrà eventualmente elaborato il Piano di Indagine per la caratterizzazione tecnica di dettaglio delle aree idonee».

 


In questo senso, si può sostenere che la Consultazione Pubblica abbia raggiunto uno degli obiettivi: disegnare la mappa dei siti in cui è effettivamente possibile – visto il parere degli stakeholder nazionali e locali - costruire il Deposito Nazionale delle scorie radioattive.


Nella prima classe di obiezioni espresse dagli stakeholder, invece, ricadono temi quali:

  • il mancato coinvolgimento nella decisione sui criteri per le Aree Potenzialmente Idonee;
  • la mancata considerazione di principi rilevanti quali, ad esempio, la presenza di coltivazioni di prodotti di pregio (Coldiretti), di aree protette (WWF, LegaAmbiente), di vincoli dei beni culturali, che avrebbero potuto delineare con maggiore precisione la mappa di idoneità;
  • la visione datata del territorio, in termini di densità abitativa, di antropizzazione, di tutele e di evoluzione dei vicoli, a causa del fatto che il Progetto è nato nel 2011, che le osservazioni spesso sono precedenti a quella data e che il Seminario si tiene nel 2021;
  • la componente reputazionale dei territori, molti dei quali hanno una forte identità turistica – accentuata dal turismo di wilderness – che può essere messa in crisi dalla presenza del Deposito;
  • la modalità eccessivamente strutturata e rigida della Consultazione Pubblica;
  • infine, una serie di domande e obiezioni generali sulla pericolosità del Deposito, sull’opportunità di realizzarlo, sulla forma e sui contenuti del progetto 11.

Queste domande e obiezioni sono state neutralizzate dalle risposte di Sogin, che ha difeso, giustificato e sostenuto – di fatto senza possibilità di replica – l’adeguatezza del progetto e della consultazione, senza però – sembrerebbe dal tenore delle domande della Sessione conclusiva 12 – placare più di tanto i timori degli stakeholder.

IL FALLIMENTO DELLA DEMOCRATIZZAZIONE DELLA DECISIONE

Il terzo obiettivo della Consultazione Pubblica, quello di stimolare le candidature degli enti locali come aree obiettivo per la localizzazione del Deposito, è stato, invece, platealmente mancato.

Come abbiamo già visto, nessun Ente locale, fatto salvo per il Comune di Trino Vercellese che però non fa parte delle Aree Idonee, ha manifestato interesse ad ospitare il Deposito, vanificando di fatto lo sforzo organizzativo ed economico della Consultazione.

Tuttavia, è evidente che:

  1. la forma di road-show 13 con esposizione frontale e risposta alle obiezioni, adottata da Sogin per la consultazione pubblica, ha certamente favorito la contrapposizione tra il Progetto e le obiezioni, tra Sogin e le comunità locali;
  2. la segmentazione temporale e spaziale, regione per regione, dei lavori ha lasciato campo libero alla fuga dalla responsabilità, aggiungendo alla posizione NIMBY quella dello “scaricabarile” verso il successivo attore consultato;
  3. lo scarso coinvolgimento iniziale dei diversi attori e la mancanza sia di una fase co-creazione dei presupposti e dei valori dell’iniziativa, che di una adeguata “traduzione” del progetto e di un progressivo “arruolamento”, nei confronti delle comunità locali 14, hanno minato alla base il processo.

DARE SPAZIO AL DECISIONISMO OPPURE RIPROVARCI?

Si possono, ora delineare due possibili percorsi per uscire dall’impasse: il primo è – banalmente – che Sogin abdichi al ruolo (mal recitato, finora) di primus inter pares, che cerca di mettere d’accordo le istanze di tutti gli attori coinvolti, e la decisione passi nelle mani del Governo.

Tuttavia, dato che la mappa delle aree idonee, gli stakeholder e le obiezioni sono note a tutti e che – soprattutto – il fattore tempo non è ancora così stringente, si può pensare di fare un passo indietro e salvare l’idea della democratizzazione del processo di localizzazione.

Si può, forse, adottare un approccio co-creativo di maggiore coinvolgimento, sollecitare un dialogo paritetico tra tutti gli stakeholder, dedicare tempo e energie a esplicitare le scale valoriali locali, e condividere il valore irrinunciabile della realizzazione del deposito, l’analisi del rischio, le ragioni del timore, le opportunità, le regole per la localizzazione; si possono stimare le condizioni per l’alternativa di più siti, la componente economica, i vantaggi e le rinunce che comportano le diverse soluzioni – per sceglierne una che conti sull’adesione convinta di tutti.

Tuttavia, il fallimento di questo genuino 15 tentativo di coinvolgimento degli stakeholder getta un’ombra 16 inquietante sull’applicabilità del principio di democratizzazione delle decisioni tecnoscientifiche; perlomeno nei casi – come questo – di rilievo sociale e politico di grande respiro, con numerosi e variegati interessi coinvolti, che richiedano una forte assunzione di responsabilità da parte di alcuni segmenti di popolazione, il cui senso – soprattutto – sia legato a questioni ideologiche.

È possibile che alcune di queste decisioni, il cui oggetto ha carattere tecnoscientifico ma che sono così strettamente legate al sociale e al politico, implicano in ogni caso lo scontento di qualcuno: devono quindi essere affrontate con un articolato processo di ascolto degli interessi e dei potenziali vincoli, ma devono poi per forza convergere in una presa di responsabilità, informata e trasparente, ad opera di chi governa super partes.

 

 

 

NOTE:

1 Nell’ipotesi di legge, uno solo, centralizzato, in un’unica località.
2 Contenute nella CNAPI, proposta delle Aree Potenzialmente Idonee
3 Sicilia, Sardegna, Basilicata, Puglia, Toscana, Lazio e Piemonte
4 Va ricordato che il ciclo di incontri è stato effettuato da settembre a dicembre 2021, quando ancora erano ni vigore molte delle misure restrittive per la pandemia Covid-19.
6 Nucleco è la società del Gruppo Sogin leader in Italia nel campo dei servizi radiologici, nella gestione dei rifiuti radioattivi e nelle attività di decontaminazione e bonifica di impianti nucleari e siti industriali
7 Agenzie regionali per la Protezione dell’Ambiente
8 In questo caso si tratta delle considerazioni sintetiche sulla Sessione fatta in Piemonte, ma la classificazione non varia per le altre sessioni
10 Progetto inteso come Sogin e tutta l’organizzazione che ha sviluppato il progetto del Deposito e la dinamicha di confronto con gli stakeholder
11 È esemplare la considerazione di una privata cittadina, rivolta alla moderatrice, che avrebbe dovuto garantire il dialogo e il confronto: «Gent.le Dottoressa Romano non ritiene che la short list delle aree potenzialmente idonee che entreranno nella CNAI sia già stata scritta, relegando il compassato Seminario autogestito da Sogin, giudice di se stesso nell’intero arco del confronto, ad una operazione dovuta ma priva di reale significato? Non ritiene che limitando progressivamente la evidenziazione dei contributi degli stakeholder, prima con una irragionevole limitazione nella esposizione e, successivamente, con una”restituzione” in forma di abstract, releghi il Seminario ad una operazione di facciata?» Si veda la Trascrizione degli interventi degli stakeholder, Regione Lazio, in https://www.depositonazionale.it/documenti/pagine/documenti-seminario-nazionale.aspx
13 Modello di pubblicizzazione mutuato dalle iniziative di business
14 Arruolamento per il quale non mancano concreti elementi di opportunità, primi fra tutti l’incremento di occupazione e di prodotto interno offerti dai cantieri di realizzazione
15 Chi scrive è stato testimone diretto, nel corso di momenti di lavoro con Sogin, della buona fede e della genuinità del progetto di confronto con gli stakeholder.

Nell’Ottocento, le donne avevano meno talento musicale degli uomini?

Questa che può sembrare oggi un’affermazione ridicola, è stata per un certo periodo la convinzione di molti critici musicali nella Vienna dell'Ottocento.

Ma anche oggi ci sono convinzioni simili. Ad esempio, nel tennis, come Vittorio Pentimalli ha mostrato in un post precedente.

A quel tempo, secondo molti critici musicali, le pianiste non suonavano la musica di Beethoven (1770-1827) bene quanto i pianisti uomini. Essi ritenevano che il motivo risiedesse nel talento. Quindi, se il talento (A) determinava un’esecuzione eccellente (B), allora le donne erano meno talentuose degli uomini.

Tuttavia, questa relazione causale era alquanto sospetta, come la sociologa statunitense Tia DeNora (1995; 2002) ha avuto modo di documentare ricostruendo il contesto sociale dell'epoca. La studiosa osserva, infatti, che nei cinquant’anni prima dell'avvento di Beethoven, sia i pianisti uomini che le donne si esibivano in pubblico con eccellenti performance e valutazioni. Come mai cinquant’anni dopo, si chiede DeNora, le donne erano diventate così mediocri? Lei nota che Beethoven innovò non solo la musica dell'epoca, ma anche il modo di eseguirla, da cui lo stereotipo del musicista romantico: bello, dannato, appassionato, disinvolto, che si esprime liberamente, che lascia andare il suo corpo, si agita, si dimena, da sfogo alle proprie emozioni.

Ci si può chiedere: una donna poteva esibirsi in questo modo? Non proprio, perché le convenzioni sociali dell'epoca non lo permettevano. Infatti, le donne dovevano apparire sobrie e dignitose nelle loro esibizioni pubbliche al pianoforte. Persino il loro abbigliamento era studiato per ricordare loro come muoversi sul palco: corpetti attillati con scollature profonde (per mettere in mostra collane e gioielli) ne limitavano i movimenti.

 

 

Capite bene che, dentro questi vestiti, era complicato muoversi liberamente al pianoforte. 

Molto più facile se vestite così:

 

Yuja Wang Valentina Lisitsa Irene Veneziano

 

DeNora osserva, inoltre, che gli strumenti a fiato erano già stati preclusi alle donne perché suonarli richiedeva posture “poco femminili” e smorfie sconvenienti per una donna, ma accettabili per un uomo.

 

 

Solo il flauto era compatibile con l’estetica (facciale) femminile del tempo…

 

 

In conclusione, era la variabile interveniente (C) ovvero l'etichetta dell'epoca che influenzava sia il (presunto) talento che l'esecuzione musicale. Non era la musica di Beethoven in sé, ma le convenzioni sociali dell'epoca che impedivano alle donne di suonare come richiedeva la moda del momento.

 

Tuttavia, questa riflessione non riguarda solo il passato. Ma, un po’, vale anche per oggi. Se guardiamo l’attività artistica contemporanea, ci accorgeremo che in certi generi musicali gli uomini sono stranamente sovrarappresentati. Infatti, ci sono relativamente poche donne musiciste (tolte le “semplici” cantanti) nel rock, nel folk, nel jazz, nel trap ecc. Gli uomini sono in misura maggiore. Come mai? 

La risposta richiederebbe un altro post…

La cosa “strana” è che la musica classica (genere musicale considerato vecchio, conservatore, del passato) offre alle donne più chance per lavorare ed (eventualmente) emergere che i generi sopra citati, considerati moderni, innovativi, trasgressivi. 

È solo un paradosso?

 

 

RIFERIMENTI BIBLIOGRAFICI:

DeNora, T. (1995) ‘Gendering the piano: repertory, technology and bodily discipline in Beethoven’s Vienna’. Paper presented to the Center for Research into Innovation, Culture and Technology Workshop, Brunel University, London.

DeNora, T. (2002) ‘Music into action: performing gender on the Viennese concert stage, 1790–1810’, Poetics, 30(2): 19–33.


Doping libero: fine di una ipocrisia o pericolosa buffonata?

Prima o poi doveva succedere che qualcuno si inventasse una manifestazione sportiva in cui gli atleti possono assumere qualsiasi sostanza per incrementare le loro prestazioni, naturalmente incluse le sostanze dopanti proibite dai regolamenti internazionali.

È successo con la nascita degli “Enhanced Games”. Nelle intenzioni degli organizzatori (tra cui Donald Trump junior), nel 2026 verranno organizzati dei giochi che prevedono solo discipline di velocità in pista e in piscina e sollevamento pesi in cui, appunto, gareggeranno atleti liberi di assumere qualsiasi prodotto che possa rinforzare le loro prestazioni.

Discipline, quelle previste da questi giochi, dove serve potenza muscolare: e cosa c’è di meglio per potenziare i muscoli (insieme all’allenamento)? 

Gli steroidi anabolizzanti, ca va sans dire. Ovvero quelle sostanze che si vendono, neanche tanto di sottobanco, in tutte le palestre per body builder e che prendevano abbondantemente molti atleti olimpici negli anni ‘80, prima che i controlli diventassero seri. 

Qualcuno si ricorda l’aspetto di Ben Johnson, vincitore dei 100 metri piani alle Olimpiadi di Seul dell’88? Un’impressionante montagna di muscoli; lo sapevano anche le pietre che il canadese era dopato; una massa muscolare così ipertrofica è impossibile col solo allenamento; ma venne “beccato” positivo solo a Seul, il suo oro revocato e da quel giorno i controlli divennero finalmente più scrupolosi.

Ma Johnson non era che la punta di un iceberg di gente che correva (o nuotava, o sollevava pesi) dopandosi; lui si fece prendere con le mani nel sacco per una forma di delirio da onnipotenza che lo fece andare oltre, e perché si fidò troppo dell’andazzo dei controlli decisamente blando. D’altro canto al business dello sport piaceva molto che ci fossero campioni e campionesse (Florence Griffith Joyner su tutte) che battevano in continuazione record, alimentando la macchina dell’interesse generale. 

In quell’Olimpiade Ben “vinse” con il tempo di 9.79, record del mondo, ovviamente non omologato appena venne alla luce la sua positività. Ma in quella gara anche il secondo, terzo e quarto scesero sotto i 10 secondi netti. La gara più veloce della storia, con tutti atleti dopati, compreso il magnifico Carl Lewis che ereditò l’oro di Johnson e così doppiò l’oro (quello forse pulito) di Los Angeles ’84.

Nel frattempo, nel mondo del comunismo reale si favoriva spudoratamente il doping di Stato, perché gli atleti vincenti portavano “gloria” alla causa anticapitalista…

È un dato di fatto che in tutte le discipline, sia in quelle di potenza che in quelle di resistenza, da sempre moltissimi atleti sono pronti a barare pur di cercare di vincere, raggiungere fama e denaro. Ed è un dato di fatto che da sempre l’antidoping “insegue”, alla ricerca dei modi sempre nuovi di doparsi aggirando le regole. 

Forse, e ripeto forse, negli ultimi anni tra gli atleti di un po’ tutte le discipline si è diffuso un maggior senso di responsabilità. Etica? Educazione? Rispetto? Un po’ tutto, ma anche la consapevolezza che uno sport che ha perso certezza e credibilità non interessa più a nessuno. La crisi del ciclismo dopo gli scandali che hanno travolto numerosissimi atleti per 20 – 30 anni, è stata quasi irreversibile e il grande ritorno di interesse di questi anni si basa sulla fiducia degli appassionati sulla “pulizia” degli atleti più forti di oggi. 

E poi, certamente, adesso i controlli sono severi e realizzati con apparecchiature molto efficaci.

Allora la domanda è: se adesso finalmente possiamo vedere dello sport in cui abbiamo la ragionevole certezza che si sfidano atleti che partono tutti dalla stessa situazione e dove chi vince è perché ha una superiorità non costruita chimicamente, perché proprio adesso sdoganare giochi dove tutto è permesso? E dove si ripropongono due problemi: uno, serissimo, relativo all’integrità fisica degli atleti; il secondo che riguarda potenziali disparità di partenza (possibilità di doparsi con prodotti più efficaci di altri).

La risposta credo sia ovvia, business. Il nuotatore greco che ha fatto questo record del mondo sui 50 stile libero in ottica Enhanced Games (ovviamente è un record del mondo farlocco, che non vale per nessuna organizzazione ufficiale dello sport) ha guadagnato un milione di dollari.

Il suo nome è Kristian Gkolomeev e rispetto a quando nuotava in competizioni ufficiali (è arrivato quinto in finale alle Olimpiadi di Parigi dello scorso anno), ha aumentato di 4 kg la sua massa muscolare e abbassato il suo tempo sui 50 stile libero  di 7 decimi di secondo, scendendo a 20,89, tempo che se realizzato senza doping sarebbe record del mondo.

Da quando ha abbandonato il nuoto ufficiale ed è entrato nel giro degli Enhanced Games, Kristian assume regolarmente steroidi anabolizzanti.

Cosa succederà quindi ai giochi per dopati del prossimo anno? (Che ovviamente si terranno a Las Vegas… effettivamente non vedo un posto più adatto).

È probabile che vedremo un gran numero di atleti non di primissima fascia alla ricerca di quella notorietà che non erano riusciti ad ottenere nel mondo dello sport ufficiale.

Gli organizzatori degli Enhanced Games vogliono dimostrare che l’asticella dei limiti umani si può spostare molto più in alto e che le regole servono solo a tarpare le potenzialità degli atleti.

Ma assumere sostanze dopanti in quantità che diventeranno sempre maggiori nel costante inseguimento della prestazione più elevata è una follia. L’antidoping non serve solo a far sì che gli atleti partano tutti da una situazione paritaria, è anche e soprattutto una tutela per la salute degli atleti stessi.

Tutti i danni delle sostanze dopanti sono ampiamente provati da migliaia di studi. Fra l’altro l’assunzione di grandi quantità di anabolizzanti danneggia irreversibilmente il cervello e scatena crisi di rabbia e violenza incontrollabili (casi Benoit e Pistorius, ad esempio). 

Gli Enhanced Games sono quindi un modo cinico di provare a fare business alla faccia delle più elementari norme di tutela della salute per gli atleti, con il pretesto risibile del liberare le reali potenzialità umane.

Si potrebbe anche obiettare che il doping è sempre esistito, ed è vero, ma resta un’obiezione debole. Perché anche il doping meno sofisticato del passato ha ucciso (ad esempio il caso Simpson al Tour de France del ’67; oppure le morti sospette di calciatori a cui negli anni ’70 venivano dati farmaci per cardiopatici con l’intento di alzare la soglia della percezione della fatica; ma ci sono casi molto dubbi anche più recenti, il notissimo calciatore Gianluca Vialli, morto due anni fa di tumore, aveva cambiato repentinamente la sua struttura fisica quando era passato a giocare dalla Sampdoria alla Juventus). E ucciderà anche il doping più scientifico di oggi. È questo che vuole il business dei record?

Però, a giudicare dai primi commenti della stampa, degli addetti ai lavori e anche della gente comune che ama lo sport, ci sono fondatissime speranze che questa folle sciocchezza si riveli un flop totale.

È possibile che in questo caso ci sia un limite al peggio.


Giochi di società. La simulazione in antropologia per apprendere e re-inventare i fenomeni sociali

La vicenda è ormai abbastanza nota. Monopoli, il popolarissimo gioco da tavolo, altro non è che il figlioccio un po' guastato di un altro gioco, The Landlord’s Game, inventato all’inizio del secolo scorso. A inventare il gioco fu Elisabeth Magie – donna eclettica e progressista, scrittrice e stenografa – che lo concepì come strumento di apprendimento: «è una dimostrazione pratica dell’attuale sistema di land-grabbing, dei suoi esiti reali e delle sue conseguenze» (Pilon, 2015). Il gioco prevedeva infatti due sistemi di regole. Uno era quello con cui pressappoco si gioca ancora oggi: giocatrici e giocatori si confrontano per acquisire terreni, costruire case e alberghi, impoverire gli avversari. L’altro sistema si basava invece su una ben precisa teoria economica, la cosiddetta “single tax”, avanzata dall’economista Henry George. George proponeva di tassare esclusivamente i terreni per poi redistribuire i profitti a cittadine e cittadini. Analogamente, nel sistema di regole anti-monopoliste ideato da Magie, i giocatori pagavano le tasse sulle proprietà acquisite ed erano poi costretti a dividere i guadagni, così che a trarre vantaggio dalla loro ricchezza fossero anche tutti gli altri giocatori. Magie registrò il brevetto nel 1903, il gioco iniziò a circolare nelle case americane, e infine venne venduto, nella versione tuttora giocata, a una casa editrice di giochi da un uomo disoccupato che sosteneva di averlo inventato.

Oltre ad essere una luminosa parabola sull’appropriazione capitalista e sull’invisibilizzazione del lavoro femminile (nel senso di un gioco inventato da una donna, i cui profitti dell’invenzione andarono a un altro), il concepimento di The Landlord’s Game presenta un ulteriore elemento di interesse: il nesso tra giochi e società, tra rappresentazione di una realtà o di un problema sociale e la possibilità, attraverso l’attività ludica, di ridefinirne i contorni e di esplorarne scenari alternativi. Si tratta di un nesso che negli ultimi anni è stato particolarmente sviluppato nell’ambito degli studi sociali della Scienza e della Tecnologia (STS). Sia nella loro fase di design e di sviluppo sia in quella più propriamente ludica, i giochi sono stati infatti descritti e utilizzati come strumenti attraverso cui simulare, apprendere o re-inventare i fenomeni sociali oggetto di studio antropologico e sociologico. Il cambio di prospettiva intrinseco al giocare (si gioca sempre in prima persona, che sia una partita a dadi o un gioco di ruolo) consente infatti di sperimentare in modo più diretto le dinamiche, le strutture di potere, le possibili forme di collaborazione o di competizione che caratterizzano un certo contesto. D’altra parte, la progettazione di un gioco ispirato a un determinato contesto o problema sociale può rappresentare un momento estremamente produttivo in termini etnografici. Attraverso il design di un gioco, ricercatrici e ricercatori hanno infatti la possibilità di riflettere sulla propria attività di ricerca sul campo. Alla luce di queste caratteristiche, l’interesse per le potenzialità etnografiche dei giochi va inserita all’interno di una più ampia riflessione sui metodi delle scienze sociali e sulla loro componente creativa e performativa.

«Gli approcci creativi (inventive) tendono a considerare la performatività (enactment) dei fenomeni sociali non come un argomento da esporre o descrivere, ma come un compito o una sfida di ricerca: possiamo farcela? Possiamo contribuire all'articolazione creativa dei fenomeni sociali?» (Marres et al. 2018, p. 25, mia traduzione)

Aspetto importante di questi approcci è anche il tentativo di emanciparsi dal predominio del testo e delle parole, per abbracciare metodi in cui siano le interazioni tra oggetti, immagini, suoni e corpi a costituire tanto il dato antropologico quanto le modalità di incontro etnografico. Si tratta di un approccio multisensioriale alla pratica antropologica il cui obiettivo è appunto inventare diverse modalità di partecipazione, collaborazione e apprendimento tra i vari soggetti coinvolti (Dattatreyan & MarreroGuillamón (2019). In questa prospettiva, creare giochi ispirati a un sito di ricerca etnografica, e poi testarli con i soggetti coinvolti da tale ricerca, costituisce un’interessante possibilità per simulare quelle realtà oppure per re-inventarle e re-immaginarle. L’eterogeneità dei giochi offre inoltre la possibilità di sperimentare diverse modalità di partecipazione: giochi di ruolo o di strategia, collaborativi o competitivi, da tavolo o digitali. Alcune caratteristiche sembrano però essere comuni a tutti i giochi. Secondo lo storico olandese Johan Huizinga, giocare è un'attività volontaria e disinteressata, circoscritta sia nello spazio che nel tempo, e definita dalla tensione legata alla sconfitta dell'avversario o al raggiungimento di qualcosa di difficile. La combinazione di questi tratti rende il gioco «un'attività libera che si colloca consapevolmente al di fuori della 'vita ordinaria' come 'non seria', ma che allo stesso tempo assorbe intensamente e totalmente il giocatore» (Huizinga 1949, p. 13). A queste caratteristiche se ne possono aggiungere altre che, come sostiene l’antropologo Joseph Dumit, rendono i giochi uno strumento pedagogico particolarmente utile nell’insegnamento delle scienze sociali (Dumit 2018). Nell’attività ludica, decisioni, conseguenze e sfortuna vengono infatti vissute in prima persona, consentendo quindi ai giocatori di vivere ed esperire dal proprio punto di vista la complessità delle strutture sociali riprodotte nel gioco, ad esempio le asimmetrie informative e le relazioni di potere che le attraversano. Per queste ragioni, la creazione di giochi (game design) può rappresentare un utile strumento per sollecitare gli studenti a riflettere sui sistemi sociotecnici. Dumit porta l’esempio di un gioco sul fracking, ovvero l’estrazione di petrolio e di gas naturale attraverso l’utilizzo della pressione dell’acqua. La ricerca per il design del gioco, spiega Dumit, ha portato gli studenti a individuare i vari attori coinvolti, a mappare le dinamiche tra le società di fracking, a problematizzare il ruolo dei media e delle notizie giornalistiche nell’articolare tali dinamiche.

Mentre Dumit sottolinea il valore pedagogico nell’ideare giochi inerenti a realtà sociali solitamente oggetto di indagine, gli antropologi Tomas Criado e Ignacio Farías illustrano come sviluppare e testare giochi produca nuove possibilità etnografiche (Farías & Criado 2022). I giochi da loro discussi sono stati creati insieme ai loro studenti e sono inspirati ai conflitti tra proprietari di case e affittuari, un tema particolarmente sentito e delicato nel mercato immobiliare contemporaneo. Lo sviluppo dei giochi ha dato luogo a una doppia dinamica tra ricerca etnografica e creazione delle regole e dei materiali dei giochi. Da un lato, l’esigenza, alla luce della ricerca svolta sul campo, di evitare rappresentazioni stereotipate delle persone rappresentate nel gioco (proprietari, affittuari, attivisti, avvocati). Dall’altro l’anticipazione e la proiezione di siti etnografici non ancora esplorati ma tuttavia inclusi nelle dinamiche dei giochi per renderli più verosimili. Provare i giochi (game testing) con persone effettivamente coinvolte nella crisi immobiliare ha funzionato invece come strumento di riflessione sul potenziale valore politico ed etnografico dei giochi. Per questa ragione, Farías e Criado sostengono che i giochi possono creare le condizioni per forme di ragionamento para-etnografico1. I giocatori erano infatti portati a fare costanti collegamenti tra le dinamiche e le situazioni scaturite dal gioco e le loro esperienze, emozioni e opinioni sui temi del gioco.

Questa incompleta rassegna ha tentato di identificare due diverse potenzialità di utilizzo dei giochi in ambito antropologico e sociologico.

In primo luogo, i giochi possono essere utilizzati come strumento per riflettere sulle dinamiche di un certo contesto economico (il land-grabbing, il mercato immobiliare) o di un determinato sistema socio-tecnico (il fracking). La possibilità di esperire in prima persona le dinamiche che caratterizzano quei contesti produce un “salto epistemologico” che può aiutare a comprenderle meglio. Non si tratta però di un approccio puramente conservativo, che si limita a riprodurre l’esistente. Al contrario, come Elizabeth Magie aveva intuito, i giochi possono aiutare a inventare e a mettere in atto realtà alternative, scenari possibili.

In secondo luogo, lo sviluppo di un gioco può essere utile a ricercatrici e ricercatori per ragionare sui dati e sugli elementi emersi durante la ricerca etnografica. In questo senso, lo sviluppo di un gioco può essere interpretato anche come la traduzione in regole, obiettivi e narrazioni della propria ricerca etnografica e quindi come un’attività che consente di svelare e di problematizzare alcune delle assunzioni e dei preconcetti che inevitabilmente la influenzano.

In conclusione, se è vero, come sostiene Huizinga, che giocare è un’attività non seria, tendenzialmente divertente e spensierata, sembra altrettanto vero che i processi di immedesimazione e di riflessione impliciti in moltissimi giochi li rendono anche dei formidabili dispositivi di critica e di indagine sociale.

 

 

RIFERIMENTI BIBLIOGRAFICI:

Dattatreyan, E. G. & Marrero‐Guillamón, I. (2019). Introduction: Multimodal Anthropology and the Politics of Invention. American Anthropologist, 121(1), 220–28.

Dumit, J. (2017). Game Design as STS Research, Engaging Science, Technology, and Society, 3, 603-612

Farías, I. & Criado, T. S. (2022). How to game ethnography. In Criado, T. S. and Estalella, A. (eds.). An Ethnographic Inventory: Field Devices for Anthropological Inquiries. London: Routledge.

Holmes, Douglas R., and George E. Marcus. 2008. “Para-Ethnography.” In The SAGE Encyclopaedia of Qualitative Research Methods, edited by Lisa Given, 595–97. Thousand Oaks: Sage

Huizinga, J. (1949): Homo Ludens. A Study of the Play-Element in Culture. London, Boston, and Henley: Routledge & Kegan Paul.

Marres, N., Guggenheim, M. & Wilkie, A. (2018). Inventing the Social. Manchester: Mattering Press.

Pilon, M, (2015). Monopoly’s Inventor: The Progressive Who Didn’t Pass ‘Go’, The New York Times, 13 febbraio.

 

 

NOTE:

1 La nozione di para-etnografia intende evidenziare come la ricerca etnografica debba in quella modo essere re-imparata e ri-modulata in contesti caratterizzati da una significativa riflessività da parte dei soggetti di studio (Holmes & Marcus 2008)

Ontologie dell’Intelligenza Artificiale

Parlare di intelligenza artificiale senza ricadere nella trita contrapposizione tra la visione “apocalittica” e quella “integrata” (che possono ben coesistere, ne ho parlato qui) è uno dei compiti che Controversie sta perseguendo dalle prime uscite nell’ottobre del 2023, con più di 40 articoli a tema.

In questo percorso abbiamo lavorato sulla dimensione morale correlata all’utilizzo delle tecnologie intelligenti (e innovative, più in generale), sulla relazione tra I.A. e produzione artistica, sul suo uso bellico, su quello nelle aziende, sui bias culturali che riproduce dando loro una parvenza di oggettività, di I.A. e sovranismo, sulla possibile soggettività personale della macchine intelligenti e, infine, sullo sdoganamento nelle università.

Riteniamo, però, che sia opportuno anche prendere in considerazione la dimensione ontologica dell’intelligenza artificiale, cercare di mettere a terra “cos’è” la I.A..

Per farlo, utilizziamo, ma nello stesso tempo  cerchiamo di andare oltre, le definizioni di ontologia più accreditate, come quella di un gigante delle tecnologie, la Oracle Corporation:

«Intelligenza Artificiale (I.A.): sistemi o macchine che imitano l’intelligenza umana per eseguire certe attività e che sono in grado di migliorarsi continuamente in base alle informazioni raccolte».

Perché andare oltre questa chiarissima definizione?

Ci sono numerose buone ragioni. Proviamo a focalizzarci su alcune:

  • tentare di ridimensionare e depolarizzare i toni del dibattito che ferve intorno alla I.A., dibattito che troppo spesso prende la forma di una contrapposizione tra “integrati” e “apocalittici” (ne abbiamo parlato qui)
  • comprendere meglio, grazie alla maggiore chiarezza su cos’è e che tipo di approccio adottare nella relazione con queste tecnologie
  • cogliere chi e come siamo noi, umani, quando le progettiamo e le utilizziamo
  • per stabilire delle scale di valori che ne guidino lo sviluppo e l’applicazione
  • dare, quindi, un senso alla loro presenza nel mondo in cui viviamo.

 

Ora, proprio di ontologia delle I.A. parleremo nel corso della Tavola Rotonda “Ontologie dell’Intelligenza Artificiale” organizzata da Controversie per il giorno 11 giugno in Statale. Usiamo il plurale (le I.A.) perché non c’è una sola intelligenza artificiale ma si tratta di un fenomeno polimorfo, a partire dalle forme di Large Language Model più diffusi, come GPT, Gemini, LLaMA, Claude, per arrivare alle applicazioni verticali meno note quali, ad esempio, LucrezIA, sviluppata dall’Università di Padova anche per le attività didattiche (ne abbiamo parlato qui) –

Senza pensare di esaurire lo spazio delle forme ontologiche in cui si può presentare l’Intelligenza Artificiale, nel corso del dibattito:

  • affronteremo il fatto che le I.A. sono dei programmi, delle sequenze di righe di codice, attraverso l’esame di un esempio prototipale della metà degli anni ’80, cogliendone la capacità di migliorarsi attraverso le informazioni raccolte (secondo la definizione di Oracle Corporation);
  • vedremo la collocazione di questa pietra miliare nella filogenesi dei due principali paradigmi attuali di I.A. e nella ripartizione tra software più tradizionali, in cui lo sviluppatore inserisce esplicitamente tutte le regole di comportamento e reti neurali, che sono in grado di apprendere con vari metodi di training;
  • cercheremo la possibilità di definire l’ontologia delle I.A. attraverso le sue applicazioni verticali, seguendo una traccia fenomenologica, analizzandone l’uso-per, in particolare per le applicazioni in campo medico;
  • adotteremo una prospettiva di analisi più ludica che permette di caratterizzare cos’è la I.A. attraverso lo studio dell’utopia nell'immaginario della fantascienza sullo schermo e nei fumetti;
  • studieremo, infine, una meta-dimensione della questione che suggerisce di interpretare la I.A., più che come soggetto, come ambiente cognitivo che definisce, modella, deforma l’ontologia dell’umano.

 

In questo percorso ci addentreremo anche in questioni delicate sulle proprietà delle ontologie delle I.A., tra le quali la possibilità che possano essere in qualche modo coscienti.