Perché una scienziata non è (automaticamente) un’esperta di scienza
E’ abbastanza comune, nei mass media di ogni genere, chiedere alle scienziate[1] un parere sulla scienza: come funziona, quali siano le sue dinamiche interne, come si produce un risultato scientifico.
Sicuramente esse sanno un sacco di cose sulla pratica scientifica. Ma sapere un sacco di cose le fa automaticamente assurgere ad esperte?
Esperte di scienza o semplici informatrici?
La maggior parte delle scienziate sono esperte del loro lavoro, di quello che fanno quotidianamente (o quasi), di quello che avviene nel loro laboratorio, nel loro dipartimento, nel loro gruppo di ricerca, nella loro disciplina. Tuttavia, la loro è una porzione di scienza, non tutta la scienza. Una biologa non sa come la scienza viene praticata (e sottolineo “praticata”, cioè vissuta, esperita, concretamente portata avanti) in fisica, in ingegneria, in filosofia, in psicologia ecc.
Quando Latour e Woolgar (1979) vanno al Salk Institute, un organismo di ricerca universitario californiano situato a La Jolla, una scogliera vicino a San Diego che guarda l’oceano, e vi soggiornano per quasi due anni (dall’ottobre 1975 all’agosto 1977), vi accedono proprio come le antropologhe entravano in una tribù o in un clan africano: con lo stesso atteggiamento di sorpresa e cercando di sospendere le loro (ancorché minime) conoscenze scientifiche, per osservare quello che le scienziate realmente facevano e non quello che dicevano di fare (magari in un talk show).
Le scienziate venivano trattate come informatrici, non come esperte di scienza.
Altrimenti perché Latour e Woolgar vanno a farci una ricerca? Bastava intervistarle…
La differenza tra un’esperta e una persona informata
Una musicista è anche un’esperta di musica? Direi di no. Ha molte conoscenze su come suonare il suo strumento, sul fare musica individualmente o in gruppo, sul mondo musicale che lei frequenta o ha frequentato; ma non può avere uno sguardo a tutto tondo sulla musica. Altrimenti farebbe la musicologa.
La direttrice amministrativa di un dipartimento universitario è un’esperta di università? E una direttrice? E una rettrice? No. Nemmeno loro. Ma sono delle ottime informatrici. Questo sì.
Un’esperta di università è colei che studia le università, sia italiane che straniere, conosce le statistiche dei diversi Paesi, le loro politiche di reclutamento, di ricerca, di finanziamento ecc. Ha una conoscenza approfondita, comparata ed estesa.
E potremmo andare avanti con esempi per tutti i campi o i settori scientifici.
Purtroppo, questa confusione tra informatrice ed esperta è uno dei tanti mali della nostra epoca.
E non ci dobbiamo meravigliare della crescente crisi della competenza (ne abbiamo parlato qui, qui e qui), che tanto allarma opinionisti ed editorialisti.
Per cui se volete un parere esperto sulla scienza (con le sue molteplici facce e culture epistemiche – vedi Knorr 1999), non cercatelo fra le scienziate. Ne ricaverete solo luoghi comuni, stereotipi e preconcetti.
Andate a intervistare una sociologa della scienza, una politologa della scienza, una studiosa di controversie ambientali o di politiche della valutazione. Non ce ne sono molte, ed è difficile scovarle.
Perché non sono molto attive sui social, non vanno in TV, non appaiono sui giornali. Sono persone che studiano e scrivono su riviste specialistiche di scienza.
Trovarle è un percorso che richiedere tempo. Più facile affidarsi ai soliti tromboni che tappezzano i salotti televisivi.
Ma, se vogliamo capirci qualcosa di scienza, ne vale la pena.
NOTE:
[1] Uso il femminile sovraesteso.
RIFERIMENTI BIBLIOGRAFICI:
Latour, B. e Woolgar, S, (1979), Laboratory Life. The Construction of Scientific Facts, Sage, London.
Knorr-Cetina, k. (1999), Epistemic Cultures: How the Sciences Make Knowledge, Harvard University Press, Cambridge (MA).
Tra plasticità, adattamento e impalcature “ostili”: un modello integrato della biologia ecologica per affrontare le sfide tecnologiche contemporanee
La pervasività delle tecnologie digitali, dell'intelligenza artificiale e delle infrastrutture algoritmiche sta riconfigurando profondamente i processi cognitivi, le norme sociali e i framework etici della società contemporanea (Floridi, 2023). Questa trasformazione richiede nuovi strumenti concettuali per comprendere le dinamiche di interazione tra organismi umani e ambienti tecnologici. La Teoria della Costruzione della Nicchia (NCT) rappresenta un'estensione della sintesi evoluzionistica moderna che riconosce agli organismi un ruolo attivo nella modificazione del proprio ambiente (Laland et al., 2016)[1]. Secondo questo paradigma, gli organismi non si limitano a rispondere passivamente alle pressioni selettive ambientali, ma modificano attivamente le fonti di selezione naturale attraverso le loro attività, alterando sia il proprio ambiente che quello delle generazioni successive.
LA COSTRUZIONE DELLA NICCHIA
Laland e colleghi (2016) definiscono la costruzione della nicchia come "il processo mediante il quale gli organismi, attraverso le loro attività, scelte e costruzioni metaboliche, modificano i propri ambienti e/o quelli di altre specie”. Questo processo opera a livello sia filogenetico che ontogenetico, generando dinamiche di feedback evolutivo in cui le modificazioni ambientali operate dagli organismi influenzano le pressioni selettive a cui essi stessi sono sottoposti.
Negli esseri umani, la costruzione di nicchia assume una dimensione particolarmente complessa, integrando componenti biologiche e culturali su molteplici livelli di intersezione. L’innovazione tecnologica rappresenta una forma di modificazione ambientale che ha da sempre accompagnato l'evoluzione umana attraverso l’invenzione di strumenti, dall'invenzione della ruota alla scrittura, fino alle attuali tecnologie digitali, configurando ciò che può essere definito come un processo di co-evoluzione gene-cultura-tecnologia. Come ampiamente sostenuto dal modello di ricerca epistemologica integrata dell’Università di Vrije di Amsterdam (VU), il TEND project[2], questo paradigma riflette su come le nicchie degli esseri umani siano intrinsecamente tecnologiche e, come tali, soggette a disruption attraverso l'innovazione tecnologica.
Questo modello epistemologico innovativo rappresenta un interessante spunto di riflessione dal punto di vista ecologico e interdisciplinare. Una nicchia, infatti, può essere concettualizzata come un sistema dinamico, caratterizzato al suo interno da continui stati di equilibrio e disequilibrio. Questo approccio si distacca da una visione statica della nicchia come semplice "spazio" occupato da un organismo, riconoscendone invece la natura processuale e relazionale. La prospettiva ecologica proposta da Gibson (1979)[3] con l’introduzione del concetto di affordance descrive l’interazione con l’ambiente in gradi di possibilità di azione strutturale e funzionale che l'ambiente offre all'organismo. Seppure questo modello sia ampiamente noto nella prospettiva cognitiva ecologica, gli ambienti digitali[4] e la Human-Machine Interaction in questo senso possono essere interpretata come una specifica forma di nicchia ecologica che fornisce specifiche affordance tecnologiche, le quali simultaneamente potenziano e vincolano l'esistenza degli agenti cognitivi embodied.
A sostegno della possibilità dell’organismo di costruire modelli relazionali e cognitivi sulla base della propria struttura cognitiva in relazione all’ambiente e su quanto esso sia continuamente coinvolto nelle attività di modellamento e alterazione dei circuiti interni, le riflessioni di Stanislas Dehaene risultano centrali in termini di plasticità e adattamento funzionale nel paradigma bio- psico-sociale. Dehaene (2009)[5], studiando i circuiti neurali della lettura e della scrittura, ha ampiamente dimostrato come il nostro cervello abbia adattato circuiti corticali pre-esistenti per creare una rete funzionale specifica, quella della letto-scrittura, fornendo una base neurobiologica al concetto di exaptation proposto da Gould (1982)[6]. L'exaptation, ovvero la capacità di cooptare circuiti pre-esistenti per nuovi scopi, si applica dunque alla possibilità di modificazione degli organismi appartenenti ad una nicchia per uno scopo specifico, sulla base delle possibilità che l’ambiente offre. Come sottolineato da Maryanne Wolf (2018)[7] nell'analisi delle funzioni cognitive legate all'alfabetizzazione ad esempio, i processi epigenetici e di sviluppo giocano un ruolo fondamentale nella riconfigurazione delle capacità cognitive in risposta alle trasformazioni ambientali, operando simultaneamente a livello biologico e culturale[8]. In questo quadro, le tecnologie non si configurano come mere estensioni esterne, ma componenti integrate del sistema cognitivo distribuito, secondo quanto teorizzato da Clark e Chalmers nel 1998 nel loro influente articolo sulla "mente estesa"[9].
IL CONCETTO DI DISRUPTION APPLICATO ALLA TEORIA DELLA NICCHIA
Il concetto di disruption (rottura, sconvolgimento) si pone come elemento fondamentale, come sostenuto dalla valenza euristica delle ricerche; esso è stato spesso applicato al contesto economico-manageriale per descrivere innovazioni che sovvertono radicalmente mercati e industrie consolidate, rendendo obsolete tecnologie e pratiche dominanti. Applicato alla sfera digitale e sociale e alla teoria ecologica della NCT, come nel framework del progetto TEND, il termine acquista una valenza più ampia. Osservando la disruption da una prospettiva ecologica, quando un nuovo elemento tecnologico interviene in un sistema, esso interrompe i cicli di feedback esistenti e costringe l'organismo a (ri)costruire relazioni interne della propria nicchia a diversi livelli: individuale, sociale e globale. La disruption tecnologica dunque rappresenta la soglia critica in cui alcuni equilibri consolidati collassano e nuove strutture emergono, richiedendo processi di riorganizzazione che operano simultaneamente a livello cognitivo, sociale e istituzionale.
A differenza della valenza semantica in economia, che enfatizza primariamente la dimensione competitiva e innovativa, l'applicazione del termine agli ecosistemi socio-tecnologici evidenzia le implicazioni per lo sviluppo del benessere umano, l'autonomia cognitiva e la coesione sociale.
Hopster (2021) definisce le tecnologie socialmente disruptive come quelle che «alterano significativamente le norme sociali, i valori, le pratiche o le istituzioni esistenti»[10], ma anche il modo di percepire, agire, conoscere e relazionarsi in una specifica nicchia. Negli ambienti digitali la disruption diventa una condizione pervasiva che rimodella non solo comunicazione e produzione, ma anche percezione, emozione e cognizione. La riflessione filosofica di Georges Canguilhem (1966)[11] offre uno strumento epistemologico interessante e una possibile apertura per interpretare l’evoluzione di questi nuovi processi di modificazione delle nicchie ecologiche. In Le normal et le pathologique, Canguilhem introduce il concetto di normatività come quella specifica capacità dell'organismo di ristabilire una relazione coerente e vitale con il proprio ambiente. Secondo Canguilhem, infatti, il concetto stesso di normalità, in stati organici sani o patologici, evolve nel tempo seguendo cambiamenti strutturali nella relazione organismo-ambiente. La patologia, secondo la lettura canghuilemiana, non è dunque intesa come mera disfunzione organica, ma come un momento di squilibrio e di incertezza che induce a una nuova modalità di interazione con l'ambiente, basata sull'attività normativa propria dell'organismo.
DISRUPTION COME RICONFIGURAZIONE NORMATIVA
Applicata al contesto tecnologico, questa prospettiva suggerisce che la disruption non costituisce necessariamente una condizione patologica (intesa come a-normale), ma rappresenta piuttosto una fase di riconfigurazione normativa in cui l'organismo deve sviluppare nuove strategie di adattamento o di exaptation alla Gould. La riflessione centrale di questi modelli ecologici integrati e interdisciplinari è proprio quella di individuare elementi fondamentali per comprendere come e in che modo tecnologie disruptive come l’IA si stiano diffondendo all’interno delle nicchie umane, a vari livelli, e quali cambiamenti in termini etici, normativi, cognitivi e sociali stiano apportando. Una possibile soluzione sarebbe quella di mirare allo sviluppo di nuove competenze interdisciplinari per la costruzione di un'impalcatura sociale etica e sostenibile sufficientemente robusta, ma allo stesso tempo flessibile da permettere la co-evoluzione con la disruption senza compromettere le strutture fondamentali dei sistemi di valori e credenze.
SCAFFOLDING OSTILE
Il concetto di scaffolding, che riprende il costrutto teorico della «zona di sviluppo prossimale» di Vygotskij[12], individua le strutture esterne che supportano e facilitano i processi cognitivi. Nel contesto tecnologico gli ambienti digitali dovrebbero idealmente fornire una forma di scaffolding cognitivo, estendendo e potenziando le capacità umane. Tuttavia, Timms e Spurrett (2021) hanno introdotto recentemente il concetto di hostile scaffolding per descrivere situazioni in cui "le strutture che dovrebbero supportare la cognizione possono simultaneamente vincolarla o distorcerla"[13]. Questo fenomeno si verifica quando le affordances tecnologiche, invece di facilitare processi cognitivi adattivi, generano pattern disfunzionali o controproducenti. Alcuni esempi di scaffolding “ostile” si verificano, ad esempio, in quella che viene definita la “crisi dell’attenzione”[14]. Le piattaforme digitali contemporanee infatti sono progettate secondo principi di "economia dell'attenzione"[15] che massimizzano il tempo di utilizzo attraverso meccanismi di rinforzo intermittente (notifiche push, feedback sociali, scrolling infinito). Queste architetture, come evidenziano numerosi studi, catturano e frammentano l'attenzione degli utenti, con effetti di grande impatto sull’intero sistema attentivo e sulle competenze metacognitive e riflessive, specialmente negli adolescenti e nei giovani adulti. Un altro esempio riguarda gli algoritmi di raccomandazione basati su modelli predittivi del comportamento utente, i quali tendono a creare delle vere e proprie bolle, le "filter bubbles" (bolle di filtraggio) ed "echo chambers", un fenomeno ormai noto e ampiamente studiato dalla letteratura scientifica per la capacità di esporre selettivamente gli utenti a contenuti che confermano le loro preesistenti inclinazioni cognitive e ideologiche, perpetrando bias di conferma e sempre maggiore polarizzazione dell’opinione pubblica[16]. Infine, nuovi e recenti studi stanno indagando sulle conseguenze a lungo termine dell'”effetto delega” di specifici task. Esso è reso possibile dall'automazione sempre maggiore di compiti cognitivi precedentemente eseguiti da agenti cognitivi umani nell’utilizzo di tecnologie AI based in specifici contesti sociali. Queste tecnologie producono non solo stati di potenziamento, ma possono produrre anche veri e propri fenomeni di depotenziamento di alcune funzioni cognitive specifiche a seguito di un progressivo aumento dello scarico cognitivo, come sottolineato dalle più recenti ricerche in merito.[17]
IN SINTESI
L’approccio integrato dunque riconosce la natura co-evolutiva e complessa della relazione tra organismi umani e tecnologie. Questa prospettiva ecologica ed epistemologica qui delineata evidenzia come la disruption tecnologica rappresenti un momento di rottura dello spazio epistemico che richiede processi di riconfigurazione normativa a livello individuale e collettivo attraverso un bilanciamento costante tra ciò che possiamo guadagnare e ciò che potremmo perdere.
Il riconoscimento delle impalcature potenzialmente ostili costituisce un primo passo verso la progettazione e il design di ambienti digitali in grado di potenziare le capacità cognitive e le strutture valoriali fondamentali dell'esistenza umana; verso un’infrastruttura tecnologica plastica, sostenibile e allineata con i valori cardine della nostra società.
NOTE
[1] Laland, K., Matthews, B., & Feldman, M. W. (2016). An Introduction to Niche Construction Theory. Evolutionary Ecology, 30(2), 191–202. https://doi.org/10.1007/s10682-016-9821-z
[2] Il progetto integrale “TEND” dell’Università Vrje di Amsterdam è visitabile al seguente indirizzo https://sites.google.com/view/tend-project/home
[3] Gibson, J. J. (1979). The Ecological Approach to Visual Perception. Boston: Houghton Mifflin.
[4] Della Rocca, M. (2025), Digital Environments and Information, Laboratorio dell’ISPF. 2025, vol. XXII [In Press].
[5] Dehaene S. (2009), Reading in the Brain: The New Science of How We Read, Penguin, New York.
[6] Gould, S. J. (1982). Exaptation: A Missing Term in the Science of Form. Paleobiology, 8(1), 4-15.
[7] Wolf, M., Proust and the Squid: The Story and Science of the Reading Brain, 2008, Icon Books Ltd.
[8] Morabito, C. (2018). Epigenetics and the Development of Cognitive Functions: Literacy as a Case Study. In D. Ceccarelli & G. Frezza (Eds.), Predictability and the Unpredictable: Life, Evolution and Behaviour (pp. 145-156). Rome: CNR Edizioni.
[9] Clark, A., & Chalmers, D. (1998). The Extended Mind. Analysis, 58(1), 7-19.
[10] Hopster, J. (2021). What Are Socially Disruptive Technologies? Technology in Society, 67, 101750. https://doi.org/10.1016/j.techsoc.2021.101750
[11] Canguilhem, G. (1966). Le normal et le pathologique. Paris: Presses Universitaires de France.
[12] Vygotsky, L. S. (1978). Mind and Society. Cambridge, MA: Harvard University Press. Il concetto di scaffolding, seppur ampiamente utilizzato per descrivere il concetto di «zona di sviluppo prossimale» di Vygotskij, comparse per la prima volta in Wood, D., Bruner, J. S., & Ross, G. (1976). The role of tutoring in problem-solving. Journal of Child Psychology and Psychiatry and Allied Disciplines, 17, 89–100.
[13] Timms, R., & Spurrett, D. (2021). Hostile Scaffolding. PhilArchive. https://philarchive.org/archive/TIMHSv1
[14] Campo, E. (2020) La testa altrove. L'attenzione e la sua crisi nella società digitale, Donzelli Editore.
[15] Il concetto di «economy of attention» fu teorizzato per la prima volta da Herbert Simon nel 1971 per indicare l’effetto dell’aumento delle informazioni nella società capitalistica e la conseguente diminuzione dell’attenzione.
[16] Scholz, R. (2016). Sustainable Digital Environments: What Major Challenges Is Humankind Facing? Sustainability, 8(8), 726. https://doi.org/10.3390/su80807
[17] Gerlich M. AI Tools in Society: Impacts on Cognitive Offloading and the Future of Critical Thinking. Societies. 2025; 15(1):6. https://doi.org/10.3390/soc15010006
BIBLIOGRAFIA
- Canguilhem, G. (1966). Le normal et le pathologique. Paris: Presses Universitaires de France.
- Clark, A., & Chalmers, D. (1998). The Extended Mind. Analysis, 58(1), 7-19.
- Brey, P., Roeser, S., & IJsselsteijn, W. (2019). Ethics of socially disruptive technologies. Project proposal for Netherlands Organisation of Scientific Research.
- Dehaene S. 2009, Reading in the Brain: The New Science of How We Read, Penguin, New York.
- Floridi, L. (2023). The Ethics of Artificial Intelligence: Principles, Challenges, and Opportunities. Oxford: OUP Oxford.
- Gerlich M. AI Tools in Society: Impacts on Cognitive Offloading and the Future of Critical Thinking. Societies. 2025; 15(1):6. https://doi.org/10.3390/soc15010006 ;
- Gibson, J. J. (1979). The Ecological Approach to Visual Perception. Boston: Houghton Mifflin.
- Gould, S. J. (1982). Exaptation: A Missing Term in the Science of Form. Paleobiology, 8(1), 4-15.
- Hopster, J. (2021). What Are Socially Disruptive Technologies? Technology in Society, 67, 101750. https://doi.org/10.1016/j.techsoc.2021.101750
- Laland, K., Matthews, B., & Feldman, M. W. (2016). An Introduction to Niche Construction Theory. Evolutionary Ecology, 30(2), 191-202. https://doi.org/10.1007/s10682-016-9821-z
- Morabito, C. (2018). Epigenetics and the Development of Cognitive Functions: Literacy as a Case Study. In D. Ceccarelli & G. Frezza (Eds.), Predictability and the Unpredictable: Life, Evolution and Behaviour (pp. 145-156). Rome: CNR Edizioni.
- Scholz, R. (2016). Sustainable Digital Environments: What Major Challenges Is Humankind Facing? Sustainability, 8(8), 726. https://doi.org/10.3390/su80807
- Timms, R., & Spurrett, D. (2021). Hostile Scaffolding. PhilArchive. https://philarchive.org/archive/TIMHSv1
- Varela, F., Thompson, E., & Rosch, E. (2017). The Embodied Mind (Revised Edition). Cambridge, MA: MIT Press.
Majorana, Heisenberg, Sciascia e Brecht - Un fil rouge tra storia e immaginario
Intorno alla realizzazione delle due bombe atomiche americane (sembra inutile scriverlo ma, in linea con l’appello di Alvin Weinberg, dobbiamo sempre ricordare che le uniche bombe atomiche usate in guerra e contro la popolazione civile sono quelle lanciate dagli americani nel 1945) girano tutti i più rilevanti nomi della fisica e della chimica dell’inizio del XX secolo.
Alcuni di questi nomi, però, popolano un quadro che si sviluppa tra reale, ipotetico e immaginario, a cavallo tra scienze, storia e letteratura.
I nomi sono quelli di Robert Oppenheimer, il coordinatore del progetto Manhattan che portò alla realizzazione dell’atomica; di Werner Heisenberg e Niels Bohr, i fisici che misero le basi della meccanica quantistica e dell’Interpretazione di Copenhagen; di Enrico Fermi, il fisico che partecipò al progetto Manhattan come direttore tecnico; di Edoardo Amaldi, uno dei “Ragazzi di via Panisperna"; di Ida Noddack, chimica tedesca, medaglia Liebig 1934, la prima persona a ipotizzare la possibilità di realizzare la fissione nucleare; di Bertolt Brecht – il drammaturgo, con il “suo” Galileo – e di Friedrick Durrenmatt, anch’egli drammaturgo.
C’è un fil rouge che unisce tutti questi personaggi: si tratta di Ettore Majorana, fisico geniale che fece parte del gruppo di Enrico Fermi, il Majorana raccontato da Leonardo Sciascia (La scomparsa di Majorana, Adelphi, 1975) e da Lea Ritter Santini, germanista, filologa e storica (Uno strappo nel cielo di carta, saggio in cit.); Majorana, con la sua scomparsa misteriosa, che fa da contraltare ad un altro fatto misterioso, la visita di Heinsenberg a Copenhagen nel 1941.
Majorana è considerato – dai colleghi di via Panisperna e da tutti i fisici europei impegnati nella ricerca nucleare e quantistica – un genio, uno che intuisce le cose prima di tutti, che coglie strutture nessi e potenzialità in anticipo sugli altri. Ma che è, anche, disattento, solitario, poco incline alla condivisione, forse tendente a minimizzare i risultati del suo stesso lavoro.
Sciascia, nel suo libro, suggerisce che Majorana abbia capito la concreta possibilità di realizzare un’arma fondata sull’energia nucleare e – nel 1938 – abbia deciso di eclissarsi, per non essere complice, per non rischiare di essere parte di quelli che rendono reale l’incubo.
Tuttavia, Edoardo Amaldi nega recisamente questa possibilità, poiché, a suo avviso, era impossibile che qualcuno potesse – prima del 1940 – capire la potenzialità di quella tecnica.
Proviamo, qui, a mettere in fila alcune date e fatti:
- Majorana, tra il 1933 e il 1936 passa alcuni mesi a Lipzieg, con il gruppo di ricerca di Heisenberg, e proprio con Heisenberg costruisce un rapporto speciale;
- Nel 1933 Heisenberg scrive un paper sui processi di scissione, paper che Majorana considera definitivo. Commenta: “ha detto tutto”;
- Nello stesso anno il gruppo di Fermi conduce gli esperimenti che portano alla presunta scoperta dei nuovi elementi Esperio e Ausonio (ne abbiamo parlato qui);
- Nel 1934 Ida Noddack critica i risultati sulla Zeitschrift fur Angewandte Chemie e dice “hanno scisso l’atomo e non se ne sono accorti”;
- Tra Noddack e Heisenberg non sembra esserci un rapporto diretto ma è possibile, anzi probabile, che uno abbia letto i lavori dell’altro;
- Noddack, anni dopo, in una comunicazione a Lea Ritter Santini, si dice convinta che Majorana avesse letto il suo articolo, da lei inviato a Fermi al momento della pubblicazione, e che avrebbe potuto trarne conseguenze capaci di scatenare un insanabile dissidio morale. In breve, Noddack pensa che Majorana avesse ben capito.
- D’altra parte, Majorana aveva tali competenze e conoscenze da controllare i lavori di Fermi, confermandone la correttezza o evidenziandone gli errori, e – prima di Heisenberg – aveva compreso la struttura dell’atomo fatto di neutroni e di protoni, ma non aveva pubblicato la ricerca.
Dal 1939, negli Stati Uniti d’America, inizia il lavoro di ricerca teorico e sperimentale che convergerà poco dopo nel monumentale laboratorio di Los Alamos in cui – sotto la guida di Oppenheimer – “si corre” per realizzare la bomba atomica.
A Los Alamos e nei laboratori collegati del progetto Manhattan lavora praticamente tutto il mondo dei fisici della parte alleata, tra cui un gran numero di scienziati tedeschi, soprattutto ebrei che hanno lasciato la Germania nazista, dove agli ebrei è permesso fare solo la fisica teorica, disciplina considerata minore rispetto alla sperimentale.
A Los Alamos vige, come elemento valoriale, come motivazione per la corsa a fare la bomba, il rischio che Hitler ci arrivi prima e la usi per mettere fine al conflitto in Europa.
In realtà, alla luce delle testimonianze successive alla fine della guerra, tra il 1939 e il 1942 i tedeschi erano ben lontani dall’essere in grado di fare la bomba, nonostante la presenza di Heisenberg e di altri fisici del calibro di Otto Hahn, von Weiszacker, Diebner, Debye. Nonostante le miniere di U-235, la fabbrica di acqua pesante, forse un ciclotrone tedesco, e il ciclotrone nella Danimarca appena conquistata.
Le ragioni sembrano essere state diverse: la dispersione del lavoro e la decentralizzazione del progetto, la segretezza interna, la “fuga” dei teorici, l’assenza di adeguati investimenti e – forse – lo scarsa intenzione di alcuni scienziati chiave che ci lavoravano.
Ed ecco il secondo mistero: la visita che Heisenberg fece a Bohr nel 1941 a Copenhagen, mistero su cui hanno scritto moltissimi[1], tra scienziati, storici e letterati e che ha alimentato una controversia vivace e non ancora spenta.
Cosa andò a fare Heisenberg a Copenhagen, da Niels Bohr?
- Forse, Heisenberg tentò, attraverso il suo maestro, di far sapere agli alleati che i tedeschi stavano lavorando alla bomba, che avevano molte carte in mano;
- Forse cercò da Bohr l’assoluzione, forse chiese consiglio, forse condivise la speranza di mettere insieme un numero sufficiente di persone contro la realizzazione della bomba: tra il 1930 e il 1941, infatti, erano a malapena una dozzina quelli che avrebbero potuto guidare un percorso di realizzazione. Bastavano a chiudere la strada, a fermare tutto, in tutto il mondo.
- Forse voleva riflettere con Bohr su cosa sarebbe successo se uno dei due gruppi al lavoro fosse arrivato al risultato: se Hitler non si fosse arreso, gli americani avrebbero tirato la bomba? E dove? A Berlino? E se ci fosse arrivato prima la Germania, dove? A Londra?
Ma il programma americano era partito e arrivò a realizzare la bomba nel 1945, pochi mesi prima della distruzione di Hiroshima e di Nagasaki.
In questo intreccio, tornando indietro di qualche anno, è anche possibile pensare che Majorana e Heisenberg – tra il 1933 e il 1936 - ne abbiano parlato, e che (forse, molto forse) anche Noddack abbia avuto un suo ruolo nelle considerazioni di Heisenberg, lei che aveva capito cosa avevano fatto Fermi e i suoi.
Ecco, per concludere questo percorso tra storia e immaginario, ci piace pensare che Heisenberg abbia deliberatamente evitato di dare forma compiuta al progetto nazista, come lui stesso dichiarò dopo la guerra.
E che Majorana abbia fatto una sua scelta.
La scelta di fare come il fisico Möbius nella tragicommedia di Durrenmatt, I fisici:
“il dovere di un genio, oggi, è di tacere”
E come Brecht, tacitamente, suggerisce che abbia fatto Galileo, che abbia deciso di abiurare sì per paura, ma anche per senso civico, per senso di responsabilità.
NOTE:
[1] Citiamo qui solo alcuni nomi: Frayn, con la sua bellissima piece Copenhagen, Robert Jungk, S.A. Goudsmit, K. Gottstein, Thomas Powers, David Cassidy
RIFERIMENTI BIBLIOGRAFICI:
Sciascia, La scomparsa di Majorana, Adelphi, 1975
Ritter Santini, Titolo, in La scomparsa di Majorana, Adelphi, 1975
K, Gottstein, Werner Heisenberg and the German Uranium Project (1939-1945). Miths and facts, https://www.researchgate.net/publication/307985020_Werner_Heisenberg_and_the_German_Uranium_Project_1939_-_1945_Myths_and_Facts
Walker, The Historiography of ‘‘Hitler’s Atomic Bomb’’, Phys. Perspect. 26 (2024) 18–41, https://doi.org/10.1007/s00016-024-00309-6



