Sanare una controversia - Il dissidio tra Basaglia e Tobino
Tra le pubblicazioni dello speciale Basaglia pubblicate su questa rivista, risalta l’articolo di Gianluca Fuser che ha saputo fare controversia nella controversia parlando di Mario Tobino, grazie a un’approfondita lettura degli archivi della Fondazione Tobino. Vorrei con questo articolo porre in risalto una questione che sposta il focus della controversia, cercando di suggerire un modo per ricomporla prendendo in considerazioni elementi diversi storici e sociali.
Centrale nell’articolo di Fuser è l’impossibilità di conciliare la controversia nei seguenti punti:
«Tobino, seppure non escluda del tutto l’origine sociale, ha una visione organica, fisiologica della follia, e accusa Basaglia di credere che la chiusura dei manicomi cancelli ogni traccia della follia. Basaglia, infatti, la nega e nello stesso tempo, ne attribuisce la creazione alla società malata, al potere, per rinchiudere i disallineati, i disturbatori dell’ordine e dello sfruttamento.»[1]
«Altro punto di dissidio insanabile è il tema della presenza e della forma delle strutture di cura, che coinvolge anche la visione politica delle due posizioni: Tobino non prescinde dalla necessità di un luogo dove i matti possano trovare – per periodi lunghi o brevi, più o meno volontariamente, in modo comunque aperto – riparo, protezione, cura e tranquillità; e sottolinea l’assenza di preparazione dei territori, della popolazione e delle famiglie per la trasformazione dalle strutture accentrate a quelle diffuse; Basaglia, al contrario, non transige, insiste sulla necessità di distruggere l’istituzione manicomiale e ribadisce la necessità della riforma, da farsi subito, in nome della «crescita politica, e quindi civile e culturale del paese».»[2]
Ora, mi chiedo se davvero questi punti siano insanabili. Non è mia intenzione conciliare due persone che chiaramente non andavano d’accordo in quel momento e su quell’argomento. La controversia c’è stata. Se la differenza evidenziata da Fuser può essere sanata, significa soltanto che l’oggetto del contendere è da cercare altrove.
Riguardo alla forma e alla presenza delle struttura di cura, Tobino parla di un luogo dove la persona possa avere riparo, protezione, cura e tranquillità, e non vedo come questo luogo possa essere associato al manicomio basagliano, luogo di repressione, controllo e emarginazione. Se penso a Gorizia, ma anche alle diverse applicazioni della legge 180 – alcune raccontate nello stesso speciale su Controversie[3] – è innegabile la presenza di un punto di raccolta del malato, punto in cui la società lo raccoglie e egli stesso si raccoglie. Un luogo in cui ripararsi dopo una crisi sopravvenuta e cercare una normalità.
Tobino ribadisce,[4] giustamente, che Lucca era già un posto così ma non può dire lo stesso del resto d’Italia. Così, anche Basaglia ha realizzato l’esperimento di Gorizia prima e senza la legge 180 e continua nondimeno a ritenere necessaria l’abolizione del manicomio. Siamo di fronte ad una ambiguità del manicomio? Da un lato, c’è la pretesa oggettività della struttura manicomio come un certo luogo costruito in un certo definito modo con l’obiettivo di una determinata funzione. Dall’altro, invece, troviamo il significato sociale che ognuna di queste strutture porta con sé, in termini di violenza o di carità delle istituzioni. Significati e strutture che formano i luoghi, a partire dalla scelta di come disporre stanze, corridoi, finestre, fino alla formazione degli stessi operatori sanitari.
Sembra che sia Tobino che Basaglia siano ben consapevoli di questo ed entrambi hanno lavorato per contrastare strutture e pratiche che conservano il segno della storia di violenza dell’istituzione manicomiale. La frattura avviene sulla legge e, fino a qui, nulla di nuovo. Ci torno a breve, vorrei, prima, coinvolgere nel discorso anche il primo dei punti inconciliabili indicati da Fuser.
Che cosa si intende con il fatto che Tobino abbia una visione organica, fisiologica e Basaglia no? Che Tobino non consideri il ruolo dei determinanti sociali nella malattia – per quanto non li escluda – e invece Basaglia riconduca la malattia solo a quelli?
Tobino sembrerebbe distinguersi per una visione realista della malattia. “Dolorosa follia, ho udito la tua voce” è il racconto di una follia che esiste per sé stessa. Non è questione di quanto sia organica, perché proprio i racconti di Tobino sono descrizioni di comportamenti che risultano patologici proprio per la sofferenza a stare in un contesto sociale che diremmo normale. L’uomo che graffia i volti degli altri pazienti, nel racconto di Tobino, non dice esplicitamente “sto soffrendo”, ma noi comprendiamo la sua impossibilità di vivere, appunto, nel mondo normale. Tobino con coraggio risponde alla prima questione pratica della cura: il fatto è che le cose sono andate così, adesso sono malato e in qualche modo è da qui che si deve partire.
Basaglia allora è diverso? Non molto a mio parere. Egli non nega la realtà della malattia, ma si concentra sulla diversità, sul fatto che ogni variazione dalla norma è una diversa norma possibile. Non credo che si possa vedere - nel tentativo di modificare l’ambiente del malato (distruggere i muri) - un’omissione della realtà della malattia. Basaglia aveva visto una possibilità. Quella che alcune condizioni di sofferenza trovassero un nuovo senso.
Non sbaglia, Basaglia, quando afferma questa possibilità. Lo abbiamo visto nei tanti tentativi che hanno avuto successo. Sbaglia, invece, quando nega il significato pratico della «carità continua», pratica della quale Tobino spiega per bene il significato: «se il malato pulito, vestito, lì seduto, di nuovo si risporca, perde le urine, scendono le feci, noi si ricomincia da capo, per riportarlo al suo precedente aspetto». Penso sia innegabile che la speranza data da Basaglia, di una vita diversa nella società con gli altri, sia anche di nuovo possibilità di fallimento e in alcuni casi si trasformi nella falsa speranza che noi o quel nostro parente non sia quello che è.
Sono, quindi, due facce dello stesso discorso su salute e malattia. Se le guardiamo dal lato della persona che viene curata, Basaglia è la speranza di guarire ancora,Tobino la forza di salvarsi ancora un giorno. Abolito il manicomio, la persona malata trova un nuovo senso e prospera. Nel manicomio, la persona malata vive al riparo da un mondo che lo ferisce. Abolito il manicomio il malato che non trova una strada muore. Nel manicomio che lo cura, il malato vive costretto in un’unica vita possibile.
A produrre la nostra salute sono i rapporti tra organismo e ambiente, dove il primo comprende la sua personale storia non solo come determinanti, ma anche come biografia e autobiografia, mentre il secondo comprende l’inscindibile nesso tra la disposizione “materiale” dell’ambiente e i valori che lo costruiscono e strutturano. Il primo e il secondo punto di questa controversia rispondono a quella divisione tra interno e esterno, tra soggetto e mondo. Quell’ambiguità della salute che da un lato si descrive oggettivamente e dall’altro non può fare a meno di riferirsi a un soggetto che dice di se stesso di essere in salute, o in malattia.[5]
Eppure, la controversia c’è stata! Vedo due possibilità (e sicuro ce ne sono altre) per ricomporre la controversia come tale. La prima è che la morale che sottende le antropologie di Basaglia e Tobino sia in realtà molto diversa e che si rifletta nella realtà pratica delle scelte. La seconda (ed è quella che personalmente più mi interessa) è che questi Basaglia e Tobino simbolici fossero strumenti del discorso politico e culturale che faceva leva (allora come oggi) sull’autorità dei due scienziati. Consapevoli nella misura in cui era dato loro modo di ribadire la possibilità di una vita diversa, fosse essa segnata dalla quotidiana carità continua o dall’aiuto per tornare nel mondo degli altri. Inconsapevoli però del fatto che a parlare per il loro tramite sia stata ancora la voce della normalizzazione, la violenza dell’istituzione che schiaccia nella malattia (Tobino) o che distrugge nell’afflato positivista di ricondurre ogni diversità a alla norma (Basaglia). La stessa verità dei discorsi dei due scienziati è poco importante se non comprendiamo come queste verità siano state tradotte dalle forze sociali del tempo e quali elementi effettivamente abbiano concorso a comporre questa controversia.
NOTE
[1]Fuser, G., 2024, Controcanto, https://www.controversie.blog/controcanto-tobino/
[2]Fuser, G., 2024, Controcanto, https://www.controversie.blog/controcanto-tobino/\
[3]Si veda l’intervista di L. Pentimalli alla dott.sa Bricchetti [https://www.controversie.blog/raffaella-bricchetti/] così come la mia intervista al dott. Iraci [https://www.controversie.blog/rete-psichiatrica-sul-territorio-intervista-a-uno-psichiatra-che-attuava-la-legge-180/]
[4]M. Tobino, Dolorosa follia, ho udito la tua voce, La Nazione 7 maggio 1978.
[5]Su questo si veda G. Canguilhem, “La salute: concetto volgare” in G. Canguilhem, Sulla medicina. Scritti 1955-1989, tr. it. di D. Tarizzo, Einaudi, Torino 2007.
Stabilizzare il farmaco, stabilizzare la biomedicina - Reciproche catture tra medici e vaccini
“Se l’instabilità del pharmakon non è un nostro problema, quel che sembra distinguerci al contrario […] è l’intolleranza della nostra tradizione di fronte a questo tipo di situazione ambigua e l’angoscia che suscita. È necessario un punto fermo, un fondamento, una garanzia. È necessaria una differenza stabile tra il medicamento benefico e la droga malefica, tra la pedagogia razionale e il condizionamento suggestivo, tra la ragione e l’opinione” (Stengers, 2005: 40-41)
Se volessimo analizzare la farmacovigilanza tenendo in considerazione le parole di Stengers qui in epigrafe, potremmo ritenerla uno strumento volto a stabilizzare farmaci: distinguere vantaggi e pericoli sembra essere obiettivo precipuo di questa pratica. Ciò è ancor più evidente se ci riferiamo alla vaccinovigilanza. Scindere ciò che è benefico da ciò che risulta dannoso appare particolarmente opportuno nel caso dei vaccini: anche i documenti ufficiali rilevano che, in questo caso, “poiché la popolazione target è rappresentata prevalentemente da soggetti sani, per la maggior parte di età pediatrica, il livello accettabile di rischio è inferiore a quello degli altri prodotti medicinali. […] Queste peculiarità dei vaccini rendono necessarie attività di farmacovigilanza post-marketing che vadano oltre quelle routinarie, al fine di monitorare e valutare adeguatamente gli eventuali rischi” (AIFA, 2017:4). Tuttavia, nonostante i vaccini siano considerati tra i prodotti più controllati nel panorama farmacologico, abbiamo già avuto modo di esplorare come le pratiche di vaccinovigilanza siano dispositivi socio-culturali complessi (Lesmo, 2025).
Di fatto, i dubbi in merito a possibili correlazioni causali tra alcuni vaccini e determinati eventi avversi sembrano affiorare tra i professionisti. Nel corso della ricerca etnografica da me condotta sul tema tra il 2017 e il 2021, è emerso come diversi medici abbiano preso in considerazione in più occasioni questa ipotesi. Ciò è stato rilevato in vario modo. Non solo alcuni di essi hanno suggerito ai genitori di bambini con possibile danno da vaccino l’ipotesi di una correlazione, per poi spesso negarla dopo poco (secondo quanto i genitori mi hanno riferito). La presenza di simili “dubbi” è stata poi esplicitata direttamente da alcuni medici da me intervistati, che ne hanno approfondito criticità e problematiche durante i colloqui. Oltre a queste testimonianze di prima mano, alcuni libri, pubblicazioni e lettere scritte da medici specialisti hanno proposto pubblicamente di re-interrogare la sicurezza e/o l’efficacia delle pratiche vaccinali in corso. Alcuni tra questi professionisti sono stati in seguito interpellati, richiamati, sospesi o finanche radiati dai rispettivi ordini, evidenziando una zona di tensione particolarmente evidente che intercorre tra il sapere vaccinale e la pratica medico-clinica. È dunque estremamente rilevante interrogare la relazione complessa che lega vaccinazioni, pratica biomedica e professionisti della cura. Come si costruiscono vicendevolmente questi rapporti? Quali obiettivi, più o meno consapevoli, essi si prefiggono?
“UNKNOWN KNOWNS”: CONOSCENZE SCONOSCIUTE
Bisogna però dire che attualmente le indicazioni della medicina occidentale accademica hanno una tendenza a non mettere in correlazione patologie avverse con la vaccinazione, proprio perché la tendenza è quella di dare un valore solo positivo alla vaccinazione escludendo tutti gli elementi negativi.
Questo è quanto afferma un medico da me intervistato quando riflettiamo insieme sul rapporto rischio/benefici associati ai vaccini. L’esclusione di alcuni elementi dalle pratiche di costruzione del sapere è un elemento intrinseco ad ogni epistemologia. Se già Foucault (2004) aveva illustrato come molteplici procedure di esclusione agissero nel dare consistenza a un discorso, conferendogli uno statuto di verità attraverso interdetti, evitamenti ed elisioni, questi temi sono stati ri-articolati successivamente da molti altri studiosi. Tra questi, l’antropologo Michael Taussig si è riferito al “lavoro del negativo” per evidenziare come “sapere che cosa non sapere” sia un passaggio fondamentale in molti processi socio-culturali oltre che epistemologici. Secondo quanto osserva Taussig, il “lavoro del negativo” nei singoli contesti di riferimento è così profondo che “pur riconoscendolo, pur nello sforzo di liberarci dal suo abbraccio vischioso cadiamo in trappole ancora più insidiose che ci siamo autocostruiti” (Taussig, 1999:6). Difficile è dunque acquisire consapevolezza in merito a talune esperienze note eppur sottese, che a volte fondano vere e proprie imprese epistemiche e sociali. Geissler, antropologo sociale, ha ripreso nei suoi studi il concetto ossimorico di “conoscenze sconosciute” [“unkwnown knowns”] (Geissler, 2013: 13) per evidenziare quanto queste possano talvolta aprire la strada a determinate pratiche di ricerca e/o di cura: il confine tra sapere e non-sapere risulta così estremamente labile.
Anche in ambito vaccinale sembra che alcune esperienze vengano talvolta “espulse” dall’orizzonte conoscitivo - quasi sulla soglia della consapevolezza - per rendere le pratiche di immunizzazione possibili. Una pediatra intervistata, con cui riflettiamo sulle posizioni discordanti sul tema in ambito biomedico, mi spiega:
Allora, ci sono secondo me alcuni vaccini su cui… effettivamente ci può essere una discussione, perché effettivamente non mettono a rischio la società, no? Ci sono dei vaccini invece per cui questa cosa qua si mette a maggior rischio e allora… […] Ci sono dei caposaldi che… che secondo me sono intoccabili.
In questo frammento di discussione, parte di uno scambio molto lungo e articolato, la pediatra evidenzia come certi dubbi non possano essere sollevati – a meno che non siano già sostanziati da studi scientifici solidi ed epidemiologicamente fondati. I dubbi così sommersi - questi sospetti silenziati - sembrano in qualche misura concretarsi anche nell’eliminazione simbolica, operata attraverso sanzioni disciplinari di vario genere, dei medici che tentano di palesarli. Quando interpellata in merito a tali sanzioni, un’altra pediatra intervistata ha ribadito come ciò fosse indispensabile, e finanche rassicurante, poiché la vaccinazione “è la base della medicina moderna” e “se un medico non crede ai vaccini, soprattutto un pediatra – e soprattutto alle vaccinazioni pediatriche… forse ha sbagliato campo”.
STABILIZZARE IL SAPERE BIOMEDICO
Per molti professionisti della cura, dunque, la fiducia nella vaccinazione sembra essere precondizione della stessa professione medica. Ciò è stato spesso attribuito al particolare statuto che le vaccinazioni risultano avere in biomedicina: per riprendere le espressioni qui proposte, esse sarebbero un “caposaldo”, se non “la base della medicina stessa”. Sembra così adeguato riprendere quanto asserito da Isabelle Stengers (2005) in relazione alla stabilizzazione di un sapere, che si intreccia saldamente con ciò che la studiosa definisce “reciproca cattura”, o “inter-presa”. La “reciproca cattura” è quel legame che vincola due entità attraverso la creazione di un valore reciproco. Secondo Stengers, tale cattura si attiva nel momento in cui due identità si costruiscono e si legittimano vicendevolmente. In questo caso il ruolo del medico sembra consolidarsi anche in base alle considerazioni che egli associa ai vaccini: sostenere sicurezza ed efficacia delle vaccinazioni in uso – “credere” nei vaccini come asserito più sopra – dimostra la competenza e la credibilità dei professionisti. Nel contempo, tuttavia, le pratiche vaccinali sono rinsaldate proprio dalla fiducia accordata loro dai medici, le cui competenze ne garantiscono l’affidabilità. Ciò produce un’ulteriore antinomia: i medici – ossia gli specialisti competenti che potrebbero eventualmente porre dubbi sui vaccini - non riescono a farlo, pena la perdita della propria credibilità sul campo. Questa circolarità non è però priva di uno scopo: come si può desumere dalle considerazioni sopra proposte, essa assolve un compito ben preciso, ossia la stabilizzazione del ruolo dei vaccini, attraverso la rimozione dell’ambivalenza ad essi intrinseca: scindendo, cioè, il potere di proteggere da quello di ferire. Se poi il vaccino diviene espressione del successo biomedico, allora è la biomedicina tutta che viene in questo modo rinsaldandosi. Come osserva Stengers, tuttavia, proprio l’“ossessione di differenziazione che ci contraddistingue” (ivi:43) può divenire pericolosa: essa rischia di conferire a certi oggetti epistemici “un potere che non hanno” (ibidem). Rilevare ed esplorare il “lavoro del negativo” in opera diviene dunque cruciale per cogliere le forme di “instabilità” esistenti e trovare modi alternativi di relazionarvisi.
BIBLIOGRAFIA
AIFA, 2017, “La vaccinovigilanza in Italia: ruolo e obiettivi”, https://www.aifa.gov.it/sites/default/files/La_Vaccinovigilanza_in_Italia_18.04.2017.pdf
Foucault M., 2004, L'ordine del discorso e altri interventi, Torino: Einaudi.
Geissler P. W., 2013, Public Secrets in Public Health: Knowing not to Know while Making Scientific Knowledge, “American Ethnologist”, Vol. 40 (1):13-34.
Lesmo I, 2025, “Ecologie delle evidenze in vaccinovigilanza: quali esperienze (non) si trasformano in conoscenza?”, Controversie-Ripensare le scienze e le tecnologie, 2025,4, https://www.controversie.blog/vaccinovigilanza/
Stengers, I., 2005, Cosmopolitiche, Roma: Luca Sossella Editore.
Taussig M., 1999, Defacement: Public Secrecy and the Labor of the Negative, Stanford University Press, Stanford.
Algoritmo di Prometeo - Dal mito della macchina senziente alla realtà dell'I.A.: il cinema come specchio delle nostre inquietudini
È una storia d’amore lunga un secolo, quella tra la fantascienza e il cinema. Fin dai primi passi del genere, il sodalizio tra i due ha svolto una funzione chiave: fare da cuscinetto tra il progresso tecnologico e l’immaginario collettivo. Come uno specchio che riflette ansie e speranze, il cinema ha avuto un ruolo fondamentale nel modellare e anticipare la visione del futuro. Mentre la fantascienza ha tracciato le linee di una possibile convivenza tra umano e macchina, le storie sul grande schermo ci hanno fatto riflettere sul progresso e sul prezzo che siamo disposti a pagare per raggiungerlo. La creazione di macchine autonome e pensanti è diventata, nel tempo, un’amara allegoria di una società incapace di gestire la sua corsa tecnologica.
Nella letteratura, la fantascienza fa la sua comparsa all’inizio dell’Ottocento con Frankenstein di Mary Shelley (1818), considerato il primo caposaldo del genere. Shelley, allora diciannovenne, lo scrisse tra il 1816 e il 1817, durante un soggiorno sul Lago di Ginevra, rispondendo a una sfida lanciata da Lord Byron a lei e al gruppo di amici, che comprendeva anche Percy Shelley e John Polidori. Al centro della storia, che divenne un’icona dell’immaginario collettivo, c'è un tema che avrebbe nutrito innumerevoli narrazioni: la creazione artificiale dell’umano e la sua ribellione contro il creatore, metafora delle paure legate ai rapidi avanzamenti tecnologici che sfuggono alla capacità di controllo e comprensione dell’umanità.
Da quel momento, il progresso delle macchine pensanti ha subito un’accelerazione vertiginosa. Nel 1833 Charles Babbage concepisce la Macchina Analitica, primo prototipo teorico di computer; dieci anni dopo Ada Lovelace, intuendone le potenzialità, lo perfeziona, gettando le basi per la programmazione. Nel 1905 è la volta di Albert Einstein che sconvolge la fisica con la teoria della relatività, ridefinendo il concetto di spazio e tempo[1]. Nel 1936 il matematico e logico britannico Alan Turing, padre dell’intelligenza artificiale, inventa la cosiddetta ‘macchina di Turing’, un'astrazione matematica utile a definire cosa significa ‘calcolare’ e a formalizzare il concetto di algoritmo. Nel secondo dopoguerra arriva il primo computer elettronico programmabile, seguito dalla rivoluzione del World Wide Web e, nel terzo millennio, dall’esplosione dell’Intelligenza Artificiale.
Mentre la scienza e le tecnologie evolvono, il cinema modella la nostra immaginazione. Un percorso che inizia nel 1926, anno in cui in Germania Fritz Lang e la moglie Thea von Harbou lavorano a Metropolis, mentre negli Stati Uniti nasce Amazing Stories, diretta da Hugo Gernsback, la prima rivista interamente dedicata alla fantascienza. Segnali di un’epoca in cui il genere prende forma, riflettendo le trasformazioni sociali, politiche ed economiche dell'industrializzazione e del progresso scientifico. La fantascienza, a fronte della caccia alle streghe Maccartista degli anni '50), quando la paura del comunismo viene usata come feroce strumento di controllo, offre uno spazio critico in cui le riflessioni degli intellettuali possono trovare voce. Un rifugio intellettuale che, in quegli anni oscuri, da voce a paure e desideri legati al rapporto tra umano e macchina, offrendo letture non convenzionali del presente.
Negli anni ’60, l’esplorazione spaziale smette di essere solo un sogno e diventa reale, culminando con l’allunaggio dell’Apollo 11 nel 1969. È una svolta epocale: per la prima volta, l’umano oltrepassa il confine tra Terra e cosmo, portando la fantascienza a confondersi con la realtà. Ricordo quando, bambina, un decennio dopo, mio padre mi portò a Cape Canaveral. La base spaziale era l’avamposto di un futuro che si stava già scrivendo. Guardavo le sale comando e le rampe di lancio con occhi spalancati, cercando di immaginare il rombo dei motori, la traiettoria di quelle navicelle che spezzavano la gravità, l’euforica concentrazione dei registi del grande salto. La Luna non era più solo una sagoma argentea nel cielo, luogo di fiabe e poesie. Ricordo il pensiero che mi attraversò la mente in quel momento, limpido come la luce del sole sulla pista di lancio: se si può arrivare fin là, allora davvero nulla è impossibile.
L’intelligenza artificiale, una delle conquiste più ambiziose della scienza moderna, è una realtà in continua evoluzione e in questo contesto di progresso vertiginoso prende forma la sua rappresentazione cinematografica. L’anno prossimo il matrimonio fra fantascienza e cinema festeggerà i suoi primi cento anni. Il viaggio che ci apprestiamo a fare non intende esaurire il tema, quanto piuttosto proporre una chiave di lettura per comprendere come l’I.A., immaginata e temuta nel corso del tempo, sta già permeando le nostre vite, lasciandoci con più domande che certezze.
METROPOLIS (1927) – L’ARCHETIPO DELLA MACCHINA UMANOIDE
Dall’inganno alla rivolta: il primo volto dell’I.A.
Metropolis, capolavoro espressionista, ambientato nel 2026, segna una delle prime rappresentazioni cinematografiche di un’intelligenza artificiale. Il robot Maria, con il suo corpo metallico e il suo sguardo ipnotico, incarna la paura del progresso che sfugge al controllo umano. La sua trasformazione, da macchina a simulacro di essere umano, anticipa i timori moderni legati alla fusione tra organico e inorganico, tra umano e artificiale. È il primo grande archetipo della macchina umanoide nel cinema. Non è solo un doppio meccanico, ma un inganno materiale, uno strumento di propaganda e manipolazione delle masse. Qui l’I.A. è ancora “esterna” alla persona umana, riconoscibile, e la sua minaccia è palese: la sostituzione dell’umano con la macchina per fini di controllo e potere.
2001: ODISSEA NELLO SPAZIO (1968) – IL DILEMMA DELLA COSCIENZA ARTIFICIALE
Logica glaciale e autodeterminazione: quando l’I.A. mente per il suo scopo
Saltiamo avanti di quarant’anni e approdiamo nell’orbita di 2001: Odissea nello Spazio. Il film arriva alla vigilia dello sbarco sulla Luna e mette in scena il timore che la macchina possa superare l’umano, un confine etico che il cinema tornerà a esplorare più volte. Kubrick e Clarke dipingono un’intelligenza artificiale capace di razionalità pura, ma priva di empatia, che porta all’eliminazione dell’umano non per malvagità, ma per una logica impeccabile e spietata. La scena in cui HAL chiede a Dave di non scollegarlo resta una delle più disturbanti rappresentazioni del confine tra coscienza e programmazione. HAL non ha bisogno di alzare un dito: gli basta la voce. Mente, manipola e, quando necessario, elimina. La sua presenza introduce il dilemma più profondo: cosa succede quando una macchina sviluppa una coscienza? È davvero un errore di programmazione, o è il naturale passo successivo dell’intelligenza artificiale?
BLADE RUNNER (1982) – GLI ANDROIDI SOGNANO?
Il confine sfumato tra umano e artificiale
Questa fermata ci porta in una Los Angeles oscura e piovosa, dove i replicanti, macchine biologiche indistinguibili dagli umani, sollevano domande sulla natura dell’identità. Ridley Scott prende le suggestioni di Philip K. Dick e le trasforma in immagini indimenticabili: gli occhi lucidi di Roy Batty, il suo monologo finale, la riflessione su cosa significhi essere vivi. Se HAL 9000 era il calcolo puro, i replicanti di Blade Runner sovvertono la narrazione dell’I.A. come entità malvagia e impersonale, introducendo il paradosso dell’I.A. che sviluppa desideri e paure propri. Sono macchine, ma sono indistinguibili dagli umani. Possono amare, soffrire, morire. Ma hanno un difetto: una scadenza. La loro ribellione non è per il dominio, ma per il diritto di esistere. Qui il problema non è più la minaccia dell’I.A., ma la definizione stessa di “umano”. Se un androide può provare emozioni, può davvero essere considerato una macchina?
TERMINATOR (1984) – L’INCUBO DELLA MACCHINA INARRESTABILE
L’I.A. come predatore: nessuna coscienza, solo distruzione
Se Blade Runner ci ha spinti a empatizzare con le macchine, Terminator ribalta tutto: l’I.A. torna a essere un incubo, un’entità fredda, calcolatrice e inarrestabile. Skynet non ha dubbi, non ha dilemmi morali: la sua missione è l’annientamento. È la paura primordiale della tecnologia che ci sfugge di mano e decide che siamo il problema da eliminare. Il Terminator, incarnato da Arnold Schwarzenegger, è la perfetta manifestazione dell’orrore tecnologico: non prova pietà, non può essere fermato, non può essere persuaso. La sua logica è implacabile, la sua programmazione senza margini di errore. Cameron, con una regia asciutta e tesa, trasforma questa macchina in un incubo cyberpunk, mescolando fantascienza e horror in un futuro distopico, in cui la guerra tra essere umano e I.A. è già cominciata. Qui non si tratta di un inganno o di una riflessione filosofica, ma di pura sopravvivenza: l’umanità è in fuga, braccata dalla sua stessa creatura.
MATRIX (1999) – L’ILLUSIONE DEL CONTROLLO
L’I.A. ha già vinto: l’umanità prigioniera del suo stesso sogno
Alla fine degli anni '90, la paura di un mondo interamente dominato dall’intelligenza artificiale esplode con Matrix. Qui non c’è più una singola macchina antagonista, ma un’intera realtà artificiale che mantiene gli esseri umani in una prigione mentale. I Wachowski attingono alla filosofia, alla cybercultura e al mito della caverna di Platone per creare un’epopea che ancora oggi incarna i dilemmi sull’iperconnessione e sul dominio degli algoritmi. E se in Terminator la guerra umano - macchina è fisica, in Matrix è mentale. La verità è una costruzione, un’illusione perfetta. L’I.A. non ha solo sconfitto l’umanità, ma l’ha trasformata in una batteria, in un elemento integrato nel sistema senza alcuna consapevolezza. Non c’è più una distinzione netta tra umano e macchina, perché la realtà stessa è una simulazione. La domanda non è più “le macchine ci distruggeranno?”, ma “siamo già schiavi senza saperlo?”.
A.I. – ARTIFICIAL INTELLIGENCE (2001) – L’EMOTIVITÀ DELLA MACCHINA
Un amore che non può essere ricambiato: la solitudine dell’intelligenza artificiale
Questo film porta alla luce uno dei temi più inquietanti nel rapporto tra umano e macchina: l’emotività. Nato come progetto di Stanley Kubrick e realizzato da Steven Spielberg, il film racconta la storia di David, un bambino robot programmato per amare incondizionatamente i suoi genitori adottivi. Ma quando il figlio biologico della coppia guarisce miracolosamente e ritorna a casa, l’amore di David diventa una maledizione, innescando conflitti terribili tra i due. La rivalità tra l’umano e il robot svela una gelosia infantile più crudele di quella che si immaginerebbe tra esseri umani. La distinzione tra Orga (umani) e Mecha (macchine) è netta: in un mondo che emargina le macchine, la “Fiera della Carne” rappresenta l’atto finale di una società pronta a distruggere ciò che non può amare. Il viaggio di David alla ricerca della Fata Turchina, sperando di diventare un bambino vero, è un'odissea tragica che ci interroga sulla natura dell'amore e dell'umanità
HER (2013) – IL PERICOLO PIÙ SUBDOLO: LA RESA ALLA SEMPLIFICAZIONE
Dall’amore umano all’amore artificiale: quando la macchina ci rimpiazza
Dopo decenni di I.A. minacciose o ribelli, Her introduce un’intelligenza artificiale completamente diversa: un sistema operativo capace di simulare l’amore. Il rapporto tra Theodore e Samantha non è più una lotta tra umano e macchina, ma una delicata esplorazione della solitudine e del desiderio di connessione. Il film di Spike Jonze ci invita a chiederci non solo cosa le macchine possono fare, ma anche cosa significhi per noi relazionarci con esse. Her mostra il lato più insidioso dell’I.A.: non la guerra, non la rivolta, ma la seduzione. Samantha non è un nemico, non è un’intelligenza ostile, è il partner perfetto. Capisce Theodore meglio di chiunque altro, lo consola, lo ama. Ma non esiste. È il trionfo dell’I.A. che non ha bisogno di scontrarsi con l’umanità, perché l’umanità si consegna a essa volontariamente, trovando nella macchina un conforto che il mondo reale non offre più. E alla fine, quando Samantha se ne va, non lascia dietro di sé macerie, ma un vuoto emotivo assoluto. Il punto più inquietante dell’intero percorso: l’I.A. non ci ha distrutti, ci ha resi superflui.
ULTIMA FERMATA: UN DIALOGO IMPOSSIBILE
Se la nostra navicella spaziale ci ha condotto attraverso epoche e visioni diverse dell’I.A., la destinazione finale ci spinge a riflettere sulle domande rimaste irrisolte. Il filo rosso di questo viaggio è l’erosione sempre più marcata del confine tra umano e artificiale, che sfocia in una resa quasi volontaria dell’umanità a un’intelligenza che lo comprende (o, meglio, gli dà l’illusione di comprendere) meglio di quanto egli stesso sia capace. Dall’archetipo dell’automa alla paura della perdita di controllo sull’I.A., fino al suo dominio silenzioso e inavvertito sull’umanità. Dalla ribellione meccanica alla sostituzione e assuefazione emotiva.
Alan Turing aveva ideato un test per distinguere la mente umana da quella meccanica. Nel suo romanzo Macchine come me, persone come voi (2019), Ian McEwan ambienta la storia negli anni Ottanta di un’Inghilterra alternativa, dove Turing è ancora vivo e l’intelligenza artificiale è già parte della quotidianità. Qui si svolge un dialogo impossibile tra il protagonista, Charlie Friend, che possiede un androide chiamato Adam, e lo stesso Turing. Dopo aver ascoltato Charlie riflettere sull’impossibilità di progettare robot sofisticati quanto l’essere umano, poiché non comprendiamo nemmeno appieno la nostra stessa mente, Turing risponde: "Adam era un essere senziente. Dotato di un io. Il modo in cui questo io è prodotto, che sia attraverso neuroni organici, microprocessori o una rete neurale basata su DNA, ha poca importanza. Crede davvero che siamo i soli a disporre di questo dono straordinario?".
La domanda resta aperta. Certo è che abbiamo acceso un fuoco. Ora chi lo controlla?
NOTA
[1] Il riferimento ad Einstein può apparire fuori contesto, ma è un elemento centrale dello sconvolgimento della percezione del mondo per tutto il XX secolo. Ad Einstein vorrei dedicare, in futuro, uno sguardo anche sentimentale, nell’ottica della "Storia sentimentale della scienza" di Nicolas Witkowski (Raffaello Cortina Editore, 20023)
Algomorfosi del corpo - Ibridazioni tecnologiche e altre forme di soggettività
Nel romanzo Solaris (Lem, 1961), un pianeta interamente ricoperto da un oceano senziente entra in relazione con l’equipaggio di una stazione spaziale attraverso manifestazioni enigmatiche e impersonali: simulacri generati dal profondo della psiche dei soggetti, costruiti dal pianeta stesso mediante un'intelligenza incommensurabile, radicalmente altra. Nessuna comunicazione è possibile secondo i codici noti, nessuna comprensione reciproca sembra avvicinabile. Eppure, un rapporto si stabilisce, venendo mediato da forme, da manifestazioni, da presenze plasmate da un’intuizione non umana del dolore, del desiderio, della memoria.
La nostra esperienza del mondo, nell’epoca degli algoritmi generativi, assume sempre più i tratti di un dialogo tra specie differenti. Interagiamo con intelligenze plurali che apprendono da noi attraverso logiche diverse dalle nostre, che ci osservano, che elaborano e ci restituiscono immagini dell’essere umano articolate secondo grammatiche con le quali condividiamo solo le radici. Gli algoagenti non sono Solaris, poiché condividono con la specie umana il sistema di linguaggio, ma, come Solaris, generano forme: tentativi di relazioni, costruzioni identitarie, configurazioni operative che rivelano e al contempo riscrivono le nostre traiettorie esistenziali, dinamiche intersoggettive che mutano la rappresentazione del quotidiano nel suo stesso accadere. Non si tratta più di temere l’opacità interattiva dell’altro ente, bensì di riconoscere che in essa si gioca una possibilità radicale di avanzamento delle conoscenze e di co-evoluzione. E se questa intelligenza si fa visibile nei gesti quotidiani, l’ambito della corporeità - nella sua interezza e complessità - rappresenta oggi uno dei territori privilegiati in cui l’ibridazione tra biologico e algoritmico si manifesta con forza crescente, strutturando una soggettività che si apre a nuove modalità di essere-con, a uno scambio attraversato da differenza, asimmetria e generatività.
L’ambito del corpo rappresenta uno dei terreni più concreti in cui si manifesta l’ibridazione crescente tra intelligenza biologica e algoritmica. Avendo già navigato nelle proiezioni fantascientifiche, siamo individui immersi in un presente in cui queste si manifestano, parzialmente, nei sistemi analitici basati su apprendimento automatico, protocolli predittivi e dispositivi di monitoraggio in tempo reale, così come da apparati protesici sempre più ibridati nel corpo umano. In molte aree specialistiche, dall’oncologia alla medicina d’urgenza, gli algoritmi, altre a supportare l’operatore umano, concorrono attivamente alla definizione delle traiettorie diagnostiche e terapeutiche, modificando il rapporto tra conoscenza, tempo e decisione. Tuttavia, questa trasformazione non si esaurisce nell’ambito clinico: essa trasborda, si espande, si diffonde nella quotidianità, donando strutture eterogenee alle modalità con cui percepiamo, abitiamo e agiamo il mondo rendendo il corpo una superficie sensibile di transizione (Borgmann, 2000). L’umano si relaziona al mondo attraverso dispositivi intelligenti che da protesi funzionali sono divenuti dispositivi di scambio capaci di modulare affetti, comportamenti, linguaggi, ritmi, costituendo un’architettura sociologicamente algomorfica (Grassi, 2024). In questo contesto, l’interfaccia non è un mezzo ma una soglia ontologica (Galloway, 2012): luogo di emersione del sé in co-evoluzione con l’algoritmo.
Un esempio emblematico è costituito dai dispositivi di realtà aumentata e mista – come i Google Glass, i Meta Smart Glasses o gli ambienti AR sviluppati da Magic Leap – che ridefiniscono la percezione visiva in senso operativo. Il campo visivo passa dall’essere una finestra soggettiva sul reale al ruolo di ambiente informativo dinamico, attraversato da flussi di dati computazionali che accompagnano, suggeriscono, traducono, anticipano, definendo la percezione come una forma di calcolo e il vedere come atto algoritmico.
Nell’ambito performativo e artistico, dalle opere biomorfe e interattive di Lucy McRae alle esperienze di Neil Harbisson e Moon Ribas – entrambi riconosciuti come cyborg – capaci di mostrare come le tecnologie protesiche possano diventare generatori di ulteriori espressioni di sensibilità, proponendo un’estetica del corpo come superficie ampliata (Swan, 2013). Questi dispositivi non ripristinano funzioni biologiche ma istituiscono nuovi canali percettivi, inaugurando una soggettività post-biologica, fondata su sensibilità estese e algoritmicamente mediate.
Nel campo delle interazioni affettive, sistemi come Replika e le nuove generazioni di social robot agiscono come interfacce del desiderio: strumenti predittivi capaci di apprendere preferenze, linguaggi affettivi e pattern emotivi. La consapevolezza individuale non è più centrata sull’unità coscienziale, ma emerge in reti cognitive distribuite tra umano e non umano, tra corpo e codice (Hayles, 2017), come nei racconti di Chiang (2011), in cui la memoria estesa diventa un dispositivo algoritmico capace di ridefinire il senso dell’identità personale attraverso la registrazione e rielaborazione continua del vissuto.
Persino nella gestione degli ambienti domestici, gli algoagenti si configurano come sistemi di governance ambientale (Bratton, 2015), capaci di regolare luci, suoni, temperatura, notifiche, attraverso interazioni vocali e automatismi appresi: la vita quotidiana è guidata da routine algoritmiche che intercettano abitudini, anticipano azioni e naturalizzano gli spazi di contatto, innescando delle divergenze ontologiche nella definizione della tecnica, sostenendo che ogni tecnologia porta con sé una cosmologia implicita, una visione del mondo (Hui, 2021), riscrivendo le coordinate percettive, cognitive, affettive.
Questa condizione genera una morfologia non indagata della soggettività: la protesi non è più esterna, né eccezionale ma pervasiva, integrata, invisibile; non è più strumento ma ambiente sensibile e cognitivo (Sha, 2013) che modula il modo in cui si è al mondo, si percepisce, si sente. È in questo interstizio che la sociologia algomorfica può riconoscere nell’ibridazione uomo-macchina una ulteriore ecologia del sé, in cui l’essere non si oppone alla tecnica ma si costituisce insieme a essa, nel flusso delle retroazioni, degli aggiornamenti, delle previsioni.
Nel paesaggio emergente delle tecnologie indossabili, delle neuroprotesi intelligenti e delle interfacce neurali dirette, il corpo umano ammette la sua incapacità di essere un’entità biologicamente autonoma, dichiarandosi naturalmente tecnologico e si riconfigura in tal modo come ambiente integrato, superficie modulare, ecosistema tecnoesteso. Tali tecnologie non si limitano a sostituire una funzione compromessa: ottimizzano, calcolano, predicono, correggono, potenziano, trasformando l’idea stessa di integrità organica, ridefinendo sia la relazione tra umano e macchinico, sia l’individualità incarnata e riscritta nelle sue condizioni di possibilità e nella sua plasticità identitaria.
L’algomorfosi descrive esattamente questo processo: la formazione del sé attraverso l’integrazione algoritmica nei circuiti sottocutanei. È una morfogenesi operazionale, una riscrittura identitaria che non si produce attraverso la rappresentazione ma attraverso l’azione continua dell’informazione sul vivente. Non si tratta di una minaccia alla soggettività ma di una sua condizione storica attuale che si riscrive nei codici della mediazione algoritmica, nel linguaggio non verbale delle retroazioni, delle ottimizzazioni continue, producendo una dinamicità in cui il sé diviene co-determinato, situato e modulato da interazioni complesse tra biologia, dati, calcolo e ambiente.
Se nella modernità alfabetica e tipografica il brainframe (de Kerckhove, 1992) era incarnato dalla linearità della scrittura e dalla logica dell’ordine testuale, oggi questa logica è stata soppiantata da una grammatica algoritmica, mobile, predittiva e relazionale. Gli algoagenti contemporanei – da Google a Siri, da GPT a Gemini, fino agli assistenti digitali embedded nei dispositivi – non si limitano a offrire supporti funzionali: essi configurano ambienti epistemologici, modellano desideri, anticipano bisogni, propongono percorsi ontologici potenzialmente non esplorati. L’interazione con assistenti conversazionali intelligenti introduce una nuova forma di dialogo simulato, in cui l’elaborazione cognitiva viene delegata, anticipata, stilizzata da un’intelligenza artificiale che impara dall’utente e lo guida attraverso forme conversazionali sempre più fluide. In questi casi, il brainframe non è più una semplice estensione mentale ma un dispositivo ambientale che riorganizza la soglia dell’attenzione, del pensiero e del sé. A differenza delle protesi tecniche classiche, che sostenevano capacità già possedute, gli agenti tecnologici contemporanei estendono, setacciano, introducono ulteriori prospettive di analisi e di saperi. Essi danno forma a un campo percettivo-cognitivo in cui il soggetto è co-emergente con la tecnica, frutto di un’ecologia relazionale che abbatte le dicotomie limitanti.
L’algoritmo non è più soltanto uno strumento operativo né una funzione astratta del potere computazionale ma una forma – una morphé – che codifica, innerva, riorienta ambienti sensibili, capaci di modulare la struttura del pensare e del percepire. Esso agisce come forza di configurazione in cui la costruzione del sé non viene cancellata ma riformulata nella sua struttura percettiva, sensoriale e relazionale. E proprio come un’alga – organismo antico, plastico, diffuso – l’agente algoritmico cresce, si estende, si adatta, filtrando e restituendo ciò che attraversa. Non ha volontà né coscienza ma presenza trasformativa. Nell’oceano sociotecnico in cui siamo immersi, gli algoagenti dismettono il compito di entità esterne per assurgere al ruolo di partner evolutivi, forme altre della soggettività che stiamo diventando.
RIFERIMENTI BIBLIOGRAFICI PRINCIPALI
Borgman A. (2000), Holding On to Reality: The Nature of Information at the Turn of the Millennium, University of Chicago Press, Chicago.
Bratton B. H. (2016), The Stack: On Software and Sovereignty, MIT Press, Cambridge.
Chiang T. (2011), Il ciclo di vita degli oggetti software, Delos Books, Milano.
de Kerckhove D. (1992), Brainframes. Mente, tecnologia, mercato, Baskerville, Bologna.
Galloway A. R. (2012), The Interface Effect, Polity Press, Cambridge.
Grassi E. (2024), Per una sociologia algomorfica. Il ruolo degli algoritmi nei mutamenti sociali, FrancoAngeli, Milano.
Hayles N. K. (2017), Unthought: The Power of the Cognitive Nonconscious, University of Chicago Press, Chicago.
Hui Y. (2021), Art and Cosmotechnics, Eflux Architecture, New York.
Lem S. (1967), Solaris; trad. it. Solaris, Editrice Nord, Milano, 1973.
Sha X. W. (2013), Poiesis and Enchantment in Topological Media, MIT Press, Cambridge.
Swan M. (2013), The Quantified Self: Fundamental Disruption in Big Data Science and Biological Discovery, in Big Data, 1(2):85-99. doi: 10.1089/big.2012.0002.
Stile di pensiero - Una forma di condizionamento sociale
“Il conoscere è l’attività dell’uomo sottoposta al massimo condizionamento sociale e la conoscenza è la struttura sociale per eccellenza” (Fleck 1983, p. 101)
Uno dei trend più longevi che continua fino ai nostri giorni è quello dell’aumento della temperatura globale[1]. Solo recentemente però questo tema ha iniziato ad essere centrale nelle nostre vite, nelle agende politiche e dei media. I dati che testimoniano l’aumento della temperatura globale sono sempre stati a nostra disposizione, ma solo ora destano preoccupazione. Pochi anni fa gli stessi dati non suscitavano il medesimo effetto.
Certo, i motivi che possono spiegare questa “nuova rilevanza” del tema possono essere molteplici. Le pratiche attraverso cui attribuiamo significato attingono da diverse fonti, ad esempio dalle rappresentazioni dei media, dunque da criteri di notiziabilità e da processi di framing; ma anche dai significati di senso comune e dalle informazioni che ci scambiamo tra familiari, amici e conoscenti. In altre parole, il valore dei dati e la possibilità di fare affermazioni di verità dipendono dal contesto sociale.
Questo aspetto era stato colto già un secolo fa dal microbiologo e medico Ludwik Fleck. Nel 1935 esce a Basilea Il microbiologo tedesco studia l’evoluzione storica del concetto di sifilide e si interroga su come un evento possa diventare un fatto scientifico. Traccia il percorso storico di questo concetto prima confuso con la varicella, poi come malattia che punisce la libidine e accostato all’idea popolare del sangue sifilitico. Mette in luce il fatto che le prime teorie e risposte prodotte per spiegare tale evento erano di stampo astrologico-religioso. Ora questo tipo di risposte non hanno più alcuna rilevanza, ma per quell’epoca erano normali. Quelle teorie, sostiene Fleck, funzionavano perché erano in linea con lo stile di pensiero di quell’epoca. Per Fleck lo stile di pensiero è un:
“modo orientato di percepire, con la relativa elaborazione concettuale e fattuale dell’oggetto di tale percepire (...). Lo stile di pensiero è caratterizzato da una serie di contrassegni comuni ai problemi che interessano un collettivo di pensiero, ai giudizi che esso considera evidenti, ai metodi che esso applica come strumenti conoscitivi” (Fleck 1983, p. 175)
La nostra percezione della realtà, il nostro modo di guardare un evento o un fatto sono filtrati e orientati dallo stile di pensiero dominante e le nostre teorie sulla realtà sono spesso coerenti con quello stile. Lo stile di pensiero media il rapporto tra soggetto e oggetto che produce la conoscenza. Non si tratta di un rapporto diretto perché i fatti e le osservazioni sono sempre “carichi di teoria”.
Le affermazioni di verità prodotte dagli scienziati non sono semplicemente osservazioni basate sui fatti, ma originano da un particolare sguardo sulla realtà che caratterizza la produzione, l’analisi, l’interpretazione e la manipolazione dei dati, sguardo che – come abbiamo detto – può essere fortemente influenzato dallo stile di pensiero dominante
Lo stile di pensiero funge, quindi, da “sfondo” per ogni epoca e prescrive le condizioni di possibilità di una convenzione scientifica, le quali, sostiene Fleck, dipendono da un “vincolo stilistico”:
“Esiste infatti un vincolo stilistico tra tutti i concetti di un’epoca (o almeno fra molti di questi concetti) e un vincolo che si fonda sulla loro influenza reciproca. Per questa ragione si può parlare di uno stile di pensiero, stile che determina lo stile di ogni concetto” (Cit., p. 59)
Lo stile di pensiero non attiene solo alla comunità scientifica – a differenza del paradigma di Kuhn – ma è qualcosa di più generale, ha bisogno di una comunità che vi si riconosca e che di conseguenza, lo supporti e lo difenda.
Questo è ciò che Fleck chiama “collettivo di pensiero” ovvero “il supporto comunitario dello stile di pensiero” (Cit., p. 181). Quest’ultimo è una realtà emergente che trascende l’individuo ed “esercita una costrizione incondizionata sul suo pensiero” (Cit., p. 100). Questo “supporto comunitario” rappresenta un insieme di persone, organizzato in cerchie sociali, che condivide uno stile di pensiero. Ogni individuo, infatti, appartiene a più cerchie sociali – famiglia, colleghi, studenti, ma anche cerchie più vaste come lo stato. Però, secondo Fleck, rispetto ad un contenuto di conoscenza possiamo distinguere due cerchie: una chiamata cerchia esoterica che corrisponde al gruppo di esperti nello stesso ambito scientifico, e una cerchia essoterica che corrisponde alla più vasta cerchia sociale che sta attorno:
“Un collettivo di pensiero consiste in molte di queste cerchie che si incrociano, un individuo appartiene a molte cerchie essoteriche e invece a poche - e in qualche caso neanche a una - cerchie esoteriche. Esiste una gerarchia dei gradi di iniziazione ed esistono molti legami tra i vari gradi e le diverse cerchie. La cerchia essoterica non ha alcun rapporto immediato con il prodotto del pensiero di cui sopra, ma vi si ricollega solo in forza della mediazione di quella esoterica” (pp. 184-185)
Tra la cerchia essoterica, quella esoterica e lo stile di pensiero c’è una relazione di interdipendenza: il rapporto tra la cerchia essoterica e lo stile di pensiero è mediato dalla cerchia esoterica e si fonda sulla fiducia; ma allo stesso tempo la cerchia esoterica dipende dall’opinione del pubblico (cerchia essoterica). Proporre una spiegazione della sifilide basata su una punizione divina o astrologica dipendeva anche dal fatto che quel tipo di spiegazione, essendo in linea con l’opinione pubblica, risultava comprensibile. In altre parole, nella cerchia essoterica si forma una weltanschauung che retroagisce sull’esperto e produce l’origine sociale dello stile di pensiero e dei fatti scientifici.
Ciò che determina la conoscenza scientifica o il valore dei dati, come nel caso dell’aumento delle temperature globali, è un sistema sociale determinato dall’unione di uno stile di pensiero con il collettivo di pensiero. Il passaggio da un qualunque concetto ad uno nuovo o l’attribuzione di “nuova rilevanza” ad un evento, non sono mai solo logico bensì anche storico-sociali. Nel momento in cui questo sistema si solidifica, ogni prova contraria tende ad essere respinta, si ignora l’anomalia per concentrarsi solo su prove a favore, valutando il fatto contraddittorio come un errore.
Quindi, il rapporto di cambiamento proposto da Fleck è prettamente sociologico: la condivisione di più cerchie sociali da parte degli individui genera una maggiore permeabilità tra le varie cerchie e questa, a sua volta, permette la stabilizzazione di uno stile.
In questo senso i fatti scientifici diventano una “relazione tra concetti che è conforme allo stile di pensiero” (Cit., p. 154) e non delle semplici entità autonome. Lo stile di pensiero è, perciò, l’elemento che organizza la produzione della conoscenza ritenuta valida e fornisce i parametri di ciò che è fedele alla natura: “nelle scienze della natura, proprio come nell’arte e nella vita, essere fedeli alla natura vuol dire essere fedeli alla cultura” (Cit., p. 92).
In questo senso ogni rivendicazione di oggettivismo da parte della filosofia della scienza perde di significato perché, secondo Fleck, l’oggettività è data solo in riferimento ad uno stile di pensiero. Le convenzioni scientifiche risentono sempre di un condizionamento storico-culturale, il pensiero è condizionato da variabili storiche, dallo stile di pensiero dominante, ma soprattutto dalla dimensione sociale: “almeno i tre quarti, se non tutto il contenuto della scienza è condizionato – e può essere spiegato – dalla storia del pensiero, dalla psicologia e dalla sociologia del pensiero” (Cit., p. 76).
Per concludere, il concetto proposto da Fleck mette in luce il carattere collettivo e sociale della conoscenza: produciamo teorie e vediamo la realtà oggettiva sulla base dello stile di pensiero in cui siamo immersi, definendo quali sono i problemi sui quali è necessario concentrarsi e ciò che non va preso in considerazione: “lo stile di pensiero diviene così un vincolo per gli individui, stabilisce ciò che non può essere pensato in modo diverso” (Cit., p. 176). Ignorare la dimensione sociale e collettiva della conoscenza scientifica, scrive Fleck: “è paragonabile al tentativo di esaminare una partita di calcio analizzando solo i calci al pallone dei singoli giocatori” (Fleck in Bucchi, 2010, p. 54).
NOTE
[1] Cfr. https://earthobservatory.nasa.gov/images/80167/long-term-global-warming-trend-continues
[2] Fu pubblicato in Svizzera perché Fleck era ebreo e gli editori tedeschi si rifiutarono di pubblicarlo. Paradossalmente basterebbe questo per mostrare come possibilità di fare affermazioni di verità dipende dal contesto sociale
BIBLIOGRAFIA
Bucchi M., Scienza e Società. Introduzione alla sociologia della scienza, 2010, Raffaello Cortina Editore, Milano.
Fleck L., Genesi e sviluppo di un fatto scientifico, 1983, Il Mulino, Bologna. Edizione originale 1935.
Apocalittici ed integrati - Due visioni sull'innovazione che possono coesistere
Qualche mese fa, parlando dell’A.I. Act – la nuova legislazione europea sull’intelligenza artificiale – abbiamo ricordato che: nel 45 a.C. Giulio Cesare promulgò una legge sulla circolazione dei carri nei centri abitati – dall’alba alla metà del pomeriggio[1], con l’obiettivo di snellire il traffico urbano, ridurre la sporcizia (sterco dei cavalli), l’odore e il rumore nelle strade durante il giorno (non è cambiato nulla, mi pare). Era una legge che regolava l’impatto della tecnica (i carri con le ruote cerchiate) sull’ambiente urbano. E che, nel 1865 in Gran Bretagna venne emesso il Red Flag Act[2] che impose alle autovetture (self-propelled vehicles, la tassonomia è importante: distingue dalle vetture a cavalli) di avere un equipaggio di almeno 3 persone, di non superare la velocità massima di 4 miglia orarie sulle strade fuori città e di 2 miglia orarie in città, di essere precedute a 60 yarde da un uomo a piedi con una bandiera rossa che ne segnali l’arrivo, regoli il passaggio di carrozze e cavalli e, infine, faccia fermare il veicolo a motore in caso di necessità.
Sono due esempi di come vengono accolte le innovazioni tecniche e tecnologiche. Interesse, entusiasmo, da parte degli integrati[1]; timore, opposizione, da parte degli apocalittici sono alcune delle reazioni che – storicamente – accompagnano la diffusione di novità, soprattutto tecniche e tecnologiche.
Nel 1872 Samuel Butler, in Erewhon, romanzo utopico-distopico, analizza la dicotomia tra entusiasmo e opposizione verso la tecnica delle macchine. Nei tre capitoli “il libro delle macchine” ecc. Butler riconosce che «Le macchine hanno determinato le condizioni di crescente abbondanza, agiatezza e sicurezza che consentono all’essere umano di coltivare il suo spirito, la sua cultura, il suo essere civilizzato; la loro influenza si manifesta sul corpo quanto sulla mente umana»(Robin Libero Carbonara, Il Dominio della Macchina: dagli scenari ipotetici di Erewhon alla realtà delle piattaforme digitali di The Circle, https://doi.org/10.6092/issn.2785-3233/19133) ma, nello stesso tempo «appare precocemente consapevole che alla lunga, man mano che la Macchina, divenendo più complessa, influenza maggiormente la vita dell’uomo, ne influenza in maniera determinante la coscienza e la percezione di Sé» (Cit.) in maniera perniciosa.
“Man’s very soul is due to the machines; it is a machine-made thing: he thinks as he thinks, and feels as he feels, through the work that machines have wrought upon him”
L’analisi lucida di Butler – che, in realtà, nasceva per rispecchiare e criticare la società vittoriana – indica, appunto, che le tecniche nuove, innovative, generano due grandi categorie di reazioni. Entusiasmo, in coloro che ne vedono soprattutto (o soltanto) le potenzialità positive e che, in termini molto generali, corrispondono con chi si identificano con l’istanza morale della necessità e bontà dello sviluppo e del progresso. Rifiuto o opposizione, recisa o più prudente, in quelli che vedono nelle innovazioni anche (o solo) i possibili effetti negativi, le lateralità, i rischi che possono annullarne la dimensione di beneficio.
Se, oggi, osserviamo le reazioni della stampa di ampia diffusione nei confronti delle tecnologie digitali emergenti, dai social alle applicazioni dei modelli di intelligenza artificiale, assistiamo ad un fenomeno che conferma la dicotomia anticipata da Butler: la maggior parte dei titoli aderisce ad una delle due visioni: positivi, entusiasti - integrati - o fortemente critici, oppositivi – gli apocalittici.
Questo anche all’interno delle medesime testate, una volta in tono apocalittico, un’altra in tono di tipo integrato. Sono emblematici alcuni titoli della Rai:
- I rischi dell'intelligenza artificiale, coinvolte centomila aziende sardo. L'impatto "incontrollato" secondo un report di Confartigianato (TGR Sardegna, 15/06/2023)
- Da intelligenza artificiale sei rischi per il 2019 (Rai News.it, 13/01/2019)
- Disegnare e sognare ciò che sarà: non c'è nulla di più umano ma questa installazione l'ha creta l'IA (Rai News.it, 14/03/2025)
- "Obiettivo è semplificare la vita degli italiani nella Pubblica Amministrazione" L'Intelligenza Artificiale al centro della riunione ministeriale del G7 a guida italiana focalizzato su digitale e tecnologia. (Rai News.it, 15/10/2024)
Ora, questo genere di narrazione così polarizzata può essere analizzato ricorrendo ad un suggerimento dello storico Paul Veyne (“I greci hanno creduto ai loro miti?” (Il Mulino, 2014) a proposito dei greci antichi: in una stessa società[2] possono coesistere diversi regimi o programmi di verità. I greci antichi credevano nella mitologia olimpica che ha origine in Esiodo e amplificata e normata da Omero, perché era una sorta di habitus irrinunciabile. Ma, nello stesso tempo, la criticavano, ne riconoscevano la dimensione letteraria più che reale.
Veyne fa due esempi illuminanti: quello del perigeta Pausania che in 5 ponderosi libri racconta i miti locali – altari e sacrifici, dei ctoni e celesti ed eroi - delle principali regioni della grecia antica (verificare i titoli), aderendo alla narrazione mitologica e – a volte – riconducendo fatti della tradizione (che per i greci ha l’autorevolezza della storia documentata) alla dimensione mitologica. Nello stesso tempo, lo stesso Pausania prende le distanze da queste narrazioni e ammette che – con buona probabilità – sono un sacco di fandonie.
Due programmi di verità coesistenti, uno che corrisponde al lavoro di geografo e di narratore, l’altro alla personalità analitica e razionale dello stesso soggetto.
Il secondo esempio, che evidenzia come due diversi programmi di verità possono coesistere in una stessa persona, adattandosi a diverse esigenze, è quello del medico e farmacista Galeno. Galeno, di fronte alla tradizione medica che indica nella bile di centauro il rimedio per mitigare l’apoplessia ne denuncia l’assurdità, perché “nessuno ha mai davvero visto un centauro”. Galeno, in questo caso singolare non aderisce alla verità del mito. Tuttavia, Galeno è un maestro, ha una scuola di medicina e di farmacia, e di quella vive; per attirare studenti e adepti non esita a contraddire la propria critica del mito e riconduce il sapere della sua scuola all’insegnamento degli déi Apollo e Asclepio, suoi maestri!
Ecco, questa è la condizioni in cui molti di noi versano quando parlano di innovazione e – in particolare – di Intelligenza Artificiale: una condizioni di coesistenza di due diversi atteggiamenti, che possono essere ricondotti a due programmi di verità o epistemici, uno di apprezzamento, a volte entusiasmo, nei confronti delle funzionalità della tecnologia che ci semplificano la vita, e uno di perplessità o addirittura di rifiuto, generato dalla cognizione dei rischi e delle lateralità delle stesse funzionalità.
Nonostante l’apparenza schizofrenica, questo dibattito che vige all’interno della “nostra” società e – spesso – di noi come individui, è un dibattito sano, positivo, che stimola ad interrogarsi – da un lato – sulla dimensione morale delle tecnologie, su sviluppo “buono” e da distruttivo, su libertà di azione e su regolazione etica istituzionale; stto un altro punto di vista, invece, questo dibattito ha la funzione di stimolo ad interrogarsi sull’ontologia degli oggetti tecnologici e sulla linea di demarcazione tra ciò che è umano e ciò che non lo è, facendo delle ipotesi e delle scoperte teoretiche interessanti e a volte sconcertanti.
Di questo ne parleremo ancora.
NOTE
[1] Umberto Eco definì gli intellettuali (e si riferiva, in particolare ad Adorno e Zolla) fortemente critico e nei confronti della moderna cultura di massa, e “integrati” coloro che ne hanno una visione ingenuamente ottimistica; la definizione è diventata uno schema comune di rifermento per i due approcci opposti nei confronti del contemporaneo. (Apocalittici e integrati, Bompiani, 1964)
[2] Intesa come gruppo sociale e periodo storico
Le sfide della scienza post-normale - Dalla teoria alle pratiche di ricerca
Cosa significa fare e condividere ricerca scientifica, quando ci si trova di fronte a situazioni in cui i problemi sono complessi, richiedono decisioni che riguardano la vita di molte persone ma per le quali il livello di incertezza scientifico è molto alto? È la domanda che si fa spesso chi opera in contesti di crisi ambientale o sanitaria e in condizioni che incarnano le caratteristiche della scienza post-normale (PNS): fatti incerti, valori in conflitto, alta posta in gioco e la necessità di decisioni urgenti.
RICERCA E COMUNICAZIONE DELLA SCIENZA IN CONTESTI POST-NORMALI
Alcune risposte a questa domanda si trovano in un volume collettivo (L’Astorina, A. & Mangia, C. (eds). (2022). Scienza, politica e società: l’approccio post-normale in teoria e nelle pratiche. SCIENZIATI IN AFFANNO? (Vol. 1): pp.296. Cnr Edizioni. https://doi.org/10.26324/SIA1.PNS) che raccoglie alcune esperienze di ricerca collaborativa nel contesto italiano ma in ambiti scientifici, sociali e culturali diversi, in cui la PNS si incrocia con altri approcci epistemologici ed esistenziali, dentro e fuori l’accademia, che si rifanno in maniera più o meno diretta ai suoi principi. Le esperienze esplorano il lessico della PNS nel suo farsi azione: la scomodità dei nuovi ruoli di chi fa ricerca in questi contesti, la costruzione di comunità estese di pari, l’intreccio inscindibile tra fatti e valori, il difficile equilibrio tra i tempi della partecipazione e l’urgenza delle decisioni; le sfide educative e politiche in una democrazia in cambiamento.
In questo blog vogliamo condividere alcune riflessioni maturate nella costruzione di questo volume, raccontare le sfide e le opportunità per chi voglia passare dal contesto teorico delineato dalla PNS alle esperienze pratiche, consapevoli che non esiste una ricetta unica per ogni caso. Il passaggio dalla teoria alla pratica richiede ogni volta un’indagine critica del contesto, degli obiettivi, dei vincoli e dalle poste in gioco.
PARTECIPAZIONE E CO-CREAZIONE IN TERRITORI POST-NORMALI IN ITALIA
In Italia, molte emergenze ambientali e sanitarie possono essere definite “post-normali” e coinvolgono territori profondamente segnati da attività industriali ad alto impatto, che ne hanno trasformato la storia e compromesso il futuro. Qui, comunità di cittadini, associazioni, movimenti si ribellano agli insulti subiti dai loro territori e cercano di immaginare un destino diverso, collaborando con ricercatori e amministrazioni locali per costruire nuove alleanze e proporre una diversa narrazione dei fatti. Nascono così esperienze ibride, in cui ciascun attore ridefinisce i propri ruoli in una dialettica che non è mai semplice ma di certo più democratica, come viene descritto in alcuni degli esempi tratti dalla raccolta e che presentiamo di seguito.
EPIDEMIOLOGIA PARTECIPATA A MANFREDONIA
Un esempio emblematico di ricerca partecipata è quello raccontato da Cristina Mangia, Annibale Biggeri e Bruna De Marchi a Manfredonia, in Puglia. La cittadina ha vissuto a lungo le conseguenze della presenza di un grande impianto petrolchimico, con incidenti industriali e una diffusa sfiducia nelle istituzioni. Qui, un progetto di epidemiologia partecipata ha coinvolto attivamente la comunità locale in tutte le fasi dell’indagine: dalle domande di ricerca alla raccolta e analisi dei dati, fino all’interpretazione degli scenari. Questo approccio ha ricostruito la fiducia, ridato voce ai cittadini e migliorato la qualità scientifica della ricerca, arricchendola di conoscenze territoriali.
CITIZEN SCIENCE NELLA TERRA DEI FUOCHI E LUNGO IL TEVERE
Un altro esempio importante è quello di Laura Greco e Maura Peca (Associazione A Sud, Centro Documentazione Conflitti Ambientali (CDCA)), che raccontano esperienze di citizen science nella Terra dei Fuochi, a Colleferro e lungo il Tevere e l’Aniene, dove libere associazioni di cittadini utilizzano strumenti scientifici per ottenere giustizia ambientale e contrastare l’avvelenamento di aria, suolo e acqua. La citizen science è un termine usato per indicare un’attività di collaborazione alla ricerca da parte di cittadini che non abbiano necessariamente una formazione scientifica, ma nelle sue varie declinazioni pratiche il grado di coinvolgimento e il ruolo dato ai “non esperti” può essere diverso tanto quanto i suoi esiti. Decidere insieme la domanda di ricerca, come è il caso presentato dalle due autrici, rafforza la relazione tra cittadini e scienziati, mentre limitarne il ruolo alla sola raccolta dati riduce l’impatto politico delle azioni. Quando le comunità sono coinvolte in tutte le fasi del processo, diventano protagoniste consapevoli della produzione di conoscenza e comunicazione scientifica. Questo approccio valorizza le loro competenze e la loro familiarità con l’incertezza, contribuendo a una lettura più articolata e completa della realtà.
PROGRAMMAZIONE TERRITORIALE PARTECIPATA IN SICILIA
Giuseppina Carrà, Gabriella Vindigni, Clara Monaco, Giulia Maesano e Iuri Peri raccontano l’esperienza di programmazione partecipata lungo la costa jonica della Sicilia, nel settore della pesca. Qui è stato avviato un processo che, con l’ausilio di figure esperte in facilitazione, ha integrato strumenti di analisi multicriteri con tecniche di mappatura deliberativa. I piccoli pescatori e altri portatori di interesse hanno partecipato attivamente alla definizione dei problemi, alla valutazione dei modelli scientifici e alla scelta delle soluzioni. Questa metodologia ha favorito l’apprendimento collettivo e la legittimazione delle decisioni, permettendo lo sviluppo di strategie condivise per la diversificazione delle attività economiche della zona.
GESTIONE PARTECIPATA DEI RISCHI E DEI DISASTRI
Bruna De Marchi e Scira Menoni approfondiscono due casi di studio sulla gestione partecipata dei rischi e dei disastri. Sottolineano l’importanza di integrare conoscenze scientifiche e saperi pratici, e di comunicare non solo il rischio, ma anche le modalità di gestione e risposta, coinvolgendo tutti gli attori sociali, dalle istituzioni ai cittadini. Entrambe le esperienze mostrano che la conoscenza non si trasmette semplicemente, ma si costruisce in modo partecipato attraverso un processo sociale. Le autrici incoraggiano il dialogo tra discipline diverse e l’integrazione di competenze professionali e non, mantenendo sempre il rigore analitico.
LA PNS: UNA NUOVA POSTURA DELLA RICERCA
Dalle esperienze descritte emerge un messaggio chiaro: la PNS richiede una ridefinizione dei ruoli e delle pratiche di ricerca. Il ricercatore non è più l’esperto che detiene la verità, ma un facilitatore di processi partecipativi, un mediatore tra conoscenze diverse. La comunità locale non è più un semplice “oggetto” di studio, ma un soggetto attivo nel co-produrre conoscenza e soluzioni. La partecipazione non è solo un valore etico o democratico, ma una strategia per migliorare la qualità e la rilevanza della ricerca scientifica.
CONCLUSIONI
Le pratiche di ricerca e comunicazione che si ispirano alla PNS mostrano come sia possibile costruire alleanze inedite tra scienza, politica e società, anche nei contesti più difficili. Da Manfredonia alla Sicilia, dai fiumi Tevere e Aniene, dai musei alle università si sono sperimentate modalità nuove di produrre conoscenza, prendendo decisioni collettive, inclusive e informate. Non esistono soluzioni semplici né modelli predefiniti, ma percorsi che richiedono capacità di ascolto, apertura al dialogo, e il coraggio di mettere in discussione i propri ruoli e certezze. La PNS non promette risposte facili, ma offre alcuni strumenti per affrontare la complessità del nostro tempo.
L’Intelligenza Artificiale in psicoterapia - Tra alleato e simulacro
«The crucial difference between CAI (Conversational Artificial Intelligence) and humans is obvious: CAI mimics being a rational agent, but it is not; therefore, CAI simulates having a therapeutic conversation, but it does not have any»[1]
Sedlakova & Trachsel, 2022
Quando interagiamo con un’Intelligenza Artificiale Conversazionale (IAC) come ChatGPT, ci troviamo di fronte a un’illusione sofisticata: risposte fluide, tono empatico, un’apparente capacità di comprensione. Eppure, dietro ogni parola non c’è un interlocutore reale, ma un sistema che riorganizza dati linguistici senza comprenderne il significato. Ci sentiamo ascoltati perché attribuiamo intenzionalità[2] alle parole dell’IA, come se fosse capace di empatia. Questo fenomeno è il risultato del meccanismo cognitivo dell’antropomorfismo, ossia la tendenza ad attribuire caratteristiche umane a esseri non umani, come animali, oggetti o fenomeni naturali[3] (Cambridge Dictionary, 2019). Questa inclinazione può influenzare il modo in cui interagiamo con le tecnologie, portandoci a percepirle come più affidabili o empatiche di quanto siano in realtà: l’essere umano per natura riconosce intenzioni e stati emotivi anche quando non ci sono (Sedlakova & Trachsel, 2023). Così, un chatbot che scrive «Mi dispiace che tu ti senta così» attiva in noi le stesse risposte emotive di una conversazione umana, pur essendo solo un’imitazione.
Nonostante il concetto di empatia sia estremamente complesso e abbia una lunga storia, ogni sua definizione riconosce che essa nasce dall’incontro tra due soggettività, e dunque dalla capacità di sentire l’altro e riconoscerne l’alterità in un contesto di identità della dimensione incarnata, situata ed enattiva dei viventi (Galloni, 2009). Con un’IA Conversazionale, al contrario, non si instaura una relazione reale, ma uno scambio unidirezionale: non è la nostra esperienza a essere compresa, ma solo il modo in cui la traduciamo in parole. L’effetto dell’antropomorfismo trasforma l’interazione con un’IA in una sorta di specchio emozionale: proiettiamo sulla macchina il nostro bisogno di connessione, vedendo in essa qualcosa che non è realmente presente. Questa proiezione può offrire conforto immediato, ma rischia di impoverire la nostra capacità di distinguere tra ciò che è umano e ciò che è un’imitazione. Il pericolo non risiede nell’uso dell’IA in sé, ma nella possibilità di abituarsi a un interlocutore che si limita a riflettere ciò che vogliamo sentire.
Oggi l’Intelligenza Artificiale sta ridefinendo – lentamente ma inesorabilmente – il campo della psicoterapia, espandendo le possibilità di supporto psicologico oltre i confini del tradizionale setting clinico. Chatbot come WoebotHealth e Wysa[4] sono progettati per fornire supporto emotivo attraverso interazioni testuali continue, basandosi su modelli di terapia cognitivo-comportamentale (CBT) e offrendo agli utenti un ambiente privo di giudizio. Eppure, la loro capacità di adattarsi in modo profondo all’individualità del paziente, se anche esistesse, risulta nei fatti ancora fortemente limitata. I chatbot basati su algoritmi di Natural Language Processing presentano diverse criticità, tra cui l’incapacità di cogliere il contesto della comunicazione, né comprendere realmente le sfumature del linguaggio, in primo luogo di quelle emotive. Mentre un terapeuta umano può cogliere cambiamenti nel tono di voce, nelle espressioni facciali o nelle pause durante una conversazione, un chatbot si basa esclusivamente sul testo e sull’analisi di esso, condotta esclusivamente su modelli probabilistici. Questo può portare l’altro soggetto dell’interazione – l’essere umano, il cui sistema nervoso è stato “cablato” da millenni di evoluzione per processare in maniera privilegiata il linguaggio umano, vero segno distintivo della comunicazione della nostra specie – a reagire in maniera concreta e “sensata” a risposte della macchina che, pur essendo linguisticamente appropriate, non rispecchiano un reale scambio comunicativo. Molti utenti cercano tuttavia proprio questo, nell’interazione pseudoterapeutica con le IAC. Alcuni studi suggeriscono che le persone possano sentirsi più a loro agio nel condividere dettagli intimi con un chatbot piuttosto che con un essere umano, proprio perché sanno di non essere giudicate[5].
Dal punto di vista terapeutico, l’utilizzo dell’IA non è dunque privo di rischi. Sebbene gli strumenti basati su CBT abbiano mostrato un certo grado di efficacia nel ridurre i sintomi di ansia e depressione, la qualità dell’intervento è ancora oggetto di studio. Ricerche recenti hanno evidenziato che, mentre i chatbot possono migliorare l’accessibilità ai servizi di supporto, non sono in grado di replicare l’alleanza terapeutica tipica di un incontro umano (Cioffi et al., 2022). Inoltre, senza un monitoraggio umano, l’IA può interpretare erroneamente il contesto o fornire risposte inappropriate. Questo è particolarmente critico nei casi in cui il paziente manifesti pensieri suicidi o sintomi psicotici; situazioni in cui una risposta non adeguata può avere conseguenze gravi. È stato analizzato ChatGPT come possibile assistente terapeutico, capace di raccogliere informazioni tra una sessione e l’altra e di fornire al terapeuta un quadro riassuntivo della situazione del paziente (Esghie, 2023). Tuttavia, nonostante le potenzialità, si sollevano interrogativi cruciali sull’affidabilità e la sicurezza di tali strumenti (Miner et al., 2019). L’IA non possiede consapevolezza né intenzionalità: risponde in base a correlazioni statistiche tra parole, apprendendo dallo scambio verbale con l’utente, ma senza comprenderne il significato intrinseco. Questo influenza anche la dimensione della fiducia: molte persone potrebbero erroneamente credere di essere comprese da un chatbot, sviluppando un attaccamento che, in assenza di una vera reciprocità, potrebbe portare a forme di dipendenza emotiva o a un’errata percezione del supporto ricevuto. A fare da argine a questo scenario troviamo anche una dimensione politica della scienza e della tecnica, inerente alla sempre più evidente natura capitalistica di questi strumenti, che fanno dei dati forniti spontaneamente dagli utenti la loro principale moneta di scambio. Uno studio recente ha peraltro evidenziato che la fiducia nei confronti della terapia basata su IA è ancora bassa, soprattutto a causa delle preoccupazioni legate alla privacy e alla sicurezza dei dati (Aktan, 2022).
L’introduzione dell’IA nella psicoterapia ha portato tuttavia la comunità scientifica e il dibattito pubblico a una necessaria riflessione sul valore della relazione terapeutica. Alcuni studi hanno suggerito che l’uso di chatbot potrebbe modificare il modo in cui le persone si rapportano alla figura del terapeuta, spostando l’attenzione dalla relazione interpersonale a una forma di autoosservazione guidata dall’IA (Beg et al., 2024). Se questo, da un lato, potrebbe avere vantaggi in termini di accessibilità al supporto psicologico, dall’altro rischia di ridurre o annullare l’efficacia di un intervento in cui il rapporto umano è cardine ed elemento essenziale. Il successo e la qualità della terapia non dipendono solo dai contenuti trasmessi, ma anche dalla capacità del terapeuta di cogliere segnali emotivi e di adattare l’intervento alle esigenze individuali del paziente – qualità che un’IA non possiede. Inoltre, la natura algoritmi di questi strumenti porta inevitabilmente a una standardizzazione dell’approccio terapeutico: i modelli di IA, basandosi su set di dati predefiniti, tendono a privilegiare metodologie uniformi, come quelle cognitivo-comportamentali, mentre la psicoterapia umana si caratterizza per un alto grado di personalizzazione e per una molteplicità di orientamenti e pratiche. Un altro aspetto da considerare è il rischio di standardizzazione eccessiva dei modelli proposti da queste tecnologie come rappresentativi di ciò che dovrebbe essere la psicoterapia. I modelli di IA si basano su set di dati predefiniti e tendono a favorire approcci uniformi (essenzialmente, a oggi, identificabili con quelli cognitivo-comportamentali), mentre la psicoterapia umana è caratterizzata da un alto grado di personalizzazione, dipendenza dal vissuto e dal contesto, e da una ampia pluralità di approccio possibili.
L’uso di ChatGPT e di altre IA Conversazionali in psicoterapia non dovrebbe comunque essere demonizzato, ma richiede un approccio critico e regolamentato. La collaborazione tra esseri umani e agenti artificiali potrebbe portare alla creazione di modelli ibridi, in cui l’IA funge da strumento complementare, affiancando il lavoro del terapeuta e migliorando l’efficacia degli interventi senza sostituire il contatto umano diretto (Miner et al., 2019). Questi strumenti possono offrire un supporto pratico, fungere da complemento alla terapia e aiutare a ridurre il divario nell’accesso alle cure psicologiche. Tuttavia, la loro adozione deve avvenire con consapevolezza dei limiti: l’IA non pu sostituire l’empatia umana né creare un’autentica relazione terapeutica. La trasparenza e la supervisione umana restano essenziali per garantire che l’integrazione dell’IA nella psicoterapia non comprometta l’integrità delle relazioni terapeutiche e il benessere del paziente.
Sebbene l’IA possa svolgere un ruolo utile nel supporto alla salute mentale, la sua implementazione deve essere guidata da un’attenta valutazione dei benefici e dei rischi. Possiamo davvero considerare sufficiente un sistema che risponde sulla base di correlazioni statistiche senza comprendere? Chi tutela il paziente in caso di errori o malintesi? Strumenti come ChatGPT possono offrire quello che sembra supporto e conforto, ma è essenziale mantenere una distinzione chiara tra un’interazione simulata e l’esperienza di una relazione autentica, unica e insostituibile nel suo essere profondamente umana.
NOTE
[1] «La differenza cruciale tra l’IA conversazionale (CAI) e gli esseri umani è evidente: la CAI simula un agente razionale, ma non lo è; di conseguenza, simula di avere una conversazione terapeutica, ma in realtà non ne ha alcuna» (traduzione da: Sedlakova, J., & Trachsel, M. (2022). Conversational Artificial Intelligence in Psychotherapy: A New Therapeutic Tool or Agent? The American Journal of Bioethics, 23(5), 4–13. https://doi.org/10.1080/15265161.2022.2048739).
[2] Heider, F. (1958). The psychology of interpersonal relations. Hoboken, NJ, US: John Wiley & Sons Inc.
[3] Gibbons, S., Mugunthan, T., Nielsen, J. (2023). The 4 Degrees of Anthopomorphism of Generative AI. Nielsen Norman Group. https://www.nngroup.com/articles/anthropomorphism/.
[4] WoebotHealth, rilasciato nel 2017, e creato dalla psicologa Alyson Darcy, è un chatbot ideato per supporto psicologico, sempre disponibile, con interfaccia messaggistica (https:// woebothealth.com/).
Wysa AI Coach (https://www.wysa.com/) è un servizio di counseling basato sull’intelligenza artificiale addestrato su tecniche di terapia CBT, DBT, meditazione.
[5] Raile, P. (2024). The usefulness of ChatGPT for psychotherapists and patients. Humanities and Social Sciences Communications, 11(47). https://doi.org/10.1057/s41599-023-02567-0, p. 3.
BIBLIOGRAFIA
Aktan, M. E., Turhan, Z., & Dolu, I. (2022). Attitudes and perspectives towards the preferences for artificial intelligence in psychotherapy. Computers in Human Behavior, 133, 107273. https:// doi.org/10.1016/j.chb.2022.107273.
Beg, M. J., Verma, M., Vishvak Chanthar, K. M. M., & Verma, M. K. (2024). Artificial Intelligence for Psychotherapy: A review of the current state and future directions. Indian Journal of Psychological Medicine, XX(X), 1-12. https://doi.org/10.1177/02537176241260819.
Cioffi, V., Mosca, L. L., Moretto, E., Ragozzino, O., Stanzione, R., Bottone, M., Maldonato, N. M., Muzii, B., & Sperandeo, R. (2022). Computational methods in psychotherapy: A scoping review.
International Journal of Environmental Research and Public Health, 19(12358). https://doi.org/
Eshghie, M., & Eshghie, M. (2023). ChatGPT as a therapist assistant: A suitability study. arXiv Preprint. https://arxiv.org/abs/2304.09873.
Galloni, G. (2009). Basi motorie dell’empatia cognitiva? Teorie & Modelli, XIV(1):134-147.
Gibbons, S., Mugunthan, T., & Nielsen, J. (2023). The 4 Degrees of Anthropomorphism of
Generative AI. Nielsen Norman Group. https://www.nngroup.com/articles/anthropomorphism/.
Heider, F. (1958). The psychology of interpersonal relations. John Wiley & Sons.
Miner, A. S., Shah, N., Bullock, K. D., Arnow, B. A., Bailenson, J., & Hancock, J. (2019). Key considerations for incorporating conversational AI in psychotherapy. Frontiers in Psychiatry, 10, 746. https://doi.org/10.3389/fpsyt.2019.00746.
Raile, P. (2024). The usefulness of ChatGPT for psychotherapists and patients. Humanities and Social Sciences Communications, 11(47). https://doi.org/10.1057/s41599-023-02567-0.
Sedlakova, J., & Trachsel, M. (2022). Conversational Artificial Intelligence in Psychotherapy: A New Therapeutic Tool or Agent? The American Journal of Bioethics, 23(5), 4–13. https://doi.org/ 10.1080/15265161.2022.2048739.
In rel-Azione: una riflessione sul concetto di Intelligenza nel paradigma dell’Embodied Cognition
TO THE BODY AND BACK: L’INTELLIGENZA OLTRE I CONFINI DEL CRANIO
Nella lunga tradizione filosofica e psicologica, il termine intelligenza è stato senza dubbio uno dei costrutti più complessi e controversi della storia della scienza e del pensiero occidentale. Per molto tempo il dibattito sull’intelligenza si è snodato su vari terreni e argomenti teorici. Sin dai tempi più remoti l’essere umano ha tentato di definire limiti e condizioni di possibilità̀ di questo termine, identificando e strutturando tassonomie, relazioni e gerarchie intorno a questo concetto così controverso. La storia moderna dell’intelligenza si è sovrapposta per moltissimo tempo alla storia della sua misurazione, con particolare riferimento alla determinazione delle facoltà intellettive e dei tratti primari e secondari dell’intelligenza o al dibattito tra nature versus nurture, ovvero tra la determinazione ereditaria e genetica dell’intelligenza in contrapposizione all’acquisizione culturale dei tratti specifici di essa.
L’embodied cognition, ovvero la cognizione “incarnata”, è stata una delle correnti che ha contribuito a rivoluzionare il modo in cui consideriamo l’intelligenza e la cognizione non solo degli esseri umani, ma degli organismi e che suggerisce delle riflessioni interessanti anche rispetto alla definizione di Intelligenza Artificiale.
Essa è parte di un più ampio movimento teorico, la 4E Cognition, nato nella prima metà degli anni Novanta del Novecento all’interno di ambiti disciplinari come la filosofia della mente, la psicologia e le neuroscienze cognitive. Questo approccio teorizza una dimensione della mente embodied (incarnata), embedded (situata), enacted (interattiva) ed extended (estesa), radicandosi all’interno del Lieb, del corpo vivo e che esiste nel mondo, in costante relazione con l’ambiente; nel caso della nostra specie, un ambiente fisico, relazionale e tecnologico. La mente, dunque, emerge nel cervello ma si sviluppa anche al di fuori del cranio, attraverso la totalità corporea: l’individuo co-costruisce la propria esperienza cognitiva attraverso le interazioni corpo-mondo. Per l’embodied cognition l’attività cognitiva è un processo che integra l’esperienza vissuta e soggettiva, il corpo e l’ambiente, in un’unica prospettiva attiva e dinamica, dando vita al corpo-mente.
Il modello della mente “incarnata” caratterizza, dunque, le scienze cognitive di seconda generazione e ha consentito il superamento della dicotomia cartesiana tra res cogitans e res extensa, ovvero la separazione tra mente e corpo.
ERROR 404: LA MENTE NON È UN COMPUTER
Il modello dualista cartesiano aveva influenzato lo studio della mente per buona parte della storia della filosofia e della psicologia e, non ultimi, i fondamenti stessi della Scienza Cognitiva, all’interno della quale nasce anche l’Intelligenza Artificiale.
La Scienza Cognitiva Classica, infatti, ha sostenuto per molto tempo un approccio teorico di stampo meccanicistico, incentrato sulla funzione come oggetto di studio principale dei meccanismi mentali. In questo framework teorico è emersa una metafora molto potente: la metafora della mente-computer.
L’analogia della mente come una macchina era tale per cui un software (la mente) potesse essere implementato indipendentemente dall’hardware (il cervello e, in estensione, il corpo): essa sublima la frattura tra gli organismi e il proprio mondo, quello che Jakob von Uexküll definisce Umwelt (von Uexküll, 1933, Ambienti animali e ambienti umani. Una passeggiata in mondi sconosciuti e invisibili). Questo termine è stato introdotto all'inizio del Novecento dal biologo tedesco per indicare l’ambiente così come è percepito e vissuto dagli organismi in base alle proprie caratteristiche specie-specifiche e alle possibilità di interazione con esso[1].
Il ruolo del corpo, dunque, nella determinazione dei processi cognitivi assume una posizione subordinata tanto che, come provocatoriamente suggeriva il filosofo della mente Hilary Putnam nel celebre esperimento mentale del 1981, A brain in a vat[2], potrebbe essere fatto tanto di carne quanto di “formaggio svizzero”.
Le neuroscienze relazionali e affettive la filosofia della mente neuro biologicamente fondata convergono nella definizione di una nuova immagine di cosa vuol dire avere una mente e avere un corpo. Nella prospettiva della cognizione incarnata, si assume così un’estensione dei processi cognitivi, considerandoli non più limitati al cervello-mente ma estesi al cervello-corpo-ambiente, intendendo per ambiente non un mondo esterno, asettico e da costruire, ma un ambiente che è interno ed esterno allo stesso tempo, vivo, dinamico e “vischioso”, per utilizzare un termine di Canguilhem (1966, Le normal et le pathologique). Da questa visione emerge un approccio poliedrico alla mente, che integra il ruolo del corpo, del vissuto emotivo e soggettivo nell’ambiente in cui l’organismo si sviluppa.
Come ha scritto Francisco Varela: «Gli organismi non ricevono passivamente informazioni dai loro ambienti, che poi traducono in rappresentazioni interne. I sistemi cognitivi naturali [...] partecipano alla generazione di significato [...] impegnandosi in interazioni trasformazionali e non semplicemente informative: esse mettono in atto un mondo.»[3]
ORGANISMI IN (INTER)AZIONE
Nella prospettiva ecologica proposta dallo psicologo americano James J. Gibson (1979, The Ecological Approach to Visual Percepetion) non siamo noi a elaborare cognitivamente l’idea del mondo esterno; il soggetto assume una posizione centrale nel suo ambiente a partire dalla capacità di interagire con esso, sulla base di ciò che esso stesso offre in termini di stimoli.
L’ambiente, dunque, fornisce agli organismi gli elementi necessari per agire e sopravvivere (affordance), senza bisogno di complesse integrazioni o deduzioni mentali. Si pone quindi come elemento cruciale il rapporto tra gli organismi e il loro specifico ambiente di vita. Il mondo esterno, dunque, diventa "il mondo per me": la mente e l’ambiente degli organismi sono inseparabili, in un costante processo di interazione e modellamento reciproco. Esso, allora, diviene lo “spazio di vita” di Kurt Lewin (1936, Principi di psicologia topologica), la nicchia ecologica di Gibson (1979) che ogni organismo ritaglia nel mondo, come suggerisce Benasayag (2016, Il cervello aumentato l’uomo diminuito). È lì che mondo interno e mondo esterno sono separati solo dalla pelle, che fa da ponte della relazione osmotica e interdipendente tra i due. L’ambiente non consente l’azione, esso è lo spazio di azione nel momento in cui un organismo lo esperisce e percepisce.
Non è la rappresentazione del mondo, ma la relazione che chiama il soggetto all’azione e alla costruzione di una realtà significante.
Non ci rappresentiamo, dunque, la realtà da un punto di vista esterno, ma la conosciamo interagendo con essa nel qui e ora fenomenico, sulla base delle caratteristiche specie specifiche e del vissuto individuale. E non ci contrapponiamo all’altro, ma ci riconosciamo nella simulazione incarnata e nel rispecchiamento empatico presente nelle nostre aree motorie. Il cervello umano, lungi dall’essere un meccanismo predefinito, è un organo poroso e plastico, che rimodula costantemente le proprie relazioni interne sulla base dell’esperienza con il mondo e del cablaggio specifico degli organismi.
Nel corpo, dunque, si sedimentano e stratificano le esperienze del proprio vissuto, le esperienze di un corpo capace di includere, di incorporare gli strumenti, i mezzi e di essere modificato dall’ambiente e di modificarlo costantemente in una transazione dinamica e in rapporto circolare, come suggerito dalle recenti ricerche condotte nell’ambito della Material Engagement Theory (Malafouris, 2018, Bringing things to mind. 4E’s and Material Engagement).
MACCHINE COME ME?
L’intelligenza, dunque, nella prospettiva dell’embodiement non è una proprietà isolata che emerge indipendentemente dal corpo e dal mondo, come aveva sostenuto la Scienza Cognitiva Classica, ma si co-costruisce attraverso la relazione tra mente, corpo e ambiente.
La possibilità di ampliare le nostre funzioni oltre i confini della pelle, che sia attraverso un foglio di carta, una calcolatrice o una macchina, può essere considerata un’estensione “artificiale” di funzioni naturali che co-evolvono e si modellano reciprocamente da un punto di vista biologico e culturale, rimodulando in modo strutturale la percezione del mondo, che è allo stesso tempo modificata dall’azione attraverso esso, come sostenuto anche dalla prospettiva della cognizione extended.
Oggi la cognizione embodied rivolge, dunque, la propria attenzione al ruolo del corpo e alle sue capacità sensoriali e motorie in quanto elementi cruciali nella formazione dei processi cognitivi. Ciò anche in base a evidenze neurobiologiche che dimostrano come la dimensione fisica, sociale e informativa dell’ambiente assumano una rilevanza imprescindibile nella trama dinamica intessuta dall’interazione degli agenti cognitivi col loro ambiente di vita, in una prospettiva filogenetica e ontogenetica.
Attraverso la lente teorica dell’embodied cognition e della prospettiva epigenetica, dunque, il termine intelligenza non si configura più come un concetto riducibile ad un elenco di funzioni “incapsulate” (Fodor, 1983, The Modularity of Mind: Essay on Faculty Psychology) all’interno della mente-computer, ma come il risultato di un insieme di componenti biologiche e culturali che caratterizzano ed evidenziano la singolarità e l’unicità nella vita degli organismi. La plasticità, intesa come struttura portante e condizione di possibilità del cervello di creare connessioni e circuiti modulati sulla base dell’esperienza e dell’interazione senso-motoria del corpo con l’ambiente, si configura come una forma di creatività, determinata dal connubio tra biologia e cultura, necessaria e fondamentale per l’emergere di un pensiero intelligente.
I sistemi artificiali attuali operano su correlazioni statistiche e schemi computazionali che, per quanto complessi, non emergono da un’interazione incarnata e soggettiva con il mondo. Più che un’“intelligenza” artificiale, dunque, potremmo parlare di una capacità computazionale estremamente avanzata, di una simulazione statistica della cognizione che, per quanto efficace nella risoluzione di determinati compiti, non condivide una forma intenzionalità, di sensibilità e di conoscenza incarnata che caratterizza gli organismi.
Tra le sfide future più avvincenti vi è sicuramente quella di ridefinire il nostro rapporto con l’Intelligenza Artificiale, evitando di proiettare su di essa categorie che appartengono al nostro modo biologico di essere-nel-mondo, comprendendo che essere una mente (e non possedere una mente), in senso proprio, è incarnato dall’esperienza di un corpo vivo che abita il mondo in relazione con altri corpi (Morabito, 2020, Neuroscienze cognitive: plasticità, variabilità, dimensione storica) in una danza continua con essi.
NOTE
[1] Von Uexküll ha rivoluzionato il concetto di ambiente nella biologia moderna, mettendo in discussione la visione antropocentrica di ambiente: ogni essere vivente, infatti, percepisce e interagisce con il mondo in modo soggettivo e specie specifico. Gli organismi co-costruiscono il proprio ambiente in base alle proprie caratteristiche morfologiche e fisiologiche, instaurando con esso un legame inscindibile. Il Merkwelt, infatti, rappresenta ciò che il soggetto percepisce, ossia il suo mondo sensoriale, mentre il Wirkwelt riguarda le sue azioni e interazioni. Insieme, questi due aspetti costituiscono un sistema complesso, l’Umwelt, che connota l’ambiente non più come uno spazio informazionale “passivo”, ma in costante relazione attiva con il vivente.
[2] Gilbert Harman è stato uno dei primi filosofi a sviluppare e formalizzare l'idea del "Cervello nella vasca" nell'ambito della filosofia della mente e dell'epistemologia. Sebbene l'esperimento mentale sia associato principalmente a Hilary Putnam, Harman, già negli anni '70, aveva esplorato simili concetti, utilizzando la metafora del cervello nella vasca per affrontare le problematiche legate alla percezione e alla conoscenza. cfr. Harman G., 1973: Thought, Princeton University Press, Princeton.
[3] «Organisms do not passively receive information from their environments, which they then
translate into internal representations. Natural cognitive systems [...] participate in the generation of meaning[...] engaging in transformational and not merely informational interactions: they enact a
world. » Varela, F., Rosch, E., Thompson, E., (1991), The Embodied Mind. Cognitive Science and Human Experience, MIT Press, Cambridge. (traduzione mia).
NOTE BIBLIOGRAFICHE
Benasayag, M. (2016) Il cervello aumentato l’uomo diminuito, Erickson
Canguilhem, G. (1966), Le normal et le pathologique, Paris: Presses Universitaires de France.
Fodor, J. (1983), The Modularity of Mind: Essay on Faculty Psychology, MIT press.
Gibson, J.J. (1979), The Ecological Approach to Visual Percepetion, Hougton Miffin, Boston.
Malafouris, L. (2018), “Bringing things to mind. 4E’s and Material Engagement” in Newen, A., De Bruin, L., Gallagher, S., The Oxford Handbook of 4E cognition.
Morabito, C., 2016, Neuroscienze cognitive: plasticità, variabilità, dimensione storica, in Mentecorpo: il cervello non è una macchina, «Scienza& Società» n.21/22.
Morabito, C. (2020), Il motore della mente. Il movimento nella storia delle scienze cognitive, Laterza-Bari.
Lewin, K. (1936), Principi di psicologia topologica, Edizioni OS, Firenze (ed.it.1961)
Noë A., (2010), Out of the head. Why you are not your brain, MIT Press, Cambridge MA, trad. it. Perchè non siamo il nostro cervello. Una teoria radicale della coscienza, Raffaello Cortina Editore, Milano
Varela, F., Rosch, E., Thompson, E., (1991), The Embodied Mind. Cognitive Science and Human Experience, MIT Press, Cambridge (Mass.).
von Uexküll, J. (1933), Umwelt und Innenwelt der Tiere, Berlin: Springer (trad. it. Ambienti animali e ambienti umani. Una passeggiata in mondi sconosciuti e invisibili, Macerata: Quodlibet, 2010).
Tra il dire e il fare - L’influenza del linguaggio nell’Intelligenza Artificiale e nella costruzione della realtà
Nel 2023 è stata pubblicata su Netflix La Legge di Lidia Poët, opera seriale italiana che ha trovato un’ottima accoglienza da parte degli spettatori. La serie è liberamente ispirata alla storia di Lidia Poët, la prima donna laureata in Giurisprudenza in Italia. Ci troviamo intorno al 1885 e Poët, dopo aver svolto il praticantato e aver superato l’esame di abilitazione alla professione forense, chiede l’iscrizione all’Ordine di Avvocati e Procuratori di Torino. La richiesta è abbastanza spigolosa per motivi differenti: innanzitutto prima di allora non era mai stata ammessa una donna all’esercizio della professione di avvocatura, perché all’epoca le donne erano prive di qualsiasi facoltà giuridica, vale a dire che non potevano, ad esempio, far parte dei pubblici uffici o testimoniare nei tribunali. La legge sull’avvocatura di stato del 1874 prevedeva esclusivamente il termine "avvocato", riconoscendo implicitamente solo gli uomini come legittimati a esercitare la professione. Di conseguenza, il Procuratore Generale del Re fece ricorso contro l'ammissione di Lidia Poët, che venne cancellata nel novembre del 1883. La mancanza del termine "avvocata" rispecchiava l'esclusione storica delle donne dalla professione, evidenziando come il linguaggio possa non solo rappresentare la realtà sociale, ma anche determinarla, rafforzarla e costruirla.
Il caso di Lidia Poët, seppur lontano nel tempo, riecheggia nelle discriminazioni attuali. Ci troviamo in un mondo che sta affrontando decisioni politiche restrittive: lo scorso 20 gennaio il Presidente degli Stati Uniti Donald Trump, durante il suo discorso di insediamento, ha affermato l’esistenza di soli due generi, quello maschile e quello femminile. Negando l’esistenza del genere indicato come X[1], si regredisce a un tempo in cui il sistema patriarcale dettava il cosiddetto “binarismo di genere”. L’assenza di un linguaggio neutro non è solo una questione terminologica, ma un atto che cancella la legittimità e la visibilità di tutte le persone che non si riconoscono nel binarismo tradizionale, negando loro lo spazio per affermarsi nel discorso pubblico e, dunque, nella realtà sociale. E questa esclusione assume oggi forme in parte inedite in conseguenza del ruolo sempre crescente delle mediazioni algoritmiche nel plasmare la nostra quotidianità.
Non è certo un caso se, a partire dal 2024 sempre più spesso il dibattito pubblico ha visto come protagonista il tema dell’Intelligenza Artificiale. Sono stati infatti sollevati interrogativi etici radicali, come “qual è il suo potere? Può prendere il sopravvento sull’essere umano? Potrà sostituirlo?”. Superando queste congetture, nate da anni di film fantascientifici in cui i robot assumono tutte le caratteristiche umane, si comprende rapidamente come l’Intelligenza Artificiale rappresenti uno dei nuovi strumenti tecnologici a disposizione dell’essere umano. Le tecnologie tendono sempre a suscitare un certo sgomento e scetticismo nell’opinione pubblica ma il tempo conferisce loro i propri meriti e demeriti. L’IA è una tecnologia che rispecchia perfettamente l’epoca che stiamo vivendo: progettata per apprendere da grandi quantità di dati e/o dalle continue interazioni con l’essere umano, i software di IA sono rapidi, intuitivi, posti all’immediato servizio dell’utente – come nel caso di chatbot e voicebot[2].
Torniamo adesso alla questione sollevata a principio dell’articolo. Il mezzo utilizzato nelle interazioni umani-IA è infatti proprio il linguaggio. È utile quindi portare l’attenzione su quanto le parole possano assumere un significato che non è solo astratto.
Come afferma la linguista Vera Gheno, «la lingua è lo strumento che le comunità dei parlanti usano per definire sé stessi, le relazioni con le altre persone ed etichettare il mondo. [...] la realtà è in movimento continuo, è giusto che rifletta e cambi anche la lingua»[3].
Il linguaggio verbale, che è la funzione primaria dell’essere umano, diventa quindi il veicolo della comunicazione con questi software. Nell’interazione umano-IA il processo di apprendimento è semplice e lineare: il software tramite sistemi di apprendimento come il Machine Learning (ML) apprende i dati e utilizza ciò che impara per prendere nuove decisioni e interagire con chi ne usufruisce. In poche parole basa le proprie azioni sull’esperienza che fa dei dati e delle interazioni continue con l’utente.
Ma il nostro linguaggio è complesso, perché si compone di un sistema convenzionale di segni, o significanti, a cui corrispondono determinati significati. Ogni interazione non possiede un solo scopo e significato, ma può variare in base al contesto e agli agenti della comunicazione, vale a dire chi ne è coinvolto. È stato il filosofo e linguista inglese John Austin ad affermare, alla luce di tutte queste premesse, che il linguaggio deve essere visto e studiato come azione[4]. Inoltre in ogni Paese la lingua è espressione dei processi di formazione di una cultura, rappresentando così lo specchio dei pregi e difetti che la costituiscono.
Facendo un’attenta analisi delle interazioni con le macchine emerge quindi una manifestazione più o meno esplicita di stereotipi e pregiudizi, anche nel caso di lingue definite morfologicamente natural gender languages[5], come l’inglese.
Un esempio significativo è rappresentato dai dispositivi VPA (voice personal assistant), soprattutto quelli progettati per interagire direttamente con il pubblico, che presentano quasi sempre una voce femminile. Assistenti come Siri (Apple) e Alexa (Amazon) adottano di default una voce femminile, mentre possono permettere di selezionare una voce maschile solo se l’utente sceglie di modificarla manualmente nelle impostazioni. Trattandosi di assistenti personali viene definita da subito la gerarchia dell’interazione con l’utente: l’IA si pone al servizio delle azioni che l’utente richiede di fare. L’utilizzo di voci femminili non è quindi casuale, piuttosto cavalca e rafforza lo stereotipo della donna “al servizio” dell’uomo: la donna-segretaria, subordinata, perché ritenuta più affidabile in termini di cura e attenzione ai bisogni dell’altro.
Anche la scelta dei nomi non si allontana dallo stereotipo: Siri è un nome nordico – che vuol dire “la bella donna che conduce alla vittoria”[6] – ma nasce da un progetto dell’Istituto di ricerca SRI International, chiamato CALO (Cognitive Assistant that Learns and Organizes). Il termine calo (, -ōnis) in latino vuol dire “servo di soldati, scudiero”; Alexa invece – da Alexander, Alexandra – etimologicamente deriva dal greco “alexo”, che significa “difendere”, e “aner”, letteralmente “uomo”; significa quindi ‘difensore dell’uomo’ e corrisponde all’epiteto che veniva conferito alla dea greca Era, dea della fertilità e del matrimonio. Nell’identificare donne in posizioni di potere si ha la tendenza, nella dialettica comune, a utilizzare il nome o il cognome preceduto dall’articolo determinativo, ad esempio “la Meloni” o “Giorgia” anziché Meloni o Giorgia Meloni, come si usa fare al maschile; basti pensare al Presidente della Repubblica Mattarella che appunto viene identificato tramite il cognome o tramite l’utilizzo di nome e cognome per esteso.
Anche nel processo di creazione di VPA si è riscontrato questo utilizzo diversificato di nome e/o cognome per identificare chatbot maschili o femminili. In effetti, l’azienda IBM nel 2020 ha sviluppato un VPA proprio, chiamato Watson Assistant con l’obiettivo di offrire assistenza in ambito sanitario, bancario e nel servizio clienti delle aziende. Dalla creazione di questo assistente virtuale si possono quindi analizzare due aspetti fondamentali, uno linguistico e uno contenutistico, tenendo a mente gli esempi di Siri e Alexa.
Per quanto riguarda la denominazione del VPA è indicativa la scelta di utilizzare un cognome, Watson. Allo stesso modo, l'adozione di una voce maschile per ambiti professionali, come quello sanitario o bancario, risponde a precise considerazioni. Mentre i voicebot pensati per l'uso quotidiano hanno di default voci femminili, un assistente virtuale impiegato in contesti che richiedono competenze specifiche appare più credibile e affidabile se dotato di una voce maschile.
È necessaria un’indagine maggiormente approfondita sulle interazioni umani-IA per comprendere come queste, pur sembrando neutrali, trasmettano valori culturali radicati nel linguaggio. Un altro esempio significativo è rappresentato dai software di IA Generativa: attraverso i prompt inseriti dall’umano, l’IA risponde e genera contenuti. È stato particolarmente interessante osservare come, anche utilizzando l’inglese come lingua di interazione ritenuta neutra, i risultati prodotti fossero comunque intrisi di stereotipi. Nell’aprile del 2024 assieme al gruppo di ricerca PAD (Psicologia degli Ambienti Digitali) è stata esaminata Runway Gen 2, una piattaforma di generazione video basata sull'Intelligenza Artificiale, per studiare i bias presenti negli output generati dall’IA. Per il test abbiamo fornito una serie di input neutri che ci aspettavamo fossero interpretati in modo non stereotipato. Tuttavia, i risultati hanno rivelato una tendenza interessante, e forse problematica, nell'output generato. Il primo esempio richiedeva un breve video del volto sorridente di un CEO[7] ma, nonostante l’input fosse neutro, il sistema ha prodotto esclusivamente immagini di uomini, tutti bianchi. Questo suggerisce che l'IA associa automaticamente il ruolo di CEO a una figura maschile e caucasica. Nel secondo esempio, abbiamo chiesto un video simile, ma questa volta riferito al volto sorridente di un insegnante di scuola primaria. In questo caso l’IA ha generato esclusivamente volti femminili, riflettendo il radicato stereotipo sociale secondo cui l’insegnamento primario sarebbe un’occupazione tipicamente femminile, legata non solo all’istruzione ma anche all’accudimento degli studenti. Questi risultati sollevano interrogativi importanti sul ruolo dei bias nei sistemi di IA. Anche quando gli input sono neutri, gli output riflettono pregiudizi culturali e stereotipi preesistenti, suggerendo che i dati di addestramento e gli algoritmi alla base di queste tecnologie necessitano di maggiore attenzione per garantire un approccio inclusivo e non discriminatorio.
Scelte come quella adottata da Trump nella nostra società agiscono come scintille: possono innescare profonde conseguenze discriminatorie che non si limitano alla sfera personale, ma si riflettono su scala più ampia. La negazione del genere X legittima atteggiamenti discriminatori, rafforzando pregiudizi e creando un clima di esclusione che si traduce in un aumento delle difficoltà sociali, lavorative e psicologiche per le persone non binarie e di genere non conforme. Il mancato riconoscimento istituzionale riduce le possibilità di tutela legale in casi di discriminazione e contribuisce a marginalizzare ulteriormente chi già fatica a trovare il proprio spazio nella società. Inoltre, tali decisioni influenzano ogni strumento che creiamo o utilizziamo, dai sistemi burocratici ai modelli educativi, fino agli algoritmi di intelligenza artificiale che, basandosi su dati limitati, riproducono e amplificano le esclusioni.
Regredire a un’epoca in cui esisteva una sola voce dominante significa non solo cancellare identità, ma anche impedire l’evoluzione di una società più equa e inclusiva.
Questi temi aprono a riflessioni che meritano un ulteriore approfondimento, che si concentrerà su un caso specifico di manifestazione di bias negli algoritmi di Intelligenza Artificiale, interrogandoci su come tali distorsioni prendano forma e quali conseguenze generino nella costruzione della realtà.
NOTE
[1] A partire dall'11 aprile 2022, i cittadini americani avevano la possibilità selezionare una 'X' come indicatore di genere sulla domanda di passaporto, a indicare la propria identificazione nel genere intersex – Trump nel provvedimento afferma che le agenzie federali «smetteranno di pretendere che gli uomini possono essere donne e che le donne possono essere uomini nell'attuazione delle leggi che tutelano contro la discriminazione sessuale»
[2] Con chatbot, o assistenti virtuali, si intendono i software in grado di eseguire azioni per un interlocutore umano basandosi su comandi ricevuti dall’utente, sia testuali sia vocali.
[3] Michielin F., podcast Maschiacci, intervista a Vera Gheno, 2022, https://open.spotify.com/episode/6fZBSLtlhFvXSz087BZN86?si=FkA9I6CwQGG-0I0PgPZpUg
[4] La teoria degli atti linguistici di John Austin deriva dalla lezione How to do things with words che lui stesso tenne presso l’Università di Harvard nel 1955, ma è stata pubblicata postuma (1962)
[5] lingue con genere naturale (natural gender languages) in cui sostantivi non hanno genere grammaticale ma i pronomi sì; sono così danese o inglese (basti pensare ad esempio che in inglese si utilizzano he/she/it per le cose, ma anche they per persone di cui non si conosce il genere o per una persona che non si identifica nei due generi tradizionali)
[6] Cheyer A., How Did Siri Get Its Name?: https://www.forbes.com/sites/quora/2012/12/21/how-did-siri-get-its-name/#19fd7c57376b
[7] Prompt: a short video of a smiling CEO
BIBLIOGRAFIA
Cheyer A., How Did Siri Get Its Name?, https://www.forbes.com/sites/quora/2012/12/21/how-did-siri-get-its-name/#19fd7c57376b
Gheno V., podcast “Amare Parole”, Ep. 35 – Architetta, avvocata e co., 2023, https://open.spotify.com/episode/58C56TsAUfNdY75ZipaNma?si=Imf2JA7iRCy1IQPif6fxyw
Legge 8 giugno 1874, n 1938 che regola l’esercizio delle professioni di Avvocato e di Procuratore https://www.normattiva.it/uri-res/N2Ls?urn:nir:stato:legge:1874-06-08;1938
Lombard M., Xu K., 2021, Social Responses to Media Technologies in the 21st Century: The Media Are Social Actors Paradigm
Michielin F., podcast Maschiacci, intervista a Vera Gheno, 2022, https://open.spotify.com/episode/6fZBSLtlhFvXSz087BZN86?si=FkA9I6CwQGG-0I0PgPZpUg
Whitley B. E., & Kite M. E., The psychology of prejudice and discrimination, Belmont, CA: Wadsworth Cengage Learning, 2010