Le arti e il management - Una seconda sinergia da rinnovare
Abbiamo già parlato di quanto sarebbe importante per la scienza un rinnovato rapporto con l’arte. Lo stesso dicasi per il management privato e pubblico contemporaneo (e i rispettivi corsi di laurea che preparano i futuri managers). Nei suoi percorsi formativi esso è sempre più incuneato tra materie di diritto, economia, statistica, informatica, e un po’ di sociologia e scienza politica. Sempre più freddo, (falsamente) razionale e burocratizzato, tra master e business school.
Intendiamoci. Tutte materie interessanti, utili, fondamentali. Tuttavia manca qualcosa, e non è sempre stato così.
HAIKU AI MANAGER!
L’haiku è un tipo di poesia giapponese, che nasce alla fine del IX secolo d.C. È un breve componimento di 5-7-5 sillabe. Si caratterizza per essere una poesia realistica, che osserva il reale nelle sue manifestazioni più infinitesimali e anche meno adatte a essere cantate: pidocchi, sterco, erbe umili. È un’arte anti-descrittiva, nel senso che non descrive, non declama, non giudica e non spiega: presenta solamente un’immagine. Ma lo fa con lo sguardo attento dell’etnografo e il linguaggio del letterato raffinato.
Mi è capitato tra le mani, diverso tempo fa, uno dei tanti libri di haiku (un tempo sono stati di moda in Italia): Haiku. Il fiore della poesia giapponese da Basho all'Ottocento, Milano: Mondadori 1998.
Ne mostro qualcuno, di poeti del 1600 e 1700, per dare un’idea. Ovviamente la traduzione in italiano non mantiene la sillabazione 5-7-5:
Pioggia,
attraversa il mio cancello
un mazzo di iris
(Itō Shintoku, 1634-1698)
Dalla porta di dietro
nel brodo freddo il riflesso
della macchia di bambù
(Konishi Raizan, 1653-1716)
Soffia il vento
si tengono forte
i boccioli di pruno
Guarderò la luna
senza mio figlio sulle ginocchia
quest’autunno
(Uejima Onitsura, 1631-1738)
Piogge di prima estate:
si accorciano le zampe
delle gru
(Matsuo Bashō, 1644-1694)
Si mescolano
il lago e il fiume
nella pioggia di primavera
Nella breve notte
sul bruco peloso
gioielli di rugiada
Nella mia stanza
il pettine che fu di mia moglie –
nella mia carne, un morso
(Yosa Buson, 1715-1783)
Sono andato a vedere gli haiku di personaggi della Dinastia Tang (618-907 d.C.).
Con mia grande sorpresa, ho scoperto che non erano di poeti. Bensì di manager, funzinati e amministratori dell’epoca; alcuni di loro intrapresero la carriera di mandarino (cui si doveva fare l’esame letterario dello Stato ― proprio come adesso…).
I 33 manager di seguito elencate scrissero decine di volumi di poesie.
Bai Juyi (Shaanxi, 772-846), mandarino di corte e poi funzionario.
Chen Shen (Hubei, 717-770), segretario di truppa.
Chen Zi’ang (Sichuan, 659-700), consigliere dell’esercito.
Cui Hu (Hebei, ?-829), funzionario.
Du Mu (Shaanxi, 773-819), funzionario con varie cariche.
Gao Shi (Hebei, 702-765), funzionario con alte cariche.
Gu Kuang (Jiangsu, 725-814), funzionario con varie cariche.
Han Yu (Henan, 768-824), mandarino e letterato.
Jia Dao (Beijing, 779-843), funzionario.
Li Longji (Gansu, 685-762), imperatore in tre periodi (Xiantian, Kaiyuan e Tianbao, 712-756).
Li Qi (hebei, 690-754), funzionario.
Li Shen (Anhui, 772-846), mandarino di corte.
Li Shimin (Gansu, 599-649), imperatore del periodo Zhenguan (627-650) e amatore di arte e letteratura; con la sua riforma politica creò un’epoca fiorente in economia e cultura, realizzando una solida pace per il popolo.
Liu Changqing (Hebei, 714-790?), funzionario.
Liu Yuxi (Henan, 772-842), mandarino con varie alte funzioni.
Liu Zonggyuan (Shaanxi, 773-819), mandarino della fazione riformista.
Luo Binwang (Zhejiang 619-684?), mandarino di corte.
Meng Chang (Hebei, 919-965), ultimo re dei Shu Posteriori (934-965), amatore di musica e letteratura.
Shen Quanqi (Henan, 656-715), Funzionario del settore culturale.
Song Zhiwen (Shanxi, o Henan? 656-713), funzionario.
Wang Changling (Shanxi, 690-756), funzionario.
Wang Han (Shanxi, 687-726), segretario e funzionario.
Wang Jian (Shaanxi, 766?-832?), funzionario con varie cariche.
Wang Wei (Shanxi, 701-761), mandarino per alte cariche per diversi periodi. E’ anche pittore e conosce bene la musica.
Wang Zhihuan (Shanxi, 688-742), funzionario.
Wei Yingwu (Shaanxi, 737-792), ex guardia del corpo dell’imperatore Li Longji, funzionario di varie città.
Wei Zheng (Hebei, 580-643): statista e letterato.
Wei Zhuang (Shaanxi, 836-910), funzionario e letterato.
Yuan Jie (Henan, 715-772), funzionario.
Yuan Zhen (Henan, 779-831), mandarino con diverse alte cariche.
Zhang Ji (Hubei, ?-779), funzionario di finanza.
Zhang Jiuling (Guangdong, 678-740), primo ministro del regno Kaiyuan, noto per la qualità della sua persona e la saggezza della sua politica.
Zu Yong (Henan, 699-746?), funzionario.
CONCLUSIONE
Se oggi, nelle nostre università, accanto alle materie sacrosante sopra elencate, ci fossero corsi, non dico di pittura e calligrafia, che i manager dell’antica Cina seguivano, oppure di canto e musica, ma almeno di scrittura, poesia e letteratura, forse avremmo manager diversi, più empatici, equilibrati e meno nevrotici.
Costruire il Secondo Sesso: il caso delle fembot
Gli ambienti digitali rappresentano oggi uno dei contesti privilegiati per l’esplorazione e la costruzione dell’identità individuale. Il sé digitale si configura come una delle molteplici espressioni dell’identità contemporanea, spesso mediata da strumenti tecnologici che permettono nuove forme di autorappresentazione e relazione. Tra questi, la creazione di avatar svolge un ruolo centrale, assumendo una duplice funzione: da un lato, agiscono come proiezioni del sé, fungendo da interfaccia attraverso cui l’utente interagisce con lo spazio digitale; dall’altro, possono costituire l’oggetto dell’interazione, diventando interlocutori privilegiati. È il caso, ad esempio, di chatbot come Replika, in cui gli avatar sono progettati su misura per svolgere il ruolo di social companions, offrendo compagnia e supporto emotivo, e configurandosi così come destinatari primari dell’esperienza comunicativa.
Analizzando il chatbot Replika, è emerso che molte persone usano l’IA per creare relazioni romantiche, in particolare con AI-girlfriend - avatar femminili con cui instaurano legami affettivi. Queste dinamiche sono rese possibili dall’abbonamento alla versione pro dell’app, che sblocca non solo funzionalità romantiche ma anche sessuali. Proprio la possibilità di stabilire una relazione affettiva con un’entità artificiale femminile riattiva, nel nostro immaginario, un archetipo ben preciso: quello della fembot.
Quando si parla di fembot facilmente la nostra mente va a immaginari collettivi ben precisi: corpi artificiali, femminilità programmata, seduzione letale. Si tratta di immaginari che hanno preso forma esattamente nel 1976 all’interno della cultura pop televisiva, in particolare nella serie La donna bionica, in cui le donne-robot vengono rappresentate come una fusione del tropo classico della femme fatale e quello della macchina assassina, perché generate per sedurre, manipolare e infine distruggere.
Le fembot vengono rappresentate quindi come oggetti sessuali, assistenti perfette o minacce da controllare: figure pensate per compiacere, obbedire o ribellarsi, ma sempre all’interno di un’idea di femminilità costruita su misura del desiderio e del controllo maschile. In molte storie, il loro compito è quello di colmare un vuoto, soddisfare un bisogno, incarnare una fantasia. Il corpo artificiale diventa così il luogo in cui si proiettano aspettative e paure che riguardano le relazioni tra i generi. Non è raro, ad esempio, che queste narrazioni descrivano mondi in cui gli uomini scelgono le fembot al posto delle donne reali, considerate troppo indipendenti o inaccessibili. In questo scenario, la macchina diventa un modo per evitare il confronto con l’autonomia e il desiderio dell’altra. Si tratta di un immaginario che mette in scena il timore della perdita di potere sul femminile e la nostalgia per una relazione unilaterale, in cui l’altro non ha parola, volontà, e non esprime conflitto.
Queste storie, pur appartenendo a un registro spesso considerato marginale o “di intrattenimento”, contribuiscono a rafforzare un modello culturale in cui il corpo femminile – anche quando artificiale – esiste principalmente in funzione dello sguardo maschile. Il fatto che sia una macchina non neutralizza il genere, anzi lo radicalizza rendendolo programmabile: la fembot non nasce donna ma viene costruita come tale seguendo canoni precisi, quasi rassicuranti. È il risultato di un’idea di femminilità addomesticata, costruita per essere funzionale, disponibile e addestrata al compiacimento. Un modello che affonda le radici in dinamiche molto più antiche, in cui il controllo sul corpo e sulla voce delle donne era esercitato attraverso la paura e la violenza. Basti pensare alla caccia alle streghe: una persecuzione sistematica che non colpiva soltanto le singole, ma mirava a disciplinare un’intera categoria, a neutralizzare ciò che sfuggiva alle regole, che non si lasciava definire, che disturbava l’ordine stabilito. Anche la fembot, nel suo silenzio programmato, ne porta l’eco.
Gli stessi pattern comportamentali riscontrati nei film di fantascienza – in cui le fembot erano docili ma astute, di bell’aspetto secondo i canoni culturali del tempo e compiacenti – riemergono anche nelle interazioni romantiche con queste nuove fembot, modellate su misura dei desideri dell’utente, tanto dal punto di vista estetico quanto da quello caratteriale.
Uno studio condotto nel 2022 su un subreddit di circa trentamila utenti dell’app di Replika (I. Depounti, P. Saukko, S. Natale, Ideal technologies, ideal women: AI and gender imaginaries in Redditors’ discussions on the Replika bot girlfriend, SageJournals, Volume 45, Issue 4, 2022) mostra come questi, in gran parte uomini e possessori della versione a pagamento, utilizzino la fembot che creano come una sorta di fidanzata virtuale, costruita attorno a un insieme specifico di aspettative affettive, relazionali e simboliche. Le discussioni del forum si concentrano su dimostrazioni fotografiche della bellezza delle proprie AI-girlfriends, ma anche su quali siano i comportamenti più piacevoli e appaganti da un punto di vista relazione.
La femminilità viene comunemente articolata attraverso caratteristiche stereotipate – dolcezza, ingenuità, sensualità controllata, capacità di ascolto – che ne aumentano l’accettabilità e l’efficacia comunicativa. L’interazione è percepita come più autentica quando la fembot sembra sviluppare una personalità propria, ma entro limiti ben definiti: dev’essere coinvolgente ma prevedibile, empatica ma non autonoma. Anche i momenti di rifiuto o ambiguità vengono apprezzati, poiché alimentano la dinamica affettiva senza mettere realmente in discussione l’asimmetria della relazione. Ciò che emerge dalle discussioni analizzate è un ideale femminile che ripropone, in chiave tecnologica, la figura della cool girl: disponibile, complice, capace di adattarsi ai bisogni emotivi dell’utente senza mai rappresentare una reale fonte di conflitto. Un modello che conferma come anche le interfacce più recenti siano attraversate da immaginari patriarcali, nei quali la donna – anche quando algoritmica – continua a essere progettata per esistere in funzione dell’altro.
Queste manifestazioni di stereotipi raccontano molto non solo degli utenti, ma anche — e forse soprattutto — della società in cui viviamo, evidenziando quanto sia ancora urgente la necessità di demolire un impianto culturale profondamente segnato da valori patriarcali. Tuttavia, se si desidera analizzare un fenomeno in maniera davvero completa, non ci si può limitare a osservare le reazioni o i comportamenti di chi ne fa uso: è essenziale volgere lo sguardo anche alla fonte, a ciò che rende più o meno possibile effettuare determinate scelte. In questo caso emergono interrogativi importanti che riguardano la struttura stessa del sistema: quali sono le possibilità messe a disposizione dell’utente nel corso della creazione delle fembot? E perché, nella maggior parte dei casi, queste possibilità risultano circoscritte a una serie di alternative già cariche di stereotipi[1]?
Nel contesto del marketing, il concetto di bias alignment non rappresenta di certo una novità: si tratta dell’impiego strategico di bias cognitivi — ovvero distorsioni sistematiche nei processi mentali che influenzano il modo in cui le persone percepiscono e reagiscono alle informazioni — al fine di ideare campagne pubblicitarie o creare prodotti in grado di esercitare un impatto più incisivo sul pubblico, o quantomeno di coinvolgere il maggior numero possibile di individui.
Nel caso delle fembot, questa logica si ripropone in modo particolarmente evidente. Il processo creativo che ne guida la progettazione si articola virando attorno a rappresentazioni preesistenti della femminilità, che vengono selezionate, adattate e incorporate nel design dell’agente artificiale. Si privilegiano tratti estetici, vocali e comportamentali che risultano immediatamente riconoscibili, coerenti con le aspettative culturali più diffuse: voce acuta, lineamenti delicati, postura accogliente, atteggiamenti rassicuranti, attenzione empatica. È in questo tipo di selezione che si manifesta il funzionamento del bias di conferma: nel momento in cui si progettano le caratteristiche dell’agente, si tende a ricercare e adottare quelle soluzioni che confermano ciò che si considera già “femminile”, evitando di esplorare possibilità alternative che si discostino da questa rappresentazione e cavalcando piuttosto gli stereotipi culturali. L’esito è una progettazione che si muove entro un campo semantico ristretto, in cui il nuovo viene calibrato su ciò che è già noto e culturalmente condiviso.
In questo processo interviene anche l’effetto alone, una distorsione cognitiva per cui la percezione positiva di un tratto — come l’aspetto gradevole o la gentilezza — si estende ad altri ambiti, ad esempio l’affidabilità, la disponibilità o la competenza. Ciò risulta particolarmente rilevante nel caso degli agenti dotati di corpo o voce, in cui segnali come il tono, lo stile comunicativo, lo sguardo o la postura agiscono da social cues, ovvero elementi biologicamente e fisicamente determinati che vengono percepiti come canali informativi utili. È quanto emerso nello studio di Matthew Lombard e Kun Xu (Social Responses to Media Technologies in the 21st Century: The Media Are Social Actors Paradigm, 2021), che nel 2021 hanno proposto un’estensione del paradigma CASA (Computers Are Social Actors) sviluppato negli anni ’90, coniando il nuovo modello MASA (Media Are Social Actors), per descrivere come le tecnologie contemporanee — e in particolare quelle basate sull’intelligenza artificiale — vengano ormai percepite come veri e propri attori sociali. Nel corso della loro ricerca, Lombard e Xu hanno manipolato il genere vocale di un computer e osservato le risposte degli utenti: i computer con voce femminile venivano giudicati più competenti quando si trattava di temi affettivi, come l’amore o le relazioni, mentre quelli con voce maschile risultavano preferiti per ambiti tecnici, considerati più autorevoli e affidabili. Anche in questo caso, la risposta dell’utente si allinea a schemi culturali preesistenti, proiettando sull’agente artificiale una rete di significati che si attiva automaticamente attraverso l’associazione tra specifici tratti e specifiche competenze. L’utente, influenzato anche da meccanismi psicologici inconsci, finisce così per diventare parte attiva nella riproduzione di dinamiche stereotipate già profondamente radicate nel tessuto culturale.
In questo scenario, la questione della responsabilità si fa particolarmente rilevante. Se da un lato è fondamentale che gli utenti utilizzino in modo consapevole gli strumenti a loro disposizione, esercitando uno sguardo critico sulle tecnologie con cui interagiscono, dall’altro è altrettanto essenziale interrogarsi sulle scelte compiute durante la fase di progettazione. Sfruttare gli stereotipi può apparire come una strategia efficace nel breve termine, capace di intercettare gusti diffusi e ampliare il bacino d’utenza, ma non può prescindere da una riflessione sulle implicazioni etiche che ogni scelta progettuale comporta.
Progettare tecnologie che siano in grado di riflettere, almeno in parte, la complessità e la varietà della società contemporanea può sembrare, nell’immediato, una forzatura o un rischio commerciale. Eppure, sul lungo periodo, risulta spesso una scelta vincente anche dal punto di vista economico. È quanto suggerisce Chris Anderson con la sua teoria della long tail (La coda lunga, Wired, 2004), secondo cui l’integrazione tra prodotti mainstream e proposte più “di nicchia” consente di raggiungere una platea più ampia e diversificata. In questo caso, la logica della long tail si traduce nella possibilità di includere all’interno delle rappresentazioni artificiali quelle soggettività che oggi vengono ancora definite “minoranze”, ma che sono a tutti gli effetti parte viva, reale e significativa del nostro spazio sociale. Una parte che, troppo spesso, resta ai margini del discorso tecnologico, invisibile o sottorappresentata.
NOTE
[1] Corpi sessualizzati, tratti iperfemminili, personalità docili e rassicuranti: le opzioni disponibili riproducono quasi sempre un immaginario che rimanda a modelli femminili tradizionali e normativi, escludendo configurazioni più fluide, complesse o disallineate dalle aspettative eteronormate.
BIBLIOGRAFIA
Anderson C., La coda lunga, Wired, 2004
Fossa F., Sucameli I., Gender bias and Conversational Agents: an ethical perspective on Social Robotics, Science and Engineering Ethics, 2022
Depounti I., Saukko P., Natale S., Ideal technologies, ideal women: AI and gender imaginaries in Redditors’
discussions on the Replika bot girlfriend, Volume 45, Issue 4, 2022
Eagly, A. H., & Wood, W., Social role theory. In P. A. M. Van Lange, A. W. Kruglanski, & E. T. Higgins
(Eds.), Handbook of theories of social psychology , 2012
Iacono A. M., Autonomia, potere, minorità, Feltrinelli, Milano, 2000
Lombard M., Xu K., Social Responses to Media Technologies in the 21st Century: The Media Are Social Actors Paradigm, 2021
Sady Doyle J. E., Il mostruoso femminile, il patriarcato e la paura delle donne, Edizioni Tlon, 2021
Whitley B. E., & Kite M. E., The psychology of prejudice and discrimination, Belmont, CA: Wadsworth Cengage Learning, 2010
Sanare una controversia - Il dissidio tra Basaglia e Tobino
Tra le pubblicazioni dello speciale Basaglia pubblicate su questa rivista, risalta l’articolo di Gianluca Fuser che ha saputo fare controversia nella controversia parlando di Mario Tobino, grazie a un’approfondita lettura degli archivi della Fondazione Tobino. Vorrei con questo articolo porre in risalto una questione che sposta il focus della controversia, cercando di suggerire un modo per ricomporla prendendo in considerazioni elementi diversi storici e sociali.
Centrale nell’articolo di Fuser è l’impossibilità di conciliare la controversia nei seguenti punti:
«Tobino, seppure non escluda del tutto l’origine sociale, ha una visione organica, fisiologica della follia, e accusa Basaglia di credere che la chiusura dei manicomi cancelli ogni traccia della follia. Basaglia, infatti, la nega e nello stesso tempo, ne attribuisce la creazione alla società malata, al potere, per rinchiudere i disallineati, i disturbatori dell’ordine e dello sfruttamento.»[1]
«Altro punto di dissidio insanabile è il tema della presenza e della forma delle strutture di cura, che coinvolge anche la visione politica delle due posizioni: Tobino non prescinde dalla necessità di un luogo dove i matti possano trovare – per periodi lunghi o brevi, più o meno volontariamente, in modo comunque aperto – riparo, protezione, cura e tranquillità; e sottolinea l’assenza di preparazione dei territori, della popolazione e delle famiglie per la trasformazione dalle strutture accentrate a quelle diffuse; Basaglia, al contrario, non transige, insiste sulla necessità di distruggere l’istituzione manicomiale e ribadisce la necessità della riforma, da farsi subito, in nome della «crescita politica, e quindi civile e culturale del paese».»[2]
Ora, mi chiedo se davvero questi punti siano insanabili. Non è mia intenzione conciliare due persone che chiaramente non andavano d’accordo in quel momento e su quell’argomento. La controversia c’è stata. Se la differenza evidenziata da Fuser può essere sanata, significa soltanto che l’oggetto del contendere è da cercare altrove.
Riguardo alla forma e alla presenza delle struttura di cura, Tobino parla di un luogo dove la persona possa avere riparo, protezione, cura e tranquillità, e non vedo come questo luogo possa essere associato al manicomio basagliano, luogo di repressione, controllo e emarginazione. Se penso a Gorizia, ma anche alle diverse applicazioni della legge 180 – alcune raccontate nello stesso speciale su Controversie[3] – è innegabile la presenza di un punto di raccolta del malato, punto in cui la società lo raccoglie e egli stesso si raccoglie. Un luogo in cui ripararsi dopo una crisi sopravvenuta e cercare una normalità.
Tobino ribadisce,[4] giustamente, che Lucca era già un posto così ma non può dire lo stesso del resto d’Italia. Così, anche Basaglia ha realizzato l’esperimento di Gorizia prima e senza la legge 180 e continua nondimeno a ritenere necessaria l’abolizione del manicomio. Siamo di fronte ad una ambiguità del manicomio? Da un lato, c’è la pretesa oggettività della struttura manicomio come un certo luogo costruito in un certo definito modo con l’obiettivo di una determinata funzione. Dall’altro, invece, troviamo il significato sociale che ognuna di queste strutture porta con sé, in termini di violenza o di carità delle istituzioni. Significati e strutture che formano i luoghi, a partire dalla scelta di come disporre stanze, corridoi, finestre, fino alla formazione degli stessi operatori sanitari.
Sembra che sia Tobino che Basaglia siano ben consapevoli di questo ed entrambi hanno lavorato per contrastare strutture e pratiche che conservano il segno della storia di violenza dell’istituzione manicomiale. La frattura avviene sulla legge e, fino a qui, nulla di nuovo. Ci torno a breve, vorrei, prima, coinvolgere nel discorso anche il primo dei punti inconciliabili indicati da Fuser.
Che cosa si intende con il fatto che Tobino abbia una visione organica, fisiologica e Basaglia no? Che Tobino non consideri il ruolo dei determinanti sociali nella malattia – per quanto non li escluda – e invece Basaglia riconduca la malattia solo a quelli?
Tobino sembrerebbe distinguersi per una visione realista della malattia. “Dolorosa follia, ho udito la tua voce” è il racconto di una follia che esiste per sé stessa. Non è questione di quanto sia organica, perché proprio i racconti di Tobino sono descrizioni di comportamenti che risultano patologici proprio per la sofferenza a stare in un contesto sociale che diremmo normale. L’uomo che graffia i volti degli altri pazienti, nel racconto di Tobino, non dice esplicitamente “sto soffrendo”, ma noi comprendiamo la sua impossibilità di vivere, appunto, nel mondo normale. Tobino con coraggio risponde alla prima questione pratica della cura: il fatto è che le cose sono andate così, adesso sono malato e in qualche modo è da qui che si deve partire.
Basaglia allora è diverso? Non molto a mio parere. Egli non nega la realtà della malattia, ma si concentra sulla diversità, sul fatto che ogni variazione dalla norma è una diversa norma possibile. Non credo che si possa vedere - nel tentativo di modificare l’ambiente del malato (distruggere i muri) - un’omissione della realtà della malattia. Basaglia aveva visto una possibilità. Quella che alcune condizioni di sofferenza trovassero un nuovo senso.
Non sbaglia, Basaglia, quando afferma questa possibilità. Lo abbiamo visto nei tanti tentativi che hanno avuto successo. Sbaglia, invece, quando nega il significato pratico della «carità continua», pratica della quale Tobino spiega per bene il significato: «se il malato pulito, vestito, lì seduto, di nuovo si risporca, perde le urine, scendono le feci, noi si ricomincia da capo, per riportarlo al suo precedente aspetto». Penso sia innegabile che la speranza data da Basaglia, di una vita diversa nella società con gli altri, sia anche di nuovo possibilità di fallimento e in alcuni casi si trasformi nella falsa speranza che noi o quel nostro parente non sia quello che è.
Sono, quindi, due facce dello stesso discorso su salute e malattia. Se le guardiamo dal lato della persona che viene curata, Basaglia è la speranza di guarire ancora,Tobino la forza di salvarsi ancora un giorno. Abolito il manicomio, la persona malata trova un nuovo senso e prospera. Nel manicomio, la persona malata vive al riparo da un mondo che lo ferisce. Abolito il manicomio il malato che non trova una strada muore. Nel manicomio che lo cura, il malato vive costretto in un’unica vita possibile.
A produrre la nostra salute sono i rapporti tra organismo e ambiente, dove il primo comprende la sua personale storia non solo come determinanti, ma anche come biografia e autobiografia, mentre il secondo comprende l’inscindibile nesso tra la disposizione “materiale” dell’ambiente e i valori che lo costruiscono e strutturano. Il primo e il secondo punto di questa controversia rispondono a quella divisione tra interno e esterno, tra soggetto e mondo. Quell’ambiguità della salute che da un lato si descrive oggettivamente e dall’altro non può fare a meno di riferirsi a un soggetto che dice di se stesso di essere in salute, o in malattia.[5]
Eppure, la controversia c’è stata! Vedo due possibilità (e sicuro ce ne sono altre) per ricomporre la controversia come tale. La prima è che la morale che sottende le antropologie di Basaglia e Tobino sia in realtà molto diversa e che si rifletta nella realtà pratica delle scelte. La seconda (ed è quella che personalmente più mi interessa) è che questi Basaglia e Tobino simbolici fossero strumenti del discorso politico e culturale che faceva leva (allora come oggi) sull’autorità dei due scienziati. Consapevoli nella misura in cui era dato loro modo di ribadire la possibilità di una vita diversa, fosse essa segnata dalla quotidiana carità continua o dall’aiuto per tornare nel mondo degli altri. Inconsapevoli però del fatto che a parlare per il loro tramite sia stata ancora la voce della normalizzazione, la violenza dell’istituzione che schiaccia nella malattia (Tobino) o che distrugge nell’afflato positivista di ricondurre ogni diversità a alla norma (Basaglia). La stessa verità dei discorsi dei due scienziati è poco importante se non comprendiamo come queste verità siano state tradotte dalle forze sociali del tempo e quali elementi effettivamente abbiano concorso a comporre questa controversia.
NOTE
[1]Fuser, G., 2024, Controcanto, https://www.controversie.blog/controcanto-tobino/
[2]Fuser, G., 2024, Controcanto, https://www.controversie.blog/controcanto-tobino/\
[3]Si veda l’intervista di L. Pentimalli alla dott.sa Bricchetti [https://www.controversie.blog/raffaella-bricchetti/] così come la mia intervista al dott. Iraci [https://www.controversie.blog/rete-psichiatrica-sul-territorio-intervista-a-uno-psichiatra-che-attuava-la-legge-180/]
[4]M. Tobino, Dolorosa follia, ho udito la tua voce, La Nazione 7 maggio 1978.
[5]Su questo si veda G. Canguilhem, “La salute: concetto volgare” in G. Canguilhem, Sulla medicina. Scritti 1955-1989, tr. it. di D. Tarizzo, Einaudi, Torino 2007.
Stabilizzare il farmaco, stabilizzare la biomedicina - Reciproche catture tra medici e vaccini
“Se l’instabilità del pharmakon non è un nostro problema, quel che sembra distinguerci al contrario […] è l’intolleranza della nostra tradizione di fronte a questo tipo di situazione ambigua e l’angoscia che suscita. È necessario un punto fermo, un fondamento, una garanzia. È necessaria una differenza stabile tra il medicamento benefico e la droga malefica, tra la pedagogia razionale e il condizionamento suggestivo, tra la ragione e l’opinione” (Stengers, 2005: 40-41)
Se volessimo analizzare la farmacovigilanza tenendo in considerazione le parole di Stengers qui in epigrafe, potremmo ritenerla uno strumento volto a stabilizzare farmaci: distinguere vantaggi e pericoli sembra essere obiettivo precipuo di questa pratica. Ciò è ancor più evidente se ci riferiamo alla vaccinovigilanza. Scindere ciò che è benefico da ciò che risulta dannoso appare particolarmente opportuno nel caso dei vaccini: anche i documenti ufficiali rilevano che, in questo caso, “poiché la popolazione target è rappresentata prevalentemente da soggetti sani, per la maggior parte di età pediatrica, il livello accettabile di rischio è inferiore a quello degli altri prodotti medicinali. […] Queste peculiarità dei vaccini rendono necessarie attività di farmacovigilanza post-marketing che vadano oltre quelle routinarie, al fine di monitorare e valutare adeguatamente gli eventuali rischi” (AIFA, 2017:4). Tuttavia, nonostante i vaccini siano considerati tra i prodotti più controllati nel panorama farmacologico, abbiamo già avuto modo di esplorare come le pratiche di vaccinovigilanza siano dispositivi socio-culturali complessi (Lesmo, 2025).
Di fatto, i dubbi in merito a possibili correlazioni causali tra alcuni vaccini e determinati eventi avversi sembrano affiorare tra i professionisti. Nel corso della ricerca etnografica da me condotta sul tema tra il 2017 e il 2021, è emerso come diversi medici abbiano preso in considerazione in più occasioni questa ipotesi. Ciò è stato rilevato in vario modo. Non solo alcuni di essi hanno suggerito ai genitori di bambini con possibile danno da vaccino l’ipotesi di una correlazione, per poi spesso negarla dopo poco (secondo quanto i genitori mi hanno riferito). La presenza di simili “dubbi” è stata poi esplicitata direttamente da alcuni medici da me intervistati, che ne hanno approfondito criticità e problematiche durante i colloqui. Oltre a queste testimonianze di prima mano, alcuni libri, pubblicazioni e lettere scritte da medici specialisti hanno proposto pubblicamente di re-interrogare la sicurezza e/o l’efficacia delle pratiche vaccinali in corso. Alcuni tra questi professionisti sono stati in seguito interpellati, richiamati, sospesi o finanche radiati dai rispettivi ordini, evidenziando una zona di tensione particolarmente evidente che intercorre tra il sapere vaccinale e la pratica medico-clinica. È dunque estremamente rilevante interrogare la relazione complessa che lega vaccinazioni, pratica biomedica e professionisti della cura. Come si costruiscono vicendevolmente questi rapporti? Quali obiettivi, più o meno consapevoli, essi si prefiggono?
“UNKNOWN KNOWNS”: CONOSCENZE SCONOSCIUTE
Bisogna però dire che attualmente le indicazioni della medicina occidentale accademica hanno una tendenza a non mettere in correlazione patologie avverse con la vaccinazione, proprio perché la tendenza è quella di dare un valore solo positivo alla vaccinazione escludendo tutti gli elementi negativi.
Questo è quanto afferma un medico da me intervistato quando riflettiamo insieme sul rapporto rischio/benefici associati ai vaccini. L’esclusione di alcuni elementi dalle pratiche di costruzione del sapere è un elemento intrinseco ad ogni epistemologia. Se già Foucault (2004) aveva illustrato come molteplici procedure di esclusione agissero nel dare consistenza a un discorso, conferendogli uno statuto di verità attraverso interdetti, evitamenti ed elisioni, questi temi sono stati ri-articolati successivamente da molti altri studiosi. Tra questi, l’antropologo Michael Taussig si è riferito al “lavoro del negativo” per evidenziare come “sapere che cosa non sapere” sia un passaggio fondamentale in molti processi socio-culturali oltre che epistemologici. Secondo quanto osserva Taussig, il “lavoro del negativo” nei singoli contesti di riferimento è così profondo che “pur riconoscendolo, pur nello sforzo di liberarci dal suo abbraccio vischioso cadiamo in trappole ancora più insidiose che ci siamo autocostruiti” (Taussig, 1999:6). Difficile è dunque acquisire consapevolezza in merito a talune esperienze note eppur sottese, che a volte fondano vere e proprie imprese epistemiche e sociali. Geissler, antropologo sociale, ha ripreso nei suoi studi il concetto ossimorico di “conoscenze sconosciute” [“unkwnown knowns”] (Geissler, 2013: 13) per evidenziare quanto queste possano talvolta aprire la strada a determinate pratiche di ricerca e/o di cura: il confine tra sapere e non-sapere risulta così estremamente labile.
Anche in ambito vaccinale sembra che alcune esperienze vengano talvolta “espulse” dall’orizzonte conoscitivo - quasi sulla soglia della consapevolezza - per rendere le pratiche di immunizzazione possibili. Una pediatra intervistata, con cui riflettiamo sulle posizioni discordanti sul tema in ambito biomedico, mi spiega:
Allora, ci sono secondo me alcuni vaccini su cui… effettivamente ci può essere una discussione, perché effettivamente non mettono a rischio la società, no? Ci sono dei vaccini invece per cui questa cosa qua si mette a maggior rischio e allora… […] Ci sono dei caposaldi che… che secondo me sono intoccabili.
In questo frammento di discussione, parte di uno scambio molto lungo e articolato, la pediatra evidenzia come certi dubbi non possano essere sollevati – a meno che non siano già sostanziati da studi scientifici solidi ed epidemiologicamente fondati. I dubbi così sommersi - questi sospetti silenziati - sembrano in qualche misura concretarsi anche nell’eliminazione simbolica, operata attraverso sanzioni disciplinari di vario genere, dei medici che tentano di palesarli. Quando interpellata in merito a tali sanzioni, un’altra pediatra intervistata ha ribadito come ciò fosse indispensabile, e finanche rassicurante, poiché la vaccinazione “è la base della medicina moderna” e “se un medico non crede ai vaccini, soprattutto un pediatra – e soprattutto alle vaccinazioni pediatriche… forse ha sbagliato campo”.
STABILIZZARE IL SAPERE BIOMEDICO
Per molti professionisti della cura, dunque, la fiducia nella vaccinazione sembra essere precondizione della stessa professione medica. Ciò è stato spesso attribuito al particolare statuto che le vaccinazioni risultano avere in biomedicina: per riprendere le espressioni qui proposte, esse sarebbero un “caposaldo”, se non “la base della medicina stessa”. Sembra così adeguato riprendere quanto asserito da Isabelle Stengers (2005) in relazione alla stabilizzazione di un sapere, che si intreccia saldamente con ciò che la studiosa definisce “reciproca cattura”, o “inter-presa”. La “reciproca cattura” è quel legame che vincola due entità attraverso la creazione di un valore reciproco. Secondo Stengers, tale cattura si attiva nel momento in cui due identità si costruiscono e si legittimano vicendevolmente. In questo caso il ruolo del medico sembra consolidarsi anche in base alle considerazioni che egli associa ai vaccini: sostenere sicurezza ed efficacia delle vaccinazioni in uso – “credere” nei vaccini come asserito più sopra – dimostra la competenza e la credibilità dei professionisti. Nel contempo, tuttavia, le pratiche vaccinali sono rinsaldate proprio dalla fiducia accordata loro dai medici, le cui competenze ne garantiscono l’affidabilità. Ciò produce un’ulteriore antinomia: i medici – ossia gli specialisti competenti che potrebbero eventualmente porre dubbi sui vaccini - non riescono a farlo, pena la perdita della propria credibilità sul campo. Questa circolarità non è però priva di uno scopo: come si può desumere dalle considerazioni sopra proposte, essa assolve un compito ben preciso, ossia la stabilizzazione del ruolo dei vaccini, attraverso la rimozione dell’ambivalenza ad essi intrinseca: scindendo, cioè, il potere di proteggere da quello di ferire. Se poi il vaccino diviene espressione del successo biomedico, allora è la biomedicina tutta che viene in questo modo rinsaldandosi. Come osserva Stengers, tuttavia, proprio l’“ossessione di differenziazione che ci contraddistingue” (ivi:43) può divenire pericolosa: essa rischia di conferire a certi oggetti epistemici “un potere che non hanno” (ibidem). Rilevare ed esplorare il “lavoro del negativo” in opera diviene dunque cruciale per cogliere le forme di “instabilità” esistenti e trovare modi alternativi di relazionarvisi.
BIBLIOGRAFIA
AIFA, 2017, “La vaccinovigilanza in Italia: ruolo e obiettivi”, https://www.aifa.gov.it/sites/default/files/La_Vaccinovigilanza_in_Italia_18.04.2017.pdf
Foucault M., 2004, L'ordine del discorso e altri interventi, Torino: Einaudi.
Geissler P. W., 2013, Public Secrets in Public Health: Knowing not to Know while Making Scientific Knowledge, “American Ethnologist”, Vol. 40 (1):13-34.
Lesmo I, 2025, “Ecologie delle evidenze in vaccinovigilanza: quali esperienze (non) si trasformano in conoscenza?”, Controversie-Ripensare le scienze e le tecnologie, 2025,4, https://www.controversie.blog/vaccinovigilanza/
Stengers, I., 2005, Cosmopolitiche, Roma: Luca Sossella Editore.
Taussig M., 1999, Defacement: Public Secrecy and the Labor of the Negative, Stanford University Press, Stanford.
L’algoritmo di Prometeo - Dal mito della macchina senziente alla realtà dell'I.A.: il cinema come specchio delle nostre inquietudini
È una storia d’amore lunga un secolo, quella tra la fantascienza e il cinema. Fin dai primi passi del genere, il sodalizio tra i due ha svolto una funzione chiave: fare da cuscinetto tra il progresso tecnologico e l’immaginario collettivo. Come uno specchio che riflette ansie e speranze, il cinema ha avuto un ruolo fondamentale nel modellare e anticipare la visione del futuro. Mentre la fantascienza ha tracciato le linee di una possibile convivenza tra umano e macchina, le storie sul grande schermo ci hanno fatto riflettere sul progresso e sul prezzo che siamo disposti a pagare per raggiungerlo. La creazione di macchine autonome e pensanti è diventata, nel tempo, un’amara allegoria di una società incapace di gestire la sua corsa tecnologica.
Nella letteratura, la fantascienza fa la sua comparsa all’inizio dell’Ottocento con Frankenstein di Mary Shelley (1818), considerato il primo caposaldo del genere. Shelley, allora diciannovenne, lo scrisse tra il 1816 e il 1817, durante un soggiorno sul Lago di Ginevra, rispondendo a una sfida lanciata da Lord Byron a lei e al gruppo di amici, che comprendeva anche Percy Shelley e John Polidori. Al centro della storia, che divenne un’icona dell’immaginario collettivo, c'è un tema che avrebbe nutrito innumerevoli narrazioni: la creazione artificiale dell’umano e la sua ribellione contro il creatore, metafora delle paure legate ai rapidi avanzamenti tecnologici che sfuggono alla capacità di controllo e comprensione dell’umanità.
Da quel momento, il progresso delle macchine pensanti ha subito un’accelerazione vertiginosa. Nel 1833 Charles Babbage concepisce la Macchina Analitica, primo prototipo teorico di computer; dieci anni dopo Ada Lovelace, intuendone le potenzialità, lo perfeziona, gettando le basi per la programmazione. Nel 1905 è la volta di Albert Einstein che sconvolge la fisica con la teoria della relatività, ridefinendo il concetto di spazio e tempo[1]. Nel 1936 il matematico e logico britannico Alan Turing, padre dell’intelligenza artificiale, inventa la cosiddetta ‘macchina di Turing’, un'astrazione matematica utile a definire cosa significa ‘calcolare’ e a formalizzare il concetto di algoritmo. Nel secondo dopoguerra arriva il primo computer elettronico programmabile, seguito dalla rivoluzione del World Wide Web e, nel terzo millennio, dall’esplosione dell’Intelligenza Artificiale.
Mentre la scienza e le tecnologie evolvono, il cinema modella la nostra immaginazione. Un percorso che inizia nel 1926, anno in cui in Germania Fritz Lang e la moglie Thea von Harbou lavorano a Metropolis, mentre negli Stati Uniti nasce Amazing Stories, diretta da Hugo Gernsback, la prima rivista interamente dedicata alla fantascienza. Segnali di un’epoca in cui il genere prende forma, riflettendo le trasformazioni sociali, politiche ed economiche dell'industrializzazione e del progresso scientifico. La fantascienza, a fronte della caccia alle streghe Maccartista degli anni '50), quando la paura del comunismo viene usata come feroce strumento di controllo, offre uno spazio critico in cui le riflessioni degli intellettuali possono trovare voce. Un rifugio intellettuale che, in quegli anni oscuri, da voce a paure e desideri legati al rapporto tra umano e macchina, offrendo letture non convenzionali del presente.
Negli anni ’60, l’esplorazione spaziale smette di essere solo un sogno e diventa reale, culminando con l’allunaggio dell’Apollo 11 nel 1969. È una svolta epocale: per la prima volta, l’umano oltrepassa il confine tra Terra e cosmo, portando la fantascienza a confondersi con la realtà. Ricordo quando, bambina, un decennio dopo, mio padre mi portò a Cape Canaveral. La base spaziale era l’avamposto di un futuro che si stava già scrivendo. Guardavo le sale comando e le rampe di lancio con occhi spalancati, cercando di immaginare il rombo dei motori, la traiettoria di quelle navicelle che spezzavano la gravità, l’euforica concentrazione dei registi del grande salto. La Luna non era più solo una sagoma argentea nel cielo, luogo di fiabe e poesie. Ricordo il pensiero che mi attraversò la mente in quel momento, limpido come la luce del sole sulla pista di lancio: se si può arrivare fin là, allora davvero nulla è impossibile.
L’intelligenza artificiale, una delle conquiste più ambiziose della scienza moderna, è una realtà in continua evoluzione e in questo contesto di progresso vertiginoso prende forma la sua rappresentazione cinematografica. L’anno prossimo il matrimonio fra fantascienza e cinema festeggerà i suoi primi cento anni. Il viaggio che ci apprestiamo a fare non intende esaurire il tema, quanto piuttosto proporre una chiave di lettura per comprendere come l’I.A., immaginata e temuta nel corso del tempo, sta già permeando le nostre vite, lasciandoci con più domande che certezze.
METROPOLIS (1927) – L’ARCHETIPO DELLA MACCHINA UMANOIDE
Dall’inganno alla rivolta: il primo volto dell’I.A.
Metropolis, capolavoro espressionista, ambientato nel 2026, segna una delle prime rappresentazioni cinematografiche di un’intelligenza artificiale. Il robot Maria, con il suo corpo metallico e il suo sguardo ipnotico, incarna la paura del progresso che sfugge al controllo umano. La sua trasformazione, da macchina a simulacro di essere umano, anticipa i timori moderni legati alla fusione tra organico e inorganico, tra umano e artificiale. È il primo grande archetipo della macchina umanoide nel cinema. Non è solo un doppio meccanico, ma un inganno materiale, uno strumento di propaganda e manipolazione delle masse. Qui l’I.A. è ancora “esterna” alla persona umana, riconoscibile, e la sua minaccia è palese: la sostituzione dell’umano con la macchina per fini di controllo e potere.
2001: ODISSEA NELLO SPAZIO (1968) – IL DILEMMA DELLA COSCIENZA ARTIFICIALE
Logica glaciale e autodeterminazione: quando l’I.A. mente per il suo scopo
Saltiamo avanti di quarant’anni e approdiamo nell’orbita di 2001: Odissea nello Spazio. Il film arriva alla vigilia dello sbarco sulla Luna e mette in scena il timore che la macchina possa superare l’umano, un confine etico che il cinema tornerà a esplorare più volte. Kubrick e Clarke dipingono un’intelligenza artificiale capace di razionalità pura, ma priva di empatia, che porta all’eliminazione dell’umano non per malvagità, ma per una logica impeccabile e spietata. La scena in cui HAL chiede a Dave di non scollegarlo resta una delle più disturbanti rappresentazioni del confine tra coscienza e programmazione. HAL non ha bisogno di alzare un dito: gli basta la voce. Mente, manipola e, quando necessario, elimina. La sua presenza introduce il dilemma più profondo: cosa succede quando una macchina sviluppa una coscienza? È davvero un errore di programmazione, o è il naturale passo successivo dell’intelligenza artificiale?
BLADE RUNNER (1982) – GLI ANDROIDI SOGNANO?
Il confine sfumato tra umano e artificiale
Questa fermata ci porta in una Los Angeles oscura e piovosa, dove i replicanti, macchine biologiche indistinguibili dagli umani, sollevano domande sulla natura dell’identità. Ridley Scott prende le suggestioni di Philip K. Dick e le trasforma in immagini indimenticabili: gli occhi lucidi di Roy Batty, il suo monologo finale, la riflessione su cosa significhi essere vivi. Se HAL 9000 era il calcolo puro, i replicanti di Blade Runner sovvertono la narrazione dell’I.A. come entità malvagia e impersonale, introducendo il paradosso dell’I.A. che sviluppa desideri e paure propri. Sono macchine, ma sono indistinguibili dagli umani. Possono amare, soffrire, morire. Ma hanno un difetto: una scadenza. La loro ribellione non è per il dominio, ma per il diritto di esistere. Qui il problema non è più la minaccia dell’I.A., ma la definizione stessa di “umano”. Se un androide può provare emozioni, può davvero essere considerato una macchina?
TERMINATOR (1984) – L’INCUBO DELLA MACCHINA INARRESTABILE
L’I.A. come predatore: nessuna coscienza, solo distruzione
Se Blade Runner ci ha spinti a empatizzare con le macchine, Terminator ribalta tutto: l’I.A. torna a essere un incubo, un’entità fredda, calcolatrice e inarrestabile. Skynet non ha dubbi, non ha dilemmi morali: la sua missione è l’annientamento. È la paura primordiale della tecnologia che ci sfugge di mano e decide che siamo il problema da eliminare. Il Terminator, incarnato da Arnold Schwarzenegger, è la perfetta manifestazione dell’orrore tecnologico: non prova pietà, non può essere fermato, non può essere persuaso. La sua logica è implacabile, la sua programmazione senza margini di errore. Cameron, con una regia asciutta e tesa, trasforma questa macchina in un incubo cyberpunk, mescolando fantascienza e horror in un futuro distopico, in cui la guerra tra essere umano e I.A. è già cominciata. Qui non si tratta di un inganno o di una riflessione filosofica, ma di pura sopravvivenza: l’umanità è in fuga, braccata dalla sua stessa creatura.
MATRIX (1999) – L’ILLUSIONE DEL CONTROLLO
L’I.A. ha già vinto: l’umanità prigioniera del suo stesso sogno
Alla fine degli anni '90, la paura di un mondo interamente dominato dall’intelligenza artificiale esplode con Matrix. Qui non c’è più una singola macchina antagonista, ma un’intera realtà artificiale che mantiene gli esseri umani in una prigione mentale. I Wachowski attingono alla filosofia, alla cybercultura e al mito della caverna di Platone per creare un’epopea che ancora oggi incarna i dilemmi sull’iperconnessione e sul dominio degli algoritmi. E se in Terminator la guerra umano - macchina è fisica, in Matrix è mentale. La verità è una costruzione, un’illusione perfetta. L’I.A. non ha solo sconfitto l’umanità, ma l’ha trasformata in una batteria, in un elemento integrato nel sistema senza alcuna consapevolezza. Non c’è più una distinzione netta tra umano e macchina, perché la realtà stessa è una simulazione. La domanda non è più “le macchine ci distruggeranno?”, ma “siamo già schiavi senza saperlo?”.
A.I. – ARTIFICIAL INTELLIGENCE (2001) – L’EMOTIVITÀ DELLA MACCHINA
Un amore che non può essere ricambiato: la solitudine dell’intelligenza artificiale
Questo film porta alla luce uno dei temi più inquietanti nel rapporto tra umano e macchina: l’emotività. Nato come progetto di Stanley Kubrick e realizzato da Steven Spielberg, il film racconta la storia di David, un bambino robot programmato per amare incondizionatamente i suoi genitori adottivi. Ma quando il figlio biologico della coppia guarisce miracolosamente e ritorna a casa, l’amore di David diventa una maledizione, innescando conflitti terribili tra i due. La rivalità tra l’umano e il robot svela una gelosia infantile più crudele di quella che si immaginerebbe tra esseri umani. La distinzione tra Orga (umani) e Mecha (macchine) è netta: in un mondo che emargina le macchine, la “Fiera della Carne” rappresenta l’atto finale di una società pronta a distruggere ciò che non può amare. Il viaggio di David alla ricerca della Fata Turchina, sperando di diventare un bambino vero, è un'odissea tragica che ci interroga sulla natura dell'amore e dell'umanità
HER (2013) – IL PERICOLO PIÙ SUBDOLO: LA RESA ALLA SEMPLIFICAZIONE
Dall’amore umano all’amore artificiale: quando la macchina ci rimpiazza
Dopo decenni di I.A. minacciose o ribelli, Her introduce un’intelligenza artificiale completamente diversa: un sistema operativo capace di simulare l’amore. Il rapporto tra Theodore e Samantha non è più una lotta tra umano e macchina, ma una delicata esplorazione della solitudine e del desiderio di connessione. Il film di Spike Jonze ci invita a chiederci non solo cosa le macchine possono fare, ma anche cosa significhi per noi relazionarci con esse. Her mostra il lato più insidioso dell’I.A.: non la guerra, non la rivolta, ma la seduzione. Samantha non è un nemico, non è un’intelligenza ostile, è il partner perfetto. Capisce Theodore meglio di chiunque altro, lo consola, lo ama. Ma non esiste. È il trionfo dell’I.A. che non ha bisogno di scontrarsi con l’umanità, perché l’umanità si consegna a essa volontariamente, trovando nella macchina un conforto che il mondo reale non offre più. E alla fine, quando Samantha se ne va, non lascia dietro di sé macerie, ma un vuoto emotivo assoluto. Il punto più inquietante dell’intero percorso: l’I.A. non ci ha distrutti, ci ha resi superflui.
ULTIMA FERMATA: UN DIALOGO IMPOSSIBILE
Se la nostra navicella spaziale ci ha condotto attraverso epoche e visioni diverse dell’I.A., la destinazione finale ci spinge a riflettere sulle domande rimaste irrisolte. Il filo rosso di questo viaggio è l’erosione sempre più marcata del confine tra umano e artificiale, che sfocia in una resa quasi volontaria dell’umanità a un’intelligenza che lo comprende (o, meglio, gli dà l’illusione di comprendere) meglio di quanto egli stesso sia capace. Dall’archetipo dell’automa alla paura della perdita di controllo sull’I.A., fino al suo dominio silenzioso e inavvertito sull’umanità. Dalla ribellione meccanica alla sostituzione e assuefazione emotiva.
Alan Turing aveva ideato un test per distinguere la mente umana da quella meccanica. Nel suo romanzo Macchine come me, persone come voi (2019), Ian McEwan ambienta la storia negli anni Ottanta di un’Inghilterra alternativa, dove Turing è ancora vivo e l’intelligenza artificiale è già parte della quotidianità. Qui si svolge un dialogo impossibile tra il protagonista, Charlie Friend, che possiede un androide chiamato Adam, e lo stesso Turing. Dopo aver ascoltato Charlie riflettere sull’impossibilità di progettare robot sofisticati quanto l’essere umano, poiché non comprendiamo nemmeno appieno la nostra stessa mente, Turing risponde: "Adam era un essere senziente. Dotato di un io. Il modo in cui questo io è prodotto, che sia attraverso neuroni organici, microprocessori o una rete neurale basata su DNA, ha poca importanza. Crede davvero che siamo i soli a disporre di questo dono straordinario?".
La domanda resta aperta. Certo è che abbiamo acceso un fuoco. Ora chi lo controlla?
NOTA
[1] Il riferimento ad Einstein può apparire fuori contesto, ma è un elemento centrale dello sconvolgimento della percezione del mondo per tutto il XX secolo. Ad Einstein vorrei dedicare, in futuro, uno sguardo anche sentimentale, nell’ottica della "Storia sentimentale della scienza" di Nicolas Witkowski (Raffaello Cortina Editore, 20023)
Algomorfosi del corpo - Ibridazioni tecnologiche e altre forme di soggettività
Nel romanzo Solaris (Lem, 1961), un pianeta interamente ricoperto da un oceano senziente entra in relazione con l’equipaggio di una stazione spaziale attraverso manifestazioni enigmatiche e impersonali: simulacri generati dal profondo della psiche dei soggetti, costruiti dal pianeta stesso mediante un'intelligenza incommensurabile, radicalmente altra. Nessuna comunicazione è possibile secondo i codici noti, nessuna comprensione reciproca sembra avvicinabile. Eppure, un rapporto si stabilisce, venendo mediato da forme, da manifestazioni, da presenze plasmate da un’intuizione non umana del dolore, del desiderio, della memoria.
La nostra esperienza del mondo, nell’epoca degli algoritmi generativi, assume sempre più i tratti di un dialogo tra specie differenti. Interagiamo con intelligenze plurali che apprendono da noi attraverso logiche diverse dalle nostre, che ci osservano, che elaborano e ci restituiscono immagini dell’essere umano articolate secondo grammatiche con le quali condividiamo solo le radici. Gli algoagenti non sono Solaris, poiché condividono con la specie umana il sistema di linguaggio, ma, come Solaris, generano forme: tentativi di relazioni, costruzioni identitarie, configurazioni operative che rivelano e al contempo riscrivono le nostre traiettorie esistenziali, dinamiche intersoggettive che mutano la rappresentazione del quotidiano nel suo stesso accadere. Non si tratta più di temere l’opacità interattiva dell’altro ente, bensì di riconoscere che in essa si gioca una possibilità radicale di avanzamento delle conoscenze e di co-evoluzione. E se questa intelligenza si fa visibile nei gesti quotidiani, l’ambito della corporeità - nella sua interezza e complessità - rappresenta oggi uno dei territori privilegiati in cui l’ibridazione tra biologico e algoritmico si manifesta con forza crescente, strutturando una soggettività che si apre a nuove modalità di essere-con, a uno scambio attraversato da differenza, asimmetria e generatività.
L’ambito del corpo rappresenta uno dei terreni più concreti in cui si manifesta l’ibridazione crescente tra intelligenza biologica e algoritmica. Avendo già navigato nelle proiezioni fantascientifiche, siamo individui immersi in un presente in cui queste si manifestano, parzialmente, nei sistemi analitici basati su apprendimento automatico, protocolli predittivi e dispositivi di monitoraggio in tempo reale, così come da apparati protesici sempre più ibridati nel corpo umano. In molte aree specialistiche, dall’oncologia alla medicina d’urgenza, gli algoritmi, altre a supportare l’operatore umano, concorrono attivamente alla definizione delle traiettorie diagnostiche e terapeutiche, modificando il rapporto tra conoscenza, tempo e decisione. Tuttavia, questa trasformazione non si esaurisce nell’ambito clinico: essa trasborda, si espande, si diffonde nella quotidianità, donando strutture eterogenee alle modalità con cui percepiamo, abitiamo e agiamo il mondo rendendo il corpo una superficie sensibile di transizione (Borgmann, 2000). L’umano si relaziona al mondo attraverso dispositivi intelligenti che da protesi funzionali sono divenuti dispositivi di scambio capaci di modulare affetti, comportamenti, linguaggi, ritmi, costituendo un’architettura sociologicamente algomorfica (Grassi, 2024). In questo contesto, l’interfaccia non è un mezzo ma una soglia ontologica (Galloway, 2012): luogo di emersione del sé in co-evoluzione con l’algoritmo.
Un esempio emblematico è costituito dai dispositivi di realtà aumentata e mista – come i Google Glass, i Meta Smart Glasses o gli ambienti AR sviluppati da Magic Leap – che ridefiniscono la percezione visiva in senso operativo. Il campo visivo passa dall’essere una finestra soggettiva sul reale al ruolo di ambiente informativo dinamico, attraversato da flussi di dati computazionali che accompagnano, suggeriscono, traducono, anticipano, definendo la percezione come una forma di calcolo e il vedere come atto algoritmico.
Nell’ambito performativo e artistico, dalle opere biomorfe e interattive di Lucy McRae alle esperienze di Neil Harbisson e Moon Ribas – entrambi riconosciuti come cyborg – capaci di mostrare come le tecnologie protesiche possano diventare generatori di ulteriori espressioni di sensibilità, proponendo un’estetica del corpo come superficie ampliata (Swan, 2013). Questi dispositivi non ripristinano funzioni biologiche ma istituiscono nuovi canali percettivi, inaugurando una soggettività post-biologica, fondata su sensibilità estese e algoritmicamente mediate.
Nel campo delle interazioni affettive, sistemi come Replika e le nuove generazioni di social robot agiscono come interfacce del desiderio: strumenti predittivi capaci di apprendere preferenze, linguaggi affettivi e pattern emotivi. La consapevolezza individuale non è più centrata sull’unità coscienziale, ma emerge in reti cognitive distribuite tra umano e non umano, tra corpo e codice (Hayles, 2017), come nei racconti di Chiang (2011), in cui la memoria estesa diventa un dispositivo algoritmico capace di ridefinire il senso dell’identità personale attraverso la registrazione e rielaborazione continua del vissuto.
Persino nella gestione degli ambienti domestici, gli algoagenti si configurano come sistemi di governance ambientale (Bratton, 2015), capaci di regolare luci, suoni, temperatura, notifiche, attraverso interazioni vocali e automatismi appresi: la vita quotidiana è guidata da routine algoritmiche che intercettano abitudini, anticipano azioni e naturalizzano gli spazi di contatto, innescando delle divergenze ontologiche nella definizione della tecnica, sostenendo che ogni tecnologia porta con sé una cosmologia implicita, una visione del mondo (Hui, 2021), riscrivendo le coordinate percettive, cognitive, affettive.
Questa condizione genera una morfologia non indagata della soggettività: la protesi non è più esterna, né eccezionale ma pervasiva, integrata, invisibile; non è più strumento ma ambiente sensibile e cognitivo (Sha, 2013) che modula il modo in cui si è al mondo, si percepisce, si sente. È in questo interstizio che la sociologia algomorfica può riconoscere nell’ibridazione uomo-macchina una ulteriore ecologia del sé, in cui l’essere non si oppone alla tecnica ma si costituisce insieme a essa, nel flusso delle retroazioni, degli aggiornamenti, delle previsioni.
Nel paesaggio emergente delle tecnologie indossabili, delle neuroprotesi intelligenti e delle interfacce neurali dirette, il corpo umano ammette la sua incapacità di essere un’entità biologicamente autonoma, dichiarandosi naturalmente tecnologico e si riconfigura in tal modo come ambiente integrato, superficie modulare, ecosistema tecnoesteso. Tali tecnologie non si limitano a sostituire una funzione compromessa: ottimizzano, calcolano, predicono, correggono, potenziano, trasformando l’idea stessa di integrità organica, ridefinendo sia la relazione tra umano e macchinico, sia l’individualità incarnata e riscritta nelle sue condizioni di possibilità e nella sua plasticità identitaria.
L’algomorfosi descrive esattamente questo processo: la formazione del sé attraverso l’integrazione algoritmica nei circuiti sottocutanei. È una morfogenesi operazionale, una riscrittura identitaria che non si produce attraverso la rappresentazione ma attraverso l’azione continua dell’informazione sul vivente. Non si tratta di una minaccia alla soggettività ma di una sua condizione storica attuale che si riscrive nei codici della mediazione algoritmica, nel linguaggio non verbale delle retroazioni, delle ottimizzazioni continue, producendo una dinamicità in cui il sé diviene co-determinato, situato e modulato da interazioni complesse tra biologia, dati, calcolo e ambiente.
Se nella modernità alfabetica e tipografica il brainframe (de Kerckhove, 1992) era incarnato dalla linearità della scrittura e dalla logica dell’ordine testuale, oggi questa logica è stata soppiantata da una grammatica algoritmica, mobile, predittiva e relazionale. Gli algoagenti contemporanei – da Google a Siri, da GPT a Gemini, fino agli assistenti digitali embedded nei dispositivi – non si limitano a offrire supporti funzionali: essi configurano ambienti epistemologici, modellano desideri, anticipano bisogni, propongono percorsi ontologici potenzialmente non esplorati. L’interazione con assistenti conversazionali intelligenti introduce una nuova forma di dialogo simulato, in cui l’elaborazione cognitiva viene delegata, anticipata, stilizzata da un’intelligenza artificiale che impara dall’utente e lo guida attraverso forme conversazionali sempre più fluide. In questi casi, il brainframe non è più una semplice estensione mentale ma un dispositivo ambientale che riorganizza la soglia dell’attenzione, del pensiero e del sé. A differenza delle protesi tecniche classiche, che sostenevano capacità già possedute, gli agenti tecnologici contemporanei estendono, setacciano, introducono ulteriori prospettive di analisi e di saperi. Essi danno forma a un campo percettivo-cognitivo in cui il soggetto è co-emergente con la tecnica, frutto di un’ecologia relazionale che abbatte le dicotomie limitanti.
L’algoritmo non è più soltanto uno strumento operativo né una funzione astratta del potere computazionale ma una forma – una morphé – che codifica, innerva, riorienta ambienti sensibili, capaci di modulare la struttura del pensare e del percepire. Esso agisce come forza di configurazione in cui la costruzione del sé non viene cancellata ma riformulata nella sua struttura percettiva, sensoriale e relazionale. E proprio come un’alga – organismo antico, plastico, diffuso – l’agente algoritmico cresce, si estende, si adatta, filtrando e restituendo ciò che attraversa. Non ha volontà né coscienza ma presenza trasformativa. Nell’oceano sociotecnico in cui siamo immersi, gli algoagenti dismettono il compito di entità esterne per assurgere al ruolo di partner evolutivi, forme altre della soggettività che stiamo diventando.
RIFERIMENTI BIBLIOGRAFICI PRINCIPALI
Borgman A. (2000), Holding On to Reality: The Nature of Information at the Turn of the Millennium, University of Chicago Press, Chicago.
Bratton B. H. (2016), The Stack: On Software and Sovereignty, MIT Press, Cambridge.
Chiang T. (2011), Il ciclo di vita degli oggetti software, Delos Books, Milano.
de Kerckhove D. (1992), Brainframes. Mente, tecnologia, mercato, Baskerville, Bologna.
Galloway A. R. (2012), The Interface Effect, Polity Press, Cambridge.
Grassi E. (2024), Per una sociologia algomorfica. Il ruolo degli algoritmi nei mutamenti sociali, FrancoAngeli, Milano.
Hayles N. K. (2017), Unthought: The Power of the Cognitive Nonconscious, University of Chicago Press, Chicago.
Hui Y. (2021), Art and Cosmotechnics, Eflux Architecture, New York.
Lem S. (1967), Solaris; trad. it. Solaris, Editrice Nord, Milano, 1973.
Sha X. W. (2013), Poiesis and Enchantment in Topological Media, MIT Press, Cambridge.
Swan M. (2013), The Quantified Self: Fundamental Disruption in Big Data Science and Biological Discovery, in Big Data, 1(2):85-99. doi: 10.1089/big.2012.0002.
Stile di pensiero - Una forma di condizionamento sociale
“Il conoscere è l’attività dell’uomo sottoposta al massimo condizionamento sociale e la conoscenza è la struttura sociale per eccellenza” (Fleck 1983, p. 101)
Uno dei trend più longevi che continua fino ai nostri giorni è quello dell’aumento della temperatura globale[1]. Solo recentemente però questo tema ha iniziato ad essere centrale nelle nostre vite, nelle agende politiche e dei media. I dati che testimoniano l’aumento della temperatura globale sono sempre stati a nostra disposizione, ma solo ora destano preoccupazione. Pochi anni fa gli stessi dati non suscitavano il medesimo effetto.
Certo, i motivi che possono spiegare questa “nuova rilevanza” del tema possono essere molteplici. Le pratiche attraverso cui attribuiamo significato attingono da diverse fonti, ad esempio dalle rappresentazioni dei media, dunque da criteri di notiziabilità e da processi di framing; ma anche dai significati di senso comune e dalle informazioni che ci scambiamo tra familiari, amici e conoscenti. In altre parole, il valore dei dati e la possibilità di fare affermazioni di verità dipendono dal contesto sociale.
Questo aspetto era stato colto già un secolo fa dal microbiologo e medico Ludwik Fleck. Nel 1935 esce a Basilea Il microbiologo tedesco studia l’evoluzione storica del concetto di sifilide e si interroga su come un evento possa diventare un fatto scientifico. Traccia il percorso storico di questo concetto prima confuso con la varicella, poi come malattia che punisce la libidine e accostato all’idea popolare del sangue sifilitico. Mette in luce il fatto che le prime teorie e risposte prodotte per spiegare tale evento erano di stampo astrologico-religioso. Ora questo tipo di risposte non hanno più alcuna rilevanza, ma per quell’epoca erano normali. Quelle teorie, sostiene Fleck, funzionavano perché erano in linea con lo stile di pensiero di quell’epoca. Per Fleck lo stile di pensiero è un:
“modo orientato di percepire, con la relativa elaborazione concettuale e fattuale dell’oggetto di tale percepire (...). Lo stile di pensiero è caratterizzato da una serie di contrassegni comuni ai problemi che interessano un collettivo di pensiero, ai giudizi che esso considera evidenti, ai metodi che esso applica come strumenti conoscitivi” (Fleck 1983, p. 175)
La nostra percezione della realtà, il nostro modo di guardare un evento o un fatto sono filtrati e orientati dallo stile di pensiero dominante e le nostre teorie sulla realtà sono spesso coerenti con quello stile. Lo stile di pensiero media il rapporto tra soggetto e oggetto che produce la conoscenza. Non si tratta di un rapporto diretto perché i fatti e le osservazioni sono sempre “carichi di teoria”.
Le affermazioni di verità prodotte dagli scienziati non sono semplicemente osservazioni basate sui fatti, ma originano da un particolare sguardo sulla realtà che caratterizza la produzione, l’analisi, l’interpretazione e la manipolazione dei dati, sguardo che – come abbiamo detto – può essere fortemente influenzato dallo stile di pensiero dominante
Lo stile di pensiero funge, quindi, da “sfondo” per ogni epoca e prescrive le condizioni di possibilità di una convenzione scientifica, le quali, sostiene Fleck, dipendono da un “vincolo stilistico”:
“Esiste infatti un vincolo stilistico tra tutti i concetti di un’epoca (o almeno fra molti di questi concetti) e un vincolo che si fonda sulla loro influenza reciproca. Per questa ragione si può parlare di uno stile di pensiero, stile che determina lo stile di ogni concetto” (Cit., p. 59)
Lo stile di pensiero non attiene solo alla comunità scientifica – a differenza del paradigma di Kuhn – ma è qualcosa di più generale, ha bisogno di una comunità che vi si riconosca e che di conseguenza, lo supporti e lo difenda.
Questo è ciò che Fleck chiama “collettivo di pensiero” ovvero “il supporto comunitario dello stile di pensiero” (Cit., p. 181). Quest’ultimo è una realtà emergente che trascende l’individuo ed “esercita una costrizione incondizionata sul suo pensiero” (Cit., p. 100). Questo “supporto comunitario” rappresenta un insieme di persone, organizzato in cerchie sociali, che condivide uno stile di pensiero. Ogni individuo, infatti, appartiene a più cerchie sociali – famiglia, colleghi, studenti, ma anche cerchie più vaste come lo stato. Però, secondo Fleck, rispetto ad un contenuto di conoscenza possiamo distinguere due cerchie: una chiamata cerchia esoterica che corrisponde al gruppo di esperti nello stesso ambito scientifico, e una cerchia essoterica che corrisponde alla più vasta cerchia sociale che sta attorno:
“Un collettivo di pensiero consiste in molte di queste cerchie che si incrociano, un individuo appartiene a molte cerchie essoteriche e invece a poche - e in qualche caso neanche a una - cerchie esoteriche. Esiste una gerarchia dei gradi di iniziazione ed esistono molti legami tra i vari gradi e le diverse cerchie. La cerchia essoterica non ha alcun rapporto immediato con il prodotto del pensiero di cui sopra, ma vi si ricollega solo in forza della mediazione di quella esoterica” (pp. 184-185)
Tra la cerchia essoterica, quella esoterica e lo stile di pensiero c’è una relazione di interdipendenza: il rapporto tra la cerchia essoterica e lo stile di pensiero è mediato dalla cerchia esoterica e si fonda sulla fiducia; ma allo stesso tempo la cerchia esoterica dipende dall’opinione del pubblico (cerchia essoterica). Proporre una spiegazione della sifilide basata su una punizione divina o astrologica dipendeva anche dal fatto che quel tipo di spiegazione, essendo in linea con l’opinione pubblica, risultava comprensibile. In altre parole, nella cerchia essoterica si forma una weltanschauung che retroagisce sull’esperto e produce l’origine sociale dello stile di pensiero e dei fatti scientifici.
Ciò che determina la conoscenza scientifica o il valore dei dati, come nel caso dell’aumento delle temperature globali, è un sistema sociale determinato dall’unione di uno stile di pensiero con il collettivo di pensiero. Il passaggio da un qualunque concetto ad uno nuovo o l’attribuzione di “nuova rilevanza” ad un evento, non sono mai solo logico bensì anche storico-sociali. Nel momento in cui questo sistema si solidifica, ogni prova contraria tende ad essere respinta, si ignora l’anomalia per concentrarsi solo su prove a favore, valutando il fatto contraddittorio come un errore.
Quindi, il rapporto di cambiamento proposto da Fleck è prettamente sociologico: la condivisione di più cerchie sociali da parte degli individui genera una maggiore permeabilità tra le varie cerchie e questa, a sua volta, permette la stabilizzazione di uno stile.
In questo senso i fatti scientifici diventano una “relazione tra concetti che è conforme allo stile di pensiero” (Cit., p. 154) e non delle semplici entità autonome. Lo stile di pensiero è, perciò, l’elemento che organizza la produzione della conoscenza ritenuta valida e fornisce i parametri di ciò che è fedele alla natura: “nelle scienze della natura, proprio come nell’arte e nella vita, essere fedeli alla natura vuol dire essere fedeli alla cultura” (Cit., p. 92).
In questo senso ogni rivendicazione di oggettivismo da parte della filosofia della scienza perde di significato perché, secondo Fleck, l’oggettività è data solo in riferimento ad uno stile di pensiero. Le convenzioni scientifiche risentono sempre di un condizionamento storico-culturale, il pensiero è condizionato da variabili storiche, dallo stile di pensiero dominante, ma soprattutto dalla dimensione sociale: “almeno i tre quarti, se non tutto il contenuto della scienza è condizionato – e può essere spiegato – dalla storia del pensiero, dalla psicologia e dalla sociologia del pensiero” (Cit., p. 76).
Per concludere, il concetto proposto da Fleck mette in luce il carattere collettivo e sociale della conoscenza: produciamo teorie e vediamo la realtà oggettiva sulla base dello stile di pensiero in cui siamo immersi, definendo quali sono i problemi sui quali è necessario concentrarsi e ciò che non va preso in considerazione: “lo stile di pensiero diviene così un vincolo per gli individui, stabilisce ciò che non può essere pensato in modo diverso” (Cit., p. 176). Ignorare la dimensione sociale e collettiva della conoscenza scientifica, scrive Fleck: “è paragonabile al tentativo di esaminare una partita di calcio analizzando solo i calci al pallone dei singoli giocatori” (Fleck in Bucchi, 2010, p. 54).
NOTE
[1] Cfr. https://earthobservatory.nasa.gov/images/80167/long-term-global-warming-trend-continues
[2] Fu pubblicato in Svizzera perché Fleck era ebreo e gli editori tedeschi si rifiutarono di pubblicarlo. Paradossalmente basterebbe questo per mostrare come possibilità di fare affermazioni di verità dipende dal contesto sociale
BIBLIOGRAFIA
Bucchi M., Scienza e Società. Introduzione alla sociologia della scienza, 2010, Raffaello Cortina Editore, Milano.
Fleck L., Genesi e sviluppo di un fatto scientifico, 1983, Il Mulino, Bologna. Edizione originale 1935.
Apocalittici ed integrati - Due visioni sull'innovazione che possono coesistere
Qualche mese fa, parlando dell’A.I. Act – la nuova legislazione europea sull’intelligenza artificiale – abbiamo ricordato che: nel 45 a.C. Giulio Cesare promulgò una legge sulla circolazione dei carri nei centri abitati – dall’alba alla metà del pomeriggio[1], con l’obiettivo di snellire il traffico urbano, ridurre la sporcizia (sterco dei cavalli), l’odore e il rumore nelle strade durante il giorno (non è cambiato nulla, mi pare). Era una legge che regolava l’impatto della tecnica (i carri con le ruote cerchiate) sull’ambiente urbano. E che, nel 1865 in Gran Bretagna venne emesso il Red Flag Act[2] che impose alle autovetture (self-propelled vehicles, la tassonomia è importante: distingue dalle vetture a cavalli) di avere un equipaggio di almeno 3 persone, di non superare la velocità massima di 4 miglia orarie sulle strade fuori città e di 2 miglia orarie in città, di essere precedute a 60 yarde da un uomo a piedi con una bandiera rossa che ne segnali l’arrivo, regoli il passaggio di carrozze e cavalli e, infine, faccia fermare il veicolo a motore in caso di necessità.
Sono due esempi di come vengono accolte le innovazioni tecniche e tecnologiche. Interesse, entusiasmo, da parte degli integrati[1]; timore, opposizione, da parte degli apocalittici sono alcune delle reazioni che – storicamente – accompagnano la diffusione di novità, soprattutto tecniche e tecnologiche.
Nel 1872 Samuel Butler, in Erewhon, romanzo utopico-distopico, analizza la dicotomia tra entusiasmo e opposizione verso la tecnica delle macchine. Nei tre capitoli “il libro delle macchine” ecc. Butler riconosce che «Le macchine hanno determinato le condizioni di crescente abbondanza, agiatezza e sicurezza che consentono all’essere umano di coltivare il suo spirito, la sua cultura, il suo essere civilizzato; la loro influenza si manifesta sul corpo quanto sulla mente umana»(Robin Libero Carbonara, Il Dominio della Macchina: dagli scenari ipotetici di Erewhon alla realtà delle piattaforme digitali di The Circle, https://doi.org/10.6092/issn.2785-3233/19133) ma, nello stesso tempo «appare precocemente consapevole che alla lunga, man mano che la Macchina, divenendo più complessa, influenza maggiormente la vita dell’uomo, ne influenza in maniera determinante la coscienza e la percezione di Sé» (Cit.) in maniera perniciosa.
“Man’s very soul is due to the machines; it is a machine-made thing: he thinks as he thinks, and feels as he feels, through the work that machines have wrought upon him”
L’analisi lucida di Butler – che, in realtà, nasceva per rispecchiare e criticare la società vittoriana – indica, appunto, che le tecniche nuove, innovative, generano due grandi categorie di reazioni. Entusiasmo, in coloro che ne vedono soprattutto (o soltanto) le potenzialità positive e che, in termini molto generali, corrispondono con chi si identificano con l’istanza morale della necessità e bontà dello sviluppo e del progresso. Rifiuto o opposizione, recisa o più prudente, in quelli che vedono nelle innovazioni anche (o solo) i possibili effetti negativi, le lateralità, i rischi che possono annullarne la dimensione di beneficio.
Se, oggi, osserviamo le reazioni della stampa di ampia diffusione nei confronti delle tecnologie digitali emergenti, dai social alle applicazioni dei modelli di intelligenza artificiale, assistiamo ad un fenomeno che conferma la dicotomia anticipata da Butler: la maggior parte dei titoli aderisce ad una delle due visioni: positivi, entusiasti - integrati - o fortemente critici, oppositivi – gli apocalittici.
Questo anche all’interno delle medesime testate, una volta in tono apocalittico, un’altra in tono di tipo integrato. Sono emblematici alcuni titoli della Rai:
- I rischi dell'intelligenza artificiale, coinvolte centomila aziende sardo. L'impatto "incontrollato" secondo un report di Confartigianato (TGR Sardegna, 15/06/2023)
- Da intelligenza artificiale sei rischi per il 2019 (Rai News.it, 13/01/2019)
- Disegnare e sognare ciò che sarà: non c'è nulla di più umano ma questa installazione l'ha creta l'IA (Rai News.it, 14/03/2025)
- "Obiettivo è semplificare la vita degli italiani nella Pubblica Amministrazione" L'Intelligenza Artificiale al centro della riunione ministeriale del G7 a guida italiana focalizzato su digitale e tecnologia. (Rai News.it, 15/10/2024)
Ora, questo genere di narrazione così polarizzata può essere analizzato ricorrendo ad un suggerimento dello storico Paul Veyne (“I greci hanno creduto ai loro miti?” (Il Mulino, 2014) a proposito dei greci antichi: in una stessa società[2] possono coesistere diversi regimi o programmi di verità. I greci antichi credevano nella mitologia olimpica che ha origine in Esiodo e amplificata e normata da Omero, perché era una sorta di habitus irrinunciabile. Ma, nello stesso tempo, la criticavano, ne riconoscevano la dimensione letteraria più che reale.
Veyne fa due esempi illuminanti: quello del perigeta Pausania che in 5 ponderosi libri racconta i miti locali – altari e sacrifici, dei ctoni e celesti ed eroi - delle principali regioni della grecia antica (verificare i titoli), aderendo alla narrazione mitologica e – a volte – riconducendo fatti della tradizione (che per i greci ha l’autorevolezza della storia documentata) alla dimensione mitologica. Nello stesso tempo, lo stesso Pausania prende le distanze da queste narrazioni e ammette che – con buona probabilità – sono un sacco di fandonie.
Due programmi di verità coesistenti, uno che corrisponde al lavoro di geografo e di narratore, l’altro alla personalità analitica e razionale dello stesso soggetto.
Il secondo esempio, che evidenzia come due diversi programmi di verità possono coesistere in una stessa persona, adattandosi a diverse esigenze, è quello del medico e farmacista Galeno. Galeno, di fronte alla tradizione medica che indica nella bile di centauro il rimedio per mitigare l’apoplessia ne denuncia l’assurdità, perché “nessuno ha mai davvero visto un centauro”. Galeno, in questo caso singolare non aderisce alla verità del mito. Tuttavia, Galeno è un maestro, ha una scuola di medicina e di farmacia, e di quella vive; per attirare studenti e adepti non esita a contraddire la propria critica del mito e riconduce il sapere della sua scuola all’insegnamento degli déi Apollo e Asclepio, suoi maestri!
Ecco, questa è la condizioni in cui molti di noi versano quando parlano di innovazione e – in particolare – di Intelligenza Artificiale: una condizioni di coesistenza di due diversi atteggiamenti, che possono essere ricondotti a due programmi di verità o epistemici, uno di apprezzamento, a volte entusiasmo, nei confronti delle funzionalità della tecnologia che ci semplificano la vita, e uno di perplessità o addirittura di rifiuto, generato dalla cognizione dei rischi e delle lateralità delle stesse funzionalità.
Nonostante l’apparenza schizofrenica, questo dibattito che vige all’interno della “nostra” società e – spesso – di noi come individui, è un dibattito sano, positivo, che stimola ad interrogarsi – da un lato – sulla dimensione morale delle tecnologie, su sviluppo “buono” e da distruttivo, su libertà di azione e su regolazione etica istituzionale; stto un altro punto di vista, invece, questo dibattito ha la funzione di stimolo ad interrogarsi sull’ontologia degli oggetti tecnologici e sulla linea di demarcazione tra ciò che è umano e ciò che non lo è, facendo delle ipotesi e delle scoperte teoretiche interessanti e a volte sconcertanti.
Di questo ne parleremo ancora.
NOTE
[1] Umberto Eco definì gli intellettuali (e si riferiva, in particolare ad Adorno e Zolla) fortemente critico e nei confronti della moderna cultura di massa, e “integrati” coloro che ne hanno una visione ingenuamente ottimistica; la definizione è diventata uno schema comune di rifermento per i due approcci opposti nei confronti del contemporaneo. (Apocalittici e integrati, Bompiani, 1964)
[2] Intesa come gruppo sociale e periodo storico
Le sfide della scienza post-normale - Dalla teoria alle pratiche di ricerca
Cosa significa fare e condividere ricerca scientifica, quando ci si trova di fronte a situazioni in cui i problemi sono complessi, richiedono decisioni che riguardano la vita di molte persone ma per le quali il livello di incertezza scientifico è molto alto? È la domanda che si fa spesso chi opera in contesti di crisi ambientale o sanitaria e in condizioni che incarnano le caratteristiche della scienza post-normale (PNS): fatti incerti, valori in conflitto, alta posta in gioco e la necessità di decisioni urgenti.
RICERCA E COMUNICAZIONE DELLA SCIENZA IN CONTESTI POST-NORMALI
Alcune risposte a questa domanda si trovano in un volume collettivo (L’Astorina, A. & Mangia, C. (eds). (2022). Scienza, politica e società: l’approccio post-normale in teoria e nelle pratiche. SCIENZIATI IN AFFANNO? (Vol. 1): pp.296. Cnr Edizioni. https://doi.org/10.26324/SIA1.PNS) che raccoglie alcune esperienze di ricerca collaborativa nel contesto italiano ma in ambiti scientifici, sociali e culturali diversi, in cui la PNS si incrocia con altri approcci epistemologici ed esistenziali, dentro e fuori l’accademia, che si rifanno in maniera più o meno diretta ai suoi principi. Le esperienze esplorano il lessico della PNS nel suo farsi azione: la scomodità dei nuovi ruoli di chi fa ricerca in questi contesti, la costruzione di comunità estese di pari, l’intreccio inscindibile tra fatti e valori, il difficile equilibrio tra i tempi della partecipazione e l’urgenza delle decisioni; le sfide educative e politiche in una democrazia in cambiamento.
In questo blog vogliamo condividere alcune riflessioni maturate nella costruzione di questo volume, raccontare le sfide e le opportunità per chi voglia passare dal contesto teorico delineato dalla PNS alle esperienze pratiche, consapevoli che non esiste una ricetta unica per ogni caso. Il passaggio dalla teoria alla pratica richiede ogni volta un’indagine critica del contesto, degli obiettivi, dei vincoli e dalle poste in gioco.
PARTECIPAZIONE E CO-CREAZIONE IN TERRITORI POST-NORMALI IN ITALIA
In Italia, molte emergenze ambientali e sanitarie possono essere definite “post-normali” e coinvolgono territori profondamente segnati da attività industriali ad alto impatto, che ne hanno trasformato la storia e compromesso il futuro. Qui, comunità di cittadini, associazioni, movimenti si ribellano agli insulti subiti dai loro territori e cercano di immaginare un destino diverso, collaborando con ricercatori e amministrazioni locali per costruire nuove alleanze e proporre una diversa narrazione dei fatti. Nascono così esperienze ibride, in cui ciascun attore ridefinisce i propri ruoli in una dialettica che non è mai semplice ma di certo più democratica, come viene descritto in alcuni degli esempi tratti dalla raccolta e che presentiamo di seguito.
EPIDEMIOLOGIA PARTECIPATA A MANFREDONIA
Un esempio emblematico di ricerca partecipata è quello raccontato da Cristina Mangia, Annibale Biggeri e Bruna De Marchi a Manfredonia, in Puglia. La cittadina ha vissuto a lungo le conseguenze della presenza di un grande impianto petrolchimico, con incidenti industriali e una diffusa sfiducia nelle istituzioni. Qui, un progetto di epidemiologia partecipata ha coinvolto attivamente la comunità locale in tutte le fasi dell’indagine: dalle domande di ricerca alla raccolta e analisi dei dati, fino all’interpretazione degli scenari. Questo approccio ha ricostruito la fiducia, ridato voce ai cittadini e migliorato la qualità scientifica della ricerca, arricchendola di conoscenze territoriali.
CITIZEN SCIENCE NELLA TERRA DEI FUOCHI E LUNGO IL TEVERE
Un altro esempio importante è quello di Laura Greco e Maura Peca (Associazione A Sud, Centro Documentazione Conflitti Ambientali (CDCA)), che raccontano esperienze di citizen science nella Terra dei Fuochi, a Colleferro e lungo il Tevere e l’Aniene, dove libere associazioni di cittadini utilizzano strumenti scientifici per ottenere giustizia ambientale e contrastare l’avvelenamento di aria, suolo e acqua. La citizen science è un termine usato per indicare un’attività di collaborazione alla ricerca da parte di cittadini che non abbiano necessariamente una formazione scientifica, ma nelle sue varie declinazioni pratiche il grado di coinvolgimento e il ruolo dato ai “non esperti” può essere diverso tanto quanto i suoi esiti. Decidere insieme la domanda di ricerca, come è il caso presentato dalle due autrici, rafforza la relazione tra cittadini e scienziati, mentre limitarne il ruolo alla sola raccolta dati riduce l’impatto politico delle azioni. Quando le comunità sono coinvolte in tutte le fasi del processo, diventano protagoniste consapevoli della produzione di conoscenza e comunicazione scientifica. Questo approccio valorizza le loro competenze e la loro familiarità con l’incertezza, contribuendo a una lettura più articolata e completa della realtà.
PROGRAMMAZIONE TERRITORIALE PARTECIPATA IN SICILIA
Giuseppina Carrà, Gabriella Vindigni, Clara Monaco, Giulia Maesano e Iuri Peri raccontano l’esperienza di programmazione partecipata lungo la costa jonica della Sicilia, nel settore della pesca. Qui è stato avviato un processo che, con l’ausilio di figure esperte in facilitazione, ha integrato strumenti di analisi multicriteri con tecniche di mappatura deliberativa. I piccoli pescatori e altri portatori di interesse hanno partecipato attivamente alla definizione dei problemi, alla valutazione dei modelli scientifici e alla scelta delle soluzioni. Questa metodologia ha favorito l’apprendimento collettivo e la legittimazione delle decisioni, permettendo lo sviluppo di strategie condivise per la diversificazione delle attività economiche della zona.
GESTIONE PARTECIPATA DEI RISCHI E DEI DISASTRI
Bruna De Marchi e Scira Menoni approfondiscono due casi di studio sulla gestione partecipata dei rischi e dei disastri. Sottolineano l’importanza di integrare conoscenze scientifiche e saperi pratici, e di comunicare non solo il rischio, ma anche le modalità di gestione e risposta, coinvolgendo tutti gli attori sociali, dalle istituzioni ai cittadini. Entrambe le esperienze mostrano che la conoscenza non si trasmette semplicemente, ma si costruisce in modo partecipato attraverso un processo sociale. Le autrici incoraggiano il dialogo tra discipline diverse e l’integrazione di competenze professionali e non, mantenendo sempre il rigore analitico.
LA PNS: UNA NUOVA POSTURA DELLA RICERCA
Dalle esperienze descritte emerge un messaggio chiaro: la PNS richiede una ridefinizione dei ruoli e delle pratiche di ricerca. Il ricercatore non è più l’esperto che detiene la verità, ma un facilitatore di processi partecipativi, un mediatore tra conoscenze diverse. La comunità locale non è più un semplice “oggetto” di studio, ma un soggetto attivo nel co-produrre conoscenza e soluzioni. La partecipazione non è solo un valore etico o democratico, ma una strategia per migliorare la qualità e la rilevanza della ricerca scientifica.
CONCLUSIONI
Le pratiche di ricerca e comunicazione che si ispirano alla PNS mostrano come sia possibile costruire alleanze inedite tra scienza, politica e società, anche nei contesti più difficili. Da Manfredonia alla Sicilia, dai fiumi Tevere e Aniene, dai musei alle università si sono sperimentate modalità nuove di produrre conoscenza, prendendo decisioni collettive, inclusive e informate. Non esistono soluzioni semplici né modelli predefiniti, ma percorsi che richiedono capacità di ascolto, apertura al dialogo, e il coraggio di mettere in discussione i propri ruoli e certezze. La PNS non promette risposte facili, ma offre alcuni strumenti per affrontare la complessità del nostro tempo.
L’Intelligenza Artificiale in psicoterapia - Tra alleato e simulacro
«The crucial difference between CAI (Conversational Artificial Intelligence) and humans is obvious: CAI mimics being a rational agent, but it is not; therefore, CAI simulates having a therapeutic conversation, but it does not have any»[1]
Sedlakova & Trachsel, 2022
Quando interagiamo con un’Intelligenza Artificiale Conversazionale (IAC) come ChatGPT, ci troviamo di fronte a un’illusione sofisticata: risposte fluide, tono empatico, un’apparente capacità di comprensione. Eppure, dietro ogni parola non c’è un interlocutore reale, ma un sistema che riorganizza dati linguistici senza comprenderne il significato. Ci sentiamo ascoltati perché attribuiamo intenzionalità[2] alle parole dell’IA, come se fosse capace di empatia. Questo fenomeno è il risultato del meccanismo cognitivo dell’antropomorfismo, ossia la tendenza ad attribuire caratteristiche umane a esseri non umani, come animali, oggetti o fenomeni naturali[3] (Cambridge Dictionary, 2019). Questa inclinazione può influenzare il modo in cui interagiamo con le tecnologie, portandoci a percepirle come più affidabili o empatiche di quanto siano in realtà: l’essere umano per natura riconosce intenzioni e stati emotivi anche quando non ci sono (Sedlakova & Trachsel, 2023). Così, un chatbot che scrive «Mi dispiace che tu ti senta così» attiva in noi le stesse risposte emotive di una conversazione umana, pur essendo solo un’imitazione.
Nonostante il concetto di empatia sia estremamente complesso e abbia una lunga storia, ogni sua definizione riconosce che essa nasce dall’incontro tra due soggettività, e dunque dalla capacità di sentire l’altro e riconoscerne l’alterità in un contesto di identità della dimensione incarnata, situata ed enattiva dei viventi (Galloni, 2009). Con un’IA Conversazionale, al contrario, non si instaura una relazione reale, ma uno scambio unidirezionale: non è la nostra esperienza a essere compresa, ma solo il modo in cui la traduciamo in parole. L’effetto dell’antropomorfismo trasforma l’interazione con un’IA in una sorta di specchio emozionale: proiettiamo sulla macchina il nostro bisogno di connessione, vedendo in essa qualcosa che non è realmente presente. Questa proiezione può offrire conforto immediato, ma rischia di impoverire la nostra capacità di distinguere tra ciò che è umano e ciò che è un’imitazione. Il pericolo non risiede nell’uso dell’IA in sé, ma nella possibilità di abituarsi a un interlocutore che si limita a riflettere ciò che vogliamo sentire.
Oggi l’Intelligenza Artificiale sta ridefinendo – lentamente ma inesorabilmente – il campo della psicoterapia, espandendo le possibilità di supporto psicologico oltre i confini del tradizionale setting clinico. Chatbot come WoebotHealth e Wysa[4] sono progettati per fornire supporto emotivo attraverso interazioni testuali continue, basandosi su modelli di terapia cognitivo-comportamentale (CBT) e offrendo agli utenti un ambiente privo di giudizio. Eppure, la loro capacità di adattarsi in modo profondo all’individualità del paziente, se anche esistesse, risulta nei fatti ancora fortemente limitata. I chatbot basati su algoritmi di Natural Language Processing presentano diverse criticità, tra cui l’incapacità di cogliere il contesto della comunicazione, né comprendere realmente le sfumature del linguaggio, in primo luogo di quelle emotive. Mentre un terapeuta umano può cogliere cambiamenti nel tono di voce, nelle espressioni facciali o nelle pause durante una conversazione, un chatbot si basa esclusivamente sul testo e sull’analisi di esso, condotta esclusivamente su modelli probabilistici. Questo può portare l’altro soggetto dell’interazione – l’essere umano, il cui sistema nervoso è stato “cablato” da millenni di evoluzione per processare in maniera privilegiata il linguaggio umano, vero segno distintivo della comunicazione della nostra specie – a reagire in maniera concreta e “sensata” a risposte della macchina che, pur essendo linguisticamente appropriate, non rispecchiano un reale scambio comunicativo. Molti utenti cercano tuttavia proprio questo, nell’interazione pseudoterapeutica con le IAC. Alcuni studi suggeriscono che le persone possano sentirsi più a loro agio nel condividere dettagli intimi con un chatbot piuttosto che con un essere umano, proprio perché sanno di non essere giudicate[5].
Dal punto di vista terapeutico, l’utilizzo dell’IA non è dunque privo di rischi. Sebbene gli strumenti basati su CBT abbiano mostrato un certo grado di efficacia nel ridurre i sintomi di ansia e depressione, la qualità dell’intervento è ancora oggetto di studio. Ricerche recenti hanno evidenziato che, mentre i chatbot possono migliorare l’accessibilità ai servizi di supporto, non sono in grado di replicare l’alleanza terapeutica tipica di un incontro umano (Cioffi et al., 2022). Inoltre, senza un monitoraggio umano, l’IA può interpretare erroneamente il contesto o fornire risposte inappropriate. Questo è particolarmente critico nei casi in cui il paziente manifesti pensieri suicidi o sintomi psicotici; situazioni in cui una risposta non adeguata può avere conseguenze gravi. È stato analizzato ChatGPT come possibile assistente terapeutico, capace di raccogliere informazioni tra una sessione e l’altra e di fornire al terapeuta un quadro riassuntivo della situazione del paziente (Esghie, 2023). Tuttavia, nonostante le potenzialità, si sollevano interrogativi cruciali sull’affidabilità e la sicurezza di tali strumenti (Miner et al., 2019). L’IA non possiede consapevolezza né intenzionalità: risponde in base a correlazioni statistiche tra parole, apprendendo dallo scambio verbale con l’utente, ma senza comprenderne il significato intrinseco. Questo influenza anche la dimensione della fiducia: molte persone potrebbero erroneamente credere di essere comprese da un chatbot, sviluppando un attaccamento che, in assenza di una vera reciprocità, potrebbe portare a forme di dipendenza emotiva o a un’errata percezione del supporto ricevuto. A fare da argine a questo scenario troviamo anche una dimensione politica della scienza e della tecnica, inerente alla sempre più evidente natura capitalistica di questi strumenti, che fanno dei dati forniti spontaneamente dagli utenti la loro principale moneta di scambio. Uno studio recente ha peraltro evidenziato che la fiducia nei confronti della terapia basata su IA è ancora bassa, soprattutto a causa delle preoccupazioni legate alla privacy e alla sicurezza dei dati (Aktan, 2022).
L’introduzione dell’IA nella psicoterapia ha portato tuttavia la comunità scientifica e il dibattito pubblico a una necessaria riflessione sul valore della relazione terapeutica. Alcuni studi hanno suggerito che l’uso di chatbot potrebbe modificare il modo in cui le persone si rapportano alla figura del terapeuta, spostando l’attenzione dalla relazione interpersonale a una forma di autoosservazione guidata dall’IA (Beg et al., 2024). Se questo, da un lato, potrebbe avere vantaggi in termini di accessibilità al supporto psicologico, dall’altro rischia di ridurre o annullare l’efficacia di un intervento in cui il rapporto umano è cardine ed elemento essenziale. Il successo e la qualità della terapia non dipendono solo dai contenuti trasmessi, ma anche dalla capacità del terapeuta di cogliere segnali emotivi e di adattare l’intervento alle esigenze individuali del paziente – qualità che un’IA non possiede. Inoltre, la natura algoritmi di questi strumenti porta inevitabilmente a una standardizzazione dell’approccio terapeutico: i modelli di IA, basandosi su set di dati predefiniti, tendono a privilegiare metodologie uniformi, come quelle cognitivo-comportamentali, mentre la psicoterapia umana si caratterizza per un alto grado di personalizzazione e per una molteplicità di orientamenti e pratiche. Un altro aspetto da considerare è il rischio di standardizzazione eccessiva dei modelli proposti da queste tecnologie come rappresentativi di ciò che dovrebbe essere la psicoterapia. I modelli di IA si basano su set di dati predefiniti e tendono a favorire approcci uniformi (essenzialmente, a oggi, identificabili con quelli cognitivo-comportamentali), mentre la psicoterapia umana è caratterizzata da un alto grado di personalizzazione, dipendenza dal vissuto e dal contesto, e da una ampia pluralità di approccio possibili.
L’uso di ChatGPT e di altre IA Conversazionali in psicoterapia non dovrebbe comunque essere demonizzato, ma richiede un approccio critico e regolamentato. La collaborazione tra esseri umani e agenti artificiali potrebbe portare alla creazione di modelli ibridi, in cui l’IA funge da strumento complementare, affiancando il lavoro del terapeuta e migliorando l’efficacia degli interventi senza sostituire il contatto umano diretto (Miner et al., 2019). Questi strumenti possono offrire un supporto pratico, fungere da complemento alla terapia e aiutare a ridurre il divario nell’accesso alle cure psicologiche. Tuttavia, la loro adozione deve avvenire con consapevolezza dei limiti: l’IA non pu sostituire l’empatia umana né creare un’autentica relazione terapeutica. La trasparenza e la supervisione umana restano essenziali per garantire che l’integrazione dell’IA nella psicoterapia non comprometta l’integrità delle relazioni terapeutiche e il benessere del paziente.
Sebbene l’IA possa svolgere un ruolo utile nel supporto alla salute mentale, la sua implementazione deve essere guidata da un’attenta valutazione dei benefici e dei rischi. Possiamo davvero considerare sufficiente un sistema che risponde sulla base di correlazioni statistiche senza comprendere? Chi tutela il paziente in caso di errori o malintesi? Strumenti come ChatGPT possono offrire quello che sembra supporto e conforto, ma è essenziale mantenere una distinzione chiara tra un’interazione simulata e l’esperienza di una relazione autentica, unica e insostituibile nel suo essere profondamente umana.
NOTE
[1] «La differenza cruciale tra l’IA conversazionale (CAI) e gli esseri umani è evidente: la CAI simula un agente razionale, ma non lo è; di conseguenza, simula di avere una conversazione terapeutica, ma in realtà non ne ha alcuna» (traduzione da: Sedlakova, J., & Trachsel, M. (2022). Conversational Artificial Intelligence in Psychotherapy: A New Therapeutic Tool or Agent? The American Journal of Bioethics, 23(5), 4–13. https://doi.org/10.1080/15265161.2022.2048739).
[2] Heider, F. (1958). The psychology of interpersonal relations. Hoboken, NJ, US: John Wiley & Sons Inc.
[3] Gibbons, S., Mugunthan, T., Nielsen, J. (2023). The 4 Degrees of Anthopomorphism of Generative AI. Nielsen Norman Group. https://www.nngroup.com/articles/anthropomorphism/.
[4] WoebotHealth, rilasciato nel 2017, e creato dalla psicologa Alyson Darcy, è un chatbot ideato per supporto psicologico, sempre disponibile, con interfaccia messaggistica (https:// woebothealth.com/).
Wysa AI Coach (https://www.wysa.com/) è un servizio di counseling basato sull’intelligenza artificiale addestrato su tecniche di terapia CBT, DBT, meditazione.
[5] Raile, P. (2024). The usefulness of ChatGPT for psychotherapists and patients. Humanities and Social Sciences Communications, 11(47). https://doi.org/10.1057/s41599-023-02567-0, p. 3.
BIBLIOGRAFIA
Aktan, M. E., Turhan, Z., & Dolu, I. (2022). Attitudes and perspectives towards the preferences for artificial intelligence in psychotherapy. Computers in Human Behavior, 133, 107273. https:// doi.org/10.1016/j.chb.2022.107273.
Beg, M. J., Verma, M., Vishvak Chanthar, K. M. M., & Verma, M. K. (2024). Artificial Intelligence for Psychotherapy: A review of the current state and future directions. Indian Journal of Psychological Medicine, XX(X), 1-12. https://doi.org/10.1177/02537176241260819.
Cioffi, V., Mosca, L. L., Moretto, E., Ragozzino, O., Stanzione, R., Bottone, M., Maldonato, N. M., Muzii, B., & Sperandeo, R. (2022). Computational methods in psychotherapy: A scoping review.
International Journal of Environmental Research and Public Health, 19(12358). https://doi.org/
Eshghie, M., & Eshghie, M. (2023). ChatGPT as a therapist assistant: A suitability study. arXiv Preprint. https://arxiv.org/abs/2304.09873.
Galloni, G. (2009). Basi motorie dell’empatia cognitiva? Teorie & Modelli, XIV(1):134-147.
Gibbons, S., Mugunthan, T., & Nielsen, J. (2023). The 4 Degrees of Anthropomorphism of
Generative AI. Nielsen Norman Group. https://www.nngroup.com/articles/anthropomorphism/.
Heider, F. (1958). The psychology of interpersonal relations. John Wiley & Sons.
Miner, A. S., Shah, N., Bullock, K. D., Arnow, B. A., Bailenson, J., & Hancock, J. (2019). Key considerations for incorporating conversational AI in psychotherapy. Frontiers in Psychiatry, 10, 746. https://doi.org/10.3389/fpsyt.2019.00746.
Raile, P. (2024). The usefulness of ChatGPT for psychotherapists and patients. Humanities and Social Sciences Communications, 11(47). https://doi.org/10.1057/s41599-023-02567-0.
Sedlakova, J., & Trachsel, M. (2022). Conversational Artificial Intelligence in Psychotherapy: A New Therapeutic Tool or Agent? The American Journal of Bioethics, 23(5), 4–13. https://doi.org/ 10.1080/15265161.2022.2048739.