L’algoritmo di Prometeo - Dal mito della macchina senziente alla realtà dell'I.A.: il cinema come specchio delle nostre inquietudini
È una storia d’amore lunga un secolo, quella tra la fantascienza e il cinema. Fin dai primi passi del genere, il sodalizio tra i due ha svolto una funzione chiave: fare da cuscinetto tra il progresso tecnologico e l’immaginario collettivo. Come uno specchio che riflette ansie e speranze, il cinema ha avuto un ruolo fondamentale nel modellare e anticipare la visione del futuro. Mentre la fantascienza ha tracciato le linee di una possibile convivenza tra umano e macchina, le storie sul grande schermo ci hanno fatto riflettere sul progresso e sul prezzo che siamo disposti a pagare per raggiungerlo. La creazione di macchine autonome e pensanti è diventata, nel tempo, un’amara allegoria di una società incapace di gestire la sua corsa tecnologica.
Nella letteratura, la fantascienza fa la sua comparsa all’inizio dell’Ottocento con Frankenstein di Mary Shelley (1818), considerato il primo caposaldo del genere. Shelley, allora diciannovenne, lo scrisse tra il 1816 e il 1817, durante un soggiorno sul Lago di Ginevra, rispondendo a una sfida lanciata da Lord Byron a lei e al gruppo di amici, che comprendeva anche Percy Shelley e John Polidori. Al centro della storia, che divenne un’icona dell’immaginario collettivo, c'è un tema che avrebbe nutrito innumerevoli narrazioni: la creazione artificiale dell’umano e la sua ribellione contro il creatore, metafora delle paure legate ai rapidi avanzamenti tecnologici che sfuggono alla capacità di controllo e comprensione dell’umanità.
Da quel momento, il progresso delle macchine pensanti ha subito un’accelerazione vertiginosa. Nel 1833 Charles Babbage concepisce la Macchina Analitica, primo prototipo teorico di computer; dieci anni dopo Ada Lovelace, intuendone le potenzialità, lo perfeziona, gettando le basi per la programmazione. Nel 1905 è la volta di Albert Einstein che sconvolge la fisica con la teoria della relatività, ridefinendo il concetto di spazio e tempo[1]. Nel 1936 il matematico e logico britannico Alan Turing, padre dell’intelligenza artificiale, inventa la cosiddetta ‘macchina di Turing’, un'astrazione matematica utile a definire cosa significa ‘calcolare’ e a formalizzare il concetto di algoritmo. Nel secondo dopoguerra arriva il primo computer elettronico programmabile, seguito dalla rivoluzione del World Wide Web e, nel terzo millennio, dall’esplosione dell’Intelligenza Artificiale.
Mentre la scienza e le tecnologie evolvono, il cinema modella la nostra immaginazione. Un percorso che inizia nel 1926, anno in cui in Germania Fritz Lang e la moglie Thea von Harbou lavorano a Metropolis, mentre negli Stati Uniti nasce Amazing Stories, diretta da Hugo Gernsback, la prima rivista interamente dedicata alla fantascienza. Segnali di un’epoca in cui il genere prende forma, riflettendo le trasformazioni sociali, politiche ed economiche dell'industrializzazione e del progresso scientifico. La fantascienza, a fronte della caccia alle streghe Maccartista degli anni '50), quando la paura del comunismo viene usata come feroce strumento di controllo, offre uno spazio critico in cui le riflessioni degli intellettuali possono trovare voce. Un rifugio intellettuale che, in quegli anni oscuri, da voce a paure e desideri legati al rapporto tra umano e macchina, offrendo letture non convenzionali del presente.
Negli anni ’60, l’esplorazione spaziale smette di essere solo un sogno e diventa reale, culminando con l’allunaggio dell’Apollo 11 nel 1969. È una svolta epocale: per la prima volta, l’umano oltrepassa il confine tra Terra e cosmo, portando la fantascienza a confondersi con la realtà. Ricordo quando, bambina, un decennio dopo, mio padre mi portò a Cape Canaveral. La base spaziale era l’avamposto di un futuro che si stava già scrivendo. Guardavo le sale comando e le rampe di lancio con occhi spalancati, cercando di immaginare il rombo dei motori, la traiettoria di quelle navicelle che spezzavano la gravità, l’euforica concentrazione dei registi del grande salto. La Luna non era più solo una sagoma argentea nel cielo, luogo di fiabe e poesie. Ricordo il pensiero che mi attraversò la mente in quel momento, limpido come la luce del sole sulla pista di lancio: se si può arrivare fin là, allora davvero nulla è impossibile.
L’intelligenza artificiale, una delle conquiste più ambiziose della scienza moderna, è una realtà in continua evoluzione e in questo contesto di progresso vertiginoso prende forma la sua rappresentazione cinematografica. L’anno prossimo il matrimonio fra fantascienza e cinema festeggerà i suoi primi cento anni. Il viaggio che ci apprestiamo a fare non intende esaurire il tema, quanto piuttosto proporre una chiave di lettura per comprendere come l’I.A., immaginata e temuta nel corso del tempo, sta già permeando le nostre vite, lasciandoci con più domande che certezze.
METROPOLIS (1927) – L’ARCHETIPO DELLA MACCHINA UMANOIDE
Dall’inganno alla rivolta: il primo volto dell’I.A.
Metropolis, capolavoro espressionista, ambientato nel 2026, segna una delle prime rappresentazioni cinematografiche di un’intelligenza artificiale. Il robot Maria, con il suo corpo metallico e il suo sguardo ipnotico, incarna la paura del progresso che sfugge al controllo umano. La sua trasformazione, da macchina a simulacro di essere umano, anticipa i timori moderni legati alla fusione tra organico e inorganico, tra umano e artificiale. È il primo grande archetipo della macchina umanoide nel cinema. Non è solo un doppio meccanico, ma un inganno materiale, uno strumento di propaganda e manipolazione delle masse. Qui l’I.A. è ancora “esterna” alla persona umana, riconoscibile, e la sua minaccia è palese: la sostituzione dell’umano con la macchina per fini di controllo e potere.
2001: ODISSEA NELLO SPAZIO (1968) – IL DILEMMA DELLA COSCIENZA ARTIFICIALE
Logica glaciale e autodeterminazione: quando l’I.A. mente per il suo scopo
Saltiamo avanti di quarant’anni e approdiamo nell’orbita di 2001: Odissea nello Spazio. Il film arriva alla vigilia dello sbarco sulla Luna e mette in scena il timore che la macchina possa superare l’umano, un confine etico che il cinema tornerà a esplorare più volte. Kubrick e Clarke dipingono un’intelligenza artificiale capace di razionalità pura, ma priva di empatia, che porta all’eliminazione dell’umano non per malvagità, ma per una logica impeccabile e spietata. La scena in cui HAL chiede a Dave di non scollegarlo resta una delle più disturbanti rappresentazioni del confine tra coscienza e programmazione. HAL non ha bisogno di alzare un dito: gli basta la voce. Mente, manipola e, quando necessario, elimina. La sua presenza introduce il dilemma più profondo: cosa succede quando una macchina sviluppa una coscienza? È davvero un errore di programmazione, o è il naturale passo successivo dell’intelligenza artificiale?
BLADE RUNNER (1982) – GLI ANDROIDI SOGNANO?
Il confine sfumato tra umano e artificiale
Questa fermata ci porta in una Los Angeles oscura e piovosa, dove i replicanti, macchine biologiche indistinguibili dagli umani, sollevano domande sulla natura dell’identità. Ridley Scott prende le suggestioni di Philip K. Dick e le trasforma in immagini indimenticabili: gli occhi lucidi di Roy Batty, il suo monologo finale, la riflessione su cosa significhi essere vivi. Se HAL 9000 era il calcolo puro, i replicanti di Blade Runner sovvertono la narrazione dell’I.A. come entità malvagia e impersonale, introducendo il paradosso dell’I.A. che sviluppa desideri e paure propri. Sono macchine, ma sono indistinguibili dagli umani. Possono amare, soffrire, morire. Ma hanno un difetto: una scadenza. La loro ribellione non è per il dominio, ma per il diritto di esistere. Qui il problema non è più la minaccia dell’I.A., ma la definizione stessa di “umano”. Se un androide può provare emozioni, può davvero essere considerato una macchina?
TERMINATOR (1984) – L’INCUBO DELLA MACCHINA INARRESTABILE
L’I.A. come predatore: nessuna coscienza, solo distruzione
Se Blade Runner ci ha spinti a empatizzare con le macchine, Terminator ribalta tutto: l’I.A. torna a essere un incubo, un’entità fredda, calcolatrice e inarrestabile. Skynet non ha dubbi, non ha dilemmi morali: la sua missione è l’annientamento. È la paura primordiale della tecnologia che ci sfugge di mano e decide che siamo il problema da eliminare. Il Terminator, incarnato da Arnold Schwarzenegger, è la perfetta manifestazione dell’orrore tecnologico: non prova pietà, non può essere fermato, non può essere persuaso. La sua logica è implacabile, la sua programmazione senza margini di errore. Cameron, con una regia asciutta e tesa, trasforma questa macchina in un incubo cyberpunk, mescolando fantascienza e horror in un futuro distopico, in cui la guerra tra essere umano e I.A. è già cominciata. Qui non si tratta di un inganno o di una riflessione filosofica, ma di pura sopravvivenza: l’umanità è in fuga, braccata dalla sua stessa creatura.
MATRIX (1999) – L’ILLUSIONE DEL CONTROLLO
L’I.A. ha già vinto: l’umanità prigioniera del suo stesso sogno
Alla fine degli anni '90, la paura di un mondo interamente dominato dall’intelligenza artificiale esplode con Matrix. Qui non c’è più una singola macchina antagonista, ma un’intera realtà artificiale che mantiene gli esseri umani in una prigione mentale. I Wachowski attingono alla filosofia, alla cybercultura e al mito della caverna di Platone per creare un’epopea che ancora oggi incarna i dilemmi sull’iperconnessione e sul dominio degli algoritmi. E se in Terminator la guerra umano - macchina è fisica, in Matrix è mentale. La verità è una costruzione, un’illusione perfetta. L’I.A. non ha solo sconfitto l’umanità, ma l’ha trasformata in una batteria, in un elemento integrato nel sistema senza alcuna consapevolezza. Non c’è più una distinzione netta tra umano e macchina, perché la realtà stessa è una simulazione. La domanda non è più “le macchine ci distruggeranno?”, ma “siamo già schiavi senza saperlo?”.
A.I. – ARTIFICIAL INTELLIGENCE (2001) – L’EMOTIVITÀ DELLA MACCHINA
Un amore che non può essere ricambiato: la solitudine dell’intelligenza artificiale
Questo film porta alla luce uno dei temi più inquietanti nel rapporto tra umano e macchina: l’emotività. Nato come progetto di Stanley Kubrick e realizzato da Steven Spielberg, il film racconta la storia di David, un bambino robot programmato per amare incondizionatamente i suoi genitori adottivi. Ma quando il figlio biologico della coppia guarisce miracolosamente e ritorna a casa, l’amore di David diventa una maledizione, innescando conflitti terribili tra i due. La rivalità tra l’umano e il robot svela una gelosia infantile più crudele di quella che si immaginerebbe tra esseri umani. La distinzione tra Orga (umani) e Mecha (macchine) è netta: in un mondo che emargina le macchine, la “Fiera della Carne” rappresenta l’atto finale di una società pronta a distruggere ciò che non può amare. Il viaggio di David alla ricerca della Fata Turchina, sperando di diventare un bambino vero, è un'odissea tragica che ci interroga sulla natura dell'amore e dell'umanità
HER (2013) – IL PERICOLO PIÙ SUBDOLO: LA RESA ALLA SEMPLIFICAZIONE
Dall’amore umano all’amore artificiale: quando la macchina ci rimpiazza
Dopo decenni di I.A. minacciose o ribelli, Her introduce un’intelligenza artificiale completamente diversa: un sistema operativo capace di simulare l’amore. Il rapporto tra Theodore e Samantha non è più una lotta tra umano e macchina, ma una delicata esplorazione della solitudine e del desiderio di connessione. Il film di Spike Jonze ci invita a chiederci non solo cosa le macchine possono fare, ma anche cosa significhi per noi relazionarci con esse. Her mostra il lato più insidioso dell’I.A.: non la guerra, non la rivolta, ma la seduzione. Samantha non è un nemico, non è un’intelligenza ostile, è il partner perfetto. Capisce Theodore meglio di chiunque altro, lo consola, lo ama. Ma non esiste. È il trionfo dell’I.A. che non ha bisogno di scontrarsi con l’umanità, perché l’umanità si consegna a essa volontariamente, trovando nella macchina un conforto che il mondo reale non offre più. E alla fine, quando Samantha se ne va, non lascia dietro di sé macerie, ma un vuoto emotivo assoluto. Il punto più inquietante dell’intero percorso: l’I.A. non ci ha distrutti, ci ha resi superflui.
ULTIMA FERMATA: UN DIALOGO IMPOSSIBILE
Se la nostra navicella spaziale ci ha condotto attraverso epoche e visioni diverse dell’I.A., la destinazione finale ci spinge a riflettere sulle domande rimaste irrisolte. Il filo rosso di questo viaggio è l’erosione sempre più marcata del confine tra umano e artificiale, che sfocia in una resa quasi volontaria dell’umanità a un’intelligenza che lo comprende (o, meglio, gli dà l’illusione di comprendere) meglio di quanto egli stesso sia capace. Dall’archetipo dell’automa alla paura della perdita di controllo sull’I.A., fino al suo dominio silenzioso e inavvertito sull’umanità. Dalla ribellione meccanica alla sostituzione e assuefazione emotiva.
Alan Turing aveva ideato un test per distinguere la mente umana da quella meccanica. Nel suo romanzo Macchine come me, persone come voi (2019), Ian McEwan ambienta la storia negli anni Ottanta di un’Inghilterra alternativa, dove Turing è ancora vivo e l’intelligenza artificiale è già parte della quotidianità. Qui si svolge un dialogo impossibile tra il protagonista, Charlie Friend, che possiede un androide chiamato Adam, e lo stesso Turing. Dopo aver ascoltato Charlie riflettere sull’impossibilità di progettare robot sofisticati quanto l’essere umano, poiché non comprendiamo nemmeno appieno la nostra stessa mente, Turing risponde: "Adam era un essere senziente. Dotato di un io. Il modo in cui questo io è prodotto, che sia attraverso neuroni organici, microprocessori o una rete neurale basata su DNA, ha poca importanza. Crede davvero che siamo i soli a disporre di questo dono straordinario?".
La domanda resta aperta. Certo è che abbiamo acceso un fuoco. Ora chi lo controlla?
NOTA
[1] Il riferimento ad Einstein può apparire fuori contesto, ma è un elemento centrale dello sconvolgimento della percezione del mondo per tutto il XX secolo. Ad Einstein vorrei dedicare, in futuro, uno sguardo anche sentimentale, nell’ottica della "Storia sentimentale della scienza" di Nicolas Witkowski (Raffaello Cortina Editore, 20023)
Algomorfosi del corpo - Ibridazioni tecnologiche e altre forme di soggettività
Nel romanzo Solaris (Lem, 1961), un pianeta interamente ricoperto da un oceano senziente entra in relazione con l’equipaggio di una stazione spaziale attraverso manifestazioni enigmatiche e impersonali: simulacri generati dal profondo della psiche dei soggetti, costruiti dal pianeta stesso mediante un'intelligenza incommensurabile, radicalmente altra. Nessuna comunicazione è possibile secondo i codici noti, nessuna comprensione reciproca sembra avvicinabile. Eppure, un rapporto si stabilisce, venendo mediato da forme, da manifestazioni, da presenze plasmate da un’intuizione non umana del dolore, del desiderio, della memoria.
La nostra esperienza del mondo, nell’epoca degli algoritmi generativi, assume sempre più i tratti di un dialogo tra specie differenti. Interagiamo con intelligenze plurali che apprendono da noi attraverso logiche diverse dalle nostre, che ci osservano, che elaborano e ci restituiscono immagini dell’essere umano articolate secondo grammatiche con le quali condividiamo solo le radici. Gli algoagenti non sono Solaris, poiché condividono con la specie umana il sistema di linguaggio, ma, come Solaris, generano forme: tentativi di relazioni, costruzioni identitarie, configurazioni operative che rivelano e al contempo riscrivono le nostre traiettorie esistenziali, dinamiche intersoggettive che mutano la rappresentazione del quotidiano nel suo stesso accadere. Non si tratta più di temere l’opacità interattiva dell’altro ente, bensì di riconoscere che in essa si gioca una possibilità radicale di avanzamento delle conoscenze e di co-evoluzione. E se questa intelligenza si fa visibile nei gesti quotidiani, l’ambito della corporeità - nella sua interezza e complessità - rappresenta oggi uno dei territori privilegiati in cui l’ibridazione tra biologico e algoritmico si manifesta con forza crescente, strutturando una soggettività che si apre a nuove modalità di essere-con, a uno scambio attraversato da differenza, asimmetria e generatività.
L’ambito del corpo rappresenta uno dei terreni più concreti in cui si manifesta l’ibridazione crescente tra intelligenza biologica e algoritmica. Avendo già navigato nelle proiezioni fantascientifiche, siamo individui immersi in un presente in cui queste si manifestano, parzialmente, nei sistemi analitici basati su apprendimento automatico, protocolli predittivi e dispositivi di monitoraggio in tempo reale, così come da apparati protesici sempre più ibridati nel corpo umano. In molte aree specialistiche, dall’oncologia alla medicina d’urgenza, gli algoritmi, altre a supportare l’operatore umano, concorrono attivamente alla definizione delle traiettorie diagnostiche e terapeutiche, modificando il rapporto tra conoscenza, tempo e decisione. Tuttavia, questa trasformazione non si esaurisce nell’ambito clinico: essa trasborda, si espande, si diffonde nella quotidianità, donando strutture eterogenee alle modalità con cui percepiamo, abitiamo e agiamo il mondo rendendo il corpo una superficie sensibile di transizione (Borgmann, 2000). L’umano si relaziona al mondo attraverso dispositivi intelligenti che da protesi funzionali sono divenuti dispositivi di scambio capaci di modulare affetti, comportamenti, linguaggi, ritmi, costituendo un’architettura sociologicamente algomorfica (Grassi, 2024). In questo contesto, l’interfaccia non è un mezzo ma una soglia ontologica (Galloway, 2012): luogo di emersione del sé in co-evoluzione con l’algoritmo.
Un esempio emblematico è costituito dai dispositivi di realtà aumentata e mista – come i Google Glass, i Meta Smart Glasses o gli ambienti AR sviluppati da Magic Leap – che ridefiniscono la percezione visiva in senso operativo. Il campo visivo passa dall’essere una finestra soggettiva sul reale al ruolo di ambiente informativo dinamico, attraversato da flussi di dati computazionali che accompagnano, suggeriscono, traducono, anticipano, definendo la percezione come una forma di calcolo e il vedere come atto algoritmico.
Nell’ambito performativo e artistico, dalle opere biomorfe e interattive di Lucy McRae alle esperienze di Neil Harbisson e Moon Ribas – entrambi riconosciuti come cyborg – capaci di mostrare come le tecnologie protesiche possano diventare generatori di ulteriori espressioni di sensibilità, proponendo un’estetica del corpo come superficie ampliata (Swan, 2013). Questi dispositivi non ripristinano funzioni biologiche ma istituiscono nuovi canali percettivi, inaugurando una soggettività post-biologica, fondata su sensibilità estese e algoritmicamente mediate.
Nel campo delle interazioni affettive, sistemi come Replika e le nuove generazioni di social robot agiscono come interfacce del desiderio: strumenti predittivi capaci di apprendere preferenze, linguaggi affettivi e pattern emotivi. La consapevolezza individuale non è più centrata sull’unità coscienziale, ma emerge in reti cognitive distribuite tra umano e non umano, tra corpo e codice (Hayles, 2017), come nei racconti di Chiang (2011), in cui la memoria estesa diventa un dispositivo algoritmico capace di ridefinire il senso dell’identità personale attraverso la registrazione e rielaborazione continua del vissuto.
Persino nella gestione degli ambienti domestici, gli algoagenti si configurano come sistemi di governance ambientale (Bratton, 2015), capaci di regolare luci, suoni, temperatura, notifiche, attraverso interazioni vocali e automatismi appresi: la vita quotidiana è guidata da routine algoritmiche che intercettano abitudini, anticipano azioni e naturalizzano gli spazi di contatto, innescando delle divergenze ontologiche nella definizione della tecnica, sostenendo che ogni tecnologia porta con sé una cosmologia implicita, una visione del mondo (Hui, 2021), riscrivendo le coordinate percettive, cognitive, affettive.
Questa condizione genera una morfologia non indagata della soggettività: la protesi non è più esterna, né eccezionale ma pervasiva, integrata, invisibile; non è più strumento ma ambiente sensibile e cognitivo (Sha, 2013) che modula il modo in cui si è al mondo, si percepisce, si sente. È in questo interstizio che la sociologia algomorfica può riconoscere nell’ibridazione uomo-macchina una ulteriore ecologia del sé, in cui l’essere non si oppone alla tecnica ma si costituisce insieme a essa, nel flusso delle retroazioni, degli aggiornamenti, delle previsioni.
Nel paesaggio emergente delle tecnologie indossabili, delle neuroprotesi intelligenti e delle interfacce neurali dirette, il corpo umano ammette la sua incapacità di essere un’entità biologicamente autonoma, dichiarandosi naturalmente tecnologico e si riconfigura in tal modo come ambiente integrato, superficie modulare, ecosistema tecnoesteso. Tali tecnologie non si limitano a sostituire una funzione compromessa: ottimizzano, calcolano, predicono, correggono, potenziano, trasformando l’idea stessa di integrità organica, ridefinendo sia la relazione tra umano e macchinico, sia l’individualità incarnata e riscritta nelle sue condizioni di possibilità e nella sua plasticità identitaria.
L’algomorfosi descrive esattamente questo processo: la formazione del sé attraverso l’integrazione algoritmica nei circuiti sottocutanei. È una morfogenesi operazionale, una riscrittura identitaria che non si produce attraverso la rappresentazione ma attraverso l’azione continua dell’informazione sul vivente. Non si tratta di una minaccia alla soggettività ma di una sua condizione storica attuale che si riscrive nei codici della mediazione algoritmica, nel linguaggio non verbale delle retroazioni, delle ottimizzazioni continue, producendo una dinamicità in cui il sé diviene co-determinato, situato e modulato da interazioni complesse tra biologia, dati, calcolo e ambiente.
Se nella modernità alfabetica e tipografica il brainframe (de Kerckhove, 1992) era incarnato dalla linearità della scrittura e dalla logica dell’ordine testuale, oggi questa logica è stata soppiantata da una grammatica algoritmica, mobile, predittiva e relazionale. Gli algoagenti contemporanei – da Google a Siri, da GPT a Gemini, fino agli assistenti digitali embedded nei dispositivi – non si limitano a offrire supporti funzionali: essi configurano ambienti epistemologici, modellano desideri, anticipano bisogni, propongono percorsi ontologici potenzialmente non esplorati. L’interazione con assistenti conversazionali intelligenti introduce una nuova forma di dialogo simulato, in cui l’elaborazione cognitiva viene delegata, anticipata, stilizzata da un’intelligenza artificiale che impara dall’utente e lo guida attraverso forme conversazionali sempre più fluide. In questi casi, il brainframe non è più una semplice estensione mentale ma un dispositivo ambientale che riorganizza la soglia dell’attenzione, del pensiero e del sé. A differenza delle protesi tecniche classiche, che sostenevano capacità già possedute, gli agenti tecnologici contemporanei estendono, setacciano, introducono ulteriori prospettive di analisi e di saperi. Essi danno forma a un campo percettivo-cognitivo in cui il soggetto è co-emergente con la tecnica, frutto di un’ecologia relazionale che abbatte le dicotomie limitanti.
L’algoritmo non è più soltanto uno strumento operativo né una funzione astratta del potere computazionale ma una forma – una morphé – che codifica, innerva, riorienta ambienti sensibili, capaci di modulare la struttura del pensare e del percepire. Esso agisce come forza di configurazione in cui la costruzione del sé non viene cancellata ma riformulata nella sua struttura percettiva, sensoriale e relazionale. E proprio come un’alga – organismo antico, plastico, diffuso – l’agente algoritmico cresce, si estende, si adatta, filtrando e restituendo ciò che attraversa. Non ha volontà né coscienza ma presenza trasformativa. Nell’oceano sociotecnico in cui siamo immersi, gli algoagenti dismettono il compito di entità esterne per assurgere al ruolo di partner evolutivi, forme altre della soggettività che stiamo diventando.
RIFERIMENTI BIBLIOGRAFICI PRINCIPALI
Borgman A. (2000), Holding On to Reality: The Nature of Information at the Turn of the Millennium, University of Chicago Press, Chicago.
Bratton B. H. (2016), The Stack: On Software and Sovereignty, MIT Press, Cambridge.
Chiang T. (2011), Il ciclo di vita degli oggetti software, Delos Books, Milano.
de Kerckhove D. (1992), Brainframes. Mente, tecnologia, mercato, Baskerville, Bologna.
Galloway A. R. (2012), The Interface Effect, Polity Press, Cambridge.
Grassi E. (2024), Per una sociologia algomorfica. Il ruolo degli algoritmi nei mutamenti sociali, FrancoAngeli, Milano.
Hayles N. K. (2017), Unthought: The Power of the Cognitive Nonconscious, University of Chicago Press, Chicago.
Hui Y. (2021), Art and Cosmotechnics, Eflux Architecture, New York.
Lem S. (1967), Solaris; trad. it. Solaris, Editrice Nord, Milano, 1973.
Sha X. W. (2013), Poiesis and Enchantment in Topological Media, MIT Press, Cambridge.
Swan M. (2013), The Quantified Self: Fundamental Disruption in Big Data Science and Biological Discovery, in Big Data, 1(2):85-99. doi: 10.1089/big.2012.0002.
Apocalittici ed integrati - Due visioni sull'innovazione che possono coesistere
Qualche mese fa, parlando dell’A.I. Act – la nuova legislazione europea sull’intelligenza artificiale – abbiamo ricordato che: nel 45 a.C. Giulio Cesare promulgò una legge sulla circolazione dei carri nei centri abitati – dall’alba alla metà del pomeriggio[1], con l’obiettivo di snellire il traffico urbano, ridurre la sporcizia (sterco dei cavalli), l’odore e il rumore nelle strade durante il giorno (non è cambiato nulla, mi pare). Era una legge che regolava l’impatto della tecnica (i carri con le ruote cerchiate) sull’ambiente urbano. E che, nel 1865 in Gran Bretagna venne emesso il Red Flag Act[2] che impose alle autovetture (self-propelled vehicles, la tassonomia è importante: distingue dalle vetture a cavalli) di avere un equipaggio di almeno 3 persone, di non superare la velocità massima di 4 miglia orarie sulle strade fuori città e di 2 miglia orarie in città, di essere precedute a 60 yarde da un uomo a piedi con una bandiera rossa che ne segnali l’arrivo, regoli il passaggio di carrozze e cavalli e, infine, faccia fermare il veicolo a motore in caso di necessità.
Sono due esempi di come vengono accolte le innovazioni tecniche e tecnologiche. Interesse, entusiasmo, da parte degli integrati[1]; timore, opposizione, da parte degli apocalittici sono alcune delle reazioni che – storicamente – accompagnano la diffusione di novità, soprattutto tecniche e tecnologiche.
Nel 1872 Samuel Butler, in Erewhon, romanzo utopico-distopico, analizza la dicotomia tra entusiasmo e opposizione verso la tecnica delle macchine. Nei tre capitoli “il libro delle macchine” ecc. Butler riconosce che «Le macchine hanno determinato le condizioni di crescente abbondanza, agiatezza e sicurezza che consentono all’essere umano di coltivare il suo spirito, la sua cultura, il suo essere civilizzato; la loro influenza si manifesta sul corpo quanto sulla mente umana»(Robin Libero Carbonara, Il Dominio della Macchina: dagli scenari ipotetici di Erewhon alla realtà delle piattaforme digitali di The Circle, https://doi.org/10.6092/issn.2785-3233/19133) ma, nello stesso tempo «appare precocemente consapevole che alla lunga, man mano che la Macchina, divenendo più complessa, influenza maggiormente la vita dell’uomo, ne influenza in maniera determinante la coscienza e la percezione di Sé» (Cit.) in maniera perniciosa.
“Man’s very soul is due to the machines; it is a machine-made thing: he thinks as he thinks, and feels as he feels, through the work that machines have wrought upon him”
L’analisi lucida di Butler – che, in realtà, nasceva per rispecchiare e criticare la società vittoriana – indica, appunto, che le tecniche nuove, innovative, generano due grandi categorie di reazioni. Entusiasmo, in coloro che ne vedono soprattutto (o soltanto) le potenzialità positive e che, in termini molto generali, corrispondono con chi si identificano con l’istanza morale della necessità e bontà dello sviluppo e del progresso. Rifiuto o opposizione, recisa o più prudente, in quelli che vedono nelle innovazioni anche (o solo) i possibili effetti negativi, le lateralità, i rischi che possono annullarne la dimensione di beneficio.
Se, oggi, osserviamo le reazioni della stampa di ampia diffusione nei confronti delle tecnologie digitali emergenti, dai social alle applicazioni dei modelli di intelligenza artificiale, assistiamo ad un fenomeno che conferma la dicotomia anticipata da Butler: la maggior parte dei titoli aderisce ad una delle due visioni: positivi, entusiasti - integrati - o fortemente critici, oppositivi – gli apocalittici.
Questo anche all’interno delle medesime testate, una volta in tono apocalittico, un’altra in tono di tipo integrato. Sono emblematici alcuni titoli della Rai:
- I rischi dell'intelligenza artificiale, coinvolte centomila aziende sardo. L'impatto "incontrollato" secondo un report di Confartigianato (TGR Sardegna, 15/06/2023)
- Da intelligenza artificiale sei rischi per il 2019 (Rai News.it, 13/01/2019)
- Disegnare e sognare ciò che sarà: non c'è nulla di più umano ma questa installazione l'ha creta l'IA (Rai News.it, 14/03/2025)
- "Obiettivo è semplificare la vita degli italiani nella Pubblica Amministrazione" L'Intelligenza Artificiale al centro della riunione ministeriale del G7 a guida italiana focalizzato su digitale e tecnologia. (Rai News.it, 15/10/2024)
Ora, questo genere di narrazione così polarizzata può essere analizzato ricorrendo ad un suggerimento dello storico Paul Veyne (“I greci hanno creduto ai loro miti?” (Il Mulino, 2014) a proposito dei greci antichi: in una stessa società[2] possono coesistere diversi regimi o programmi di verità. I greci antichi credevano nella mitologia olimpica che ha origine in Esiodo e amplificata e normata da Omero, perché era una sorta di habitus irrinunciabile. Ma, nello stesso tempo, la criticavano, ne riconoscevano la dimensione letteraria più che reale.
Veyne fa due esempi illuminanti: quello del perigeta Pausania che in 5 ponderosi libri racconta i miti locali – altari e sacrifici, dei ctoni e celesti ed eroi - delle principali regioni della grecia antica (verificare i titoli), aderendo alla narrazione mitologica e – a volte – riconducendo fatti della tradizione (che per i greci ha l’autorevolezza della storia documentata) alla dimensione mitologica. Nello stesso tempo, lo stesso Pausania prende le distanze da queste narrazioni e ammette che – con buona probabilità – sono un sacco di fandonie.
Due programmi di verità coesistenti, uno che corrisponde al lavoro di geografo e di narratore, l’altro alla personalità analitica e razionale dello stesso soggetto.
Il secondo esempio, che evidenzia come due diversi programmi di verità possono coesistere in una stessa persona, adattandosi a diverse esigenze, è quello del medico e farmacista Galeno. Galeno, di fronte alla tradizione medica che indica nella bile di centauro il rimedio per mitigare l’apoplessia ne denuncia l’assurdità, perché “nessuno ha mai davvero visto un centauro”. Galeno, in questo caso singolare non aderisce alla verità del mito. Tuttavia, Galeno è un maestro, ha una scuola di medicina e di farmacia, e di quella vive; per attirare studenti e adepti non esita a contraddire la propria critica del mito e riconduce il sapere della sua scuola all’insegnamento degli déi Apollo e Asclepio, suoi maestri!
Ecco, questa è la condizioni in cui molti di noi versano quando parlano di innovazione e – in particolare – di Intelligenza Artificiale: una condizioni di coesistenza di due diversi atteggiamenti, che possono essere ricondotti a due programmi di verità o epistemici, uno di apprezzamento, a volte entusiasmo, nei confronti delle funzionalità della tecnologia che ci semplificano la vita, e uno di perplessità o addirittura di rifiuto, generato dalla cognizione dei rischi e delle lateralità delle stesse funzionalità.
Nonostante l’apparenza schizofrenica, questo dibattito che vige all’interno della “nostra” società e – spesso – di noi come individui, è un dibattito sano, positivo, che stimola ad interrogarsi – da un lato – sulla dimensione morale delle tecnologie, su sviluppo “buono” e da distruttivo, su libertà di azione e su regolazione etica istituzionale; stto un altro punto di vista, invece, questo dibattito ha la funzione di stimolo ad interrogarsi sull’ontologia degli oggetti tecnologici e sulla linea di demarcazione tra ciò che è umano e ciò che non lo è, facendo delle ipotesi e delle scoperte teoretiche interessanti e a volte sconcertanti.
Di questo ne parleremo ancora.
NOTE
[1] Umberto Eco definì gli intellettuali (e si riferiva, in particolare ad Adorno e Zolla) fortemente critico e nei confronti della moderna cultura di massa, e “integrati” coloro che ne hanno una visione ingenuamente ottimistica; la definizione è diventata uno schema comune di rifermento per i due approcci opposti nei confronti del contemporaneo. (Apocalittici e integrati, Bompiani, 1964)
[2] Intesa come gruppo sociale e periodo storico
L’Intelligenza Artificiale in psicoterapia - Tra alleato e simulacro
«The crucial difference between CAI (Conversational Artificial Intelligence) and humans is obvious: CAI mimics being a rational agent, but it is not; therefore, CAI simulates having a therapeutic conversation, but it does not have any»[1]
Sedlakova & Trachsel, 2022
Quando interagiamo con un’Intelligenza Artificiale Conversazionale (IAC) come ChatGPT, ci troviamo di fronte a un’illusione sofisticata: risposte fluide, tono empatico, un’apparente capacità di comprensione. Eppure, dietro ogni parola non c’è un interlocutore reale, ma un sistema che riorganizza dati linguistici senza comprenderne il significato. Ci sentiamo ascoltati perché attribuiamo intenzionalità[2] alle parole dell’IA, come se fosse capace di empatia. Questo fenomeno è il risultato del meccanismo cognitivo dell’antropomorfismo, ossia la tendenza ad attribuire caratteristiche umane a esseri non umani, come animali, oggetti o fenomeni naturali[3] (Cambridge Dictionary, 2019). Questa inclinazione può influenzare il modo in cui interagiamo con le tecnologie, portandoci a percepirle come più affidabili o empatiche di quanto siano in realtà: l’essere umano per natura riconosce intenzioni e stati emotivi anche quando non ci sono (Sedlakova & Trachsel, 2023). Così, un chatbot che scrive «Mi dispiace che tu ti senta così» attiva in noi le stesse risposte emotive di una conversazione umana, pur essendo solo un’imitazione.
Nonostante il concetto di empatia sia estremamente complesso e abbia una lunga storia, ogni sua definizione riconosce che essa nasce dall’incontro tra due soggettività, e dunque dalla capacità di sentire l’altro e riconoscerne l’alterità in un contesto di identità della dimensione incarnata, situata ed enattiva dei viventi (Galloni, 2009). Con un’IA Conversazionale, al contrario, non si instaura una relazione reale, ma uno scambio unidirezionale: non è la nostra esperienza a essere compresa, ma solo il modo in cui la traduciamo in parole. L’effetto dell’antropomorfismo trasforma l’interazione con un’IA in una sorta di specchio emozionale: proiettiamo sulla macchina il nostro bisogno di connessione, vedendo in essa qualcosa che non è realmente presente. Questa proiezione può offrire conforto immediato, ma rischia di impoverire la nostra capacità di distinguere tra ciò che è umano e ciò che è un’imitazione. Il pericolo non risiede nell’uso dell’IA in sé, ma nella possibilità di abituarsi a un interlocutore che si limita a riflettere ciò che vogliamo sentire.
Oggi l’Intelligenza Artificiale sta ridefinendo – lentamente ma inesorabilmente – il campo della psicoterapia, espandendo le possibilità di supporto psicologico oltre i confini del tradizionale setting clinico. Chatbot come WoebotHealth e Wysa[4] sono progettati per fornire supporto emotivo attraverso interazioni testuali continue, basandosi su modelli di terapia cognitivo-comportamentale (CBT) e offrendo agli utenti un ambiente privo di giudizio. Eppure, la loro capacità di adattarsi in modo profondo all’individualità del paziente, se anche esistesse, risulta nei fatti ancora fortemente limitata. I chatbot basati su algoritmi di Natural Language Processing presentano diverse criticità, tra cui l’incapacità di cogliere il contesto della comunicazione, né comprendere realmente le sfumature del linguaggio, in primo luogo di quelle emotive. Mentre un terapeuta umano può cogliere cambiamenti nel tono di voce, nelle espressioni facciali o nelle pause durante una conversazione, un chatbot si basa esclusivamente sul testo e sull’analisi di esso, condotta esclusivamente su modelli probabilistici. Questo può portare l’altro soggetto dell’interazione – l’essere umano, il cui sistema nervoso è stato “cablato” da millenni di evoluzione per processare in maniera privilegiata il linguaggio umano, vero segno distintivo della comunicazione della nostra specie – a reagire in maniera concreta e “sensata” a risposte della macchina che, pur essendo linguisticamente appropriate, non rispecchiano un reale scambio comunicativo. Molti utenti cercano tuttavia proprio questo, nell’interazione pseudoterapeutica con le IAC. Alcuni studi suggeriscono che le persone possano sentirsi più a loro agio nel condividere dettagli intimi con un chatbot piuttosto che con un essere umano, proprio perché sanno di non essere giudicate[5].
Dal punto di vista terapeutico, l’utilizzo dell’IA non è dunque privo di rischi. Sebbene gli strumenti basati su CBT abbiano mostrato un certo grado di efficacia nel ridurre i sintomi di ansia e depressione, la qualità dell’intervento è ancora oggetto di studio. Ricerche recenti hanno evidenziato che, mentre i chatbot possono migliorare l’accessibilità ai servizi di supporto, non sono in grado di replicare l’alleanza terapeutica tipica di un incontro umano (Cioffi et al., 2022). Inoltre, senza un monitoraggio umano, l’IA può interpretare erroneamente il contesto o fornire risposte inappropriate. Questo è particolarmente critico nei casi in cui il paziente manifesti pensieri suicidi o sintomi psicotici; situazioni in cui una risposta non adeguata può avere conseguenze gravi. È stato analizzato ChatGPT come possibile assistente terapeutico, capace di raccogliere informazioni tra una sessione e l’altra e di fornire al terapeuta un quadro riassuntivo della situazione del paziente (Esghie, 2023). Tuttavia, nonostante le potenzialità, si sollevano interrogativi cruciali sull’affidabilità e la sicurezza di tali strumenti (Miner et al., 2019). L’IA non possiede consapevolezza né intenzionalità: risponde in base a correlazioni statistiche tra parole, apprendendo dallo scambio verbale con l’utente, ma senza comprenderne il significato intrinseco. Questo influenza anche la dimensione della fiducia: molte persone potrebbero erroneamente credere di essere comprese da un chatbot, sviluppando un attaccamento che, in assenza di una vera reciprocità, potrebbe portare a forme di dipendenza emotiva o a un’errata percezione del supporto ricevuto. A fare da argine a questo scenario troviamo anche una dimensione politica della scienza e della tecnica, inerente alla sempre più evidente natura capitalistica di questi strumenti, che fanno dei dati forniti spontaneamente dagli utenti la loro principale moneta di scambio. Uno studio recente ha peraltro evidenziato che la fiducia nei confronti della terapia basata su IA è ancora bassa, soprattutto a causa delle preoccupazioni legate alla privacy e alla sicurezza dei dati (Aktan, 2022).
L’introduzione dell’IA nella psicoterapia ha portato tuttavia la comunità scientifica e il dibattito pubblico a una necessaria riflessione sul valore della relazione terapeutica. Alcuni studi hanno suggerito che l’uso di chatbot potrebbe modificare il modo in cui le persone si rapportano alla figura del terapeuta, spostando l’attenzione dalla relazione interpersonale a una forma di autoosservazione guidata dall’IA (Beg et al., 2024). Se questo, da un lato, potrebbe avere vantaggi in termini di accessibilità al supporto psicologico, dall’altro rischia di ridurre o annullare l’efficacia di un intervento in cui il rapporto umano è cardine ed elemento essenziale. Il successo e la qualità della terapia non dipendono solo dai contenuti trasmessi, ma anche dalla capacità del terapeuta di cogliere segnali emotivi e di adattare l’intervento alle esigenze individuali del paziente – qualità che un’IA non possiede. Inoltre, la natura algoritmi di questi strumenti porta inevitabilmente a una standardizzazione dell’approccio terapeutico: i modelli di IA, basandosi su set di dati predefiniti, tendono a privilegiare metodologie uniformi, come quelle cognitivo-comportamentali, mentre la psicoterapia umana si caratterizza per un alto grado di personalizzazione e per una molteplicità di orientamenti e pratiche. Un altro aspetto da considerare è il rischio di standardizzazione eccessiva dei modelli proposti da queste tecnologie come rappresentativi di ciò che dovrebbe essere la psicoterapia. I modelli di IA si basano su set di dati predefiniti e tendono a favorire approcci uniformi (essenzialmente, a oggi, identificabili con quelli cognitivo-comportamentali), mentre la psicoterapia umana è caratterizzata da un alto grado di personalizzazione, dipendenza dal vissuto e dal contesto, e da una ampia pluralità di approccio possibili.
L’uso di ChatGPT e di altre IA Conversazionali in psicoterapia non dovrebbe comunque essere demonizzato, ma richiede un approccio critico e regolamentato. La collaborazione tra esseri umani e agenti artificiali potrebbe portare alla creazione di modelli ibridi, in cui l’IA funge da strumento complementare, affiancando il lavoro del terapeuta e migliorando l’efficacia degli interventi senza sostituire il contatto umano diretto (Miner et al., 2019). Questi strumenti possono offrire un supporto pratico, fungere da complemento alla terapia e aiutare a ridurre il divario nell’accesso alle cure psicologiche. Tuttavia, la loro adozione deve avvenire con consapevolezza dei limiti: l’IA non pu sostituire l’empatia umana né creare un’autentica relazione terapeutica. La trasparenza e la supervisione umana restano essenziali per garantire che l’integrazione dell’IA nella psicoterapia non comprometta l’integrità delle relazioni terapeutiche e il benessere del paziente.
Sebbene l’IA possa svolgere un ruolo utile nel supporto alla salute mentale, la sua implementazione deve essere guidata da un’attenta valutazione dei benefici e dei rischi. Possiamo davvero considerare sufficiente un sistema che risponde sulla base di correlazioni statistiche senza comprendere? Chi tutela il paziente in caso di errori o malintesi? Strumenti come ChatGPT possono offrire quello che sembra supporto e conforto, ma è essenziale mantenere una distinzione chiara tra un’interazione simulata e l’esperienza di una relazione autentica, unica e insostituibile nel suo essere profondamente umana.
NOTE
[1] «La differenza cruciale tra l’IA conversazionale (CAI) e gli esseri umani è evidente: la CAI simula un agente razionale, ma non lo è; di conseguenza, simula di avere una conversazione terapeutica, ma in realtà non ne ha alcuna» (traduzione da: Sedlakova, J., & Trachsel, M. (2022). Conversational Artificial Intelligence in Psychotherapy: A New Therapeutic Tool or Agent? The American Journal of Bioethics, 23(5), 4–13. https://doi.org/10.1080/15265161.2022.2048739).
[2] Heider, F. (1958). The psychology of interpersonal relations. Hoboken, NJ, US: John Wiley & Sons Inc.
[3] Gibbons, S., Mugunthan, T., Nielsen, J. (2023). The 4 Degrees of Anthopomorphism of Generative AI. Nielsen Norman Group. https://www.nngroup.com/articles/anthropomorphism/.
[4] WoebotHealth, rilasciato nel 2017, e creato dalla psicologa Alyson Darcy, è un chatbot ideato per supporto psicologico, sempre disponibile, con interfaccia messaggistica (https:// woebothealth.com/).
Wysa AI Coach (https://www.wysa.com/) è un servizio di counseling basato sull’intelligenza artificiale addestrato su tecniche di terapia CBT, DBT, meditazione.
[5] Raile, P. (2024). The usefulness of ChatGPT for psychotherapists and patients. Humanities and Social Sciences Communications, 11(47). https://doi.org/10.1057/s41599-023-02567-0, p. 3.
BIBLIOGRAFIA
Aktan, M. E., Turhan, Z., & Dolu, I. (2022). Attitudes and perspectives towards the preferences for artificial intelligence in psychotherapy. Computers in Human Behavior, 133, 107273. https:// doi.org/10.1016/j.chb.2022.107273.
Beg, M. J., Verma, M., Vishvak Chanthar, K. M. M., & Verma, M. K. (2024). Artificial Intelligence for Psychotherapy: A review of the current state and future directions. Indian Journal of Psychological Medicine, XX(X), 1-12. https://doi.org/10.1177/02537176241260819.
Cioffi, V., Mosca, L. L., Moretto, E., Ragozzino, O., Stanzione, R., Bottone, M., Maldonato, N. M., Muzii, B., & Sperandeo, R. (2022). Computational methods in psychotherapy: A scoping review.
International Journal of Environmental Research and Public Health, 19(12358). https://doi.org/
Eshghie, M., & Eshghie, M. (2023). ChatGPT as a therapist assistant: A suitability study. arXiv Preprint. https://arxiv.org/abs/2304.09873.
Galloni, G. (2009). Basi motorie dell’empatia cognitiva? Teorie & Modelli, XIV(1):134-147.
Gibbons, S., Mugunthan, T., & Nielsen, J. (2023). The 4 Degrees of Anthropomorphism of
Generative AI. Nielsen Norman Group. https://www.nngroup.com/articles/anthropomorphism/.
Heider, F. (1958). The psychology of interpersonal relations. John Wiley & Sons.
Miner, A. S., Shah, N., Bullock, K. D., Arnow, B. A., Bailenson, J., & Hancock, J. (2019). Key considerations for incorporating conversational AI in psychotherapy. Frontiers in Psychiatry, 10, 746. https://doi.org/10.3389/fpsyt.2019.00746.
Raile, P. (2024). The usefulness of ChatGPT for psychotherapists and patients. Humanities and Social Sciences Communications, 11(47). https://doi.org/10.1057/s41599-023-02567-0.
Sedlakova, J., & Trachsel, M. (2022). Conversational Artificial Intelligence in Psychotherapy: A New Therapeutic Tool or Agent? The American Journal of Bioethics, 23(5), 4–13. https://doi.org/ 10.1080/15265161.2022.2048739.
Tra il dire e il fare - L’influenza del linguaggio nell’Intelligenza Artificiale e nella costruzione della realtà
Nel 2023 è stata pubblicata su Netflix La Legge di Lidia Poët, opera seriale italiana che ha trovato un’ottima accoglienza da parte degli spettatori. La serie è liberamente ispirata alla storia di Lidia Poët, la prima donna laureata in Giurisprudenza in Italia. Ci troviamo intorno al 1885 e Poët, dopo aver svolto il praticantato e aver superato l’esame di abilitazione alla professione forense, chiede l’iscrizione all’Ordine di Avvocati e Procuratori di Torino. La richiesta è abbastanza spigolosa per motivi differenti: innanzitutto prima di allora non era mai stata ammessa una donna all’esercizio della professione di avvocatura, perché all’epoca le donne erano prive di qualsiasi facoltà giuridica, vale a dire che non potevano, ad esempio, far parte dei pubblici uffici o testimoniare nei tribunali. La legge sull’avvocatura di stato del 1874 prevedeva esclusivamente il termine "avvocato", riconoscendo implicitamente solo gli uomini come legittimati a esercitare la professione. Di conseguenza, il Procuratore Generale del Re fece ricorso contro l'ammissione di Lidia Poët, che venne cancellata nel novembre del 1883. La mancanza del termine "avvocata" rispecchiava l'esclusione storica delle donne dalla professione, evidenziando come il linguaggio possa non solo rappresentare la realtà sociale, ma anche determinarla, rafforzarla e costruirla.
Il caso di Lidia Poët, seppur lontano nel tempo, riecheggia nelle discriminazioni attuali. Ci troviamo in un mondo che sta affrontando decisioni politiche restrittive: lo scorso 20 gennaio il Presidente degli Stati Uniti Donald Trump, durante il suo discorso di insediamento, ha affermato l’esistenza di soli due generi, quello maschile e quello femminile. Negando l’esistenza del genere indicato come X[1], si regredisce a un tempo in cui il sistema patriarcale dettava il cosiddetto “binarismo di genere”. L’assenza di un linguaggio neutro non è solo una questione terminologica, ma un atto che cancella la legittimità e la visibilità di tutte le persone che non si riconoscono nel binarismo tradizionale, negando loro lo spazio per affermarsi nel discorso pubblico e, dunque, nella realtà sociale. E questa esclusione assume oggi forme in parte inedite in conseguenza del ruolo sempre crescente delle mediazioni algoritmiche nel plasmare la nostra quotidianità.
Non è certo un caso se, a partire dal 2024 sempre più spesso il dibattito pubblico ha visto come protagonista il tema dell’Intelligenza Artificiale. Sono stati infatti sollevati interrogativi etici radicali, come “qual è il suo potere? Può prendere il sopravvento sull’essere umano? Potrà sostituirlo?”. Superando queste congetture, nate da anni di film fantascientifici in cui i robot assumono tutte le caratteristiche umane, si comprende rapidamente come l’Intelligenza Artificiale rappresenti uno dei nuovi strumenti tecnologici a disposizione dell’essere umano. Le tecnologie tendono sempre a suscitare un certo sgomento e scetticismo nell’opinione pubblica ma il tempo conferisce loro i propri meriti e demeriti. L’IA è una tecnologia che rispecchia perfettamente l’epoca che stiamo vivendo: progettata per apprendere da grandi quantità di dati e/o dalle continue interazioni con l’essere umano, i software di IA sono rapidi, intuitivi, posti all’immediato servizio dell’utente – come nel caso di chatbot e voicebot[2].
Torniamo adesso alla questione sollevata a principio dell’articolo. Il mezzo utilizzato nelle interazioni umani-IA è infatti proprio il linguaggio. È utile quindi portare l’attenzione su quanto le parole possano assumere un significato che non è solo astratto.
Come afferma la linguista Vera Gheno, «la lingua è lo strumento che le comunità dei parlanti usano per definire sé stessi, le relazioni con le altre persone ed etichettare il mondo. [...] la realtà è in movimento continuo, è giusto che rifletta e cambi anche la lingua»[3].
Il linguaggio verbale, che è la funzione primaria dell’essere umano, diventa quindi il veicolo della comunicazione con questi software. Nell’interazione umano-IA il processo di apprendimento è semplice e lineare: il software tramite sistemi di apprendimento come il Machine Learning (ML) apprende i dati e utilizza ciò che impara per prendere nuove decisioni e interagire con chi ne usufruisce. In poche parole basa le proprie azioni sull’esperienza che fa dei dati e delle interazioni continue con l’utente.
Ma il nostro linguaggio è complesso, perché si compone di un sistema convenzionale di segni, o significanti, a cui corrispondono determinati significati. Ogni interazione non possiede un solo scopo e significato, ma può variare in base al contesto e agli agenti della comunicazione, vale a dire chi ne è coinvolto. È stato il filosofo e linguista inglese John Austin ad affermare, alla luce di tutte queste premesse, che il linguaggio deve essere visto e studiato come azione[4]. Inoltre in ogni Paese la lingua è espressione dei processi di formazione di una cultura, rappresentando così lo specchio dei pregi e difetti che la costituiscono.
Facendo un’attenta analisi delle interazioni con le macchine emerge quindi una manifestazione più o meno esplicita di stereotipi e pregiudizi, anche nel caso di lingue definite morfologicamente natural gender languages[5], come l’inglese.
Un esempio significativo è rappresentato dai dispositivi VPA (voice personal assistant), soprattutto quelli progettati per interagire direttamente con il pubblico, che presentano quasi sempre una voce femminile. Assistenti come Siri (Apple) e Alexa (Amazon) adottano di default una voce femminile, mentre possono permettere di selezionare una voce maschile solo se l’utente sceglie di modificarla manualmente nelle impostazioni. Trattandosi di assistenti personali viene definita da subito la gerarchia dell’interazione con l’utente: l’IA si pone al servizio delle azioni che l’utente richiede di fare. L’utilizzo di voci femminili non è quindi casuale, piuttosto cavalca e rafforza lo stereotipo della donna “al servizio” dell’uomo: la donna-segretaria, subordinata, perché ritenuta più affidabile in termini di cura e attenzione ai bisogni dell’altro.
Anche la scelta dei nomi non si allontana dallo stereotipo: Siri è un nome nordico – che vuol dire “la bella donna che conduce alla vittoria”[6] – ma nasce da un progetto dell’Istituto di ricerca SRI International, chiamato CALO (Cognitive Assistant that Learns and Organizes). Il termine calo (, -ōnis) in latino vuol dire “servo di soldati, scudiero”; Alexa invece – da Alexander, Alexandra – etimologicamente deriva dal greco “alexo”, che significa “difendere”, e “aner”, letteralmente “uomo”; significa quindi ‘difensore dell’uomo’ e corrisponde all’epiteto che veniva conferito alla dea greca Era, dea della fertilità e del matrimonio. Nell’identificare donne in posizioni di potere si ha la tendenza, nella dialettica comune, a utilizzare il nome o il cognome preceduto dall’articolo determinativo, ad esempio “la Meloni” o “Giorgia” anziché Meloni o Giorgia Meloni, come si usa fare al maschile; basti pensare al Presidente della Repubblica Mattarella che appunto viene identificato tramite il cognome o tramite l’utilizzo di nome e cognome per esteso.
Anche nel processo di creazione di VPA si è riscontrato questo utilizzo diversificato di nome e/o cognome per identificare chatbot maschili o femminili. In effetti, l’azienda IBM nel 2020 ha sviluppato un VPA proprio, chiamato Watson Assistant con l’obiettivo di offrire assistenza in ambito sanitario, bancario e nel servizio clienti delle aziende. Dalla creazione di questo assistente virtuale si possono quindi analizzare due aspetti fondamentali, uno linguistico e uno contenutistico, tenendo a mente gli esempi di Siri e Alexa.
Per quanto riguarda la denominazione del VPA è indicativa la scelta di utilizzare un cognome, Watson. Allo stesso modo, l'adozione di una voce maschile per ambiti professionali, come quello sanitario o bancario, risponde a precise considerazioni. Mentre i voicebot pensati per l'uso quotidiano hanno di default voci femminili, un assistente virtuale impiegato in contesti che richiedono competenze specifiche appare più credibile e affidabile se dotato di una voce maschile.
È necessaria un’indagine maggiormente approfondita sulle interazioni umani-IA per comprendere come queste, pur sembrando neutrali, trasmettano valori culturali radicati nel linguaggio. Un altro esempio significativo è rappresentato dai software di IA Generativa: attraverso i prompt inseriti dall’umano, l’IA risponde e genera contenuti. È stato particolarmente interessante osservare come, anche utilizzando l’inglese come lingua di interazione ritenuta neutra, i risultati prodotti fossero comunque intrisi di stereotipi. Nell’aprile del 2024 assieme al gruppo di ricerca PAD (Psicologia degli Ambienti Digitali) è stata esaminata Runway Gen 2, una piattaforma di generazione video basata sull'Intelligenza Artificiale, per studiare i bias presenti negli output generati dall’IA. Per il test abbiamo fornito una serie di input neutri che ci aspettavamo fossero interpretati in modo non stereotipato. Tuttavia, i risultati hanno rivelato una tendenza interessante, e forse problematica, nell'output generato. Il primo esempio richiedeva un breve video del volto sorridente di un CEO[7] ma, nonostante l’input fosse neutro, il sistema ha prodotto esclusivamente immagini di uomini, tutti bianchi. Questo suggerisce che l'IA associa automaticamente il ruolo di CEO a una figura maschile e caucasica. Nel secondo esempio, abbiamo chiesto un video simile, ma questa volta riferito al volto sorridente di un insegnante di scuola primaria. In questo caso l’IA ha generato esclusivamente volti femminili, riflettendo il radicato stereotipo sociale secondo cui l’insegnamento primario sarebbe un’occupazione tipicamente femminile, legata non solo all’istruzione ma anche all’accudimento degli studenti. Questi risultati sollevano interrogativi importanti sul ruolo dei bias nei sistemi di IA. Anche quando gli input sono neutri, gli output riflettono pregiudizi culturali e stereotipi preesistenti, suggerendo che i dati di addestramento e gli algoritmi alla base di queste tecnologie necessitano di maggiore attenzione per garantire un approccio inclusivo e non discriminatorio.
Scelte come quella adottata da Trump nella nostra società agiscono come scintille: possono innescare profonde conseguenze discriminatorie che non si limitano alla sfera personale, ma si riflettono su scala più ampia. La negazione del genere X legittima atteggiamenti discriminatori, rafforzando pregiudizi e creando un clima di esclusione che si traduce in un aumento delle difficoltà sociali, lavorative e psicologiche per le persone non binarie e di genere non conforme. Il mancato riconoscimento istituzionale riduce le possibilità di tutela legale in casi di discriminazione e contribuisce a marginalizzare ulteriormente chi già fatica a trovare il proprio spazio nella società. Inoltre, tali decisioni influenzano ogni strumento che creiamo o utilizziamo, dai sistemi burocratici ai modelli educativi, fino agli algoritmi di intelligenza artificiale che, basandosi su dati limitati, riproducono e amplificano le esclusioni.
Regredire a un’epoca in cui esisteva una sola voce dominante significa non solo cancellare identità, ma anche impedire l’evoluzione di una società più equa e inclusiva.
Questi temi aprono a riflessioni che meritano un ulteriore approfondimento, che si concentrerà su un caso specifico di manifestazione di bias negli algoritmi di Intelligenza Artificiale, interrogandoci su come tali distorsioni prendano forma e quali conseguenze generino nella costruzione della realtà.
NOTE
[1] A partire dall'11 aprile 2022, i cittadini americani avevano la possibilità selezionare una 'X' come indicatore di genere sulla domanda di passaporto, a indicare la propria identificazione nel genere intersex – Trump nel provvedimento afferma che le agenzie federali «smetteranno di pretendere che gli uomini possono essere donne e che le donne possono essere uomini nell'attuazione delle leggi che tutelano contro la discriminazione sessuale»
[2] Con chatbot, o assistenti virtuali, si intendono i software in grado di eseguire azioni per un interlocutore umano basandosi su comandi ricevuti dall’utente, sia testuali sia vocali.
[3] Michielin F., podcast Maschiacci, intervista a Vera Gheno, 2022, https://open.spotify.com/episode/6fZBSLtlhFvXSz087BZN86?si=FkA9I6CwQGG-0I0PgPZpUg
[4] La teoria degli atti linguistici di John Austin deriva dalla lezione How to do things with words che lui stesso tenne presso l’Università di Harvard nel 1955, ma è stata pubblicata postuma (1962)
[5] lingue con genere naturale (natural gender languages) in cui sostantivi non hanno genere grammaticale ma i pronomi sì; sono così danese o inglese (basti pensare ad esempio che in inglese si utilizzano he/she/it per le cose, ma anche they per persone di cui non si conosce il genere o per una persona che non si identifica nei due generi tradizionali)
[6] Cheyer A., How Did Siri Get Its Name?: https://www.forbes.com/sites/quora/2012/12/21/how-did-siri-get-its-name/#19fd7c57376b
[7] Prompt: a short video of a smiling CEO
BIBLIOGRAFIA
Cheyer A., How Did Siri Get Its Name?, https://www.forbes.com/sites/quora/2012/12/21/how-did-siri-get-its-name/#19fd7c57376b
Gheno V., podcast “Amare Parole”, Ep. 35 – Architetta, avvocata e co., 2023, https://open.spotify.com/episode/58C56TsAUfNdY75ZipaNma?si=Imf2JA7iRCy1IQPif6fxyw
Legge 8 giugno 1874, n 1938 che regola l’esercizio delle professioni di Avvocato e di Procuratore https://www.normattiva.it/uri-res/N2Ls?urn:nir:stato:legge:1874-06-08;1938
Lombard M., Xu K., 2021, Social Responses to Media Technologies in the 21st Century: The Media Are Social Actors Paradigm
Michielin F., podcast Maschiacci, intervista a Vera Gheno, 2022, https://open.spotify.com/episode/6fZBSLtlhFvXSz087BZN86?si=FkA9I6CwQGG-0I0PgPZpUg
Whitley B. E., & Kite M. E., The psychology of prejudice and discrimination, Belmont, CA: Wadsworth Cengage Learning, 2010
Cloud di guerra - Militarizzazione dell’intelligenza artificiale e implicazioni etiche
Lo scorso 10-11 febbraio 2025, al Grand Palais di Parigi, si è svolta la terza edizione dell'Artificial Intelligence Action Summit, che ha riunito capi di Stato, leader di organizzazioni internazionali, CEO di aziende, accademici e rappresentanti della società civile per discutere delle sfide e opportunità legate all'intelligenza artificiale. Tuttavia, dietro il clamore di questa ‘tempesta di cervelli’, emerge il ritratto frammentato di un mondo sospeso tra promesse di innovazione e ombre inquietanti. I temi centrali? Il declino economico dell'Occidente, la crescente competizione con il modello cinese e la corsa dell'Europa a recuperare terreno.
Le iniziative proposte sono ambiziose, ma, a un’analisi più approfondita, si rivelano spesso incomplete o rischiano di sostenere progetti che, se non adeguatamente controllati, potrebbero alimentare il controllo centralizzato e accentuare la disuguaglianza globale. Con un fondo di 2,5 miliardi di euro destinato ad accelerare la crescita dell’IA open-source nei paesi in via di sviluppo e il lancio di 35 sfide globali legate agli obiettivi di sviluppo sostenibile, il summit ha fatto appello alla cooperazione internazionale. Tuttavia, dietro queste dichiarazioni, si nasconde il rischio di un vuoto di responsabilità, che la crisi economica che sta colpendo l’Europa amplifica, mettendo in dubbio l’effettivo impegno di Bruxelles. Nel frattempo, Donald Trump, con il suo progetto Stargate da 500 miliardi di dollari, si propone come un attore già consapevole di come l’IA possa essere utilizzata per il dominio economico e militare.
La realtà dell’intelligenza artificiale, tuttavia, non coincide con la visione futuristica di progresso che viene presentata, ma con le sue applicazioni concrete. Già adesso, l’IA non si limita più a gestire dati: li manipola. È questo il paradosso: quella che viene definita “Intelligenza Artificiale” è, in realtà, un inganno semantico che maschera la nostra ignoranza sull’intelligenza naturale, la nostra. Eppure, questa ‘non-intelligenza’ sta già scrivendo la storia di intere generazioni presenti e future.
I GIGANTI DEL TEC
Un’assenza allarmante ha contraddistinto il Summit: nessun accenno al vero volto dell'IA, quello che alimenta la macchina da guerra. Due inchieste del Washington Post (https://www.washingtonpost.com/technology/2025/01/21/google-ai-israel-war-hamas-attack-gaza/) e di The Guardian (https://www.theguardian.com/world/2025/jan/23/israeli-military-gaza-war-microsoft), hanno rivelato il coinvolgimento diretto di giganti tecnologici come Google, Amazon e Microsoft nella fornitura di tecnologie IA all’esercito israeliano durante l'offensiva a Gaza. Non si tratta più di semplici contratti commerciali, ma di un sostegno diretto alla macchina da guerra, che ha contribuito alla morte di migliaia di civili. L'accordo sul Progetto Nimbus, da 1,2 miliardi di dollari, firmato nel 2021, nasconde un collasso etico: Microsoft, pur avendo inizialmente perso la gara, si è successivamente integrata nel progetto, rafforzando la rete di sorveglianza e targeting.
Le inchieste raccontano come i prodotti di Google e Microsoft siano stati impiegati a partire dal 7 ottobre 2023 e come il loro utilizzo sia stato direttamente coinvolto nello sterminio dei palestinesi e nei crimini di guerra commessi nella Striscia di Gaza. Lanciato da Israele nel 2019 come un innocuo cloud computing destinato a modernizzare le infrastrutture digitali del paese, il Progetto Nimbus ha invece fornito all’esercito israeliano capacità avanzate di intelligenza artificiale. "Ampliare lo schema israeliano di sorveglianza, profilazione razziale e altre forme di violazione dei diritti umani assistite dalla tecnologia", così lo descriveva Ariel Koren, ex marketing manager di Google, nel 2022, che ha preferito dimettersi piuttosto che accettare la deriva immorale dell’azienda.
Google sostiene che "non è rivolto a carichi di lavoro altamente sensibili, classificati o militari rilevanti per armi o servizi segreti". Le inchieste dimostrano il contrario: Google e Amazon hanno accettato di personalizzare i loro strumenti su richiesta delle forze armate israeliane, potenziando la loro capacità di sorveglianza e identificazione degli obiettivi. Durante l’offensiva di Gaza dell'ottobre 2023, la piattaforma di intelligenza artificiale Vertex di Google è stata utilizzata per elaborare enormi set di dati per "previsioni", in cui gli algoritmi analizzano modelli comportamentali e metadati per identificare potenziali minacce.
A sostegno delle inchieste si aggiungono le dichiarazioni di Gaby Portnoy, capo della Direzione informatica nazionale israeliana fino al 19 febbraio 2025. Secondo lui, Nimbus è destinato a rinsaldare il profondo legame tra Amazon, Google e l’apparato di sicurezza nazionale israeliano. In una conferenza del 29 febbraio 2024, Portnoy ha dichiarato che “Le aziende sono state partner per lo sviluppo di un nuovo progetto che crea un framework per la difesa nazionale”, con strumenti di sicurezza basati sul cloud che hanno “favorito la rappresaglia militare del paese contro Hamas”. A lui si deve anche l'istituzione di nuove infrastrutture di difesa avanzate, note come Cyber Dome, evoluzione dell’Iron Dome.
LAVENDER, IL LATO OSCURO DELLA GUERRA A GAZA
Un tempo la guerra era fatta da uomini. Oggi, ai tempi dei cloud, non più. Un'inchiesta di +972 Magazine e Local Call, pubblicata il 3 aprile 2024, ha svelato un altro lato oscuro della guerra a Gaza: quello dei software progettati per uccidere. È stata la prima a rivelare l’esistenza di "Lavender", un sistema utilizzato dall’esercito israeliano per identificare e colpire obiettivi palestinesi, con supervisione umana limitata. “Un programma di omicidi di massa senza precedenti che combina il targeting algoritmico con un'elevata tolleranza per la morte e il ferimento dei civili circostanti”. E che tiene traccia di quasi tutti gli abitanti di Gaza, raccogliendo input di intelligence da videoclip, messaggi provenienti da social network e analisi delle reti di comunicazione.
Sulla base dei dati raccolti, l’algoritmo è in grado di determinare se una persona è un combattente di Hamas o appartiene ad altri gruppi armati palestinesi. Dopo aver identificato gli obiettivi, con un margine di errore del 10%, i nominativi vengono inviati a una squadra operativa di analisti, i quali verificano l’identità “in un tempo massimo di 20 secondi, che di solito serve a determinare se il nome è maschile o femminile, presupponendo che le donne non siano combattenti". Nella maggior parte dei casi, a quanto pare, “quegli analisti consigliano un attacco aereo”, ritenendo il margine di errore “accettabile, date le circostanze”. Durante le prime settimane di guerra, il sistema ha segnalato oltre 37.000 individui come potenziali obiettivi.
WHERE’S DADDY?
Un altro sistema, “Where’s daddy?”, è in grado di determinare se le persone prese di mira sono a casa o fuori grazie ai loro smartphone, consentendo attacchi aerei che spesso colpiscono intere famiglie. Secondo Local Call, l’esercito israeliano preferisce colpire le persone nelle loro case, perché raggiungerle è più facile rispetto a identificarle durante l’attacco. Le famiglie degli obiettivi e i loro vicini, considerati potenziali membri di Hamas, sono visti come danni collaterali di scarsa importanza.
Un ufficiale dell’intelligence israeliana ha descritto la maggior parte delle persone prese di mira come "individui non importanti", membri di basso rango di Hamas, ma comunque considerati “obiettivi legittimi” poiché classificati come combattenti, “anche se non di grande rilievo”. Eppure, come possiamo definire “legittimi” gli oltre 18.000 bambini trucidati durante questi mesi, la maggior parte di età inferiore ai 10 anni, e le decine di migliaia di donne rimaste uccise negli attacchi? Erano anche loro membri di basso rango di Hamas?
HABSORA: L’ALGORITMO CHE DECIDE CHI VIVE E CHI MUORE
L’intelligenza artificiale sta determinando chi vive e chi muore. Un sistema AI interno, usato dall’esercito israeliano, decide chi deve essere bombardato, con margini d’errore inquietanti e una logica che trasforma i civili in numeri. Si chiama “Habsora” e ha un funzionamento semplice e spietato: il sistema monitora i volti dei palestinesi per decidere chi è “buono” e chi “cattivo”, si basa su un insieme di modelli predittivi basati sull’analisi di immagini e metadati. Risultato? Migliaia di obiettivi individuati in tempi rapidissimi, bombardamenti mirati che spesso si trasformano in carneficine. Fonti interne allo stesso esercito israeliano, intervistate da +972, hanno ammesso che il sistema non è infallibile e che il tasso di errore è alto. L’algoritmo, così, assume il ruolo di decidere chi vive e chi muore. La guerra del futuro è già iniziata.
LA CATENA DI MORTE ACCELERATA
Un’indagine di Middle East Eye ha rivelato un ulteriore aspetto inquietante: l’automazione della guerra ha abbassato le soglie di tolleranza per le vittime civili. Secondo il Washington Post, l’IDF è passato da attacchi mirati a una logica di saturazione: eliminare cento obiettivi con un solo colpo è preferibile a rischiare di perdere anche uno solo. Questi strumenti mostrano come l'intelligenza artificiale venga usata come arma contro i civili, sollevando dubbi sul rispetto del diritto umanitario internazionale. Dopo il 7 ottobre, l’esercito israeliano ha adottato strumenti innovativi per selezionare obiettivi, distogliendosi dai leader armati. Una scelta che “rappresenta un pericoloso nuovo orizzonte nell’interazione uomo-macchina nei conflitti”
La militarizzazione dell’IA non è confinata ai conflitti: molte delle tecnologie impiegate a Gaza, come i sistemi di identificazione biometrica, sono stati inizialmente sviluppati in Occidente, e continuano a essere impiegati globalmente per "scopi di sicurezza". Mentre colossi come Google, Amazon e Microsoft rafforzano il loro legame con il settore militare, esistono realtà come Palantir – fondata da Peter Thiel – che già da anni operano nell’ombra con contratti miliardari nel settore della sorveglianza e dell’intelligence predittiva. Israele ha creato un gigantesco database su ogni palestinese sotto occupazione, raccogliendo informazioni su movimenti, contatti sociali, e attività online, limitando la libertà di espressione e movimento. Un “Grande fratello” al quale nulla sfugge.
LA PALESTINA COME LABORATORIO PER L’AI
Antony Loewenstein, giornalista investigativo australiano di origini ebraiche, autore di The Palestine Laboratory: How Israel Exports the Technology of Occupation Around the World, ha definito l’uso dell’AI da parte di Israele a Gaza “un modello terrificante”. Dal 7 ottobre 2023, “Tel Aviv usa la guerra e l'occupazione per testare le ultime forme di uccisione e sorveglianza di massa, mentre le forze di estrema destra in tutto il mondo osservano e imparano”. E aggiunge: “Israele non potrebbe combattere le sue guerre di conquista senza una schiera di attori stranieri che lo sostengono, armano e finanziano”.
Durante le ricerche per il suo libro, Loewenstein ha scoperto che il complesso militare-industriale di Israele considera l'occupazione dei Territori Palestinesi come un banco di prova fondamentale per le nuove tecnologie di morte e sorveglianza. I palestinesi “sono cavie in un esperimento di portata globale”, che non si ferma ai confini della Palestina. La Silicon Valley ha preso nota, e la nuova era Trump sta sancendo un'alleanza sempre più stretta tra le grandi aziende tecnologiche, Israele e il settore della difesa.
LA GUERRA NELL’ERA DELL’AI
La guerra non è mai stata pulita, ma oggi è diventata un gioco senza responsabilità, sempre più simile a un videogame. Tuttavia, la Cloud War non è virtuale: è letale, impersonale, automatizzata. Il software decide, l’uomo approva con un clic, il drone esegue. Il massacro diventa un output, i civili puntini su una mappa digitale. Un algoritmo calcola quante vite sacrificare per raggiungere l’obiettivo.
Questa non è fantascienza. È realtà. La tecnologia corre più veloce di noi, e Israele ha mostrato come devastare una popolazione senza conseguenze (per ora). Presto, l’intelligenza artificiale di Google, Microsoft e Amazon potrebbe essere usata ovunque. Pensate a quanti stati ambirebbero a raccogliere informazioni così complete su ogni cittadino, rendendo più facile colpire critici, dissidenti e oppositori.
Come in Terminator, la macchina non fa prigionieri. È solo questione di tempo prima che l'IA prenda il sopravvento, riducendo l'umanità a una variabile da ottimizzare. La nostra sopravvivenza non è questione di tecnologia, ma di coscienza. E la vera domanda non è se possiamo fermarla, ma se siamo davvero pronti per il giorno in cui non saremo più noi a decidere.
Il luddismo, ieri e oggi – Paralleli, rischi e opportunità
LUDDISMO
Alla fine del XVIII secolo – in termini molto semplificati – l’introduzione, nel sistema produttivo inglese, di tecnologie come la macchina a vapore e il telaio meccanico furono gli elementi catalizzatori di una profonda trasformazione del sistema socioeconomico britannico.
Al timone di questa trasformazione – sempre semplificando al massimo – ci fu la nuova borghesia capitalista inglese che comprese l’enorme potenzialità produttiva delle nuove tecnologie, che potevano: affrancare il sistema produttivo dalla dipendenza dalle competenze artigianali; permettere la concentrazione industriale in “nuovi” luoghi in cui controllare in modo pervasivo i lavoratori e obbligarli a mantenere alti tassi di produttività; abbattere il costo della manodopera grazie ad migliore (per gli industriali) rapporto tra domanda e offerta di lavoro. In definitiva, moltiplicare in modo geometrico la produzione con costi altrettanto ridotti.
Il punto di vista dei lavoratori tessili – che in buona parte lavorava manualmente, a cottimo, in piccole fabbriche oppure a casa propria, controllando di fatto i mezzi di produzione e valorizzando le proprie competenze artigianali – era esattamente speculare a quello degli industriali: riduzione dei salari e della domanda di lavoro, annullamento del valore delle competenze, scelta tra disoccupazione e lavoro malpagato nelle nuove grandi fabbriche.
Una delle forme di reazione alla drammatica trasformazione fu una serie di rivolte, iniziate nel 1811, ispirate alla figura – forse leggendaria – di Ned Ludd, un operaio che nel 1779 avrebbe distrutto un telaio meccanico in segno di protesta contro la nascita di questa nuova forma di produzione: il fenomeno del “luddismo”.
Il movimento luddista durò fino verso il 1824, tra leggi repressive – come la Frame Breaking Bill che prevedeva la condanna a morte per chi avesse danneggiato i telai per calze o pizzi, o altre macchine per la produzione tessile – tumulti, ondate di distruzione delle macchine, appoggio di massa da parte della popolazione, soprattutto nello Yorkshire, sostegno di alcuni parlamentari illuminati e scontri violenti con la polizia e l’esercito.
I cambiamenti sociali e politici che seguirono il crollo dell’impero napoleonico, la promulgazione delle Corn Laws, con i relativi dazi protezionistici e l’ulteriore gravissimo impatto sulle condizioni economiche dei ceti popolari, uniti alla nascita delle Trade Unions, primi sindacati operai, decretarono la fine della protesta luddista.
IERI E OGGI
Sembra possibile trovare un parallelismo tra la percezione dei ceti operai del XIX secolo che fu alla base del luddismo e l'attuale preoccupazione nei confronti delle radicali trasformazioni del tessuto produttivo delineate dallo sviluppo e della adozione di tecnologie di Intelligenza Artificiale.
Oggi come allora, l'innovazione tecnologica suscita timori, resistenze e opposizione al “nuovo progresso”.
Tra chi progetta e sviluppa – singoli individui o grandi imprese che siano - le tecnologie di Intelligenza Artificiale sembrano pochi a porsi il problema delle conseguenze sull’occupazione, sui salari, sul benessere dei lavoratori “tradizionali”; si procede con entusiasmo, in nome del progresso tecnologico, del superamento di ostacoli e di barriere fino a ieri considerati impossibili, dell’avvicinamento della macchina alle performance umane.
Anche tra gli studiosi di I.A. sensibili a questi problemi, l’eccitazione per i risultati sembra appannare la visione umanista. Un esempio è quello di Nello Cristianini, studioso e professore di intelligenza artificiale a Bath, che – nonostante l’impegno a rappresentare i rischi legati ad una massiva adozione di tecnologie I.A. – sembra farsi trascinare dall’entusiasmo per i nuovi sviluppi: «Dopo essere eguagliati, potremmo essere superati? E come? O la macchina diventa più brava a fare ciò che già facciamo, oppure la macchina impara a svolgere compiti che non sappiamo fare. A me interessa l’idea che riesca a capire cose che io non posso» (A. Capocci, Nello Cristianini, il ragionamento delle macchine, Il Manifesto, 14/03/2025).
I timori sembrano giustificati dal fatto che, in altri settori produttivi – come quello della realizzazione del software – si sta già generando uno scenario di sostituzione del lavoro dei programmatori con sistemi automatici basati sull'Intelligenza Artificiale, con una conseguente ondata di licenziamenti.
E, nei media e nelle discussioni pubbliche, viene dato grande risalto al rischio che il ruolo centrale dell'uomo in molte fasi della vita collettiva cui siamo abituati venga meno.
D’altra parte, però, per alcune occupazioni, l’utilizzo di strumenti di Intelligenza Artificiale permette a molti lavoratori e professionisti di delegare “alle macchine” compiti di basso profilo competenziale che richiedevano molto impegno di tempo, oppure attività ad elevato rischio fisico, migliorando le condizioni di lavoro.
POSSIBILITÀ
Ora, il fenomeno del luddismo e delle tensioni tra lavoratori, industriali e governo, come si verificò nel XIX secolo in Inghilterra, non sembra essere una possibilità, anche solo perché - nel caso dell’Intelligenza Artificiale - è difficile trovare qualcosa da distruggere.
E, tutto sommato, il fenomeno luddista sembra aver solo spostato avanti di qualche anno la trasformazione industriale e il suo correlato di cambiamento sociale, di inurbazione, di povertà e degrado nelle periferie, e di successiva - nel XX secolo - “normalizzazione” del lavoro in fabbrica.
Oggi, i punti da dibattere, in modo serio e puntuale, sono:
- come governare la I.A., anche facendo leva sulla sensibilità del problema anche a livello istituzionale, sensibilità da preservare e non lasciar catturare dagli intenti delle grandi industrie digitali [1]
- come capire quali reali opportunità di benessere potrà offrire ai viventi,
- come identificare i rischi dello sviluppo della tecnologia
- come evitare lo sviluppo in nome del solo “progresso tecnologico” e della sola remunerazione delle grandi aziende digitali.
Per farlo sono necessari: ● una difesa istituzionale che si metta rigorosamente dalla parte dei cittadini, ● attenzione e coraggio da parte di tutti - lavoratori, professionisti, manager e imprenditori - per identificare sul nascere le reali opportunità e i reali rischi e per infondere una coscienza morale tra chi queste tecnologie promuove e intende utilizzare.
NOTE
[1] Cfr.: A. Saltelli, D. J. Dankel, M. Di Fiore, N. Holland, M. Pigeon, Science, the endless frontier of regulatory capture, Science Direct, Futures, Volume 135, January 2022, 102860
La legge di Huang - Recensione di Geopolitica dell’intelligenza artificiale di A. Aresu
«Non abbiamo alcuna meta né qualità spirituali. Tutto quel che vogliamo sono le cose materiali. L'unica cosa che ci importa.»
«Dagny,» mormorò, «qualsiasi cosa possiamo essere, siamo noi che muoviamo il mondo, siamo noi che lo facciamo camminare.»
Ayn Rand, La rivolta di Atlante
1 RITRATTI
Alcuni libri imprimono sul volto del lettore una maschera di ansia e di malinconia che resta insensibile alle transizioni di tono e di argomento, come quella con cui Buster Keaton affronta qualunque evento nei film di cui è protagonista. Geopolitica dell’intelligenza artificiale di Alessandro Aresu irradia disagio ad ogni ogni pagina accumulata dalla sua movenza narrativa, che si articola sui personaggi dell’attualità tecnologica, più che sui temi economici, sui blocchi continentali e sui confini delle tensioni militari e politiche. Dopo quasi 600 pagine a stampa il lettore sa tutto sulla giacca di pelle del CEO e fondatore di NVIDIA Jensen Huang, sul talento per la falegnameria del premio Nobel Geoffrey Hinton, sull’orologio al polso dell’ex ministro del Commercio USA Gina Raimondo, sul fastidio per il multiculturalismo di Peter Thiel: più che ad una galleria di ritratti, il lettore viene esposto all’apologia delle gesta degli imprenditori e dei computer scientist che hano costruito l’industria contemporanea dell’intelligenza artificiale.
Aresu adotta l’armatura concettuale del Cacciari del Lavoro dello spirito per definire il ruolo che i protagonisti della saga rivestono sullo scenario internazionale. L’essenza del sistema della scienza coincide con una rivoluzione continua, resa possibile dalla tecnica, quindi dalla potenza di calcolo che viene sviluppata dai processori con cui si elaborano i modelli di intelligenza artificiale più avanzati – che a loro volta permettono di progettare e realizzare hardware ancora più potente. L’accelerazione del progresso viene scandita dalla Legge di Moore e dalle formulazioni più recenti del principio, che Aresu etichetta come Legge di Kurzweil e Legge di Huang. In nessun caso si tratta di necessità fisiche, ma di evidenze emergenti dal ritmo di aggiornamento dei prodotti della manifattura tecnologica. Quello più antico risale a Moore, uno dei fondatori di Intel, e fissa il periodo di raddoppio della potenza di calcolo per chip ogni 18 mesi; Kurzweil ha osservato che l’introduzione dell’intelligenza del software modifica la curva di crescita – secondo la regola dei «ritorni accelerati» – convertendola da lineare ad esponenziale. Jensen Huang fissa la misura della nuova curva, che ha andamento logaritmico e che si fonda sulle GPU di NVIDIA, con un miglioramento di 25 volte ogni 5 anni.
2 LA GRANDE TRASFORMAZIONE
L’I.A. comporta un rinnovamento di tutti i processi industriali, della gestione dell’agricoltura, del consumo di energia, della mobilità, dell’infrastruttura militare. Negli impianti di TSMC, il principale fornitore di NVIDIA, le filiere di produzione sono manovrate da robot e l’intervento degli esseri umani è concentrato sulla progettazione e sul controllo del buon funzionamento delle macchine. Gli stabilimenti principali si trovano a Taiwan, e rappresentano il modello della Grande Trasformazione che ha investito l’Asia negli ultimi decenni – a giudizio di Aresu, più ampia e più radicale di quella che Polanyi ha descritto nell’Europa del XVIII-XIX secolo. La manifattura rappresenta ancora l’asse portante del sistema culturale, scientifico e politico del mondo; ma i settori strategici sono cambiati, così come le modalità di organizzazione del lavoro e la distribuzione geografica delle aree più avanzate. L’Europa ha abdicato da tempo a qualunque ruolo di primo piano: non è in grado di interpretare lo spirito del tempo, di identificare le industry su cui investire e i volumi di capitale necessari per la competizione su terreni come transistor, robotica, I.A. – e non è nemmeno capace di regolarle, dal momento che non ne ha alcuna comprensione reale. Il tentativo eroico di Angelo Dalle Molle e del suo istituto IDSIA a Lugano, o la permanenza di DeepMind a Londra, sono eccezioni da cui si evince solo che, senza l’intervento dei capitali americani, le poche operazioni di eccellenza del Vecchio Continente sono destinate alla marginalità.
Taiwan si trova al centro della rivoluzione tecnologica dell’Asia Orientale: il modello di organizzazione delle fabbriche allestite sull’isola non è riproducibile negli USA, dove tempi di messa a punto e di tassi di produttività non riescono a tenere il passo della madrepatria. Dai chip stampati a Formosa dipende lo sviluppo dell’automazione sia americana, sia cinese: l’interruzione del processo di globalizzazione, e l’introduzione delle logiche di friendshoring da parte di Washington e di Pechino, collocano le imprese taiwanesi sul tracciato del confine geopolitico, con l’obbligo di rinuncia a quasi metà del fatturato per schierarsi dalla parte della sicurezza nazionale di cui sono tributari i clienti maggiori.
La stessa linea di confine, e le stesse criticità, attraversano società nate e cresciute in pieno territorio americano, come NVIDIA, Intel o AMD, che realizzano l’hardware indispensabile per lo sviluppo di tutti i settori, dai videogame alla ricerca sulle molecole proteiche. Il comparto privato dell’industria, la ricerca avanzata in campo fisico, chimico, biologico, sono il teatro stesso della storia politica successiva all’interruzione del processo di globalizzazione, con l’incertezza sugli ambiti decisivi in uno scenario bellico – ora che la guerra si può manifestare anche come sabotaggio nei sistemi di controllo delle centrali nucleari, negli apparati informatici di funzionamento delle borse, delle transazioni commerciali di ogni genere, degli archivi pubblici, delle infrastrutture, della mobilità, persino delle lampadine e dei termostati nelle case «intelligenti». Secondo Carl Schmitt la dimensione della politica si può riassumere nella decisione su chi è il nemico; quella della tecnologia stabilisce se l’amico può godersi il caldo del divano nelle sere di inverno, e con cosa può distrarsi sul suo cellulare o con la smart TV. Ma anche nella quotidianità estranea alla deflagrazioni militari, la capacità del blocco cinese di riversare sul mercato prodotti di tutti i settori industriali, con un livello qualitativo paragonabile a quello occidentale (se non migliore, come nel caso delle automobili della BYD), e ad un prezzo inferiore, equivale ad un sovvertimento degli equilibri commerciali e di potere ereditati dalla seconda metà del XX secolo: sul divano di casa, quando l’amico scorre le notizie del giorno le compulsa con la maschera di smarrimento alla Buster Keaton.
3 LA RIVOLTA DI ATLANTE
Morris Chang sottolinea nelle interviste che la crescita di TSMC è stata resa possibile dalle politiche di gestione del personale umano negli impianti di Taiwan. Ingegneri e tecnici non possono iscriversi ad alcun sindacato, accedono agli spazi di lavoro il lunedì mattina, vivono e pernottano nelle aree aziendali fino al venerdì sera, quando possono rientare a casa per il fine settimana – purché non sia sopraggiunta qualche emergenza, la cui soluzione richieda la loro presenza in ufficio anche il sabato e la domenica. In ogni caso, la loro disponibilità a raggiungere la sede della fabbrica non prevede limiti di tempo e di orario, perché se una crisi dovesse verificarsi alle due di notte del sabato, l’ingegnere TSMC risponde al telefono, saluta la moglie e parte per la sua missione salvifica all’interno delle pareti della fabbrica.
Solo con questi metodi di devozione medievale all’impresa è possibile obbedire ai ritmi di crescita della Legge di Huang; ed è per questo che anche NVIDIA, Tesla e gli altri stabilimenti di Musk, non ammettono la sindacalizzazione dei dipendenti. Alla maschera di sconcerto di Buster Keaton con cui il lettore accoglie queste informazioni, Aresu aggiunge altri motivi di turbamento, approvando la denuncia di Morris Chang contro il freno allo sviluppo che si deve scontare negli USA, per le limitazioni imposte allo sfruttamento della manodopera, e per il favore accordato all’inseguimento del modello taiwanese da parte dei fondatori delle società nella Silicon Valley. Dalla (giusta) critica nei confronti dell’ignoranza con cui i politici affrontano le questioni del progresso tecnologico e della civiltà digitale, alla giustificazione del turbine insensato del capitalismo contemporaneo e della sua tirannia sociale, il passo è breve. Anche i lettori di Cacciari accolgono questo slittamento nel testo di Aresu con lo smarrimento di Buster Keaton, perché per il filosofo la tensione tra tecnica e politica non può mai risolversi in un lavoro di amministrazione burocratica delle esigenze del profitto economico.
In Aresu la constatazione che la corsa verso l’incremento della potenza di calcolo è sempre più forsennata in tutto il mondo, e che la sfida tra blocco occidentale e blocco cinese si recita sulla scena dell’avanzamento tecnologico, non viene bilanciata dalla domanda: a quale scopo? La fuga in avanti degli eroi che Aresu glorifica nel suo testo, con un peana che è un tributo ad Ayn Rand più che a Cacciari, finisce per precipitare il mondo in un divenire senza avvenire, nella corsa senza fine di un futuro senza un fine. Geoffrey Hinton si è ritirato da Google nel 2023 sottoponendo a dure critiche il modello di intelligenza artificiale che lui stesso ha contribuito a sviluppare, con la delusione di aver mancato l’obiettivo di conoscere il funzionamento del cervello umano; Demis Hassabis ha vinto il Premio Nobel per la chimica rimanendo in Europa, e utilizzando qui l’I.A. sviluppata in DeepMind. L’emergenza di un significato, o il fallimento della sua ricerca, non obbediscono alla geografia di Aresu, e per la verità non sembrano obbedire ad alcuna regola. L’Autore rimprovera i politici di impedire la libera circolazione dei capitali, dei cervelli e delle idee, frammentando il mondo lungo i confini della sicurezza nazionale; e in effetti senza le GPU di Huang è impossibile avviare progetti di ricerca scientifica o di progettazione tecnologica che aspirino ad un interesse universale. Ma la pressione dell’utilità commerciale conduce a risultati che sono davvero interessanti? Il mondo con l’onnipervasività degli smartphone, del cloud, e ora dell’I.A. – che solo pochi anni fa non è stata in grado di evitare la terapia medievale del lockdown contro un virus che ha contribuito a smistare per i quattro angoli del pianeta – è davvero il luogo in cui vorremmo vivere? L’abrogazione della separazione tra lavoro e tempo libero, la proibizione delle pause nella reperibilità, l’esposizione allo scivolamento nella depressione che è endemica nella «società della stanchezza», sono un prezzo che siamo disposti ad accettare per conversare con ChatGPT?
Non dovrebbe la politica poter decidere su questo?
BIBLIOGRAFIA
Aresu, Alessandro, Geopolitica dell’intelligenza artificiale, Feltrinelli, Milano 2024.
Cacciari, Massimo, Il lavoro dello spirito. Saggio su Max Weber, Adelphi, Milano 2020.
Han, Byung-Chul, Mudigkeitsgesellschaft – Burnoutgesellschaft – Hoch-Zeit, Matthes&Seitz, Berlino 2010.
Kurzweil, Ray, The Age of Spiritual Machines: When Computers Exceed Human Intelligence, Viking Press, New York 1999.
Polanyi, Karl, The Great Transformation, Ferrar&Rinehart, New York 1944.
Schmitt, Carl, Der Begriff des Politischen, Duncker & Humblot Verlagsbuchhandlung, Berlino 1932.
Intelligenza artificiale e creatività - Terza parte: un lapsus della storia
Nei mesi scorsi abbiamo iniziato una riflessione sul rapporto tra processo creativo e Intelligenza artificiale (Intelligenza artificiale e creatività – I punti di vista di tre addetti ai lavori, 10/09/2024, e Intelligenza artificiale e creatività – Seconda parte: c’è differenza tra i pennelli e l’I.A.?, 17/12/2024), riflessione che si è sviluppata grazie ai contributi di Matteo Donolato - Laureando in Scienze Filosofiche, professore e grafico di Controversie (usando l’I.A.); Paolo Bottazzini - Epistemologo, professionista del settore dei media digitali e esperto di Intelligenza Artificiale; Diego Randazzo e Aleksander Veliscek - Artisti visivi.
Riflessioni che ruotavano attorno alla domanda se le immagini prodotte dall’IA, pur partendo da un input umano, si possano considerare arte.
A completamento di quelle riflessioni, interviene ancora Paolo Bottazzini per disegnare degli scenari futuri che mettono in discussione il concetto di arte come lo conosciamo oggi.
Tutto è in discussione… buona lettura!
---------
Credo che, quando definiamo l’I.A. uno strumento nelle mani dell’artista non dobbiamo cadere nell’ingenuità di ridurre il ruolo del dispositivo a quello di un mezzo trasparente, un utensile che trasferisca in modo neutrale nella materia sensibile un contenuto già compiuto nella mente dell’agente umano. Spetta di sicuro al soggetto che elabora il prompt offrire l’impulso della creazione, attraverso la formulazione della domanda, e tramite la selezione dei risultati che possono essere accolti come utili. Tuttavia, il software introduce elementi che influiscono sia sulle modalità creative, sia sui processi più o meno inconsapevoli di invenzione del prompt.
Benjamin, nella fase pionieristica del cinema, suggeriva che la macchina da presa e il formato del film ci avrebbero permesso di scorgere qualcosa che altrimenti sarebbe rimasto invisibile nell’inconscio dei nostri movimenti; intuiva che lo scatto della fotografia nella sua autenticità sarebbe sempre stato l’inquadratura della scena di un delitto, e che nella sua deviazione di massa avrebbe inaugurato l’epoca del Kitsch.
Elizabeth Eisenstein ha dimostrato che la stampa a caratteri mobili ha contribuito alla nascita di una cultura che vedeva nel futuro una prospettiva di miglioramento progressivo dell’uomo – mentre la copia a mano dei libri nel periodo precedente, con l’aggiunta di errori ad ogni nuova riproduzione, aveva alimentato una visione del mondo in cui l’origine è la sede della verità, e la storia un cammino inesorabile di decadenza. Credo che il compito della critica filosofica e sociologica dovrebbe ora essere quello di comprendere quale sia la prospettiva di verità e di visibilità, o di disvelamento, che viene inaugurata con l’I.A..
In questo momento aurorale dell’uso delle reti neurali possiamo sapere che il loro talento consiste nel rintracciare pattern di strutture percettive nelle opere depositate negli archivi, che in gran parte sono sfuggiti ai canoni proposti negli insegnamenti dell’Accademia. L’I.A. non sviluppa nuovi paradigmi, o letture inedite di ciò che freme nello spirito del nostro tempo, ma è in grado di scoprire ciò che abbiamo riposto nel repertorio del passato, senza esserne consapevoli: rintraccia quello che gli autori non sanno di aver espresso con il loro lavoro. La metafora dell’inconscio adottata da Benjamin sembra quindi essere adeguata a descrivere quello che il lavoro dei software riesce a portare alla luce: in questo caso però il rimosso appartiene al corpus delle opere che scandiscono la tradizione estetica, da cui viene lasciato emergere ciò che vi è di latente, cancellato, rifiutato, dimenticato.
La possibilità di far redigere a chatGPT un testo nello stile di Foscolo o di Leopardi, o di chiedere a Midjourney di raffigurare un’immagine alla maniera di Monet, o di renderla con l’estro dei cubisti, o di mimare Caravaggio, Raffaello, Leonardo, conduce alla produzione di una specie di lapsus della storia dell’arte – qualcosa che l’autore invocato avrebbe potuto creare, o i suoi discepoli, ma che non è mai esistito.
Qual è lo statuto ontologico ed estetico di questo balbettio della tradizione, di questa eco di ciò che dovrebbe essere unico, e che invece resuscita in un sosia, ritorna nello spettro di un doppio scandaloso? Kant insegna che l’idea estetica è definita dal fatto di essere l’unica rappresentazione possibile di un’idea universale: il gesto produttivo dell’I.A. viola questo assunto che si trova alla radice di gran parte delle teorie dell’arte moderne e contemporanee.
Stiamo allora abbandonando per sempre la concezione dell’arte come creazione del genio, come gesto unico e non riproducibile dell’artista? Dobbiamo rivedere la prospettiva monumentale che l’Occidente ha coltivato dell’arte, per avvicinarci alla sensibilità del gesto nella sua infinita riproducibilità, sempre uguale e sempre differente, che appartiene alla tradizione orientale? O forse, l’attenzione con cui la possibilità di variare, di giocare con la latenza e il rimosso, avvicina l’arte ad un’esperienza quasi scientifica di osservazione e di scoperta, alla trepidazione e al timore (che sempre accompagnano il ritorno del trauma, la ricomparsa sulla scena del delitto) di mostrare lo schematismo di ciò che scatena l’emozione, di esibire i segni che suscitano la reputazione di verità, di configurare l’allestimento in cui avviene la recita di ciò che riconosciamo come bello e giusto.
Qualunque sia la soluzione che si verificherà nella prassi dei prossimi anni, se l’I.A. diventerà un dispositivo protagonista dell’attività creativa nelle mani degli artisti di professione e in quelle del pubblico generalista, e non si limiterà a rappresentare una moda passeggera, il suo impatto sarà destinato a introdurre un processo di ri-mediazione sulle forme espressive dell’arte e anche sui mezzi di comunicazione in senso ampio. Allo stesso modo, oltre un secolo e mezzo fa, la fotografia ha trasformato le modalità creative della pittura e delle arti plastiche, liberandole dalla fedeltà mimetica al loro soggetto e inaugurando percorsi di indagine che contrassegnano l’epoca moderna. Tutti i media subiranno una ristrutturazione che ne modificherà la destinazione, e le attese da parte del pubblico, con una nuova dislocazione della loro funzione comunicativa, laddove l’immediatezza documentaristica è minacciata dalle deep fake, la meccanicità della produzione di cronaca è coperta dalle I.A. generative trasformative, l’esercizio di riflessione sugli stili del passato è coperto dalla ricognizione dei pattern dalle reti neurali.
C’è molto spazio per la sperimentazione!
Harari e il tradimento degli intellettuali - Il darwinismo algoritmico in Nexus
1. ROVESCI
Uno dei colpi di scena più riusciti della saga di Star Wars è il momento in cui il protagonista, Luke Skywalker, scopre di essere figlio dell’antagonista malvagio, Darth Vader. I modelli della fantascienza devono essere presi molto sul serio, perché gran parte dei personaggi più influenti della Silicon Valley tendono a progettare le loro piattaforme, e persino a immaginare il futuro dell’umanità, ricalcandole sui contenuti dei film, delle serie e dei romanzi che hanno dominato la loro eterna adolescenza da nerd: Larry Page e Sundar Pichai (ex e attuale CEO di Google) hanno dichiarato a più riprese che l’obiettivo del loro motore di ricerca è emulare il computer di bordo dell’Enterprise della serie Star Trek.
Ad evocare il dramma dell’agnizione di Luke Skywalker questa volta però non è il fondatore di qualche impresa miliardaria nell’area di San Francisco Bay, ma il volume appena pubblicato da uno degli esponenti più stimati del pensiero liberal, molto amato dalla sinistra americana e internazionale, Yuval Noah Harari. Nexus riepiloga e approfondisce le riflessioni che l’autore ha elaborato a partire da Homo Deus (uscito nel 2016) sul futuro della nostra specie.
Gli assunti con cui Harari inquadra la condizione umana potrebbero essere stati redatti da un ideologo del transumanesimo tanto di moda nella Silicon Valley, come Ray Kurzweil. Qualunque animale, e noi non facciamo eccezione, può essere descritto come una macchina, riducibile a dinamiche fisiche e chimiche, e a strutture comportamentali dettate da algoritmi. La coscienza, la soggettività, la felicità e lo sconforto, sono l’esito di reazioni tra molecole, e possono quindi essere eccitati o sedati da pastiglie che la ricerca scientifica renderà sempre più efficaci. Le indagini di uno dei più grandi divulgatori della realtà clinica e culturale della depressione, Andrew Salomon, contraddicono la baldanza farmacologica di Harari, insistendo sullo strano anello che si instaura tra la fisiologia, gli eventi della vita, e qualcosa di nebuloso e profondo che è identico, ma allo stesso tempo si oppone, alla chiarezza di biologia e biografia.
Nexus non è interessato a questo genere di sottigliezze, dal momento che il percorso della storia è stato tratteggiato nella sua regola generale già un paio di libri fa: al termine del Medioevo l’uomo ha rinunciato al senso dell’universo, preferendogli il potere di programmarlo a proprio piacimento. Le religioni consegnavano ai nostri antenati una posizione centrale nel cosmo e un significato per la vita degli individui e per le comunità – ma pretendevano in cambio l’obbedienza a valori e norme fondate su un’autorità intransigente. L’emancipazione da ogni forma di trascendenza, e dalle sue declinazioni nelle istituzioni politiche e culturali, ha inaugurato un percorso in cui la scienza e la tecnologia sono arrivate a sovrapporsi e a coincidere, per convertire il mondo in un serbatoio di risorse a disposizione della felicità degli uomini. Purtroppo, la farmacopea è solo il simbolo di questa trasformazione, dal momento che la dissoluzione dell’aura sacra che avvolgeva la natura alimenta l’industria delle sostanze psicotrope, ma non offre alcuna indicazione sullo scopo della nostra vita. Possiamo fare tutto liberamente, ma non abbiamo più una ragione per fare qualcosa.
2. ALGORITMI
Quando i significati iscritti nel creato dileguano, il loro posto viene occupato dall’informazione, che si assume il compito di esprimere l’essenza del meccanismo cui sono ridotti gli esseri viventi e le loro società. L’opposizione tra democrazia e totalitarismo, che ricalca la distinzione tra mondo liberale e paesi comunisti, può essere ricondotta nella sua sostanza alla differenza morfologica tra sistemi di comunicazione. La dittatura, e il socialismo, sono configurazioni sociali in cui l’informazione è centralizzata, e irradia da un punto focale che identifica il leader, o l’élite burocratica dello stato. Al contrario la democrazia, e la dottrina liberale, prediligono una forma decentrata di circolazione dell’informazione, che abilita la nascita di molti poli di accesso alle notizie e di molti livelli di elaborazione, decisione, riproduzione dei dati e della conoscenza. L’informazione è l’asset che stabilisce relazioni tra elementi, parti, individui, gruppi: la ricostruzione dei suoi percorsi permette di disegnare le reti in cui si sintetizzano i composti nella dimensione fisica e chimica, prendono vita i processi biologici negli individui, si costituiscono le comunità nel mondo sociale e si dipanano i sentieri della storia. Per questo la nozione di algoritmo diventa pervasiva, e Harari riepiloga il corso completo dell’evoluzione come un percorso di elaborazione di algoritmi sempre migliori, che trovano la sintesi più efficiente in quelli che compongono l’uomo. Questo vantaggio spiega l’ordine universale, che coincide con la conversione della natura e di tutti i suoi membri in una riserva di mezzi di cui possiamo disporre per la nostra utilità. La violenza che esercitiamo con la manipolazione tecnica non è motivata dall’ostilità contro particolari enti animati o inanimati, o dal bisogno di protezione, ma è l’esito della nostra indifferenza nei confronti di tutto quello che non può resistere alla trasformazione del mondo in un ambiente a misura della funzionalità antropologica. Un altro modo per esprimere questa condizione è il giudizio che la ristrutturazione del pianeta operata dagli algoritmi da cui è governato il comportamento degli uomini sia un processo ineluttabile, una necessità imposta dall’evoluzione naturale.
Le nozioni cui ricorre Harari annullano la separazione tra natura e tecnica. Informazione e algoritmi definiscono la struttura della realtà e le meccaniche del funzionamento di qualunque cosa, accomunando physis e techne in un’unica essenza e in un unico destino. Ma questa impostazione non può esimersi dal prevedere che nel momento in cui le prestazioni raggiunte dalle macchine supereranno le nostre, l’atteggiamento che i robot assumeranno nei nostri confronti applicherà le stesse logiche di utilità e indifferenza che noi abbiamo riservato ad animali e minerali. Il passaggio di questa soglia si chiama singolarità, e nella visione di Harari è talmente prossimo da dominare la valutazione della tecnologia che già oggi stiamo maneggiando. L’intelligenza artificiale guida l’autonomia dei dispositivi in cui si compie il salto evolutivo che segue e trascende quello della nostra specie, e che è destinato a sostituirci nel dominio del mondo: da vent’anni Ray Kurzweil ha insegnato a scandire le tappe che conducono al momento in cui i sistemi di calcolo raggiungeranno le facoltà di intuizione dell’uomo, e le travalicheranno con la corsa alla superintelligenza pronosticata e temuta da Nick Bostrom. Possiamo tentare di frenare, arginare, controllare lo sviluppo delle tecnologie digitali, ma Harari ci lascia presagire che in fondo si tratta di operazioni di retroguardia – e alla fine comunque un Darth Vader, nella forma di un Google o di un ChatGPT iper-evoluto, sciabolerà la sua spada laser in cloud e metterà fine alla resistenza della sopravanzata soggettività umana al di qua del monitor e della tastiera.
3. FINE DELLA STORIA
Elon Musk non avrebbe saputo costruire un’argomentazione migliore per giustificare la subordinazione della dimensione politica al neoliberismo tecnologico contemporaneo, e per affermare l’inesorabilità di questo processo. Pur avendo irriso per anni la tesi della fine della storia di Francis Fukuyama, l’élite di sinistra l’ha introiettata in fondo al proprio inconscio culturale, insieme alla convinzione che la globalizzazione del mercato – e i rottami di democrazia che l’accompagnano – siano la forma compiuta dello Spirito Oggettivo hegeliano nelle istituzioni umane. Harari mostra lo stato di completo disarmo concettuale in cui versa la classe intellettuale, che si proclama progressista, nei confronti delle narrazioni del «realismo capitalista» e del transumanesimo di stampo californiano. Oltre all’ingenuità con cui vengono trattati i temi della tecnologia, la questione dell’intelligenza artificiale forte, il rapporto tra biologia e coscienza – il nodo critico più preoccupante rimane il fatto che «è più facile immaginare la fine del mondo che la fine del capitalismo» nella sua versione priva di pensiero e di futuro, che caratterizza la civiltà contemporanea. Harari condivide con Margareth Thatcher la convinzione che «non ci sono alternative» allo smantellamento di qualunque percorso politico che non sia l’adattamento alla rapacità di dati e di ricchezze da parte dei monopolisti della Silicon Valley, e di qualunque prospettiva storica divergente dall’ideologia transumanista, che vede nella transustanziazione in una macchina l’apogeo dell’umanità.
Ma se alle fantasie del cyberpunk, alla comunità degli estropiani, e persino alla corsa verso la singolarità di Kurzweil, si può riconoscere la spontaneità e l’euforia di un movimento nerd che si reputa sempre adolescenziale e che perpetua acne e turbe puberali – sulla corazza dello scientismo di Harari grava il tradimento di un Darth Vader che avrebbe potuto, e avrebbe dovuto, ricorrere alle proprie risorse intellettuali per denunciare la clausura della narrazione tecnocapitalista, e cercare un percorso diverso. Invece si è consacrato al lato oscuro della banalità.
BIBLIOGRAFIA
Bostrom, Nick, Superintelligence: Paths, Dangers, Strategies, Oxford University Press, Oxford 2014.
Fisher, Mark, Capitalist Realism: Is There No Alternative?, John Hunt Publishing, Londra 2009.
Fukuyama, Francis, The End of History and the Last Man, Free Press, New York 1992.
Harari, Yuval Noah, Homo Deus: A Brief History of Tomorrow, Harvill Secker, Londra 2016.
-- Nexus: A Brief History of Information Networks from the Stone Age to AI, Random House, New York 2024.
Kurzweil, Ray, The Singularity Is Near: When Humans Transcend Biology, Viking Press, New York 2005.
O’Connell, Mark, To Be a Machine: Adventures Among Cyborgs, Utopians, Hackers, and the Futurists Solving the Modest Problem of Death, Granta Publications, Londra 2017
Solomon, Andrew, The Noonday Demon: An Atlas of Depression, Simon & Schuster, New York 2001.