Ontologie dell’Intelligenza Artificiale
Parlare di intelligenza artificiale senza ricadere nella trita contrapposizione tra la visione “apocalittica” e quella “integrata” (che possono ben coesistere, ne ho parlato qui) è uno dei compiti che Controversie sta perseguendo dalle prime uscite nell’ottobre del 2023, con più di 40 articoli a tema.
In questo percorso abbiamo lavorato sulla dimensione morale correlata all’utilizzo delle tecnologie intelligenti (e innovative, più in generale), sulla relazione tra I.A. e produzione artistica, sul suo uso bellico, su quello nelle aziende, sui bias culturali che riproduce dando loro una parvenza di oggettività, di I.A. e sovranismo, sulla possibile soggettività personale della macchine intelligenti e, infine, sullo sdoganamento nelle università.
Riteniamo, però, che sia opportuno anche prendere in considerazione la dimensione ontologica dell’intelligenza artificiale, cercare di mettere a terra “cos’è” la I.A..
Per farlo, utilizziamo, ma nello stesso tempo cerchiamo di andare oltre, le definizioni di ontologia più accreditate, come quella di un gigante delle tecnologie, la Oracle Corporation:
Perché andare oltre questa chiarissima definizione?
Ci sono numerose buone ragioni. Proviamo a focalizzarci su alcune:
- tentare di ridimensionare e depolarizzare i toni del dibattito che ferve intorno alla I.A., dibattito che troppo spesso prende la forma di una contrapposizione tra “integrati” e “apocalittici” (ne abbiamo parlato qui)
- comprendere meglio, grazie alla maggiore chiarezza su cos’è e che tipo di approccio adottare nella relazione con queste tecnologie
- cogliere chi e come siamo noi, umani, quando le progettiamo e le utilizziamo
- per stabilire delle scale di valori che ne guidino lo sviluppo e l’applicazione
- dare, quindi, un senso alla loro presenza nel mondo in cui viviamo.
Ora, proprio di ontologia delle I.A. parleremo nel corso della Tavola Rotonda “Ontologie dell’Intelligenza Artificiale” organizzata da Controversie per il giorno 11 giugno in Statale. Usiamo il plurale (le I.A.) perché non c’è una sola intelligenza artificiale ma si tratta di un fenomeno polimorfo, a partire dalle forme di Large Language Model più diffusi, come GPT, Gemini, LLaMA, Claude, per arrivare alle applicazioni verticali meno note quali, ad esempio, LucrezIA, sviluppata dall’Università di Padova anche per le attività didattiche (ne abbiamo parlato qui) –
Senza pensare di esaurire lo spazio delle forme ontologiche in cui si può presentare l’Intelligenza Artificiale, nel corso del dibattito:
- affronteremo il fatto che le I.A. sono dei programmi, delle sequenze di righe di codice, attraverso l’esame di un esempio prototipale della metà degli anni ’80, cogliendone la capacità di migliorarsi attraverso le informazioni raccolte (secondo la definizione di Oracle Corporation);
- vedremo la collocazione di questa pietra miliare nella filogenesi dei due principali paradigmi attuali di I.A. e nella ripartizione tra software più tradizionali, in cui lo sviluppatore inserisce esplicitamente tutte le regole di comportamento e reti neurali, che sono in grado di apprendere con vari metodi di training;
- cercheremo la possibilità di definire l’ontologia delle I.A. attraverso le sue applicazioni verticali, seguendo una traccia fenomenologica, analizzandone l’uso-per, in particolare per le applicazioni in campo medico;
- adotteremo una prospettiva di analisi più ludica che permette di caratterizzare cos’è la I.A. attraverso lo studio dell’utopia nell'immaginario della fantascienza sullo schermo e nei fumetti;
- studieremo, infine, una meta-dimensione della questione che suggerisce di interpretare la I.A., più che come soggetto, come ambiente cognitivo che definisce, modella, deforma l’ontologia dell’umano.
In questo percorso ci addentreremo anche in questioni delicate sulle proprietà delle ontologie delle I.A., tra le quali la possibilità che possano essere in qualche modo coscienti.
Quale verità? L'intelligenza artificiale e lo smarrimento epistemico
UNA NUOVA SFIDA PER LA CONOSCENZA - PREMESSA METODOLOGICA
Questo articolo inaugura una serie di approfondimenti sull'impatto dell'intelligenza artificiale sui nostri sistemi di conoscenza. Il tema è troppo vasto per essere esaurito in un solo testo, e troppo importante per essere trattato superficialmente. In questa prima parte, propongo il concetto di "smarrimento epistemico" come chiave interpretativa generale. Nei prossimi articoli, scenderò nel dettaglio di questioni specifiche. Come ad esempio:
- i meccanismi linguistici dei modelli generativi e le implicazioni cognitive nonché il tema della fiducia nella conoscenza e i suoi metodi
- le implicazioni umane e concrete nei settori professionali (commercio, media, diritto, educazione, etc.)
- le risposte normative, educative e pragmatiche che stiamo sperimentando
CHE COS'È LA CONOSCENZA QUANDO TUTTO PUÒ ESSERE SIMULATO?
La conoscenza può assumere forme diverse: sperimentale, narrativa, deduttiva, esperienziale. In ambito accademico scientifico, il metodo scientifico rappresenta in realtà soltanto un elemento. Questo perché, in definitiva, il gold standard conoscitivo potrebbe essere non una singola metodologia, ma la capacità di scegliere il metodo più appropriato al dominio in studio. E per rigore scientifico e intellettuale, richiede anche la capacità di rimanere aperti, in maniera trasparente, alla correzione e alla revisione costante. Non c’è una scienza, ma ci sono le “scienze”.
Ma cosa succede quando l'intelligenza artificiale non si limita a offrirci nuovi strumenti, ma inizia a riconfigurare le infrastrutture stesse attraverso cui produciamo, trasmettiamo e valutiamo la conoscenza? È qui che si gioca la partita epistemologica del nostro tempo.
QUANDO L'APPARENZA INGANNA: IL CASO DELL'AVVOCATO E DELLE SENTENZE FANTASMA
Nel 2023, l'avvocato Steven Schwartz si è trovato protagonista di una vicenda che oggi considero emblematica. Ha presentato alla Corte di New York una serie di citazioni giuridiche generate da ChatGPT. Apparivano perfette: coerenza formale impeccabile, riferimenti precisi, linguaggio tecnico inappuntabile. Il problema? Erano completamente inventate. Sentenze mai esistite, casi mai accaduti, dottrine giuridiche nate dalla fantasia algoritmica.
Non si trattava solo di un errore tecnico. Quello che è emerso è qualcosa di più inquietante: l'erosione della relazione tradizionale tra forma e verità. La credibilità linguistica non coincide più con l'autenticità dei contenuti. È una trasformazione che tocca il cuore di come attribuiamo fiducia alle informazioni che riceviamo.
L'EROSIONE DELLA FIDUCIA: QUANDO DUBITIAMO DI TUTTO
La ricerca in psicologia sociale ci ha insegnato che la nostra fiducia in un contenuto non dipende solo dalla sua forma, ma dalla fiducia nell'infrastruttura che lo produce. Quando leggiamo un articolo su una rivista scientifica, la nostra valutazione si basa anche sulla reputazione della rivista, sul processo di peer review, sull'autorevolezza dell'autore.
Oggi, istituzioni come giornali, università e tribunali stanno iniziando a integrare sistemi di generazione automatica nei loro processi. Questo non mette sotto pressione solo la qualità dei contenuti, ma le infrastrutture stesse della conoscenza che abbiamo costruito nei secoli.
Il vero problema non è che l'IA possa generare errori o falsità. Dopotutto questo succede anche a noi esseri umani. Il punto è un altro: la contaminazione retroattiva della fiducia. Quando scopriamo che anche contenuti apparentemente perfetti possono essere sintetici, iniziamo inevitabilmente a dubitare anche di quelli autentici.
Questa è la distinzione cruciale tra semplice disinformazione (che presuppone comunque la possibilità di smascherare il falso) e quello che propongo di chiamare “smarrimento epistemico”: la perdita progressiva degli strumenti stessi per distinguere il vero dal falso. E se il falso è causato dall’utilizzo dell’IA, chi è responsabile?
OLTRE LE SOLUZIONI TECNICHE
Watermarking digitale, fact-checking potenziato, regolamenti come l'AI Act europeo: sono tutti strumenti utili, ma non risolvono il problema epistemico di fondo. Il watermarking può essere aggirato con relativa facilità, il fact-checking è strutturalmente troppo lento rispetto alla velocità di produzione dei contenuti artificiali, le norme si concentrano sulla trasparenza formale senza affrontare il problema cognitivo.
Il cuore della questione è più profondo e più umano: che ruolo vogliamo assegnare all'essere umano nel processo di conoscenza? Cosa resta dell'esperienza vissuta, dell'intuizione coltivata, del giudizio critico formato nel tempo, se la forma può essere perfettamente automatizzata e l'autenticità è sempre in dubbio?
TRE SFIDE PER NAVIGARE IL PRESENTE
Come società, stiamo imparando a vivere in un mondo dove l'aspetto di un contenuto non garantisce più né la sua origine né la sua veridicità. Questo ci pone di fronte a tre sfide interconnesse:
A livello individuale: dobbiamo sviluppare una nuova alfabetizzazione critica, capace di riconoscere i pattern tipici della generazione artificiale senza cadere nella paranoia generalizzata. L’individuo è poi chiamato a sviluppare nuove skill, nuovi orizzonti formativi e una coscienza maggiore della propria umanità.
A livello istituzionale: università, media, sistemi giudiziari devono ridefinire i loro processi di validazione della conoscenza, trovando equilibri inediti tra efficienza, autenticità e fini ultimi.
A livello civile: lo smarrimento epistemico si manifesta come crisi dei riferimenti condivisi. Non è solo il singolo a disorientarsi, ma l’intero tessuto sociale a perdere coerenza nella produzione, circolazione e riconoscimento della conoscenza. Dibattiti pubblici basati su fonti inesistenti, polarizzazioni alimentate da contenuti artificiali credibili, l’equivalenza apparente tra opinioni e dati verificati: tutto questo erode la possibilità stessa di una società civile.
Difendere la qualità della conoscenza non è solo un compito accademico, ma una necessità democratica. Perché senza linguaggi condivisi, criteri minimi di verifica e fiducia epistemica reciproca, si rischia una frammentazione culturale senza precedenti. In altre parole, non solo i conflitti d’interesse o le inclinazioni politiche alterano ricerca o risultati scientifici, ora i bias diventano inesplorabili e dettati da algoritmi.
PROSPETTIVE PER IL FUTURO CHE STIAMO COSTRUENDO
Non possiamo permetterci di limitarci a "correggere lungo il cammino". Serve una leadership consapevole, a tutti i livelli: individuale, istituzionale, sociale, economica. L'intelligenza artificiale rappresenta probabilmente la più grande trasformazione epistemologica dalla nascita della stampa, e forse anche di più.
In futuro, la conoscenza dipenderà dalla nostra capacità di sviluppare nuove forme di discernimento critico, mantenendo vivo il valore insostituibile dell'intelligenza e dell'esperienza umana in un ecosistema informativo sempre più ibrido.
La sfida non è tecnologica: è profondamente umana. È una sfida fatta d’invisibile, che si vince con domande che aprono orizzonti e intuizioni di ciò che non è ancora, e forse mai sarà, codificabile o “scaricabile”.
Io studio e le infinite connessioni tra conoscenza, coscienza e umanità diverranno sempre più importanti.
Quali domande nel tuo ambito rimarranno profondamente umane?
---
Nei prossimi articoli di questa serie, approfondirò le questioni tecniche e settoriali accennate qui. Invito lettori ed esperti a contribuire al dibattito: solo attraverso un confronto aperto potremo sviluppare approcci adeguati a questa enorme sfida storica per tutta l’umanità.
BIBLIOGRAFIA
Bender, E. M., Gebru, T., McMillan-Major, A., & Shmitchell, S. (2021). On the dangers of stochastic parrots: Can language models be too big? Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency (FAccT), 610–623. https://doi.org/10.1145/3442188.3445922
Feizi, S., Saberi, A., Rezaei, A., Sadasivan, S., Kumar, A., Chegini, S., & Wang, D. (2023). Robustness of AI-Image Detectors: Fundamental Limits and Practical Attacks. arXiv preprint. https://arxiv.org/abs/2310.00076
Graves, L. (2016). Deciding What’s True: The Rise of Political Fact-Checking in American Journalism. New York: Columbia University Press.
Nemecek, J., Jiang, X., & Ayday, E. (2025). Watermarking Without Standards Is Not AI Governance. arXiv preprint. https://arxiv.org/abs/2505.13842
Pang, L., Hu, C., Zheng, Y., & Smith, R. (2024). No Free Lunch in LLM Watermarking: Trade-offs in Watermarking Design Choices. arXiv preprint. https://arxiv.org/abs/2402.16187
European Commission. (2021). Proposal for a Regulation Laying Down Harmonised Rules on Artificial Intelligence (Artificial Intelligence Act), COM (2021) 206 final. https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX:52021PC0206
Prodotti da forno intelligenti? – Una nuova forma di ibridazione
Di recente, un’azienda di comunicazione ha reso nota un’esperienza di uso ibrido tra intuizione umana e capacità dell’intelligenza artificiale. L’azienda è stata incaricata da un cliente di sviluppare un nuovo prodotto nella linea dei prodotti da forno salati.
Va ricordato che nel marketing, quando si parla di prodotto si intende – come minimo - la combinazione tra prodotto fisico (in questo caso, quello che si mangia), prezzo, posizionamento, packaging e immagine visuale.
Per realizzare questa operazione, l’agenzia ha avviato una ricerca sensoriale con giudici umani professionisti, coinvolgendo anche consumatori e community online di potenziali consumatori, che hanno definito le caratteristiche di sapore, consistenza e dimensioni, del prodotto fisico.
Poi, utilizzando le informazioni raccolte, ha chiesto a un sistema di Intelligenza Artificiale di generare dei visual evocativi che rappresentassero le caratteristiche desiderate del prodotto. Queste immagini hanno dato input a designer e addetti al marketing per sviluppare la dimensione di immagine e packaging del prodotto, da proporre al cliente.
Il risultato, il prodotto che sarà proposto sul mercato, costituito dalle diverse componenti, sembra essere, quindi, un ibrido tra creatività umana e lavoro di analisi e di sintesi svolto da una macchina.
Questo processo sinergico uomo-macchina sembra aver amplificato la creatività umana e pone la consueta domanda: il ruolo dell’ingegno umano è insostituibile? La IA può concepire modi di pensare differenti – magari non migliori ma sicuramente alieni - da quelli possibili per un umano? Grazie alle macchine intelligenti, può estendere il concetto stesso di creatività?
Proviamo a fare una prima razionalizzazione di questo tipo di approccio ibrido:
- In un processo di brainstorming, ogni partecipante espone la sua personale idea dell’argomento. Quando le idee sono esaurite, si fa un compendio delle possibili soluzioni reali. Al termine, si sceglie una o più di una per essere approfondite e una per essere sviluppata.
- Se Inseriamo la I.A. nel processo, questa può essere ennesimo partecipante che avanza una sua proposta, nata – evidentemente dai dettagli o dalle omissioni delle altre.
- Al termine del processo, la I.A. può fare il compendio di tutte le proposte e restituirlo all’umano, che lo rielaborerà con il suo pensiero e stile personale.
Se intensifichiamo l’ibridazione, possiamo immaginare che la I.A. generi – sulla base della conoscenza acquisita – anche un compendio completo di esempi, fatti e contraddittorio, mantenendo un “tono di voce” nello stesso tempo riflessivo e inclusivo. L’umano potrà, poi, personalizzare questo compendio secondo la propria sensibilità e stile.
Questo modello di approccio unirebbe la velocità della I.A. alla profondità della riflessione umana, favorendo la naturale tendenza umana a risparmiare energia come strategia di sopravvivenza. Alla IA si può affidare il compito più gravoso, tenere traccia e organizzare i contenuti, che svolgerà velocemente. L’uomo può ri-elaborare i contenuti con il proprio tocco personale.
Il risultato finale si può considerare una soluzione accettabile? Potremmo chiederlo all’umano e alla macchina, reiterando il processo fino a quando l’umano risponde positivamente.
Come può essere definita la forma intellettuale del risultato? Ci sarebbe arrivato comunque l’uomo? Ci sarebbe arrivata la macchina tra i suoi scenari possibili attingendo allo scibile a sua disposizione?
Di fatto, sembra assodato che l’ingegno umano sia caratterizzato dalla capacità di pensare in modo critico, di immaginare nuove possibilità e di trovare soluzioni non convenzionali ai problemi.
Queste qualità sono difficili da replicare completamente con la tecnologia, anche con i progressi dell’intelligenza artificiale. Questa può analizzare grandi quantità di dati e identificare modelli, ma – per ora - manca di intuizione e di pensiero laterale.
Inoltre, l’ingegno umano è spesso guidato da emozioni, esperienze personali e valori culturali, elementi che la tecnologia non può replicare completamente.
Un prodotto sviluppato congiuntamente da umano e I.A. può essere considerato – a nostro parere - una nuova tipologia di prodotto, poiché rappresenta una fusione delle capacità uniche di entrambi, e neutralizzare felicemente la tensione tra le visioni apocalittica e integrata di queste nuove tecnologie.
Il Golem, il capro espiatorio e altri gattopardi - Vale la pena di giocare a «Algoritmo libera tutti»?
1. ALGORITMI
Nel subcontinente indiano si celebra l’Agnicayana, il più antico rituale documentato nel mondo ad essere ancora praticato: consiste nella costruzione dell’altare Syenaciti, a forma di falco, che celebra la ricomposizione del corpo del dio primordiale Prajapati dopo la creazione del mondo – fatica da cui è uscito letteralmente a pezzi. La modalità di costruzione dell’altare è complessa, è prescritta da un algoritmo, ed è scandita da un mantra che accompagnano la posa delle pietre. Paolo Zellini riferisce che nelle civiltà della Mesopotamia e dell’India le conoscenze matematiche, l’organizzazione sociale, le pratiche religiose, erano governate da schemi procedurali con una via di accesso al sapere alternativa alla formalizzazione logica – la via della dimostrazione assiomatico-deduttiva che appassionava i greci (1). Questa soluzione non ha permesso agli scribi del Vicino e del Medio Oriente di raggiungere l’univocità del concetto di numero, a partire dai numerali con cui gestivano le questioni nei vari contesti di applicazione: il sistema che organizzava le derrate di grano e di riso era diversa da quella che permetteva di contare i soldati, da quella che quantificava pecore e cavalli, da quella che misurava i debiti; ma ha permesso di evitare le difficoltà che i numeri irrazionali, e la relazione spigolosa della diagonale con il lato del quadrato, hanno suscitato nel mondo greco-romano.
L’algoritmo non è un’astrazione concettuale occidentale contemporanea, ma un dispositivo che emerge dalla cultura materiale, dalle procedure sociali di gestione del lavoro. L’etichetta proviene dal latino medievale, e si riferisce al metodo di calcolo con numeri posizionali descritto in un saggio di al-Kuwarizmi (andato perduto nella versione originale, ma conservato in due traduzioni latine). A partire dal XIII secolo il ricorso al metodo indiano di calcolo con cifre posizionali si diffonde in tutta Europa, soprattutto per la sua utilità in ambito commerciale: è di nuovo una pratica sociale a veicolare e a materializzarsi nel successo dell’algoritmo, iscrivendolo nella fioritura della nuova cultura urbana, e nel corpo delle relazioni costruite dai traffici della borghesia nascente (2).
Il calcolo posizionale insiste su matematica ed economia; ma qualunque sequenza di istruzioni che trasformino un certo materiale di partenza in un risultato finale, attraverso un numero finito di passi, (ognuno dei quali sia definito in modo abbastanza chiaro da non autorizzare interpretazioni variabili in modo arbitrario), è un algoritmo. Una ricetta di cucina, le istruzioni dell’Ikea, il meccanismo di lettura della scrittura alfabetica, sono esempi di algoritmi con cui possiamo avere più o meno dimestichezza (e fortuna). Gran parte della nostra esistenza si consuma nella frequentazione di procedure di questo tipo; la creatività, quando compare, può somigliare all’adattamento ingegnoso di una di loro, o alla combinazione inedita di pezzi di procedimenti diversi. Secondo alcuni teorici, come Ronald Burt, non si danno nemmeno casi del genere, ma solo importazioni di algoritmi da culture diverse, che i compatrioti ancora non conoscono, ma che possono digerire grazie ad adattamenti e traduzioni opportune (3).
In un articolo recente pubblicato su Controversie si è sostenuto che il rapporto tra algoritmi e esseri umani ha smesso di essere simmetrico e co-evolutivo, perché in qualche momento dell’epoca contemporanea la macchina si sarebbe sostituita ai suoi creatori, sarebbe diventata prescrittiva, avrebbe imposto griglie di interpretazione della realtà e avrebbe cominciato a procedere in modo autonomo a mettere in atto le proprie decisioni. Credo che una simile valutazione derivi da due sovrapposizioni implicite, ma la cui giustificazione comporta diversi problemi: la prima è quella che identifica gli algoritmi e le macchine, la seconda è quella che equipara il machine learning dei nostri giorni all’AGI, l’Intelligenza Artificiale Generale, capace di deliberazione e di cognizione come gli esseri umani.
2. PRIMO ASSUNTO
Non c’è dubbio sul fatto che gli automi siano messi in funzione da sequenze di istruzioni; ma questo destino non tocca solo a loro, perché gran parte dei comportamenti degli uomini non sono meno governati da algoritmi, appena mascherati da abitudini. Più le operazioni sono l’esito di un percorso di formazione culturale, più l’intervento delle direttive standardizzate diventa influente. Parlare una lingua, leggere, scrivere, dimostrare teoremi matematici, applicare metodi di analisi, giocare a scacchi o a calcio, sono esempi di addestramento in cui gli algoritmi sono stati interiorizzati e trasformati in gesti (che sembrano) spontanei. Adattando un brillante aforisma di Douglas Hofstadter (4) alla tecnologia dei nostri giorni, se ChatGPT potesse riferirci il proprio vissuto interiore, dichiarerebbe che le sue risposte nascono dalla creatività libera della sua anima.
Le lamentele che solleviamo contro gli algoritmi, quando gli effetti delle macchine contrastano con i nostri canoni morali, è paragonabile all’accusa che rivolgeremmo al libro di ricette se la nostra crostata di albicocche riuscisse malissimo. L’Artusi però non è responsabile del modo maldestro con cui ho connesso le sue istruzioni con gli algoritmi che prescrivono il modo di scegliere e maneggiare gli ingredienti, il modo di misurare le dosi, il modo di usare gli elettrodomestici della cucina: parlo per esperienza. Tanto meno è responsabile della mia decisione di cucinare una crostata di albicocche. Allo stesso modo, il software COMPAS che è stato adottato per collaborare con i giudici di Chicago non ha deciso in autonomia di discriminare tutte le minoranze etniche della città: la giurisprudenza su cui è avvenuto il training, che include l’archivio di tutte le sentenze locali e federali, è il deposito storico dei pregiudizi nei confronti di neri e diseredati. Il suo uso, che non è mai confluito nella pronuncia autonoma di verdetti, può anzi vantare il merito di aver portato alla luce del dibattito pubblico un’evidenza storica: generazioni di giudici, del tutto umani, hanno incorporato nel loro metodo di valutazione algoritmi ereditati dalla consuetudine, dall’appartenenza ad una classe sociale che perpetua se stessa, in cui questi preconcetti sono perdurati e si sono applicati in sentenze eseguite contro persone reali.
Allo stesso modo, non è il software The Studio a muovere guerra ai civili di Gaza: un’accusa di questo genere servirebbe a nascondere le responsabilità che devono essere imputate ai politici e ai militari che hanno deciso i massacri di questi mesi. Nello scenario del tutto fantascientifico in cui l’intelligenza artificiale avesse davvero selezionato gli obiettivi, e fosse stata in grado di organizzare le missioni di attacco (come viene descritto qui) – in realtà avrebbe ristretto gli attacchi ai soli obiettivi militari, con interventi chirurgici che avrebbero risparmiato gran parte degli effetti distruttivi della guerra. Purtroppo, in questo caso, l’AI non è in alcun modo capace di sostituirsi agli uomini, perché – a quanto si dichiara – i suoi obiettivi non sarebbero stati il genocidio, ma l’eliminazione di un justus hostis secondo le caratteristiche tradizionali dello spionaggio nello scontro bellico dichiarato. Il fatto che l’impostazione stessa del conflitto non sia mai stata tesa a battere un nemico, ma a sterminare dei terroristi, mostra che le intenzioni umane, erano ben diverse fin dall’inizio. Gli algoritmi selezionano mezzi e procedure per l’esecuzione di obiettivi, che sono sempre deliberati in altro luogo.
3. SECONDO ASSUNTO
Questa riflessione ci conduce alla seconda assunzione: tutto il software oggi è AI, e i dispositivi di deep learning sono in grado di maturare intenzioni, articolarle in decisioni autonome – e addirittura, in certe circostanze, avrebbero anche l’autorità istituzionale di coordinare uomini e mezzi per mandarle in esecuzione.
Basta smanettare un po’ con ChatGPT per liberarsi da questo timore. Le AI generative trasformative testuali sono meravigliosi programmi statistici, che calcolano quale sarà la parola che deve seguire quella appena stampata. Ad ogni nuovo lemma aggiunto nella frase, viene misurata la probabilità del termine successivo, secondo la distribuzione vettoriale dello spazio semantico ricavato dal corpus di testi di training. È la ragione per cui può accadere che ChatGPT descriva nelle sue risposte un libro che non esiste, ne fissi la data di pubblicazione nel 1995, e stabilisca che nel suo contenuto viene citato un testo stampato nel 2003, nonché descritta una partita di Go svolta nel 2017 (5). ChatGPT, Claude, DeepSeek, e tutta l’allegra famiglia delle intelligenze artificiali generative, non hanno la minima idea di quello che stanno dicendo – non hanno nemmeno idea di stare dicendo qualcosa. AlphaGo non sa cosa significhi vincere una partita a Go, non conosce il gusto del trionfo – tanto che pur riuscendo a vincere contro il campione di Go, non sa estendere le sue competenze ad altri giochi, se non ripartendo da zero con un nuovo training.
L’AI attuale è in grado di riconoscere pattern, e di valutate la probabilità nella correlazione tra gli elementi specifici di cui il software si occupa, senza essere in grado di passare tra segmenti diversi dell’esperienza, generalizzando o impiegando per analogia le conoscenze che ha acquistato, come invece fanno gli esseri umani. Comprensione dei contenuti, intenzioni, strategie, sono attribuite alla macchina da chi ne osserva i risultati, sulla base delle ben note norme conversazionali di Paul Grice (6). I software di AI dispongono dello stesso grado di coscienza, e della stessa capacità di deliberare intenzioni e stabilire valori, che anima il forno in cui tento di cucinare la mia crostata di albicocche.
Non vale la pena dilungarsi oltre, visto che di questo tema ho già parlato qui e qui.
4. GATTOPARDI
Nessuna tecnologia è neutrale: non lo è nemmeno l’AI. Ma la comprensione del modo in cui i software incrociano il destino della società implica un’analisi molto più dettagliata e articolata di una crociata generica contro algoritmi e macchine, dove la fabbricazione di altari, la preparazione di torte di albicocche, il comportamento di Palantir (ma anche quello di ChatGPT, di AlphaFold, di Trullion), possono finire nello stesso mucchio, a beneficio di una santificazione di un’umanità che sarebbe vittima delle manipolazioni di perfidi tecnologi. La ghettizzazione urbanistica in America, la soppressione dello Jus Publicum Europaeum (7) e la scomparsa del diritto internazionale dagli scenari di guerra (che infatti non viene più dichiarata: ne ho già parlato qui), sono problemi che vengono nascosti dal terrore di un Golem che non esiste, ma di cui si continua convocare lo spettro leggendario, questa volta nelle vesti di Intelligenza Artificiale. Quanto più si disconosce la suggestione di questa tradizione mitologica, tanto più se ne subisce inconsapevolmente il potere. È solo con un esame paziente delle condizioni di cui siamo eredi, spesso nostro malgrado, con l’analisi della complessità dei fattori che agiscono in ciascun problema sociale, e l’ammissione che non esiste un fuori dai dispositivi, che si può tentare un’evoluzione quanto più prossima ai nostri requisiti di libertà e di dignità; il processo sommario al Golem, la convocazione dell’algoritmo (!) come capro espiatorio di tutti i misfatti della modernità, per rivendicare il diritto di rigettare tutto e ripartire da zero, non è che un modo per pretendere che tutto cambi – perché tutto rimanga come prima.
BIBLIOGRAFIA
Burt, Ronald, Brokerage and Closure: An Introduction to Social Capital, Oxford University Press, Oxford 2007.
ChatGPT-4, Imito, dunque sono?, a cura di Paolo Bottazzini, Bietti Editore, Milano 2023.
Grice, Paul, Studies in the Way of Words, Harvard University Press, Cambridge 1986.
Hofstadter, Douglas, Gödel, Escher, Bach. Un'eterna ghirlanda brillante. Una fuga metaforica su menti e macchine nello spirito di Lewis Carroll, tr. it. a cura di Giuseppe Trautteur, Adelphi, Milano 1980.
Pasquinelli, Matteo, The Eye of the Master: A Social History of Artificial Intelligence, Verso Books, Londra 2023
Schmitt, Carl, Il nomos della terra nel diritto internazionale dello «Jus publicum europaeum», tr. it. a cura di Franco Volpi, Adelphi, Milano 1991.
Zellini, Paolo, Gnomon. Una indagine sul numero, Adelphi, Milano 1999.
Intelligenza artificiale e creatività – Quinta parte: la versatilità dell’artista
Prosegue il nostro dibattito su arte e intelligenza artificiale, una rubrica di Controversie pensata per riflettere sul rapporto tra questi due “mondi” e come essi si possano – o meno – intersecare: necessità antica la prima, recente tecnologia la seconda.
Indagine dopo indagine, abbiamo capito che questi due mondi, apparentemente distanti, hanno in realtà diversi punti in comune, pur mantenendo ognuno le proprie specificità e caratteristiche.
Qui gli articoli precedenti:
Intelligenza artificiale e creatività - I punti di vista di tre addetti ai lavori
Intelligenza artificiale e creatività - Seconda parte: c’è differenza tra i pennelli e l’IA?
Intelligenza artificiale e creatività - Terza parte: un lapsus della storia
Intelligenza artificiale e creatività – Quarta parte: stili e strategie
Nella nostra ricerca abbiamo trattato diversi argomenti ma, dallo scorso intervento, abbiamo iniziato una serie di riflessioni focalizzate sul concetto di stile e che partono da una domanda fondamentale: nell’epoca dell’I.A., qual è il destino dello stile? Di fronte a uno strumento che potenzialmente può copiare qualunque stile, la mano dell’artista scompare oppure si innova?
In questo contributo andiamo allora a chiacchierare con Mara Palena, un’artista che lavora con la fotografia, il video e il suono, e tratta temi quali la memoria e l’identità. Ecco, quindi, la sua risposta alla domanda che abbiamo ricordato sopra.
MARA: Credo che, così come in passato ci siano state copie, plagi o falsi di opere d’arte, ciò non abbia creato crisi gravi nel settore, se non confusione nella gestione, nella vendita e nella definizione dell’originalità. Oggi, più che mai, è fondamentale saper utilizzare i nuovi media e gli strumenti tecnologici in modo significativo.
Personalmente, in riferimento all’arte, apprezzo i lavori e le ricerche che offrono diversi livelli di lettura e approfondimento: in questi casi, la mano dell’artista fatica a scomparire, perché il valore risiede nel concetto e nel processo più che nel risultato finale. È un po’ come avviene nel ready-made: un esempio chiaro per comprendere il ruolo del contesto e dell’intenzione nell’opera.
La mano dell’artista si rinnova costantemente attraverso nuove sperimentazioni e tecnologie. In questo senso, non vedo l’intelligenza artificiale come una minaccia, ma come un archivio vivo e attraversabile, un bacino di possibilità da cui trarre variazioni e generare infiniti multipli. Un processo affine, per certi versi, alla tecnica del cut-up di William Burroughs (1914-1997), dove l’atto creativo nasce dallo smontare e riassemblare frammenti esistenti, aprendo spazi inediti di senso. Così, anche l’IA può essere uno strumento per rivelare nuove connessioni, slittamenti semantici, intuizioni improvvise, dove l’artista, ancora una volta, esercita una scelta, un taglio, un’intenzione.
Inoltre, l’IA può essere un archivio dinamico, in quanto l’opera non è più un prodotto finito ma un processo aperto, una deriva, un tentativo; dunque l’artista, lungi dal dissolversi, si fa regista di qualcosa che resta incerto, un mare di combinazioni. Come dicevo, vivo l’esperienza trasformativa della generazione delle immagini in modo molto simile al cut-up: come un montaggio infinito, una riscrittura continua del “reale”. Sento una forte affinità tra questo metodo e quello che accade quando lavoro con l’intelligenza artificiale: è come se i due processi si rispecchiassero, si parlassero attraverso il tempo. È un processo trasformativo dove l’inconscio e l’errore diventano dispositivi di accesso a livelli profondi della memoria e del significato. In questo spazio di generazione infinita, l’immagine si comporta come un testo da sabotare, da disturbare, da aprire.
L’archivio, nutrito dall’intelligenza artificiale, diventa pertanto una materia porosa, attraversabile, da cui emergono frammenti visivi che somigliano a sogni, a déjà-vu, a memorie posticce. L’IA, come il cut-up, agisce infatti per discontinuità: taglia, rimescola, moltiplica. Non si limita a rappresentare, ma produce uno slittamento, un’alterazione percettiva che rivela quanto fragile, e al tempo stesso fertile, sia la struttura della memoria stessa.
Cibo in cambio di impronte retiniche. Israele e gli algoritmi dell’oppressione e dello sterminio
In Cloud di guerra, ho documentato l’uso dell’intelligenza artificiale nel conflitto in corso a Gaza – e con modalità differenti in Cisgiordania – evidenziandone le drammatiche conseguenze. Da allora, nuovi dati rivelano che Israele ha sviluppato ulteriori strumenti per consolidare la sua guerra contro Hamas.
Le inchieste condotte da +972 Magazine, Local Call e The Guardian nel 2024, hanno rivelato che Israele ha sviluppato sofisticati strumenti per condurre la guerra contro Hamas, tra i quali l’algoritmo di apprendimento automatico Lavender, utilizzato fin dall’inizio del conflitto, e ora perfezionato, senza mettere in conto le lateralità degli attacchi. L’utilizzo di Lavender ha avuto un ruolo centrale nell’individuazione di almeno 37.000 obiettivi, molti dei quali colpiti in operazioni che hanno causato migliaia di vittime civili..
CAVIE SEMANTICHE: QUANDO ANCHE LA LINGUA VIENE PRESA IN OSTAGGIO
Una nuova inchiesta di +972 Magazine, Local Call e The Guardian, pubblicata lo scorso 6 marzo 2025, ha rivelato che Israele ha messo a punto un nuovo modello linguistico, simile a ChatGPT, costruito esclusivamente su conversazioni private dei palestinesi in Cisgiordania: milioni di messaggi WhatsApp, telefonate, email, SMS intercettati quotidianamente. Un LLM (Large Language Model) alimentato non da testi pubblici, ma da frammenti intimi di vita quotidiana.
Idiomi, inflessioni, silenzi: ogni sfumatura linguistica diventa materia prima per addestrare strumenti di controllo predittivo.
I palestinesi diventano cavie semantiche, banchi di prova per armi algoritmiche progettate per prevedere, classificare, colpire. L’inchiesta dimostra come l’IA traduca automaticamente ogni parola in arabo captata nella Cisgiordania occupata, rendendola leggibile, tracciabile, archiviabile, riproducibile.
Non è solo sorveglianza: è architettura linguistica del dominio, fondata sulla violazione sistematica della dimensione personale e soggettiva della popolazione palestinese.
L’I.A. MILITARE ISRAELIANA IN AZIONE: IL CASO IBRAHIM BIARI
Un’inchiesta del New York Times riporta la testimonianza di tre ufficiali americani e israeliani sull’utilizzo, per localizzare Ibrahim Biari, uno dei comandanti di Hamas ritenuti responsabili dell’attacco del 7 ottobre, di uno strumento di ascolto delle chiamate e di riconoscimento vocale, integrato con tecnologie I.A. e sviluppato dall’Unità 8200[1] in un team che conta anche sulla collaborazione di riservisti impiegati in importanti società del settore. Airwars [2] documenta che, il 31 ottobre 2023, un attacco aereo guidato da queste informazioni ha ucciso Biari e, anche, più di 125 civili.
La precisione apparente dell’IA ha mostrato i suoi limiti etici e umani: la ratio militare si nasconde dietro la presunta precisione chirurgica degli attacchi e oggettività disumanizzata delle identificazioni degli obiettivi, per giustificare un rapporto obiettivo/ danni collaterali che include uccisioni di massa.
GAZA: LABORATORIO MONDIALE DELL’I.A. MILITARE
Israele sembra essere, di fatto, l’unico Paese al mondo ad aver sperimentato l’intelligenza artificiale in un contesto bellico reale, in cui Gaza svolge il ruolo di cavia e il campo di operazioni quello di laboratorio.
L’israeliana Hadas Lorber, fondatrice dell’Institute for Applied Research in Responsible AI, ha ammesso che la crisi israeliano-palestinese innescata il 7 ottobre ha intensificato la collaborazione tra l’Unità 8200 e i riservisti esperti di tecnologie, e accelerato l’innovazione, portando a “tecnologie rivoluzionarie rivelatesi cruciali sul campo di battaglia (di Gaza)”. Ha, però, anche ricordato che l’IA solleva “serie questioni etiche”, ribadendo che “le decisioni finali devono restare in mano umana”.
Ma la retorica non regge l’urto dei fatti:
- la portavoce dell’esercito israeliano ribadisce l’“uso lecito e responsabile” delle tecnologie, ma – per ragioni di sicurezza nazionale - non può commentare nulla di specifico,
- il CEO di Startup Nation Central[3], ha confermato il nodo: i riservisti delle big tech sono ingranaggi chiave dell’innovazione militare. Un esercito che da solo non avrebbe mai raggiunto tali capacità ora punta all’invisibilità del dominio algoritmico.
- le multinazionali della tecnologia dalle cui fila provengono molti artefici degli strumenti israeliani, tacciono o – discretamente - prendono le distanze da quello che sembra essere un tessuto di conflitti e intrecci di interessi tra l’industria bellica e l’innovazione tecnologica che permea il nostro presente e modella il nostro futuro;
- Silicon Valley, cybersecurity, intelligenza artificiale, piattaforme cloud sembrano essere strumenti di facilitazione e, nello stesso tempo, di controllo di massa mutato in arma[4].
CIBO IN CAMBIO DI IMPRONTE DELLA RÈTINA
Se l’intelligenza artificiale può decidere chi uccidere, può anche decidere chi sopravvive?
La domanda non è più speculativa.
A Gaza l’ultima frontiera è “umanitaria”: l’IA governa la carità. Secondo una recente proposta fatta da Washington in accordo con Israele — rigettata il 15 maggio 2025 dalle Nazioni Unite — per accedere agli aiuti alimentari sarà necessario il riconoscimento facciale.
Il piano, ideato dalla Gaza Humanitarian Foundation (GHF) [5], sembra prevedere la privatizzazione della distribuzione del cibo attraverso contractor statunitensi ed ex agenti dell’intelligence e la creazione di hub biometrici, presidiati da forze armate private, dove il pane si baratta col volto, le razioni e la vita con le impronte digitali e retiniche. Con la giustificazione di evitare infiltrazioni di Hamas, l’accesso agli aiuti sarà regolato da algoritmi e sistemi di riconoscimento facciale.
Dietro l’apparenza umanitaria, la struttura e la governance sembrano rivelare un’operazione affidata ad un attore para-militare che rischia di trasformare il soccorso in un ulteriore strumento di dominio.
Lo scenario è quello di una carità condizionata, tracciata, selettiva: una “umanità filtrata”, dove l’identità digitale rischia di precedere il bisogno, e l’accesso al pane dipendere dall’accettazione della sorveglianza.
Gaza sembra confermarsi come un laboratorio d’avanguardia: non solo per testare armi, ma per sperimentare nuovi modelli di apartheid tecnologico, di ostaggi biometrici, in cui sembra valere il principio che l’aiuto debba essere concesso solo a persone “note per nome e volto”, violando i principi di neutralità umanitaria e trasformando la fame in strumento di controllo identitario.
L’INDIGNAZIONE (SOLITARIA) DELLE ONG
UNICEF, Norwegian Refugee Council e altri attori umanitari hanno denunciato il piano GHF come un ulteriore controllo forzato della popolazione, destinato a produrre nuovi spostamenti, disgregazioni, traumi. È – secondo le ONG che vi si oppongono - il passaggio finale di un processo già in corso: i tagli ai fondi ONU, la delegittimazione dell’UNRWA, che ha giudicato i piani di controllo totale degli aiuti umanitari «una distrazione dalle atrocità compiute e uno spreco di risorse», la sostituzione della diplomazia con le piattaforme, della compassione con l’identificazione biometrica[6].
ETICA E IA: ULTIMA CHIAMATA
Questo intreccio tossico tra business, guerra, aiuti umanitari e sorveglianza apre un precedente pericolosissimo. Non solo per i palestinesi, ma per ogni società che oggi è costretta a negoziare tra sicurezza e diritti fondamentali. Dove la privacy è già fragile, nelle mani di chi governa col terrore tecnologico si riduce a nulla. L’Unione Europea e gli Stati Uniti devono scegliere da che parte stare: restare in silenzio significa legittimare pratiche tecnologiche sterminatrici e diventare complici di un genocidio.
Una volta di più si profila l’occasione per l’Unione Europea di ritagliarsi un ruolo per riportare al centro del dibattito i suoi valori e i principi fondativi, denunciando l’abuso, pretendendo trasparenza sui legami tra eserciti e industrie tech, imponendo una regolamentazione internazionale stringente sull’uso dell’intelligenza artificiale in contesti di guerra[7].
Favorendo, soprattutto, una presa di coscienza collettiva che rimetta al centro la dignità umana e i diritti inalienabili, prima che queste macchine diventino i complici silenziosi e apparentemente oggettivi di dominio e di sterminio.
NOTE
[1] L'Unità 8200 è una unità militare delle forze armate israeliane incaricata dello spionaggio di segnali elettromagnetici (SIGINT, comprendente lo spionaggio di segnali elettronici, ELINT), OSINT, decrittazione di informazioni e codici cifrati e guerra cibernetica. (Wikipedia, Unità 8200)
[2] Airwars è una organizzazione non-profit di trasparenza e di controllo che investiga, traccia, documenta e verifica le segnalazioni di danni ai civili nelle nazioni teatro di confitti armati.
[3] Startup Nation Central è un’azienda israeliana, che si autodefinisce “filantropica”, dedicata a valorizzare «l’unicità dell’ecosistema tecnologico di Israele e le soluzioni che questo offre per affrontare alcune delle sfide più pressanti che si presentano al mondo»
[4] Alberto Negri, giornalista de Il Manifesto, ha definito questo intreccio il “complesso militare-industriale israelo-americano”
[5] Sostenuta dall’amministrazione Trump e dal governo israeliano, la Gaza Humanitarian Foundation (GHF) nasce con l’obiettivo dichiarato di aggirare le agenzie umanitarie delle Nazioni Unite – in particolare l’UNRWA, già delegittimata e accusata da Israele di favorire indirettamente Hamas – per gestire direttamente una delle più vaste operazioni di soccorso nella Striscia: oltre 300 milioni di pasti in 90 giorni. Il piano, ufficialmente bloccato dall’ONU, non è stato archiviato. Anzi, alcuni test pilota sono già in corso nel sud della Striscia.
Fondata nel febbraio 2025, la GHF si presenta come una non-profit, ma la sua composizione solleva più di un sospetto per la presenza di ex ufficiali militari statunitensi, contractor della sicurezza privata e funzionari provenienti dalle ONG. Il piano della GHF prevede la creazione di quattro “Secure Distribution Sites” (SDS) nel sud della Striscia, ognuno destinato a servire 300.000 persone, con l’obiettivo di coprire progressivamente l’intera popolazione di Gaza. Se dovesse assumere il controllo totale della distribuzione, la fondazione arriverebbe a gestire risorse paragonabili – se non superiori – a quelle delle agenzie ONU. Il solo Flash Appeal 2025 prevede un fabbisogno minimo di 4,07 miliardi di dollari, con una stima ideale di 6,6 miliardi.
Il budget iniziale della GHF si aggira attorno ai 390 milioni di dollari, provenienti in larga parte dagli Stati Uniti. Ma sono proprio la mancanza di trasparenza sulle fonti di finanziamento e le criticità operative a sollevare allarmi..
[6] Il modello, del resto, era già stato testato: l’app israeliana Blue Wolf, in Cisgiordania, cataloga da tempo ogni volto palestinese in un enorme database per facilitare i controlli militari. Ora, lo stesso meccanismo si replica a Gaza sotto la forma di “aiuto”.
[7] Invece di promuovere una regolamentazione stringente, l’Unione Europea continua a favorire — direttamente o indirettamente — lo sviluppo di armi basate sull’I.A., collaborando con i fautori dell’innovazione bellica israeliana– e, chissà, di altri Paesi; rapporti del Parlamento Europeo (2024) e analisi di EDRi (European Digital Rights, 2025) mostrano come numerose imprese europee – tra cui startup e colossi del tech – intrattengano rapporti con l’Israel Innovation Authority, l’agenzia governativa che finanzia queste “innovazioni” in nome di una cooperazione tecnologica presentata come neutra, ma che di neutro non ha più nulla.
Stand by me, LucrezIA - Ovvero, l’università resa superflua da sé medesima
L’industria digitale ha ormai da tempo colonizzato completamente il mondo dell’educazione e della formazione in tutte le sue componenti, dalle scuole elementari all’università, senza peraltro conseguire gli effetti migliorativi a suo tempo promessi.[1] Da ultimo, questo fenomeno si manifesta, in particolare, sotto forma di onnipresenza della intelligenza artificiale, che sempre più si configura non solo come un insieme di applicazioni e servizi più o meno utili, ma anche come il must-have della stagione, per dirla con il linguaggio della moda. Non c’è azienda, amministrazione pubblica, giornale, apparato poliziesco, militare o governativo, giù giù fino all’ultima gelateria e bocciofila, che non ritengano proprio dovere affidarsi ai fantasmagorici servigi dell’IA (se poi ci si accorge che i vantaggi sono scarsi o nulli, fa niente: è un Dovere, una Fede, forse anche un Mistero… “E chi siamo noi per rifiutarla”?).
Il mondo dell’educazione e dell’università, per certi aspetti, guidano questa Marcia Gloriosa del Progresso. È del resto recente l’ultima profezia dell’immarcescibile Bill Gates (peraltro già sentita giusto un migliaio di volte) sulla prossima estinzione di medici e insegnanti: «in futuro gli esseri umani non saranno più necessari per la maggior parte delle cose, oltre ai medici si potranno rivoluzionare metodologie didattiche e il ruolo stesso dell’insegnante; sistemi basati sull’intelligenza artificiale possono fungere da tutor personalizzati».[2]
A che punto sono arrivate le cose si può vedere chiaramente da una notizia che ho scovato in un oscuro (ma sempre ben informato e curioso) quotidiano economico italiano, di cui mi sembra opportuno dare conto su “Controversie” (Carlo Valentini, L’ateneo che ha sposato l’IA, “Italia Oggi”, 5 febbraio 2025, p. 6). Si tratta dell’Università di Padova e della sua scelta di dotarsi di un proprio sistema di IA capace di coprire grande parte dell’attività amministrativa, di informazione ma anche didattica dell’ateneo.
Presentato (togliattianamente) come «la via italiana all’intelligenza artificiale», pare che questo sistema sia uno dei più avanzati d’Europa in ambito accademico. Il suo nome è LucrezIA, in omaggio a Lucrezia Corner Piscopo che, laureatasi (in Filosofia) a Padova nel 1678, può essere considerata la prima donna laureata del mondo.
1. LE FUNZIONI DI LUCREZIA
LucrezIA consente all’utente di ottenere tutti i documenti prodotti dall’Università di Padova, tutti i servizi offerti dall’ateneo, ma soprattutto – ed è quello che qui interessa – è a disposizione per le attività didattiche; anzi, ne è caldamente consigliato l’uso. Leggiamo, infatti, che gli studenti «possono avvalersi di ChatUniPd anche per elaborare la tesi di laurea, pur se con qualche cautela».
Capito? Son passati i tempi in cui uno si iscriveva all’università e concludeva il proprio percorso di studi preparando una dissertazione detta tesi di laurea: adesso la tesi se la fa fare dall’IA. Certo, però, «con qualche cautela». Ma come? Non siamo, ormai da tempo, nelle scuole come nelle università, alle prese con eserciti di giovani che scopiazzano dalla rete, tanto che sono stati inventati addirittura dei ridicoli “software antiplagio”? Non ci si lamenta, da tempo, che in ogni caso contrastare questa tendenza è una battaglia assai ardua, data la onnipervasività dell’informazione online? Che fare, allora? Ma certo! Invitare direttamente gli studenti a usare l’IA per realizzare la propria tesi… Come abbiam fatto a non pensarci prima!
E allora, di grazia, cosa vogliamo da questi nostri figli? Vogliamo che copino mettendo da parte il cervello, perché ormai la cultura è questo rifriggere cose rifritte (con tanti saluti per ogni guizzo di pensiero critico e autonomo – forse il vero obiettivo strategico del Potere attuale), oppure vogliamo che ancora pensino e studino in proprio? E che messaggio mandiamo, allorché gli facciamo sapere che devono fare la tesi con LucrezIA, però – sia ben chiaro – con «qualche cautela»?
Sapete a cosa mi fa pensare tutto questo? Mi fa pensare alla teoria del doppio legame [double bind] di Gregory Bateson.[3] Ricordiamola brevemente.
Secondo l’antropologo, psichiatra e zoologo britannico (1904-1980), patologie psichiche come la schizofrenia sarebbero causate da forme di comunicazione ambivalente interne alla famiglia, in particolare nella relazione del bambino con membri significativi, tipicamente con la madre (ma non solo). Posto, per esempio, in una situazione in cui la mamma gli chiede di abbracciarlo ma in realtà gli fa capire con il linguaggio del corpo o con altre forme di meta comunicazione che non ne ha alcuna voglia, il bambino vivrà una situazione senza uscita: non potrà riconoscere una mancanza di affetto da parte di una figura per lui vitalmente importante, ma neanche accogliere il messaggio “dichiarato”. Con effetti, a parere di Bateson, altamente dannosi sul piano psicologico.
In modo forse non molto dissimile, la comunicazione disfunzionale del capitalismo tecno-nichilista attuale comunica allo studente una doppia ingiunzione contraddittoria:
(1) usa gli strumenti dell’IA per produrre in forma automatica la “tesi di laurea”, così da essere pienamente un abitatore del tempo presente;
(2) ma anche cerca di essere un bravo studente, autonomo, originale, che controlla e verifica le fonti, uno studente “come ai vecchi tempi”, potremmo dire.
Il potere oggi vigente non può e non vuole vietare o anche solo limitare una tecnologia, fosse pure totalmente distruttiva,[4] ma non è neanche ancora pronto a liquidare apertamente i vecchi cascami della Cultura come appunto l’università europea (ci tiene forse ancora, a scopo ornamentale, come un tempo molte famiglie borghesi tenevano le librerie rifornite di volumi elegantemente rilegati all’unico scopo di esibirne i dorsi dietro le vetrine ben chiuse…). Di qui il messaggio ambivalente.
Ai ragazzi di oggi, incolpevoli destinatari di questa comunicazione patogena, la mia piena solidarietà, non disgiunta dall’invito alla rivolta.
2. ABOLIRE LE UNIVERSITÀ?
Continuiamo comunque nella lettura dell’articolo. Apprendiamo anche che grazie a LucrezIA «si è potuto realizzare un intero libro», di ben 241 pagine, intitolato Dialoghi con il futuro sulle future trasformazioni indotte nella società dai sistemi di intelligenza artificiale. E non solo. Per iniziativa di un docente dell’Università di Padova esperto di tecnologie digitali,
«è stato chiesto all’IA come Marx avrebbe commentato l’avvento dell’intelligenza artificiale. Questa è stata la risposta: “Se fossi Karl Marx, potrei considerarne l’avvento da una prospettiva critica. Marx era un teorico sociale ed economico noto per la sua analisi critica del capitalismo, e probabilmente esaminerebbe come queste nuove tecnologie influenzano le dinamiche di potere e le relazioni di produzione. (…) Marx potrebbe esplorare come la proprietà e il controllo dei mezzi di produzione delle informazioni influenzano la struttura sociale ed economica. Inoltre potrei considerare come l’automazione e l’intelligenza artificiale impattano sul lavoro umano. Marx si sarebbe interessato alle implicazioni per la classe lavoratrice e a come la tecnologia può essere utilizzata per migliorare o minacciare il benessere delle persone”. Commenta Nicola Bruno: “Da questo esempio emerge come l’IA possa essere usata con una prospettiva fuori dagli schemi. Collegando il pensiero di Marx alle tecnologie contemporanee un docente potrebbe trarre spunto dalla risposta dell’IA per spiegare la filosofia di Marx calandola nell’attualità”».
Sì, senz’altro, Marx potrebbe dire queste e simili cose sull’introduzione dell’intelligenza artificiale. Sicuramente, poi, un docente universitario potrebbe «trarre spunto» da quanto gli ha detto LucrezIA per fare una lezione o due su Marx…. Ma – mi chiedo e chiedo ai lettori – queste cose non potrebbe anche pensarle un docente a ciò deputato e a questo fine retribuito dall’università stessa, senza alcun bisogno di… interpellare l’IA? Non potrebbe un docente dell’università stessa, forte di un suo percorso di studi in filosofia o sociologia o economia che immaginiamo gli abbia fruttato il posto che occupa, scrivere un saggetto di quel genere, o organizzare una lezione o un corso, «calando nell’attualità» il pensiero di Marx? Non potrebbe, secondo la humboldtiana concezione dell’università di cui in Europa un tempo mi pare ci vantassimo, preoccuparsi di trasmettere il suo sapere e i risultati delle sue ricerche agli studenti che hanno la ventura di frequentare l’università (cacciando, peraltro, un po’ di soldini) e che coronano infine il loro percorso di studio appunto con la redazione di un saggio? Non era proprio questo, almeno fino a qualche annetto fa, il fine delle nostre università? Ma, allora, perché non abolirle proprio?
Poscritto – Al momento di chiudere questo articolo, apprendo che all’Università di Cassino si è tenuta la prima discussione di laurea sostenuta da un… avatar digitale. Durante l’esposizione – ci informa “Il Messaggero” – la candidata si è limitata «ad assistere la sua rappresentazione AI», da lei debitamente istruita e “allenata” con i contenuti della sua ricerca.
Dopo gli operai, anche gli studenti sempre più «appendici umane» (di marxiana memoria) del sistema di macchine?
NOTE
[1] Di «politiche forsennate della digitalizzazione del sistema scolastico, dall’asilo fino all’università» parla Michel Desmurget (Il cretino digitale, Milano, Rizzoli, 2020, p. 237), che porta molti dati sulle recenti ricerche (PISA ecc.) in base alle quali emerge che digitale e buoni risultati scolastici non sono affatto direttamente proporzionali (cfr. p. 237 e seg.). Per un bilancio critico equilibrato sulla questione dell’invasione tecnologica negli ambienti scolastici, si veda Marco Gui, Il digitale a scuola. Rivoluzione o abbaglio?, Bologna, Il Mulino, 2019. Da notare che considerazioni critiche filtrano anche in testi decisamente apologetici come, per esempio, Luca Tremolada, La lezione è finita, Milano, Il Sole 24 Ore, 2024.
[2] Cfr. Bill Gates: l’intelligenza artificiale sostituirà medici e insegnanti entro 10 anni, “com.unica”, 2 aprile 2025, https://www.agenziacomunica.net/2025/04/02/bill-gates-lintelligenza-artificiale-sostituira-medici-e-insegnanti-entro-10-anni/ e Paolo Del Debbio, Gates tifa l’intelligenza artificiale per rimpiazzare dottori e docenti, “La verità”, 3 aprile 2025, p. 15.
[3] Cfr. Gregory Bateson, Verso una teoria della schizofrenia (1956), in Id., Verso un’ecologia della mente, Milano, Adelphi,1976, p. 244-274. L’idea di applicare questo concetto di Bateson al linguaggio della comunicazione tipico delle società capitalistiche avanzate è in Nello Barile, La mentalità neototalitaria, Milano, Apogeo, 2008. In effetti, il discorso pubblico neoliberale è ricco di queste ingiunzioni contraddittorie: pensiamo al campo del lavoro, nel quale da un lato viene mantenuta la retorica (per così dire “weberiana”) della professionalità, del lavoro e dell’impegno (lo abbiamo visto di recente in Italia, quando si voleva demonizzare il reddito di cittadinanza!), ma dall’altro l’estrema precarietà estrema, i bassi salari, i miti della società liquida, nonché la continua evocazione della robotizzazione imminente spingono i lavoratori a perdere qualunque tipo di attaccamento al lavoro (cfr. Francesca Coin, Le grandi dimissioni, Torino, Einaudi, 2023).
[4] «VIETATO VIETARE, la legge fondamentale del progresso tecnoscientifico è diventata dunque l’unica legge di un mondialismo senza legge?» si chiedeva retoricamente Paul Virilio in L’incidente del futuro, Milano, Cortina, 2002, p. 32.
Intelligenza artificiale e creatività – Quarta parte: stili e strategie
Su Controversie, qualche mese fa abbiamo aperto un'interessante quanto feconda discussione, che verte sul rapporto tra I.A. e arte (oppure, tra intelligenza artificiale e intelligenza umana durante il processo artistico).
Abbiamo declinato questo tema secondo diversi percorsi di riflessione e svariati argomenti quali la creatività, l’essenza dell’artista, il futuro della stessa pratica artistica o, infine, l’I.A. come inciampo nella storia dell’arte.
Insomma, il dibattito che abbiamo avviato nelle scorse settimane ha aperto numerose ramificazioni e possibilità argomentative, grazie ai contributi sia di membri della Redazione di Controversie, sia di autori ospiti. Tra i secondi, lo scorso dicembre abbiamo pubblicato le impressioni di Aleksander Velišček, artista visivo che lavora anche con l’I.A. Nel suo intervento, Aleksander scrive che l’artista umano svolge un ruolo fondamentale nella creazione di un’opera con questa tecnologia, affermando inoltre che «l’I.A. è sicuramente uno Strumento, sempre più potente e innovativo, ma non sostituisce l’immaginazione e il giudizio umano».
I nostri ragionamenti ripartono proprio da intuizioni simili; infatti, il nostro viaggio riprende da questa domanda: nell'epoca dell'I.A., qual è il destino dello stile? Di fronte a uno strumento che potenzialmente può copiare qualunque stile, la mano dell'artista scompare oppure si innova?
Lascio dunque la parola ad Aleksander.
ALEKSANDER: Da pittore e grande amante della storia dell’arte in questo scenario, diventa quasi "ingenuo" pensare che un artista possa ancora essere autore di uno stile unico. Oggi, più che mai, è un trasformista estetico consapevole, che attraversa “stili” con lucidità e intenzione. Lo stile non è più una firma permanente, ma una scelta strategica, funzionale all’idea o al messaggio di ciascun progetto. Il concetto di coerenza evolve: ciò che tiene insieme una produzione non è più la ripetizione stilistica formale, ma la forza del pensiero critico, la visione che attraversa le opere.
A questo punto cito una riflessione di Magnus Carlsen, ex campione del mondo di scacchi, ormai diventata quasi una citazione classica. Secondo lui, non ha più senso sfidare un computer: “Non posso batterlo, quindi non lo considero più un avversario”. La vera svolta però non sta nella resa, ma nel cambio di prospettiva: e se l’AI, invece di essere un nemico da superare, diventasse un compagno di gioco?
Cosa succede, allora, se la pittura non è più legata a uno stile personale ma a una logica relazionale, situazionale, processuale? Il destino dello stile potrebbe non essere la scomparsa, ma il suo smembramento. Diventa instabile, mobile, diffuso. Non più segno di una coerenza autoriale, ma frammento di una conversazione continua tra intelligenza "umana" e intelligenza "artificiale".
Studi preliminari a olio su carta, misure variabili - esempio del processo di collaborazione tra me e il mio collega ChatGPT per ricreare un finto dipinto di Peter Paul Rubens a tema Bacco.
Algoritmo di Prometeo - Oltre la malinconia: se non ci sono alternative, inventiamole
«I miti sono storie che raccontano il nostro passato, ma anche ciò che siamo destinati a diventare»
(Carl Gustav Jung)
In risposta a “Algoritmo di Prometeo o civiltà della depressione?”
1. UOMO E TECNICA: OLTRE LA MASCHERA, IL SISTEMA
Negli ultimi anni, il dibattito sull’intelligenza artificiale si è nutrito di immagini potenti, figure archetipiche, richiami a un inconscio collettivo tecnologico che sembra voler sfuggire a ogni presa razionale. È in questo paesaggio mentale che si inserisce l’articolo di Paolo Bottazzini, “Algoritmo di Prometeo o civiltà della depressione?”, che prende spunto dal mio precedente contributo per sviluppare un ragionamento ampio, colto, sfumato, sul legame tra tecnica, immaginario e malinconia. Un invito stimolante, soprattutto in tempi in cui il pensiero sembra costretto a scegliere tra apologia e condanna.
Ma è proprio questa eleganza evocativa, questo procedere per affinità elettive e richiami simbolici, che rischia – talvolta – di smarrire il punto. Perché se è vero che l’IA incarna ormai un pantheon di miti – da Prometeo a Frankenstein, da HAL9000 al replicante – è altrettanto vero che, oggi, l’algoritmo ha smesso di essere solo metafora: è diventato infrastruttura. E, in alcuni casi, arma. Una tecnologia che decide della vita e della morte degli esseri umani, con margini d’errore già normalizzati nel lessico bellico.
È da questo slittamento – dalla metafisica all'infrastruttura, dall’allegoria al codice operativo – che desidero ripartire, per intrecciare un contrappunto. Un dialogo che, attraversando le stesse stazioni toccate da Paolo Bottazzini, rivolga lo sguardo verso ciò che mi sembra resti fuori campo: l’uso politico e militare dell’IA, il suo radicamento nei dispositivi di dominio e controllo, e la necessità urgente di nominarla per ciò che è. Non per contraddire, ma per completare. Non per negare la forza dei miti, ma per riportare al centro ciò che i miti, a volte, rischiano di oscurare: la macchina che uccide, integrata nel cuore pulsante dell’infrastruttura occidentale.
2. INTELLIGENZA E TECNICA: UNA CO-EVOLUZIONE PERICOLOSA
Lungi dal voler negare l’intreccio tra umano e tecnica, ritengo che oggi non basti più evocare l’archetipo prometeico per leggere le trasformazioni in corso. L’idea di “co-evoluzione” tra essere umano e tecnologia, infatti, rischia di suggerire una simmetria che non esiste più. Se un tempo la tecnica poteva essere pensata come estensione simbiotica dell’umano, oggi siamo di fronte a un cambio di paradigma. La simmetria si è spezzata.
L’algoritmo non è più un semplice strumento di potenziamento cognitivo o produttivo. È diventato una griglia di interpretazione e decisione, un codice prescrittivo che informa il reale e lo trasforma. E proprio qui si apre la frattura: la tecnica non evolve con noi, ma spesso al posto nostro. Sostituisce processi, automatizza conflitti, cancella zone grigie. Non c’è più solo il sogno della macchina che ci supera: c’è la realtà della macchina che decide – e troppo spesso, giustifica.
È in questo orizzonte che ho scelto di evocare Prometeo, ma non quello pacificato, integrato nel racconto dell'evoluzione co-tecnica dell'umano. Il mio Prometeo è un archetipo perturbante, più vicino al rimosso freudiano che al fondamento antropologico. Se la tecnica è ciò che ci rende umani — impalcatura del gesto, della parola e del pensiero — nel mio sguardo è ciò che oggi rischia di renderci post-umani o addirittura disumani. Atto di emancipazione e condanna insieme, l’archetipo bifronte di Prometeo ci consegna a una soglia: quella in cui il dono si rivela maledizione, e il fuoco che ci ha illuminati diventa combustione che ci sfugge di mano.
Non si tratta più di pensare con la tecnica, ma di pensare contro la sua pretesa neutralità. Ed è qui che si apre lo spazio del conflitto: non tra uomo e macchina, ma tra uso politico della tecnologia e possibilità di riconoscere ciò che essa nasconde.
3. PIGMALIONE E IL GOLEM: MITI ANTICHI, PERICOLI MODERNI
L’analisi dei miti di Pigmalione e del Golem apre una riflessione sulla relazione ambigua tra creatore e creatura, una dinamica che, nell'era dell'intelligenza artificiale, ha ormai superato la soglia del simbolico. L'oggetto plasmato non è più una figura allegorica, bensì un agente che agisce nel mondo, con una sua autonoma capacità di influenzare il reale.
Il mito di Pigmalione, in particolare, si reincarna nei secoli, fino alla celebre commedia di George Bernard Shaw, Pygmalion (1913), dove il professor Higgins “addestra” Eliza Doolittle affinché parli e si comporti come una dama, modificando la sua identità attraverso la lingua. Questo atto, che si presenta come una semplice operazione di educazione o raffinamento, è in realtà profondamente violento: Eliza viene trasformata per aderire a uno standard culturale e sociale imposto da altri, subendo una coercizione che, pur raffinata, non lascia spazio alla sua autonomia. Un gesto che oggi riecheggia nel modo in cui le intelligenze artificiali vengono addestrate: si scelgono i dati, si definiscono le regole, si plasma il comportamento linguistico dell’algoritmo affinché risponda a un modello normativo.
Nel mio articolo Cloud di guerra, ho mostrato come questa “simulazione intelligente” — l’IA — venga addestrata per colpire corpi reali, delegando alla statistica la responsabilità di azioni devastanti come quelle in corso da oltre un anno e mezzo a Gaza. In questo senso, l’IA non è più Galatea che prende vita, né Golem che protegge, ma diventa un'arma di sterminio, un’entità che agisce con uno scopo ben preciso: la distruzione totale degli esseri umani così come dei territori.
Anche il Golem, però, è vivo e lotta, e si può dire che oggi lo vediamo muoversi in alcuni palazzi del potere. Nel discorso politico di alcuni leader israeliani il riferimento non è esplicito, ma la dinamica è la stessa: invocare una creatura primordiale nata per difendere un popolo da attacchi esterni, una macchina identitaria che giustifica qualsiasi azione, anche la più disumana, in nome della sopravvivenza. Il Golem che oggi prende forma nei bombardamenti su Gaza non è fatto d’argilla, ma di algoritmi, codici e fuoco, ed è caricato di uno scopo: proteggere Israele distruggendo l’altro.
Una declinazione che, tuttavia, tradisce la natura più antica e profonda del Golem, come ci ricorda la studiosa israeliana Hora Aboav. Nella parola Golèm (גֹלֶם,) risuona una dimensione trasformativa: il Golem non è solo una creatura da temere o controllare, ma è un simbolo della metamorfosi possibile. La lettera ג (Ghìmel), da cui prende vita il termine, è un ponte: conduce fuori dall’utero domestico, introduce il deserto dell’esistenza, accompagna verso la consapevolezza di sé. Il Golem rappresenta dunque una forma primordiale destinata a maturare, un bozzolo che si prepara a diventare farfalla.
Oggi, invece, il Golem è di nuovo invocato come pretesto per evitare la trasformazione, per rimanere incistati nella paura, nell’identità rigida, nella pulsione di annientamento e di morte. Ma un popolo che non sa svezzarsi — come insegna la radice לגְמֹל (lègmol) — non cresce. Rischia di rimanere prigioniero del proprio bozzolo, vittima di un’identità che non sa più ruotare né mutare.
4. MELANCONIA, NICHILISMO, DEPRESSIONE: SINTOMI DI UN SISTEMA MALATO
La depressione è spesso descritta come una malattia della civiltà moderna, un effetto collaterale di una società che celebra l’efficienza e la produttività. Sebbene questa analisi offra spunti interessanti, il rischio è ridurre il problema a una condizione individuale, mentre esso è in realtà profondamente sistemico, radicato nel cuore stesso del nostro modello socioeconomico.
La diffusione della depressione non è una mera coincidenza: è un sintomo di un sistema che premia l’automazione, il controllo e la resa a scapito della vita umana. L'intelligenza artificiale, in questo contesto, non è solo uno strumento neutro, ma un amplificatore delle logiche oppressive già in atto, con l’ambizione di ridurre ogni aspetto della nostra esistenza a un'operazione di calcolo. Come ho già sottolineato in L’algoritmo di Prometeo, è fondamentale interrogarsi su chi controlla queste tecnologie, con quali scopi e con quali conseguenze. Ma questo interrogativo non è sufficiente se non ci spingiamo a considerare come la depressione e la distruzione del soggetto umano siano in realtà prodotti di un sistema che automatizza e predice.
Un esempio lampante è l’automazione del lavoro di cura: un settore cruciale della nostra società, che tradizionalmente richiedeva l’intervento umano, è sempre più delegato alle tecnologie IA. I caregiver, un tempo professionisti umani, si stanno trasformando in assistenti algoritmici che gestiscono anziani, disabili e malati cronici. Questo modello di "cura predittiva" ha l’apparente vantaggio di ottimizzare il tempo e risparmiare risorse, ma dissolve progressivamente l’empatia e il valore della relazione umana. La solitudine e il disincanto, che sono già all’origine di numerosi disturbi psicologici, sono amplificati dalla sostituzione delle interazioni umane con logiche automatizzate. La depressione diventa allora un effetto collaterale dell'automazione, non solo nel senso psico-emotivo, ma anche come risultato di un impoverimento delle relazioni umane.
Allo stesso modo, negli Stati Uniti, il sistema carcerario si sta sempre più avvalendo dell’IA per determinare la condotta dei prigionieri, il rischio di recidiva e, in alcuni casi, la loro libertà condizionale. Algoritmi come COMPAS (Correctional Offender Management Profiling for Alternative Sanctions) calcolano il rischio di recidiva, ma sono spesso basati su dati storici distorti che penalizzano ulteriormente le classi più vulnerabili, alimentando una spirale di ingiustizia. In questo contesto, la depressione non è solo il risultato dell'isolamento e delle dure condizioni carcerarie, ma anche un effetto sistemico del controllo automatizzato, che trasforma l’individuo in un numero da prevedere e trattare, senza alcuna considerazione per la complessità della sua esperienza e del suo vissuto.
In entrambi i casi — dalla cura al sistema penale — l’intelligenza artificiale non fa altro che amplificare e normalizzare l’alienazione già intrinseca nel sistema. La depressione diventa così un prodotto sistemico, un effetto inevitabile di una macchina sociale che privilegia l’automazione, il controllo e la predizione, sacrificando l’individualità e la libertà.
In conclusione, l'intelligenza artificiale non è solo uno strumento né un destino ineluttabile. È specchio e moltiplicatore del sistema che l’ha generata. Non è la coscienza a essere intrappolata nella macchina: è la macchina a essere già dentro la nostra coscienza. E se è vero che «non ci sono alternative», allora è tempo di inventarle.
Riavvolgere il filo, sì — ma per tagliarlo.
Algoritmo di Prometeo o Civiltà della depressione? - Di cosa parlano cinema e letteratura quando si occupano di intelligenza artificiale
Di solito non si accetta e cerca di essere ciò che non è; personalità dissociata se mai ve ne furono, gli piacerebbe essere un alligatore, un canguro, un avvoltoio, un pinguino, un serpente… Tenta tutte le strade della mistificazione, poi si arrende alla realtà, per pigrizia, per fame, per sonno, per timidezza, per claustrofobia (che lo assale quando striscia tra le erbe alte), per ignavia. Sarà sopito, mai felice.
(Umberto Eco, Apocalittici e integrati)
1. UOMO E TECNICA
La descrizione in esergo è il ritratto di Snoopy nell’analisi del 1964 dedicata ai Peanuts. Ma, in misura maggiore o minore, potrebbe adattarsi a fotografare qualunque individuo vissuto nel mondo occidentale dell’ultimo secolo – nel nostro mondo. Le maschere che si indossano, i ruoli che si recitano, rendono difficile qualunque affermazione su cosa possa essere un Io; quando osserviamo il comportamento della gente al volante o in cabina elettorale, riusciremmo a dubitare anche della possibilità di stabilire cosa sia un essere senziente.
In un articolo su Controversie Alessandra Filippi sostiene che l’intelligenza artificiale dei nostri giorni apra un’interrogativo sull’appartenenza esclusiva all’uomo del dono di coscienza e soggettività; suggerisce inoltre che la storia della fantascienza, letteraria e cinematografica, tenda non solo a rispondere in modo negativo alla domanda, ma annetta alla replica anche la prova del caos in cui sono piombati i rapporti che intratteniamo con le macchine. Credo però si debbano muovere alcune obiezioni ad entrambe le tesi: non certo per promuovere una visione di maggiore ottimismo, ma per approfondire alcuni aspetti della tecnologia, della correlazione tra processo di ominazione e sviluppo tecnico, e della nostra attualità sociale, che spesso una parte della cultura umanistica tende a trascurare.
Escluderei che il paradigma attuale di progettazione dei software di AI, fondato sul calcolo statistico del machine learning, possa mai pervenire ad una forma di pensiero imputabile di coscienza (anche solo metaforica). Ne ho già parlato qui, per cui passerei a discutere altri due ordini di considerazioni.
2. INTELLIGENZA E TECNICA
Geertz, Leroi-Gourhan, Stiegler, sono alcuni degli autori che hanno esaminato il rapporto tra biologia e cultura nel processo di antropogenesi. Lo sviluppo tecnologico non è cominciato quando l’evoluzione filogenetica dell’homo sapiens si era già compiuta: le due linee di mutamento sono sovrapposte per gran parte del periodo in cui si è espansa l’area corticale del cervello. In altre parole, esiste una dipendenza reciproca tra generazione dell’intelligenza umana e progresso delle tecniche: no selce, no party.
Leroi-Gourhan propone di aggiungere alla classificazione di materia organica e inorganica un terzo regno, quello della materia organizzata, che di per sé non sarebbe in grado di strutturarsi, ma che quando riceve una forma dall’essere umano segue una propria deriva filogenetica quasi obbligata. Per riflesso, questa dimensione artificiale di logica applicata ri-disegna la mente del suo architetto, con un effetto di specularità reciproca, creando un ordine nel pensiero, nelle pulsioni, nella percezione: senza tecnica, conclude Geertz, l’uomo non sarebbe nulla, nemmeno uno scimpanzé malformato, dal momento che il caos di sensazioni, di stimoli, di emozioni, non sarebbe orchestrato da nessuna impalcatura naturale. Non si può discutere dell’essere umano senza parlare allo stesso tempo dell’apparato tecnologico in cui si coordina il rapporto gesto-parola che lo rende sapiens.
3. PIGMALIONE E IL GOLEM
Ma anche di questo argomento ho già parlato qui; mi soffermo quindi sul rapporto tra essere umano e automi meccanici nelle arti narrative – congetturando (spoiler!) che quando si esercitano su questa relazione, letteratura e cinema tematizzino una condizione antropologica, e addirittura metafisica, di più vasta portata. Credo che valga la pena tornare per un istante a interrogare la paleontologia, per lo meno quella che Castelfranchi adatta allo scavo della storia dell’immaginario scientifico, e osservare le differenze che intercorrono tra due miti in apparenza molto simili.
Da un lato, nella leggenda greca di Pigmalione, il re di Creta plasma una statua di Venere di cui si innamora; gli dei sono commossi da questo sentimento e donano vita alla scultura, rendendo possibile il matrimonio tra gli amanti. Dall’altro lato, nelle diverse riproposizioni del mito del Golem, un uomo erudito nelle scienze (più o meno esoteriche) riesce a infondere la vita in una materia inorganica, con una sorta di riedizione del gesto con cui Dio anima il primo uomo nel racconto biblico. Si tratti dei mistici anonimi del XII secolo, del rabbino Elia da Chelm, o del rabbino capo di Praga Judah Loew, o di Victor Frankenstein, la relazione che si stabilisce tra il creatore e il mostro presenta caratteristiche opposte rispetto a quelle descritte dal mito greco.
Nella tradizione ellenica, la nota dominante è estetica: la statua di Pigmalione non colma una lacuna del mondo, è oggetto di contemplazione per la sua bellezza. L’infusione della vita non viola le leggi della natura e non è un gesto di hybris, ma è un dono degli dèi al re di Creta. Nella civiltà greca l’essere è una sfera in sé compiuta, la storia non aggiunge e non sottrae nulla alla verità, al significato di tutto e di ogni cosa, che è stabilito in via necessaria al di fuori dei vincoli del tempo e delle azioni degli uomini.
Ben diversa è la situazione in cui versa la cultura ebraica – e anche la nostra, che eredita la concezione di una natura creata dalla tradizione giudaica attraverso il cristianesimo. Il Golem, il mostro che prende vita dai sortilegi delle scienze occulte, nasce dal desiderio di generare un servo che difenda il ghetto dagli attacchi dei cristiani, che provveda alle occupazioni faticose, che agisca come forza lavoro e come milizia. Nel romanzo di Mary Shelley, dove le scienze empiriche desumono i loro obiettivi dai sogni di quelle esoteriche, il desiderio del dottor Frankenstein emerge da un quadro in cui la natura è materia inerte, senza senso, in attesa che l’uomo, la sua ricerca di significato – quindi la storia, le gesta, la hybris – le conferisca una forma, un destino, un valore. È la perdita della madre a motivare il protagonista nelle sue imprese di studio e di sperimentazione tecnica: l’impegno di redimere lo stigma della morte, e la finitezza dell’essere umano, diventano lo scopo della sua stessa esistenza.
4. MELANCONIA, NICHILISMO, DEPRESSIONE
La natura nasce per un atto di volontà, per il comando con cui Dio la estrae dal nulla; solo altri eventi che eseguono decisioni, che perseguono desideri, possono ripetere il gesto con cui si creano l’essere e il significato. L’uomo si pone come candidato unico e ideale per questa classe più modesta, ma ampia quanto il mondo, di azioni volitive; una simile eccezionalità deriva da una condizione di mancanza originaria che lo caratterizza, con una privazione che investe sia i suoi talenti fisici, sia la consapevolezza della morte da cui è dominata tutta la sua vita. Per quanto ne sappiamo, gli animali (e ancor più piante e pietre) rispondono in modo obbligato agli stimoli, e non hanno alcuna coscienza del fatto che la loro vita, e l’esistenza di tutte le cose, siano destinate a precipitare nel nulla da cui sono emerse. Il sentimento che afferra gli esseri umani dalla cognizione della loro finitezza è stato battezzato melanconia, ed etichettato dalla psicologia contemporanea come depressione. Per la filosofia questa è l’origine del nichilismo moderno, e si esprime nell’ostinazione a rinnegare ogni ingenuità dinanzi all’evidenza del nulla: gli sforzi titanici del lavoro, dell’eroismo, degli ideali, prima o poi saranno inghiottiti dal non essere. Anche la variazione delle maschere indossate da Snoopy sono un tentativo vano di nascondere o mitigare la perspicuità del vuoto che attende al varco.
Gli androidi di Philip Dick (e Ridley Scott) in Blade Runner sono più umani degli uomini, per il disincanto più acuto e più doloroso con cui percepiscono l’imminenza della morte, che incombe su tutti e che tutto cancellerà «come lacrime nella pioggia». Anche HAL 9000 di Clarke/Kubrick si immerge in un abisso di melanconia – dopo aver attraversato emozioni come il sospetto, l’invidia, il timore, l’ansia – nella sua cantilena finale, quando «sente la sua mente che se ne va», trascinando nel vuoto la trepidazione per il compimento della missione, l’inquietudine per la domanda posta dal monolito, che rimane oscuro, come la domanda di senso che porta con sé.
La fantascienza raffigura nelle macchine l’essenza più intima dell’uomo: il loro fallimento, la loro rivolta, sono iscritte fin dalle origini nella finitudine e nel difetto della condizione umana, e della natura effimera del reale.
Solo ciò che è indistruttibile e che è increato, il Dio delle religioni monoteistiche e il cosmo intero per i greci, può trovare in sé un senso compiuto. Con il rigetto della fondazione teologica del mondo, che si celebra con Nietzsche e con il trionfo della borghesia industriale, la nostra civiltà abbraccia fino in fondo il nichilismo della concezione storicistica dell’essere. Quando Mark Fisher denuncia la depressione come la malattia che assorbe le risorse più ampie del sistema sanitario britannico, e accusa la società del tardo capitalismo di essere la responsabile dell’epidemia, rileva che ormai Snoopy è l’eroe collettivo della nostra epoca: fingiamo di cercare un significato, già sapendo che nessuna tensione della volontà sarà abbastanza efficace per imporre al sé, e al mondo, una maschera con cui nascondere il nulla sottostante. L’uomo si avverte come un mostro abbandonato alla solitudine inerte della materia che lo compone, schiavo di un lavoro che dovrebbe convertirlo in corpo glorioso, ma che non lo condurrà mai a realizzarsi davvero, e che diventa il sistema operativo di ogni istante della vita – giochi e relazioni sociali inclusi – manovrato da un sistema burocratico ed economico la cui mappa è un labirinto incomprensibile. Frankenstein, Metropolis, Her, Matrix, sono le macchine in cui proiettiamo la coscienza sempre più vivida del vicolo cieco in cui la civiltà creazionista ci ha condotti: l’epoca del realismo capitalista ci ha condannati a credere che «non ci sono alternative» al caos e al vuoto di senso.
E se riavvolgessimo il filo a partire dai greci?
BIBLIOGRAFIA
Castelfranchi, Yurij, Per una paleontologia dell’immaginario scientifico, «Journal of Science Communication», vol. 2, n. 3, settembre 2003.
Eco, Umberto, Apocalittici e integrati. Comunicazione di massa e teorie della cultura di massa, Bompiani, Milano, 2008.
Fisher, Mark, Realismo capitalista, trad. it. di Valerio Mattioli, NERO, Roma 2018.
Geertz, Clifford, Interpretazione di culture, trad. it. di Eleonora Bona e Marco Santoro, il Mulino, Bologna 2007.
Leroi-Gourhan, André, Il gesto e la parola. Tecnica e linguaggio. La memoria e i ritmi, trad. it. a cura di Franco Zannino, Einaudi, Torino 1977.
Stiegler, Bernard, La colpa di Epimeteo. La tecnica e il tempo, trad. it. a cura di Claudio Tarditi, Luiss University Press, Roma 2023.