A confronto con il pensiero di Platone: la memoria e la sua corruzione nell’era digitale.
A giugno di quest’anno Controversie ha organizzato un seminario in forma di tavola rotonda sul tema dell’ontologia dell'intelligenza Artificiale. Durante il dibattito è emersa la possibilità che i grandi modelli linguistici (LLM) si possano affermare – tra le diverse applicazioni che già si intravedono – come una sorta di bibliotecario con pretese di universalità. Questa ipotesi è ben delineata da A. Colamedici e S. Arcagni, nel loro libro L'algoritmo di Babele. Storie e miti dell'intelligenza artificiale (Solferino Libri, 2024) e suggerita tra le righe da Luca Sofri "Intelligenze artificiali" tra virgolette, nel suo blog Wittgenstein.
La biblioteca universale, la biblioteca fantastica che contiene tutto ciò che è stato scritto e che potrà essere scritto, è un tema che – in maniera ricorrente – prende forma nelle riflessioni di filosofi e letterati, da Leibniz allo scrittore Kurd Laßwitz, detto anche Velatus, fino ad ossessionare Jorge Borges (La Biblioteca di Babele) e a ispirare l’imprenditore Brunello Cucinelli, che nel 2022 annuncia la realizzazione di una “sua” biblioteca universale, a Solomeo, dedicata ai lavoratori delle sue aziende.
Il tema della biblioteca è strettamente connesso con quello della memoria; ritrovare un passo di un libro, di un autore richiede di averne memoria e di riuscire a situare questo scampolo di memoria nello spazio della propria biblioteca mentale e, solo successivamente, a ritrovare la collocazione di quell’autore o di quel libro all’interno della propria libreria o di una biblioteca istituzionale o pubblica.
Ecco, una potenziale funzione dei LLM è proprio di fare da contenitore molto ben indicizzato di grandi quantità di conoscenza, e di trovarle e metterle a disposizione degli utenti in modo ragionato e selettivo, su richiesta espressa in linguaggio naturale. E, proprio per la loro capacità di gestire volumi enormi di informazioni in tempi ragionevoli, può tendere a quel grado di infinito sotteso dall’espressione “universale”.
A contrasto con questa idea e prospettiva, vi proponiamo una riflessione di Fabio Talloru sulla memoria e su Platone, che per la memoria e la sua rilevanza nel pensiero umano aveva un debole.
-----
Se ancora oggi Platone viene inquadrato come filosofo sradicato dalla concretezza del mondo e proiettato nell’Iperuranio, ciò è dovuto perlopiù alla ormai superata (ma ancora presente) visione diffusa dalla formazione scolastica ordinaria. Invece, la filosofia di Platone è profondamente radicata nel mondo fisico e materiale.
Ѐ noto a tutti che per Platone vi sia una memoria di genere immortale, la quale provvede alla reminiscenza (anamnesis) degli oggetti intelligibili. Meno noto e poco esplicito nei dialoghi è invece l’altro genere, quello “mortale” (non è questo il termine platonico), inteso come proprio della condizione incarnata dell’Anima immortale in un vivente (zoòn).
La Memoria (mneme) è una delle facoltà dell’anima, quella di imprimere, tracciare o racchiudere nella forma di ricordo (hypomnema) le informazioni che otteniamo da oggetti incontrati attraverso l’esperienza empirica. Essa è l’insieme di ciò che si è sedimentato nell’anima a partire dalle sensazioni memorabili, prodotte dall’esperienza che facciamo di oggetti che esistono fisicamente nel mondo empirico (il processo completo è esposto nel discorso fisiologico contenuto nel Timeo1).
Il tema che ci interessa indagare in questo articolo è quello della “volatilità” del sapere in Platone, per produrre nuovi spunti di riflessione che siano utili nel dibattito odierno.
Ri-memorazione e memoria mortale.
La reminiscenza (anamnesis) è un’operazione prodotta dalla sola Anima immortale. Più propriamente essa è una forma del ri-memorare oggetti visti nella condizione disincarnata. L’operazione dell’apprendimento (mathesis) di nozioni avviene, invece, durante la vita e il contenuto di una memoria “mortale” (il ricordo) può dissolversi irrimediabilmente. La memoria nella sua totalità cessa definitivamente la propria esistenza con la morte del vivente che lo possiede, perciò con lo scioglimento dei vincoli tra l’anima e il corpo.
In primo luogo possiamo affermare l’esistenza di una memoria “mortale” nel pensiero di Platone per almeno due ragioni:
- non ci è pervenuta nessuna traccia diretta, testimonianza indiretta o qualsiasi forma di accenno a proposito della possibilità di reminiscenza di ricordi appartenenti a vite passate - come invece è presente nelle dossografie pitagoriche2, che Egli conosceva e custodiva gelosamente nella propria biblioteca;
- nei dialoghi che affrontano problemi legati sia alla reminiscenza che alla metempsicosi, troviamo l’idea che a ogni nuova incarnazione debba esservi un “reset” della memoria in relazione alla vita empirica (si veda nello specifico il “Mito di Er”3)
Durevolezza delle forme della conoscenza.
Parrebbe anche che, sul piano mortale, le conoscenze pratiche e dell’esperienza empirica siano più durevoli rispetto a quelle epistemologicamente superiori (“scientifiche”) del filosofo o del matematico - i quali hanno come proprio oggetto ultimo gli intelligibili.
Questo lo si può dedurre in particolare da un passo del prologo drammaturgico del Timeo. Qui Crizia il Giovane riporta un racconto che apprese da bambino, nel quale Solone incontrò in Egitto un sacerdote che così affermava:
«“Siete tutti giovani d’animo (voi greci) [...] perché non avete nelle vostre anime nessuna opinione antica trasmessa attraverso una tradizione che proviene dal passato né alcun sapere ingrigito dal passare del tempo».
Prosegue poi con la motivazione di questa brevità della memoria collettiva che imputa ai greci:
«ogni cosa viene registrata, fin dall’antichità, nei nostri templi e conservata alla memoria», mentre in Grecia «a intervalli regolari di tempo, come una malattia, torna il flusso del cielo che vi inonda e non lascia illesi fra voi che gli illetterati e i nemici delle Muse (gli incolti), sicché ricominciate nuovamente dal principio, come tornati giovani». Per di più, aggiunge il sacerdote: «nel corso di molte generazioni, i sopravvissuti sono morti senza aver fissato la loro voce nella scrittura». (Tim. 22 d – e)
In questo passo possiamo individuare almeno sei punti di riflessione ancora validi nel contesto d’oggi:
- la scrittura esprime qui il suo ruolo di strumento tecnico corruttibile ma preservabile dalla distruzione, perciò tramandabile;
- la scrittura è uno strumento tecnico ausiliario, che richiede una stabilità materiale continuativa della società per essere mantenuto e motivato nell’uso ordinario;
- il vivente mortale, se non ha né la possibilità né la premura di tramandare il prodotto della propria conoscenza, non conserverà un sapere collaudato da mettere a disposizione dei posteri;
- la condizione del dopo-catastrofe è analoga a un “momento zero” della memoria mortale, un “cominciare nuovamente da principio” simile a quello di un'anima incarnata;
- i saperi pratici “degli illetterati e degli incolti” sopravvivono più facilmente rispetto a quelli di filosofi e scienziati; sono inoltre propedeutici a porre le basi di quella stabilità materiale e tecnica che rende possibile l’accumulo del sapere;
- l’accumulo di un sapere avanzato e complesso, come quello “scientifico” (episteme), non è necessario alla vita, ma è un “in più”.
Platone nei suoi dialoghi ci indica anche che, quando si sia memorizzata un’informazione, la sua durevolezza dipenderà non solo dalle condizioni in cui il suo proprietario la custodisce e preserva, ma anche da come egli l’ha ottenuta. Ad esempio, Crizia il Giovane racconta una storia di cui ha acquisito un ricordo “vivido”, in quanto giovane, attento e partecipativo nel momento del suo apprendimento4. Un caso diverso è invece quello di Fedro che, nel dialogo omonimo, deve confrontarsi con un’opera scritta che necessita di rileggere più volte per ricordarla “alla lettera” al fine di poter tenere il proprio discorso5 basato su di essa.
Nel primo caso, quello di Crizia, la qualità del ricordo è dovuta alle caratteristiche che contraddistinguono il momento in cui egli ha appreso un’informazione, ossia la pregnanza dell’esperienza di apprendimento dei fanciulli. Nel secondo caso, quello di Fedro, la qualità della formazione del ricordo sarà dovuta all’ausilio di strategie mnemotecniche, quali la rilettura e la ripetizione a voce alta.
Conclusioni e domande aperte.
Per concludere, il problema della conservazione, del tramandare e della possibile perdita della memoria (nel senso più ampio che comprende storie, tradizioni, tecniche e conoscenze) è un fenomeno oggi ancora più complesso. In particolare se guardiamo al fenomeno di progressiva sostituzione dei mezzi “tradizionali” di trasmissione dell’oralità e della scrittura manuale in favore della digitalizzazione dell’informazione.
Quante tipologie e forme di “memoria” abbiamo a oggi sviluppato e quali si stanno depotenziando o stanno scomparendo?
Quante forme della scrittura possediamo e quali competenze sono necessarie per farne uso?
Quanti livelli di linguaggio e quante forme di linguaggio esistono per la sola codificazione informatica dell’informazione?
Quali i pericoli a cui si espone la loro conservazione?
Ai cataclismi menzionati dal sacerdote egizio incontrato da Solone, evidentemente ancora presenti e comunque imprevedibili quali si aggiungono oggigiorno?
Ovviamente, sono queste tutte domande complesse che richiedono risposte altrettanto articolate. Ad esempio, per i supporti di archiviazione digitale, da cui oramai dipendiamo largamente, sono deleteri i fenomeni elettrici, magnetici ed elettromagnetici, i quali sono tutti in grado di cancellare, corrompere o rendere inaccessibili, se non addirittura irrecuperabili, le informazioni registrate.
L'informazione digitale e la sua memorizzazione quanto sono volatili? Quanto durevoli? Quanto sono "delicate"?
La stessa obsolescenza delle tecnologie e delle tecniche di conservazione e riproduzione dell’informazione, giorno per giorno avvia verso la fine la riproducibilità delle precedenti forme di “memoria”, sia collettiva che individuale (foto, video, documenti, scansioni di immagini, etc.). Gli attuali dispositivi che possediamo saranno sempre meno reperibili con l’avanzare di nuove tecnologie e dei relativi sistemi che ne permettono il funzionamento?
I dispositivi attualmente in uso, per quanto collaudati, non saranno un giorno più compatibili con quelli più avanzati, per protocolli di scrittura e lettura?
Saranno reperibili le tecnologie di giunzione che permettono di interfacciare fisicamente vecchi e nuovi dispositivi di archiviazione di memoria?
Le tecnologie di traduzione e conversione reciproca tra vecchi e nuovi protocolli di archiviazione dell’informazione saranno ancora implementate sui nuovi dispositivi o saranno ancora reperibili e adoperabili?
Quali altre problematiche sono riscontrabili o sono di imminente larga diffusione?
La memoria è un affare complesso, sia individuale che collettivo.
NOTE:
1 Tim. 42 d - segg. e 69 c - segg.
2 Centrone, B. 1996, Introduzione a i pitagorici, Editori Laterza, Roma-Bari, pp. 52-61
3 Resp. 614 b - 621 d
4 Tim. 26 b
5 Phaedr. 228 a
Intelligenza Artificiale - Simulacri di Arte senza arte
La maggior parte degli articoli scritti sull’argomento “Intelligenza Artificiale e Arte”, compresi quelli di questa rivista, suonano ottimisti. Il loro pathos si riduce all’idea che l’intelligenza artificiale sostituisca il creatore umano solo nei livelli inferiori e tecnici del processo creativo, ma che l’uomo mantenga la funzione di operatore: è lui a impostare gli algoritmi secondo i quali l’IA opera, e quindi conserva lo status di soggetto del processo creativo.
Tuttavia, questa conclusione è ingannevole: i praticanti e i teorici dell’arte che vi aderiscono sono, consapevolmente o meno, vittime di un’autoillusione, e vi sono alcuni argomenti che lo confermano.
Già nel 1992, Neil Postman scriveva che le tecnologie non sono neutrali, esse cambiano chi le utilizza, e nella fase attuale, che Postman definisce “tecnocrazia”, le tecnologie si sono trasformate in un sistema che ha sottomesso tutte le altre aree della cultura. Yanis Varoufakis richiama l’attenzione su questo schema in relazione all’uso dell’IA nell’economia: l’IA “cloud” non produce nulla, controlla solo il comportamento umano, spingendo le persone ad acquistare ciò che l’algoritmo suggerisce. Nelle impostazioni di base dell’IA, indipendentemente dall’ambito in cui viene usata, l’obiettivo principale incorporato è vendere (beni, idee, storie, pensieri), manipolando la coscienza adulando gli utenti. Usando l’IA anche nelle operazioni più semplici, la persona cede gradualmente le proprie posizioni, cominciando ad agire secondo l’algoritmo dato e perdendo progressivamente la propria soggettività. Da gestore si trasforma in controllato, da soggetto diventa oggetto di un processo che non è più regolato da lui. Negli ultimi anni, Hollywood è stata scossa da proteste da parte degli sceneggiatori, il cui lavoro è stato massicciamente sostituito dai prodotti dell’IA. Le ragioni della protesta non sono solo la perdita del lavoro e, di conseguenza, del reddito, ma anche l’eccessiva qualità delle sceneggiature scritte dall’IA. Il regista Todd Haynes afferma che le storie create dalla rete neurale sono troppo levigate, prive di errori, imprevedibilità, incoerenze, cioè prive della vita stessa. E la cosa peggiore, secondo lui, è che gli stessi sceneggiatori hanno iniziato a scrivere storie altrettanto “senza vita”, come se fossero create da un’IA.
L’intelligenza artificiale, in qualsiasi forma e volume di utilizzo, è controindicata per l’arte, perché con la sua illimitata capacità di imitazione si oppone all’essenza stessa dell’arte, sia dal punto di vista del processo creativo che dal punto di vista della percezione. Prima di tutto, la rete neurale rompe l’unità di corpo, anima e mente (l’entelechia di Aristotele), che è la base di qualsiasi arte: i primi due componenti di questa triade non sono rilevanti per l’IA. Pertanto, l’IA non ha e non può avere emozioni: può solo imitarle. L’interazione di mente, sentimento e corpo crea una polisemia intrinseca, che è uno dei criteri più importanti del valore artistico di un’opera d’arte. Più un testo – nel senso ampio del termine – è polisemico, più è aperto a interpretazioni, più è significativo, più è importante per l’umanità. Qualunque cosa crei l’IA, per quanto tecnicamente complessa possa essere, è semplice nel contenuto, o meglio, primitiva, unilineare e non implica alcuna interpretazione. Queste sono solo alcune delle differenze fondamentali tra la vera arte e l’arte creata dall’IA. La questione di come far sì che le persone apprezzino un’arte che non è arte è l’argomento di questo articolo.
La storia della cultura ha stabilito il seguente schema costante: per l’introduzione ampia e universale di nuove tecnologie che cambiano significativamente il mondo, non è necessaria innanzitutto la corrispondente evoluzione tecnica, ma piuttosto la disponibilità della coscienza collettiva ad accettarle. In altre parole, i cambiamenti nella coscienza precedono la diffusione capillare delle tecnologie. I cambiamenti di coscienza che si muovono verso l’IA sono iniziati con la nascita della cultura di massa e di tutti i suoi attributi. Il primo di questi è la semplificazione delle idee e delle forme, che porta a un vuoto concettuale. Generi semplici, come la canzone, la danza o il disegno a matita, non sono necessariamente legati a contenuti primitivi (e viceversa). Ma nella cultura di massa diventano un percorso verso pensieri e sentimenti superficiali, che non richiedono alcun lavoro interiore per essere compresi e vissuti. Il successo facile e rapido in ogni cosa è uno degli slogan principali della cultura di massa, e questo vale anche per l’arte. Al posto del lavoro mentale su significati e interpretazioni – rilassamento nel consumo di soluzioni già pronte; al posto della catarsi che sconvolge l’anima – piacere facile e intrattenimento. I sentimenti e i pensieri evocati dall’arte di massa sono standardizzati e superficiali, come scriveva J. Ortega y Gasset: “l’uomo-massa rivendica il diritto alla mediocrità.” Un altro attributo è la replicabilità, con lo scopo di rendere fisicamente disponibile l’arte a tutti, il che in realtà porta a sfumare la distinzione tra originale e copia. Oggi, l’IA può generare qualsiasi immagine esteriormente indistinguibile dall’originale realizzato dal più brillante degli artisti, e per rendere il prodotto di una rete neurale legittimo quanto l’opera originale, è necessario delegittimare e poi distruggere fisicamente le differenze tra i due: se non possiamo distinguere un dipinto di Leonardo da uno disegnato da una rete neurale, allora perché dovremmo aver bisogno di Leonardo? Distruggere il criterio con cui il reale si distingue dal falso è la strategia principale per abituare le persone all’IA.
Ma se ciò è facile da fare nella cultura pop, l’arte classica sembra rappresentare un serio ostacolo su questa strada, e sono state sviluppate strategie speciali contro di essa. Spiegherò il mio punto con un esempio. Negli ultimi decenni, la musica accademica europea è stata investita dalla moda della cosiddetta “regia d’opera” – allestimenti liberi di opere classiche che impongono trame che non hanno nulla a che vedere con la fonte originale. Ci sono moltissimi esempi: i registi di tutti i teatri d’opera del mondo competono nel mostrare la loro immaginazione. Ne cito uno: la produzione del Parsifal di R. Wagner da parte del regista alla moda C. Serebrennikov all’Opera di Vienna, dove sul palco viene mostrato il GULAG accompagnato dalla musica del grande compositore tedesco. Ricordo che la trama di quest’opera, come di molte altre di Wagner, si basa sull’epica medievale tedesca e che la partitura dell’opera è un complesso lavoro sinfonico con un vasto sistema di leitmotiv e una drammaturgia musicale intricata, attraverso cui si rivelano le idee di Wagner. Mettere in scena un’opera – qualsiasi opera, e in particolare un’opera wagneriana – significa decifrare la partitura musicale, ma il regista Serebrennikov (come la stragrande maggioranza dei registi moderni) non ha una formazione musicale. In questo spettacolo egli adula il pubblico: invece di cercare di comprendere i leitmotiv, di seguire il movimento dei simboli musicali, di approfondire la filosofia di Wagner, il pubblico viene intrattenuto da scene di GULAG – è così di moda, “spiega” direttamente ciò di cui Wagner parlava! È evidente l’introduzione di attributi della cultura di massa nell’arte classica, la vendita del primitivo sotto la veste del complesso.
Così, al posto dell’arte, compaiono simulacri di arte, simili nell’aspetto ma opposti nell’essenza. Vediamo la stessa situazione non solo nell’arte, ma anche in altri ambiti della nostra vita. Viviamo già in un mondo di simulacri totali, senza la possibilità di correlazione con l’autentico, perché la rete neurale può generare qualsiasi “prova” per i falsi diffusi dai media. Perciò non sappiamo chi sia l’aggressore e chi la vittima nella politica internazionale, non sappiamo chi sia il vincitore e chi lo sconfitto nella storia passata, talvolta non sappiamo neppure chi sia un uomo e chi una donna, e infine non sappiamo chi siamo. Per manipolare la coscienza collettiva, imponendole qualsiasi fantasma sotto le sembianze della verità, è necessario distruggere l’idea stessa di verità nella coscienza e sostituirla con un simulacro, e l’unico modo per farlo è cancellare i criteri di distinzione tra il simulacro e l’originale. Non è forse questo ciò di cui scriveva J.W. Goethe nel Faust?
Ma dove tutti sono orgogliosi della depravazione,
Mescolando i concetti,
L’onesto sarà colpevole,
E il colpevole avrà ragione.
Nulla era più sacro.
Ognuno è disperso e si divide.
Le fondamenta vengono scosse,
Quelle che crearono ogni cosa.
Sicuramente molti diranno che, sullo sfondo dei problemi globali moderni, la distinzione tra arte reale e arte finta non è così importante. Non posso essere d’accordo, perché l’arte riflette in forma concentrata tutti i problemi del nostro mondo: l’arte è la principale fonte per mantenere l’identità e l’integrità dell’essere umano. Nel 1986, il grande regista sovietico Georgij Danelija realizzò la profetica distopia Kin-dza-dza. Essa mostra una società incredibilmente avanzata dal punto di vista tecnico, su un pianeta lontano, dove le persone volano liberamente tra le galassie, hanno armi sofisticate, leggono i pensieri altrui e comprendono qualsiasi lingua senza interprete. Ma le loro vite sono terribili, il loro mondo interiore è orribilmente primitivo, il pianeta è diventato un deserto senza acqua e aria, e la regola principale della società è che l’uomo è nemico dell’altro uomo. Tutto perché sul pianeta non esiste arte né alcunché legato all’estetica: le persone hanno perso la capacità di apprezzare e produrre una vera bellezza umana, e ciò ha trasformato le loro vite in un simulacro di vita, e loro stessi in simulacri di persone. Più introduciamo l’IA nell’arte, più ci avviciniamo alla civiltà di Kin-dza-dza.
NOTE BIBLIOGRAFICHE
- Postman, Neil. Technopoly: The Surrender of Culture to Technology. New York: Vintage Books, 1993
- Rottenberg, Josh. Hollywood’s being reshaped by generative AI. What does it mean for screenwriters? // Los Angeles Times, July, 17, 2025.
- Varoufakis Yanis. Technofeudalism: What Killed Capitalism, Bodley Head UK, 2023
La predizione dell’assassino - La metafora del romanzo giallo per definire la conoscenza
MODELLI DI SAPIENZA
Ogni epoca ha riverito un certo modello di sapiente, e ha interpretato il suo stile di vita, il suo metodo di veridizione, persino i suoi gesti, come un’incarnazione della conoscenza. Gli sciamani nella lunga fase che precede la scrittura, il filosofo nel mondo classico, il monaco nel Medioevo, il fisico dell’età moderna, hanno interpretato questo ruolo. Se si dà retta a un’intervista rilasciata da Ilya Sutskever a Jensen Huang, il sapiente dei nostri giorni sembra coincidere con il detective o il commissario di polizia dei romanzi gialli. La verità precipita nell’istante in cui l’investigatore riunisce i sospettati nella scena finale della storia, e svela l’identità dell’assassino. L’illuminazione coincide con il momento esatto in cui viene pronunciato il nome del criminale, perché la conoscenza non esiste fino a un attimo prima, e non sarebbe apparsa senza la performance discorsiva del protagonista.
Per quanto questo inquadramento del sapere contemporaneo possa sembrare curioso, non può essere sottovalutato né stimato come una farsa, dal momento che Ilya Sutskever è uno dei soci fondatori di OpenAI e il padre tecnologico di ChatGPT, mentre Jensen Huang è uno dei soci fondatori e il CEO di Nvidia, la società più capitalizzata del mondo, e la principale produttrice dei processori per i server dei software di intelligenza artificiale. La loro conversazione prende in esame alcuni passaggi storici dell’evoluzione del deep learning, e i successi degli ultimi anni vengono citati come prove di correttezza per gli assunti da cui il lavoro sulle reti neurali è partito – molto in sordina – alcuni decenni fa: il postulato che questa tecnologia riproduca il funzionamento di base del cervello umano, e rispecchi quindi la struttura materiale della mente. Sutskever, come il suo maestro e premio Nobel per la fisica Geoffry Hinton, è convinto che la realizzazione di un’Intelligenza Artificiale Generale (AGI) sia raggiungibile, e forse non sia nemmeno troppo distante. L’analogia tra le reti neurali e il funzionamento del sistema nervoso centrale fornirebbe una prova a favore di questa tesi, e il livello delle prestazioni raggiunto dalle AI generative trasformative, come ChatGPT, conferma questa suggestione. Vale la pena di approfondire allora in che modo si comporterebbe l’intelligenza umana che Sutskever propone come modello per l’AGI, e in che modo il software di OpenAI la starebbe emulando. Dopo mezz’oretta di chiacchiere Huang e il suo interlocutore arrivano al punto, evocando il fantasma dell’investigatore nei romanzi gialli.
PREDIZIONI LESSICALI
Il discorso dell’ispettore deve permetterci di comprendere anche il modo in cui afferra la verità Newton nel suo laboratorio di fisica, Tommaso d’Aquino nello sviluppo di una questio, o chiunque di noi mentre risponde ad una mail di lavoro.
Nelle battute precedenti dell’intervista, Sutskever chiarisce i principi del funzionamento di ChatGPT e delle altre intelligenze artificiali generative trasformative. Gli zettabyte di dati disponibili online confezionano un archivio di testi per il training delle reti neurali, che agevola il loro compito di individuare le correlazione tra i vocaboli: durante una vita intera, ognuno di noi entra in contatto con circa un miliardo di parole, mentre il volume di quelle censite nelle banche dati delle AI è di un ordine di decine di migliaia maggiore. Lo scopo di questo lavoro del software è identificare lo spazio semantico di ogni lemma, classificandolo sulla base delle «compagnie che frequenta»: per esempio, in italiano la parola |finestra| appare con maggiore probabilità accanto a |casa| e a |porta|; con probabilità di due terzi inferiore occorre accanto a |tempo|, che figura comunque con il doppio della probabilità di |programma|, a sua volta due volte più probabile di |applicazione| e di |giorni|. La frequenza dei termini che si succedono a breve distanza nelle stesse frasi insegnano che |finestra| può riferirsi a un elemento architettonico, a un ambiente di interazione informatico, a un periodo cronologico. Un esame ricorsivo su ciascuna parola permette di ricavare un modello di calcolo che assegna ogni termine ad una famiglia di probabilità di apparizione accanto ad altri lemmi: ogni contesto lessicale viene rappresentato da un vettore nello spazio multidimensionale, che analizza le modalità con cui la parola è stata applicata nei testi dell’archivio.
Quando il software dialoga con l’utente umano, la mappatura delle correlazioni che governano le possibili occorrenze delle parole diventa la matrice da cui viene derivata la composizione delle frasi e del testo generato dall’AI. Sutskever rivendica con fierezza il miglioramento della capacità di ChatGPT-4, rispetto alle versioni precedenti, di predire con correttezza quale debba essere il termine da stampare dopo quello appena scritto. Il compito che viene eseguito dal programma, ogni volta che interagisce con il prompt dell’utente, è partire dalle parole che l’essere umano ha imputato nella domanda e calcolare, uno dopo l’altro, quali sono i vocaboli che deve allineare nelle proposizioni che costituiscono la risposta.
L’immagine dell’intelligenza che viene restituita da questa descrizione somiglia in modo preoccupante a quella di un «pappagallo stocastico», un ripetitore meccanico di termini appresi a memoria, senza alcuna idea di cosa stia dicendo. Ma questo ritratto contrasta sia con il vaticinio di un avvento prossimo dell’AGI, sia con il programma di una migliore comprensione del funzionamento della mente umana, che si trova alla base della carriera di Sutskever fin dagli esordi in Europa. Il modello dell’ispettore e dell’agnizione del colpevole al termine della sua ricostruzione dei fatti e delle testimonianze serve ad aggirare questo fastidio. Il discorso conclusivo dell’investigatore deve convergere verso la predizione di una parola, che si trova alla fine della sua dissertazione, e deve coincidere con il nome del vero assassino.
COS'È LA VERITÀ
Nell’argomentazione dell’ispettore la parola conclusiva è un enunciato che racchiude, nel riferimento ad uno specifico individuo, un intero orizzonte di verità, in cui si svela l’autentico significato di relazioni personali, di comportamenti, di dichiarazioni precedenti, di indizi reali e presunti. In questa eccezionalità si racchiude la suggestione del modello evocato da Sutskever, che nella predizione di un solo nome concentra una storia intera, insieme al successo del metodo empirico di inadagine, e a quello della corrispondenza tra linguaggio e realtà. Dal suo punto di vista il tipo di conoscenza, che si dispiega nella sequenza di parole con cui si raggiunge l’enunciazione del nome dell’assassino, equivale alla forma piena del sapere che può essere elaborata e conquistata dagli esseri umani, dagli anonimi sciamani nelle caverne di Lescaux a Platone, a Tommaso d’Aquino, a Newton. ChatGPT predice di volta in volta la parola che deve occorrere dopo quella appena stampata, come l’investigtore arriva a pronunciare il nome dell’assassino – e questo è tutto quello che si può dire dal punto di vista scientifico e tecnologico sull’intelligenza.
Ho già discusso qui il sospetto che la rete neurale, (in cui ogni unità di calcolo entra in competizione con tutte le altre nella sua conoscenza limitata, e in cui solo il sistema nella sua totalità può disporre di un sapere completo sulla realtà) sia la rappresentazione della struttura neoliberista della società in cui vengono progettati questi dispositivi, più che una proiezione della struttura cerebrale: non insisto quindi su questo tema.
Per quanto riguarda la teoria della verità e la teoria del linguaggio sottesa alle convinzioni di Sutskever, è opportuno che chi è stato battezzato con un nome toccato in sorte di frequente ad assassini e delinquenti di vario genere, provveda a modificare la propria identità all’anagrafe, o ad allestire manovre di sabotaggio preventive, perché i detective artificiali mostreranno una certa inclinazione a imputargli ogni genere di crimini. Pregiudizi in fondo non molto differenti hanno contribuito, con giudici e agenti di polizia umani, a riempire le carceri americane di detenuti neri.
Ironie a parte, è curioso constatare la svolta epistemologica in corso negli ambienti tecnologici di chi si occupa di scienze della mente. Dopo decenni di stretta osservanza chomskyana, per cui i principi del linguaggio sarebbero cablati nel cervello e sarebbero quindi uguali per tutti gli esseri umani, la passione per l’AGI sta risvegliando l’interesse per la cosiddetta «ipotesi Sapir-Whorf» (2), con un’interpretazione molto più radicale di quella cui avrebbero assentito i due linguisti eponimi. Per Edward Sapir e Benjamin Lee Whorf la percezione della realtà e il pensiero vengono informati dalle categorie grammaticali e semantiche della lingua parlata dalla comunità; ma la tesi sostenuta da Sutskever (e di fatto condivisa da tutti coloro che riconoscono in ChatGPT l’imminenza dell’AGI) è che la distribuzione statistica delle parole, e la loro linearizzazione in un discorso, esauriscano tutto quello che possiamo sapere sull’intelligenza. La macchina del linguaggio, con la sua struttura sintattica, ma soprattutto con l’archivio dei testi depositati nella tradizione storica, è il dispositivo che produce la nostra percezione della realtà e che genera ogni nuovo enunciato sulla verità, dagli imbonitori nei mercati rionali ai paper dei premi Nobel.
La metafora dell’investigatore chiarisce che il meccanismo funziona solo entro il perimetro di vincoli piuttosto rigidi. Il poliziesco è un genere letterario con assiomi ontologici forti, che includono categorie prive di ambiguità – vittima, colpevole, movente, arma, esecuzione, complice, ispettore, sospettati, innocenti, testimonianze, indizi, prove, spiegazione razionale. Il conflitto di classe, il dibattito sul sistema penale, il rapporto tra potere e scienza, il concetto di individualità, di responsabilità, di causalità, sono tutti elementi che ricadono al di fuori del contratto enunciativo che si stabilisce tra narratore e lettore. Allo stesso modo, nel quadro teoretico che sostiene la tesi di Sutskever, la possibilità che l’intelligenza si interroghi sulle premesse e sugli obiettivi dei problemi è esclusa, a vantaggio di una visione puramente strumentale del pensiero: il processo razionale deve individuare i mezzi per raggiungere l’obiettivo (nella metafora, per smascherare l’assassino), senza domandarsi quali sono le ragioni per farlo, o la validità dell’obiettivo, o chiedersi se esista davvero l’assassino e se sia uno solo, se la responsabilità non debba essere distribuita in modo diverso da quello che impone la tradizione.
La tradizione del corpus storico dei testi apre e chiude la possibilità stessa della veridizione, del pensiero, dell’intelligenza: la combinatoria messa in opera dalla macchina statistica che (secondo Sutskever) è il linguaggio non può, e non deve, coniare nuovi significati per vecchi significanti, cercare nuove espressioni per interpretare la società e la realtà attuali. La riproduzione è il senso della generazione, e non ci sono vie d’uscita al labirinto dell’infinita ricombinazione delle parole che significano sempre le stesse cose.
È questa l’intelligenza che vogliamo?
RIFERIMENTI BIBLIOGRAFICI
- Fireside Chat with Ilya Sutskever and Jensen Huang: AI Today and Vision of the Future, Nvidia, 22 marzo 2023, ora disponibile alla url: https://www.nvidia.com/en-us/on-demand/session/gtcspring23-s52092.
- Cfr. in particolare Benjamin Lee Whorf, Linguaggio, pensiero e realtà, tr. It. a cura di Francesco Ciafaloni, Bollati Boringhieri, Torino 2018.
Ontologie dell’Intelligenza Artificiale
Parlare di intelligenza artificiale senza ricadere nella trita contrapposizione tra la visione “apocalittica” e quella “integrata” (che possono ben coesistere, ne ho parlato qui) è uno dei compiti che Controversie sta perseguendo dalle prime uscite nell’ottobre del 2023, con più di 40 articoli a tema.
In questo percorso abbiamo lavorato sulla dimensione morale correlata all’utilizzo delle tecnologie intelligenti (e innovative, più in generale), sulla relazione tra I.A. e produzione artistica, sul suo uso bellico, su quello nelle aziende, sui bias culturali che riproduce dando loro una parvenza di oggettività, di I.A. e sovranismo, sulla possibile soggettività personale della macchine intelligenti e, infine, sullo sdoganamento nelle università.
Riteniamo, però, che sia opportuno anche prendere in considerazione la dimensione ontologica dell’intelligenza artificiale, cercare di mettere a terra “cos’è” la I.A..
Per farlo, utilizziamo, ma nello stesso tempo cerchiamo di andare oltre, le definizioni di ontologia più accreditate, come quella di un gigante delle tecnologie, la Oracle Corporation:
Perché andare oltre questa chiarissima definizione?
Ci sono numerose buone ragioni. Proviamo a focalizzarci su alcune:
- tentare di ridimensionare e depolarizzare i toni del dibattito che ferve intorno alla I.A., dibattito che troppo spesso prende la forma di una contrapposizione tra “integrati” e “apocalittici” (ne abbiamo parlato qui)
- comprendere meglio, grazie alla maggiore chiarezza su cos’è e che tipo di approccio adottare nella relazione con queste tecnologie
- cogliere chi e come siamo noi, umani, quando le progettiamo e le utilizziamo
- per stabilire delle scale di valori che ne guidino lo sviluppo e l’applicazione
- dare, quindi, un senso alla loro presenza nel mondo in cui viviamo.
Ora, proprio di ontologia delle I.A. parleremo nel corso della Tavola Rotonda “Ontologie dell’Intelligenza Artificiale” organizzata da Controversie per il giorno 11 giugno in Statale. Usiamo il plurale (le I.A.) perché non c’è una sola intelligenza artificiale ma si tratta di un fenomeno polimorfo, a partire dalle forme di Large Language Model più diffusi, come GPT, Gemini, LLaMA, Claude, per arrivare alle applicazioni verticali meno note quali, ad esempio, LucrezIA, sviluppata dall’Università di Padova anche per le attività didattiche (ne abbiamo parlato qui) –
Senza pensare di esaurire lo spazio delle forme ontologiche in cui si può presentare l’Intelligenza Artificiale, nel corso del dibattito:
- affronteremo il fatto che le I.A. sono dei programmi, delle sequenze di righe di codice, attraverso l’esame di un esempio prototipale della metà degli anni ’80, cogliendone la capacità di migliorarsi attraverso le informazioni raccolte (secondo la definizione di Oracle Corporation);
- vedremo la collocazione di questa pietra miliare nella filogenesi dei due principali paradigmi attuali di I.A. e nella ripartizione tra software più tradizionali, in cui lo sviluppatore inserisce esplicitamente tutte le regole di comportamento e reti neurali, che sono in grado di apprendere con vari metodi di training;
- cercheremo la possibilità di definire l’ontologia delle I.A. attraverso le sue applicazioni verticali, seguendo una traccia fenomenologica, analizzandone l’uso-per, in particolare per le applicazioni in campo medico;
- adotteremo una prospettiva di analisi più ludica che permette di caratterizzare cos’è la I.A. attraverso lo studio dell’utopia nell'immaginario della fantascienza sullo schermo e nei fumetti;
- studieremo, infine, una meta-dimensione della questione che suggerisce di interpretare la I.A., più che come soggetto, come ambiente cognitivo che definisce, modella, deforma l’ontologia dell’umano.
In questo percorso ci addentreremo anche in questioni delicate sulle proprietà delle ontologie delle I.A., tra le quali la possibilità che possano essere in qualche modo coscienti.
Quale verità? L'intelligenza artificiale e lo smarrimento epistemico
UNA NUOVA SFIDA PER LA CONOSCENZA - PREMESSA METODOLOGICA
Questo articolo inaugura una serie di approfondimenti sull'impatto dell'intelligenza artificiale sui nostri sistemi di conoscenza. Il tema è troppo vasto per essere esaurito in un solo testo, e troppo importante per essere trattato superficialmente. In questa prima parte, propongo il concetto di "smarrimento epistemico" come chiave interpretativa generale. Nei prossimi articoli, scenderò nel dettaglio di questioni specifiche. Come ad esempio:
- i meccanismi linguistici dei modelli generativi e le implicazioni cognitive nonché il tema della fiducia nella conoscenza e i suoi metodi
- le implicazioni umane e concrete nei settori professionali (commercio, media, diritto, educazione, etc.)
- le risposte normative, educative e pragmatiche che stiamo sperimentando
CHE COS'È LA CONOSCENZA QUANDO TUTTO PUÒ ESSERE SIMULATO?
La conoscenza può assumere forme diverse: sperimentale, narrativa, deduttiva, esperienziale. In ambito accademico scientifico, il metodo scientifico rappresenta in realtà soltanto un elemento. Questo perché, in definitiva, il gold standard conoscitivo potrebbe essere non una singola metodologia, ma la capacità di scegliere il metodo più appropriato al dominio in studio. E per rigore scientifico e intellettuale, richiede anche la capacità di rimanere aperti, in maniera trasparente, alla correzione e alla revisione costante. Non c’è una scienza, ma ci sono le “scienze”.
Ma cosa succede quando l'intelligenza artificiale non si limita a offrirci nuovi strumenti, ma inizia a riconfigurare le infrastrutture stesse attraverso cui produciamo, trasmettiamo e valutiamo la conoscenza? È qui che si gioca la partita epistemologica del nostro tempo.
QUANDO L'APPARENZA INGANNA: IL CASO DELL'AVVOCATO E DELLE SENTENZE FANTASMA
Nel 2023, l'avvocato Steven Schwartz si è trovato protagonista di una vicenda che oggi considero emblematica. Ha presentato alla Corte di New York una serie di citazioni giuridiche generate da ChatGPT. Apparivano perfette: coerenza formale impeccabile, riferimenti precisi, linguaggio tecnico inappuntabile. Il problema? Erano completamente inventate. Sentenze mai esistite, casi mai accaduti, dottrine giuridiche nate dalla fantasia algoritmica.
Non si trattava solo di un errore tecnico. Quello che è emerso è qualcosa di più inquietante: l'erosione della relazione tradizionale tra forma e verità. La credibilità linguistica non coincide più con l'autenticità dei contenuti. È una trasformazione che tocca il cuore di come attribuiamo fiducia alle informazioni che riceviamo.
L'EROSIONE DELLA FIDUCIA: QUANDO DUBITIAMO DI TUTTO
La ricerca in psicologia sociale ci ha insegnato che la nostra fiducia in un contenuto non dipende solo dalla sua forma, ma dalla fiducia nell'infrastruttura che lo produce. Quando leggiamo un articolo su una rivista scientifica, la nostra valutazione si basa anche sulla reputazione della rivista, sul processo di peer review, sull'autorevolezza dell'autore.
Oggi, istituzioni come giornali, università e tribunali stanno iniziando a integrare sistemi di generazione automatica nei loro processi. Questo non mette sotto pressione solo la qualità dei contenuti, ma le infrastrutture stesse della conoscenza che abbiamo costruito nei secoli.
Il vero problema non è che l'IA possa generare errori o falsità. Dopotutto questo succede anche a noi esseri umani. Il punto è un altro: la contaminazione retroattiva della fiducia. Quando scopriamo che anche contenuti apparentemente perfetti possono essere sintetici, iniziamo inevitabilmente a dubitare anche di quelli autentici.
Questa è la distinzione cruciale tra semplice disinformazione (che presuppone comunque la possibilità di smascherare il falso) e quello che propongo di chiamare “smarrimento epistemico”: la perdita progressiva degli strumenti stessi per distinguere il vero dal falso. E se il falso è causato dall’utilizzo dell’IA, chi è responsabile?
OLTRE LE SOLUZIONI TECNICHE
Watermarking digitale, fact-checking potenziato, regolamenti come l'AI Act europeo: sono tutti strumenti utili, ma non risolvono il problema epistemico di fondo. Il watermarking può essere aggirato con relativa facilità, il fact-checking è strutturalmente troppo lento rispetto alla velocità di produzione dei contenuti artificiali, le norme si concentrano sulla trasparenza formale senza affrontare il problema cognitivo.
Il cuore della questione è più profondo e più umano: che ruolo vogliamo assegnare all'essere umano nel processo di conoscenza? Cosa resta dell'esperienza vissuta, dell'intuizione coltivata, del giudizio critico formato nel tempo, se la forma può essere perfettamente automatizzata e l'autenticità è sempre in dubbio?
TRE SFIDE PER NAVIGARE IL PRESENTE
Come società, stiamo imparando a vivere in un mondo dove l'aspetto di un contenuto non garantisce più né la sua origine né la sua veridicità. Questo ci pone di fronte a tre sfide interconnesse:
A livello individuale: dobbiamo sviluppare una nuova alfabetizzazione critica, capace di riconoscere i pattern tipici della generazione artificiale senza cadere nella paranoia generalizzata. L’individuo è poi chiamato a sviluppare nuove skill, nuovi orizzonti formativi e una coscienza maggiore della propria umanità.
A livello istituzionale: università, media, sistemi giudiziari devono ridefinire i loro processi di validazione della conoscenza, trovando equilibri inediti tra efficienza, autenticità e fini ultimi.
A livello civile: lo smarrimento epistemico si manifesta come crisi dei riferimenti condivisi. Non è solo il singolo a disorientarsi, ma l’intero tessuto sociale a perdere coerenza nella produzione, circolazione e riconoscimento della conoscenza. Dibattiti pubblici basati su fonti inesistenti, polarizzazioni alimentate da contenuti artificiali credibili, l’equivalenza apparente tra opinioni e dati verificati: tutto questo erode la possibilità stessa di una società civile.
Difendere la qualità della conoscenza non è solo un compito accademico, ma una necessità democratica. Perché senza linguaggi condivisi, criteri minimi di verifica e fiducia epistemica reciproca, si rischia una frammentazione culturale senza precedenti. In altre parole, non solo i conflitti d’interesse o le inclinazioni politiche alterano ricerca o risultati scientifici, ora i bias diventano inesplorabili e dettati da algoritmi.
PROSPETTIVE PER IL FUTURO CHE STIAMO COSTRUENDO
Non possiamo permetterci di limitarci a "correggere lungo il cammino". Serve una leadership consapevole, a tutti i livelli: individuale, istituzionale, sociale, economica. L'intelligenza artificiale rappresenta probabilmente la più grande trasformazione epistemologica dalla nascita della stampa, e forse anche di più.
In futuro, la conoscenza dipenderà dalla nostra capacità di sviluppare nuove forme di discernimento critico, mantenendo vivo il valore insostituibile dell'intelligenza e dell'esperienza umana in un ecosistema informativo sempre più ibrido.
La sfida non è tecnologica: è profondamente umana. È una sfida fatta d’invisibile, che si vince con domande che aprono orizzonti e intuizioni di ciò che non è ancora, e forse mai sarà, codificabile o “scaricabile”.
Io studio e le infinite connessioni tra conoscenza, coscienza e umanità diverranno sempre più importanti.
Quali domande nel tuo ambito rimarranno profondamente umane?
---
Nei prossimi articoli di questa serie, approfondirò le questioni tecniche e settoriali accennate qui. Invito lettori ed esperti a contribuire al dibattito: solo attraverso un confronto aperto potremo sviluppare approcci adeguati a questa enorme sfida storica per tutta l’umanità.
BIBLIOGRAFIA
Bender, E. M., Gebru, T., McMillan-Major, A., & Shmitchell, S. (2021). On the dangers of stochastic parrots: Can language models be too big? Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency (FAccT), 610–623. https://doi.org/10.1145/3442188.3445922
Feizi, S., Saberi, A., Rezaei, A., Sadasivan, S., Kumar, A., Chegini, S., & Wang, D. (2023). Robustness of AI-Image Detectors: Fundamental Limits and Practical Attacks. arXiv preprint. https://arxiv.org/abs/2310.00076
Graves, L. (2016). Deciding What’s True: The Rise of Political Fact-Checking in American Journalism. New York: Columbia University Press.
Nemecek, J., Jiang, X., & Ayday, E. (2025). Watermarking Without Standards Is Not AI Governance. arXiv preprint. https://arxiv.org/abs/2505.13842
Pang, L., Hu, C., Zheng, Y., & Smith, R. (2024). No Free Lunch in LLM Watermarking: Trade-offs in Watermarking Design Choices. arXiv preprint. https://arxiv.org/abs/2402.16187
European Commission. (2021). Proposal for a Regulation Laying Down Harmonised Rules on Artificial Intelligence (Artificial Intelligence Act), COM (2021) 206 final. https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX:52021PC0206
Prodotti da forno intelligenti? – Una nuova forma di ibridazione
Di recente, un’azienda di comunicazione ha reso nota un’esperienza di uso ibrido tra intuizione umana e capacità dell’intelligenza artificiale. L’azienda è stata incaricata da un cliente di sviluppare un nuovo prodotto nella linea dei prodotti da forno salati.
Va ricordato che nel marketing, quando si parla di prodotto si intende – come minimo - la combinazione tra prodotto fisico (in questo caso, quello che si mangia), prezzo, posizionamento, packaging e immagine visuale.
Per realizzare questa operazione, l’agenzia ha avviato una ricerca sensoriale con giudici umani professionisti, coinvolgendo anche consumatori e community online di potenziali consumatori, che hanno definito le caratteristiche di sapore, consistenza e dimensioni, del prodotto fisico.
Poi, utilizzando le informazioni raccolte, ha chiesto a un sistema di Intelligenza Artificiale di generare dei visual evocativi che rappresentassero le caratteristiche desiderate del prodotto. Queste immagini hanno dato input a designer e addetti al marketing per sviluppare la dimensione di immagine e packaging del prodotto, da proporre al cliente.
Il risultato, il prodotto che sarà proposto sul mercato, costituito dalle diverse componenti, sembra essere, quindi, un ibrido tra creatività umana e lavoro di analisi e di sintesi svolto da una macchina.
Questo processo sinergico uomo-macchina sembra aver amplificato la creatività umana e pone la consueta domanda: il ruolo dell’ingegno umano è insostituibile? La IA può concepire modi di pensare differenti – magari non migliori ma sicuramente alieni - da quelli possibili per un umano? Grazie alle macchine intelligenti, può estendere il concetto stesso di creatività?
Proviamo a fare una prima razionalizzazione di questo tipo di approccio ibrido:
- In un processo di brainstorming, ogni partecipante espone la sua personale idea dell’argomento. Quando le idee sono esaurite, si fa un compendio delle possibili soluzioni reali. Al termine, si sceglie una o più di una per essere approfondite e una per essere sviluppata.
- Se Inseriamo la I.A. nel processo, questa può essere ennesimo partecipante che avanza una sua proposta, nata – evidentemente dai dettagli o dalle omissioni delle altre.
- Al termine del processo, la I.A. può fare il compendio di tutte le proposte e restituirlo all’umano, che lo rielaborerà con il suo pensiero e stile personale.
Se intensifichiamo l’ibridazione, possiamo immaginare che la I.A. generi – sulla base della conoscenza acquisita – anche un compendio completo di esempi, fatti e contraddittorio, mantenendo un “tono di voce” nello stesso tempo riflessivo e inclusivo. L’umano potrà, poi, personalizzare questo compendio secondo la propria sensibilità e stile.
Questo modello di approccio unirebbe la velocità della I.A. alla profondità della riflessione umana, favorendo la naturale tendenza umana a risparmiare energia come strategia di sopravvivenza. Alla IA si può affidare il compito più gravoso, tenere traccia e organizzare i contenuti, che svolgerà velocemente. L’uomo può ri-elaborare i contenuti con il proprio tocco personale.
Il risultato finale si può considerare una soluzione accettabile? Potremmo chiederlo all’umano e alla macchina, reiterando il processo fino a quando l’umano risponde positivamente.
Come può essere definita la forma intellettuale del risultato? Ci sarebbe arrivato comunque l’uomo? Ci sarebbe arrivata la macchina tra i suoi scenari possibili attingendo allo scibile a sua disposizione?
Di fatto, sembra assodato che l’ingegno umano sia caratterizzato dalla capacità di pensare in modo critico, di immaginare nuove possibilità e di trovare soluzioni non convenzionali ai problemi.
Queste qualità sono difficili da replicare completamente con la tecnologia, anche con i progressi dell’intelligenza artificiale. Questa può analizzare grandi quantità di dati e identificare modelli, ma – per ora - manca di intuizione e di pensiero laterale.
Inoltre, l’ingegno umano è spesso guidato da emozioni, esperienze personali e valori culturali, elementi che la tecnologia non può replicare completamente.
Un prodotto sviluppato congiuntamente da umano e I.A. può essere considerato – a nostro parere - una nuova tipologia di prodotto, poiché rappresenta una fusione delle capacità uniche di entrambi, e neutralizzare felicemente la tensione tra le visioni apocalittica e integrata di queste nuove tecnologie.
Il Golem, il capro espiatorio e altri gattopardi - Vale la pena di giocare a «Algoritmo libera tutti»?
1. ALGORITMI
Nel subcontinente indiano si celebra l’Agnicayana, il più antico rituale documentato nel mondo ad essere ancora praticato: consiste nella costruzione dell’altare Syenaciti, a forma di falco, che celebra la ricomposizione del corpo del dio primordiale Prajapati dopo la creazione del mondo – fatica da cui è uscito letteralmente a pezzi. La modalità di costruzione dell’altare è complessa, è prescritta da un algoritmo, ed è scandita da un mantra che accompagnano la posa delle pietre. Paolo Zellini riferisce che nelle civiltà della Mesopotamia e dell’India le conoscenze matematiche, l’organizzazione sociale, le pratiche religiose, erano governate da schemi procedurali con una via di accesso al sapere alternativa alla formalizzazione logica – la via della dimostrazione assiomatico-deduttiva che appassionava i greci (1). Questa soluzione non ha permesso agli scribi del Vicino e del Medio Oriente di raggiungere l’univocità del concetto di numero, a partire dai numerali con cui gestivano le questioni nei vari contesti di applicazione: il sistema che organizzava le derrate di grano e di riso era diversa da quella che permetteva di contare i soldati, da quella che quantificava pecore e cavalli, da quella che misurava i debiti; ma ha permesso di evitare le difficoltà che i numeri irrazionali, e la relazione spigolosa della diagonale con il lato del quadrato, hanno suscitato nel mondo greco-romano.
L’algoritmo non è un’astrazione concettuale occidentale contemporanea, ma un dispositivo che emerge dalla cultura materiale, dalle procedure sociali di gestione del lavoro. L’etichetta proviene dal latino medievale, e si riferisce al metodo di calcolo con numeri posizionali descritto in un saggio di al-Kuwarizmi (andato perduto nella versione originale, ma conservato in due traduzioni latine). A partire dal XIII secolo il ricorso al metodo indiano di calcolo con cifre posizionali si diffonde in tutta Europa, soprattutto per la sua utilità in ambito commerciale: è di nuovo una pratica sociale a veicolare e a materializzarsi nel successo dell’algoritmo, iscrivendolo nella fioritura della nuova cultura urbana, e nel corpo delle relazioni costruite dai traffici della borghesia nascente (2).
Il calcolo posizionale insiste su matematica ed economia; ma qualunque sequenza di istruzioni che trasformino un certo materiale di partenza in un risultato finale, attraverso un numero finito di passi, (ognuno dei quali sia definito in modo abbastanza chiaro da non autorizzare interpretazioni variabili in modo arbitrario), è un algoritmo. Una ricetta di cucina, le istruzioni dell’Ikea, il meccanismo di lettura della scrittura alfabetica, sono esempi di algoritmi con cui possiamo avere più o meno dimestichezza (e fortuna). Gran parte della nostra esistenza si consuma nella frequentazione di procedure di questo tipo; la creatività, quando compare, può somigliare all’adattamento ingegnoso di una di loro, o alla combinazione inedita di pezzi di procedimenti diversi. Secondo alcuni teorici, come Ronald Burt, non si danno nemmeno casi del genere, ma solo importazioni di algoritmi da culture diverse, che i compatrioti ancora non conoscono, ma che possono digerire grazie ad adattamenti e traduzioni opportune (3).
In un articolo recente pubblicato su Controversie si è sostenuto che il rapporto tra algoritmi e esseri umani ha smesso di essere simmetrico e co-evolutivo, perché in qualche momento dell’epoca contemporanea la macchina si sarebbe sostituita ai suoi creatori, sarebbe diventata prescrittiva, avrebbe imposto griglie di interpretazione della realtà e avrebbe cominciato a procedere in modo autonomo a mettere in atto le proprie decisioni. Credo che una simile valutazione derivi da due sovrapposizioni implicite, ma la cui giustificazione comporta diversi problemi: la prima è quella che identifica gli algoritmi e le macchine, la seconda è quella che equipara il machine learning dei nostri giorni all’AGI, l’Intelligenza Artificiale Generale, capace di deliberazione e di cognizione come gli esseri umani.
2. PRIMO ASSUNTO
Non c’è dubbio sul fatto che gli automi siano messi in funzione da sequenze di istruzioni; ma questo destino non tocca solo a loro, perché gran parte dei comportamenti degli uomini non sono meno governati da algoritmi, appena mascherati da abitudini. Più le operazioni sono l’esito di un percorso di formazione culturale, più l’intervento delle direttive standardizzate diventa influente. Parlare una lingua, leggere, scrivere, dimostrare teoremi matematici, applicare metodi di analisi, giocare a scacchi o a calcio, sono esempi di addestramento in cui gli algoritmi sono stati interiorizzati e trasformati in gesti (che sembrano) spontanei. Adattando un brillante aforisma di Douglas Hofstadter (4) alla tecnologia dei nostri giorni, se ChatGPT potesse riferirci il proprio vissuto interiore, dichiarerebbe che le sue risposte nascono dalla creatività libera della sua anima.
Le lamentele che solleviamo contro gli algoritmi, quando gli effetti delle macchine contrastano con i nostri canoni morali, è paragonabile all’accusa che rivolgeremmo al libro di ricette se la nostra crostata di albicocche riuscisse malissimo. L’Artusi però non è responsabile del modo maldestro con cui ho connesso le sue istruzioni con gli algoritmi che prescrivono il modo di scegliere e maneggiare gli ingredienti, il modo di misurare le dosi, il modo di usare gli elettrodomestici della cucina: parlo per esperienza. Tanto meno è responsabile della mia decisione di cucinare una crostata di albicocche. Allo stesso modo, il software COMPAS che è stato adottato per collaborare con i giudici di Chicago non ha deciso in autonomia di discriminare tutte le minoranze etniche della città: la giurisprudenza su cui è avvenuto il training, che include l’archivio di tutte le sentenze locali e federali, è il deposito storico dei pregiudizi nei confronti di neri e diseredati. Il suo uso, che non è mai confluito nella pronuncia autonoma di verdetti, può anzi vantare il merito di aver portato alla luce del dibattito pubblico un’evidenza storica: generazioni di giudici, del tutto umani, hanno incorporato nel loro metodo di valutazione algoritmi ereditati dalla consuetudine, dall’appartenenza ad una classe sociale che perpetua se stessa, in cui questi preconcetti sono perdurati e si sono applicati in sentenze eseguite contro persone reali.
Allo stesso modo, non è il software The Studio a muovere guerra ai civili di Gaza: un’accusa di questo genere servirebbe a nascondere le responsabilità che devono essere imputate ai politici e ai militari che hanno deciso i massacri di questi mesi. Nello scenario del tutto fantascientifico in cui l’intelligenza artificiale avesse davvero selezionato gli obiettivi, e fosse stata in grado di organizzare le missioni di attacco (come viene descritto qui) – in realtà avrebbe ristretto gli attacchi ai soli obiettivi militari, con interventi chirurgici che avrebbero risparmiato gran parte degli effetti distruttivi della guerra. Purtroppo, in questo caso, l’AI non è in alcun modo capace di sostituirsi agli uomini, perché – a quanto si dichiara – i suoi obiettivi non sarebbero stati il genocidio, ma l’eliminazione di un justus hostis secondo le caratteristiche tradizionali dello spionaggio nello scontro bellico dichiarato. Il fatto che l’impostazione stessa del conflitto non sia mai stata tesa a battere un nemico, ma a sterminare dei terroristi, mostra che le intenzioni umane, erano ben diverse fin dall’inizio. Gli algoritmi selezionano mezzi e procedure per l’esecuzione di obiettivi, che sono sempre deliberati in altro luogo.
3. SECONDO ASSUNTO
Questa riflessione ci conduce alla seconda assunzione: tutto il software oggi è AI, e i dispositivi di deep learning sono in grado di maturare intenzioni, articolarle in decisioni autonome – e addirittura, in certe circostanze, avrebbero anche l’autorità istituzionale di coordinare uomini e mezzi per mandarle in esecuzione.
Basta smanettare un po’ con ChatGPT per liberarsi da questo timore. Le AI generative trasformative testuali sono meravigliosi programmi statistici, che calcolano quale sarà la parola che deve seguire quella appena stampata. Ad ogni nuovo lemma aggiunto nella frase, viene misurata la probabilità del termine successivo, secondo la distribuzione vettoriale dello spazio semantico ricavato dal corpus di testi di training. È la ragione per cui può accadere che ChatGPT descriva nelle sue risposte un libro che non esiste, ne fissi la data di pubblicazione nel 1995, e stabilisca che nel suo contenuto viene citato un testo stampato nel 2003, nonché descritta una partita di Go svolta nel 2017 (5). ChatGPT, Claude, DeepSeek, e tutta l’allegra famiglia delle intelligenze artificiali generative, non hanno la minima idea di quello che stanno dicendo – non hanno nemmeno idea di stare dicendo qualcosa. AlphaGo non sa cosa significhi vincere una partita a Go, non conosce il gusto del trionfo – tanto che pur riuscendo a vincere contro il campione di Go, non sa estendere le sue competenze ad altri giochi, se non ripartendo da zero con un nuovo training.
L’AI attuale è in grado di riconoscere pattern, e di valutate la probabilità nella correlazione tra gli elementi specifici di cui il software si occupa, senza essere in grado di passare tra segmenti diversi dell’esperienza, generalizzando o impiegando per analogia le conoscenze che ha acquistato, come invece fanno gli esseri umani. Comprensione dei contenuti, intenzioni, strategie, sono attribuite alla macchina da chi ne osserva i risultati, sulla base delle ben note norme conversazionali di Paul Grice (6). I software di AI dispongono dello stesso grado di coscienza, e della stessa capacità di deliberare intenzioni e stabilire valori, che anima il forno in cui tento di cucinare la mia crostata di albicocche.
Non vale la pena dilungarsi oltre, visto che di questo tema ho già parlato qui e qui.
4. GATTOPARDI
Nessuna tecnologia è neutrale: non lo è nemmeno l’AI. Ma la comprensione del modo in cui i software incrociano il destino della società implica un’analisi molto più dettagliata e articolata di una crociata generica contro algoritmi e macchine, dove la fabbricazione di altari, la preparazione di torte di albicocche, il comportamento di Palantir (ma anche quello di ChatGPT, di AlphaFold, di Trullion), possono finire nello stesso mucchio, a beneficio di una santificazione di un’umanità che sarebbe vittima delle manipolazioni di perfidi tecnologi. La ghettizzazione urbanistica in America, la soppressione dello Jus Publicum Europaeum (7) e la scomparsa del diritto internazionale dagli scenari di guerra (che infatti non viene più dichiarata: ne ho già parlato qui), sono problemi che vengono nascosti dal terrore di un Golem che non esiste, ma di cui si continua convocare lo spettro leggendario, questa volta nelle vesti di Intelligenza Artificiale. Quanto più si disconosce la suggestione di questa tradizione mitologica, tanto più se ne subisce inconsapevolmente il potere. È solo con un esame paziente delle condizioni di cui siamo eredi, spesso nostro malgrado, con l’analisi della complessità dei fattori che agiscono in ciascun problema sociale, e l’ammissione che non esiste un fuori dai dispositivi, che si può tentare un’evoluzione quanto più prossima ai nostri requisiti di libertà e di dignità; il processo sommario al Golem, la convocazione dell’algoritmo (!) come capro espiatorio di tutti i misfatti della modernità, per rivendicare il diritto di rigettare tutto e ripartire da zero, non è che un modo per pretendere che tutto cambi – perché tutto rimanga come prima.
BIBLIOGRAFIA
Burt, Ronald, Brokerage and Closure: An Introduction to Social Capital, Oxford University Press, Oxford 2007.
ChatGPT-4, Imito, dunque sono?, a cura di Paolo Bottazzini, Bietti Editore, Milano 2023.
Grice, Paul, Studies in the Way of Words, Harvard University Press, Cambridge 1986.
Hofstadter, Douglas, Gödel, Escher, Bach. Un'eterna ghirlanda brillante. Una fuga metaforica su menti e macchine nello spirito di Lewis Carroll, tr. it. a cura di Giuseppe Trautteur, Adelphi, Milano 1980.
Pasquinelli, Matteo, The Eye of the Master: A Social History of Artificial Intelligence, Verso Books, Londra 2023
Schmitt, Carl, Il nomos della terra nel diritto internazionale dello «Jus publicum europaeum», tr. it. a cura di Franco Volpi, Adelphi, Milano 1991.
Zellini, Paolo, Gnomon. Una indagine sul numero, Adelphi, Milano 1999.
Intelligenza artificiale e creatività – Quinta parte: la versatilità dell’artista
Prosegue il nostro dibattito su arte e intelligenza artificiale, una rubrica di Controversie pensata per riflettere sul rapporto tra questi due “mondi” e come essi si possano – o meno – intersecare: necessità antica la prima, recente tecnologia la seconda.
Indagine dopo indagine, abbiamo capito che questi due mondi, apparentemente distanti, hanno in realtà diversi punti in comune, pur mantenendo ognuno le proprie specificità e caratteristiche.
Qui gli articoli precedenti:
Intelligenza artificiale e creatività - I punti di vista di tre addetti ai lavori
Intelligenza artificiale e creatività - Seconda parte: c’è differenza tra i pennelli e l’IA?
Intelligenza artificiale e creatività - Terza parte: un lapsus della storia
Intelligenza artificiale e creatività – Quarta parte: stili e strategie
Nella nostra ricerca abbiamo trattato diversi argomenti ma, dallo scorso intervento, abbiamo iniziato una serie di riflessioni focalizzate sul concetto di stile e che partono da una domanda fondamentale: nell’epoca dell’I.A., qual è il destino dello stile? Di fronte a uno strumento che potenzialmente può copiare qualunque stile, la mano dell’artista scompare oppure si innova?
In questo contributo andiamo allora a chiacchierare con Mara Palena, un’artista che lavora con la fotografia, il video e il suono, e tratta temi quali la memoria e l’identità. Ecco, quindi, la sua risposta alla domanda che abbiamo ricordato sopra.
MARA: Credo che, così come in passato ci siano state copie, plagi o falsi di opere d’arte, ciò non abbia creato crisi gravi nel settore, se non confusione nella gestione, nella vendita e nella definizione dell’originalità. Oggi, più che mai, è fondamentale saper utilizzare i nuovi media e gli strumenti tecnologici in modo significativo.
Personalmente, in riferimento all’arte, apprezzo i lavori e le ricerche che offrono diversi livelli di lettura e approfondimento: in questi casi, la mano dell’artista fatica a scomparire, perché il valore risiede nel concetto e nel processo più che nel risultato finale. È un po’ come avviene nel ready-made: un esempio chiaro per comprendere il ruolo del contesto e dell’intenzione nell’opera.
La mano dell’artista si rinnova costantemente attraverso nuove sperimentazioni e tecnologie. In questo senso, non vedo l’intelligenza artificiale come una minaccia, ma come un archivio vivo e attraversabile, un bacino di possibilità da cui trarre variazioni e generare infiniti multipli. Un processo affine, per certi versi, alla tecnica del cut-up di William Burroughs (1914-1997), dove l’atto creativo nasce dallo smontare e riassemblare frammenti esistenti, aprendo spazi inediti di senso. Così, anche l’IA può essere uno strumento per rivelare nuove connessioni, slittamenti semantici, intuizioni improvvise, dove l’artista, ancora una volta, esercita una scelta, un taglio, un’intenzione.
Inoltre, l’IA può essere un archivio dinamico, in quanto l’opera non è più un prodotto finito ma un processo aperto, una deriva, un tentativo; dunque l’artista, lungi dal dissolversi, si fa regista di qualcosa che resta incerto, un mare di combinazioni. Come dicevo, vivo l’esperienza trasformativa della generazione delle immagini in modo molto simile al cut-up: come un montaggio infinito, una riscrittura continua del “reale”. Sento una forte affinità tra questo metodo e quello che accade quando lavoro con l’intelligenza artificiale: è come se i due processi si rispecchiassero, si parlassero attraverso il tempo. È un processo trasformativo dove l’inconscio e l’errore diventano dispositivi di accesso a livelli profondi della memoria e del significato. In questo spazio di generazione infinita, l’immagine si comporta come un testo da sabotare, da disturbare, da aprire.
L’archivio, nutrito dall’intelligenza artificiale, diventa pertanto una materia porosa, attraversabile, da cui emergono frammenti visivi che somigliano a sogni, a déjà-vu, a memorie posticce. L’IA, come il cut-up, agisce infatti per discontinuità: taglia, rimescola, moltiplica. Non si limita a rappresentare, ma produce uno slittamento, un’alterazione percettiva che rivela quanto fragile, e al tempo stesso fertile, sia la struttura della memoria stessa.
Cibo in cambio di impronte retiniche. Israele e gli algoritmi dell’oppressione e dello sterminio
In Cloud di guerra, ho documentato l’uso dell’intelligenza artificiale nel conflitto in corso a Gaza – e con modalità differenti in Cisgiordania – evidenziandone le drammatiche conseguenze. Da allora, nuovi dati rivelano che Israele ha sviluppato ulteriori strumenti per consolidare la sua guerra contro Hamas.
Le inchieste condotte da +972 Magazine, Local Call e The Guardian nel 2024, hanno rivelato che Israele ha sviluppato sofisticati strumenti per condurre la guerra contro Hamas, tra i quali l’algoritmo di apprendimento automatico Lavender, utilizzato fin dall’inizio del conflitto, e ora perfezionato, senza mettere in conto le lateralità degli attacchi. L’utilizzo di Lavender ha avuto un ruolo centrale nell’individuazione di almeno 37.000 obiettivi, molti dei quali colpiti in operazioni che hanno causato migliaia di vittime civili..
CAVIE SEMANTICHE: QUANDO ANCHE LA LINGUA VIENE PRESA IN OSTAGGIO
Una nuova inchiesta di +972 Magazine, Local Call e The Guardian, pubblicata lo scorso 6 marzo 2025, ha rivelato che Israele ha messo a punto un nuovo modello linguistico, simile a ChatGPT, costruito esclusivamente su conversazioni private dei palestinesi in Cisgiordania: milioni di messaggi WhatsApp, telefonate, email, SMS intercettati quotidianamente. Un LLM (Large Language Model) alimentato non da testi pubblici, ma da frammenti intimi di vita quotidiana.
Idiomi, inflessioni, silenzi: ogni sfumatura linguistica diventa materia prima per addestrare strumenti di controllo predittivo.
I palestinesi diventano cavie semantiche, banchi di prova per armi algoritmiche progettate per prevedere, classificare, colpire. L’inchiesta dimostra come l’IA traduca automaticamente ogni parola in arabo captata nella Cisgiordania occupata, rendendola leggibile, tracciabile, archiviabile, riproducibile.
Non è solo sorveglianza: è architettura linguistica del dominio, fondata sulla violazione sistematica della dimensione personale e soggettiva della popolazione palestinese.
L’I.A. MILITARE ISRAELIANA IN AZIONE: IL CASO IBRAHIM BIARI
Un’inchiesta del New York Times riporta la testimonianza di tre ufficiali americani e israeliani sull’utilizzo, per localizzare Ibrahim Biari, uno dei comandanti di Hamas ritenuti responsabili dell’attacco del 7 ottobre, di uno strumento di ascolto delle chiamate e di riconoscimento vocale, integrato con tecnologie I.A. e sviluppato dall’Unità 8200[1] in un team che conta anche sulla collaborazione di riservisti impiegati in importanti società del settore. Airwars [2] documenta che, il 31 ottobre 2023, un attacco aereo guidato da queste informazioni ha ucciso Biari e, anche, più di 125 civili.
La precisione apparente dell’IA ha mostrato i suoi limiti etici e umani: la ratio militare si nasconde dietro la presunta precisione chirurgica degli attacchi e oggettività disumanizzata delle identificazioni degli obiettivi, per giustificare un rapporto obiettivo/ danni collaterali che include uccisioni di massa.
GAZA: LABORATORIO MONDIALE DELL’I.A. MILITARE
Israele sembra essere, di fatto, l’unico Paese al mondo ad aver sperimentato l’intelligenza artificiale in un contesto bellico reale, in cui Gaza svolge il ruolo di cavia e il campo di operazioni quello di laboratorio.
L’israeliana Hadas Lorber, fondatrice dell’Institute for Applied Research in Responsible AI, ha ammesso che la crisi israeliano-palestinese innescata il 7 ottobre ha intensificato la collaborazione tra l’Unità 8200 e i riservisti esperti di tecnologie, e accelerato l’innovazione, portando a “tecnologie rivoluzionarie rivelatesi cruciali sul campo di battaglia (di Gaza)”. Ha, però, anche ricordato che l’IA solleva “serie questioni etiche”, ribadendo che “le decisioni finali devono restare in mano umana”.
Ma la retorica non regge l’urto dei fatti:
- la portavoce dell’esercito israeliano ribadisce l’“uso lecito e responsabile” delle tecnologie, ma – per ragioni di sicurezza nazionale - non può commentare nulla di specifico,
- il CEO di Startup Nation Central[3], ha confermato il nodo: i riservisti delle big tech sono ingranaggi chiave dell’innovazione militare. Un esercito che da solo non avrebbe mai raggiunto tali capacità ora punta all’invisibilità del dominio algoritmico.
- le multinazionali della tecnologia dalle cui fila provengono molti artefici degli strumenti israeliani, tacciono o – discretamente - prendono le distanze da quello che sembra essere un tessuto di conflitti e intrecci di interessi tra l’industria bellica e l’innovazione tecnologica che permea il nostro presente e modella il nostro futuro;
- Silicon Valley, cybersecurity, intelligenza artificiale, piattaforme cloud sembrano essere strumenti di facilitazione e, nello stesso tempo, di controllo di massa mutato in arma[4].
CIBO IN CAMBIO DI IMPRONTE DELLA RÈTINA
Se l’intelligenza artificiale può decidere chi uccidere, può anche decidere chi sopravvive?
La domanda non è più speculativa.
A Gaza l’ultima frontiera è “umanitaria”: l’IA governa la carità. Secondo una recente proposta fatta da Washington in accordo con Israele — rigettata il 15 maggio 2025 dalle Nazioni Unite — per accedere agli aiuti alimentari sarà necessario il riconoscimento facciale.
Il piano, ideato dalla Gaza Humanitarian Foundation (GHF) [5], sembra prevedere la privatizzazione della distribuzione del cibo attraverso contractor statunitensi ed ex agenti dell’intelligence e la creazione di hub biometrici, presidiati da forze armate private, dove il pane si baratta col volto, le razioni e la vita con le impronte digitali e retiniche. Con la giustificazione di evitare infiltrazioni di Hamas, l’accesso agli aiuti sarà regolato da algoritmi e sistemi di riconoscimento facciale.
Dietro l’apparenza umanitaria, la struttura e la governance sembrano rivelare un’operazione affidata ad un attore para-militare che rischia di trasformare il soccorso in un ulteriore strumento di dominio.
Lo scenario è quello di una carità condizionata, tracciata, selettiva: una “umanità filtrata”, dove l’identità digitale rischia di precedere il bisogno, e l’accesso al pane dipendere dall’accettazione della sorveglianza.
Gaza sembra confermarsi come un laboratorio d’avanguardia: non solo per testare armi, ma per sperimentare nuovi modelli di apartheid tecnologico, di ostaggi biometrici, in cui sembra valere il principio che l’aiuto debba essere concesso solo a persone “note per nome e volto”, violando i principi di neutralità umanitaria e trasformando la fame in strumento di controllo identitario.
L’INDIGNAZIONE (SOLITARIA) DELLE ONG
UNICEF, Norwegian Refugee Council e altri attori umanitari hanno denunciato il piano GHF come un ulteriore controllo forzato della popolazione, destinato a produrre nuovi spostamenti, disgregazioni, traumi. È – secondo le ONG che vi si oppongono - il passaggio finale di un processo già in corso: i tagli ai fondi ONU, la delegittimazione dell’UNRWA, che ha giudicato i piani di controllo totale degli aiuti umanitari «una distrazione dalle atrocità compiute e uno spreco di risorse», la sostituzione della diplomazia con le piattaforme, della compassione con l’identificazione biometrica[6].
ETICA E IA: ULTIMA CHIAMATA
Questo intreccio tossico tra business, guerra, aiuti umanitari e sorveglianza apre un precedente pericolosissimo. Non solo per i palestinesi, ma per ogni società che oggi è costretta a negoziare tra sicurezza e diritti fondamentali. Dove la privacy è già fragile, nelle mani di chi governa col terrore tecnologico si riduce a nulla. L’Unione Europea e gli Stati Uniti devono scegliere da che parte stare: restare in silenzio significa legittimare pratiche tecnologiche sterminatrici e diventare complici di un genocidio.
Una volta di più si profila l’occasione per l’Unione Europea di ritagliarsi un ruolo per riportare al centro del dibattito i suoi valori e i principi fondativi, denunciando l’abuso, pretendendo trasparenza sui legami tra eserciti e industrie tech, imponendo una regolamentazione internazionale stringente sull’uso dell’intelligenza artificiale in contesti di guerra[7].
Favorendo, soprattutto, una presa di coscienza collettiva che rimetta al centro la dignità umana e i diritti inalienabili, prima che queste macchine diventino i complici silenziosi e apparentemente oggettivi di dominio e di sterminio.
NOTE
[1] L'Unità 8200 è una unità militare delle forze armate israeliane incaricata dello spionaggio di segnali elettromagnetici (SIGINT, comprendente lo spionaggio di segnali elettronici, ELINT), OSINT, decrittazione di informazioni e codici cifrati e guerra cibernetica. (Wikipedia, Unità 8200)
[2] Airwars è una organizzazione non-profit di trasparenza e di controllo che investiga, traccia, documenta e verifica le segnalazioni di danni ai civili nelle nazioni teatro di confitti armati.
[3] Startup Nation Central è un’azienda israeliana, che si autodefinisce “filantropica”, dedicata a valorizzare «l’unicità dell’ecosistema tecnologico di Israele e le soluzioni che questo offre per affrontare alcune delle sfide più pressanti che si presentano al mondo»
[4] Alberto Negri, giornalista de Il Manifesto, ha definito questo intreccio il “complesso militare-industriale israelo-americano”
[5] Sostenuta dall’amministrazione Trump e dal governo israeliano, la Gaza Humanitarian Foundation (GHF) nasce con l’obiettivo dichiarato di aggirare le agenzie umanitarie delle Nazioni Unite – in particolare l’UNRWA, già delegittimata e accusata da Israele di favorire indirettamente Hamas – per gestire direttamente una delle più vaste operazioni di soccorso nella Striscia: oltre 300 milioni di pasti in 90 giorni. Il piano, ufficialmente bloccato dall’ONU, non è stato archiviato. Anzi, alcuni test pilota sono già in corso nel sud della Striscia.
Fondata nel febbraio 2025, la GHF si presenta come una non-profit, ma la sua composizione solleva più di un sospetto per la presenza di ex ufficiali militari statunitensi, contractor della sicurezza privata e funzionari provenienti dalle ONG. Il piano della GHF prevede la creazione di quattro “Secure Distribution Sites” (SDS) nel sud della Striscia, ognuno destinato a servire 300.000 persone, con l’obiettivo di coprire progressivamente l’intera popolazione di Gaza. Se dovesse assumere il controllo totale della distribuzione, la fondazione arriverebbe a gestire risorse paragonabili – se non superiori – a quelle delle agenzie ONU. Il solo Flash Appeal 2025 prevede un fabbisogno minimo di 4,07 miliardi di dollari, con una stima ideale di 6,6 miliardi.
Il budget iniziale della GHF si aggira attorno ai 390 milioni di dollari, provenienti in larga parte dagli Stati Uniti. Ma sono proprio la mancanza di trasparenza sulle fonti di finanziamento e le criticità operative a sollevare allarmi..
[6] Il modello, del resto, era già stato testato: l’app israeliana Blue Wolf, in Cisgiordania, cataloga da tempo ogni volto palestinese in un enorme database per facilitare i controlli militari. Ora, lo stesso meccanismo si replica a Gaza sotto la forma di “aiuto”.
[7] Invece di promuovere una regolamentazione stringente, l’Unione Europea continua a favorire — direttamente o indirettamente — lo sviluppo di armi basate sull’I.A., collaborando con i fautori dell’innovazione bellica israeliana– e, chissà, di altri Paesi; rapporti del Parlamento Europeo (2024) e analisi di EDRi (European Digital Rights, 2025) mostrano come numerose imprese europee – tra cui startup e colossi del tech – intrattengano rapporti con l’Israel Innovation Authority, l’agenzia governativa che finanzia queste “innovazioni” in nome di una cooperazione tecnologica presentata come neutra, ma che di neutro non ha più nulla.
Stand by me, LucrezIA - Ovvero, l’università resa superflua da sé medesima
L’industria digitale ha ormai da tempo colonizzato completamente il mondo dell’educazione e della formazione in tutte le sue componenti, dalle scuole elementari all’università, senza peraltro conseguire gli effetti migliorativi a suo tempo promessi.[1] Da ultimo, questo fenomeno si manifesta, in particolare, sotto forma di onnipresenza della intelligenza artificiale, che sempre più si configura non solo come un insieme di applicazioni e servizi più o meno utili, ma anche come il must-have della stagione, per dirla con il linguaggio della moda. Non c’è azienda, amministrazione pubblica, giornale, apparato poliziesco, militare o governativo, giù giù fino all’ultima gelateria e bocciofila, che non ritengano proprio dovere affidarsi ai fantasmagorici servigi dell’IA (se poi ci si accorge che i vantaggi sono scarsi o nulli, fa niente: è un Dovere, una Fede, forse anche un Mistero… “E chi siamo noi per rifiutarla”?).
Il mondo dell’educazione e dell’università, per certi aspetti, guidano questa Marcia Gloriosa del Progresso. È del resto recente l’ultima profezia dell’immarcescibile Bill Gates (peraltro già sentita giusto un migliaio di volte) sulla prossima estinzione di medici e insegnanti: «in futuro gli esseri umani non saranno più necessari per la maggior parte delle cose, oltre ai medici si potranno rivoluzionare metodologie didattiche e il ruolo stesso dell’insegnante; sistemi basati sull’intelligenza artificiale possono fungere da tutor personalizzati».[2]
A che punto sono arrivate le cose si può vedere chiaramente da una notizia che ho scovato in un oscuro (ma sempre ben informato e curioso) quotidiano economico italiano, di cui mi sembra opportuno dare conto su “Controversie” (Carlo Valentini, L’ateneo che ha sposato l’IA, “Italia Oggi”, 5 febbraio 2025, p. 6). Si tratta dell’Università di Padova e della sua scelta di dotarsi di un proprio sistema di IA capace di coprire grande parte dell’attività amministrativa, di informazione ma anche didattica dell’ateneo.
Presentato (togliattianamente) come «la via italiana all’intelligenza artificiale», pare che questo sistema sia uno dei più avanzati d’Europa in ambito accademico. Il suo nome è LucrezIA, in omaggio a Lucrezia Corner Piscopo che, laureatasi (in Filosofia) a Padova nel 1678, può essere considerata la prima donna laureata del mondo.
1. LE FUNZIONI DI LUCREZIA
LucrezIA consente all’utente di ottenere tutti i documenti prodotti dall’Università di Padova, tutti i servizi offerti dall’ateneo, ma soprattutto – ed è quello che qui interessa – è a disposizione per le attività didattiche; anzi, ne è caldamente consigliato l’uso. Leggiamo, infatti, che gli studenti «possono avvalersi di ChatUniPd anche per elaborare la tesi di laurea, pur se con qualche cautela».
Capito? Son passati i tempi in cui uno si iscriveva all’università e concludeva il proprio percorso di studi preparando una dissertazione detta tesi di laurea: adesso la tesi se la fa fare dall’IA. Certo, però, «con qualche cautela». Ma come? Non siamo, ormai da tempo, nelle scuole come nelle università, alle prese con eserciti di giovani che scopiazzano dalla rete, tanto che sono stati inventati addirittura dei ridicoli “software antiplagio”? Non ci si lamenta, da tempo, che in ogni caso contrastare questa tendenza è una battaglia assai ardua, data la onnipervasività dell’informazione online? Che fare, allora? Ma certo! Invitare direttamente gli studenti a usare l’IA per realizzare la propria tesi… Come abbiam fatto a non pensarci prima!
E allora, di grazia, cosa vogliamo da questi nostri figli? Vogliamo che copino mettendo da parte il cervello, perché ormai la cultura è questo rifriggere cose rifritte (con tanti saluti per ogni guizzo di pensiero critico e autonomo – forse il vero obiettivo strategico del Potere attuale), oppure vogliamo che ancora pensino e studino in proprio? E che messaggio mandiamo, allorché gli facciamo sapere che devono fare la tesi con LucrezIA, però – sia ben chiaro – con «qualche cautela»?
Sapete a cosa mi fa pensare tutto questo? Mi fa pensare alla teoria del doppio legame [double bind] di Gregory Bateson.[3] Ricordiamola brevemente.
Secondo l’antropologo, psichiatra e zoologo britannico (1904-1980), patologie psichiche come la schizofrenia sarebbero causate da forme di comunicazione ambivalente interne alla famiglia, in particolare nella relazione del bambino con membri significativi, tipicamente con la madre (ma non solo). Posto, per esempio, in una situazione in cui la mamma gli chiede di abbracciarlo ma in realtà gli fa capire con il linguaggio del corpo o con altre forme di meta comunicazione che non ne ha alcuna voglia, il bambino vivrà una situazione senza uscita: non potrà riconoscere una mancanza di affetto da parte di una figura per lui vitalmente importante, ma neanche accogliere il messaggio “dichiarato”. Con effetti, a parere di Bateson, altamente dannosi sul piano psicologico.
In modo forse non molto dissimile, la comunicazione disfunzionale del capitalismo tecno-nichilista attuale comunica allo studente una doppia ingiunzione contraddittoria:
(1) usa gli strumenti dell’IA per produrre in forma automatica la “tesi di laurea”, così da essere pienamente un abitatore del tempo presente;
(2) ma anche cerca di essere un bravo studente, autonomo, originale, che controlla e verifica le fonti, uno studente “come ai vecchi tempi”, potremmo dire.
Il potere oggi vigente non può e non vuole vietare o anche solo limitare una tecnologia, fosse pure totalmente distruttiva,[4] ma non è neanche ancora pronto a liquidare apertamente i vecchi cascami della Cultura come appunto l’università europea (ci tiene forse ancora, a scopo ornamentale, come un tempo molte famiglie borghesi tenevano le librerie rifornite di volumi elegantemente rilegati all’unico scopo di esibirne i dorsi dietro le vetrine ben chiuse…). Di qui il messaggio ambivalente.
Ai ragazzi di oggi, incolpevoli destinatari di questa comunicazione patogena, la mia piena solidarietà, non disgiunta dall’invito alla rivolta.
2. ABOLIRE LE UNIVERSITÀ?
Continuiamo comunque nella lettura dell’articolo. Apprendiamo anche che grazie a LucrezIA «si è potuto realizzare un intero libro», di ben 241 pagine, intitolato Dialoghi con il futuro sulle future trasformazioni indotte nella società dai sistemi di intelligenza artificiale. E non solo. Per iniziativa di un docente dell’Università di Padova esperto di tecnologie digitali,
«è stato chiesto all’IA come Marx avrebbe commentato l’avvento dell’intelligenza artificiale. Questa è stata la risposta: “Se fossi Karl Marx, potrei considerarne l’avvento da una prospettiva critica. Marx era un teorico sociale ed economico noto per la sua analisi critica del capitalismo, e probabilmente esaminerebbe come queste nuove tecnologie influenzano le dinamiche di potere e le relazioni di produzione. (…) Marx potrebbe esplorare come la proprietà e il controllo dei mezzi di produzione delle informazioni influenzano la struttura sociale ed economica. Inoltre potrei considerare come l’automazione e l’intelligenza artificiale impattano sul lavoro umano. Marx si sarebbe interessato alle implicazioni per la classe lavoratrice e a come la tecnologia può essere utilizzata per migliorare o minacciare il benessere delle persone”. Commenta Nicola Bruno: “Da questo esempio emerge come l’IA possa essere usata con una prospettiva fuori dagli schemi. Collegando il pensiero di Marx alle tecnologie contemporanee un docente potrebbe trarre spunto dalla risposta dell’IA per spiegare la filosofia di Marx calandola nell’attualità”».
Sì, senz’altro, Marx potrebbe dire queste e simili cose sull’introduzione dell’intelligenza artificiale. Sicuramente, poi, un docente universitario potrebbe «trarre spunto» da quanto gli ha detto LucrezIA per fare una lezione o due su Marx…. Ma – mi chiedo e chiedo ai lettori – queste cose non potrebbe anche pensarle un docente a ciò deputato e a questo fine retribuito dall’università stessa, senza alcun bisogno di… interpellare l’IA? Non potrebbe un docente dell’università stessa, forte di un suo percorso di studi in filosofia o sociologia o economia che immaginiamo gli abbia fruttato il posto che occupa, scrivere un saggetto di quel genere, o organizzare una lezione o un corso, «calando nell’attualità» il pensiero di Marx? Non potrebbe, secondo la humboldtiana concezione dell’università di cui in Europa un tempo mi pare ci vantassimo, preoccuparsi di trasmettere il suo sapere e i risultati delle sue ricerche agli studenti che hanno la ventura di frequentare l’università (cacciando, peraltro, un po’ di soldini) e che coronano infine il loro percorso di studio appunto con la redazione di un saggio? Non era proprio questo, almeno fino a qualche annetto fa, il fine delle nostre università? Ma, allora, perché non abolirle proprio?
Poscritto – Al momento di chiudere questo articolo, apprendo che all’Università di Cassino si è tenuta la prima discussione di laurea sostenuta da un… avatar digitale. Durante l’esposizione – ci informa “Il Messaggero” – la candidata si è limitata «ad assistere la sua rappresentazione AI», da lei debitamente istruita e “allenata” con i contenuti della sua ricerca.
Dopo gli operai, anche gli studenti sempre più «appendici umane» (di marxiana memoria) del sistema di macchine?
NOTE
[1] Di «politiche forsennate della digitalizzazione del sistema scolastico, dall’asilo fino all’università» parla Michel Desmurget (Il cretino digitale, Milano, Rizzoli, 2020, p. 237), che porta molti dati sulle recenti ricerche (PISA ecc.) in base alle quali emerge che digitale e buoni risultati scolastici non sono affatto direttamente proporzionali (cfr. p. 237 e seg.). Per un bilancio critico equilibrato sulla questione dell’invasione tecnologica negli ambienti scolastici, si veda Marco Gui, Il digitale a scuola. Rivoluzione o abbaglio?, Bologna, Il Mulino, 2019. Da notare che considerazioni critiche filtrano anche in testi decisamente apologetici come, per esempio, Luca Tremolada, La lezione è finita, Milano, Il Sole 24 Ore, 2024.
[2] Cfr. Bill Gates: l’intelligenza artificiale sostituirà medici e insegnanti entro 10 anni, “com.unica”, 2 aprile 2025, https://www.agenziacomunica.net/2025/04/02/bill-gates-lintelligenza-artificiale-sostituira-medici-e-insegnanti-entro-10-anni/ e Paolo Del Debbio, Gates tifa l’intelligenza artificiale per rimpiazzare dottori e docenti, “La verità”, 3 aprile 2025, p. 15.
[3] Cfr. Gregory Bateson, Verso una teoria della schizofrenia (1956), in Id., Verso un’ecologia della mente, Milano, Adelphi,1976, p. 244-274. L’idea di applicare questo concetto di Bateson al linguaggio della comunicazione tipico delle società capitalistiche avanzate è in Nello Barile, La mentalità neototalitaria, Milano, Apogeo, 2008. In effetti, il discorso pubblico neoliberale è ricco di queste ingiunzioni contraddittorie: pensiamo al campo del lavoro, nel quale da un lato viene mantenuta la retorica (per così dire “weberiana”) della professionalità, del lavoro e dell’impegno (lo abbiamo visto di recente in Italia, quando si voleva demonizzare il reddito di cittadinanza!), ma dall’altro l’estrema precarietà estrema, i bassi salari, i miti della società liquida, nonché la continua evocazione della robotizzazione imminente spingono i lavoratori a perdere qualunque tipo di attaccamento al lavoro (cfr. Francesca Coin, Le grandi dimissioni, Torino, Einaudi, 2023).
[4] «VIETATO VIETARE, la legge fondamentale del progresso tecnoscientifico è diventata dunque l’unica legge di un mondialismo senza legge?» si chiedeva retoricamente Paul Virilio in L’incidente del futuro, Milano, Cortina, 2002, p. 32.










