Della liaison dangereuse fra imperfezione umana e intelligenza artificiale, e del necessario ruolo dei giuristi
Riflessioni e proposte a margine della lettura di M. Ferraris, La pelle
Da molti anni mi dedico allo studio dell’impatto sul mondo dell’Amministrazione Pubblica delle TIC (Tecnologie dell’Informazione e Comunicazione). Questo breve contributo si basa, oltre che sul portato di queste mie riflessioni di ormai lungo corso[1], anche su quelle (più recenti) che mi ha suscitato la lettura (e discussione e presentazione nel contesto del Bookforum CERIDAP) di un recente volume che si interroga su che cosa significhi “pensare” nell'epoca dell'intelligenza artificiale (M. Ferraris, La pelle: Che cosa significa pensare nell'epoca dell'intelligenza artificiale, Il Mulino, 2025).
Della necessaria connessione tra intelligenza naturale e corpo
Quella che ritiene sia la differenza basilare tra intelligenza artificiale e intelligenza naturale, Ferraris ce lo indica chiaramente già nell’incipit del capitolo secondo del suo libro, quello intitolato “la mente incarnata”:
«Il tratto distintivo dell’intelligenza naturale consiste nell’essere collocata in un corpo, che a sua volta è situato in un mondo» (Cit. p. 68).
La riflessione può apparire banale e scontata, ma non lo è affatto. Se solo si pensi al fatto che, una gran parte della ideologia che sta dietro il successo economico del prodotto “Intelligenza Artificiale”, si basa proprio sull’idea pseudo-scientifica che sia possibile, non solo il superamento dei limiti legati alla nostra biologia (R. Kurzweil, The Singularity Is Near: When Humans Transcend Biology, Viking Press, 2005), ma anche una vera e propria fusione uomo-macchina (R. Kurzweil, The Singularity Is Nearer: When We Merge with AI, Penguin Books, 2024), la quale ci permetterebbe di totalmente prescindere dai (fastidiosi) limiti legati alla nostra biologia: in primis (ed anche in secundis) dalla necessaria ed inevitabile morte biologica del nostro organismo. Sgradevole circostanza, tuttavia facilmente superabile, secondo questa impostazione di pensiero, attraverso una sorta di upload del contenuto del nostro cervello alla “macchina”.
Ferraris sottolinea invece come la nostra pelle sia:
«involucro vivente di un organismo volente, quella che si vuol vendere cara, al prezzo più alto possibile (…) un impasto di sangue, sudore e lacrime che nessuna macchina potrà né vorrà mai imitare» (Cit. p. 15).
Della stupidità umana e dell’inevitabile paura della morte
In fin dei conti, il problema è probabilmente uno ed uno soltanto: la nostra inevitabile paura della morte. Che, secondo quanto ci spiega Ariés (P. Ariés, Storia della morte in Occidente, Rizzoli, 1998), è ancora maggiore nella nostra società tecnologica (è divenuta un vero e proprio tabù, che si preferisce allontanare e negare).
A questo proposito concordo dunque pienamente con Ferraris quando afferma che:
«il timore o la speranza nella Singolarità è una illusione anche più grande, e ingenua, che l’Inferno o il Paradiso» (Cit. p. 250).
La fiducia illimitata che riponiamo nelle “meraviglie dell’Intelligenza Artificiale” (e tecnologie affini) rientra necessariamente in questa linea di ragionamento. O, potremmo dire, in questo tipo di approccio al fastidioso problema della necessaria finitezza della vita umana. Problema che autori transumanisti come Max More e Natasha Vita More (M. More, N. Vita-More, The Transhumanist Reader. Classical and Contemporary Essays on the Science, Technology, and Philosophy of the Human Future, Wiley-Blackwell, 2013) affrontano alla loro maniera, al pari di Nick Bostrom, nei suoi scritti (N. Bostrom, Superintelligence: Paths, Dangers, Strategies, Oxford University Press, 2016) e con le ricerche portate avanti dal suo Future of Humanity Institute, istituito nel 2005 presso l’Università di Oxford.
In questo contesto, non posso non menzionare le (a mio parere false) promesse legata alla crionica (o criogenesi) - una tecnica messa a punto da Robert Ettinger, che è anche il fondatore del Cryonics Institute - con lo scopo di preservare esseri umani legalmente morti a temperature inferiori a −120 °C, nella speranza di farli rivivere in futuro. Con la possibilità, peraltro, di scegliere se avere tutto il corpo crioconservato o solo la testa (il che costa meno, ovviamente). In entrambi i casi, una volta completato il processo di raffreddamento e vetrificazione, il corpo e/o il cervello vengono sigillati in una grande vasca di azoto liquido ad una temperatura di −196 °C, e crioconservati.
Anche la Alcor Life Extension Foundation, un'organizzazione no profit statunitense nata nel 1972 con sede a Scottsdale in Arizona, porta avanti la ricerca inerente alla crionica. E ci sono al momento varie società attive nella criogenesi, fra cui una ben nota società russa.
Farsi crioconservare può costare, ad oggi, fra i 40.000 (pacchetto base) e i 200.000 Euro[2].
Coscienza (e paura) della morte: una prerogativa solo umana?
Che cosa ci muove/ci anima, rendendoci così peculiari rispetto agli altri animali? Nella visione di Ferraris si tratta della:
«certezza della fine, e la credenza di poterla differire un poco (…) con il racconto, come Shahrazād con il suo sultano, con i miti di morte e resurrezione di Iside e Osiride, di Dioniso, di Cristo, o con le imprese di Maradona e di Glenn Gould, e di tutti coloro che, vincendo ad Austerlitz o esibendosi in concerti, lasciando degli eredi, comprando delle case, e persino scrivendo libri, hanno cercato di non morire interamente» (Cit. p. 249).
Si tratta del ben noto Non omnis moriar di Orazio nelle Odi (riferito all’idea di immortalità della sua opera poetica - Hor. Carm. III 30).
Nel ragionare intorno alla morte, e alla questione inerente alla presenza o assenza di coscienza della stessa negli animali non umani, occorre tuttavia non peccare di antropocentrismo. Come mette bene in evidenza Christine Webb, nota primatologa di Harvard, in un interessante saggio che contesta l'eccezionalismo intellettuale umano, e lo fa con un'ampia (ed assai interessante) esplorazione di esempi di intelligenza non umana (C. Webb, The Arrogant Ape: The Myth of Human Exceptionalism and Why It Matters, Avery, 2025).
Studi recenti contestano, in effetti, la tesi della maggior parte dei filosofi che hanno discusso la relazione degli animali con la morte, dando per scontato che solo gli esseri umani possano comprendere questa nozione; e dimostrando, invece, che anche gli animali hanno una forma coscienza della loro “finitezza”. In particolare Susana Monsó (S. Monsó, How to Tell If Animals Can Understand Death, in Erkenntnis, 2022, p. 117 ss.) osserva come il concetto di morte non possa essere inteso in senso meramente binario: possedere un concetto di morte non è un tutto o niente, ma e piuttosto qualcosa di soggetto a gradazione (e questo vale anche per gli esseri umani!):
«Ciò appare evidente se consideriamo il caso dei bambini, che non acquisiscono il concetto di morte da un giorno all'altro. In effetti, il consenso scientifico è che impiegano in media 10 anni per padroneggiare appieno il concetto di morte (…), ma attribuiamo loro una certa comprensione della morte già prima che raggiungano questa fase»[3].
Sicché, ci dice Monsó, se accettiamo questa “gradazione” nel livello di consapevolezza della morte per i bambini, dobbiamo necessariamente accettarla anche per gli animali. Inoltre, l’autrice ci mette in guardia sul fatto che dobbiamo essere consapevoli del fatto che, anche per gli esseri umani, vi sono diverse concezioni della morte, che oscillano fra un minimo ed un massimo.
Portando sino alle estreme conseguenze il ragionamento di cui sopra, non mi pare dunque che si possa neppure escludere che, a questa consapevolezza della morte da parte degli animali non umani, possa corrispondere anche una forma di paura intesa in termini di “capacità di anticipazione”.
Che cosa significa, dunque, essere intelligenti (anche all’epoca dell’I.A.)?
Osserva Ferraris nell’incipit del suo libro che:
«Ai computer manca la volontà, dunque non prendono alcuna iniziativa, e ci vuole sempre un umano che li attivi con un prompt» (Cit. p. 1).
Ancora:
«Dunque, e questa è la mia tesi fondamentale, le volizioni, prima ancora che le emozioni, sono ciò che, nel profondo, distingue l’intelligenza naturale dalla sua sorellastra artificiale, che quando pure divenisse capace di riprodurla alla perfezione, o di superarla (in molti casi è già così, e dai tempi della carta e della matita), lo farebbe solo come un’imitazione difettosa della forma di vita umana. E difettosa perché difettiva proprio della volontà, che nella vita umana (così come nella vita degli organismi in generale) esercita, come spero di dimostrare, una sovranità assoluta» (Cit. p. 10).
Questa capacità di esercitare “sovranità” cui l’A. fa riferimento è successivamente collegata al nesso tra potere e libertà. Egli infatti osserva come la libertà sia il più grande potere:
«il potere assoluto, che tutte le forze politiche e sociali cercano di limitare, a volte legittimamente (regole per la divisione dei poteri, ossia delle libertà), altre volte illegittimamente (revoca delle libertà nei regimi totalitari)» (Cit. p. 265).
Ma, avverte:
«ricordiamo sempre che la libertà è una forza che in quanto tale va necessariamente regolata, pena la guerra di tutti contro tutti» (Cit. p. 266)
Che cosa può dunque significare, per gli animali umani, essere intelligenti all’epoca dell’intelligenza artificiale?
A mio parere, la risposta può essere cercata e trovata solo nel necessario nesso fra potere e libertà, ed in relazione al fine: quel fine che noi stessi, come esseri umani, siamo in linea di principio in grado di assegnarci. O che, altrimenti, ci facciamo assegnare da altri. Il che avviene, da una prospettiva squisitamente giuspubblicistica, tutte le volte in cui rinunciamo ad esercitare la sovranità, nei modi e nelle forme in cui la esercita il popolo (e ciascuno di noi) nelle moderne democrazie parlamentari di stampo liberale.
Dobbiamo dunque avere paura dell’IA?
Per rispondere a questa domanda, vorrei a questo punto introdurre al lettore la inquietante figura di Zoltan Istvan, che nell'autunno del 2015 ha girato gli Stati Uniti con un Blue Bird Wanderlodge del 1978, modificato in modo da conferirgli l'aspetto di una bara gigantesca.
Istvan aveva essenzialmente due obiettivi: 1) denunciare il fatto deplorevole della mortalità umana e la necessità di fare qualcosa al riguardo; 2) annunciare la sua candidatura alle elezioni presidenziali del 2016, come candidato del “partito transumanista”.
Non gli è andata bene. Ma ci ha riprovato nel 2020, quando ha tentato la candidatura per il Partito Repubblicano, sfidando internamente il presidente uscente Donald Trump nelle primarie.
Più recentemente, nell'aprile 2025, Istvan ha annunciato la sua intenzione di candidarsi come Governatore della California per le elezioni del 2026, questa volta nelle file del Partito Democratico. Ma non esclude di ricandidarsi pure per le elezioni presidenziali, per la terza volta, nel 2028. Ancora non si sa con che partito, ma mi pare ovvio con quale programma principale: sconfiggere la morte tramite la fusione uomo-macchina, la creazione del vero Cyborg, l’uomo potenziato grazie all’IA o Superintelligenza o tecnologia quantistica o qualsiasi altra diavoleria tecnologica che il futuro possa mettere a nostra disposizione (M. O’Connell, To Be a Machine. Adventures among Cyborgs, Utopians, Hackers, and the Futurists Solving the Modest Problem of Death, Granta Books, 2017, passim).
Non è dunque dell’intelligenza artificiale che dobbiamo avere paura, ma della stupidità umana nel servirsi di tecnologie che, come tali, sono neutre: non sono cioè, in sé, né buone né cattive. Sono solo uno strumento a nostra disposizione. Uno strumento come tutti quelli di cui abbiamo fatto uso nel corso della storia, come ben ci ricorda Ferrari nel capitolo terzo del suo libro, quello sulla c.d. “mente attrezzata”. Ove egli giustamente osserva come:
«In realtà, attrezzati, fosse pure solo di un bastone, lo siamo sempre stati, e a far problema non è la tecnologia, bensì la rapidità del cambiamento»; e si (e ci domanda) come si possa fare per governarlo, questo cambiamento (Cit. p. 125).
E sottolinea che:
«Le imperfezioni dell’animale umano, così debole, lento, svantaggiato, sono quelle che determinano lo sviluppo della tecnica, della cultura e della società a livelli impensabili presso altre forme di vita» (Cit. p. 126 s.).
Secondo l’opinione di Ferraris, dunque:
«L’umano è costitutivamente, e sin dall’inizio, postumano: cioè un organismo originariamente modificato da meccanismi che sopravanzano la natura» (Cit. p. 126).
Ancora:
«L’umano nasce imperfetto, tardivo, sradicato e imbecille, e medica i propri difetti (o almeno ci prova) attraverso il supplemento tecnico» (Cit. p. 127).
Sicché, ci avverte:
«La tecnica può certo essere il veleno, ma è anzitutto il rimedio. Se non è definito dall’interno, dalla guida monotona ma sicura di un istinto, l’umano riceve forma dal di fuori, dalle istituzioni, dal mondo dello spirito e dalla lista dei supplementi che acquisisce» (Cit. p. 161).
Ancora:
«La coscienza non nasce come un fungo, ma discende dal linguaggio e dalla educazione, dai riti e dalle biblioteche» (Cit. p. 177).
Mettiamo ora insieme tutte queste riflessioni di Ferraris, dettate dal suo approccio prettamente storico-filosofico, con le più recenti scoperte dei neuroscienziati. I quali hanno dimostrato la totale plasticità del nostro cerebro; e come i neuroni si possano addirittura “riconvertire”.
Possiamo, cioè, usare neuroni “nati” per fare una cosa per farne un’altra. Il che porta, nella sua accezione più negativa, all’iperspecializzazione di quelli che possiamo ironicamente definire come “Fachidioten”[4]: i superesperti di una singola faccenda, che usano praticamente tutti i neuroni a loro disposizione per fare al meglio quella singola cosa, e divengono dunque alla lunga incapaci (o quasi) di fare e/o comprendere altro. Ma, in una lettura invece positiva, questa estrema plasticità del nostro cerebro è anche la ragione per cui, anche chi avesse subito un incidente neurologico grave, con distruzione di parte del cerebro, potrebbe “recuperare”: è la storia, ad esempio, di Cameron Mott e di come il suo cervello si è “riprogrammato”, a seguito di un’operazione chirurgica con cui gliene avevano asportato la metà, per potere rimediare ai danni provocati da una grave e rara malattia (encefalite di Rasmussen), che le causava crisi epilettiche gravissime che avrebbero condotto alla paralisi progressiva, e poi alla morte.
Come ben spiega infatti David Eagleman (D. Eagleman, The Brain: The Story of You, Canongate Books Ltd, 2016), il cervello è dunque fondamentalmente diverso dall'hardware nel nostro computer. Si tratta di "liveware", capace di riconfigurare i propri circuiti. E sebbene il cervello adulto non sia flessibile come quello di un bambino, conserva comunque una sorprendente capacità di adattamento e cambiamento. Infatti, ogni volta che impariamo qualcosa di nuovo, il cervello cambia se stesso. Ed è proprio questa proprietà del cervello (la sua plasticità) che consente questo essenziale “matrimonio tra la nostra tecnologia e la nostra biologia” («marriage between our technology and our biology») cui fa più volte riferimento Eaglemann nel suo volume.
Quali conclusioni?
Nel primo capitolo del suo libro Ferraris osserva come
«lo spirito del tempo – non di chi twitta le analisi, ma di chi le legge – è dominato dalla paura» (Cit. p. 23).
Sottolinea tuttavia come, a suo parere, il rischio non sia
«né la Singolarità né la disumanizzazione, bensì la Moltitudine, l’umanità con le sue inesauribili cattive idee e la sua numerosità. Ci sono miliardi di umani sul pianeta, e costoro (cioè noialtri), in quanto organismi, sono dotati di volontà e portati al dominio, all’aggressione, alla paura, oltre a rivelarsi beatamente inclini all’ignoranza e inquietamente rosi dal risentimento» (Cit. p. 36).
Il passaggio in cui Ferraris sottolinea come «Non ci sarà mai un potere della tecnica sul mondo: una motosega non ha la più pallida idea di che cosa sia abbattere un albero, figuriamoci poi se ha voglia di farlo» (Cit. p. 31) unito ad un altro passaggio del libro, in cui ci ricorda che sono gli organismi, umani o animali, che «hanno bisogni, desideri, timori, dunque possono, ad esempio, aspirare al potere» (Cit. p. 61) mi pare la perfetta sintesi del problema.
Se aggiungiamo a questo l’osservazione (ampiamente condivisibile) che «l’umano è notoriamente poco amico della morale (come ci insegnano apparati tecnici quali le serrature e i sistemi di allarme, e istituzioni come la polizia e i penitenziari» (Cit. p. 41), ecco che si giunge alla chiusura del cerchio.
Concordo dunque certamente con Ferraris che il rischio non è la c.d. infocrazia (Byung-Chul Han, Infocrazia, Einaudi, 2022). Né le c.d. postverità, che come tali sono sempre esistite nella storia dell’umanità. Il rischio è, a mio parere, di cullarci in quella che Jonathan Glover, nel suo bellissimo (ed inquietante) saggio del 2012 (J. Glover, Humanity. A Moral History of the Twentieth Century, Yale University Press, 2012) efficacemente definisce come l’illusione del “progresso morale” dell’umanità. Glover osserva infatti che, se all’inizio del XX secolo si poteva ancora credere nel progresso morale ed immaginare che la cattiveria e la barbarie umana fossero oramai recessive, già alla fine del secolo risultava assai difficile avere fiducia nella c.d. “legge morale” e nel progresso morale dell’umanità.
A maggior ragione risulta difficile oggi, in un momento storico caratterizzato da numerose guerre di aggressione, instabilità politica e, più in generale, da quello che è stato efficacemente descritto come «un abbruttimento dei rapporti tra persone e tra Stati»[5].
E qui vale la pena di citare nuovamente il libro di Ferraris:
«una macchina non tende verso qualcosa; semmai, è programmata per farlo» (Cit. p. 256).
Sicché, mi permetto a questo punto di dire, se vogliamo evitare catastrofi (ulteriori) legate ad un cattivo uso degli strumenti di I.A. (e tecnologia affini), è forse giunto il momento per i filosofi di mettersi da parte, smettendo di monopolizzare il dibattito sul tema, per lasciare la palla ai giuristi: che sono chiamati a svolgere un ruolo essenziale nel definire che cosa “la macchina” deve poter fare. E deve NON poter fare. In termini di obblighi giuridici veri e propri, cioè, e non di meri suggerimenti guidati dall’etica o dalla morale.
A fronte, cioè, dei troppi dubbi e domande che solleva l’uso delle ICT nell’epoca moderna, sono e resto profondamente convinta della necessità di risposte che devono venire non dalla filosofia, o dall’etica pubblica (che ha assunto oramai una dimensione di semplice morale individuale), ma dal mondo del diritto.
Il diritto, in quanto «arte della convivenza civile» (F. Viola, Il diritto come arte della convivenza civile, in Rivista di filosofia del diritto, 2015/1, p. 57 ss.) deve essere in grado di stabilire i criteri, di porre dei limiti alle applicazioni possibili della scienza a qualsiasi ambito: sia esso la medicina, la psichiatria, o la scienza della guerra (…). E questo vale necessariamente (e direi, a fortiori) per l’utilizzazione di tecnologie come l’intelligenza artificiale.
Men che meno credo nell’autoregolazione: l’idea che imprese private, naturalmente (e fisiologicamente) orientate al profitto, si autoimpongano dei limiti per il benessere collettivo non mi ha mai convinta; e non vedo in che modo si possa pensare che queste riflessioni non trovino applicazione anche (e soprattutto) nel mondo ipercompetitivo delle ICT[6]: è ben noto, ad esempio, che gli investimenti immensi che sono necessari per sviluppare sistemi di I.A. “generalisti” in grado di ben funzionare rischiano di non garantire un ritorno negli investimenti stessi, con tutte le conseguenze del caso. ChatGPT, ad esempio, è un prototipo di chatbot (agente conversazionale) fondato su un framework di Machine Learning Artificial Intelligence sviluppato da OpenAI, in cui persino Microsoft ha investito oltre 10 miliardi di dollari. Mistral AI, la risposta francese a OpenAI, ha investito circa 12 miliardi di euro per sviluppare modelli di I.A. che possano competere con ChatGPT. E gli esempi potrebbero ovviamente moltiplicarsi.
Non è, cioè, di principi etici che abbiamo ora bisogno, ma di norme giuridiche idonee. Perché il fatto che gli esseri umani siano sempre “moralmente imperfetti” implica che anche i nostri processi decisionali sono originariamente viziati da questa nostra imperfezione, che potrebbe essere semplicemente trasferita in procedimenti decisionali automatizzati o semi-automatizzati per il tramite di algoritmi capaci di produrre un “effetto moltiplicatore” (di errori umani inevitabili)[7].
E qui mi fermo, perché questa è invece la mia tesi di fondo, quella di cui ho già scritto e riscritto, e richiamando la quale mi permetto dunque di concludere anche le mie odierne riflessioni.
NOTE:
[1] Cfr. da ultimo D.U. Galetta, Artificial Intelligence and Public Administration: A Journey, Editoriale Scientifica, 2025.
[2] Per info al riguardo, oltre alla informazioni reperibili suo sito del Cryonics Institute, si veda al seguente link: https://www.onoranzefunebrilamadonnina.com/blog/ibernazione-umana-e-criogenia-come-funzionano/.
[3] «This becomes clear once we consider the case of human children, who do not acquire a concept of death overnight. In fact, the scientific consensus is that it takes them an average of 10 years to fully master the concept of death (…) but we credit them with some understanding of death before they reach this stage», p. 121. Traduzione mia.
[4] Termine in uso nella lingua tedesca e praticamente intraducibile in italiano: il vocabolario suggerisce la traduzione in inglese con “nerd”. La traduzione letterale sarebbe "idiota del settore/materia".
[5] Così M. Gramellini nel Corriere della Sera del 4 marzo 2026, “Bombe, tende e cappellini”, https://www.corriere.it/caffe-gramellini/26_marzo_04/bombe-tende-cappellini-a302a9fb-b9a2-4ad3-906e-66b0a6056xlk.shtml.
[6] Cfr. F.C. Zacharias, The Myth of Self-Regulation, in Minnesota Law Review, 2009, p. 1147 ss.
[7] Cfr. D.U. Galetta, La decisione amministrativa algoritmica discriminatoria: ragioni e rimedi possibili (fra diritto amministrativo nazionale e diritto UE), in G.P. Ruotolo, A. Stiano (Eds.), Discriminazioni automatiche. Come il diritto può aiutare l’intelligenza artificiale e viceversa, Giappichelli, 2026, p. 158 ss.
RIFERIMENTI BIBLIOGRAFICI:
P. Ariés, Storia della morte in Occidente, Rizzoli, 1998
B. C. Han, Infocrazia, Einaudi, 2022
J. Barrat, Our Final Invention: Artificial Intelligence and the End of the Human Era, Thomas Dunne Books, 2013
N. Bostrom, Superintelligence: Paths, Dangers, Strategies, Oxford University Press, 2016
C.M. Cipolla, Le leggi fondamentali della stupidità umana, Il Mulino, 2015
D. Eagleman, The Brain: The Story of You, Canongate Books Ltd, 2016
M. Ferraris, La pelle: Che cosa significa pensare nell’epoca dell’intelligenza artificiale, Il Mulino, 2025
D.U. Galetta, AI and Public Administration: A Journey, Editoriale Scientifica, 2025
D.U. Galetta, La decisione amministrativa algoritmica discriminatoria: ragioni e rimedi possibili (fra diritto amministrativo nazionale e diritto UE), in G.P. Ruotolo, A. Stiano (Eds.), Discriminazioni automatiche. Come il diritto può aiutare l’intelligenza artificiale e viceversa, Giappichelli, 2026, p. 158 ss.
J. Glover, A Moral History of the Twentieth Century, Yale University Press, 2012
R. Kurzweil,The Singularity Is Near: When Humans Transcend Biology, Viking Press, 2005
R. Kurzweil,The Singularity Is Nearer: When We Merge with AI, Penguin Books, 2024
M.G. Losano, Per un diritto compatibile con l’elaborazione elettronica, in Id, Corso di informatica giuridica, volume 2, Unicopli, 1981, p. 319 ss.
M.G. Losano, Introduzione, in R. Cavallo Perin, D.U. Galetta (Eds.), Il Diritto dell’Amministrazione Pubblica digitale, Giappichelli, Torino, 2nd ed., 2025, p. XXV ss.
J. McCarthy, What is Artificial Intelligence?, Nov-Dec. 2007, at https://web.archive.org/web/20131215190713/http://www-formal.stanford.edu/jmc/whatisai.pdf
S. Monsó, How to Tell If Animals Can Understand Death, in Erkenntnis, 2022, p. 117 ss.
M. More, N. Vita-More, The Transhumanist Reader. Classical and Contemporary Essays on the Science, Technology, and Philosophy of the Human Future, Wiley-Blackwell, 2013
M. O’Connell, To Be a Machine. Adventures among Cyborgs, Utopians, Hackers, and the Futurists Solving the Modest Problem of Death, Granta Books, 2017
R. Pally, The Mind-Brain Relationship, Routledge, 2018
F. Viola, Il diritto come arte della convivenza civile, in Rivista di filosofia del diritto, 2015/1, p. 57 ss.
C. Webb, The Arrogant Ape: The Myth of Human Exceptionalism and Why It Matters, Avery, 2025
L’AI Claude va in guerra contro l’Iran (ma studia da disertore)
Amodei contro Hegseth (e Trump)
Il padre della teoria matematica dell’informazione, Claude Shannon, durante la Seconda Guerra Mondiale si è occupato di crittografia dei messaggi, ma anche di sistemi automatici di puntamento del fuoco per l’artiglieria antiaerea. Il sistema di intelligenza artificiale di Anthropic, che è stato battezzato Claude in suo onore, serve la patria dal luglio 2025, con un contratto da 200 milioni di dollari per una durata di due anni, siglato con il Pentagono. Ma, al contrario del suo omonimo predecessore, non sembra essere disposto a eseguire whatever it takes le direttive dei vertici militari; o almeno, Dario Amodei – che di Anthropic è fondatore e CEO in carica – cerca di ottenere un rispetto letterale degli accordi contrattuali. Donald Trump ha disseppellito l’etichetta di Dipartimento della Guerra dagli archivi novecenteschi, e ha assegnato a Pete Hegseth l’incarico di gestire il ministero secondo lo stile tipico dell’attuale governo americano: operatività tramite decreti, senza scrutinio pubblico, sotto la pressione costante di qualche (presunta) emergenza per la sicurezza nazionale. Lo stato di criticità dovrebbe dispensare l’amministrazione militare da un eccesso di scrupolo nell’osservanza di patti e clausole.
Il dissidio tra Anthropic e Hegseth divampa dopo l’operazione che nei primi giorni di gennaio 2026 ha condotto al sequestro del presidente Nicolás Maduro in Venezuela. Amodei lamenta un’infrazione alle restrizioni sull’uso dei modelli AI sviluppati dalla sua azienda, che ne vietano l’adozione per attività di sorveglianza di massa sui cittadini americani e per l’applicazione ad armi «autonome» (cioè capaci di individuare e uccidere il bersaglio senza un controllo diretto da parte di un essere umano). Il ministro accusa Anthropic di tradimento, perché la sua protesta equivarrebbe ad una forma di opposizione alle strategie di protezione della sicurezza degli Stati Uniti messe in atto dal Pentagono.
Il primo atto della disputa si sarebbe dovuto concludere con l’ordine rivolto a tutte le agenzie federali, diramato da Trump il 27 febbraio tramite il social network Truth, di interrompere ogni collaborazione con Anthropic: «Gli Stati Uniti non permetteranno mai a un'azienda di sinistra e woke di dettare come il nostro grande esercito combatta e vinca le guerre! Questa decisione spetta al vostro comandante in capo e agli straordinari leader che nomino per guidare il nostro esercito. L'egoismo di Anthropic sta mettendo a rischio le vite degli americani e in pericolo i nostri soldati e la nostra sicurezza. Pertanto, ordino a tutte le agenzie federali del governo degli Stati Uniti di cessare immediatamente ogni utilizzo della tecnologia Anthropic. Non ne abbiamo bisogno, non la vogliamo e non faremo più affari con loro!»
Ma meno di ventiquattro ore dopo l’imperativo trumpiano è stato disatteso proprio dal Dipartimento della Guerra, che è ricorso di nuovo ai servizi di Claude per sferrare l’attacco del 28 febbraio contro la Guida Suprema Alì Khamenei in Iran. Il problema infatti è che i servizi di Anthropic sono molto integrati con quelli dell’altro partner dell’esercito americano nelle operazioni di intelligence, Palantir, perché la dismissione delle tecnologie di Amodei possa avvenire da un giorno all’altro. Hegsteh in persona è stato costretto ad annunciare, questa volta su X, che «Anthropic continuerà a fornire i suoi servizi al Dipartimento della Guerra per un periodo di non oltre sei mesi, per assicurare una transizione senza interruzioni di continuità».
Cosa faceva Anthopic per il Dipartimento della Guerra?
Difficile rispondere a questa domanda, perché le operazioni in cui sono coinvolti i suoi modelli AI sono coperti dal segreto militare. L’articolo con cui il Wall Street Journal riferisce che Claude ha svolto un ruolo nel corso dell’attacco all’Iran, dichiara che secondo la sua fonte il comando militare in Medio Oriente ha adottato il software per funzioni di operational support alle azioni di combattimento. Questa etichetta escluderebbe un coinvolgimento diretto negli scenari di guerra, per due ordini di motivi.
Il primo riguarda l’ambito di attività di solito catalogate come «supporto operativo», che investe l’intelligence da cui il conflitto viene preceduto e accompagnato (e spesso anche evitato): l’analisi dei dati con cui si individuano gli attori rilevanti per le decisioni strategiche del nemico, si decifrano i loro messaggi, si interpretano le loro decisioni – si infiltrano informazioni false, si dirotta l’attenzione degli avversari, si manipolano le loro convinzioni, si avvicina la loro opinione pubblica alle istanze più favorevoli ai propri vantaggi.
Il secondo insiste sulle caratteristiche dei modelli AI sviluppati da Anthropic, che sono degli LLM (Large Language Model) focalizzati sull’elaborazione linguistica. Claude appartiene ad una famiglia di tecnologie che sono abili a leggere testi, a individuare pattern nei loro contenuti, a interpretare le combinatorie di significanti che li compongono, e anche a replicarle in modo credibile. La sua applicazione nelle operazioni di spionaggio che hanno preceduto l’attacco potrebbe quindi essere stata mirata a esaminare milioni o miliardi di testi, per lo più in farsi e nelle altre lingue parlate in Iran, con lo scopo di selezionare il cluster di messaggi scambiati tra le autorità politiche e militari del regime, per estrarre informazioni utili sull’agenda dei loro movimenti, sulle decisioni da discutere o già deliberate, sui loro modi per identificarsi (in codice o in chiaro), sui rapporti reciproci – almeno per quello che si può dedurre dalle loro conversazioni. L’inizio dell’attacco infatti ha coinciso con il momento in cui Khamenei avrebbe incontrato alcuni dei funzionari più elevati all’interno del Beit E Rahbari, il complesso di edifici a Teheran destinato ai lavori dei vertici istituzionali.
Da questi assunti sembra plausibile che l’impiego delle tecnologie di Anthropic non intersechi il problema morale delle armi autonome, ma possa in qualche modo collidere con il rifiuto di partecipare a operazioni di sorveglianza di massa – vista l’enorme quantità di messaggi che devono essere stati vagliati dal software per derivare il corpus di comunicazioni utili alle operazioni di intelligence. L’integrazione con i software di Palantir – di cui si sa sempre poco, ma abbastanza per dedurre che siano impiegati per identificare i bersagli degli attacchi – confermerebbe che il contributo di Claude riguardi l’interpretazione di grandi moli di dati testuali, al fine di individuare autori, contenuti dei messaggi, decrittazione di codici. In altre parole, il software di Amodei somiglierebbe allo Shannon originale, molto più che a una qualche incarnazione di Terminator, libera di circolare per il mondo.
È possibile naturalmente che Anthropic abbia sviluppato anche altri modelli di AI, disegnati su esigenze specifiche del Pentagono, e non coincidenti con quelli che rappresentano il core business aziendale: al momento non esistono prove per accogliere o rigettare la tesi, anche se in soli sei mesi di attività non è molto probabile che si sia potuta generare la versione stabile di un software completamente nuovo. Tuttavia Amodei, che ha annunciato ricorso in tribunale contro la rescissione del contratto unilaterale da parte del Dipartimento della Guerra, è già riuscito con questa vicenda a raggiungere un risultato di tutto rispetto: Claude dal 1° marzo è balzata dal 131° al 1° posto delle app più scaricate nell’App Store.
L’accordo siglato da Anthropic con il Pentagono
Questo accordo la rendeva l’unica società di sviluppo AI, insieme a Palantir, impegnata a lavorare su attività coperte per intero dal segreto militare; le collaborazioni accordate con il ministero di Hegseth da Alphabet, OpenAI e Microsoft, non raggiungevano questo livello di profondità. Sembra improbabile quindi che Amodei non conoscesse il tipo di operazioni per le quali la sua tecnologia sarebbe stata impiegata: la sua sorpresa appare poco credibile. Eppure i toni di aggressività da fumetto, e il linguaggio infantile di Trump e Hegseth, hanno restituito smalto e plausibilità all’immagine di paladino della sicurezza AI che Amodei si è attribuito nelle ultime settimane, e hanno tirato la sua abile, anche se pericolosa, campagna marketing per Claude.
Anthropic ha concluso nel febbraio 2026 la raccolta di 30 miliardi di dollari di finanziamento, con un round di serie G, portando il suo valore post-money a 380 miliardi di dollari; sembra stia puntando ad una collocazione in borsa nei prossimi 12-18 mesi. Wall Street val bene una commessa del Pentagono.
Il tempo e l’I.A. nelle professioni di cura della salute
Sistemi sotto pressione
Le professioni di cura della salute, sia quelle rivolte agli umani che quella rivolta ai non umani, subiscono da tempo una pressione sistemica che agisce su più livelli contemporaneamente: mercato, organizzazione del lavoro, aspettative sociali, sostenibilità individuale.
La domanda di prestazioni per unità di tempo è cresciuta in modo significativo. Nel caso della medicina veterinaria questo è dovuto all’aumento del numero di animali da compagnia, al loro ruolo sempre più centrale nella vita delle famiglie e a una maggiore sensibilità verso il benessere dei pet; per la medicina umana la pressione è correlata ad una serie di fattori quali l’aumento dell’età della popolazione, alla diminuzione di investimenti nelle strutture sanitarie pubbliche, all’incremento della richiesta di cure specialistiche ed ospedaliere e, infine, al modello aziendale adottato per la gestione della sanità pubblica.
A questa crescita quantitativa si è accompagnata una crescita qualitativa della domanda. I pazienti e i clienti chiedono percorsi diagnostici più approfonditi, terapie sempre più personalizzate, continuità assistenziale, comunicazione chiara e partecipata.
Il paradosso della qualità: fare meglio costa di più (in tempo)
Questa evoluzione porta con sé un paradosso: fare meglio richiede più tempo, più attenzione, più coordinamento. Il tempo necessario per raccogliere un’anamnesi completa, considerare opzioni diagnostiche e terapeutiche, documentare il caso e il percorso diagnostico, seguire i casi nel lungo periodo, è aumentato molto più rapidamente del tempo effettivamente disponibile nelle giornate lavorative dei professionisti della cura.
Il risultato è una compressione progressiva del tempo clinico, che si manifesta ma come sovraccarico silenzioso.
Il peso del lavoro invisibile
Una parte significativa del lavoro di cura non è direttamente visibile: documentazione clinica, aggiornamento continuo, coordinamento informale, comunicazione post-visita e gestione delle aspettative dei clienti assorbono tempo ed energie, ma raramente entrano nel calcolo della sostenibilità professionale.
Questo lavoro invisibile non è marginale: è ciò che permette alla qualità clinica di esistere.
Quando viene sistematicamente sottovalutato, il rischio non è il calo immediato della qualità, ma l’erosione progressiva della tenuta professionale. La pressione nasce dallo scarto crescente tra ciò che oggi è richiesto per fare buona medicina e gli strumenti organizzativi e temporali a disposizione. È plausibile pensare che, spesso, il sistema regga grazie all’impegno, al senso di responsabilità, alla vocazione professionale e alla disponibilità al sacrificio dei Curanti.
In questo sistema sotto pressione, in cui la complessità è strutturale, molto spesso il tempo è diventato la risorsa più critica.
Il contesto emotivamente carico
Una cura che abbia a cuore la qualità della relazione e il reale benessere del paziente e dei suoi parenti (o dei proprietari nel caso della medicina rivolta agli animali) si trova così immersa in un contesto emotivamente carico, dove l’atto clinico è inseparabile dalla gestione della relazione. La formazione accademica lascia aperto un divario importante tra l’aspettativa del cliente e la predisposizione del neo-curante.
Parallelamente, la casistica clinica è diventata più complessa anche a causa dell’allungamento delle aspettative di vita, del miglioramento delle cure e della maggiore attenzione alla prevenzione che hanno portato all’emersione e al maggiore peso specifico delle patologie croniche e multifattoriali. Chi cura affronta sempre più spesso pazienti anziani, comorbidità, percorsi terapeutici di lungo periodo, decisioni basate su compromessi tra qualità e durata della vita.
Questo tipo di medicina, inevitabilmente, richiede una elevata integrazione di dati, la continuità assistenziale e la capacità di monitoraggio nel tempo.
La pressione sul tempo come fattore trasversale
Tutti questi trend convergono su un unico punto critico: il tempo. Più complessità clinica, più relazione, più documentazione e più coordinamento significano più tempo per singolo caso, versus una organizzazione del lavoro e dei modelli economici che non si sono evoluti con la stessa velocità. Il risultato è una tensione costante tra ciò che sarebbe clinicamente desiderabile e ciò che è operativamente possibile, tensione che non produce immediatamente errori, ma usura[1] del personale e compressione del tempo clinico.
Il ragionamento clinico diventa più rapido e meno riflessivo, e la qualità viene mantenuta grazie all’esperienza e all’impegno, ma a costo di stanchezza, difficoltà di recupero, riduzione dello spazio mentale. Ogni decisione clinica comporta incertezza e, quando il tempo è scarso, questa incertezza pesa di più; il personale di cura deve integrare informazioni incomplete, scegliere tra opzioni non ideali e comunicare limiti e probabilità. Far tutto questo in condizioni di pressione continua aumenta lo stress decisionale e la fatica emotiva, spostando la difficoltà dal “fare” al decidere bene.
L’operatore della cura ideale dovrebbe anche spiegare, rassicurare, negoziare e accompagnare, aumentando il coinvolgimento emotivo. Se la relazione “funziona”, è una delle parti più gratificanti del lavoro; se, invece, si accumula senza spazi di recupero, diventa uno dei principali fattori di affaticamento. Gestire le emozioni dei pazienti e dei familiari, contenere le ansie, spiegare le incertezze avviene dentro un tempo clinico progettato per il solo ruolo “tecnico”, costringendo i curanti a svolgere una parte significativa del lavoro – come, ad esempio, il completamento della cartella, la rilettura dei dati, la pianificazione dei follow-up - dopo che il paziente ha lasciato la struttura e – a volte – invadendo il tempo personale e facendo allungare la giornata lavorativa per necessità.
Lavorare al limite diventa la norma, non l’eccezione, con il rischi di assuefazione, perdita di consapevolezza, idea che “sia inevitabile”.
Come abbiamo già visto, questi rischi sono il segnale di una tensione sistemica tra ciò che oggi è richiesto per fare buona medicina e le condizioni in cui quella medicina viene praticata; continuare ad affrontare questa tensione solo con l’impegno individuale significa spostare il problema e renderlo progressivamente più pesante.
Con quali strumenti si può sostenere questo livello di qualità senza consumare chi la rende possibile?
È a partire da questa domanda che l’intelligenza artificiale entra nel discorso non come promessa futuristica, ma come risposta funzionale a problemi già presenti, non per sostituire l’operatore di cura, ma per rendere possibile ciò che oggi è richiesto. Si può, quindi, parlare l’intelligenza artificiale senza fraintendimenti, non come soluzione miracolosa, né come minaccia, ma come insieme di strumenti già presenti, con potenzialità reali e limiti altrettanto reali.
Prima di discutere cosa l’I.A. può fare per le professioni di cura, è necessario chiarire che cosa è oggi, e soprattutto che cosa non è.
L’espressione “intelligenza artificiale” tende a evocare un’entità unica, autonoma, quasi dotata di volontà. Nella cura, l’I.A. è una famiglia di tecnologie che condividono un principio comune: l’analisi computazionale di grandi quantità di dati per individuare pattern, correlazioni e probabilità; questo significa parlare di algoritmi di apprendimento automatico, sistemi di riconoscimento di pattern, modelli predittivi basati su dati storici, strumenti di supporto alla sintesi e all’organizzazione dell’informazione. Non di sistemi che “pensano” o “decidono” in modo autonomo.
Contrariamente a quanto si pensa, l’I.A. non è un elemento futuristico nella cura: è già presente, spesso in modo non esplicito, in diversi ambiti della pratica quotidiana, medica e veterinaria; molti strumenti utilizzati oggi incorporano componenti di I.A., come software di analisi diagnostica, sistemi di triage e di classificazione, piattaforme di supporto informativo, strumenti di gestione e di sintesi dei dati clinici.
Questa presenza silenziosa spiega perché il vero cambiamento non è l’arrivo dell’I.A., ma la sua progressiva integrazione consapevole.
Ci sono settori della cura con caratteristiche che rendono l’applicazione dell’I.A. al tempo stesso promettente e complessa, in cui sono presenti, da un lato, ampia varietà di dati clinici, crescente digitalizzazione, necessità di integrazione di informazioni eterogenee e, dall’altro, elevata variabilità individuale, contesti organizzativi disomogenei, forte componente relazionale ed etica.
L’I.A. funziona bene dove il dato è strutturato e ripetibile; incontra limiti dove il contesto e il giudizio clinico sono centrali. Questo equilibrio è il cuore del discorso che seguirà.
Dalla prestazione all’utilità: un cambio di prospettiva
Nei sistemi di cura è opportuno, spostare l’attenzione dalle performance dell’I.A. e invece, scegliere un’altra prospettiva: l’utilità clinica e professionale. Una tecnologia può essere molto performante e poco utile, se non si integra nei flussi di lavoro, se aumenta il carico cognitivo e se richiede più tempo di quello che restituisce. L’I.A., in medicina e in veterinaria – ma si potrebbe applicare questo principio a molte altre professioni - ha senso solo se riduce la complessità senza semplificare la cura. Le possibili aree di applicazione possono essere: il supporto alla documentazione e alla gestione dell’informazione, l’esegesi in tempo reale del colloquio clinico-paziente, l’analisi di immagini e segnali, la sintesi di dati longitudinali al percorso terapeutico completo, il supporto al ragionamento clinico nella diagnosi differenziale.
Ciò che accomuna questi ambiti non è la spettacolarità, ma la ripetitività strutturata dei compiti e l’elevato carico cognitivo umano che comportano. L’I.A. non entra nella veterinaria per rendere la medicina più “intelligente”, ma per renderla praticabile in un contesto di crescente complessità.
Il primo nodo che intercetta non è la diagnosi, né la terapia. È il tempo.
Prima di continuare è, però, importante chiarire i confini: l’I.A., nella pratica di cura responsabile, non deve sostituire il giudizio clinico, assumere responsabilità decisionale, comprendere il contesto emotivo, gestiscere il valore soggettivo della qualità della vita.
Questi elementi non sono limiti tecnici contingenti, ma confini strutturali all’interno del quale muovere tutti i successivi ragionamenti. Confondere il supporto con la sostituzione significa creare aspettative irrealistiche e alimentare resistenze inutili. Molte delle preoccupazioni espresse dai professionisti non riguardano la tecnologia in sé, ma le modalità di adozione.
L’I.A. diventa problematica quando viene imposta senza integrazione, viene presentata come soluzione totale, non è accompagnata da una riflessione organizzativa.
Diventa invece una risorsa quando è introdotta per risolvere problemi reali ed è spiegata nei suoi limiti, restando chiaramente ed esplicitamente uno strumento.
Intelligenza artificiale e tempo
Se l’intelligenza artificiale trova un punto di ingresso naturale nella pratica di cura, questo punto non è la diagnosi né la terapia, ma il tempo. Il tempo dell’operatore sanitario è diventato la risorsa più scarsa e più fragile dell’intero sistema, e allo stesso tempo quella meno tutelata. Comprendere il ruolo dell’I.A. come risposta alla crisi di tempo significa spostare il discorso dall’innovazione tecnologica alla sostenibilità del lavoro clinico. E, quando si parla di “mancanza di tempo”, si tende a pensare all’agenda; ma, in realtà, una parte significativa del tempo viene assorbita da attività che circondano l’atto clinico, tra cui: la compilazione e revisione della documentazione, la trascrizione di informazioni già espresse oralmente, la ricerca e sintesi di dati dispersi, le comunicazioni ripetitive, la gestione post-visita.
Si tratta di attività mai superflue che non richiedono il giudizio clinico, bensì attenzione, precisione e continuità. I Curanti svolgono oggi una grande quantità di lavoro cognitivo a basso valore clinico diretto, non perché sia inutile, ma perché è necessario per far funzionare il sistema, sottraendo – però - tempo al ragionamento clinico, aumentando il carico mentale e riducendo lo spazio di riflessione.
Il paradosso è evidente: più aumentano la domanda e la qualità richiesta, più il professionista è costretto a usare il proprio tempo per attività che non ne valorizzano la competenza clinica specifica. Tanto più olistico deve essere l’approccio, tanto maggiore è la sensazione del curante di lavorare “per altro” più di quanto faccia per l’atto clinico in sé. È in questo spazio che l’intelligenza artificiale mostra il suo primo valore reale: intervenendo non sulle decisioni, ma sulle attività che preparano e seguono la decisione. L’I.A. può – infatti – supportare la trascrizione e strutturazione delle informazioni, la sintesi automatica di dati clinici, l’organizzazione della documentazione, la preparazione di note e report. In tutti questi casi, il beneficio non è la velocità in sé, ma il tempo restituito.
Il recupero del tempo come tutela della lucidità clinica
Un equivoco frequente è pensare che il tempo risparmiato diventi automaticamente tempo libero. Nella pratica di cura, questo accade raramente. Il tempo restituito può essere, invece, reinvestito nella qualità della visita, utilizzato per spiegare meglio, dedicato a decisioni più ponderate, usato per ridurre il lavoro serale o fuori orario.
Il valore dell’I.A. non è quindi quantitativo, ma qualitativo. Infatti, quando il tempo è costantemente compresso, la lucidità diventa fragile e ridurre il carico accessorio non migliora solo l’efficienza, ma protegge la qualità del giudizio. In questo senso, l’I.A. può agire come un riduttore di attrito cognitivo, non come un sostituto dell’intelligenza umana. Il recupero di tempo non ha effetti solo individuali, ma organizzativi. Quando, infatti, la documentazione è più fluida, le informazioni sono più accessibili, il lavoro invisibile diminuisce, l’intero sistema diventa più stabile: migliori passaggi di consegne; maggiore continuità assistenziale; riduzione della dipendenza dalla memoria individuale. Il tempo restituito al singolo diventa robustezza del sistema.
Iniziare il discorso sull’I.A. dal tempo non è una scelta prudente, ma una scelta corretta. È il punto in cui i benefici sono immediatamente percepibili, i rischi sono contenuti, la responsabilità clinica resta pienamente umana.
Ora, se il tempo è la prima risorsa che l’I.A. può restituire, la domanda successiva è inevitabile: che cosa si può fare con quel tempo?
La risposta non riguarda solo l’organizzazione del lavoro, ma il modo stesso di intendere la cura: si apre, qui, il passaggio dalla medicina reattiva alla medicina predittiva. Di questo parleremo in un prossimo articolo.
NOTE:
[1] Un segnale particolarmente rilevante riguarda il rapporto tra professione e nuove generazioni. Infatti, sempre più giovani operatori della salute esprimono difficoltà ad accettare modelli lavorativi insostenibili, rifiuto di una cultura del sacrificio permanente, richiesta di equilibrio e supporto organizzativo e – spesso – disertano le aree professionali più colpite dalla dimensione dello stresso temporale e del sacrificio personale, come il Pronto Soccorso.
RIFERIMENTI BIBLIOGRAFICI:
- Articolo 2024 AAHAA General con trends.docx
- Applications of AI in Veterinary Practice - AAHA, accessed December 28, 2025, https://www.aaha.org/trends-magazine/trends-may-2024/applications-of-ai-in-veterinary-practice/
- How do veterinarians mitigate liability concerns with workforce shortages? in - AVMA Journals - American Veterinary Medical Association, accessed December 28, 2025, https://avmajournals.avma.org/view/journals/javma/262/1/javma.23.06.0341.xml
- Enhancing Vet Practices with AI Dictation and Quick SOAP - Digitail, accessed December 28, 2025, https://digitail.com/blog/veterinarians-didnt-go-to-vet-school-because-they-love-writing-records/
- Challenges and Opportunities in Adopting Artificial Intelligence for Veterinary Practices and Animal Care | Simbo AI - Blogs, accessed December 28, 2025, https://www.simbo.ai/blog/challenges-and-opportunities-in-adopting-artificial-intelligence-for-veterinary-practices-and-animal-care-683491/
- From hype to homework: what 2025 taught us about AI for veterinary medicine, accessed December 28, 2025, https://www.researchgate.net/publication/398623663_From_hype_to_homework_what_2025_taught_us_about_AI_for_veterinary_medicine
- Using RenalTech™ to improve CKD outcomes - Mars Veterinary Health, accessed December 28, 2025, https://marsveterinary.com/using-renaltech-to-improve-ckd-outcomes/
- RenalTech | Antech Diagnostics, accessed December 28, 2025, https://www.antechdiagnostics.com/reference-lab/renaltech/
- AVMA News in: Journal of the American Veterinary Medical Association Volume 264 Issue 1 (2026), accessed December 28, 2025, https://avmajournals.avma.org/view/journals/javma/264/1/javma.264.1.21.xml
- Le innovazioni in campo veterinario stanno migliorando gli standard di cura - The Vetiverse, accessed December 28, 2025, https://www.thevetiverse.com/it/piu-recente/le-innovazioni-in-campo-veterinario-stanno-migliorando-gli-standard-di-cura/
- Artificial Intelligence (AI) in Precision Livestock Farming: Transforming Animal Agriculture in 2025 | AgriTechTomorrow, accessed December 28, 2025, https://www.agritechtomorrow.com/story/2025/10/artificial-intelligence-ai-in-precision-livestock-farming-transforming-animal-agriculture-in-2025/17036/
- Il valore della ricerca e dell'innovazione nell'ambito della salute animale - Altems Advisory Srl, accessed December 28, 2025, https://www.altemsadvisory.it/wp-content/uploads/2025/08/REV2006_ALTEMS-Advisory-New-Report-Animal-Health-v18.pdf
- These AI Chatbots Have Four (Virtual) Paws and a (Digital) Tail - Cornell Alumni, accessed December 28, 2025, https://alumni.cornell.edu/cornellians/cvm-chatbots/
- Uptrend of AI technology in veterinary medicine today - Vet Times, accessed December 28, 2025, https://www.vettimes.com/news/business/digital/uptrend-of-ai-technology-in-veterinary-medicine-today
- AI in Veterinary Medicine: Training the Next Generation of AI-Savvy Veterinarians - The Vetiverse, accessed December 28, 2025, https://www.thevetiverse.com/en/latest/ai-in-veterinary-medicine-training-the-next-generation-of-ai-savvy-veterinarians/
- Pubblicata la prima legge sull'Intelligenza Artificiale - Anmvi Oggi, accessed December 28, 2025, https://www.anmvioggi.it/in-evidenza/77961-pubblicata-la-prima-legge-sullintelligenza-artificiale.html
- AIB 2025-1 MDCG 2025-6 Interplay between the Medical Devices Regulation (MDR) & In vitro Diagnostic Medical Devices - Public Health - European Commission, accessed December 28, 2025, https://health.ec.europa.eu/document/download/b78a17d7-e3cd-4943-851d-e02a2f22bbb4_en?filename=mdcg_2025-6_en.pdf
- FDA Issues Comprehensive Draft Guidance for Developers of Artificial Intelligence-Enabled Medical Devices, accessed December 28, 2025, https://www.fda.gov/news-events/press-announcements/fda-issues-comprehensive-draft-guidance-developers-artificial-intelligence-enabled-medical-devices
- Artificial intelligence and machine learning in veterinary medicine: a regulatory perspective on current initiatives and future prospects in - AVMA Journals, accessed December 28, 2025, https://avmajournals.avma.org/view/journals/ajvr/86/S1/ajvr.24.09.0285.xml
- Navigating FDA's Proposed Guidance on AI and Non-Animal Models: Safeguarding Innovation in Drug Development | Foley & Lardner LLP - JDSupra, accessed December 28, 2025, https://www.jdsupra.com/legalnews/navigating-fda-s-proposed-guidance-on-1756579/
- Familiarity with artificial intelligence drives optimism and adoption among veterinary professionals: 2024 survey - PubMed, accessed December 28, 2025, https://pubmed.ncbi.nlm.nih.gov/39933254/
- 39.2% of Veterinary Professionals Use AI Tools in Their Practice – Digitail and AAHA Survey, accessed December 28, 2025, https://digitail.com/blog/39-2-of-veterinary-professionals-use-ai-tools-in-their-practice-digitail-and-aaha-survey/
- Building a framework for responsible AI in veterinary medicine - AVMA, accessed December 28, 2025, https://www.avma.org/news/building-framework-responsible-ai-veterinary-medicine
- idxx-20230331 - SEC.gov, accessed December 28, 2025, https://www.sec.gov/Archives/edgar/data/874716/000087471623000026/idxx-20230331.htm
- How to Increase Productivity and Provide More Pet Care | Today's Veterinary Business, accessed December 28, 2025, https://todaysveterinarybusiness.com/veterinary-productivity-idexx-0623/
- The Value of RenalTech. - Antech Diagnostics, accessed December 28, 2025, https://www.antechdiagnostics.com/wp-content/uploads/2025/03/AD-200-03-01_RenalTech-Scorecard_Abstract_03-31-21_Digital-1.pdf
- Amid shifting uncertainties, veterinary practices can manage risk, accessed December 28, 2025, https://www.avma.org/news/amid-shifting-uncertainties-veterinary-practices-can-manage-risk
- AVMA News in: Journal of the American Veterinary Medical Association Volume 263 Issue 12 (2025), accessed December 28, 2025, https://avmajournals.avma.org/view/journals/javma/263/12/javma.263.12.1491.xml
- Mercato italiano dell'assistenza sanitaria veterinaria: dimensioni, quota e analisi del settore, accessed December 28, 2025, https://www.mordorintelligence.it/industry-reports/italy-animal-healthcare-market-industry
- In evidenza - Ius et Salus, accessed December 28, 2025, https://iusetsalus.it/notizie/in-evidenza
- Comunicazioni 2025 | - Ordine dei medici chirurghi e degli odontoiatri della provincia di Pistoia, accessed December 28, 2025, https://www.omceopistoia.it/fnomceo-comunicazioni/comunicazioni-2025/
- L'intelligenza artificiale in medicina veterinaria: strumento di supporto o rivoluzione professionale? Tra innovazione, etica e normativa | fnovi, accessed December 28, 2025, https://www.fnovi.it/node/51480
- Ricetta elettronica veterinaria, il Ministero conferma: non serve firma né timbro., accessed December 28, 2025, https://www.ordineveterinarilatina.it/2024/08/30/ricetta-elettronica-veterinaria-il-ministero-conferma-non-serve-firma-ne-timbro/
- NÉ FIRMA NÉ TIMBRO SULLA RICETTA ELETTRONICA VETERINARIA | fnovi, accessed December 28, 2025, https://www.fnovi.it/node/50918
- Il Ministero conferma: con la REV né firma né di timbro, accessed December 28, 2025, https://www.anmvioggi.it/rubriche/farmaco/76383-il-ministero-conferma-sulla-rev-ne-firma-ne-di-timbro.html
- Trend medicina veterinaria 2025: italiani sempre più attenti e informati - Top Quality Vet, accessed December 28, 2025, https://www.topqualityvet.com/it/trend-medicina-veterinaria-2025-tqv/
- AI for Veterinary Diagnostic Support - LAIKA - AITEM Solutions, accessed December 28, 2025, https://laika.aitemsolutions.com/what-does-it-do
- AI conversazionale, presentato al London Vet Show il futuro della consulenza veterinaria, accessed December 28, 2025, https://www.vet33.it/attivita-professionale/2271/ai-conversazionale-presentato-al-london-vet-show-il-futuro-della-consulenza-veterinaria.html
- Rethinking clinical decision-making with LAIKA, your AI vet assistant - Vet Times, accessed December 28, 2025, https://www.vettimes.com/news/business/digital/rethinking-clinical-decision-making-with-laika-your-ai-vet-assistant
- L'AI al fianco dei veterinari. Intervista a Aitem - Polo Tecnologico Navacchio, accessed December 28, 2025, https://polotecnologico.it/storia/lai-al-fianco-dei-veterinari-intervista-aitem/
- 7 Signs Your Clinic Needs an AI Scribe - VetRec, accessed December 28, 2025, https://www.vetrec.io/post/7-signs-your-clinic-needs-an-ai-scribe
- Board chair updates AVMA progress on advancing veterinary technicians, AI, accessed December 28, 2025, https://www.avma.org/news/board-chair-updates-avma-progress-advancing-veterinary-technicians-ai
- Veterinary Industry Insights for 2026: Expert Predictions for Clinics - Otto, accessed December 28, 2025, https://otto.vet/veterinary-industry-insights-2026/
La cecità dell’etica per l’I.A. di guerra - Recensione di "Codice di guerra" di Mariarosaria Taddeo
L’inferno della guerra
L’inferno è la metafora corretta per descrivere la guerra? Michael Walzer si oppone alla validità di questa analogia nel libro del 1977[1] che ha riformulato la «teoria della guerra giusta» in termini graditi alla filosofia anglofona; o almeno, respinge la convinzione che l’ostilità debba sfociare in una condizione di violenza senza limiti. L’inferno può almeno essere regolato, dal momento che rappresenta un’interazione con esseri umani e non con demoni; la letteratura testimonia la percezione da parte degli scrittori, in tutte le epoche storiche e in tutti i contesti culturali, di norme morali con cui si condannano o si giustificano le modalità di ingresso nello scontro, i metodi di conduzione delle battaglie, il comportamento nei confronti dei soggetti non combattenti. Questa uniformità di giudizio sembra erompere da una sensibilità comune, che le vicende belliche innescano in individui vissuti a distanza di secoli e addestrati all’uso di armi molto differenti tra loro, dalla flotta ateniese alla cavalleria medievale fino agli eserciti di Napoleone.
La strategia di Mariarosaria Taddeo nel recente libro sull’etica dell’intelligenza artificiale nella difesa, Codice di guerra[2], consiste nel trincerarsi nella Teoria della Guerra Giusta (che lei scrive così, tutto in maiuscolo) come nella roccaforte della riflessione sul conflitto moderno: il lavoro è un adattamento dell’armatura concettuale di Walzer (e di quella di Luciano Floridi) ai nuovi scenari dominati dai software di I.A..
I campi di battaglia moderni possono essere classificati in tre categorie: il primo è quello dell’intelligence a sostegno della guerra vera e propria; il secondo è quello del conflitto non cinetico, il terzo è quello del conflitto cinetico. Se si traduce il dizionario tecnico in linguaggio quotidiano, si scopre che la guerra di cui parla Walzer rimane confinata nell’ultima classe di scontro, mentre il confine tra le prime due è tracciato dall’analisi di Taddeo in modo molto più marcato di quanto sia possibile constatare nella realtà. Il conflitto cinetico infatti rinvia al quadro tradizionale delle battaglie in cui si confrontano eserciti di paesi contrapposti, e che di volta in volta rischia di coinvolgere anche vittime non immatricolate negli eserciti regolari. Il supporto all’intelligence e il conflitto non cinetico invece arruolano la varietà di fenomeni che spesso sono etichettati come infowar e cyberwar, i cui effetti possono essere descritti sulle mappe concettuali di Taddeo, ma le cui caratteristiche sfuggono alle maglie della sua rete teoretica. Tuttavia i demoni della nuova realtà si annidano soprattutto in questo segmento delle ostilità, che pone l’interrogativo più radicale su cosa sia la guerra oggi, se e quando abbia inizio e fine, come si decida la vittoria e la sconfitta, chi la combatta.
La questione sulla quale si arrovella il testo è l’impredicibilità del comportamento dei dispositivi azionati con l’intelligenza artificiale. Il software che li governa infatti non solo è autonomo (o può diventarlo) dal controllo dell’agente umano, ma evolve sulla base del training cui è sottoposto, e dall’esperienza che matura sul campo. Di conseguenza potrebbe assumere decisioni, o intraprendere tattiche di esecuzione, non allineate con i valori etici che la tradizione militare – oltre alla sensibilità – hanno consolidato nella pratica bellica. Quando il ricorso a queste armi non le impegna in prima linea contro il nemico, in una forma di interazione che comporti l’uccisione degli avversari, le implicazioni morali del loro uso possono essere trattate nel dibattito delle opinioni accademiche; quando si oltrepassa questo limite invece l’impredicibilità rischia di convocare il demone dell’insensibilità meccanica, che viola la discernibilità tra combattenti e non, e che minaccia anche la dignità dello justus hostis. Per concludere le ostilità nel modo più rapido possibile, un dispositivo di intelligenza artificiale potrebbe decidere di annientare un’intera città del nemico con una sola bomba, per forzarlo alla resa in modo immediato e con il minimo dispendio di forze: ma una soluzione del genere violerebbe le norme morali fondamentali dell’umanità, con una scelta che nessun uomo perseguirebbe mai… (ah no, è vero, lo hanno fatto gli americani in Giappone nel 1945).
Metafisica dell’informazione
In un percorso di analisi che non si impegna a definire cosa sia la guerra, e che si astiene dal domandarsi come mai dalla Seconda Guerra Mondiale il tradimento delle norme morali sia pratica comune, la discussione sull’etica finisce per investire un’ontologia dei conflitti che sfocia nella metafisica – anche se non quella di Sant’Agostino o di San Tommaso, bersaglio dei sospetti di oscurantismo da parte dei filosofi analitici, ma in quella beneducata che riguarda l’infomazione, coltivata dai gentlemen di Oxford. Dal momento che Essere e infosfera coincidono[3], «la distruzione di informazione è male», quindi è legittimo il biasimo morale contro gli hacker che estraggono informazioni riservate dai database delle imprese high tech e dagli schedari segreti della Nasa, o che sottraggono capitali milionari dalle banche centrali, o che scatenano disservizi nella rete di distribuzione dell’energia sulla costa californiana, o nei sistemi amministrativi delle società petrolifere[4].
La migrazione del conflitto sul piano metafisico lo trasforma in un esercizio molto elegante per accademici, ma trascura alcuni particolari teoretici, come il fatto che le manovre di furto di informazioni tipiche dell’infowar non producono una diminuzione, ma un incremento di informazione nell’universo – solo con la caratteristica spiacevole che beneficiano dell’ampliamento anche soggetti che non dovrebbero accedere ai documenti trafugati. Spesso inoltre il contenuto dei dati non è più disponibile per i proprietari legittimi, anche se i file si trovano ancora dove erano collocati prima (ma in un formato criptato che li rende illeggibili a chi non conosce la chiave). È accaduto in questo modo che in Cina siano comparsi i progetti delle società americane per lo sviluppo dei dispositivi più avanzati di tecnologia digitale, che si siano materializzati in Corea del Nord i capitali degli istituti di credito internazionali, con cui il regime si è finanziato aggirando l’embargo commerciale – ed è così che la Garmin ha dovuto versare un riscatto milionario per riprendere il controllo dei dati biometrici dei suoi clienti.
Anche la cyberwar esige un’espansione della quantità di informazione nell’Essere, che potrebbe compensare quella distrutta al termine dell’attacco. In generale quindi le campagne di sostegno all’intelligence e di conflitto non cinetico potrebbero garantirsi la patente di benefattrici metafisiche nell’universo di Floridi; al contrario, il fatto che gli uomini divorino piante e animali per sostenere il loro metabolismo dovrebbe essere esecrata come una pratica di entropia metafisica, dal momento che l’informazione presente negli esseri viventi triturati dal processo di digestione viene distrutta e semplificata in risorsa energetica o in scoria da espellere – e tutti gli esseri umani dovrebbero essere condannati dal tribunale etico della guerra della selezione naturale.
Cos’è la guerra?
Il fallimento in cui cade l’esercizio teoretico di Taddeo deriva dal fatto che la comprensione di cosa sia la guerra oggi non può essere conquistata da una domanda confinata nell’ambito dell’etica, ma deve essere tentata da un’interrogazione di ordine politico. Già Walzer nega l’esistenza di una dimensione sovraordinata a quella dei singoli soggetti, riducendo le società nazionali, e il principio di sovranità che le governa, ad una sorta di proiezione, o abbreviazione linguistica, della somma di istanze morali individuali da cui sono composte; Taddeo ripete in modo acritico questo errore ontologico, avventurandosi nel labirinto dell’informazione piuttosto che contaminarsi con il clima da filosofia continentale del discorso politico.
Dopo il 1942 gli Stati Uniti non hanno formulato nemmeno una dichiarazione di guerra, sebbene siano stati coinvolti in almeno cinque grandi conflitti (Corea, Vietnam, Golfo Persico, Afghanistan, Iraq) e in circa duecento interventi minori o «indiretti». L’«Autorizzazione all’Uso della Forza» ha convertito l’aggressione militare (proibita in modo formale dalle Nazioni Unite) in operazioni speciali, missioni di pace e polizia internazionale. In altre parole, il divieto di dichiarare guerra ha tramutato il nemico da essere umano, armato anzitutto del suo diritto di cittadinanza, in demone – terrorista, folle minaccia per l’umanità, malato mentale, criminale, pirata. Questa degradazione di ordine politico dell’avversario ad uno statuto subumano lo priva di ogni diritto, e autorizza sul fronte etico il suo sterminio con ogni mezzo, come avviene nell’inferno degli interventi umanitari e delle azioni di polizia internazionale, dai villaggi del Vietnam a Gaza. Abbiamo già parlato di questo tema in un precedente articolo, per cui non mi dilungo oltre.
Vale la pena però insistere sul fatto che la deflagrazione delle difficoltà concettuali connesse al conflitto non cinetico e al supporto all’intelligence dipendono dalle caratteristiche della guerra che descrivono questi ambiti di ostilità: qui il conflitto non è sinonimo di battaglia tra eserciti di due nazioni contrapposte, ma somiglia più alle indagini di polizia contro un avversario che colpisce nascondendosi nell’anonimato, nel travestimento, nella sfida di abilità – e che per lo più non coincide con uno Stato. Le agenzie di hacker che progettano gli attacchi possono essere sponsorizzate da governi nazionali, ma la prova di questa connessione è sempre parziale e di ordine ipotetico. Gli obiettivi degli assalti per lo più non sono rappresentati dai presidi militari dello stato assalito: la linea del fronte passa attraverso le scrivanie e i computer degli uffici amministrativi di compagnie energetiche, di istituti finanziari, di multinazionali di ogni genere; aggressore e aggredito sono soggetti privati, protagonisti di una forma di potere che non è sovrapponibile a quello tradizionale di diritto pubblico. La distinzione tra soldati e civili viene a cadere, insieme all’immunità che dovrebbe proteggere chiunque non sia un effettivo dell’esercito. Anche le categorie di attacco, vittoria, difesa, comando, strategia, deterrenza, (e naturalmente anche quella di politica) andrebbero del tutto riformulate in uno scenario in cui gli interessi delle parti in azione variano su uno spettro di possibilità molto vario e nebuloso, dalla criminalità comune allo sharp power[5].
Il costo globale dei cyberattacchi nel corso del 2025 è stato stimato intorno alle 10,5 migliaia di miliardi di dollari[6], circa quattro volte il Pil dell’Italia, ed è in crescita da anni. Questo dato può suggerire l’idea che sia in corso una guerra generale a bassa intensità, di carattere asimmetrico e ibrido, con capacità di incidere sulla vita quotidiana di persone e collettività di tutto il globo, e con una forza di aggressione in continuo aumento. Invece di rinchiudersi nella torre d’avorio dell’accademia, di riflettere sulla metafisica dell’informazione per sfuggire all’inferno dei fenomeni di difficile individuazione, non varrebbe la pena di occuparsene?
NOTE:
[1] Micheael Walzer, Guerre giuste e ingiuste. Un discorso morale con esemplificazioni storiche, tr. it. a cura di Fabio Armao, Laterza, Bari 2009.
[2] Mariarosaria Taddeo, Codice di guerra. Etica dell’intelligenza artificiale nella difesa, tr. it. a cura di Virginio Sala, Raffaello Cortina Editore, Milano 2025.
[3] Luciano Floridi, The Ethics of Information. Oxford University Press, Oxford 2013, pag. 56.
[4] Per un elenco degli attacchi cyber più famosi, cfr. Jon DiMaggio, L’arte della guerra informatica. Guida investigativa a ransomware, spionaggio e cybercrime organizzato, Apogeo, Milano 2023.
[5] Christofer Walker, Jessica Ludwig, The Meaning of Sharp Power. How Authoritarian States Project Influence, «Foreign Affairs», 16 novembre 2017.
[6] Chuck Brooks, What Every Company Needs To Know About Cybersecurity In 2026, «Forbes», 31 dicembre 2025.
La dottrina di Palantir - "La repubblica tecnologica" di Karp e Zamiska
1 - PALANTIR
Alex Karp (CEO di Palantir Technologies, azienda statunitense specializzata nell'analisi dei big data che lavora per le agenzie federali statunitensi e di altri paesi, e per aziende private, finanziarie e di assistenza sanitaria) ha costruito il libro[1] sull’ideologia di Palantir nello stesso modo in cui monta le sue macchine: la veste corrisponde al canone in voga, ma il contenuto è un ordigno pericoloso, che deflagra quando viene raggiunto il target. Come insegnano i giornalisti scientifici, ogni capitolo si apre con la presentazione di un personaggio esemplare, si sviluppa con una generalizzazione, si conclude con una morale: cerca un pubblico universale, con un linguaggio e una linearità argomentativa che non si preoccupano delle trappole del semplicismo. Meglio dieci banalizzazioni in più che un lettore perso: Karp sa bene che sono tempi duri per la saggistica.
L’autore è il cofondatore con Peter Thiel di Palantir, l’unica società della Silicon Valley che si è sempre dichiarata a favore della collaborazione con lo Stato, con i servizi di intelligence, con le agenzie della Difesa e gli eserciti degli Stati Uniti e dei loro alleati. In italiano il volume è stato pubblicato da Silvio Berlusconi Editore, confermando lo spiazzamento degli editori (progressisti? tradizionali?) rispetto ai temi più urgenti dell’attualità. Karp non teme le imboscate della superficialità perché il problema che dibatte è così impellente da disegnarsi in contorni netti anche attraverso una forma divulgativa.
Il primo ingranaggio dell’esposizione riguarda il rapporto tra le tecnologie informatiche e gli interessi nazionali americani. Karp rimprovera ai colleghi startupper e innovatori dell’area di San Francisco di vergognarsi delle origini dell’industria digitale, contaminate dagli interessi e dai finanziamenti militari. Turing, Von Neumann, Vannevar Bush, i padri nobili del settore, erano consapevoli del valore strategico che le nuove tecnologie conferivano alle nazioni che le stavano sviluppando. Non è così per i loro eredi moderni. La classe di hacker creativi, che ha innescato dalla fine del millennio scorso l’esplosione di invenzioni, imprese, progetti, da cui è caratterizzata l’economia della Rete, è cresciuta in un’era e in un’area geografica mai minacciata dalla guerra, e dalle preoccupazioni che le sono collegate. Ha considerato l’inviolabilità del territorio americano (ed europeo) come una conseguenza del primato intellettuale, più che militare; di conseguenza, ha stimato imbarazzante ogni contatto con la pesantezza burocratica dello Stato e con i malcostumi dei politici, preferendo ritirarsi nell’ambito del mercato rivolto al pubblico di massa. La Silicon Valley è indietreggiata da ogni impegno nell’ambito della sicurezza nazionale, e ha rinunciato ad avventurarsi nell’ambito della complessità morale delle armi e della guerra, dedicandosi in modo completo alle tecnologie di consumo, alle app sociali, al mercato dell’intrattenimento, dei giochi, dello spettacolo.
Karp considera la fiducia nella solidità della pace un tromp l’oeil prodotto dalla deterrenza dell’arsenale bellico americano; ma oggi, come già osservava Kissinger in una delle sue ultime pubblicazioni[2], l’intelligenza artificiale disattiva i meccanismi di equilibrio degli ultimi decenni, perché diventa impossibile stimare il potenziale distruttivo gestito dagli avversari. I conflitti del futuro non saranno consumati nelle trincee, con masse di uomini inviati alla carneficina – ma non saranno nemmeno decisi dai depositi di bombe e di veicoli militari a disposizione delle nazioni. L’asset differenziale sarà rappresentato dalle informazioni utili per identificare gli obiettivi corretti (individui, server farm, bunker, passaggi e locali segreti, archivi), per coordinare stormi di droni e di robot, per compiere manovre di sabotaggio preventivo, per manipolare l’opinione pubblica degli avversari, per accedere agli strumenti di controllo delle infrastrutture strategiche nemiche (centrali e dorsali elettriche, sistemi bancari, infrastrutture di gestione multiutility), insomma per neutralizzare gli antagonisti prima di sparare un colpo sul campo di battaglia – e soprattutto, senza alcuna dichiarazione di guerra, in forma segreta o dissimulata, e senza rivendicazione degli attacchi compiuti. Il nemico non è mascherato, è del tutto senza volto. La moltiplicazione degli scenari possibili di scontro è resa possibile dalla dipendenza dalla Rete e dai dispositivi elettronici delle società avanzate; l’imprevedibilità degli effetti dell’intelligenza artificiale deriva dall’efficienza di queste tecnologie nell’accedere ai servizi informatici avversari, e nel controllare apparati complessi. Palantir si esercita su questo genere di attività, e Karp sostiene che gli avversari dell’Occidente siano già da tempo all’opera per ottenere risultati più efficienti di quelli raggiunti dagli USA e dai loro alleati. La diserzione della Silicon Valley ha permesso alle dittature orientali – soprattutto la Cina – di ridurre il ritardo nell’evoluzione tecnologica che le distanziava dall’America, fino ad azzerarlo: il vallo che ha assicurato la pace delle democrazie liberali è ormai quasi del tutto scavalcato, e non permette più di trascurare il problema.
2 - OCCIDENTE, EPOS E IDENTITÀ
Il concetto di Occidente è problematico, e Karp ne è consapevole: l’area del mondo che si denota con questa etichetta, la storia e i valori che le sono attribuiti, emergono da una costruzione concettuale molto compromessa con il periodo delle colonizzazioni. Come osserva Edward Said[3], è una nozione che sorge tra la fine del Settecento e l’Ottocento attraverso l’opposizione alle civiltà e alle regioni che i britannici e i francesi hanno occupato e sfruttato, fuori dai confini europei; e che ha legittimato queste operazioni di conquista. Karp rivendica l’artificialità di questo costrutto ideologico – e questo è il secondo ingranaggio della sua esposizione – riconducendolo ad un contesto di più ampia portata, in cui confluiscono le sue riflessioni su identità, creatività, evoluzione, senso dell’esistenza. Il taglio con cui procede l’argomentazione è quello della parresia: l’autore accusa di ipocrisia e di inerzia l’élite che domina l’industria culturale contemporanea, gestendo le piattaforme e producendo le narrazioni ideologiche in cui siamo tutti immersi. E qui si trova il paradosso per cui è Silvio Berlusconi Editore ad aver tradotto in italiano il libro.
Il riconoscimento della dignità dell’altro – civiltà, minoranza etnica, genere – ha finito per paralizzare qualunque discorso assertivo sui valori, sulle preferenze estetiche, sugli obiettivi, su ciò che è meglio e su ciò che è peggio, diluendo e annacquando il senso stesso di qualunque attività culturale, che invece si fonda sull’assiologia delle differenze. La capacità di giudizio consiste nell’assegnare pesi diversi all’eterogeneità delle istanze, stabilendo priorità e asimmetrie di interesse.
Nell’ambito delle imprese, questo atteggiamento ha promosso la mediocrità di chi preferisce una gestione routinaria delle attività quotidiane, e favorisce le decisioni accomodanti (quindi l’assenza di decisioni), evitando l’impegno in sfide interessanti, sottraendosi all’investimento sulle novità rischiose. La ricerca che viene autorizzata da questa impostazione del lavoro è quella che conosce in anticipo i risultati che possono essere raggiunti, e che quindi si limita a incarnare un simulacro dell’indagine, privo di ambizioni originali.
Sul terreno politico, il timore preventivo dell’oltraggio ha finito per equiparare tutte le differenze, annullando il significato delle identità. La battaglia per la tutela del diritto alla permalosità è servita a nascondere l’assenza di idee per il futuro, a sfuggire all’urgenza di elaborare progetti antropologici di ampio respiro; ha condotto all’abdicazione dalla funzione politica, affidandola ai guru della Silicon Valley. Visto che gli interessi degli imprenditori californiani sono focalizzati sulla dimensione privata, su una visione dell’individuo che non è cittadino, ma consumatore della vita (persino di quella eterna, promessa dal «Singolarismo» di Ray Kurzweil[4]), il dibattito sul bene comune, sulla configurazione ideale della società per raggiungerlo, sulla forma della felicità collettiva e sul modo di realizzarla (5), scivola al di sotto del tracciato di tutti i radar mediatici, scompare da tutti gli schermi. La politica nel senso di Aristotele[5], nel significato essenziale della sua missione, è stata abbandonata. Questa è l’occasione persa dagli editori (di sinistra?) nell’aver lasciato a Silvio Berlusconi Editore il compito di tradurre il libro di Karp.
L’ingegneria del software è un percorso di coordinamento del lavoro collettivo, dall’ideazione all’implementazione, per identificare problemi di interesse comune, tentare la soluzione, realizzarla e testarla. Per Karp questo modello è anzitutto l’esemplificazione del valore dell’impegno personale nella produzione di un significato che abbia valore collettivo. Sembra strano che tocchi al CEO di una Big Tech, protagonista dello sviluppo dell’AI, sottolineare la connessione di argomenti come la rilevanza del coinvolgimento dell’individuo, della dedizione di tutta la sua soggettività, con lo sviluppo di un bene comune. Michael Polanyi insegnava[6] che la condizione necessaria per la conservazione e il trasferimento dei significati contenuti nella letteratura di qualunque scienza, per la continuità delle maestranze artigianali, per l’intera riproduzione sociale – è l’impegno personale con cui gli individui sperimentano e assorbono un’intero patrimonio di conoscenze tacite, non tematizzate, non coscienti, che permettono l’interpretazione di tutto quello che può essere compreso e praticato in modo esplicito. È un impegno ontologico, non solo etico, perché dà consistenza reale ai valori della comunità, e coinvolge gli esseri umani nella loro soggettività, nella loro esistenza complessiva.
Karp denuncia la ritirata da questo tipo di impegno: questa è la sfida più importante del suo libro.
Ogni tradizione è artificiale, l’identificazione con i suoi valori è l’effetto di una decisione, così come l’immersione nel suo solco; la scelta pretende anche la responsabilità sincera dell’individuo che l’ha compiuta. L’Occidente è un taglio arbitrario, che separa la Grecia, Roma, Gerusalemme, dai loro vicini egizi, fenici e mesopotamici; distingue l’arte di Michelangelo, Raffaello, Leonardo, dalle maschere africane; oppone Leibniz alla Cina, Schopenhauer ai Veda. Solleva una questione di adesione emotiva, suscita sentimenti che le correnti politiche moderne irridono o sfruttano come oggetti di pura propaganda – perché la cultura contemporanea non ammette più l’epos. La narrazione di gesta eroiche è una patologia della soggettività, che riguarda il passato o le civiltà etniche, o che può essere utilizzata per operare interventi di ingegneria sociale sulle masse stupide, o frustrate (o entrambe le cose), che anelano l’oppio cognitivo dispensato dai movimenti alt-right. Ma gli uomini hanno bisogno di un senso per la loro esistenza, si devono impegnare per un significato che vada oltre la constatazione obiettiva dei fatti, la replica infinita dell’attualità, senza prospettive, senza giustizia, senza riscatto. Palantir è un nome che viene dal Signore degli anelli, e nella sua ambiguità indica uno strumento per osservare fatti lontani, per comunicare a grande distanza. Nel suo carattere controverso, equivoco, impregnato di soluzionismo tecnologico, la voce di Karp si solleva per domandare un nuovo impegno nei confronti della comunità, una serietà settecentesca per progettare, desiderare, immaginare, al di là del nichilismo, oltre il cinismo contemporaneo – l’uomo nuovo che verrà.
NOTE:
[1] Alexander Karp, Nicholas Zamiska, La repubblica tecnologica. Come l’alleanza con la Silicon Valley plasmerà il futuro dell’Occidente, tr. it. di Chiara Rizzo e Pietro Del Vecchio, Silvio Berlusconi Editore, Milano 2025.
[2] Henry Kissinger, Eric Schmidt, Daniel Huttenlocher, L'era dell'intelligenza artificiale. Il futuro dell'identità umana, tr. it. Di Aldo Piccato, Mondadori, Milano 2023.
[3] Edward Said, Orientalismo, tr. it. di Stefano Galli, Feltrinelli, Milano 2001.
[4] Ray Kurzweil, La singolarità è vicina, tr. it. di Virginio Sala, Apogeo Edizioni, Milano 2008.
[5] Aristotele, Politica e Costituzione di Atene, tr. it. a cura di Carlo Augusto Viano, UTET, Torino 2013, in particolare Politica, Libro VII.
[6] Michael Polanyi, La conoscenza personale. Verso una filosofia post-critica, tr. it. a cura di Enrico Riverso, Rusconi, Milano 1990.
A confronto con il pensiero di Platone: la memoria e la sua corruzione nell’era digitale.
A giugno di quest’anno Controversie ha organizzato un seminario in forma di tavola rotonda sul tema dell’ontologia dell'intelligenza Artificiale. Durante il dibattito è emersa la possibilità che i grandi modelli linguistici (LLM) si possano affermare – tra le diverse applicazioni che già si intravedono – come una sorta di bibliotecario con pretese di universalità. Questa ipotesi è ben delineata da A. Colamedici e S. Arcagni, nel loro libro L'algoritmo di Babele. Storie e miti dell'intelligenza artificiale (Solferino Libri, 2024) e suggerita tra le righe da Luca Sofri "Intelligenze artificiali" tra virgolette, nel suo blog Wittgenstein.
La biblioteca universale, la biblioteca fantastica che contiene tutto ciò che è stato scritto e che potrà essere scritto, è un tema che – in maniera ricorrente – prende forma nelle riflessioni di filosofi e letterati, da Leibniz allo scrittore Kurd Laßwitz, detto anche Velatus, fino ad ossessionare Jorge Borges (La Biblioteca di Babele) e a ispirare l’imprenditore Brunello Cucinelli, che nel 2022 annuncia la realizzazione di una “sua” biblioteca universale, a Solomeo, dedicata ai lavoratori delle sue aziende.
Il tema della biblioteca è strettamente connesso con quello della memoria; ritrovare un passo di un libro, di un autore richiede di averne memoria e di riuscire a situare questo scampolo di memoria nello spazio della propria biblioteca mentale e, solo successivamente, a ritrovare la collocazione di quell’autore o di quel libro all’interno della propria libreria o di una biblioteca istituzionale o pubblica.
Ecco, una potenziale funzione dei LLM è proprio di fare da contenitore molto ben indicizzato di grandi quantità di conoscenza, e di trovarle e metterle a disposizione degli utenti in modo ragionato e selettivo, su richiesta espressa in linguaggio naturale. E, proprio per la loro capacità di gestire volumi enormi di informazioni in tempi ragionevoli, può tendere a quel grado di infinito sotteso dall’espressione “universale”.
A contrasto con questa idea e prospettiva, vi proponiamo una riflessione di Fabio Talloru sulla memoria e su Platone, che per la memoria e la sua rilevanza nel pensiero umano aveva un debole.
-----
Se ancora oggi Platone viene inquadrato come filosofo sradicato dalla concretezza del mondo e proiettato nell’Iperuranio, ciò è dovuto perlopiù alla ormai superata (ma ancora presente) visione diffusa dalla formazione scolastica ordinaria. Invece, la filosofia di Platone è profondamente radicata nel mondo fisico e materiale.
Ѐ noto a tutti che per Platone vi sia una memoria di genere immortale, la quale provvede alla reminiscenza (anamnesis) degli oggetti intelligibili. Meno noto e poco esplicito nei dialoghi è invece l’altro genere, quello “mortale” (non è questo il termine platonico), inteso come proprio della condizione incarnata dell’Anima immortale in un vivente (zoòn).
La Memoria (mneme) è una delle facoltà dell’anima, quella di imprimere, tracciare o racchiudere nella forma di ricordo (hypomnema) le informazioni che otteniamo da oggetti incontrati attraverso l’esperienza empirica. Essa è l’insieme di ciò che si è sedimentato nell’anima a partire dalle sensazioni memorabili, prodotte dall’esperienza che facciamo di oggetti che esistono fisicamente nel mondo empirico (il processo completo è esposto nel discorso fisiologico contenuto nel Timeo1).
Il tema che ci interessa indagare in questo articolo è quello della “volatilità” del sapere in Platone, per produrre nuovi spunti di riflessione che siano utili nel dibattito odierno.
Ri-memorazione e memoria mortale.
La reminiscenza (anamnesis) è un’operazione prodotta dalla sola Anima immortale. Più propriamente essa è una forma del ri-memorare oggetti visti nella condizione disincarnata. L’operazione dell’apprendimento (mathesis) di nozioni avviene, invece, durante la vita e il contenuto di una memoria “mortale” (il ricordo) può dissolversi irrimediabilmente. La memoria nella sua totalità cessa definitivamente la propria esistenza con la morte del vivente che lo possiede, perciò con lo scioglimento dei vincoli tra l’anima e il corpo.
In primo luogo possiamo affermare l’esistenza di una memoria “mortale” nel pensiero di Platone per almeno due ragioni:
- non ci è pervenuta nessuna traccia diretta, testimonianza indiretta o qualsiasi forma di accenno a proposito della possibilità di reminiscenza di ricordi appartenenti a vite passate - come invece è presente nelle dossografie pitagoriche2, che Egli conosceva e custodiva gelosamente nella propria biblioteca;
- nei dialoghi che affrontano problemi legati sia alla reminiscenza che alla metempsicosi, troviamo l’idea che a ogni nuova incarnazione debba esservi un “reset” della memoria in relazione alla vita empirica (si veda nello specifico il “Mito di Er”3)
Durevolezza delle forme della conoscenza.
Parrebbe anche che, sul piano mortale, le conoscenze pratiche e dell’esperienza empirica siano più durevoli rispetto a quelle epistemologicamente superiori (“scientifiche”) del filosofo o del matematico - i quali hanno come proprio oggetto ultimo gli intelligibili.
Questo lo si può dedurre in particolare da un passo del prologo drammaturgico del Timeo. Qui Crizia il Giovane riporta un racconto che apprese da bambino, nel quale Solone incontrò in Egitto un sacerdote che così affermava:
«“Siete tutti giovani d’animo (voi greci) [...] perché non avete nelle vostre anime nessuna opinione antica trasmessa attraverso una tradizione che proviene dal passato né alcun sapere ingrigito dal passare del tempo».
Prosegue poi con la motivazione di questa brevità della memoria collettiva che imputa ai greci:
«ogni cosa viene registrata, fin dall’antichità, nei nostri templi e conservata alla memoria», mentre in Grecia «a intervalli regolari di tempo, come una malattia, torna il flusso del cielo che vi inonda e non lascia illesi fra voi che gli illetterati e i nemici delle Muse (gli incolti), sicché ricominciate nuovamente dal principio, come tornati giovani». Per di più, aggiunge il sacerdote: «nel corso di molte generazioni, i sopravvissuti sono morti senza aver fissato la loro voce nella scrittura». (Tim. 22 d – e)
In questo passo possiamo individuare almeno sei punti di riflessione ancora validi nel contesto d’oggi:
- la scrittura esprime qui il suo ruolo di strumento tecnico corruttibile ma preservabile dalla distruzione, perciò tramandabile;
- la scrittura è uno strumento tecnico ausiliario, che richiede una stabilità materiale continuativa della società per essere mantenuto e motivato nell’uso ordinario;
- il vivente mortale, se non ha né la possibilità né la premura di tramandare il prodotto della propria conoscenza, non conserverà un sapere collaudato da mettere a disposizione dei posteri;
- la condizione del dopo-catastrofe è analoga a un “momento zero” della memoria mortale, un “cominciare nuovamente da principio” simile a quello di un'anima incarnata;
- i saperi pratici “degli illetterati e degli incolti” sopravvivono più facilmente rispetto a quelli di filosofi e scienziati; sono inoltre propedeutici a porre le basi di quella stabilità materiale e tecnica che rende possibile l’accumulo del sapere;
- l’accumulo di un sapere avanzato e complesso, come quello “scientifico” (episteme), non è necessario alla vita, ma è un “in più”.
Platone nei suoi dialoghi ci indica anche che, quando si sia memorizzata un’informazione, la sua durevolezza dipenderà non solo dalle condizioni in cui il suo proprietario la custodisce e preserva, ma anche da come egli l’ha ottenuta. Ad esempio, Crizia il Giovane racconta una storia di cui ha acquisito un ricordo “vivido”, in quanto giovane, attento e partecipativo nel momento del suo apprendimento4. Un caso diverso è invece quello di Fedro che, nel dialogo omonimo, deve confrontarsi con un’opera scritta che necessita di rileggere più volte per ricordarla “alla lettera” al fine di poter tenere il proprio discorso5 basato su di essa.
Nel primo caso, quello di Crizia, la qualità del ricordo è dovuta alle caratteristiche che contraddistinguono il momento in cui egli ha appreso un’informazione, ossia la pregnanza dell’esperienza di apprendimento dei fanciulli. Nel secondo caso, quello di Fedro, la qualità della formazione del ricordo sarà dovuta all’ausilio di strategie mnemotecniche, quali la rilettura e la ripetizione a voce alta.
Conclusioni e domande aperte.
Per concludere, il problema della conservazione, del tramandare e della possibile perdita della memoria (nel senso più ampio che comprende storie, tradizioni, tecniche e conoscenze) è un fenomeno oggi ancora più complesso. In particolare se guardiamo al fenomeno di progressiva sostituzione dei mezzi “tradizionali” di trasmissione dell’oralità e della scrittura manuale in favore della digitalizzazione dell’informazione.
Quante tipologie e forme di “memoria” abbiamo a oggi sviluppato e quali si stanno depotenziando o stanno scomparendo?
Quante forme della scrittura possediamo e quali competenze sono necessarie per farne uso?
Quanti livelli di linguaggio e quante forme di linguaggio esistono per la sola codificazione informatica dell’informazione?
Quali i pericoli a cui si espone la loro conservazione?
Ai cataclismi menzionati dal sacerdote egizio incontrato da Solone, evidentemente ancora presenti e comunque imprevedibili quali si aggiungono oggigiorno?
Ovviamente, sono queste tutte domande complesse che richiedono risposte altrettanto articolate. Ad esempio, per i supporti di archiviazione digitale, da cui oramai dipendiamo largamente, sono deleteri i fenomeni elettrici, magnetici ed elettromagnetici, i quali sono tutti in grado di cancellare, corrompere o rendere inaccessibili, se non addirittura irrecuperabili, le informazioni registrate.
L'informazione digitale e la sua memorizzazione quanto sono volatili? Quanto durevoli? Quanto sono "delicate"?
La stessa obsolescenza delle tecnologie e delle tecniche di conservazione e riproduzione dell’informazione, giorno per giorno avvia verso la fine la riproducibilità delle precedenti forme di “memoria”, sia collettiva che individuale (foto, video, documenti, scansioni di immagini, etc.). Gli attuali dispositivi che possediamo saranno sempre meno reperibili con l’avanzare di nuove tecnologie e dei relativi sistemi che ne permettono il funzionamento?
I dispositivi attualmente in uso, per quanto collaudati, non saranno un giorno più compatibili con quelli più avanzati, per protocolli di scrittura e lettura?
Saranno reperibili le tecnologie di giunzione che permettono di interfacciare fisicamente vecchi e nuovi dispositivi di archiviazione di memoria?
Le tecnologie di traduzione e conversione reciproca tra vecchi e nuovi protocolli di archiviazione dell’informazione saranno ancora implementate sui nuovi dispositivi o saranno ancora reperibili e adoperabili?
Quali altre problematiche sono riscontrabili o sono di imminente larga diffusione?
La memoria è un affare complesso, sia individuale che collettivo.
NOTE:
1 Tim. 42 d - segg. e 69 c - segg.
2 Centrone, B. 1996, Introduzione a i pitagorici, Editori Laterza, Roma-Bari, pp. 52-61
3 Resp. 614 b - 621 d
4 Tim. 26 b
5 Phaedr. 228 a
Intelligenza Artificiale - Simulacri di Arte senza arte
La maggior parte degli articoli scritti sull’argomento “Intelligenza Artificiale e Arte”, compresi quelli di questa rivista, suonano ottimisti. Il loro pathos si riduce all’idea che l’intelligenza artificiale sostituisca il creatore umano solo nei livelli inferiori e tecnici del processo creativo, ma che l’uomo mantenga la funzione di operatore: è lui a impostare gli algoritmi secondo i quali l’IA opera, e quindi conserva lo status di soggetto del processo creativo.
Tuttavia, questa conclusione è ingannevole: i praticanti e i teorici dell’arte che vi aderiscono sono, consapevolmente o meno, vittime di un’autoillusione, e vi sono alcuni argomenti che lo confermano.
Già nel 1992, Neil Postman scriveva che le tecnologie non sono neutrali, esse cambiano chi le utilizza, e nella fase attuale, che Postman definisce “tecnocrazia”, le tecnologie si sono trasformate in un sistema che ha sottomesso tutte le altre aree della cultura. Yanis Varoufakis richiama l’attenzione su questo schema in relazione all’uso dell’IA nell’economia: l’IA “cloud” non produce nulla, controlla solo il comportamento umano, spingendo le persone ad acquistare ciò che l’algoritmo suggerisce. Nelle impostazioni di base dell’IA, indipendentemente dall’ambito in cui viene usata, l’obiettivo principale incorporato è vendere (beni, idee, storie, pensieri), manipolando la coscienza adulando gli utenti. Usando l’IA anche nelle operazioni più semplici, la persona cede gradualmente le proprie posizioni, cominciando ad agire secondo l’algoritmo dato e perdendo progressivamente la propria soggettività. Da gestore si trasforma in controllato, da soggetto diventa oggetto di un processo che non è più regolato da lui. Negli ultimi anni, Hollywood è stata scossa da proteste da parte degli sceneggiatori, il cui lavoro è stato massicciamente sostituito dai prodotti dell’IA. Le ragioni della protesta non sono solo la perdita del lavoro e, di conseguenza, del reddito, ma anche l’eccessiva qualità delle sceneggiature scritte dall’IA. Il regista Todd Haynes afferma che le storie create dalla rete neurale sono troppo levigate, prive di errori, imprevedibilità, incoerenze, cioè prive della vita stessa. E la cosa peggiore, secondo lui, è che gli stessi sceneggiatori hanno iniziato a scrivere storie altrettanto “senza vita”, come se fossero create da un’IA.
L’intelligenza artificiale, in qualsiasi forma e volume di utilizzo, è controindicata per l’arte, perché con la sua illimitata capacità di imitazione si oppone all’essenza stessa dell’arte, sia dal punto di vista del processo creativo che dal punto di vista della percezione. Prima di tutto, la rete neurale rompe l’unità di corpo, anima e mente (l’entelechia di Aristotele), che è la base di qualsiasi arte: i primi due componenti di questa triade non sono rilevanti per l’IA. Pertanto, l’IA non ha e non può avere emozioni: può solo imitarle. L’interazione di mente, sentimento e corpo crea una polisemia intrinseca, che è uno dei criteri più importanti del valore artistico di un’opera d’arte. Più un testo – nel senso ampio del termine – è polisemico, più è aperto a interpretazioni, più è significativo, più è importante per l’umanità. Qualunque cosa crei l’IA, per quanto tecnicamente complessa possa essere, è semplice nel contenuto, o meglio, primitiva, unilineare e non implica alcuna interpretazione. Queste sono solo alcune delle differenze fondamentali tra la vera arte e l’arte creata dall’IA. La questione di come far sì che le persone apprezzino un’arte che non è arte è l’argomento di questo articolo.
La storia della cultura ha stabilito il seguente schema costante: per l’introduzione ampia e universale di nuove tecnologie che cambiano significativamente il mondo, non è necessaria innanzitutto la corrispondente evoluzione tecnica, ma piuttosto la disponibilità della coscienza collettiva ad accettarle. In altre parole, i cambiamenti nella coscienza precedono la diffusione capillare delle tecnologie. I cambiamenti di coscienza che si muovono verso l’IA sono iniziati con la nascita della cultura di massa e di tutti i suoi attributi. Il primo di questi è la semplificazione delle idee e delle forme, che porta a un vuoto concettuale. Generi semplici, come la canzone, la danza o il disegno a matita, non sono necessariamente legati a contenuti primitivi (e viceversa). Ma nella cultura di massa diventano un percorso verso pensieri e sentimenti superficiali, che non richiedono alcun lavoro interiore per essere compresi e vissuti. Il successo facile e rapido in ogni cosa è uno degli slogan principali della cultura di massa, e questo vale anche per l’arte. Al posto del lavoro mentale su significati e interpretazioni – rilassamento nel consumo di soluzioni già pronte; al posto della catarsi che sconvolge l’anima – piacere facile e intrattenimento. I sentimenti e i pensieri evocati dall’arte di massa sono standardizzati e superficiali, come scriveva J. Ortega y Gasset: “l’uomo-massa rivendica il diritto alla mediocrità.” Un altro attributo è la replicabilità, con lo scopo di rendere fisicamente disponibile l’arte a tutti, il che in realtà porta a sfumare la distinzione tra originale e copia. Oggi, l’IA può generare qualsiasi immagine esteriormente indistinguibile dall’originale realizzato dal più brillante degli artisti, e per rendere il prodotto di una rete neurale legittimo quanto l’opera originale, è necessario delegittimare e poi distruggere fisicamente le differenze tra i due: se non possiamo distinguere un dipinto di Leonardo da uno disegnato da una rete neurale, allora perché dovremmo aver bisogno di Leonardo? Distruggere il criterio con cui il reale si distingue dal falso è la strategia principale per abituare le persone all’IA.
Ma se ciò è facile da fare nella cultura pop, l’arte classica sembra rappresentare un serio ostacolo su questa strada, e sono state sviluppate strategie speciali contro di essa. Spiegherò il mio punto con un esempio. Negli ultimi decenni, la musica accademica europea è stata investita dalla moda della cosiddetta “regia d’opera” – allestimenti liberi di opere classiche che impongono trame che non hanno nulla a che vedere con la fonte originale. Ci sono moltissimi esempi: i registi di tutti i teatri d’opera del mondo competono nel mostrare la loro immaginazione. Ne cito uno: la produzione del Parsifal di R. Wagner da parte del regista alla moda C. Serebrennikov all’Opera di Vienna, dove sul palco viene mostrato il GULAG accompagnato dalla musica del grande compositore tedesco. Ricordo che la trama di quest’opera, come di molte altre di Wagner, si basa sull’epica medievale tedesca e che la partitura dell’opera è un complesso lavoro sinfonico con un vasto sistema di leitmotiv e una drammaturgia musicale intricata, attraverso cui si rivelano le idee di Wagner. Mettere in scena un’opera – qualsiasi opera, e in particolare un’opera wagneriana – significa decifrare la partitura musicale, ma il regista Serebrennikov (come la stragrande maggioranza dei registi moderni) non ha una formazione musicale. In questo spettacolo egli adula il pubblico: invece di cercare di comprendere i leitmotiv, di seguire il movimento dei simboli musicali, di approfondire la filosofia di Wagner, il pubblico viene intrattenuto da scene di GULAG – è così di moda, “spiega” direttamente ciò di cui Wagner parlava! È evidente l’introduzione di attributi della cultura di massa nell’arte classica, la vendita del primitivo sotto la veste del complesso.
Così, al posto dell’arte, compaiono simulacri di arte, simili nell’aspetto ma opposti nell’essenza. Vediamo la stessa situazione non solo nell’arte, ma anche in altri ambiti della nostra vita. Viviamo già in un mondo di simulacri totali, senza la possibilità di correlazione con l’autentico, perché la rete neurale può generare qualsiasi “prova” per i falsi diffusi dai media. Perciò non sappiamo chi sia l’aggressore e chi la vittima nella politica internazionale, non sappiamo chi sia il vincitore e chi lo sconfitto nella storia passata, talvolta non sappiamo neppure chi sia un uomo e chi una donna, e infine non sappiamo chi siamo. Per manipolare la coscienza collettiva, imponendole qualsiasi fantasma sotto le sembianze della verità, è necessario distruggere l’idea stessa di verità nella coscienza e sostituirla con un simulacro, e l’unico modo per farlo è cancellare i criteri di distinzione tra il simulacro e l’originale. Non è forse questo ciò di cui scriveva J.W. Goethe nel Faust?
Ma dove tutti sono orgogliosi della depravazione,
Mescolando i concetti,
L’onesto sarà colpevole,
E il colpevole avrà ragione.
Nulla era più sacro.
Ognuno è disperso e si divide.
Le fondamenta vengono scosse,
Quelle che crearono ogni cosa.
Sicuramente molti diranno che, sullo sfondo dei problemi globali moderni, la distinzione tra arte reale e arte finta non è così importante. Non posso essere d’accordo, perché l’arte riflette in forma concentrata tutti i problemi del nostro mondo: l’arte è la principale fonte per mantenere l’identità e l’integrità dell’essere umano. Nel 1986, il grande regista sovietico Georgij Danelija realizzò la profetica distopia Kin-dza-dza. Essa mostra una società incredibilmente avanzata dal punto di vista tecnico, su un pianeta lontano, dove le persone volano liberamente tra le galassie, hanno armi sofisticate, leggono i pensieri altrui e comprendono qualsiasi lingua senza interprete. Ma le loro vite sono terribili, il loro mondo interiore è orribilmente primitivo, il pianeta è diventato un deserto senza acqua e aria, e la regola principale della società è che l’uomo è nemico dell’altro uomo. Tutto perché sul pianeta non esiste arte né alcunché legato all’estetica: le persone hanno perso la capacità di apprezzare e produrre una vera bellezza umana, e ciò ha trasformato le loro vite in un simulacro di vita, e loro stessi in simulacri di persone. Più introduciamo l’IA nell’arte, più ci avviciniamo alla civiltà di Kin-dza-dza.
NOTE BIBLIOGRAFICHE
- Postman, Neil. Technopoly: The Surrender of Culture to Technology. New York: Vintage Books, 1993
- Rottenberg, Josh. Hollywood’s being reshaped by generative AI. What does it mean for screenwriters? // Los Angeles Times, July, 17, 2025.
- Varoufakis Yanis. Technofeudalism: What Killed Capitalism, Bodley Head UK, 2023
La predizione dell’assassino - La metafora del romanzo giallo per definire la conoscenza
MODELLI DI SAPIENZA
Ogni epoca ha riverito un certo modello di sapiente, e ha interpretato il suo stile di vita, il suo metodo di veridizione, persino i suoi gesti, come un’incarnazione della conoscenza. Gli sciamani nella lunga fase che precede la scrittura, il filosofo nel mondo classico, il monaco nel Medioevo, il fisico dell’età moderna, hanno interpretato questo ruolo. Se si dà retta a un’intervista rilasciata da Ilya Sutskever a Jensen Huang, il sapiente dei nostri giorni sembra coincidere con il detective o il commissario di polizia dei romanzi gialli. La verità precipita nell’istante in cui l’investigatore riunisce i sospettati nella scena finale della storia, e svela l’identità dell’assassino. L’illuminazione coincide con il momento esatto in cui viene pronunciato il nome del criminale, perché la conoscenza non esiste fino a un attimo prima, e non sarebbe apparsa senza la performance discorsiva del protagonista.
Per quanto questo inquadramento del sapere contemporaneo possa sembrare curioso, non può essere sottovalutato né stimato come una farsa, dal momento che Ilya Sutskever è uno dei soci fondatori di OpenAI e il padre tecnologico di ChatGPT, mentre Jensen Huang è uno dei soci fondatori e il CEO di Nvidia, la società più capitalizzata del mondo, e la principale produttrice dei processori per i server dei software di intelligenza artificiale. La loro conversazione prende in esame alcuni passaggi storici dell’evoluzione del deep learning, e i successi degli ultimi anni vengono citati come prove di correttezza per gli assunti da cui il lavoro sulle reti neurali è partito – molto in sordina – alcuni decenni fa: il postulato che questa tecnologia riproduca il funzionamento di base del cervello umano, e rispecchi quindi la struttura materiale della mente. Sutskever, come il suo maestro e premio Nobel per la fisica Geoffry Hinton, è convinto che la realizzazione di un’Intelligenza Artificiale Generale (AGI) sia raggiungibile, e forse non sia nemmeno troppo distante. L’analogia tra le reti neurali e il funzionamento del sistema nervoso centrale fornirebbe una prova a favore di questa tesi, e il livello delle prestazioni raggiunto dalle AI generative trasformative, come ChatGPT, conferma questa suggestione. Vale la pena di approfondire allora in che modo si comporterebbe l’intelligenza umana che Sutskever propone come modello per l’AGI, e in che modo il software di OpenAI la starebbe emulando. Dopo mezz’oretta di chiacchiere Huang e il suo interlocutore arrivano al punto, evocando il fantasma dell’investigatore nei romanzi gialli.
PREDIZIONI LESSICALI
Il discorso dell’ispettore deve permetterci di comprendere anche il modo in cui afferra la verità Newton nel suo laboratorio di fisica, Tommaso d’Aquino nello sviluppo di una questio, o chiunque di noi mentre risponde ad una mail di lavoro.
Nelle battute precedenti dell’intervista, Sutskever chiarisce i principi del funzionamento di ChatGPT e delle altre intelligenze artificiali generative trasformative. Gli zettabyte di dati disponibili online confezionano un archivio di testi per il training delle reti neurali, che agevola il loro compito di individuare le correlazione tra i vocaboli: durante una vita intera, ognuno di noi entra in contatto con circa un miliardo di parole, mentre il volume di quelle censite nelle banche dati delle AI è di un ordine di decine di migliaia maggiore. Lo scopo di questo lavoro del software è identificare lo spazio semantico di ogni lemma, classificandolo sulla base delle «compagnie che frequenta»: per esempio, in italiano la parola |finestra| appare con maggiore probabilità accanto a |casa| e a |porta|; con probabilità di due terzi inferiore occorre accanto a |tempo|, che figura comunque con il doppio della probabilità di |programma|, a sua volta due volte più probabile di |applicazione| e di |giorni|. La frequenza dei termini che si succedono a breve distanza nelle stesse frasi insegnano che |finestra| può riferirsi a un elemento architettonico, a un ambiente di interazione informatico, a un periodo cronologico. Un esame ricorsivo su ciascuna parola permette di ricavare un modello di calcolo che assegna ogni termine ad una famiglia di probabilità di apparizione accanto ad altri lemmi: ogni contesto lessicale viene rappresentato da un vettore nello spazio multidimensionale, che analizza le modalità con cui la parola è stata applicata nei testi dell’archivio.
Quando il software dialoga con l’utente umano, la mappatura delle correlazioni che governano le possibili occorrenze delle parole diventa la matrice da cui viene derivata la composizione delle frasi e del testo generato dall’AI. Sutskever rivendica con fierezza il miglioramento della capacità di ChatGPT-4, rispetto alle versioni precedenti, di predire con correttezza quale debba essere il termine da stampare dopo quello appena scritto. Il compito che viene eseguito dal programma, ogni volta che interagisce con il prompt dell’utente, è partire dalle parole che l’essere umano ha imputato nella domanda e calcolare, uno dopo l’altro, quali sono i vocaboli che deve allineare nelle proposizioni che costituiscono la risposta.
L’immagine dell’intelligenza che viene restituita da questa descrizione somiglia in modo preoccupante a quella di un «pappagallo stocastico», un ripetitore meccanico di termini appresi a memoria, senza alcuna idea di cosa stia dicendo. Ma questo ritratto contrasta sia con il vaticinio di un avvento prossimo dell’AGI, sia con il programma di una migliore comprensione del funzionamento della mente umana, che si trova alla base della carriera di Sutskever fin dagli esordi in Europa. Il modello dell’ispettore e dell’agnizione del colpevole al termine della sua ricostruzione dei fatti e delle testimonianze serve ad aggirare questo fastidio. Il discorso conclusivo dell’investigatore deve convergere verso la predizione di una parola, che si trova alla fine della sua dissertazione, e deve coincidere con il nome del vero assassino.
COS'È LA VERITÀ
Nell’argomentazione dell’ispettore la parola conclusiva è un enunciato che racchiude, nel riferimento ad uno specifico individuo, un intero orizzonte di verità, in cui si svela l’autentico significato di relazioni personali, di comportamenti, di dichiarazioni precedenti, di indizi reali e presunti. In questa eccezionalità si racchiude la suggestione del modello evocato da Sutskever, che nella predizione di un solo nome concentra una storia intera, insieme al successo del metodo empirico di inadagine, e a quello della corrispondenza tra linguaggio e realtà. Dal suo punto di vista il tipo di conoscenza, che si dispiega nella sequenza di parole con cui si raggiunge l’enunciazione del nome dell’assassino, equivale alla forma piena del sapere che può essere elaborata e conquistata dagli esseri umani, dagli anonimi sciamani nelle caverne di Lescaux a Platone, a Tommaso d’Aquino, a Newton. ChatGPT predice di volta in volta la parola che deve occorrere dopo quella appena stampata, come l’investigtore arriva a pronunciare il nome dell’assassino – e questo è tutto quello che si può dire dal punto di vista scientifico e tecnologico sull’intelligenza.
Ho già discusso qui il sospetto che la rete neurale, (in cui ogni unità di calcolo entra in competizione con tutte le altre nella sua conoscenza limitata, e in cui solo il sistema nella sua totalità può disporre di un sapere completo sulla realtà) sia la rappresentazione della struttura neoliberista della società in cui vengono progettati questi dispositivi, più che una proiezione della struttura cerebrale: non insisto quindi su questo tema.
Per quanto riguarda la teoria della verità e la teoria del linguaggio sottesa alle convinzioni di Sutskever, è opportuno che chi è stato battezzato con un nome toccato in sorte di frequente ad assassini e delinquenti di vario genere, provveda a modificare la propria identità all’anagrafe, o ad allestire manovre di sabotaggio preventive, perché i detective artificiali mostreranno una certa inclinazione a imputargli ogni genere di crimini. Pregiudizi in fondo non molto differenti hanno contribuito, con giudici e agenti di polizia umani, a riempire le carceri americane di detenuti neri.
Ironie a parte, è curioso constatare la svolta epistemologica in corso negli ambienti tecnologici di chi si occupa di scienze della mente. Dopo decenni di stretta osservanza chomskyana, per cui i principi del linguaggio sarebbero cablati nel cervello e sarebbero quindi uguali per tutti gli esseri umani, la passione per l’AGI sta risvegliando l’interesse per la cosiddetta «ipotesi Sapir-Whorf» (2), con un’interpretazione molto più radicale di quella cui avrebbero assentito i due linguisti eponimi. Per Edward Sapir e Benjamin Lee Whorf la percezione della realtà e il pensiero vengono informati dalle categorie grammaticali e semantiche della lingua parlata dalla comunità; ma la tesi sostenuta da Sutskever (e di fatto condivisa da tutti coloro che riconoscono in ChatGPT l’imminenza dell’AGI) è che la distribuzione statistica delle parole, e la loro linearizzazione in un discorso, esauriscano tutto quello che possiamo sapere sull’intelligenza. La macchina del linguaggio, con la sua struttura sintattica, ma soprattutto con l’archivio dei testi depositati nella tradizione storica, è il dispositivo che produce la nostra percezione della realtà e che genera ogni nuovo enunciato sulla verità, dagli imbonitori nei mercati rionali ai paper dei premi Nobel.
La metafora dell’investigatore chiarisce che il meccanismo funziona solo entro il perimetro di vincoli piuttosto rigidi. Il poliziesco è un genere letterario con assiomi ontologici forti, che includono categorie prive di ambiguità – vittima, colpevole, movente, arma, esecuzione, complice, ispettore, sospettati, innocenti, testimonianze, indizi, prove, spiegazione razionale. Il conflitto di classe, il dibattito sul sistema penale, il rapporto tra potere e scienza, il concetto di individualità, di responsabilità, di causalità, sono tutti elementi che ricadono al di fuori del contratto enunciativo che si stabilisce tra narratore e lettore. Allo stesso modo, nel quadro teoretico che sostiene la tesi di Sutskever, la possibilità che l’intelligenza si interroghi sulle premesse e sugli obiettivi dei problemi è esclusa, a vantaggio di una visione puramente strumentale del pensiero: il processo razionale deve individuare i mezzi per raggiungere l’obiettivo (nella metafora, per smascherare l’assassino), senza domandarsi quali sono le ragioni per farlo, o la validità dell’obiettivo, o chiedersi se esista davvero l’assassino e se sia uno solo, se la responsabilità non debba essere distribuita in modo diverso da quello che impone la tradizione.
La tradizione del corpus storico dei testi apre e chiude la possibilità stessa della veridizione, del pensiero, dell’intelligenza: la combinatoria messa in opera dalla macchina statistica che (secondo Sutskever) è il linguaggio non può, e non deve, coniare nuovi significati per vecchi significanti, cercare nuove espressioni per interpretare la società e la realtà attuali. La riproduzione è il senso della generazione, e non ci sono vie d’uscita al labirinto dell’infinita ricombinazione delle parole che significano sempre le stesse cose.
È questa l’intelligenza che vogliamo?
RIFERIMENTI BIBLIOGRAFICI
- Fireside Chat with Ilya Sutskever and Jensen Huang: AI Today and Vision of the Future, Nvidia, 22 marzo 2023, ora disponibile alla url: https://www.nvidia.com/en-us/on-demand/session/gtcspring23-s52092.
- Cfr. in particolare Benjamin Lee Whorf, Linguaggio, pensiero e realtà, tr. It. a cura di Francesco Ciafaloni, Bollati Boringhieri, Torino 2018.
Ontologie dell’Intelligenza Artificiale
Parlare di intelligenza artificiale senza ricadere nella trita contrapposizione tra la visione “apocalittica” e quella “integrata” (che possono ben coesistere, ne ho parlato qui) è uno dei compiti che Controversie sta perseguendo dalle prime uscite nell’ottobre del 2023, con più di 40 articoli a tema.
In questo percorso abbiamo lavorato sulla dimensione morale correlata all’utilizzo delle tecnologie intelligenti (e innovative, più in generale), sulla relazione tra I.A. e produzione artistica, sul suo uso bellico, su quello nelle aziende, sui bias culturali che riproduce dando loro una parvenza di oggettività, di I.A. e sovranismo, sulla possibile soggettività personale della macchine intelligenti e, infine, sullo sdoganamento nelle università.
Riteniamo, però, che sia opportuno anche prendere in considerazione la dimensione ontologica dell’intelligenza artificiale, cercare di mettere a terra “cos’è” la I.A..
Per farlo, utilizziamo, ma nello stesso tempo cerchiamo di andare oltre, le definizioni di ontologia più accreditate, come quella di un gigante delle tecnologie, la Oracle Corporation:
Perché andare oltre questa chiarissima definizione?
Ci sono numerose buone ragioni. Proviamo a focalizzarci su alcune:
- tentare di ridimensionare e depolarizzare i toni del dibattito che ferve intorno alla I.A., dibattito che troppo spesso prende la forma di una contrapposizione tra “integrati” e “apocalittici” (ne abbiamo parlato qui)
- comprendere meglio, grazie alla maggiore chiarezza su cos’è e che tipo di approccio adottare nella relazione con queste tecnologie
- cogliere chi e come siamo noi, umani, quando le progettiamo e le utilizziamo
- per stabilire delle scale di valori che ne guidino lo sviluppo e l’applicazione
- dare, quindi, un senso alla loro presenza nel mondo in cui viviamo.
Ora, proprio di ontologia delle I.A. parleremo nel corso della Tavola Rotonda “Ontologie dell’Intelligenza Artificiale” organizzata da Controversie per il giorno 11 giugno in Statale. Usiamo il plurale (le I.A.) perché non c’è una sola intelligenza artificiale ma si tratta di un fenomeno polimorfo, a partire dalle forme di Large Language Model più diffusi, come GPT, Gemini, LLaMA, Claude, per arrivare alle applicazioni verticali meno note quali, ad esempio, LucrezIA, sviluppata dall’Università di Padova anche per le attività didattiche (ne abbiamo parlato qui) –
Senza pensare di esaurire lo spazio delle forme ontologiche in cui si può presentare l’Intelligenza Artificiale, nel corso del dibattito:
- affronteremo il fatto che le I.A. sono dei programmi, delle sequenze di righe di codice, attraverso l’esame di un esempio prototipale della metà degli anni ’80, cogliendone la capacità di migliorarsi attraverso le informazioni raccolte (secondo la definizione di Oracle Corporation);
- vedremo la collocazione di questa pietra miliare nella filogenesi dei due principali paradigmi attuali di I.A. e nella ripartizione tra software più tradizionali, in cui lo sviluppatore inserisce esplicitamente tutte le regole di comportamento e reti neurali, che sono in grado di apprendere con vari metodi di training;
- cercheremo la possibilità di definire l’ontologia delle I.A. attraverso le sue applicazioni verticali, seguendo una traccia fenomenologica, analizzandone l’uso-per, in particolare per le applicazioni in campo medico;
- adotteremo una prospettiva di analisi più ludica che permette di caratterizzare cos’è la I.A. attraverso lo studio dell’utopia nell'immaginario della fantascienza sullo schermo e nei fumetti;
- studieremo, infine, una meta-dimensione della questione che suggerisce di interpretare la I.A., più che come soggetto, come ambiente cognitivo che definisce, modella, deforma l’ontologia dell’umano.
In questo percorso ci addentreremo anche in questioni delicate sulle proprietà delle ontologie delle I.A., tra le quali la possibilità che possano essere in qualche modo coscienti.
Quale verità? L'intelligenza artificiale e lo smarrimento epistemico
UNA NUOVA SFIDA PER LA CONOSCENZA – PREMESSA METODOLOGICA
Questo articolo inaugura una serie di approfondimenti sull’impatto dell’intelligenza artificiale sui nostri sistemi di conoscenza. Il tema è troppo vasto per essere esaurito in un solo testo, e troppo importante per essere trattato superficialmente. In questa prima parte, propongo il concetto di “smarrimento epistemico” come chiave interpretativa generale. Nei prossimi articoli, scenderò nel dettaglio di questioni specifiche. Come ad esempio:
- i meccanismi linguistici dei modelli generativi e le implicazioni cognitive nonché il tema della fiducia nella conoscenza e i suoi metodi
- le implicazioni umane e concrete nei settori professionali (commercio, media, diritto, educazione, etc.)
- le risposte normative, educative e pragmatiche che stiamo sperimentando
CHE COS’È LA CONOSCENZA QUANDO TUTTO PUÒ ESSERE SIMULATO?
La conoscenza può assumere forme diverse: sperimentale, narrativa, deduttiva, esperienziale. In ambito accademico scientifico, il metodo scientifico rappresenta in realtà soltanto un elemento. Questo perché, in definitiva, il gold standard conoscitivo potrebbe essere non una singola metodologia, ma la capacità di scegliere il metodo più appropriato al dominio in studio. E per rigore scientifico e intellettuale, richiede anche la capacità di rimanere aperti, in maniera trasparente, alla correzione e alla revisione costante. Non c’è una scienza, ma ci sono le “scienze”.
Ma cosa succede quando l’intelligenza artificiale non si limita a offrirci nuovi strumenti, ma inizia a riconfigurare le infrastrutture stesse attraverso cui produciamo, trasmettiamo e valutiamo la conoscenza? È qui che si gioca la partita epistemologica del nostro tempo.
QUANDO L’APPARENZA INGANNA: IL CASO DELL’AVVOCATO E DELLE SENTENZE FANTASMA
Nel 2023, l’avvocato Steven Schwartz si è trovato protagonista di una vicenda che oggi considero emblematica. Ha presentato alla Corte di New York una serie di citazioni giuridiche generate da ChatGPT. Apparivano perfette: coerenza formale impeccabile, riferimenti precisi, linguaggio tecnico inappuntabile. Il problema? Erano completamente inventate. Sentenze mai esistite, casi mai accaduti, dottrine giuridiche nate dalla fantasia algoritmica.
Non si trattava solo di un errore tecnico. Quello che è emerso è qualcosa di più inquietante: l’erosione della relazione tradizionale tra forma e verità. La credibilità linguistica non coincide più con l’autenticità dei contenuti. È una trasformazione che tocca il cuore di come attribuiamo fiducia alle informazioni che riceviamo.
L’EROSIONE DELLA FIDUCIA: QUANDO DUBITIAMO DI TUTTO
La ricerca in psicologia sociale ci ha insegnato che la nostra fiducia in un contenuto non dipende solo dalla sua forma, ma dalla fiducia nell’infrastruttura che lo produce. Quando leggiamo un articolo su una rivista scientifica, la nostra valutazione si basa anche sulla reputazione della rivista, sul processo di peer review, sull’autorevolezza dell’autore.
Oggi, istituzioni come giornali, università e tribunali stanno iniziando a integrare sistemi di generazione automatica nei loro processi. Questo non mette sotto pressione solo la qualità dei contenuti, ma le infrastrutture stesse della conoscenza che abbiamo costruito nei secoli.
Il vero problema non è che l’IA possa generare errori o falsità. Dopotutto questo succede anche a noi esseri umani. Il punto è un altro: la contaminazione retroattiva della fiducia. Quando scopriamo che anche contenuti apparentemente perfetti possono essere sintetici, iniziamo inevitabilmente a dubitare anche di quelli autentici.
Questa è la distinzione cruciale tra semplice disinformazione (che presuppone comunque la possibilità di smascherare il falso) e quello che propongo di chiamare “smarrimento epistemico”: la perdita progressiva degli strumenti stessi per distinguere il vero dal falso. E se il falso è causato dall’utilizzo dell’IA, chi è responsabile?
OLTRE LE SOLUZIONI TECNICHE
Watermarking digitale, fact-checking potenziato, regolamenti come l’AI Act europeo: sono tutti strumenti utili, ma non risolvono il problema epistemico di fondo. Il watermarking può essere aggirato con relativa facilità, il fact-checking è strutturalmente troppo lento rispetto alla velocità di produzione dei contenuti artificiali, le norme si concentrano sulla trasparenza formale senza affrontare il problema cognitivo.
Il cuore della questione è più profondo e più umano: che ruolo vogliamo assegnare all’essere umano nel processo di conoscenza? Cosa resta dell’esperienza vissuta, dell’intuizione coltivata, del giudizio critico formato nel tempo, se la forma può essere perfettamente automatizzata e l’autenticità è sempre in dubbio?
TRE SFIDE PER NAVIGARE IL PRESENTE
Come società, stiamo imparando a vivere in un mondo dove l’aspetto di un contenuto non garantisce più né la sua origine né la sua veridicità. Questo ci pone di fronte a tre sfide interconnesse:
A livello individuale: dobbiamo sviluppare una nuova alfabetizzazione critica, capace di riconoscere i pattern tipici della generazione artificiale senza cadere nella paranoia generalizzata. L’individuo è poi chiamato a sviluppare nuove skill, nuovi orizzonti formativi e una coscienza maggiore della propria umanità.
A livello istituzionale: università, media, sistemi giudiziari devono ridefinire i loro processi di validazione della conoscenza, trovando equilibri inediti tra efficienza, autenticità e fini ultimi.
A livello civile: lo smarrimento epistemico si manifesta come crisi dei riferimenti condivisi. Non è solo il singolo a disorientarsi, ma l’intero tessuto sociale a perdere coerenza nella produzione, circolazione e riconoscimento della conoscenza. Dibattiti pubblici basati su fonti inesistenti, polarizzazioni alimentate da contenuti artificiali credibili, l’equivalenza apparente tra opinioni e dati verificati: tutto questo erode la possibilità stessa di una società civile.
Difendere la qualità della conoscenza non è solo un compito accademico, ma una necessità democratica. Perché senza linguaggi condivisi, criteri minimi di verifica e fiducia epistemica reciproca, si rischia una frammentazione culturale senza precedenti. In altre parole, non solo i conflitti d’interesse o le inclinazioni politiche alterano ricerca o risultati scientifici, ora i bias diventano inesplorabili e dettati da algoritmi.
PROSPETTIVE PER IL FUTURO CHE STIAMO COSTRUENDO
Non possiamo permetterci di limitarci a “correggere lungo il cammino”. Serve una leadership consapevole, a tutti i livelli: individuale, istituzionale, sociale, economica. L’intelligenza artificiale rappresenta probabilmente la più grande trasformazione epistemologica dalla nascita della stampa, e forse anche di più.
In futuro, la conoscenza dipenderà dalla nostra capacità di sviluppare nuove forme di discernimento critico, mantenendo vivo il valore insostituibile dell’intelligenza e dell’esperienza umana in un ecosistema informativo sempre più ibrido.
La sfida non è tecnologica: è profondamente umana. È una sfida fatta d’invisibile, che si vince con domande che aprono orizzonti e intuizioni di ciò che non è ancora, e forse mai sarà, codificabile o “scaricabile”.
Io studio e le infinite connessioni tra conoscenza, coscienza e umanità diverranno sempre più importanti.
Quali domande nel tuo ambito rimarranno profondamente umane?
—
Nei prossimi articoli di questa serie, approfondirò le questioni tecniche e settoriali accennate qui. Invito lettori ed esperti a contribuire al dibattito: solo attraverso un confronto aperto potremo sviluppare approcci adeguati a questa enorme sfida storica per tutta l’umanità.
RIFERIMENTI BIBLIOGRAFICI:
Bender, E. M., Gebru, T., McMillan-Major, A., & Shmitchell, S. (2021). On the dangers of stochastic parrots: Can language models be too big? Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency (FAccT), 610–623. https://doi.org/10.1145/3442188.3445922
Feizi, S., Saberi, A., Rezaei, A., Sadasivan, S., Kumar, A., Chegini, S., & Wang, D. (2023). Robustness of AI-Image Detectors: Fundamental Limits and Practical Attacks. arXiv preprint. https://arxiv.org/abs/2310.00076
Graves, L. (2016). Deciding What’s True: The Rise of Political Fact-Checking in American Journalism. New York: Columbia University Press.
Nemecek, J., Jiang, X., & Ayday, E. (2025). Watermarking Without Standards Is Not AI Governance. arXiv preprint. https://arxiv.org/abs/2505.13842
Pang, L., Hu, C., Zheng, Y., & Smith, R. (2024). No Free Lunch in LLM Watermarking: Trade-offs in Watermarking Design Choices. arXiv preprint. https://arxiv.org/abs/2402.16187
European Commission. (2021). Proposal for a Regulation Laying Down Harmonised Rules on Artificial Intelligence (Artificial Intelligence Act), COM (2021) 206 final. https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX:52021PC0206










