Riflessioni e proposte a margine della lettura di M. Ferraris, La pelle
Da molti anni mi dedico allo studio dell’impatto sul mondo dell’Amministrazione Pubblica delle TIC (Tecnologie dell’Informazione e Comunicazione). Questo breve contributo si basa, oltre che sul portato di queste mie riflessioni di ormai lungo corso[1], anche su quelle (più recenti) che mi ha suscitato la lettura (e discussione e presentazione nel contesto del Bookforum CERIDAP) di un recente volume che si interroga su che cosa significhi “pensare” nell’epoca dell’intelligenza artificiale (M. Ferraris, La pelle: Che cosa significa pensare nell’epoca dell’intelligenza artificiale, Il Mulino, 2025).
Della necessaria connessione tra intelligenza naturale e corpo
Quella che ritiene sia la differenza basilare tra intelligenza artificiale e intelligenza naturale, Ferraris ce lo indica chiaramente già nell’incipit del capitolo secondo del suo libro, quello intitolato “la mente incarnata”:
«Il tratto distintivo dell’intelligenza naturale consiste nell’essere collocata in un corpo, che a sua volta è situato in un mondo» (Cit. p. 68).
La riflessione può apparire banale e scontata, ma non lo è affatto. Se solo si pensi al fatto che, una gran parte della ideologia che sta dietro il successo economico del prodotto “Intelligenza Artificiale”, si basa proprio sull’idea pseudo-scientifica che sia possibile, non solo il superamento dei limiti legati alla nostra biologia (R. Kurzweil, The Singularity Is Near: When Humans Transcend Biology, Viking Press, 2005), ma anche una vera e propria fusione uomo-macchina (R. Kurzweil, The Singularity Is Nearer: When We Merge with AI, Penguin Books, 2024), la quale ci permetterebbe di totalmente prescindere dai (fastidiosi) limiti legati alla nostra biologia: in primis (ed anche in secundis) dalla necessaria ed inevitabile morte biologica del nostro organismo. Sgradevole circostanza, tuttavia facilmente superabile, secondo questa impostazione di pensiero, attraverso una sorta di upload del contenuto del nostro cervello alla “macchina”.
Ferraris sottolinea invece come la nostra pelle sia:
«involucro vivente di un organismo volente, quella che si vuol vendere cara, al prezzo più alto possibile (…) un impasto di sangue, sudore e lacrime che nessuna macchina potrà né vorrà mai imitare» (Cit. p. 15).
Della stupidità umana e dell’inevitabile paura della morte
In fin dei conti, il problema è probabilmente uno ed uno soltanto: la nostra inevitabile paura della morte. Che, secondo quanto ci spiega Ariés (P. Ariés, Storia della morte in Occidente, Rizzoli, 1998), è ancora maggiore nella nostra società tecnologica (è divenuta un vero e proprio tabù, che si preferisce allontanare e negare).
A questo proposito concordo dunque pienamente con Ferraris quando afferma che:
«il timore o la speranza nella Singolarità è una illusione anche più grande, e ingenua, che l’Inferno o il Paradiso» (Cit. p. 250).
La fiducia illimitata che riponiamo nelle “meraviglie dell’Intelligenza Artificiale” (e tecnologie affini) rientra necessariamente in questa linea di ragionamento. O, potremmo dire, in questo tipo di approccio al fastidioso problema della necessaria finitezza della vita umana. Problema che autori transumanisti come Max More e Natasha Vita More (M. More, N. Vita-More, The Transhumanist Reader. Classical and Contemporary Essays on the Science, Technology, and Philosophy of the Human Future, Wiley-Blackwell, 2013) affrontano alla loro maniera, al pari di Nick Bostrom, nei suoi scritti (N. Bostrom, Superintelligence: Paths, Dangers, Strategies, Oxford University Press, 2016) e con le ricerche portate avanti dal suo Future of Humanity Institute, istituito nel 2005 presso l’Università di Oxford.
In questo contesto, non posso non menzionare le (a mio parere false) promesse legata alla crionica (o criogenesi) – una tecnica messa a punto da Robert Ettinger, che è anche il fondatore del Cryonics Institute – con lo scopo di preservare esseri umani legalmente morti a temperature inferiori a −120 °C, nella speranza di farli rivivere in futuro. Con la possibilità, peraltro, di scegliere se avere tutto il corpo crioconservato o solo la testa (il che costa meno, ovviamente). In entrambi i casi, una volta completato il processo di raffreddamento e vetrificazione, il corpo e/o il cervello vengono sigillati in una grande vasca di azoto liquido ad una temperatura di −196 °C, e crioconservati.
Anche la Alcor Life Extension Foundation, un’organizzazione no profit statunitense nata nel 1972 con sede a Scottsdale in Arizona, porta avanti la ricerca inerente alla crionica. E ci sono al momento varie società attive nella criogenesi, fra cui una ben nota società russa.
Farsi crioconservare può costare, ad oggi, fra i 40.000 (pacchetto base) e i 200.000 Euro[2].
Coscienza (e paura) della morte: una prerogativa solo umana?
Che cosa ci muove/ci anima, rendendoci così peculiari rispetto agli altri animali? Nella visione di Ferraris si tratta della:
«certezza della fine, e la credenza di poterla differire un poco (…) con il racconto, come Shahrazād con il suo sultano, con i miti di morte e resurrezione di Iside e Osiride, di Dioniso, di Cristo, o con le imprese di Maradona e di Glenn Gould, e di tutti coloro che, vincendo ad Austerlitz o esibendosi in concerti, lasciando degli eredi, comprando delle case, e persino scrivendo libri, hanno cercato di non morire interamente» (Cit. p. 249).
Si tratta del ben noto Non omnis moriar di Orazio nelle Odi (riferito all’idea di immortalità della sua opera poetica – Hor. Carm. III 30).
Nel ragionare intorno alla morte, e alla questione inerente alla presenza o assenza di coscienza della stessa negli animali non umani, occorre tuttavia non peccare di antropocentrismo. Come mette bene in evidenza Christine Webb, nota primatologa di Harvard, in un interessante saggio che contesta l’eccezionalismo intellettuale umano, e lo fa con un’ampia (ed assai interessante) esplorazione di esempi di intelligenza non umana (C. Webb, The Arrogant Ape: The Myth of Human Exceptionalism and Why It Matters, Avery, 2025).
Studi recenti contestano, in effetti, la tesi della maggior parte dei filosofi che hanno discusso la relazione degli animali con la morte, dando per scontato che solo gli esseri umani possano comprendere questa nozione; e dimostrando, invece, che anche gli animali hanno una forma coscienza della loro “finitezza”. In particolare Susana Monsó (S. Monsó, How to Tell If Animals Can Understand Death, in Erkenntnis, 2022, p. 117 ss.) osserva come il concetto di morte non possa essere inteso in senso meramente binario: possedere un concetto di morte non è un tutto o niente, ma e piuttosto qualcosa di soggetto a gradazione (e questo vale anche per gli esseri umani!):
«Ciò appare evidente se consideriamo il caso dei bambini, che non acquisiscono il concetto di morte da un giorno all’altro. In effetti, il consenso scientifico è che impiegano in media 10 anni per padroneggiare appieno il concetto di morte (…), ma attribuiamo loro una certa comprensione della morte già prima che raggiungano questa fase»[3].
Sicché, ci dice Monsó, se accettiamo questa “gradazione” nel livello di consapevolezza della morte per i bambini, dobbiamo necessariamente accettarla anche per gli animali. Inoltre, l’autrice ci mette in guardia sul fatto che dobbiamo essere consapevoli del fatto che, anche per gli esseri umani, vi sono diverse concezioni della morte, che oscillano fra un minimo ed un massimo.
Portando sino alle estreme conseguenze il ragionamento di cui sopra, non mi pare dunque che si possa neppure escludere che, a questa consapevolezza della morte da parte degli animali non umani, possa corrispondere anche una forma di paura intesa in termini di “capacità di anticipazione”.
Che cosa significa, dunque, essere intelligenti (anche all’epoca dell’I.A.)?
Osserva Ferraris nell’incipit del suo libro che:
«Ai computer manca la volontà, dunque non prendono alcuna iniziativa, e ci vuole sempre un umano che li attivi con un prompt» (Cit. p. 1).
Ancora:
«Dunque, e questa è la mia tesi fondamentale, le volizioni, prima ancora che le emozioni, sono ciò che, nel profondo, distingue l’intelligenza naturale dalla sua sorellastra artificiale, che quando pure divenisse capace di riprodurla alla perfezione, o di superarla (in molti casi è già così, e dai tempi della carta e della matita), lo farebbe solo come un’imitazione difettosa della forma di vita umana. E difettosa perché difettiva proprio della volontà, che nella vita umana (così come nella vita degli organismi in generale) esercita, come spero di dimostrare, una sovranità assoluta» (Cit. p. 10).
Questa capacità di esercitare “sovranità” cui l’A. fa riferimento è successivamente collegata al nesso tra potere e libertà. Egli infatti osserva come la libertà sia il più grande potere:
«il potere assoluto, che tutte le forze politiche e sociali cercano di limitare, a volte legittimamente (regole per la divisione dei poteri, ossia delle libertà), altre volte illegittimamente (revoca delle libertà nei regimi totalitari)» (Cit. p. 265).
Ma, avverte:
«ricordiamo sempre che la libertà è una forza che in quanto tale va necessariamente regolata, pena la guerra di tutti contro tutti» (Cit. p. 266)
Che cosa può dunque significare, per gli animali umani, essere intelligenti all’epoca dell’intelligenza artificiale?
A mio parere, la risposta può essere cercata e trovata solo nel necessario nesso fra potere e libertà, ed in relazione al fine: quel fine che noi stessi, come esseri umani, siamo in linea di principio in grado di assegnarci. O che, altrimenti, ci facciamo assegnare da altri. Il che avviene, da una prospettiva squisitamente giuspubblicistica, tutte le volte in cui rinunciamo ad esercitare la sovranità, nei modi e nelle forme in cui la esercita il popolo (e ciascuno di noi) nelle moderne democrazie parlamentari di stampo liberale.
Dobbiamo dunque avere paura dell’IA?
Per rispondere a questa domanda, vorrei a questo punto introdurre al lettore la inquietante figura di Zoltan Istvan, che nell’autunno del 2015 ha girato gli Stati Uniti con un Blue Bird Wanderlodge del 1978, modificato in modo da conferirgli l’aspetto di una bara gigantesca.
Istvan aveva essenzialmente due obiettivi: 1) denunciare il fatto deplorevole della mortalità umana e la necessità di fare qualcosa al riguardo; 2) annunciare la sua candidatura alle elezioni presidenziali del 2016, come candidato del “partito transumanista”.
Non gli è andata bene. Ma ci ha riprovato nel 2020, quando ha tentato la candidatura per il Partito Repubblicano, sfidando internamente il presidente uscente Donald Trump nelle primarie.
Più recentemente, nell’aprile 2025, Istvan ha annunciato la sua intenzione di candidarsi come Governatore della California per le elezioni del 2026, questa volta nelle file del Partito Democratico. Ma non esclude di ricandidarsi pure per le elezioni presidenziali, per la terza volta, nel 2028. Ancora non si sa con che partito, ma mi pare ovvio con quale programma principale: sconfiggere la morte tramite la fusione uomo-macchina, la creazione del vero Cyborg, l’uomo potenziato grazie all’IA o Superintelligenza o tecnologia quantistica o qualsiasi altra diavoleria tecnologica che il futuro possa mettere a nostra disposizione (M. O’Connell, To Be a Machine. Adventures among Cyborgs, Utopians, Hackers, and the Futurists Solving the Modest Problem of Death, Granta Books, 2017, passim).
Non è dunque dell’intelligenza artificiale che dobbiamo avere paura, ma della stupidità umana nel servirsi di tecnologie che, come tali, sono neutre: non sono cioè, in sé, né buone né cattive. Sono solo uno strumento a nostra disposizione. Uno strumento come tutti quelli di cui abbiamo fatto uso nel corso della storia, come ben ci ricorda Ferrari nel capitolo terzo del suo libro, quello sulla c.d. “mente attrezzata”. Ove egli giustamente osserva come:
«In realtà, attrezzati, fosse pure solo di un bastone, lo siamo sempre stati, e a far problema non è la tecnologia, bensì la rapidità del cambiamento»; e si (e ci domanda) come si possa fare per governarlo, questo cambiamento (Cit. p. 125).
E sottolinea che:
«Le imperfezioni dell’animale umano, così debole, lento, svantaggiato, sono quelle che determinano lo sviluppo della tecnica, della cultura e della società a livelli impensabili presso altre forme di vita» (Cit. p. 126 s.).
Secondo l’opinione di Ferraris, dunque:
«L’umano è costitutivamente, e sin dall’inizio, postumano: cioè un organismo originariamente modificato da meccanismi che sopravanzano la natura» (Cit. p. 126).
Ancora:
«L’umano nasce imperfetto, tardivo, sradicato e imbecille, e medica i propri difetti (o almeno ci prova) attraverso il supplemento tecnico» (Cit. p. 127).
Sicché, ci avverte:
«La tecnica può certo essere il veleno, ma è anzitutto il rimedio. Se non è definito dall’interno, dalla guida monotona ma sicura di un istinto, l’umano riceve forma dal di fuori, dalle istituzioni, dal mondo dello spirito e dalla lista dei supplementi che acquisisce» (Cit. p. 161).
Ancora:
«La coscienza non nasce come un fungo, ma discende dal linguaggio e dalla educazione, dai riti e dalle biblioteche» (Cit. p. 177).
Mettiamo ora insieme tutte queste riflessioni di Ferraris, dettate dal suo approccio prettamente storico-filosofico, con le più recenti scoperte dei neuroscienziati. I quali hanno dimostrato la totale plasticità del nostro cerebro; e come i neuroni si possano addirittura “riconvertire”.
Possiamo, cioè, usare neuroni “nati” per fare una cosa per farne un’altra. Il che porta, nella sua accezione più negativa, all’iperspecializzazione di quelli che possiamo ironicamente definire come “Fachidioten”[4]: i superesperti di una singola faccenda, che usano praticamente tutti i neuroni a loro disposizione per fare al meglio quella singola cosa, e divengono dunque alla lunga incapaci (o quasi) di fare e/o comprendere altro. Ma, in una lettura invece positiva, questa estrema plasticità del nostro cerebro è anche la ragione per cui, anche chi avesse subito un incidente neurologico grave, con distruzione di parte del cerebro, potrebbe “recuperare”: è la storia, ad esempio, di Cameron Mott e di come il suo cervello si è “riprogrammato”, a seguito di un’operazione chirurgica con cui gliene avevano asportato la metà, per potere rimediare ai danni provocati da una grave e rara malattia (encefalite di Rasmussen), che le causava crisi epilettiche gravissime che avrebbero condotto alla paralisi progressiva, e poi alla morte.
Come ben spiega infatti David Eagleman (D. Eagleman, The Brain: The Story of You, Canongate Books Ltd, 2016), il cervello è dunque fondamentalmente diverso dall’hardware nel nostro computer. Si tratta di “liveware“, capace di riconfigurare i propri circuiti. E sebbene il cervello adulto non sia flessibile come quello di un bambino, conserva comunque una sorprendente capacità di adattamento e cambiamento. Infatti, ogni volta che impariamo qualcosa di nuovo, il cervello cambia se stesso. Ed è proprio questa proprietà del cervello (la sua plasticità) che consente questo essenziale “matrimonio tra la nostra tecnologia e la nostra biologia” («marriage between our technology and our biology») cui fa più volte riferimento Eaglemann nel suo volume.
Quali conclusioni?
Nel primo capitolo del suo libro Ferraris osserva come
«lo spirito del tempo – non di chi twitta le analisi, ma di chi le legge – è dominato dalla paura» (Cit. p. 23).
Sottolinea tuttavia come, a suo parere, il rischio non sia
«né la Singolarità né la disumanizzazione, bensì la Moltitudine, l’umanità con le sue inesauribili cattive idee e la sua numerosità. Ci sono miliardi di umani sul pianeta, e costoro (cioè noialtri), in quanto organismi, sono dotati di volontà e portati al dominio, all’aggressione, alla paura, oltre a rivelarsi beatamente inclini all’ignoranza e inquietamente rosi dal risentimento» (Cit. p. 36).
Il passaggio in cui Ferraris sottolinea come «Non ci sarà mai un potere della tecnica sul mondo: una motosega non ha la più pallida idea di che cosa sia abbattere un albero, figuriamoci poi se ha voglia di farlo» (Cit. p. 31) unito ad un altro passaggio del libro, in cui ci ricorda che sono gli organismi, umani o animali, che «hanno bisogni, desideri, timori, dunque possono, ad esempio, aspirare al potere» (Cit. p. 61) mi pare la perfetta sintesi del problema.
Se aggiungiamo a questo l’osservazione (ampiamente condivisibile) che «l’umano è notoriamente poco amico della morale (come ci insegnano apparati tecnici quali le serrature e i sistemi di allarme, e istituzioni come la polizia e i penitenziari» (Cit. p. 41), ecco che si giunge alla chiusura del cerchio.
Concordo dunque certamente con Ferraris che il rischio non è la c.d. infocrazia (Byung-Chul Han, Infocrazia, Einaudi, 2022). Né le c.d. postverità, che come tali sono sempre esistite nella storia dell’umanità. Il rischio è, a mio parere, di cullarci in quella che Jonathan Glover, nel suo bellissimo (ed inquietante) saggio del 2012 (J. Glover, Humanity. A Moral History of the Twentieth Century, Yale University Press, 2012) efficacemente definisce come l’illusione del “progresso morale” dell’umanità. Glover osserva infatti che, se all’inizio del XX secolo si poteva ancora credere nel progresso morale ed immaginare che la cattiveria e la barbarie umana fossero oramai recessive, già alla fine del secolo risultava assai difficile avere fiducia nella c.d. “legge morale” e nel progresso morale dell’umanità.
A maggior ragione risulta difficile oggi, in un momento storico caratterizzato da numerose guerre di aggressione, instabilità politica e, più in generale, da quello che è stato efficacemente descritto come «un abbruttimento dei rapporti tra persone e tra Stati»[5].
E qui vale la pena di citare nuovamente il libro di Ferraris:
«una macchina non tende verso qualcosa; semmai, è programmata per farlo» (Cit. p. 256).
Sicché, mi permetto a questo punto di dire, se vogliamo evitare catastrofi (ulteriori) legate ad un cattivo uso degli strumenti di I.A. (e tecnologia affini), è forse giunto il momento per i filosofi di mettersi da parte, smettendo di monopolizzare il dibattito sul tema, per lasciare la palla ai giuristi: che sono chiamati a svolgere un ruolo essenziale nel definire che cosa “la macchina” deve poter fare. E deve NON poter fare. In termini di obblighi giuridici veri e propri, cioè, e non di meri suggerimenti guidati dall’etica o dalla morale.
A fronte, cioè, dei troppi dubbi e domande che solleva l’uso delle ICT nell’epoca moderna, sono e resto profondamente convinta della necessità di risposte che devono venire non dalla filosofia, o dall’etica pubblica (che ha assunto oramai una dimensione di semplice morale individuale), ma dal mondo del diritto.
Il diritto, in quanto «arte della convivenza civile» (F. Viola, Il diritto come arte della convivenza civile, in Rivista di filosofia del diritto, 2015/1, p. 57 ss.) deve essere in grado di stabilire i criteri, di porre dei limiti alle applicazioni possibili della scienza a qualsiasi ambito: sia esso la medicina, la psichiatria, o la scienza della guerra (…). E questo vale necessariamente (e direi, a fortiori) per l’utilizzazione di tecnologie come l’intelligenza artificiale.
Men che meno credo nell’autoregolazione: l’idea che imprese private, naturalmente (e fisiologicamente) orientate al profitto, si autoimpongano dei limiti per il benessere collettivo non mi ha mai convinta; e non vedo in che modo si possa pensare che queste riflessioni non trovino applicazione anche (e soprattutto) nel mondo ipercompetitivo delle ICT[6]: è ben noto, ad esempio, che gli investimenti immensi che sono necessari per sviluppare sistemi di I.A. “generalisti” in grado di ben funzionare rischiano di non garantire un ritorno negli investimenti stessi, con tutte le conseguenze del caso. ChatGPT, ad esempio, è un prototipo di chatbot (agente conversazionale) fondato su un framework di Machine Learning Artificial Intelligence sviluppato da OpenAI, in cui persino Microsoft ha investito oltre 10 miliardi di dollari. Mistral AI, la risposta francese a OpenAI, ha investito circa 12 miliardi di euro per sviluppare modelli di I.A. che possano competere con ChatGPT. E gli esempi potrebbero ovviamente moltiplicarsi.
Non è, cioè, di principi etici che abbiamo ora bisogno, ma di norme giuridiche idonee. Perché il fatto che gli esseri umani siano sempre “moralmente imperfetti” implica che anche i nostri processi decisionali sono originariamente viziati da questa nostra imperfezione, che potrebbe essere semplicemente trasferita in procedimenti decisionali automatizzati o semi-automatizzati per il tramite di algoritmi capaci di produrre un “effetto moltiplicatore” (di errori umani inevitabili)[7].
E qui mi fermo, perché questa è invece la mia tesi di fondo, quella di cui ho già scritto e riscritto, e richiamando la quale mi permetto dunque di concludere anche le mie odierne riflessioni.
NOTE:
[1] Cfr. da ultimo D.U. Galetta, Artificial Intelligence and Public Administration: A Journey, Editoriale Scientifica, 2025.
[2] Per info al riguardo, oltre alla informazioni reperibili suo sito del Cryonics Institute, si veda al seguente link: https://www.onoranzefunebrilamadonnina.com/blog/ibernazione-umana-e-criogenia-come-funzionano/.
[3] «This becomes clear once we consider the case of human children, who do not acquire a concept of death overnight. In fact, the scientific consensus is that it takes them an average of 10 years to fully master the concept of death (…) but we credit them with some understanding of death before they reach this stage», p. 121. Traduzione mia.
[4] Termine in uso nella lingua tedesca e praticamente intraducibile in italiano: il vocabolario suggerisce la traduzione in inglese con “nerd”. La traduzione letterale sarebbe “idiota del settore/materia”.
[5] Così M. Gramellini nel Corriere della Sera del 4 marzo 2026, “Bombe, tende e cappellini”, https://www.corriere.it/caffe-gramellini/26_marzo_04/bombe-tende-cappellini-a302a9fb-b9a2-4ad3-906e-66b0a6056xlk.shtml.
[6] Cfr. F.C. Zacharias, The Myth of Self-Regulation, in Minnesota Law Review, 2009, p. 1147 ss.
[7] Cfr. D.U. Galetta, La decisione amministrativa algoritmica discriminatoria: ragioni e rimedi possibili (fra diritto amministrativo nazionale e diritto UE), in G.P. Ruotolo, A. Stiano (Eds.), Discriminazioni automatiche. Come il diritto può aiutare l’intelligenza artificiale e viceversa, Giappichelli, 2026, p. 158 ss.
RIFERIMENTI BIBLIOGRAFICI:
P. Ariés, Storia della morte in Occidente, Rizzoli, 1998
B. C. Han, Infocrazia, Einaudi, 2022
J. Barrat, Our Final Invention: Artificial Intelligence and the End of the Human Era, Thomas Dunne Books, 2013
N. Bostrom, Superintelligence: Paths, Dangers, Strategies, Oxford University Press, 2016
C.M. Cipolla, Le leggi fondamentali della stupidità umana, Il Mulino, 2015
D. Eagleman, The Brain: The Story of You, Canongate Books Ltd, 2016
M. Ferraris, La pelle: Che cosa significa pensare nell’epoca dell’intelligenza artificiale, Il Mulino, 2025
D.U. Galetta, AI and Public Administration: A Journey, Editoriale Scientifica, 2025
D.U. Galetta, La decisione amministrativa algoritmica discriminatoria: ragioni e rimedi possibili (fra diritto amministrativo nazionale e diritto UE), in G.P. Ruotolo, A. Stiano (Eds.), Discriminazioni automatiche. Come il diritto può aiutare l’intelligenza artificiale e viceversa, Giappichelli, 2026, p. 158 ss.
J. Glover, A Moral History of the Twentieth Century, Yale University Press, 2012
R. Kurzweil,The Singularity Is Near: When Humans Transcend Biology, Viking Press, 2005
R. Kurzweil,The Singularity Is Nearer: When We Merge with AI, Penguin Books, 2024
M.G. Losano, Per un diritto compatibile con l’elaborazione elettronica, in Id, Corso di informatica giuridica, volume 2, Unicopli, 1981, p. 319 ss.
M.G. Losano, Introduzione, in R. Cavallo Perin, D.U. Galetta (Eds.), Il Diritto dell’Amministrazione Pubblica digitale, Giappichelli, Torino, 2nd ed., 2025, p. XXV ss.
J. McCarthy, What is Artificial Intelligence?, Nov-Dec. 2007, at https://web.archive.org/web/20131215190713/http://www-formal.stanford.edu/jmc/whatisai.pdf
S. Monsó, How to Tell If Animals Can Understand Death, in Erkenntnis, 2022, p. 117 ss.
M. More, N. Vita-More, The Transhumanist Reader. Classical and Contemporary Essays on the Science, Technology, and Philosophy of the Human Future, Wiley-Blackwell, 2013
M. O’Connell, To Be a Machine. Adventures among Cyborgs, Utopians, Hackers, and the Futurists Solving the Modest Problem of Death, Granta Books, 2017
R. Pally, The Mind-Brain Relationship, Routledge, 2018
F. Viola, Il diritto come arte della convivenza civile, in Rivista di filosofia del diritto, 2015/1, p. 57 ss.
C. Webb, The Arrogant Ape: The Myth of Human Exceptionalism and Why It Matters, Avery, 2025
Autore
-
Professore ordinario di Diritto amministrativo presso la Facoltà di Giurisprudenza dell’Università degli Studi di Milano e Direttore di CERIDAP https://ceridap.eu. Focus della sua attività scientifica è da sempre l’impatto del diritto dell’Unione europea sul diritto amministrativo e le relative trasformazioni. Nell’ultimo decennio ha focalizzato la sua attività di ricerca anche sull’impatto delle Nuove tecnologie della comunicazione e informazione sulle pubbliche amministrazioni, sia sotto il profilo dell’attività che sotto il profilo dell’organizzazione.
Leggi tutti gli articoli
