Follow: Richiesta e Approvazione

Questo è il quarto[1] di una serie di articoli dedicati al tema delle comunità sociali digitali.

Qui ragioneremo sulle meccaniche della Richiesta e della Approvazione, con l’intento di avvicinarci sempre di più a comprendere che posizione ricopra la Soddisfazione dell’utente nelle comunità sociali digitali.

-----

Se ancora non l’avete fatto, vi invito a leggere i precedenti articoli, in quanto propedeutici alla comprensione di questo e di quelli che seguiranno.
Ricordate: è altrettanto importante la lettura delle note.

Buona lettura.

 


 

Instagram: Richiesta e Approvazione di poter seguire

Analizziamo un caso particolare:

la piattaforma Instagram prevede una propria specifica meccanica della richiesta di connessione. Questa forma della Richiesta è disponibile solo per il profilo utente che si sia impostato come “privato”.

Instagram permette a questo genere di profilo di limitare la visibilità dei propri contenuti pubblicati, e di renderli fruibili esclusivamente a quegli utenti che esso approva poter entrare tra i propri follower.

Questa meccanica della richiesta prevede che, chi voglia vedere i contenuti privati, invii al profilo privato una richiesta di poter entrare nella cerchia dei suoi follower.

Perché vada a buon fine questa richiesta, essa dovrà essere manualmente approvata dal ricevente (il profilo privato). Solo allora verrà fornita al richiedente la connessione per diventare follower e, con essa, i relativi privilegi di accesso all’informazione che ne derivano.

In questo caso specifico, l’instaurazione di una connessione unidirezionale di follow diventa essa stessa un oggetto di privilegio, in quanto attivabile attraverso una meccanica esplicita di approvazione. Per la sua configurazione strutturata in esplicite azioni di richiesta prima, e di approvazione-diniego poi, possiamo definire questa forma della Approvazione come di “approvazione forte[2].

Va inoltre specificato che, anche se nominalmente trattasi di una “Richiesta”, questa di Instagram non prevede vincolo di reciprocità, come avviene invece per la meccanica della richiesta di amicizia di Facebook[3].

Se inserita nel contesto di un contratto sociale digitale strutturato sulla meccanica del Follow[4], la Richiesta non pone vincoli di reciprocità.

In altre parole, il ricevente non è obbligato a corrispondere un proprio follow (pratica del “follow back[5]) al proprio richiedente, come avviene invece nella meccanica dell’amicizia di Facebook.

Però, in cambio di questo potere di limitare e approvare, la meccanica generale e specifica della Richiesta su Instagram, impone la quasi totale rinuncia alla visibilità pubblica[6] da parte di chi vuole “privarsi” all’altro.

L’utente di un profilo privato viene dunque obbligatoriamente coinvolto in due direzioni della limitazione, una in suo potere, rivolta verso l'esterno, che abbiamo appena visto, e una passiva e obbligata, rivolta verso sé stesso.

Qualora infatti il profilo privato pubblicasse contenuti, questi non verrebbero veicolati, “consigliati” dall’algoritmo. Negli effetti, i Post non comparirebbero nei risultati delle ricerche pubbliche o nella sezione "Esplora" per chi non è suo follower[7]. E ancora, i suoi contenuti, comprese le Story, non potranno essere ricondivisi dai propri follower, anche quando essi vi siano citati (= taggati).

L’approvazione forte, la limitazione e il desiderio

L’approvazione forte su Instagram è una forma ufficiale di potere esplicito, strutturalmente e bidirezionalmente vincolato alla limitazione: richiede una limitazione, una rinuncia, per ottenere il privilegio di limitare e negare la propria visibilità all’altro.

La piattaforma permette all’utente che ha privato (limitato) il proprio profilo, di ottenere il potere esplicito della Approvazione nella forma della concessione di connessione agli altri. Glielo permette al costo di un obbligo meccanico di rinuncia alla propria visibilità[8].

L’approvazione forte, può così anch’essa giocare un proprio peso specifico sul piano delle dinamiche del prestigio sociale digitale: essa non è solo una risposta positiva alla “richiesta di poter vedere”, ma è anche al contempo, per il richiedente, una forma di richiesta esplicita di concessione di privilegio di poter ambire a diventare follower di qualcuno.

La privazione è una condizione integrabile nella strategia del prestigio sociale, già da ben prima dell’avvento delle piattaforme sociali digitali.

La privazione è un dispositivo culturale che crea distanza, distanza che a propria volta può suscitare il desiderio di raggiungibilità di qualcosa da cui siamo esclusi.

La ricerca della soddisfazione di un desiderio è un motore sociale anche qui presente.

-----

Nel prossimo articolo inizieremo la discesa verso le dinamiche del prestigio sociale digitale.

 


 

NOTE:

[1] Qui i link al primo, al secondo e al terzo articolo.

[2] Per “forte” intendo che è obbligata e azionata esplicitamente perché abbia effetto. Per meglio comprenderci: chi decide di richiedere di poter essere follower, sa che chi riceve la sua richiesta dovrà manualmente approvarla. In questo senso l’approvazione è di tipo “forte”.

[3] Ne abbiamo parlato nel primo articolo, Supra, nota 1.

[4] La meccanica del Follow, quando è alle fondamenta di una comunità sociale digitale, svincola il contratto sociale digitale da ogni forma di reciprocità. Ne abbiamo parlato nel secondo articolo, Supra, nota 1.

[5] Della pratica del follow back, ne abbiamo parlato nel secondo articolo, Supra, nota 1.

[6] Le sole meccaniche di visibilità pubblica che rimangono attive per un profilo privato sono quelle 1) della comparsa del proprio profilo tra i “profili suggeriti” di chi è a pochi gradi di separazione da esso, e 2) della rintracciabilità attraverso il motore di ricerca interno alla piattaforma.

[7] Anche nel caso in cui l’utente utilizzasse gli hashtag, ossia parole o frasi precedute dal simbolo “#”. Queste funzionano come etichette tematiche, essenziali per categorizzare i post, le storie e i Reel, rendendoli facilmente rintracciabili dagli utenti interessati a un argomento specifico.

[8] Notino i lettori che questa meccanica della privatizzazione di un profilo trova le proprie fondamenta legali nel campo della tutela della privacy (si vedano i Riferimenti bibliografici).

RIFERIMENTI BIBLIOGRAFICI:

Impostazioni sulla privacy e informazioni di Instagram: https://help.instagram.com/196883487377501/?helpref=hc_fnav&locale=it_IT


Della liaison dangereuse fra imperfezione umana e intelligenza artificiale, e del necessario ruolo dei giuristi

Riflessioni e proposte a margine della lettura di M. Ferraris, La pelle

Da molti anni mi dedico allo studio dell’impatto sul mondo dell’Amministrazione Pubblica delle TIC (Tecnologie dell’Informazione e Comunicazione). Questo breve contributo si basa, oltre che sul portato di  queste mie riflessioni di ormai  lungo corso[1], anche su quelle (più recenti) che mi ha suscitato la lettura (e discussione e presentazione nel  contesto del Bookforum CERIDAP) di un recente volume che si interroga  su che cosa significhi “pensare” nell'epoca dell'intelligenza artificiale (M. Ferraris, La pelle: Che cosa significa pensare nell'epoca dell'intelligenza artificiale, Il Mulino, 2025).

 


 

Della necessaria connessione tra intelligenza naturale e corpo 

Quella che ritiene sia la differenza basilare tra intelligenza artificiale e intelligenza naturale, Ferraris ce lo indica chiaramente già  nell’incipit del capitolo secondo del suo libro, quello intitolato “la mente incarnata”: 

«Il tratto distintivo dell’intelligenza naturale consiste nell’essere collocata in un corpo, che a sua volta è situato in un mondo» (Cit. p. 68). 

La riflessione può apparire banale e scontata, ma non lo è affatto. Se solo si pensi al fatto che, una gran parte della ideologia che sta dietro il successo economico del prodotto “Intelligenza Artificiale”, si basa proprio sull’idea pseudo-scientifica che sia possibile,  non solo il superamento dei limiti legati alla nostra biologia (R. Kurzweil, The Singularity Is Near: When Humans Transcend Biology, Viking Press, 2005), ma anche  una vera e propria  fusione uomo-macchina (R. Kurzweil, The Singularity Is Nearer: When We Merge with AI, Penguin Books, 2024), la quale ci permetterebbe di totalmente prescindere dai (fastidiosi) limiti legati alla nostra biologia: in primis (ed anche in  secundis) dalla necessaria ed inevitabile morte biologica del nostro organismo. Sgradevole circostanza, tuttavia facilmente superabile, secondo questa impostazione di pensiero, attraverso una sorta di upload del contenuto del nostro cervello alla “macchina”.

Ferraris sottolinea invece come la nostra  pelle sia: 

«involucro vivente di un organismo volente, quella che si vuol vendere cara, al prezzo più alto possibile (…) un impasto di sangue, sudore e lacrime che nessuna macchina potrà né vorrà mai imitare» (Cit. p. 15).

Della stupidità umana e dell’inevitabile paura della morte 

In fin dei conti, il problema è probabilmente uno ed uno soltanto: la nostra inevitabile paura della morte. Che, secondo quanto ci spiega Ariés (P. Ariés, Storia della morte in Occidente, Rizzoli, 1998), è ancora maggiore nella nostra società tecnologica (è divenuta un  vero e proprio tabù, che si preferisce allontanare e negare).  

A questo proposito concordo  dunque pienamente con Ferraris quando afferma che:

«il timore o la speranza nella Singolarità è una illusione anche più grande, e ingenua, che l’Inferno o il Paradiso» (Cit. p. 250). 

La fiducia illimitata  che riponiamo nelle “meraviglie dell’Intelligenza Artificiale” (e tecnologie affini) rientra necessariamente in questa linea di ragionamento. O, potremmo dire, in questo tipo di approccio al fastidioso problema della necessaria finitezza della vita umana. Problema che autori transumanisti come Max More e Natasha Vita More (M. More, N. Vita-More, The Transhumanist Reader. Classical and Contemporary Essays on the Science, Technology, and Philosophy of the Human Future, Wiley-Blackwell, 2013)  affrontano alla loro maniera, al pari di Nick Bostrom, nei suoi scritti (N. Bostrom, Superintelligence: Paths, Dangers, Strategies, Oxford University Press, 2016) e con le ricerche portate avanti dal suo Future of Humanity Institute, istituito nel 2005 presso l’Università di Oxford. 

In questo contesto, non posso non menzionare  le (a mio parere false) promesse legata alla crionica (o criogenesi) - una  tecnica messa a punto da Robert Ettinger, che è anche il fondatore del  Cryonics Institute  - con lo scopo  di preservare esseri umani legalmente morti a temperature inferiori a −120 °C, nella speranza di farli rivivere in futuro. Con la possibilità, peraltro,  di scegliere se avere tutto il corpo crioconservato o solo la testa (il che costa meno, ovviamente). In entrambi i casi, una volta completato il processo di raffreddamento e vetrificazione, il corpo e/o il cervello vengono sigillati in una grande vasca di azoto liquido ad una temperatura di −196 °C, e crioconservati.

Anche la Alcor Life Extension Foundation, un'organizzazione no profit statunitense nata nel 1972 con sede a Scottsdale in Arizona, porta avanti la  ricerca inerente alla crionica. E ci sono al momento varie società attive nella criogenesi, fra cui una ben nota società russa.

Farsi crioconservare può costare, ad oggi, fra i 40.000 (pacchetto base) e i 200.000 Euro[2].

Coscienza (e paura) della morte: una prerogativa solo umana?

Che cosa ci muove/ci anima, rendendoci così peculiari rispetto agli altri animali? Nella visione di Ferraris si tratta della: 

«certezza della fine, e la credenza di poterla differire un poco (…) con il racconto, come Shahrazād con il suo sultano, con i miti di morte e resurrezione di Iside e Osiride, di Dioniso, di Cristo, o con le imprese di Maradona e di Glenn Gould, e di tutti coloro che, vincendo ad Austerlitz o esibendosi in concerti, lasciando degli eredi, comprando delle case, e persino scrivendo libri, hanno cercato di non morire interamente» (Cit. p. 249). 

Si tratta del ben noto Non omnis moriar di Orazio nelle Odi (riferito all’idea di immortalità della sua opera poetica - Hor. Carm. III 30).

Nel ragionare intorno alla morte, e alla questione inerente alla presenza o assenza di coscienza della stessa negli animali non umani, occorre tuttavia non peccare di  antropocentrismo. Come mette bene in evidenza Christine Webb, nota primatologa di Harvard, in un interessante saggio che contesta l'eccezionalismo intellettuale umano, e lo fa con un'ampia (ed assai interessante) esplorazione di esempi di intelligenza non umana (C. Webb, The Arrogant Ape: The Myth of Human Exceptionalism and Why It Matters, Avery,  2025).

Studi recenti contestano, in effetti, la tesi della maggior parte dei filosofi che hanno discusso la relazione degli animali con la morte, dando per scontato che solo gli esseri umani possano comprendere questa nozione; e dimostrando, invece, che anche gli animali hanno una forma coscienza della loro “finitezza”. In particolare Susana Monsó (S. Monsó, How to Tell If Animals Can Understand Death, in Erkenntnis, 2022, p. 117 ss.) osserva come il concetto di morte non possa essere inteso in senso meramente binario: possedere un concetto di morte non è un tutto o niente, ma e piuttosto qualcosa di  soggetto a gradazione (e questo vale anche per gli esseri umani!):

«Ciò appare evidente se consideriamo il caso dei bambini,  che non acquisiscono il concetto di morte da un giorno all'altro. In effetti, il consenso scientifico è che impiegano in media 10 anni per padroneggiare appieno il concetto di morte (…), ma attribuiamo loro una certa comprensione della morte già prima che raggiungano questa fase»[3].

Sicché, ci dice Monsó, se accettiamo questa “gradazione” nel livello di  consapevolezza della morte per i bambini, dobbiamo necessariamente accettarla anche per gli animali.  Inoltre, l’autrice ci mette in guardia sul fatto che  dobbiamo essere consapevoli del fatto che, anche per gli esseri umani,  vi sono diverse concezioni della morte, che oscillano fra un minimo ed un massimo.

Portando sino alle estreme conseguenze il ragionamento di cui sopra, non mi pare dunque che si possa neppure escludere che, a questa consapevolezza della morte da parte  degli animali non umani, possa corrispondere anche  una forma di paura intesa in termini di “capacità di anticipazione”.

Che cosa significa, dunque, essere intelligenti (anche all’epoca dell’I.A.)? 

Osserva Ferraris nell’incipit del suo libro che:

«Ai computer manca la volontà, dunque non prendono alcuna iniziativa, e ci vuole sempre un umano che li attivi con un prompt» (Cit. p. 1). 

Ancora:

«Dunque, e questa è la mia tesi fondamentale, le volizioni, prima ancora che le emozioni, sono ciò che, nel profondo, distingue l’intelligenza naturale dalla sua sorellastra artificiale, che quando pure divenisse capace di riprodurla alla perfezione, o di superarla (in molti casi è già così, e dai tempi della carta e della matita), lo farebbe solo come un’imitazione difettosa della forma di vita umana. E difettosa perché difettiva proprio della volontà, che nella vita umana (così come nella vita degli organismi in generale) esercita, come spero di dimostrare, una sovranità assoluta» (Cit. p. 10).

Questa capacità di esercitare “sovranità” cui l’A. fa riferimento  è successivamente collegata al nesso tra potere e libertà. Egli infatti osserva come la libertà sia il più grande potere:

«il potere assoluto, che tutte le forze politiche e sociali cercano di limitare, a volte legittimamente (regole per la divisione dei poteri, ossia delle libertà), altre volte illegittimamente (revoca delle libertà nei regimi totalitari)» (Cit. p. 265).

Ma, avverte: 

«ricordiamo sempre che la libertà è una forza che in quanto tale va necessariamente regolata, pena la guerra di tutti contro tutti» (Cit. p. 266)

Che cosa può dunque significare, per gli animali umani, essere intelligenti all’epoca dell’intelligenza artificiale? 

A mio parere, la risposta può essere cercata e trovata solo nel  necessario nesso fra potere e libertà, ed in relazione al fine: quel fine che noi stessi, come esseri umani, siamo  in linea di principio in  grado di  assegnarci. O  che, altrimenti, ci facciamo assegnare da altri.  Il che avviene, da una prospettiva squisitamente giuspubblicistica, tutte le volte in cui  rinunciamo ad esercitare la sovranità, nei modi e nelle forme in cui la esercita il popolo (e ciascuno di noi) nelle moderne democrazie parlamentari di stampo liberale. 

Dobbiamo dunque avere paura dell’IA? 

Per rispondere  a questa domanda, vorrei a questo punto introdurre al lettore  la inquietante figura  di Zoltan Istvan, che nell'autunno del 2015 ha girato gli Stati Uniti con un Blue Bird Wanderlodge del 1978, modificato in modo da conferirgli l'aspetto di una bara gigantesca.

Istvan aveva essenzialmente due obiettivi: 1) denunciare il fatto deplorevole della mortalità umana e la necessità di fare qualcosa al riguardo; 2) annunciare la sua candidatura alle elezioni presidenziali del 2016, come candidato del “partito transumanista”. 

Non gli è andata bene. Ma ci ha riprovato nel 2020, quando ha tentato la candidatura per il Partito Repubblicano, sfidando internamente il presidente uscente Donald Trump nelle primarie.

Più recentemente, nell'aprile 2025, Istvan ha annunciato la sua intenzione di candidarsi come Governatore della California per le elezioni del 2026, questa volta nelle file del Partito Democratico.  Ma non esclude di ricandidarsi pure per le elezioni presidenziali, per la terza volta, nel 2028. Ancora non si sa con che partito, ma mi pare ovvio  con quale programma principale: sconfiggere la morte tramite la fusione uomo-macchina, la creazione del vero Cyborg, l’uomo potenziato grazie all’IA o Superintelligenza o tecnologia quantistica o qualsiasi altra diavoleria tecnologica  che il futuro possa mettere a nostra disposizione (M. O’Connell, To Be a Machine. Adventures among Cyborgs, Utopians, Hackers, and the Futurists Solving the Modest Problem of Death, Granta Books, 2017, passim).

Non è dunque dell’intelligenza artificiale che dobbiamo avere paura, ma della stupidità umana nel  servirsi di tecnologie che, come tali, sono neutre: non sono cioè, in sé, né buone né cattive. Sono solo uno strumento a nostra disposizione. Uno strumento come tutti quelli di cui abbiamo fatto uso nel corso della storia, come ben ci ricorda Ferrari nel capitolo terzo del suo libro, quello sulla  c.d.  “mente attrezzata”.  Ove egli  giustamente osserva come:

«In realtà, attrezzati, fosse pure solo di un bastone, lo siamo sempre stati, e a far problema non è la tecnologia, bensì la rapidità del cambiamento»;  e si (e ci domanda) come si possa fare per  governarlo, questo cambiamento (Cit. p. 125). 

E  sottolinea che:

«Le imperfezioni dell’animale umano, così debole, lento, svantaggiato, sono quelle che determinano lo sviluppo della tecnica, della cultura e della società a livelli impensabili presso altre forme di vita» (Cit. p. 126 s.). 

Secondo l’opinione di Ferraris, dunque: 

«L’umano è costitutivamente, e sin dall’inizio, postumano: cioè un organismo originariamente modificato da meccanismi che sopravanzano la natura» (Cit. p. 126). 

Ancora:

«L’umano nasce imperfetto, tardivo, sradicato e imbecille, e medica i propri difetti (o almeno ci prova) attraverso il supplemento tecnico» (Cit. p. 127).

Sicché, ci avverte: 

«La tecnica può certo essere il veleno, ma è anzitutto il rimedio. Se non è definito dall’interno, dalla guida monotona ma sicura di un istinto, l’umano riceve forma dal di fuori, dalle istituzioni, dal mondo dello spirito e dalla lista dei supplementi che acquisisce» (Cit. p. 161). 

Ancora: 

«La coscienza non nasce come un fungo, ma discende dal linguaggio e dalla educazione, dai riti e dalle biblioteche» (Cit. p. 177).

Mettiamo  ora insieme tutte queste riflessioni di Ferraris, dettate dal suo approccio  prettamente storico-filosofico, con le più recenti scoperte dei neuroscienziati. I quali hanno dimostrato la totale plasticità del nostro cerebro;  e come i neuroni si possano addirittura “riconvertire”. 

Possiamo, cioè,  usare neuroni “nati” per fare una cosa per farne un’altra. Il che  porta, nella sua accezione più negativa,  all’iperspecializzazione di quelli che possiamo ironicamente definire come “Fachidioten[4]: i superesperti di una singola faccenda, che usano praticamente tutti i neuroni a loro disposizione per fare al meglio quella singola cosa, e divengono dunque alla lunga incapaci (o quasi) di fare e/o comprendere altro. Ma, in una lettura invece positiva, questa  estrema plasticità del nostro cerebro è anche la ragione per cui, anche chi  avesse  subito un incidente neurologico grave, con distruzione di parte del cerebro, potrebbe “recuperare”: è la storia, ad esempio, di Cameron Mott e di come il suo cervello si è “riprogrammato”,  a seguito di un’operazione chirurgica con cui gliene avevano asportato la metà, per potere rimediare ai danni provocati da una grave e rara malattia (encefalite di Rasmussen), che le causava crisi epilettiche gravissime che avrebbero condotto alla paralisi progressiva, e poi alla morte. 

Come ben spiega infatti David Eagleman (D. Eagleman, The Brain: The Story of You, Canongate Books Ltd, 2016), il cervello è dunque fondamentalmente diverso dall'hardware nel nostro computer.  Si tratta di "liveware", capace di riconfigurare i propri circuiti. E sebbene il cervello adulto non sia flessibile come quello di un bambino, conserva comunque una sorprendente capacità di adattamento e cambiamento. Infatti, ogni volta che impariamo qualcosa di nuovo, il cervello cambia se stesso. Ed è  proprio questa proprietà del cervello (la sua plasticità) che consente questo essenziale “matrimonio tra la nostra tecnologia e la nostra biologia” («marriage between our technology and our biology»)   cui fa più volte riferimento Eaglemann nel suo volume. 

Quali conclusioni? 

Nel  primo capitolo del suo libro Ferraris osserva come

 «lo spirito del tempo – non di chi twitta le analisi, ma di chi le legge – è dominato dalla paura» (Cit. p. 23).  

Sottolinea tuttavia come, a suo parere, il rischio non sia 

«né la Singolarità né la disumanizzazione, bensì la Moltitudine, l’umanità con le sue inesauribili cattive idee e la sua numerosità. Ci sono miliardi di umani sul pianeta, e costoro (cioè noialtri), in quanto organismi, sono dotati di volontà e portati al dominio, all’aggressione, alla paura, oltre a rivelarsi beatamente inclini all’ignoranza e inquietamente rosi dal risentimento» (Cit. p. 36).

Il passaggio in cui Ferraris sottolinea come «Non ci sarà mai un potere della tecnica sul mondo: una motosega non ha la più pallida idea di che cosa sia abbattere un albero, figuriamoci poi se ha voglia di farlo» (Cit. p. 31) unito ad un altro passaggio del libro, in cui ci ricorda che sono gli organismi, umani o animali,  che «hanno bisogni, desideri, timori, dunque possono, ad esempio, aspirare al potere» (Cit. p. 61) mi pare la perfetta sintesi del problema.  

Se aggiungiamo a questo l’osservazione (ampiamente condivisibile) che «l’umano è notoriamente poco amico della morale (come ci insegnano apparati tecnici quali le serrature e i sistemi di allarme, e istituzioni come la polizia e i penitenziari» (Cit. p. 41), ecco che si giunge alla chiusura del cerchio.

Concordo dunque certamente con  Ferraris che il rischio non è la c.d. infocrazia (Byung-Chul Han, Infocrazia, Einaudi, 2022). Né le c.d. postverità, che come tali  sono sempre esistite nella storia dell’umanità. Il rischio è, a mio parere, di cullarci in quella che Jonathan Glover, nel suo bellissimo (ed inquietante) saggio del 2012  (J. Glover, Humanity.  A Moral History of the Twentieth Century, Yale University Press, 2012) efficacemente  definisce come l’illusione del “progresso morale” dell’umanità. Glover osserva infatti  che, se all’inizio del XX secolo si poteva ancora  credere nel progresso morale ed immaginare che  la  cattiveria e la barbarie umana fossero oramai recessive, già alla fine del secolo risultava assai difficile avere fiducia nella c.d. “legge morale” e nel progresso morale dell’umanità. 

A maggior ragione risulta difficile oggi, in un momento storico caratterizzato da numerose guerre di aggressione,  instabilità politica e, più in generale, da quello che è stato efficacemente descritto come «un abbruttimento dei rapporti tra persone e tra Stati»[5]

E qui vale la pena di citare nuovamente il libro di Ferraris: 

«una macchina non tende verso qualcosa; semmai, è programmata per farlo» (Cit. p.  256). 

Sicché,  mi permetto  a questo punto di dire, se vogliamo evitare catastrofi (ulteriori) legate ad un cattivo uso degli strumenti di I.A. (e tecnologia affini),  è forse giunto il  momento per i filosofi di  mettersi da parte, smettendo di monopolizzare il dibattito sul tema, per lasciare la palla ai giuristi: che sono  chiamati a svolgere un  ruolo essenziale  nel definire che cosa “la macchina” deve poter fare. E deve NON poter fare.  In termini di obblighi giuridici veri e propri, cioè,  e non di meri suggerimenti guidati  dall’etica o dalla morale. 

A fronte, cioè,  dei troppi dubbi e domande che solleva l’uso delle ICT nell’epoca moderna, sono e resto profondamente convinta della necessità di risposte che devono venire non dalla filosofia, o dall’etica pubblica (che ha assunto oramai una dimensione di semplice morale individuale), ma  dal mondo del diritto. 

Il diritto, in quanto «arte della convivenza civile» (F. Viola, Il diritto come arte della convivenza civile, in Rivista di filosofia del diritto, 2015/1, p. 57 ss.)  deve essere in grado di  stabilire i criteri, di porre dei limiti alle applicazioni possibili della scienza a qualsiasi ambito: sia esso la medicina, la psichiatria, o la  scienza della guerra (…).  E questo vale necessariamente (e direi,  a fortiori) per l’utilizzazione di tecnologie come l’intelligenza artificiale.

Men che meno credo nell’autoregolazione: l’idea che imprese private, naturalmente (e fisiologicamente) orientate al profitto,  si autoimpongano dei  limiti per il benessere collettivo non mi ha mai convinta;   e non vedo in che modo si possa pensare che queste riflessioni non trovino applicazione anche (e soprattutto) nel mondo ipercompetitivo delle ICT[6]: è ben noto, ad esempio,  che gli investimenti immensi  che sono necessari per sviluppare sistemi di I.A. “generalisti” in grado di ben funzionare  rischiano di non garantire un ritorno negli investimenti stessi, con tutte le conseguenze del caso.  ChatGPT, ad esempio, è un prototipo di chatbot (agente conversazionale) fondato su un framework di Machine Learning Artificial Intelligence sviluppato da OpenAI, in cui persino Microsoft ha investito oltre 10 miliardi di dollari. Mistral AI, la risposta francese a OpenAI, ha investito circa 12 miliardi di euro per sviluppare modelli di I.A. che possano competere con ChatGPT. E gli esempi potrebbero ovviamente moltiplicarsi.

Non è, cioè, di principi etici che abbiamo ora bisogno, ma di norme giuridiche idonee. Perché il fatto che gli esseri umani siano sempre “moralmente imperfetti” implica che anche i nostri processi decisionali sono  originariamente viziati da questa nostra imperfezione, che potrebbe essere semplicemente trasferita in procedimenti decisionali automatizzati o semi-automatizzati per il tramite di algoritmi capaci di produrre un “effetto moltiplicatore” (di errori umani inevitabili)[7].

E qui mi fermo, perché questa è invece la mia tesi di fondo, quella   di cui ho già scritto e riscritto, e  richiamando la quale mi permetto dunque di concludere anche le mie odierne riflessioni.

 


 

NOTE:

[1] Cfr. da ultimo  D.U. Galetta, Artificial Intelligence and Public Administration: A Journey, Editoriale Scientifica, 2025.

[2] Per info al riguardo, oltre alla informazioni reperibili suo sito del Cryonics Institute, si veda al seguente link: https://www.onoranzefunebrilamadonnina.com/blog/ibernazione-umana-e-criogenia-come-funzionano/.

[3] «This becomes clear once we consider the case of human children, who do not acquire a concept of death overnight. In fact, the scientific consensus is that it takes them an average of 10 years to fully master the concept of death (…) but we credit them with some understanding of death before they reach this stage», p. 121. Traduzione mia.

[4] Termine in uso nella lingua tedesca e praticamente intraducibile in italiano: il vocabolario suggerisce la traduzione in inglese con “nerd”. La traduzione letterale sarebbe "idiota del settore/materia".

[5] Così M. Gramellini nel Corriere della Sera del 4 marzo 2026, “Bombe, tende e cappellini”, https://www.corriere.it/caffe-gramellini/26_marzo_04/bombe-tende-cappellini-a302a9fb-b9a2-4ad3-906e-66b0a6056xlk.shtml.

[6] Cfr. F.C. Zacharias, The Myth of Self-Regulation, in Minnesota Law Review, 2009, p. 1147 ss.

[7] Cfr. D.U. Galetta, La decisione amministrativa algoritmica discriminatoria: ragioni e rimedi possibili (fra diritto amministrativo nazionale e diritto UE), in G.P. Ruotolo, A. Stiano (Eds.), Discriminazioni automatiche. Come il diritto può aiutare l’intelligenza artificiale e viceversa, Giappichelli, 2026, p. 158 ss.

 

RIFERIMENTI BIBLIOGRAFICI:

P. Ariés, Storia della morte in Occidente, Rizzoli, 1998

B. C. Han, Infocrazia, Einaudi, 2022

J. Barrat, Our Final Invention: Artificial Intelligence and the End of the Human Era, Thomas Dunne Books, 2013

N. Bostrom, Superintelligence: Paths, Dangers, Strategies, Oxford University Press, 2016

C.M. Cipolla, Le leggi fondamentali della stupidità umana, Il Mulino, 2015

D. Eagleman, The Brain: The Story of You, Canongate Books Ltd, 2016

M. Ferraris, La pelle: Che cosa significa pensare nell’epoca dell’intelligenza artificiale, Il Mulino, 2025

D.U. Galetta, AI and Public Administration: A Journey,  Editoriale Scientifica, 2025

D.U. Galetta, La decisione amministrativa algoritmica discriminatoria: ragioni e rimedi possibili (fra diritto amministrativo nazionale e diritto UE), in G.P. Ruotolo, A. Stiano (Eds.), Discriminazioni automatiche. Come il diritto può aiutare l’intelligenza artificiale e viceversa, Giappichelli, 2026, p. 158 ss.

J.  Glover,   A Moral History of the Twentieth Century, Yale University Press, 2012

R. Kurzweil,The Singularity Is Near: When Humans Transcend Biology, Viking Press, 2005

R. Kurzweil,The Singularity Is Nearer: When We Merge with AI, Penguin Books, 2024

M.G. Losano, Per un diritto compatibile con l’elaborazione elettronica, in Id, Corso di informatica giuridica, volume 2, Unicopli, 1981, p. 319 ss.

M.G. Losano, Introduzione, in R. Cavallo Perin, D.U. Galetta (Eds.), Il Diritto dell’Amministrazione Pubblica digitale, Giappichelli, Torino, 2nd ed., 2025, p. XXV ss.

J. McCarthy, What is Artificial Intelligence?, Nov-Dec. 2007, at https://web.archive.org/web/20131215190713/http://www-formal.stanford.edu/jmc/whatisai.pdf

S. Monsó, How to Tell If Animals Can Understand Death, in Erkenntnis, 2022, p. 117 ss.

M. More, N. Vita-More, The Transhumanist Reader. Classical and Contemporary Essays on the Science, Technology, and Philosophy of the Human Future, Wiley-Blackwell, 2013

M. O’Connell, To Be a Machine. Adventures among Cyborgs, Utopians, Hackers, and the Futurists Solving the Modest Problem of Death, Granta Books, 2017

R. Pally, The Mind-Brain Relationship, Routledge, 2018

F. Viola, Il diritto come arte della convivenza civile, in Rivista di filosofia del diritto, 2015/1, p. 57 ss.

C. Webb, The Arrogant Ape: The Myth of Human Exceptionalism and Why It Matters, Avery,  2025


Ius affectus: il diritto di sentirsi parte

CITTADINANZA AFFETTIVA: APPARTENENZA, DIRITTI E INTIMITÀ POLITICA

Nel dibattito pubblico contemporaneo, la cittadinanza è spesso ridotta a una questione formale: un documento, uno status giuridico, un insieme di diritti e doveri riconosciuti dallo Stato. Eppure, questi aspetti sono insufficienti a cogliere la complessità delle esperienze concrete di appartenenza. Essere cittadini non significa “avere” una cittadinanza (come status), ma sentirsi parte di una comunità, essere riconosciuti, partecipare emotivamente alla vita collettiva.

La cittadinanza, in questa prospettiva, non è solo una condizione amministrativa, ma una pratica quotidiana che intreccia dimensioni giuridiche, relazionali e affettive. È in questo spazio ibrido tra pubblico e privato che si colloca il concetto di cittadinanza affettiva.

OLTRE LO STATUS: LA CITTADINANZA COME APPARTENENZA VISSUTA

La cittadinanza può essere distinta, in modo analitico, tra una dimensione formale e una dimensione vissuta. Da un lato, vi sono le regole giuridiche che, facendo coincidere la cittadinanza con la nazionalità, stabiliscono se si è o non si è cittadini; dall’altro, vi è l’esperienza concreta dell’appartenenza, costruita attraverso relazioni, riconoscimento e affetti che diamo e riceviamo.

Queste due dimensioni non coincidono necessariamente e, anzi, sono fonte di molte frizioni e contrasti. È possibile essere cittadini sul piano giuridico ma rimanere esclusi sul piano concreto, così come è possibile non avere uno status formale e tuttavia essere riconosciuti come membri legittimi di una comunità. La cittadinanza, in questo senso, è un processo dinamico, continuamente negoziato nelle interazioni quotidiane.

Questa dimensione della cittadinanza, che possiamo chiamare cittadinanza affettiva (Lampredi, 2024), cittadinanza intima (Plummer, 2003) o in molti altri modi, mette in luce proprio questo livello “sommerso” dell’appartenenza: i legami emotivi, le responsabilità reciproche, le forme di cura e di solidarietà che rendono possibile il sentirsi parte di un “noi”. Appartenere, dunque, non è solo una questione di diritti riconosciuti, ma di relazioni vissute, di fiducia, di prossimità e di coinvolgimento.

IUS AFFECTUS: OLTRE IL DIBATTITO TRA IUS SANGUINIS, IUS SOLI E IUS SCHOLAE

Nel contesto italiano ed europeo, il dibattito sulla cittadinanza si è spesso concentrato su criteri giuridici alternativi allo ius sanguinis, come lo ius soli e lo ius scholae. Queste proposte mirano ad ampliare l’accesso formale alla cittadinanza, riconoscendo in particolare il radicamento territoriale e formativo delle persone. Ottenere la cittadinanza formale resta un passaggio fondamentale per garantire diritti e protezioni istituzionali, ma da sola non assicura inclusione e riconoscimento.

La cittadinanza affettiva, o ius affectus, è un aspetto imprescindibile, poiché l’inclusione e il benessere sociale non si esauriscono nel mero possesso di uno status, ma richiedono un lavoro continuo di cura e di coltivazione dei legami. Senza la promozione attiva delle qualità emotive delle relazioni, anche le riforme più avanzate e progressiste rischiano di restare vuote.

CITTADINANZA E CURA: I DIRITTI NASCONO DAL BASSO

Un elemento centrale della cittadinanza affettiva è il ruolo della cura come pratica politica. Prendersi cura degli altri, soprattutto di chi è escluso o marginalizzato, non è solo un gesto morale, ma un atto capace di ridefinire diritti e responsabilità. Gli atti di cura possono configurarsi come veri e propri atti di cittadinanza (Isin e Nielsen, 2008), capaci di trasformare i confini dell’inclusione. Attraverso il coinvolgimento concreto, si producono nuove forme di appartenenza e diversi modi di intendere il “noi”. Queste pratiche mostrano come la cittadinanza non sia solo concessa dall’alto, ma anche costruita dal basso. La solidarietà, l’ospitalità e l’impegno civico quotidiano generano spazi di riconoscimento che spesso anticipano o sfidano le norme istituzionali.

INTIMITÀ POLITICA: LA CITTADINANZA COME ESPERIENZA PERSONALE

Il concetto di cittadinanza affettiva si pone in dialogo con l’idea di “intimate citizenship” elaborata da Ken Plummer (2003), che mette in luce il modo in cui decisioni e relazioni intime diventano oggetto di dibattito pubblico e di regolazione politica.

Scelte apparentemente private, che riguardano la sessualità, il corpo, la famiglia, il fine vita, la spiritualità e l’educazione, assumono una rilevanza politica quando entrano in conflitto con norme, confini e gerarchie sociali. In questa prospettiva, partecipare alla vita pubblica significa anche esporsi emotivamente, mettere in gioco la propria biografia, intrecciare la propria storia con quella degli altri. Le emozioni, lungi dall’essere un residuo privato, diventano risorse fondamentali per la costruzione di solidarietà, conflitto e cambiamento sociale.

CONCLUSIONE: LA CITTADINANZA VISSUTA

La cittadinanza affettiva, o ius affectus, invita a superare una visione riduttiva della cittadinanza come status formale. Essa restituisce alla cittadinanza la sua natura relazionale, conflittuale e intimamente vissuta. Essere cittadini significa non solo godere di diritti, ma partecipare emotivamente alla costruzione di una comunità, assumersi responsabilità, prendersi cura degli altri. Anche quando entra in dialogo con lo ius soli e lo ius scholae, questa prospettiva mostra che l’inclusione non è mai solo una questione giuridica, ma anche intima e affettiva. E, in sintonia con l’idea di cittadinanza intima, rivela come le questioni pubbliche attraversino le vite personali, trasformando l’esperienza privata in spazio politico. La cittadinanza, in definitiva, non è solo qualcosa che si possiede. È qualcosa che si pratica, si sente e si costruisce ogni giorno, nelle relazioni che rendono possibile abitare insieme il mondo.

 


 

RIFERIMENTI BIBLIOGRAFICI

Isin, E. F., & Nielsen, G. M. (a cura di). (2008). Acts of citizenship. Bloomsbury Publishing.

Lampredi, G. (2024). La cittadinanza affettiva. Attivismo, cura, solidarietà. Orthotes Editrice.

Plummer, K. (2003). Intimate citizenship: Private decisions and public dialogues. University of Washington Press.