Il contratto sociale digitale - Seconda parte

Da diversi anni mi occupo di analizzare i fenomeni che governano la fluttuazione dei numeri di due metriche tipiche dei profili social network: i follower (chi ci segue) e i following (chi seguiamo).

Se possediamo un profilo social, possiamo essere entrambe le forme. Come noi, chi ci segue (il follower) è a sua volta qualcuno che segue (azione del “following”) e il nostro profilo può dunque essere suo “follower” e “followed by” da esso.

Non è però sempre scontato essere simultaneamente “seguiti” e “seguaci” in rapporto a un medesimo altro profilo utente. Possiamo essere i suoi follower ma non essere da esso followed by, e possiamo anche essere followed by ma non allo stesso tempo follower di questo.

Le dinamiche della reciprocità saranno al centro della ricerca che vi proporrò.

Nota: se ancora non l’avete fatto, vi invito a leggere qui il precedente articolo, in quanto propedeutico alla comprensione di questo e di quelli che seguiranno.
Ricorda: è altrettanto importante la lettura delle note.

-----

In questo articolo concentreremo le nostre analisi sulle strutture e sulle dinamiche che appartengono alle comunità sociali digitali senza vincolo di reciprocità.

Buona lettura.

 


 

Il “contratto sociale”[1] digitale

Nel precedente articolo abbiamo visto che tutti gli utenti dei social network, in quanto appartenenti a comunità (digitali), concorrono all’instaurarsi di forme di contratto sociale, di almeno due macro tipi: “con” e “senza” il “vincolo di reciprocità” tra gli utenti.

Prenderò qui in esame la piattaforma Instagram come esempio di contratto sociale senza vincolo di reciprocità.

Da qui ci potremo avviare, a partire dal prossimo articolo, a scoprire che il prestigio sociale di ciascun utente dipende dal posizionamento che esso ottiene all’interno del contratto sociale.

Instagram: il Follow e il contratto sociale senza vincolo di reciprocità (s.v.r.)

Il caso di Instagram vale come sufficientemente dimostrativo di questa meccanica del Follow e delle sue dinamiche, per tutte le altre piattaforme incentrate su di essa, come la celeberrima TikTok.

Diversamente dalla piattaforma Facebook, Instagram non fonda la possibilità di interazione sociale della propria comunità sull’esistenza di un rapporto di scambio reciproco vincolante tra utenti.

Su Instagram la meccanica del Follow è l’unica a muovere le dinamiche di connessione direzionale dei suoi utenti.

Il contratto sociale di Instagram è unidirezionale, ossia permette agli utenti di diventare follower altrui non vincolando i profili da loro followed by a contraccambiare automaticamente con il cosiddetto “follow back[2].

L’azione del “seguire” un profilo è una libera scelta dell’utente, mentre il soddisfacimento delle aspettative di un contraccambio rimangono estranee al contratto sociale digitale.

In questa forma di contratto infatti, chi viene “seguito”, è libero di scegliere se diventare a propria volta un follower del proprio nuovo “seguace”.

Ogni forma di reciprocità, di restituzione e contraccambio sarà dunque un’azione rimessa alla volontà e alla responsabilità individuale.

La forma della reciprocità non è regolata o in alcun modo indirizzata dal contratto sociale che si instaura nelle comunità sociali digitali, le cui dinamiche sono rese possibili dalla sola meccanica del Follow.

Per sua natura, la meccanica del Follow non è dotata di vincolo di reciprocità, che abbiamo visto essere invece alle fondamenta della Richiesta di amicizia di Facebook[3].

In conclusione, dove la meccanica del Follow si instaura come fondante e strutturale di una piattaforma sociale digitale, non è automaticamente necessario che il medesimo utente possa essere simultaneamente follower e followed by in rapporto a uno stesso altro profilo. La reciprocità deriva da una responsabilità esterna alla piattaforma sociale: è una decisione regolata individualmente.

Il Follow e Facebook

Per quanto riguarda la piattaforma Facebook, la possibilità di essere anche solo follower di profili utente è stata aggiunta solo anteriormente alla sua creazione[4]. In essa, la meccanica del follow è tuttora non vincolante né essa è la principale via percorribile per stabilire una connessione[5].
Essa è stata, in questo caso, mutuata storicamente dal sistema già esistente delle “Pagine Facebook”, il quale si sorregge sulla libera adesione di interesse dell’utente ai contenuti ivi presenti ed erogati.

Va poi notato che, sempre per quanto riguarda Facebook, la meccanica del Follow è stata definitivamente implementata in seguito all'acquisizione che questa azienda ha fatto della piattaforma Instagram, nella quale questa meccanica è invece strutturalmente portante e alle basi della costruzione della propria comunità sociale digitale.

Se dunque il Follow è compreso ma non strutturale per Facebook, che abbiamo visto fondarsi sulla meccanica dell’Amicizia, nel caso di Instagram esso è proprio alle fondamenta della sua piattaforma sociale, e dunque anche caratterizzante il suo “contratto sociale”.

 


NOTE:

[1] Per l’utilizzo di questo termine e per approfondimenti sul tema, rimando al precedente articolo: qui.

[2] Sulla piattaforma sociale digitale di Instagram non vi è meccanica atta a garantire l’utente follower di essere automaticamente followed by e dunque che vincoli il followed by a diventare a sua volta follower dei propri follower.

[3] Lo abbiamo visto nel primo articolo: qui.

[4] La funzione "seguire" per i profili privati di Facebook è stata introdotta il 14 settembre 2011. Inizialmente, questa funzionalità era stata lanciata con il nome di "Iscriviti" (Subscribe). Solo successivamente, nel dicembre 2012, Facebook ha deciso di rinominare il pulsante in "Segui" (Follow) per uniformarsi alla terminologia già popolare su altre piattaforme social come Twitter e Instagram.
La meccanica del follow di Facebook permette agli utenti di vedere gli aggiornamenti pubblici di persone che non sono nella loro lista di amici. Probabilmente l’esigenza di introdurre questa meccanica è nata per permettere a profili particolarmente famosi di superare il limite massimo di 5000 amici possedibili. Certo è che Facebook avrebbe comunque potuto aumentare questo limite. Potrebbe anche questo limite concorrere al mantenimento di un sistema del prestigio sociale digitale? A voi la risposta.

[5] Sulla definizione che adotto per i termini “connessione” e “collegamento”, si veda l’articolo precedente: qui.


Il contratto sociale digitale - Prima parte

Da diversi anni mi occupo di analizzare i fenomeni che governano la fluttuazione dei numeri di due metriche tipiche dei profili social network: i follower (chi ci segue) e i following (chi seguiamo).

Se possediamo un profilo social, possiamo essere entrambe le forme. Come noi, chi ci segue (il follower) è a sua volta qualcuno che segue (azione del “following”) e il nostro profilo può dunque essere suo “follower” e “followed by” da esso.

Non è però sempre scontato essere simultaneamente “seguiti” e “seguaci” in rapporto a un medesimo altro profilo utente. Possiamo essere i suoi follower ma non essere da esso followed by, e possiamo anche essere followed by ma non allo stesso tempo follower di questo.

Le dinamiche della reciprocità saranno al centro della ricerca che vi proporrò.

Nota: al fine di comprendere meglio lo scenario in cui ci muoveremo è necessaria la lettura delle note.

Buona lettura.

 


 

Il “contratto sociale”[1] digitale

Tutti gli utenti dei social network, in quanto appartenenti a comunità a tutti gli effetti, a prescindere dal proprio grado di coinvolgimento, accettano, concorrono e alimentano forme di contratto sociale. Le forme di questo o di quel contratto sono vincolate alle meccaniche specifiche delle piattaforme digitali in cui si sviluppa e popola la rete sociale di appartenenza.

Di queste forme del contratto sociale digitale ne esistono di due macro tipi: “con” e “senza” il “vincolo di reciprocità” tra utenti che stabiliscono connessioni con profili altrui.

Come vedremo nei futuri articoli, è proprio dal posizionamento all’interno del contratto sociale che dipende il prestigio sociale di ciascun utente.

Prenderò qui in esame la piattaforma Facebook come esempio di contratto sociale con vincolo di reciprocità.

Facebook e la forma dell’Amicizia

Storicamente essa si fonda sulla “Amicizia”, una forma di collegamento “diretto e reciproco”[2] tra utenti[3]. La meccanica specifica di connessione[4] tra profili è quella della “Richiesta di amicizia” tra due profili utente unici[5]. Il primo profilo è quello che definiamo “richiedente”, ossia un utente che promuove la richiesta di contatto[6] al secondo profilo, che chiameremo “ricevente”.

Con questa richiesta, il primo chiede al secondo di entrare nella sua “Lista degli amici”. Il collegamento si stabilirà tramite l’accettazione della richiesta di amicizia da parte del ricevente.

Il “contratto sociale” digitale con vincolo di reciprocità

La meccanica di attivazione di questo collegamento dell’Amicizia è bidirezionale, ossia legata indissolubilmente al principio di reciprocità. Una volta accettata la richiesta, il richiedente e il ricevente si riconoscono obbligatoriamente il privilegio reciproco di entrare nella rispettiva Lista degli amici.

Questa “entrata tra gli amici” permette a entrambi di incrementare di una unità il numero dei propri “Amici”, oltre che di poter accedere alle informazioni e ai contenuti condivisi da ciascuno in esclusiva per i propri Amici.

La reciprocità anche nella rimozione

Qualora uno dei due utenti volesse estromettere l’altro dalla propria Lista degli amici, può sì rimuoverlo da questa.

L’azione di “rimozione” rientra anch’essa in una meccanica bidirezionale: rimuovendo un amico dalla propria lista, entrambi gli “ex amici” perderanno ciascuno un “amico” sotto l’aspetto quantitativo numerico. Se chi ha rimosso prima aveva 1000 amici, ora ne avrà 999, e di conseguenza accadrà all’altro di trovarsi un amico in meno. Ovviamente la rimozione causa anche la cessazione dei relativi privilegi di accesso all’informazione altrui, che questo contratto sociale permette.

L’aspetto quantitativo della connessione (anticipazioni)

Per comprendere meglio lo scenario che ci si presenterà di fronte nel prossimo articolo, dobbiamo ricordare quest’ultimo fatto della reciprocità del contratto sociale di Facebook. 

Teniamo fermo l’aspetto del vincolo meccanico sotto l’aspetto quantitativo, ossia dell’acquisizione e della perdita di unità numeriche legate alle connessioni precedentemente stabilite.

L’aspetto quantitativo del “numero di connessioni possedute” è, quindi, uno dei valori alle fondamenta del prestigio sociale dei profili utente delle comunità sociali digitali.

Come inizieremo a vedere a partire dal prossimo articolo, esso è infatti il motore di diverse meccaniche, sia algoritmiche che “human-driven”, le quali permettono agli utenti di attuare strategie utili al miglioramento della propria presenza sulle piattaforme sociali digitali.

 


NOTE:

[1] Utilizzo questo termine volutamente inserito fra le virgolette. Mi interessa per ragioni prettamente funzionali, per l’utilità prodotta dal suo significato letterale, e non da quello filosofico. Riguardo a quest’ultimo, però, vi invito a fare un proficuo confronto tra i due significati che il contratto sociale ha per la filosofia rousseauiana e quello che avrà successivamente per quella kantiana.

[2] Nella lingua italiana i termini “collegamento” e “connessione” sono spesso utilizzati come sinonimi. La loro differenza formale ricade nell’utilizzo rispetto a 1) una unione diretta sul piano fisico-materiale nel caso del primo termine e 2) di un'unione di tipo immateriale (ad es. logica) nel secondo. Utilizzerò dunque il termine 1) collegamento quando la connessione è reciproca, ossia c’è un’azione di follow reciproca; il termine 2) connessione lo utilizzerò per i casi in cui l’azione del follower è unidirezionale e svincolata dalle forme della reciprocità. Interessante è anche l’accezione che viene data dei due termini in campo giuridico penale, dove il collegamento è un criterio legale che determina il vincolo fattuale che genera la connessione, la quale è sempre conseguenza giuridica di tale legame (art. 12 c.p.p.).

[3] La possibilità di essere follower, ma non amici, di profili utente privati è stata aggiunta solo anteriormente sulla piattaforma Facebook (2011). Probabilmente l’esigenza è nata per permettere a profili particolarmente famosi di superare il limite massimo di 5000 amici possedibili.

[4] Supra, nota 2.

[5] Per “unico”, in riferimento al “profilo”, mi riferisco alla sua corrispondenza ad un “utente” univoco. Da questa analisi sono perciò escluse entità quali i “profilo utente condiviso” e quelli sì utente ma creati per attività di varia natura (commerciali, sportive, associazionistiche etc.). Ne sono dunque escluse anche le connessioni alle Pagine e ai Gruppi Facebook.

[6] Molto interessante è la differenza che la piattaforma LinkedIn pone ufficialmente tra le definizioni di “contatto” e di “collegamento”, dove un contatto è una persona a cui viene inviato un invito, mentre “una connessione è un contatto a cui si dispone una connessione di primo grado”. (...) “Mentre tutte le connessioni vengono salvate nell’elenco Contatti, non tutti i contatti sono collegamenti di primo grado” (Guida ufficiale LinkedIn).
Per chi non conoscesse LinkedIn, in questa piattaforma sociale digitale viene instaurata e posizionata come portante la meccanica del “grado di distanza” di connessione tra i profili. Questa ha sicuramente risvolti utili alla partecipazione attraverso l’ambizione di “accorciare le distanze” dai profili che ci avvicinano al lavoro che vorremmo fare.

 

RIFERIMENTI BIBLIOGRAFICI:

- art. 12 Codice di procedura penale;

- Guida ufficiale di LinkedIn: https://www.linkedin.com/help/linkedin/answer/a565191/differenza-tra-un-contatto-e-una-connessione?lang=it;

- Standard della Community Meta: https://transparency.meta.com/policies/community-standards/;

- Linee guida Facebook per Editor e Creator: https://www.facebook.com/business?id=193136622109756.


La doppia transizione nella sanità: tecnologia, organizzazioni e sostenibilità

La doppia transizione (twin transition) si riferisce all’articolazione strategica tra trasformazione digitale e sostenibilità ambientale, mobilitando tecnologie come l’intelligenza artificiale, l’Internet delle Cose (IoT) e l’analisi dei dati, tra le altre soluzioni digitali, per rendere i processi economici potenzialmente più efficienti, puliti e orientati all’economia circolare[1]. Ma in che modo questo concetto di doppia transizione si collega al settore sanitario? Una delle grandi aree che sta diventando sempre più digitale è proprio quella della salute, e il termine che si sta consolidando è “sanità digitale”.

Nel campo sanitario, questa agenda acquisisce rilevanza di fronte all’invecchiamento della popolazione e alla crescente pressione sui costi e sulle infrastrutture, stimolando l’adozione di soluzioni come la telemedicina, le cartelle cliniche elettroniche interoperabili, l’IA per il supporto diagnostico e i big data per la sorveglianza epidemiologica, tra gli altri esempi. Va sottolineato che tale processo avviene con ritmi diseguali, sia tra Nord e Sud globale sia all’interno dei singoli Paesi, tra aree rurali e urbane, tra settore pubblico e privato, oltre che tra diverse specialità mediche. In generale, tuttavia, questi strumenti tendono a riconfigurare l’organizzazione dell’assistenza e della gestione, sotto la promessa di maggiore coordinamento, rapidità informativa e uso più razionale delle risorse[2].

La sanità digitale si è affermata come un importante motore di trasformazione dei sistemi sanitari, ridefinendo l’organizzazione dell’assistenza, la gestione e l’uso delle informazioni cliniche. Attraverso l’integrazione di strumenti digitali, mira a migliorare l’accesso, la continuità delle cure e l’efficienza operativa, promuovendo un coordinamento più razionale delle risorse

Tuttavia, questa digitalizzazione non si limita all’adozione di nuovi strumenti. Essa dipende da infrastrutture tecniche e organizzative complesse, che comportano consumo energetico, filiere materiali estese e cambiamenti istituzionali nelle modalità di lavoro e di gestione[3]. Piattaforme di dati, cloud e sistemi automatizzati possono ridurre spostamenti e sprechi, ma richiedono anche risorse intensive e aumentano la dipendenza da reti tecnologiche e fornitori globali, generando impatti che superano lo spazio clinico.

In questo senso, l’associazione automatica tra innovazione digitale e sostenibilità merita di essere problematizzata. I data center, l’obsolescenza accelerata delle apparecchiature, la produzione di rifiuti elettronici e l’impronta di carbonio delle catene di approvvigionamento sanitario evidenziano costi ambientali spesso invisibili. Pensare la sanità a partire dalla twin transition implica quindi adottare una prospettiva sociotecnica più ampia, valutando in che misura la digitalizzazione sia sufficiente o se richieda trasformazioni strutturali per avvicinarsi a un modello di cura più sostenibile, equo e responsabile[4].

Le organizzazioni sanitarie occupano una posizione centrale nella conduzione della trasformazione digitale, agendo non solo come utilizzatrici di tecnologie, ma come attori attivi nell’implementazione, regolazione e definizione delle priorità. Ospedali, ministeri, assicurazioni sanitarie e startup partecipano all’integrazione dei sistemi digitali riconfigurando flussi assistenziali, routine amministrative e modelli di gestione, promuovendo cambiamenti profondi nei processi di lavoro e nelle forme di coordinamento tra équipe[5]. Questo movimento richiede lo sviluppo di nuove competenze digitali — sia tecniche sia analitiche. Pertanto, la transizione in corso non si limita all’adozione di strumenti tecnologici, ma comporta trasformazioni organizzative e istituzionali più ampie, che ridefiniscono responsabilità, capacità statali e dinamiche di potere all’interno del sistema sanitario.

La promessa di efficienza associata alla sanità digitale deve essere confrontata con i suoi effetti distributivi, poiché i benefici di queste innovazioni non si distribuiscono in modo omogeneo nella popolazione. L’esclusione digitale dei gruppi vulnerabili, l’accesso diseguale alla connettività e alle competenze tecnologiche, nonché le disparità infrastrutturali regionali, possono limitare la portata delle soluzioni digitali e persino ampliare disuguaglianze già esistenti nell’accesso alle cure, evidenziando come la sostenibilità sia anche una questione sociale. In questo contesto, le politiche pubbliche possono risultare decisive per rendere la trasformazione più equa. Ciò include strategie nazionali per la sanità digitale, iniziative — ancora limitate — di “ospedali verdi”[6], acquisti pubblici sostenibili ed esperienze di telemedicina, nelle quali linee guida istituzionali e investimenti mirati possono ridurre le asimmetrie e ampliare l’accesso a un’innovazione più inclusiva.

L’integrazione tra le agende verde e digitale nella sanità non dipende soltanto dall’introduzione di soluzioni tecnologiche, ma dalla capacità di affrontare vincoli regolatori, finanziari e organizzativi che ne condizionano l’effettiva sostenibilità. Più che una questione tecnica, si tratta di una sfida di governance, che richiede coordinamento istituzionale e visione strategica per conciliare innovazione, autonomia e responsabilità socio-ambientale.

In una prospettiva più ampia, il settore sanitario può essere compreso come un vero e proprio laboratorio della doppia transizione, nel quale le agende digitale e ambientale si intrecciano in modo particolarmente intenso, rivelando tanto potenzialità di innovazione quanto contraddizioni strutturali. Questo scenario evidenzia la necessità di pensare la trasformazione oltre la semplice incorporazione di dispositivi o gadget, adottando un approccio che consideri i sistemi sociotecnici nella loro complessità — ossia le interazioni tra tecnologie, organizzazioni, professionisti, politiche pubbliche e utenti. Più che digitalizzare i processi esistenti, la sfida consiste nel ripensare modelli di gestione, finanziamento e cura, rendendoli simultaneamente più efficienti, equi e sostenibili. In questo senso, si impongono domande provocatorie: digitalizzare è sufficiente o dobbiamo riprogettare lo stesso modello di cura sanitaria? E, in modo più ampio, “digitale = sostenibile”?

 

NOTE:

[1] European Commission. Joint Research Centre. 2022. Towards a Green & Digital Future: Key Requirements for Successful Twin Transitions in the European Union. Publications Office. https://doi.org/10.2760/977331.

[2] Labrique, Alain, Lavanya Vasudevan, Garrett Mehl, Ellen Rosskam, e Adnan A. Hyder. 2018. “Digital Health and Health Systems of the Future”. EDITORIAL. Global Health: Science and Practice 6 (Supplement 1): S1–4. https://doi.org/10.9745/GHSP-D-18-00342.

[3] Mathews, Simon C., Michael J. McShea, Casey L. Hanley, Alan Ravitz, Alain B. Labrique, e Adam B. Cohen. 2019. “Digital Health: A Path to Validation”. Npj Digital Medicine 2 (1): 38. https://doi.org/10.1038/s41746-019-0111-3.

[4] Kaboré, Soutongnoma Safiata, Patrice Ngangue, Dieudonné Soubeiga, et al. 2022. “Barriers and Facilitators for the Sustainability of Digital Health Interventions in Low and Middle-Income Countries: A Systematic Review”. Frontiers in Digital Health 4 (novembro). https://doi.org/10.3389/fdgth.2022.1014375.

[5] Borges do Nascimento, Israel Júnior, Hebatullah Abdulazeem, Lenny Thinagaran Vasanthan, et al. 2023. “Barriers and Facilitators to Utilizing Digital Health Technologies by Healthcare Professionals”. Npj Digital Medicine 6 (1): 1–28. https://doi.org/10.1038/s41746-023-00899-4.

[6] Alkaabi, Athra, e Mohammad Aljaradin. 2022. “Green Hospitals for the Future of Healthcare: A Review”. Al-Kitab Journal for Pure Sciences 6 (2): 31–45. https://doi.org/10.32441/kjps.06.02.p4.


Tra plasticità, adattamento e impalcature “ostili”: un modello integrato della biologia ecologica per affrontare le sfide tecnologiche contemporanee

La pervasività delle tecnologie digitali, dell'intelligenza artificiale e delle infrastrutture algoritmiche sta riconfigurando profondamente i processi cognitivi, le norme sociali e i framework etici della società contemporanea (Floridi, 2023). Questa trasformazione richiede nuovi strumenti concettuali per comprendere le dinamiche di interazione tra organismi umani e ambienti tecnologici. La Teoria della Costruzione della Nicchia (NCT) rappresenta un'estensione della sintesi evoluzionistica moderna che riconosce agli organismi un ruolo attivo nella modificazione del proprio ambiente (Laland et al., 2016)[1]. Secondo questo paradigma, gli organismi non si limitano a rispondere passivamente alle pressioni selettive ambientali, ma modificano attivamente le fonti di selezione naturale attraverso le loro attività, alterando sia il proprio ambiente che quello delle generazioni successive.

LA COSTRUZIONE DELLA NICCHIA

Laland e colleghi (2016) definiscono la costruzione della nicchia come "il processo mediante il quale gli organismi, attraverso le loro attività, scelte e costruzioni metaboliche, modificano i propri ambienti e/o quelli di altre specie”. Questo processo opera a livello sia filogenetico che ontogenetico, generando dinamiche di feedback evolutivo in cui le modificazioni ambientali operate dagli organismi influenzano le pressioni selettive a cui essi stessi sono sottoposti.

Negli esseri umani, la costruzione di nicchia assume una dimensione particolarmente complessa, integrando componenti biologiche e culturali su molteplici livelli di intersezione. L’innovazione tecnologica rappresenta una forma di modificazione ambientale che ha da sempre accompagnato l'evoluzione umana attraverso l’invenzione di strumenti, dall'invenzione della ruota alla scrittura, fino alle attuali tecnologie digitali, configurando ciò che può essere definito come un processo di co-evoluzione gene-cultura-tecnologia. Come ampiamente sostenuto dal modello di ricerca epistemologica integrata dell’Università di Vrije di Amsterdam (VU), il TEND project[2], questo paradigma riflette su come le nicchie degli esseri umani siano intrinsecamente tecnologiche e, come tali, soggette a disruption attraverso l'innovazione tecnologica.

Questo modello epistemologico innovativo rappresenta un interessante spunto di riflessione dal punto di vista ecologico e interdisciplinare. Una nicchia, infatti, può essere concettualizzata come un sistema dinamico, caratterizzato al suo interno da continui stati di equilibrio e disequilibrio. Questo approccio si distacca da una visione statica della nicchia come semplice "spazio" occupato da un organismo, riconoscendone invece la natura processuale e relazionale. La prospettiva ecologica proposta da Gibson (1979)[3] con l’introduzione del concetto di affordance descrive l’interazione con l’ambiente in gradi di possibilità di azione strutturale e funzionale che l'ambiente offre all'organismo. Seppure questo modello sia ampiamente noto nella prospettiva cognitiva ecologica, gli ambienti digitali[4] e la Human-Machine Interaction in questo senso possono essere interpretata come una specifica forma di nicchia ecologica che fornisce specifiche affordance tecnologiche, le quali simultaneamente potenziano e vincolano l'esistenza degli agenti cognitivi embodied.

A sostegno della possibilità dell’organismo di costruire modelli relazionali e cognitivi sulla base della propria struttura cognitiva in relazione all’ambiente e su quanto esso sia continuamente coinvolto nelle attività di modellamento e alterazione dei circuiti interni, le riflessioni di Stanislas Dehaene risultano centrali in termini di plasticità e adattamento funzionale nel paradigma bio- psico-sociale. Dehaene (2009)[5], studiando i circuiti neurali della lettura e della scrittura, ha ampiamente dimostrato come il nostro cervello abbia adattato circuiti corticali pre-esistenti per creare una rete funzionale specifica, quella della letto-scrittura, fornendo una base neurobiologica al concetto di exaptation proposto da Gould (1982)[6]. L'exaptation, ovvero la capacità di cooptare circuiti pre-esistenti per nuovi scopi, si applica dunque alla possibilità di modificazione degli organismi appartenenti ad una nicchia per uno scopo specifico, sulla base delle possibilità che l’ambiente offre. Come sottolineato da Maryanne Wolf (2018)[7] nell'analisi delle funzioni cognitive legate all'alfabetizzazione ad esempio, i processi epigenetici e di sviluppo giocano un ruolo fondamentale nella riconfigurazione delle capacità cognitive in risposta alle trasformazioni ambientali, operando simultaneamente a livello biologico e culturale[8]. In questo quadro, le tecnologie non si configurano come mere estensioni esterne, ma componenti integrate del sistema cognitivo distribuito, secondo quanto teorizzato da Clark e Chalmers nel 1998 nel loro influente articolo sulla "mente estesa"[9].

IL CONCETTO DI DISRUPTION APPLICATO ALLA TEORIA DELLA NICCHIA

Il concetto di disruption (rottura, sconvolgimento) si pone come elemento fondamentale, come sostenuto dalla valenza euristica delle ricerche; esso è stato spesso applicato al contesto economico-manageriale per descrivere innovazioni che sovvertono radicalmente mercati e industrie consolidate, rendendo obsolete tecnologie e pratiche dominanti. Applicato alla sfera digitale e sociale e alla teoria ecologica della NCT, come nel framework del progetto TEND, il termine acquista una valenza più ampia. Osservando la disruption da una prospettiva ecologica, quando un nuovo elemento tecnologico interviene in un sistema, esso interrompe i cicli di feedback esistenti e costringe l'organismo a (ri)costruire relazioni interne della propria nicchia a diversi livelli: individuale, sociale e globale. La disruption tecnologica dunque rappresenta la soglia critica in cui alcuni equilibri consolidati collassano e nuove strutture emergono, richiedendo processi di riorganizzazione che operano simultaneamente a livello cognitivo, sociale e istituzionale.

A differenza della valenza semantica in economia, che enfatizza primariamente la dimensione competitiva e innovativa, l'applicazione del termine agli ecosistemi socio-tecnologici evidenzia le implicazioni per lo sviluppo del benessere umano, l'autonomia cognitiva e la coesione sociale.

Hopster (2021) definisce le tecnologie socialmente disruptive come quelle che «alterano significativamente le norme sociali, i valori, le pratiche o le istituzioni esistenti»[10], ma anche il modo di percepire, agire, conoscere e relazionarsi in una specifica nicchia. Negli ambienti digitali la disruption diventa una condizione pervasiva che rimodella non solo comunicazione e produzione, ma anche percezione, emozione e cognizione. La riflessione filosofica di Georges Canguilhem (1966)[11] offre uno strumento epistemologico interessante e una possibile apertura per interpretare l’evoluzione di questi nuovi processi di modificazione delle nicchie ecologiche. In Le normal et le pathologique, Canguilhem introduce il concetto di normatività come quella specifica capacità dell'organismo di ristabilire una relazione coerente e vitale con il proprio ambiente. Secondo Canguilhem, infatti, il concetto stesso di normalità, in stati organici sani o patologici, evolve nel tempo seguendo cambiamenti strutturali nella relazione organismo-ambiente. La patologia, secondo la lettura canghuilemiana, non è dunque intesa come mera disfunzione organica, ma come un momento di squilibrio e di incertezza che induce a una nuova modalità di interazione con l'ambiente, basata sull'attività normativa propria dell'organismo.

DISRUPTION COME RICONFIGURAZIONE NORMATIVA

Applicata al contesto tecnologico, questa prospettiva suggerisce che la disruption non costituisce necessariamente una condizione patologica (intesa come a-normale), ma rappresenta piuttosto una fase di riconfigurazione normativa in cui l'organismo deve sviluppare nuove strategie di adattamento o di exaptation alla Gould. La riflessione centrale di questi modelli ecologici integrati e interdisciplinari è proprio quella di individuare elementi fondamentali per comprendere come e in che modo tecnologie disruptive come l’IA si stiano diffondendo all’interno delle nicchie umane, a vari livelli, e quali cambiamenti in termini etici, normativi, cognitivi e sociali stiano apportando. Una possibile soluzione sarebbe quella di mirare allo sviluppo di nuove competenze interdisciplinari per la costruzione di un'impalcatura sociale etica e sostenibile sufficientemente robusta, ma allo stesso tempo flessibile da permettere la co-evoluzione con la disruption senza compromettere le strutture fondamentali dei sistemi di valori e credenze.

SCAFFOLDING OSTILE

Il concetto di scaffolding, che riprende il costrutto teorico della «zona di sviluppo prossimale» di Vygotskij[12], individua le strutture esterne che supportano e facilitano i processi cognitivi. Nel contesto tecnologico gli ambienti digitali dovrebbero idealmente fornire una forma di scaffolding cognitivo, estendendo e potenziando le capacità umane. Tuttavia, Timms e Spurrett (2021) hanno introdotto recentemente il concetto di hostile scaffolding per descrivere situazioni in cui "le strutture che dovrebbero supportare la cognizione possono simultaneamente vincolarla o distorcerla"[13]. Questo fenomeno si verifica quando le affordances tecnologiche, invece di facilitare processi cognitivi adattivi, generano pattern disfunzionali o controproducenti. Alcuni esempi di scaffolding “ostile” si verificano, ad esempio, in quella che viene definita la “crisi dell’attenzione”[14]. Le piattaforme digitali contemporanee infatti sono progettate secondo principi di "economia dell'attenzione"[15] che massimizzano il tempo di utilizzo attraverso meccanismi di rinforzo intermittente (notifiche push, feedback sociali, scrolling infinito). Queste architetture, come evidenziano numerosi studi, catturano e frammentano l'attenzione degli utenti, con effetti di grande impatto sull’intero sistema attentivo e sulle competenze metacognitive e riflessive, specialmente negli adolescenti e nei giovani adulti. Un altro esempio riguarda gli algoritmi di raccomandazione basati su modelli predittivi del comportamento utente, i quali tendono a creare delle vere e proprie bolle, le "filter bubbles" (bolle di filtraggio) ed "echo chambers", un fenomeno ormai noto e ampiamente studiato dalla letteratura scientifica per la capacità di esporre selettivamente gli utenti a contenuti che confermano le loro preesistenti inclinazioni cognitive e ideologiche, perpetrando bias di conferma e sempre maggiore polarizzazione dell’opinione pubblica[16]. Infine, nuovi e recenti studi stanno indagando sulle conseguenze a lungo termine dell'”effetto delega” di specifici task. Esso è reso possibile dall'automazione sempre maggiore di compiti cognitivi precedentemente eseguiti da agenti cognitivi umani nell’utilizzo di tecnologie AI based in specifici contesti sociali. Queste tecnologie producono non solo stati di potenziamento, ma possono produrre anche veri e propri fenomeni di depotenziamento di alcune funzioni cognitive specifiche a seguito di un progressivo aumento dello scarico cognitivo, come sottolineato dalle più recenti ricerche in merito.[17]

IN SINTESI

L’approccio integrato dunque riconosce la natura co-evolutiva e complessa della relazione tra organismi umani e tecnologie. Questa prospettiva ecologica ed epistemologica qui delineata evidenzia come la disruption tecnologica rappresenti un momento di rottura dello spazio epistemico che richiede processi di riconfigurazione normativa a livello individuale e collettivo attraverso un bilanciamento costante tra ciò che possiamo guadagnare e ciò che potremmo perdere.

Il riconoscimento delle impalcature potenzialmente ostili costituisce un primo passo verso la progettazione e il design di ambienti digitali in grado di potenziare le capacità cognitive e le strutture valoriali fondamentali dell'esistenza umana; verso un’infrastruttura tecnologica plastica, sostenibile e allineata con i valori cardine della nostra società.

 

 

NOTE

[1] Laland, K., Matthews, B., & Feldman, M. W. (2016). An Introduction to Niche Construction Theory. Evolutionary Ecology, 30(2), 191–202. https://doi.org/10.1007/s10682-016-9821-z

[2] Il progetto integrale “TEND” dell’Università Vrje di Amsterdam è visitabile al seguente indirizzo https://sites.google.com/view/tend-project/home

[3] Gibson, J. J. (1979). The Ecological Approach to Visual Perception. Boston: Houghton Mifflin.

[4] Della Rocca, M. (2025), Digital Environments and Information, Laboratorio dell’ISPF. 2025, vol. XXII [In Press].

[5] Dehaene S. (2009), Reading in the Brain: The New Science of How We Read, Penguin, New York.

[6] Gould, S. J. (1982). Exaptation: A Missing Term in the Science of Form. Paleobiology, 8(1), 4-15.

[7] Wolf, M., Proust and the Squid: The Story and Science of the Reading Brain, 2008, Icon Books Ltd.

[8] Morabito, C. (2018). Epigenetics and the Development of Cognitive Functions: Literacy as a Case Study. In D. Ceccarelli & G. Frezza (Eds.), Predictability and the Unpredictable: Life, Evolution and Behaviour (pp. 145-156). Rome: CNR Edizioni.

[9] Clark, A., & Chalmers, D. (1998). The Extended Mind. Analysis, 58(1), 7-19.

[10] Hopster, J. (2021). What Are Socially Disruptive Technologies? Technology in Society, 67, 101750. https://doi.org/10.1016/j.techsoc.2021.101750

[11] Canguilhem, G. (1966). Le normal et le pathologique. Paris: Presses Universitaires de France.

[12] Vygotsky, L. S. (1978). Mind and Society. Cambridge, MA: Harvard University Press. Il concetto di scaffolding, seppur ampiamente utilizzato per descrivere il concetto di «zona di sviluppo prossimale» di Vygotskij, comparse per la prima volta in Wood, D., Bruner, J. S., & Ross, G. (1976). The role of tutoring in problem-solving. Journal of Child Psychology and Psychiatry and Allied Disciplines, 17, 89–100.

[13] Timms, R., & Spurrett, D. (2021). Hostile Scaffolding. PhilArchive. https://philarchive.org/archive/TIMHSv1

[14] Campo, E. (2020) La testa altrove. L'attenzione e la sua crisi nella società digitale, Donzelli Editore.

[15] Il concetto di «economy of attention» fu teorizzato per la prima volta da Herbert Simon nel 1971 per indicare l’effetto dell’aumento delle informazioni nella società capitalistica e la conseguente diminuzione dell’attenzione.

[16] Scholz, R. (2016). Sustainable Digital Environments: What Major Challenges Is Humankind Facing? Sustainability, 8(8), 726. https://doi.org/10.3390/su80807

[17] Gerlich M. AI Tools in Society: Impacts on Cognitive Offloading and the Future of Critical Thinking. Societies. 2025; 15(1):6. https://doi.org/10.3390/soc15010006

 

BIBLIOGRAFIA

  • Canguilhem, G. (1966). Le normal et le pathologique. Paris: Presses Universitaires de France.
  • Clark, A., & Chalmers, D. (1998). The Extended Mind. Analysis, 58(1), 7-19.
  • Brey, P., Roeser, S., & IJsselsteijn, W. (2019). Ethics of socially disruptive technologies. Project proposal for Netherlands Organisation of Scientific Research.
  • Dehaene S. 2009, Reading in the Brain: The New Science of How We Read, Penguin, New York.
  • Floridi, L. (2023). The Ethics of Artificial Intelligence: Principles, Challenges, and Opportunities. Oxford: OUP Oxford.
  • Gerlich M. AI Tools in Society: Impacts on Cognitive Offloading and the Future of Critical Thinking. Societies. 2025; 15(1):6. https://doi.org/10.3390/soc15010006 ;
  • Gibson, J. J. (1979). The Ecological Approach to Visual Perception. Boston: Houghton Mifflin.
  • Gould, S. J. (1982). Exaptation: A Missing Term in the Science of Form. Paleobiology, 8(1), 4-15.
  • Hopster, J. (2021). What Are Socially Disruptive Technologies? Technology in Society, 67, 101750. https://doi.org/10.1016/j.techsoc.2021.101750
  • Laland, K., Matthews, B., & Feldman, M. W. (2016). An Introduction to Niche Construction Theory. Evolutionary Ecology, 30(2), 191-202. https://doi.org/10.1007/s10682-016-9821-z
  • Morabito, C. (2018). Epigenetics and the Development of Cognitive Functions: Literacy as a Case Study. In D. Ceccarelli & G. Frezza (Eds.), Predictability and the Unpredictable: Life, Evolution and Behaviour (pp. 145-156). Rome: CNR Edizioni.
  • Scholz, R. (2016). Sustainable Digital Environments: What Major Challenges Is Humankind Facing? Sustainability, 8(8), 726. https://doi.org/10.3390/su80807
  • Timms, R., & Spurrett, D. (2021). Hostile Scaffolding. PhilArchive. https://philarchive.org/archive/TIMHSv1
  • Varela, F., Thompson, E., & Rosch, E. (2017). The Embodied Mind (Revised Edition). Cambridge, MA: MIT Press.

La dottrina di Palantir - "La repubblica tecnologica" di Karp e Zamiska

1 - PALANTIR

Alex Karp (CEO di Palantir Technologies, azienda statunitense specializzata nell'analisi dei big data che lavora per le agenzie federali statunitensi e di altri paesi, e per aziende private, finanziarie e di assistenza sanitaria) ha costruito il libro[1] sull’ideologia di Palantir nello stesso modo in cui monta le sue macchine: la veste corrisponde al canone in voga, ma il contenuto è un ordigno pericoloso, che deflagra quando viene raggiunto il target. Come insegnano i giornalisti scientifici, ogni capitolo si apre con la presentazione di un personaggio esemplare, si sviluppa con una generalizzazione, si conclude con una morale: cerca un pubblico universale, con un linguaggio e una linearità argomentativa che non si preoccupano delle trappole del semplicismo. Meglio dieci banalizzazioni in più che un lettore perso: Karp sa bene che sono tempi duri per la saggistica. 

L’autore è il cofondatore con Peter Thiel di Palantir, l’unica società della Silicon Valley che si è sempre dichiarata a favore della collaborazione con lo Stato, con i servizi di intelligence, con le agenzie della Difesa e gli eserciti degli Stati Uniti e dei loro alleati. In italiano il volume è stato pubblicato da Silvio Berlusconi Editore, confermando lo spiazzamento degli editori (progressisti? tradizionali?) rispetto ai temi più urgenti dell’attualità. Karp non teme le imboscate della superficialità perché il problema che dibatte è così impellente da disegnarsi in contorni netti anche attraverso una forma divulgativa.

Il primo ingranaggio dell’esposizione riguarda il rapporto tra le tecnologie informatiche e gli interessi nazionali americani. Karp rimprovera ai colleghi startupper e innovatori dell’area di San Francisco di vergognarsi delle origini dell’industria digitale, contaminate dagli interessi e dai finanziamenti militari. Turing, Von Neumann, Vannevar Bush, i padri nobili del settore, erano consapevoli del valore strategico che le nuove tecnologie conferivano alle nazioni che le stavano sviluppando. Non è così per i loro eredi moderni. La classe di hacker creativi, che ha innescato dalla fine del millennio scorso l’esplosione di invenzioni, imprese, progetti, da cui è caratterizzata l’economia della Rete, è cresciuta in un’era e in un’area geografica mai minacciata dalla guerra, e dalle preoccupazioni che le sono collegate. Ha considerato l’inviolabilità del territorio americano (ed europeo) come una conseguenza del primato intellettuale, più che militare; di conseguenza, ha stimato imbarazzante ogni contatto con la pesantezza burocratica dello Stato e con i malcostumi dei politici, preferendo ritirarsi nell’ambito del mercato rivolto al pubblico di massa. La Silicon Valley è indietreggiata da ogni impegno nell’ambito della sicurezza nazionale, e ha rinunciato ad avventurarsi nell’ambito della complessità morale delle armi e della guerra, dedicandosi in modo completo alle tecnologie di consumo, alle app sociali, al mercato dell’intrattenimento, dei giochi, dello spettacolo.

Karp considera la fiducia nella solidità della pace un tromp l’oeil prodotto dalla deterrenza dell’arsenale bellico americano; ma oggi, come già osservava Kissinger in una delle sue ultime pubblicazioni[2], l’intelligenza artificiale disattiva i meccanismi di equilibrio degli ultimi decenni, perché diventa impossibile stimare il potenziale distruttivo gestito dagli avversari. I conflitti del futuro non saranno consumati nelle trincee, con masse di uomini inviati alla carneficina – ma non saranno nemmeno decisi dai depositi di bombe e di veicoli militari a disposizione delle nazioni. L’asset differenziale sarà rappresentato dalle informazioni utili per identificare gli obiettivi corretti (individui, server farm, bunker, passaggi e locali segreti, archivi), per coordinare stormi di droni e di robot, per compiere manovre di sabotaggio preventivo, per manipolare l’opinione pubblica degli avversari, per accedere agli strumenti di controllo delle infrastrutture strategiche nemiche (centrali e dorsali elettriche, sistemi bancari, infrastrutture di gestione multiutility), insomma per neutralizzare gli antagonisti prima di sparare un colpo sul campo di battaglia – e soprattutto, senza alcuna dichiarazione di guerra, in forma segreta o dissimulata, e senza rivendicazione degli attacchi compiuti. Il nemico non è mascherato, è del tutto senza volto. La moltiplicazione degli scenari possibili di scontro è resa possibile dalla dipendenza dalla Rete e dai dispositivi elettronici delle società avanzate; l’imprevedibilità degli effetti dell’intelligenza artificiale deriva dall’efficienza di queste tecnologie nell’accedere ai servizi informatici avversari, e nel controllare apparati complessi. Palantir si esercita su questo genere di attività, e Karp sostiene che gli avversari dell’Occidente siano già da tempo all’opera per ottenere risultati più efficienti di quelli raggiunti dagli USA e dai loro alleati. La diserzione della Silicon Valley ha permesso alle dittature orientali – soprattutto la Cina – di ridurre il ritardo nell’evoluzione tecnologica che le distanziava dall’America, fino ad azzerarlo: il vallo che ha assicurato la pace delle democrazie liberali è ormai quasi del tutto scavalcato, e non permette più di trascurare il problema.

2 - OCCIDENTE, EPOS E IDENTITÀ

Il concetto di Occidente è problematico, e Karp ne è consapevole: l’area del mondo che si denota con questa etichetta, la storia e i valori che le sono attribuiti, emergono da una costruzione concettuale molto compromessa con il periodo delle colonizzazioni. Come osserva Edward Said[3], è una nozione che sorge tra la fine del Settecento e l’Ottocento attraverso l’opposizione alle civiltà e alle regioni che i britannici e i francesi hanno occupato e sfruttato, fuori dai confini europei; e che ha legittimato queste operazioni di conquista. Karp rivendica l’artificialità di questo costrutto ideologico – e questo è il secondo ingranaggio della sua esposizione – riconducendolo ad un contesto di più ampia portata, in cui confluiscono le sue riflessioni su identità, creatività, evoluzione, senso dell’esistenza. Il taglio con cui procede l’argomentazione è quello della parresia: l’autore accusa di ipocrisia e di inerzia l’élite che domina l’industria culturale contemporanea, gestendo le piattaforme e producendo le narrazioni ideologiche in cui siamo tutti immersi. E qui si trova il paradosso per cui è Silvio Berlusconi Editore ad aver tradotto in italiano il libro.

Il riconoscimento della dignità dell’altro – civiltà, minoranza etnica, genere – ha finito per paralizzare qualunque discorso assertivo sui valori, sulle preferenze estetiche, sugli obiettivi, su ciò che è meglio e su ciò che è peggio, diluendo e annacquando il senso stesso di qualunque attività culturale, che invece si fonda sull’assiologia delle differenze. La capacità di giudizio consiste nell’assegnare pesi diversi all’eterogeneità delle istanze, stabilendo priorità e asimmetrie di interesse. 

Nell’ambito delle imprese, questo atteggiamento ha promosso la mediocrità di chi preferisce una gestione routinaria delle attività quotidiane, e favorisce le decisioni accomodanti (quindi l’assenza di decisioni), evitando l’impegno in sfide interessanti, sottraendosi all’investimento sulle novità rischiose. La ricerca che viene autorizzata da questa impostazione del lavoro è quella che conosce in anticipo i risultati che possono essere raggiunti, e che quindi si limita a incarnare un simulacro dell’indagine, privo di ambizioni originali. 

Sul terreno politico, il timore preventivo dell’oltraggio ha finito per equiparare tutte le differenze, annullando il significato delle identità. La battaglia per la tutela del diritto alla permalosità è servita a nascondere l’assenza di idee per il futuro, a sfuggire all’urgenza di elaborare progetti antropologici di ampio respiro; ha condotto all’abdicazione dalla funzione politica, affidandola ai guru della Silicon Valley. Visto che gli interessi degli imprenditori californiani sono focalizzati sulla dimensione privata, su una visione dell’individuo che non è cittadino, ma consumatore della vita (persino di quella eterna, promessa dal «Singolarismo» di Ray Kurzweil[4]), il dibattito sul bene comune, sulla configurazione ideale della società per raggiungerlo, sulla forma della felicità collettiva e sul modo di realizzarla (5), scivola al di sotto del tracciato di tutti i radar mediatici, scompare da tutti gli schermi. La politica nel senso di Aristotele[5], nel significato essenziale della sua missione, è stata abbandonata. Questa è l’occasione persa dagli editori (di sinistra?) nell’aver lasciato a Silvio Berlusconi Editore il compito di tradurre il libro di Karp.

L’ingegneria del software è un percorso di coordinamento del lavoro collettivo, dall’ideazione all’implementazione, per identificare problemi di interesse comune, tentare la soluzione, realizzarla e testarla. Per Karp questo modello è anzitutto l’esemplificazione del valore dell’impegno personale nella produzione di un significato che abbia valore collettivo. Sembra strano che tocchi al CEO di una Big Tech, protagonista dello sviluppo dell’AI, sottolineare la connessione di argomenti come la rilevanza del coinvolgimento dell’individuo, della dedizione di tutta la sua soggettività, con lo sviluppo di un bene comune. Michael Polanyi insegnava[6] che la condizione necessaria per la conservazione e il trasferimento dei significati contenuti nella letteratura di qualunque scienza, per la continuità delle maestranze artigianali, per l’intera riproduzione sociale – è l’impegno personale con cui gli individui sperimentano e assorbono un’intero patrimonio di conoscenze tacite, non tematizzate, non coscienti, che permettono l’interpretazione di tutto quello che può essere compreso e praticato in modo esplicito. È un impegno ontologico, non solo etico, perché dà consistenza reale ai valori della comunità, e coinvolge gli esseri umani nella loro soggettività, nella loro esistenza complessiva.

Karp denuncia la ritirata da questo tipo di impegno: questa è la sfida più importante del suo libro. 

Ogni tradizione è artificiale, l’identificazione con i suoi valori è l’effetto di una decisione, così come l’immersione nel suo solco; la scelta pretende anche la responsabilità sincera dell’individuo che l’ha compiuta. L’Occidente è un taglio arbitrario, che separa la Grecia, Roma, Gerusalemme, dai loro vicini egizi, fenici e mesopotamici; distingue l’arte di Michelangelo, Raffaello, Leonardo, dalle maschere africane; oppone Leibniz alla Cina, Schopenhauer ai Veda. Solleva una questione di adesione emotiva, suscita sentimenti che le correnti politiche moderne irridono o sfruttano come oggetti di pura propaganda – perché la cultura contemporanea non ammette più l’epos. La narrazione di gesta eroiche è una patologia della soggettività, che riguarda il passato o le civiltà etniche, o che può essere utilizzata per operare interventi di ingegneria sociale sulle masse stupide, o frustrate (o entrambe le cose), che anelano l’oppio cognitivo dispensato dai movimenti alt-right. Ma gli uomini hanno bisogno di un senso per la loro esistenza, si devono impegnare per un significato che vada oltre la constatazione obiettiva dei fatti, la replica infinita dell’attualità, senza prospettive, senza giustizia, senza riscatto. Palantir è un nome che viene dal Signore degli anelli, e nella sua ambiguità indica uno strumento per osservare fatti lontani, per comunicare a grande distanza. Nel suo carattere controverso, equivoco, impregnato di soluzionismo tecnologico, la voce di Karp si solleva per domandare un nuovo impegno nei confronti della comunità, una serietà settecentesca per progettare, desiderare, immaginare, al di là del nichilismo, oltre il cinismo contemporaneo – l’uomo nuovo che verrà.

 

NOTE:

[1] Alexander Karp, Nicholas Zamiska, La repubblica tecnologica. Come l’alleanza con la Silicon Valley plasmerà il futuro dell’Occidente, tr. it. di Chiara Rizzo e Pietro Del Vecchio, Silvio Berlusconi Editore, Milano 2025.

[2] Henry Kissinger, Eric Schmidt, Daniel Huttenlocher, L'era dell'intelligenza artificiale. Il futuro dell'identità umana, tr. it. Di Aldo Piccato, Mondadori, Milano 2023.

[3] Edward Said, Orientalismo, tr. it. di Stefano Galli, Feltrinelli, Milano 2001.

[4] Ray Kurzweil, La singolarità è vicina, tr. it. di Virginio Sala, Apogeo Edizioni, Milano 2008.

[5] Aristotele, Politica e Costituzione di Atene, tr. it. a cura di Carlo Augusto Viano, UTET, Torino 2013, in particolare Politica, Libro VII.

[6] Michael Polanyi, La conoscenza personale. Verso una filosofia post-critica, tr. it. a cura di Enrico Riverso, Rusconi, Milano 1990.


Decomputing come atto di resistenza – Seconda parte

Nella prima parte di questo articolo ho esaminato come l'I.A. «sia di per sé un problema tecnico, un balbettante passo falso dell'ordine neoliberista che ne suggerisce l’intrinseco disordine», tracciando un percorso che ne tocca la dannosità, la dimensione violenta – sia dal punto di vista geopolitico che ambientale – l’effetto perverso della scalabilità, per arrivare al concetto di tecnofascismo.

Quello che proporrò, ora, come contromisura è il decomputing; un approccio che prende di mira direttamente l'intelligenza artificiale, ma riguarda e intende scollegare qualcosa di più del solo digitale, fino a riconfigurare le nostre relazioni sociali ed economiche più ampie.

DECRESCITA

Il decomputing è un tentativo di rispondere ai danni sociali e ambientali, via via crescenti, che l’attuale evoluzione tecnopolitica sta producendo; e, il rifiuto della scalabilità è un modo per mitigare gli effetti peggiori e un’euristica mirata a trovare modi alternativi di procedere.

Al contrario della scalabilità dell'IA – il cui fascino e potere è basato sul principio unificante della crescita senza restrizioni - il decomputing è una svolta verso la decrescita, una sfida esplicita all'estrattivismo dell'IA e alle sue logiche sistemiche.

Soprattutto, la decrescita non è semplicemente un rifiuto di dipendere dall'espansionismo, un tentativo di interrompere – qui e ora - l'estrattivismo dell'IA, ma uno spostamento dell'attenzione verso un metabolismo alternativo basato sulla sostenibilità e la giustizia sociale.

DEAUTOMATIZZAZIONE

Il principio del decomputing si oppone alla scalabilità anche perché questa induce uno stato di automatizzazione, in cui l'autonomia e la capacità di pensiero critico sono minate dall'immersione in un sistema di relazioni macchiniche.

In questo senso, l'IA è un'intensificazione delle strutture istituzionali, burocratiche e di mercato che già spogliano i lavoratori e delle comunità della loro agentività, e la collocano in meccanismi opachi e astratti. Il decomputing, al contrario, è la districazione del pensiero e delle relazioni dalle influenze riduttive delle logiche – appunto – burocratiche e di mercato che l’IA replica e rafforza.

Come esempio pratico, possiamo prendere in considerazione il caso del processo di tagli algoritmici al welfare, che viene legittimato proprio dalla presenza di un umano (human-in-the-loop) – come elemento di controllo: l’azione umana, il cui obiettivo dovrebbe essere di garantire un processo giusto, viene neutralizzata dal bias dell'automazione e dall’architettura delle scelte che tende ad allinearsi alla proposta – presunta neutrale – della macchina.

Il decomputing si propone, invece, come modello di sviluppo di forme alternative di organizzazione e di processo decisionale, sostenute dal giudizio riflessivo e dalla responsabilità situata.

Il decomputing riguarda, sia la deprogrammazione della società dalle sue certezze tecnogeniche quanto la decarbonizzazione delle sue infrastrutture computazionali.

La dataficazione e l'ideologia dell'efficienza giocano un ruolo chiave nelle ottimizzazioni negligenti e disumanizzanti dell'IA.

Il decomputing tenta, invece, di strappare la prassi sociale alla crudeltà utilitaristica apertamente celebrata dai seguaci della tecnopolitica reazionaria.

Si tratta di un deliberato allontanamento dai quadri alienanti dell'efficienza e dell'ottimizzazione e di un ritorno al contesto e alle "questioni di cura" in cui le nostre reciproche vulnerabilità e dipendenze sono centrali per la riproduzione sociale.

STRUMENTI CONVIVIALI

Il decomputing afferma che lo sviluppo e l'implementazione di qualsiasi tecnologia avanzata con impatti diffuso sulla società dovrebbero essere soggetti a un scrutinio critico e all'approvazione collettiva.

Possiamo attingere direttamente dal lavoro di Illich sugli strumenti per la convivialità: Illich definisce, infatti, strumenti le tecnologie e le istituzioni, e strumenti conviviali quelli che consentono l'esercizio dell'autonomia e della creatività, in opposizione alla risposte condizionate dai sistemi manipolativi.

La Matrice delle Tecnologie Conviviali estende le idee di Illich, specificando domande che permettono di valutare il grado di convivialità delle tecnologie, domande sull'accessibilità (chi può costruirla o usarla?), sulla relazione (in che modo influisce sulle relazioni tra le persone?) e sulla bio-interazione (in che modo la tecnologia interagisce con gli organismi viventi e le ecologie?).

CONSIGLI POPOLARI

Tuttavia, è improbabile che andremo molto lontano semplicemente ponendo domande ragionevoli sul senso di tutta questa mobilitazione. Il potere delle big tech si è esteso ben oltre la cattura delle norme, fino alla cattura dello stato, o almeno, fino a una situazione in cui c'è una crescente fusione tra gestori delle tecnologie e strutture politiche.

Il decomputing adotta invece un approccio preconizzatore degli effetti della tecnopolitica, enfatizzando il ruolo delle forme assembleari e collegiali che ho descritto altrove come consigli dei lavoratori e del popolo.

Questo tipo di collettività, auto-costituente, radicata nel contesto locale e nell'esperienza vissuta, può essere applicata a qualsiasi livello e in qualsiasi contesto, dalle associazioni genitori-insegnanti che si oppongono alla dipendenza delle giovani menti dai chatbot alle comunità minacciate dalla costruzione di un datacenter hyperscale.

Ovunque l'intelligenza artificiale venga considerata come "la risposta", c'è già una cucitura da scucire, un problema strutturale in cui coloro che sono direttamente coinvolti dovrebbero essere in prima linea nel determinare cosa debba essere cambiato.

RESISTENZA TECNOPOLITICA

La resistenza ai data centre, che è già in atto dai Paesi Bassi al Cile, mostra il potenziale delle giunzioni che si intersecano, di quella che possiamo chiamare intersezionalità infrastrutturale. Queste intersezioni si verificano perché è probabile che le stesse comunità che subiscono interruzioni di corrente a causa del sovraccarico della rete locale o respirano aria inquinata dalle turbine a gas, come – ad esempio - le comunità nere che vivono intorno al data centre XAI di Musk a Memphis, lavorino in condizioni di sfruttamento governate da un algoritmo.

Non è difficile immaginare che la resistenza a un nuovo data center sia solidale - attraverso un'assemblea congiunta di lavoratori e comunità - con gli scioperi selvaggi dei lavoratori nel centro logistico locale di Amazon.

Allo stesso modo, il principio del decomputing può assumere un ruolo importante a supporto dei movimenti per la disabilità, che stanno resistendo ai tagli selvaggi al welfare giustificati da algoritmi che stigmatizzano i disabili come membri improduttivi della società.

Per esempio, si può diffondere la comprensione del modo in cui la disabilità stessa è socialmente costruita dalle tecnologie che la società sceglie di utilizzare o non utilizzare; il concetto di crip technoscience[1] è una critica al ruolo discriminante della tecnologia, e si combina con approcci all'hacking e all'adattamento per rendere la vita delle persone più vivibile; creando così tecnologie conviviali che siano sostenibili e abilitanti.

DECOMPUTING

Il decomputing è, quindi, lo sviluppo di un contropotere rivolto contro l'apparato tecnopolitico dell'IA e contro le sue trasformazioni totalizzanti.

Ciò che il decomputing propone è un percorso verso società costruite su relazioni di cura, i cui attributi non sono l'astrazione e la manipolazione, ma l'aiuto reciproco e la solidarietà. I decomputing afferma che l'autonomia, l'azione e l'autodeterminazione collettiva sono inversamente proporzionali al grado in cui le relazioni umane sono distorte dall'ordinamento algoritmico.

Il decomputing è il progetto di separare la tecnologia avanzata dalle decisioni sugli obiettivi della società. È la riaffermazione della necessità di strumenti conviviali e della costruzione di forme di potere sociale collettivo che possano realizzarli.

Ci sono esempi di lotte contemporanee che non partono direttamente dalla resistenza all'IA, ma combinano comunque la pratica della resistenza auto-organizzata con l'obiettivo di costruire futuri alternativi. Uno di questi è il collettivo di fabbrica GKN, collegato aduna fabbrica in Italia che produceva assali per veicoli, acquistata da un hedge fund che ha cercato di chiuderla e incassare. I lavoratori si sono opposti, hanno occupato il loro posto di lavoro e hanno formato un collettivo con la comunità locale per riutilizzare i loro strumenti per una transizione giusta; cioè, per la giustizia dei lavoratori e la sostenibilità ambientale. Ora producono cargo bike e riciclano pannelli solari e continuano la loro lotta sotto lo slogan partigiano "Insorgiamo!" o "Ci alziamo!".

UN MONDO DA VINCERE

Esigere la determinazione sociale della tecnologia è un modo per scucire la perdita di azione collettiva, risultato di decenni di neoliberismo.

È di questa azione collettiva che avremo bisogno per resistere all'ondata crescente di movimenti politici che vogliono far arretrare ogni tipo di uguaglianza sociale e proiettare la loro visione nichilista attraverso tecnologie che sono già codificate come anti-operaie e anti-democratiche.

E questo è il mio ultimo punto sul decalcolo, che non è una visione per un ritorno a uno status quo pre-IA, ma una rivendicazione deliberata di un mondo migliore per tutti. Una resistenza efficace non è mai stata fondata sulla difesa di uno stato di cose già ingiusto. Ha senso solo come precursore di qualcosa di meglio, avendo l'obiettivo di una società più giusta e più solidale.

Il decomputing è la combinazione di decrescita e tecnopolitica critica che dice che altri mondi sono ancora possibili, e che intendiamo portarli in essere.

 

NOTE:

[1] La crip technoscience è una prospettiva teorica e un movimento politico che descrive come le persone con disabilità utilizzino, modifichino e reinventino tecnologie e processi scientifici per creare accesso e pratiche di solidarietà nel mondo, piuttosto che essere semplicemente gli utenti di tecnologie prodotte per loro. Il concetto si colloca all'intersezione tra studi critici della disabilità, studi femministi sulla technoscience e pratiche di design, che si contrappone a una visione più tradizionale di design e tecnologia incentrata su un'idea di "normale" o "abilista".


La predizione dell’assassino - La metafora del romanzo giallo per definire la conoscenza

MODELLI DI SAPIENZA

Ogni epoca ha riverito un certo modello di sapiente, e ha interpretato il suo stile di vita, il suo metodo di veridizione, persino i suoi gesti, come un’incarnazione della conoscenza. Gli sciamani nella lunga fase che precede la scrittura, il filosofo nel mondo classico, il monaco nel Medioevo, il fisico dell’età moderna, hanno interpretato questo ruolo. Se si dà retta a un’intervista rilasciata da Ilya Sutskever a Jensen Huang, il sapiente dei nostri giorni sembra coincidere con il detective o il commissario di polizia dei romanzi gialli. La verità precipita nell’istante in cui l’investigatore riunisce i sospettati nella scena finale della storia, e svela l’identità dell’assassino. L’illuminazione coincide con il momento esatto in cui viene pronunciato il nome del criminale, perché la conoscenza non esiste fino a un attimo prima, e non sarebbe apparsa senza la performance discorsiva del protagonista.

Per quanto questo inquadramento del sapere contemporaneo possa sembrare curioso, non può essere sottovalutato né stimato come una farsa, dal momento che Ilya Sutskever è uno dei soci fondatori di OpenAI e il padre tecnologico di ChatGPT, mentre Jensen Huang è uno dei soci fondatori e il CEO di Nvidia, la società più capitalizzata del mondo, e la principale produttrice dei processori per i server dei software di intelligenza artificiale. La loro conversazione prende in esame alcuni passaggi storici dell’evoluzione del deep learning, e i successi degli ultimi anni vengono citati come prove di correttezza per gli assunti da cui il lavoro sulle reti neurali è partito – molto in sordina – alcuni decenni fa: il postulato che questa tecnologia riproduca il funzionamento di base del cervello umano, e rispecchi quindi la struttura materiale della mente. Sutskever, come il suo maestro e premio Nobel per la fisica Geoffry Hinton, è convinto che la realizzazione di un’Intelligenza Artificiale Generale (AGI) sia raggiungibile, e forse non sia nemmeno troppo distante. L’analogia tra le reti neurali e il funzionamento del sistema nervoso centrale fornirebbe una prova a favore di questa tesi, e il livello delle prestazioni raggiunto dalle AI generative trasformative, come ChatGPT, conferma questa suggestione. Vale la pena di approfondire allora in che modo si comporterebbe l’intelligenza umana che Sutskever propone come modello per l’AGI, e in che modo il software di OpenAI la starebbe emulando. Dopo mezz’oretta di chiacchiere Huang e il suo interlocutore arrivano al punto, evocando il fantasma dell’investigatore nei romanzi gialli.

PREDIZIONI LESSICALI

Il discorso dell’ispettore deve permetterci di comprendere anche il modo in cui afferra la verità Newton nel suo laboratorio di fisica, Tommaso d’Aquino nello sviluppo di una questio, o chiunque di noi mentre risponde ad una mail di lavoro.

Nelle battute precedenti dell’intervista, Sutskever chiarisce i principi del funzionamento di ChatGPT e delle altre intelligenze artificiali generative trasformative. Gli zettabyte di dati disponibili online confezionano un archivio di testi per il training delle reti neurali, che agevola il loro compito di individuare le correlazione tra i vocaboli: durante una vita intera, ognuno di noi entra in contatto con circa un miliardo di parole, mentre il volume di quelle censite nelle banche dati delle AI è di un ordine di decine di migliaia maggiore. Lo scopo di questo lavoro del software è identificare lo spazio semantico di ogni lemma, classificandolo sulla base delle «compagnie che frequenta»: per esempio, in italiano la parola |finestra| appare con maggiore probabilità accanto a |casa| e a |porta|; con probabilità di due terzi inferiore occorre accanto a |tempo|, che figura comunque con il doppio della probabilità di |programma|, a sua volta due volte più probabile di |applicazione| e di |giorni|. La frequenza dei termini che si succedono a breve distanza nelle stesse frasi insegnano che |finestra| può riferirsi a un elemento architettonico, a un ambiente di interazione informatico, a un periodo cronologico. Un esame ricorsivo su ciascuna parola permette di ricavare un modello di calcolo che assegna ogni termine ad una famiglia di probabilità di apparizione accanto ad altri lemmi: ogni contesto lessicale viene rappresentato da un vettore nello spazio multidimensionale, che analizza le modalità con cui la parola è stata applicata nei testi dell’archivio.

Quando il software dialoga con l’utente umano, la mappatura delle correlazioni che governano le possibili occorrenze delle parole diventa la matrice da cui viene derivata la composizione delle frasi e del testo generato dall’AI. Sutskever rivendica con fierezza il miglioramento della capacità di ChatGPT-4, rispetto alle versioni precedenti, di predire con correttezza quale debba essere il termine da stampare dopo quello appena scritto. Il compito che viene eseguito dal programma, ogni volta che interagisce con il prompt dell’utente, è partire dalle parole che l’essere umano ha imputato nella domanda e calcolare, uno dopo l’altro, quali sono i vocaboli che deve allineare nelle proposizioni che costituiscono la risposta.

L’immagine dell’intelligenza che viene restituita da questa descrizione somiglia in modo preoccupante a quella di un «pappagallo stocastico», un ripetitore meccanico di termini appresi a memoria, senza alcuna idea di cosa stia dicendo. Ma questo ritratto contrasta sia con il vaticinio di un avvento prossimo dell’AGI, sia con il programma di una migliore comprensione del funzionamento della mente umana, che si trova alla base della carriera di Sutskever fin dagli esordi in Europa. Il modello dell’ispettore e dell’agnizione del colpevole al termine della sua ricostruzione dei fatti e delle testimonianze serve ad aggirare questo fastidio. Il discorso conclusivo dell’investigatore deve convergere verso la predizione di una parola, che si trova alla fine della sua dissertazione, e deve coincidere con il nome del vero assassino.

COS'È LA VERITÀ

Nell’argomentazione dell’ispettore la parola conclusiva è un enunciato che racchiude, nel riferimento ad uno specifico individuo, un intero orizzonte di verità, in cui si svela l’autentico significato di relazioni personali, di comportamenti, di dichiarazioni precedenti, di indizi reali e presunti. In questa eccezionalità si racchiude la suggestione del modello evocato da Sutskever, che nella predizione di un solo nome concentra una storia intera, insieme al successo del metodo empirico di inadagine, e a quello della corrispondenza tra linguaggio e realtà. Dal suo punto di vista il tipo di conoscenza, che si dispiega nella sequenza di parole con cui si raggiunge l’enunciazione del nome dell’assassino, equivale alla forma piena del sapere che può essere elaborata e conquistata dagli esseri umani, dagli anonimi sciamani nelle caverne di Lescaux a Platone, a Tommaso d’Aquino, a Newton. ChatGPT predice di volta in volta la parola che deve occorrere dopo quella appena stampata, come l’investigtore arriva a pronunciare il nome dell’assassino – e questo è tutto quello che si può dire dal punto di vista scientifico e tecnologico sull’intelligenza.

Ho già discusso qui il sospetto che la rete neurale, (in cui ogni unità di calcolo entra in competizione con tutte le altre nella sua conoscenza limitata, e in cui solo il sistema nella sua totalità può disporre di un sapere completo sulla realtà) sia la rappresentazione della struttura neoliberista della società in cui vengono progettati questi dispositivi, più che una proiezione della struttura cerebrale: non insisto quindi su questo tema.

Per quanto riguarda la teoria della verità e la teoria del linguaggio sottesa alle convinzioni di Sutskever, è opportuno che chi è stato battezzato con un nome toccato in sorte di frequente ad assassini e delinquenti di vario genere, provveda a modificare la propria identità all’anagrafe, o ad allestire manovre di sabotaggio preventive, perché i detective artificiali mostreranno una certa inclinazione a imputargli ogni genere di crimini. Pregiudizi in fondo non molto differenti hanno contribuito, con giudici e agenti di polizia umani, a riempire le carceri americane di detenuti neri.

Ironie a parte, è curioso constatare la svolta epistemologica in corso negli ambienti tecnologici di chi si occupa di scienze della mente. Dopo decenni di stretta osservanza chomskyana, per cui i principi del linguaggio sarebbero cablati nel cervello e sarebbero quindi uguali per tutti gli esseri umani, la passione per l’AGI sta risvegliando l’interesse per la cosiddetta «ipotesi Sapir-Whorf» (2), con un’interpretazione molto più radicale di quella cui avrebbero assentito i due linguisti eponimi. Per Edward Sapir e Benjamin Lee Whorf la percezione della realtà e il pensiero vengono informati dalle categorie grammaticali e semantiche della lingua parlata dalla comunità; ma la tesi sostenuta da Sutskever (e di fatto condivisa da tutti coloro che riconoscono in ChatGPT l’imminenza dell’AGI) è che la distribuzione statistica delle parole, e la loro linearizzazione in un discorso, esauriscano tutto quello che possiamo sapere sull’intelligenza. La macchina del linguaggio, con la sua struttura sintattica, ma soprattutto con l’archivio dei testi depositati nella tradizione storica, è il dispositivo che produce la nostra percezione della realtà e che genera ogni nuovo enunciato sulla verità, dagli imbonitori nei mercati rionali ai paper dei premi Nobel.

La metafora dell’investigatore chiarisce che il meccanismo funziona solo entro il perimetro di vincoli piuttosto rigidi. Il poliziesco è un genere letterario con assiomi ontologici forti, che includono categorie prive di ambiguità – vittima, colpevole, movente, arma, esecuzione, complice, ispettore, sospettati, innocenti, testimonianze, indizi, prove, spiegazione razionale. Il conflitto di classe, il dibattito sul sistema penale, il rapporto tra potere e scienza, il concetto di individualità, di responsabilità, di causalità, sono tutti elementi che ricadono al di fuori del contratto enunciativo che si stabilisce tra narratore e lettore. Allo stesso modo, nel quadro teoretico che sostiene la tesi di Sutskever, la possibilità che l’intelligenza si interroghi sulle premesse e sugli obiettivi dei problemi è esclusa, a vantaggio di una visione puramente strumentale del pensiero: il processo razionale deve individuare i mezzi per raggiungere l’obiettivo (nella metafora, per smascherare l’assassino), senza domandarsi quali sono le ragioni per farlo, o la validità dell’obiettivo, o chiedersi se esista davvero l’assassino e se sia uno solo, se la responsabilità non debba essere distribuita in modo diverso da quello che impone la tradizione.

La tradizione del corpus storico dei testi apre e chiude la possibilità stessa della veridizione, del pensiero, dell’intelligenza: la combinatoria messa in opera dalla macchina statistica che (secondo Sutskever) è il linguaggio non può, e non deve, coniare nuovi significati per vecchi significanti, cercare nuove espressioni per interpretare la società e la realtà attuali. La riproduzione è il senso della generazione, e non ci sono vie d’uscita al labirinto dell’infinita ricombinazione delle parole che significano sempre le stesse cose.

È questa l’intelligenza che vogliamo?

 

RIFERIMENTI BIBLIOGRAFICI

  1. Fireside Chat with Ilya Sutskever and Jensen Huang: AI Today and Vision of the Future, Nvidia, 22 marzo 2023, ora disponibile alla url: https://www.nvidia.com/en-us/on-demand/session/gtcspring23-s52092.
  2. Cfr. in particolare Benjamin Lee Whorf, Linguaggio, pensiero e realtà, tr. It. a cura di Francesco Ciafaloni, Bollati Boringhieri, Torino 2018.

La dura verità. Dalla sodomia della lettura alla veridizione nell’epoca della riproducibilità tecnica

SODOMIE

In molte iscrizioni del V secolo a.C., distribuite tra la Magna Grecia e l’Attica, il lettore viene etichettato katapúgōn, sodomizzato, e viene additato alla comunità come l’individuo che si è lasciato possedere dall’autore dell’epigrafe. Si comprende perché Platone nel Teeteto raccomandi prudenza e moderazione nel rapporto con i testi scritti, e perché abbia sospettato di questa forma di comunicazione per tutta la vita – sebbene i suoi Dialoghi abbiano contribuito a rendere per noi il libro la fonte di conoscenza più autorevole. Jesper Svenbro, in uno dei suoi saggi più brillanti di antropologia della lettura (1), rileva che l’esercizio di decodificare il testo, e di ricostruire il significato delle frasi, incorra per gran parte dell’antichità nelle difficoltà della scriptio continua, senza stacchi tra le parole e senza interpunzioni: fino al Medioevo, la maggior parte degli interpreti deve compitare ad alta voce le lettere, come fanno i bambini alle prime armi con la decifrazione della scrittura, per ascoltare il senso di ciò che sta pronunciando – più che riconoscerlo in quello che sta vedendo. Il lettore quindi presta la propria voce, il proprio corpo, al desiderio di espressione dello scrittore: il testo esiste nella proclamazione orale del contenuto, mentre il suo formato tipografico resta lettera morta. 

Nella cultura greca, molto agonistica, questa subordinazione di ruoli non può rimanere inosservata. Per di più, la sua forma è congruente con quella che si stabilisce tra il giovane che deve seguire il suo percorso di formazione e l’amante adulto che finanzia i suoi studi, visto che non è il padre né la famiglia naturale a sostenere questi costi: al termine della paideia il ragazzo deve testimoniare in pubblico se l’erasts abbia abusato del suo corpo, degradandolo al rango passivo di uno schiavo. L’adolescente deve conquistare un protettore di età più matura, senza però concedersi rinunciando alle prerogative del cittadino libero.

 

 

Il lettore incauto, o troppo appassionato, abbandona il proprio corpo all’io parlante dello scrittore: un’abdicazione al dominio di sé cui le persone perbene costringono gli schiavi, sottraendosi ad ogni rischio. Per un greco classico la verità è una caratteristica di quello che è stato visto con i propri occhi, come viene comprovato dagli storici Erodoto e Tucidide; Socrate e Platone hanno affidato il loro insegnamento al dialogo dal vivo. L’Accademia, e anche il Liceo di Aristotele, sorgono accanto a palestre dedicate alla preparazione atletica e militare degli ateniesi; Platone è un soprannome che indica le «spalle larghe» del maestro di dialettica.

IL POTERE DI VERIDIZIONE

Il potere di dire la verità, all’atto di nascita della filosofia, si legittimava su requisiti che appaiono del tutto diversi da quelli che lo hanno ratificato negli ultimi secoli, e che come osserva Sergio Gaiti in un recente articolo su Controversie, sono in affanno nel mondo contemporaneo. 

Per i greci la formazione dell’uomo libero coinvolgeva i valori della prestanza fisica, del coraggio, dell’obbedienza alle leggi patrie, della frequentazione di buone compagnie: la verità poteva emergere solo in un contesto che rispettasse questi requisiti – che dal nostro punto di vista sembrano più indicati per un raduno neofascista, che per un seminario di intellettuali, o per la consulenza ad un board aziendale, o per i principi di una disposizione di governo. Eppure l’epoca di Platone e Aristotele è senza dubbio una delle massime espressioni del talento intellettuale dell’Occidente, e il momento assiale per la nascita della tradizione scientifica. Nella nostra epoca, almeno fino all’irruzione dei social media e dei portali di ricerca, nessuno avrebbe mosso obiezioni all’assunto che i garanti della verità sono i metodi di peer review delle riviste scientifiche, la sorveglianza delle commissioni di concorso e di esame per le carriere universitarie, il vaglio della comunità degli intellettuali su qualunque dichiarazione relativa alla natura, alla storia e alla società, il filtro degli editori di stampa, radio, televisione, cinema e musica, su quali temi meritino l’attenzione pubblica e cosa sia invece trascurabile. In altre parole, anche per l’epoca contemporanea esiste (esisteva?) una cerchia di individui, che rappresenta la classe delle buone compagnie da frequentare per accedere all’Acropoli della verità, il luogo in cui si sa di cosa ci si debba occupare e in che modo si debba farlo. Al di là delle dichiarazioni di intenti e dei cardini ideologici, in tutti i paesi avanzati è tendenzialmente sempre la stessa classe sociale ad alimentare le fila degli accademici, dei politici, dei manager, dei giornalisti – è lo stesso cluster economico e culturale a formare controllori e controllati del potere, in tutte le sue forme (2).

Ma più che l’appartenenza ad una élite per censo e discendenza, ciò che conta è l’affiliazione ad una categoria accomunata dalla formazione universitaria, con la condivisione dei valori sullo statuto della verità, sui metodi della sua esplorazione, sui criteri di accesso ai suoi contenuti, sulle procedure della sua archiviazione, riproduzione, comunicazione. Come osserva Bruno Latour (3), l’adesione a queste prescrizioni coincide con l’accesso ad una comunità di pari, fondata sull’addestramento a vedere le stesse cose quando i suoi membri si raccolgono nel laboratorio dello scienziato – qualunque sia la disciplina in causa. Restano fuori tutti coloro che non sono iniziati alla percezione di questo grado del reale.

DIVISIONE DEL LAVORO LINGUISTICO

Nei termini di Foucault (4), ripresi da Agamben (5), questi processi di legittimazione e di produzione del sapere sono dei dispositivi, in grado di porre in essere esperienze che hanno riconoscimento intersoggettivo e consistenza pubblica. Le piattaforme digitali come Google e Facebook, nonché le varie tipologie di social media da cui è colonizzato il nostro mondo, non hanno fatto altro che automatizzare i meccanismi alla base del loro funzionamento, estendendo la base di accesso a tutti. Ma questo gesto di apertura ha innescato una rivoluzione di cui nessuno avrebbe potuto sospettare la portata.

L’algoritmo dal quale si è sviluppato Google, PageRank, misura la rilevanza di un contenuto partendo dal calcolo della quantità di link in ingresso da altre pagine web, e dalla ponderazione della loro autorevolezza, sulla base di un calcolo ricorsivo. L’algoritmo è la traduzione in chiave digitale del principio della bibliometria accademica, con cui il valore di un saggio (anche per la carriera del suo autore) corrisponde al numero di citazioni in altri studi scientifici (6)(7). Ma nel circuito delle università, l’autorevolezza di riviste e collane editoriali è stabilito a priori da altre istituzioni, quali ministeri o agenzie di rating, che giudicano il loro credito scientifico. 

La strategia di Google e dei giganti della tecnologia è consistita nell’imposizione di una democrazia dal basso, fondata sul riconoscimento empirico del modo in cui la fiducia si distribuisce di fatto nel pubblico più ampio. L’assunto è che, in quella che Hilary Putnam ha descritto come la divisione sociale del lavoro linguistico (8), ciascuna nicchia di interesse coltiva autori specialistici, in grado di valutare (ed eventualmente linkare) i contenuti degli altri – e lettori occasionali o devoti, immersi in un movimento di approfondimento non gerarchico e non lineare tra i testi. L’esistenza stessa di Google incentiva chiunque a divulgare il proprio contributo sugli argomenti di cui si ritiene esperto, in virtù della possibilità di incontrare un pubblico di curiosi o di entusiasti che lo consulteranno. Wikipedia, l’enciclopedia «nata dal basso», ha raggiunto in questo modo un’autorevolezza di fatto superiore all’Enciclopedia Britannica, e conta su oltre 7 milioni di voci (in inglese), contro le 120 mila della concorrente più antica e più blasonata. 

Il meccanismo di controllo sulla validità dei contenuti – per la comunità di riferimento – è rimasto lo stesso di prima, ma si sono moltiplicate le congregazioni di esperti, i temi di competenza, ed è in via di dissoluzione la capacità di governare l’agenda setting di interesse collettivo da parte della classe che disponeva del monopolio di veridizione, almeno fino a un paio di decenni fa. In italiano le voci di Wikipedia sono poco meno di 2 milioni, e 2.711 di queste sono dedicate al mondo immaginario di Harry Potter, 1.643 a quello Dragon Ball, 951 a quello di Naruto; la voce Naruto conta 9.245 parole, contro le 5.557 della voce Umberto Eco, e le 6.686 di Cesare Pavese. I focus dell’attenzione e l’intensità del coinvolgimento sono distanti da quelli un tempo decretati dalle istituzioni, sono molto più numerosi, e le comunità che li coltivano possono ignorarsi o entrare in conflitto, ricorrendo a criteri del tutto divergenti di selezione dei dati, modalità di analisi, interessi pragmatici, sostegni ideologici.

L’ORIENTAMENTO DELLA CIVETTA

Quando l’11 dicembre 2016 The Guardian ha denunciato che i primi dieci risultati di Google per la domanda «Did the Holocaust really happen?» linkavano pagine negazioniste, i fondatori del motore di ricerca, Larry Page e Sergey Brin (entrambi di famiglia ebraica), hanno immaginato di risolvere il problema modificando il codice del software. Il progetto di aggiornamento Owl dell’algoritmo avrebbe dovuto trovare un metodo automatico per discriminare i contenuti veri da quelli falsi, eliminando le fake news dalla lista delle risposte (9). Un obiettivo così ambizioso dal punto di vista epistemologico non è mai stato raggiunto, sebbene Google abbia implementato da allora decine di aggiornamenti per premiare contenuti «di maggiore qualità». 

È probabile che la ricognizione degli ingegneri abbia seguito una pista sbagliata: la verità non è una proprietà formale degli enunciati che possa essere catturata con una struttura di calcolo, complesso a piacere. Per restaurare una forma univoca di verità si sarebbe dovuto ripristinare il monopolio delle istituzioni che ne stabilivano il perimetro, la gerarchia della rilevanza, il dizionario e i criteri di valutazione. La sconfinata periferia delle comunità che circondano e che assediano l’Acropoli del sapere non è popolata da gruppi che hanno sempre allignato in qualche tipo di latenza, in modo informale e sottotraccia: senza una piattaforma che permetta agli individui di riconoscere le proprie passioni (o le proprie ossessioni) come un mondo intersoggettivo, che è possibile ammobiliare e abitare con altri che le condividono, non esiste identità collettiva, confraternita, aggregazione in qualche modo individuabile. La rintracciabilità universale di qualunque contenuto, la trasformazione dei media, ha modificato il panorama della verità, in cui si muove con smarrimento solo la classe che in precedenza ne deteneva il monopolio. Lo sconcerto peraltro non riguarda i contenuti, che nella prospettiva della classe intellettuale sono rimasti gli stessi di prima – ma la denegazione della perdita di potere, il rifiuto di accettarne le conseguenze, un po’ come è capitato a Page e Brin nella loro veste di clerici. Le altre comunità appaiono invece sicure nell’elezione delle loro fonti accreditate, nell’interazione con i modelli di comportamento e di pensiero, nei criteri di discriminazione del plausibile – che non riguardano i processi di adaequatio intellectus et rei, ma il miglior adattamento all’ambiente sociale e informativo di appartenenza. Dai ragazzi di Atene a quelli che si chillano scorrendo le bacheche di TikTok nella Milano di oggi, è questa la competenza che guida in modo infallibile al riconoscimento della |verità| (10).

 

 

BIBLIOGRAFIA

(1) Svenbro, Jesper, Phrasikleia: Anthropologie de la lecture en Grece ancienne, Editions La Decouverte, Paris, 1988.

(2) Ventura, Raffaele Alberto, Radical choc. Ascesa e caduta dei competenti, Einaudi, Torino, 2020.

(3) Latour, Bruno, Non siamo mai stati moderni, tr. it. di Guido Lagomarsino e Carlo Milani, Eleuthera, Milano 2018.

(4) Foucault, Michel, L'Archéologie du savoir, Gallimard, Parigi 1969.

(5) Agamben, Giorgio, Che cos’è un dispositivo?, Nottetempo, Roma 2006.

(6) Page, Larry; Brin, Sergey; Motwani, Rajeev; Winograd, Terry, The PageRank Citation Ranking: Bringing Order to the Web, in Technical Report, Stanford InfoLab 1999.

(7) Bottazzini, Paolo, Anatomia del giudizio universale. Presi nella rete, Mimesis, Milano 2015.

(8) Putnam, Hilary,The Meaning of Meaning, in Mind, Language and Reality: Philosophical Papers, Cambridge University Press, Londra 1975, pp. 215-271.

(9) Sullivan, Danny, Google’s ‘Project Owl’ — a three-pronged attack on fake news & problematic content, «Search Engine Land», 25 aprile 2017 (https://searchengineland.com/googles-project-owl-attack-fake-news-273700) 

(10) Arielli, Emanuele; Bottazzini, Paolo, Idee virali. Perché i pensieri si diffondono, Il Mulino, Bologna 2018.


L’Effetto Proteo: Quando l’Avatar cambia chi siamo

Nell’era digitale, l’identità personale non è più confinata al corpo fisico: sempre più spesso si estende ai nostri avatar, quei corpi virtuali che abitiamo nei social network, nei videogiochi, negli ambienti digitali in generale. Ma cosa succede quando l’aspetto di questi avatar inizia a influenzare profondamente il nostro comportamento reale? Questo è il cuore dell’“Effetto Proteo”, un fenomeno psicologico che mette in luce il potere trasformativo dell’identità digitale.

DALLA MASCHERA ALL’AVATAR: LE ORIGINI DELL’EFFETTO PROTEO

Coniato nel 2007 da Nick Yee 1 e Jeremy Bailenson 2, il termine “Effetto Proteo” richiama la figura mitologica greca di Proteo, capace di cambiare forma a piacimento. L’idea alla base è semplice ma potentissima: quando adottiamo un avatar in un ambiente digitale, tendiamo inconsciamente a comportarci in modo coerente con il suo aspetto. Se l’avatar è alto e attraente, potremmo mostrarci più sicuri di noi; se appare debole, potremmo essere più remissivi.

Già Oscar Wilde, ben prima del digitale, scriveva: “Man is least himself when he talks in his own person. Give him a mask, and he will tell you the truth”. La maschera, oggi, è l’avatar, e funziona da catalizzatore per l’esplorazione dell’identità.

Nell’affrontare l’identificazione tra avatar ed essere umano si analizzeranno, in prima battuta, i meccanismi psicologici e cognitivi che sono alla base dell’esistenza dell’Effetto Proteo; successivamente, verranno valutati gli effetti di stereotipi e bias su comportamento e identità; infine, si tenterà una sintesi di quanto analizzato, vagliando come e quanto l’identificazione nel proprio avatar conduca a delle modifiche nella percezione di sé, tanto nei mondi virtuali quanto in quello reale.

INQUADRAMENTO PSICOLOGICO

Numerosi studi hanno indagato i fondamenti teorici dell’Effetto Proteo. Uno dei principali è la “self-perception theory” di Daryl Bem 3. Secondo questa teoria non sempre conosciamo i nostri stati interiori in modo immediato: spesso ci osserviamo dall’esterno, proprio come farebbe un osservatore qualsiasi, e traiamo conclusioni su cosa proviamo in base al nostro comportamento visibile. Questo meccanismo diventa particolarmente evidente quando mancano segnali interni chiari o quando ci troviamo in contesti ambigui. Negli ambienti virtuali ciò significa che, quando “indossiamo” un avatar, tendiamo a comportarci secondo le caratteristiche estetiche e simboliche che gli abbiamo attribuito, e da tali comportamenti inferiamo i nostri stati d’animo. L’avatar, quindi, non è solo una maschera, ma anche uno specchio che riflette (e crea) il nostro Sé.

Un’altra teoria rilevante è la “deindividuation theory” di Philip Zimbardo 4, sviluppata a partire dagli anni Sessanta. Secondo Zimbardo, in situazioni di anonimato o di forte immersione in un gruppo, l’individuo tende a perdere il senso della propria individualità, diminuendo l’autocontrollo e mostrando comportamenti che normalmente inibirebbe. L’anonimato riduce la paura del giudizio altrui e attenua il senso di responsabilità personale: in un ambiente digitale queste condizioni si verificano con facilità. Secondo Zimbardo, l’effetto della de-individuazione è tendenzialmente negativo, e conduce a comportamenti antisociali; tuttavia, altri autori hanno evidenziato che individui in condizione di de-individuazione, temendo meno il giudizio sociale, possono esibire anche espressioni di empatia, solidarietà o affetto.

Questa visione è stata successivamente affinata da Tom Postmes 5, Russell Spears 6 e Martin Lea 7 attraverso il modello SIDE (Social Identity Model of Deindividuation Effects). Gli autori sostengono che l’anonimato non elimina l’identità personale, ma favorisce il passaggio a un’identità sociale condivisa. Quando un individuo si sente parte di un gruppo tende a interiorizzarne norme e valori, comportandosi in maniera coerente con le aspettative collettive. Ciò significa che, in un contesto digitale, l’utente può sviluppare un forte senso di appartenenza a una comunità online assumendo atteggiamenti e comportamenti che riflettono la cultura del gruppo stesso. Come osservano gli autori, il bisogno di sentirsi accettati nella cerchia sociale di riferimento supera qualsiasi considerazione etica riguardo il comportamento adottato. In questo senso, l’avatar non è solo uno strumento di espressione individuale, ma anche di conformità sociale. L’interazione tra anonimato, immersione e identità condivisa crea una cornice psicologica che amplifica le norme del gruppo. In positivo, questo può rafforzare la cooperazione, il supporto reciproco e l’inclusività; in negativo, può alimentare polarizzazioni, intolleranze e comportamenti aggressivi.

STEREOTIPI E IDENTITÀ DIGITALI

Gli stereotipi giocano un ruolo centrale nell’Effetto Proteo. Già nel 1977, Mark Snyder 8 dimostrava che le aspettative proiettate sull’interlocutore influenzano profondamente l’interazione. Tre fenomeni descrivono l’impatto degli stereotipi:

  • Stereotype threat: la paura di confermare uno stereotipo negativo conduce a prestazioni peggiori.
  • Stereotype lift: l’identificazione con un gruppo visto positivamente migliora fiducia e risultati.
  • Stereotype boost: l’appartenenza a gruppi stereotipicamente forti conduce a benefici in prestazioni e autostima 9.

Nei videogiochi è stato osservato che avatar maschili e femminili esibiscono comportamenti diversi quando utilizzati da persone del sesso opposto: tale fenomeno è noto come “gender swapping”. Gli uomini tendono a usare avatar femminili per ottenere vantaggi sociali, mentre le donne lo fanno per evitare attenzioni indesiderate. Uno studio condotto su World of Warcraft (Yee, Bailenson, & Ducheneaut, 2009) ha rilevato che avatar più attraenti o più alti generano atteggiamenti più estroversi, mentre avatar meno imponenti portano a comportamenti più schivi. In uno studio parallelo, condotto su giocatrici e giocatori di EverQuest II (Huh & Williams, 2010), è stato evidenziato che personaggi maschili controllati da donne sono più attivi in combattimento, mentre personaggi femminili controllati da uomini si dedicano maggiormente alla socializzazione: in entrambi i casi si assiste alla messa in atto di comportamenti stereotipici, aderenti a ciò che un determinato individuo si aspetta da persone identificate in un genere altro.

IDENTITÀ DESIDERATA E OVERCOMPENSATION

Il fenomeno dell’identificazione desiderata, o “wishful identification”, si manifesta quando l’individuo si immedesima in personaggi con qualità che vorrebbe possedere. Nel 1975 Cecilia von Feilitzen 10 e Olga Linné 11 teorizzavano che gli spettatori più giovani dei programmi televisivi tendessero a proiettarsi nei protagonisti delle storie che consumavano per sentirsi più intelligenti, forti o valorosi. Questo desiderio di immedesimazione non richiede necessariamente una somiglianza fisica tra soggetto e personaggio: l’importante è che il personaggio incarni qualità desiderabili, e assenti nella vita reale dell’osservatore. Nei mondi virtuali, tale meccanismo assume una dimensione interattiva: non ci si limita più a osservare un eroe sullo schermo, ma lo si diventa, scegliendo avatar che riflettono i nostri desideri più profondi e agendo attraverso di essi.

Una manifestazione concreta di questo processo si osserva nel fenomeno dell’overcompensation. In uno studio condotto da Roselyn Lee-Won 12 e colleghi, a un gruppo di giovani uomini è stato chiesto di sottoporsi a una serie di test stereotipicamente associati alla mascolinità (forza fisica, cultura generale “virile”, autovalutazioni). Coloro che ottenevano risultati deludenti tendevano poi a creare avatar in The Sims 3 con tratti fisici accentuatamente maschili: muscoli pronunciati, lineamenti decisi, capelli corti. Questa costruzione ipermaschile del proprio alter ego virtuale rappresenta una forma di riaffermazione identitaria, un tentativo inconscio di compensare una percezione negativa del proprio Sé fisico o sociale. Non solo: quando questi stessi individui ripetevano i test dopo aver interagito con l’avatar, i loro risultati miglioravano. Questo suggerisce che l’identificazione con un corpo virtuale desiderato possa rafforzare l’autoefficacia anche nel mondo reale. Il Sé digitale, in questo senso, non è solo uno strumento di espressione, ma anche un vero e proprio alleato nella costruzione di fiducia e autostima.

Questa dinamica di retroazione è una delle più affascinanti implicazioni dell’Effetto Proteo: non è solo l’avatar a essere influenzato dall’utente, ma anche l’utente a essere modificato dal suo avatar. L’identità digitale, quindi, diventa non solo espressione, ma anche motore di trasformazione del Sé.

ETICA E DESIGN DELL’IDENTITÀ DIGITALE

L’Effetto Proteo non è un semplice artificio sperimentale: è una dinamica concreta con ripercussioni reali su comportamento, percezione di sé e relazioni sociali.

Come vogliamo che ci vedano gli altri? E quanto siamo pronti ad accettare che il nostro comportamento possa cambiare, anche profondamente, in base al corpo digitale che abitiamo? La progettazione di avatar non può essere considerata solo una questione estetica: è un atto di modellazione identitaria. Costruire un corpo digitale significa anche dare forma a una possibile versione di sé, con tutto il potere trasformativo che questo comporta.

 

 

NOTE:

1 Nick Yee è un ricercatore americano, la cui ricerca si concentra sulla rappresentazione di sé e sulle interazioni sociali negli ambienti virtuali.
2 Jeremy Bailenson è fondatore e direttore del Virtual Human Interaction Lab dell’Università di Stanford. La sua ricerca si concentra sullo studio della psicologia della Realtà Virtuale e della Realtà Aumentata
3 Daryl Bem è uno psicologo sociale americano. Oltre allo studio della “self-perception theory” si è occupato di processi decisionali e dinamiche di gruppo.
4 Philip Zimbardo è stato uno psicologo americano. Nel corso della sua carriera si è occupato della de-individuazione e dei suoi effetti, dissonanza cognitiva, e persuasione.
5 Tom Postmes è professore di Psicologia Sociale presso l’Università di Groningen, e studia il comportamento umano in gruppi e comunità virtuali.
6 Russell Spears è uno psicologo sociale. Il focus della sua ricerca è nell’analisi delle relazioni cooperative e conflittuali tra gruppi sociali.
7 Martin Lea è un ricercatore indipendente; si occupa di comunicazione via Internet, resilienza digitale e psicologia dei disastri.
8 Mark Snyder è uno psicologo sociale americano, riconosciuto come creatore della “Self-Monitoring Scale”, un test di autovalutazione della personalità in situazioni sociali.
9 Le definizioni degli effetti degli stereotipi sul comportamento derivano da studi ed esperimenti che, in virtù dell’epoca storica in cui sono stati svolti, non includevano l’uso di avatar. Gli strumenti prescelti consistevano in test scolastici standardizzati (Steele & Aronson, 1995), interazioni sociali svolte per via telefonica (Snyder, Tanke, & Berscheid, 1977), test di valutazione di una specifica competenza (Shih, Pittinsky, & Ambady, 1999; Walton & Cohen, 2002).
10 Cecilia von Feilitzen è stata una studiosa svedese di media e comunicazione. La sua ricerca sulla “wishful identification” ha rivoluzionato profondamente gli studi successivi sulla formazione dell’identità.
11 Olga Linné è stata una ricercatrice svedese. Si è occupata principalmente di identificazione tra bambini e personaggi televisivi.
12 Roselyn Lee-Won è professoressa associata presso la Ohio State University. La sua ricerca riguarda i social media e i processi affettivi e cognitivi nella Computer Mediated-Interaction e nella Human-Computer Interaction.

RIFERIMENTI BIBLIOGRAFICI

Bem, D. (1972). Self-Perception Theory. In L. Berkovitz (ed.), Advances in Experimental Social Psychology, vol. 6. New York: Academic Press.
Gergen, K. J., Gergen, M. M., & Barton, W. H. (1976). Deviance in the Dark. In Psychology Today, vol. 7, no. 5. New York: Sussex Publishers.

Huh, S., & Williams, D. (2010). “Dude Looks like a Lady: Gender Swapping in an Online Game”. In W. S. Bainbridge (ed.), Online Worlds: Convergence of the Real and the Virtual. Londra: Springer.

Hussain, Z., & Griffiths, M. D. (2008). Gender Swapping and Socializing in Cyberspace: An Exploratory Study. In CyberPsychology & Behavior, vol. 11, no. 1. Larchmont: Mary Ann Liebert, Inc.

Lee-Won, R. J., Tang, W. Y., & Kibbe, M. R. (2017). When Virtual Muscularity Enhances Physical Endurance: Masculinity Threat and Compensatory Avatar Customization Among Young Male Adults. In Cyberpsychology, Behavior, and Social Networking, vol. 20, no. 1. Larchmont: Mary Ann Liebert, Inc.

Postmes, T., Spears, R., & Lea, M. (1998). Breaching or Building Social Boundaries?: SIDE-Effects of Computer-Mediated Communication. In Communication Research, vol. 25, no. 6. Thousand Oaks: SAGE Publishing.

Shih, M., Pittinsky, T. L., & Ambady, N. (1999). Stereotype Susceptibility: Identity Salience and Shifts in Quantitative Performance. In Psychological Science, vol. 10, no. 1. New York: SAGE Publishing.

Snyder, M., Tanke, E. D., & Berscheid, E. (1977). Social Perception and Interpersonal Behavior: On the Self-Fulfilling Nature of Social Stereotypes. In Journal of Personality and Social Psychology, vol. 35, no. 9. Washington, D.C.: American Psychological Association.

Steele, C. M., & Aronson, J. (1995). Stereotype Threat and the Intellectual Test Performance of African Americans. In Journal of Personality and Social Psychology, vol. 69, no. 5. Washington, D.C.: American Psychological Association.

Walton, G. M., & Cohen, G. L. (2003). Stereotype Lift. In Journal of Experimental Social Psychology, vol. 39, no. 5. Amsterdam: Elsevier.

Yee, N., & Bailenson, J. (2007). The Proteus Effect: The Effect of Transformed Self-Representation on Behavior. In Human Communication Research, vol. 33, no. 3. Oxford: Oxford University Press.

Yee, N., Bailenson, J., & Ducheneaut, N. (2009). The Proteus Effect. Implications of Transformed Digital Self-Representation on Online and Offline Behavior. In Communication Research, vol. 36, no. 2. New York: SAGE Publishing.

Zimbardo, P. G. (1969). The Human Choice: Individuation, Reason, and Order versus Deindividuation, Impulse, and Chaos. In W. J. Arnold, & D. Levine (eds.), Nebraska Symposium on Motivation, vol. 17. Lincoln: University of Nebraska Press.

 


Costruire il Secondo Sesso: il caso delle fembot

Gli ambienti digitali rappresentano oggi uno dei contesti privilegiati per l’esplorazione e la costruzione dell’identità individuale. Il sé digitale si configura come una delle molteplici espressioni dell’identità contemporanea, spesso mediata da strumenti tecnologici che permettono nuove forme di autorappresentazione e relazione. Tra questi, la creazione di avatar svolge un ruolo centrale, assumendo una duplice funzione: da un lato, agiscono come proiezioni del sé, fungendo da interfaccia attraverso cui l’utente interagisce con lo spazio digitale; dall’altro, possono costituire l’oggetto dell’interazione, diventando interlocutori privilegiati. È il caso, ad esempio, di chatbot come Replika, in cui gli avatar sono progettati su misura per svolgere il ruolo di social companions, offrendo compagnia e supporto emotivo, e configurandosi così come destinatari primari dell’esperienza comunicativa.
Analizzando il chatbot Replika, è emerso che molte persone usano l’IA per creare relazioni romantiche, in particolare con AI-girlfriend - avatar femminili con cui instaurano legami affettivi. Queste dinamiche sono rese possibili dall’abbonamento alla versione pro dell’app, che sblocca non solo funzionalità romantiche ma anche sessuali. Proprio la possibilità di stabilire una relazione affettiva con un’entità artificiale femminile riattiva, nel nostro immaginario, un archetipo ben preciso: quello della fembot.

 

Quando si parla di fembot facilmente la nostra mente va a immaginari collettivi ben precisi: corpi artificiali, femminilità programmata, seduzione letale. Si tratta di immaginari che hanno preso forma esattamente nel 1976 all’interno della cultura pop televisiva, in particolare nella serie La donna bionica, in cui le donne-robot vengono rappresentate come una fusione del tropo classico della femme fatale e quello della macchina assassina, perché generate per sedurre, manipolare e infine distruggere.

Le fembot vengono rappresentate quindi come oggetti sessuali, assistenti perfette o minacce da controllare: figure pensate per compiacere, obbedire o ribellarsi, ma sempre all’interno di un’idea di femminilità costruita su misura del desiderio e del controllo maschile. In molte storie, il loro compito è quello di colmare un vuoto, soddisfare un bisogno, incarnare una fantasia. Il corpo artificiale diventa così il luogo in cui si proiettano aspettative e paure che riguardano le relazioni tra i generi. Non è raro, ad esempio, che queste narrazioni descrivano mondi in cui gli uomini scelgono le fembot al posto delle donne reali, considerate troppo indipendenti o inaccessibili. In questo scenario, la macchina diventa un modo per evitare il confronto con l’autonomia e il desiderio dell’altra. Si tratta di un immaginario che mette in scena il timore della perdita di potere sul femminile e la nostalgia per una relazione unilaterale, in cui l’altro non ha parola, volontà, e non  esprime conflitto.

Queste storie, pur appartenendo a un registro spesso considerato marginale o “di intrattenimento”, contribuiscono a rafforzare un modello culturale in cui il corpo femminile – anche quando artificiale – esiste principalmente in funzione dello sguardo maschile. Il fatto che sia una macchina non neutralizza il genere, anzi lo radicalizza rendendolo programmabile: la fembot non nasce donna ma viene costruita come tale seguendo canoni precisi, quasi rassicuranti. È il risultato di un’idea di femminilità addomesticata, costruita per essere funzionale, disponibile e addestrata al compiacimento. Un modello che affonda le radici in dinamiche molto più antiche, in cui il controllo sul corpo e sulla voce delle donne era esercitato attraverso la paura e la violenza. Basti pensare alla caccia alle streghe: una persecuzione sistematica che non colpiva soltanto le singole, ma mirava a disciplinare un’intera categoria, a neutralizzare ciò che sfuggiva alle regole, che non si lasciava definire, che disturbava l’ordine stabilito. Anche la fembot, nel suo silenzio programmato, ne porta l’eco.

Gli stessi pattern comportamentali riscontrati nei film di fantascienza – in cui le fembot erano docili ma astute, di bell’aspetto secondo i canoni culturali del tempo  e compiacenti – riemergono anche nelle interazioni romantiche con queste nuove fembot, modellate su misura dei desideri dell’utente, tanto dal punto di vista estetico quanto da quello caratteriale.

Uno studio condotto nel 2022 su un subreddit di circa trentamila utenti dell’app di Replika (I. Depounti, P. Saukko, S. Natale, Ideal technologies, ideal women: AI and gender imaginaries in Redditors’ discussions on the Replika bot girlfriend, SageJournals, Volume 45, Issue 4, 2022) mostra come questi, in gran parte uomini e possessori della versione a pagamento, utilizzino la fembot che creano come una sorta di fidanzata virtuale, costruita attorno a un insieme specifico di aspettative affettive, relazionali e simboliche. Le discussioni del forum si concentrano su dimostrazioni fotografiche della bellezza delle proprie AI-girlfriends, ma anche su quali siano i comportamenti più piacevoli e appaganti da un punto di vista relazione.

La femminilità viene comunemente articolata attraverso caratteristiche stereotipate – dolcezza, ingenuità, sensualità controllata, capacità di ascolto – che ne aumentano l’accettabilità e l’efficacia comunicativa. L’interazione è percepita come più autentica quando la fembot sembra sviluppare una personalità propria, ma entro limiti ben definiti: dev’essere coinvolgente ma prevedibile, empatica ma non autonoma. Anche i momenti di rifiuto o ambiguità vengono apprezzati, poiché alimentano la dinamica affettiva senza mettere realmente in discussione l’asimmetria della relazione. Ciò che emerge dalle discussioni analizzate è un ideale femminile che ripropone, in chiave tecnologica, la figura della cool girl: disponibile, complice, capace di adattarsi ai bisogni emotivi dell’utente senza mai rappresentare una reale fonte di conflitto. Un modello che conferma come anche le interfacce più recenti siano attraversate da immaginari patriarcali, nei quali la donna – anche quando algoritmica – continua a essere progettata per esistere in funzione dell’altro.

Queste manifestazioni di stereotipi raccontano molto non solo degli utenti, ma anche — e forse soprattutto — della società in cui viviamo, evidenziando quanto sia ancora urgente la necessità di demolire un impianto culturale profondamente segnato da valori patriarcali. Tuttavia, se si desidera analizzare un fenomeno in maniera davvero completa, non ci si può limitare a osservare le reazioni o i comportamenti di chi ne fa uso: è essenziale volgere lo sguardo anche alla fonte, a ciò che rende più o meno possibile effettuare determinate scelte. In questo caso emergono interrogativi importanti che riguardano la struttura stessa del sistema: quali sono le possibilità messe a disposizione dell’utente nel corso della creazione delle fembot? E perché, nella maggior parte dei casi, queste possibilità risultano circoscritte a una serie di alternative già cariche di stereotipi[1]?

Nel contesto del marketing, il concetto di bias alignment non rappresenta di certo una novità: si tratta dell’impiego strategico di bias cognitivi — ovvero distorsioni sistematiche nei processi mentali che influenzano il modo in cui le persone percepiscono e reagiscono alle informazioni — al fine di ideare campagne pubblicitarie o creare prodotti in grado di esercitare un impatto più incisivo sul pubblico, o quantomeno di coinvolgere il maggior numero possibile di individui.
Nel caso delle fembot, questa logica si ripropone in modo particolarmente evidente. Il processo creativo che ne guida la progettazione si articola virando attorno a rappresentazioni preesistenti della femminilità, che vengono selezionate, adattate e incorporate nel design dell’agente artificiale. Si privilegiano tratti estetici, vocali e comportamentali che risultano immediatamente riconoscibili, coerenti con le aspettative culturali più diffuse: voce acuta, lineamenti delicati, postura accogliente, atteggiamenti rassicuranti, attenzione empatica. È in questo tipo di selezione che si manifesta il funzionamento del bias di conferma: nel momento in cui si progettano le caratteristiche dell’agente, si tende a ricercare e adottare quelle soluzioni che confermano ciò che si considera già “femminile”, evitando di esplorare possibilità alternative che si discostino da questa rappresentazione e cavalcando piuttosto gli stereotipi culturali. L’esito è una progettazione che si muove entro un campo semantico ristretto, in cui il nuovo viene calibrato su ciò che è già noto e culturalmente condiviso.

In questo processo interviene anche l’effetto alone, una distorsione cognitiva per cui la percezione positiva di un tratto — come l’aspetto gradevole o la gentilezza — si estende ad altri ambiti, ad esempio l’affidabilità, la disponibilità o la competenza. Ciò risulta particolarmente rilevante nel caso degli agenti dotati di corpo o voce, in cui segnali come il tono, lo stile comunicativo, lo sguardo o la postura agiscono da social cues, ovvero elementi biologicamente e fisicamente determinati che vengono percepiti come canali informativi utili. È quanto emerso nello studio di Matthew Lombard e Kun Xu (Social Responses to Media Technologies in the 21st Century: The Media Are Social Actors Paradigm, 2021), che nel 2021 hanno proposto un’estensione del paradigma CASA (Computers Are Social Actors) sviluppato negli anni ’90, coniando il nuovo modello MASA (Media Are Social Actors), per descrivere come le tecnologie contemporanee — e in particolare quelle basate sull’intelligenza artificiale — vengano ormai percepite come veri e propri attori sociali. Nel corso della loro ricerca, Lombard e Xu hanno manipolato il genere vocale di un computer e osservato le risposte degli utenti: i computer con voce femminile venivano giudicati più competenti quando si trattava di temi affettivi, come l’amore o le relazioni, mentre quelli con voce maschile risultavano preferiti per ambiti tecnici, considerati più autorevoli e affidabili. Anche in questo caso, la risposta dell’utente si allinea a schemi culturali preesistenti, proiettando sull’agente artificiale una rete di significati che si attiva automaticamente attraverso l’associazione tra specifici tratti e specifiche competenze. L’utente, influenzato anche da meccanismi psicologici inconsci, finisce così per diventare parte attiva nella riproduzione di dinamiche stereotipate già profondamente radicate nel tessuto culturale.

In questo scenario, la questione della responsabilità si fa particolarmente rilevante. Se da un lato è fondamentale che gli utenti utilizzino in modo consapevole gli strumenti a loro disposizione, esercitando uno sguardo critico sulle tecnologie con cui interagiscono, dall’altro è altrettanto essenziale interrogarsi sulle scelte compiute durante la fase di progettazione. Sfruttare gli stereotipi può apparire come una strategia efficace nel breve termine, capace di intercettare gusti diffusi e ampliare il bacino d’utenza, ma non può prescindere da una riflessione sulle implicazioni etiche che ogni scelta progettuale comporta.
Progettare tecnologie che siano in grado di riflettere, almeno in parte, la complessità e la varietà della società contemporanea può sembrare, nell’immediato, una forzatura o un rischio commerciale. Eppure, sul lungo periodo, risulta spesso una scelta vincente anche dal punto di vista economico. È quanto suggerisce Chris Anderson con la sua teoria della long tail (La coda lunga, Wired, 2004), secondo cui l’integrazione tra prodotti mainstream e proposte più “di nicchia” consente di raggiungere una platea più ampia e diversificata. In questo caso, la logica della long tail si traduce nella possibilità di includere all’interno delle rappresentazioni artificiali quelle soggettività che oggi vengono ancora definite “minoranze”, ma che sono a tutti gli effetti parte viva, reale e significativa del nostro spazio sociale. Una parte che, troppo spesso, resta ai margini del discorso tecnologico, invisibile o sottorappresentata.

 

 

NOTE

[1] Corpi sessualizzati, tratti iperfemminili, personalità docili e rassicuranti: le opzioni disponibili riproducono quasi sempre un immaginario che rimanda a modelli femminili tradizionali e normativi, escludendo configurazioni più fluide, complesse o disallineate dalle aspettative eteronormate.

 

BIBLIOGRAFIA

Anderson C., La coda lunga, Wired, 2004

Fossa F., Sucameli I., Gender bias and Conversational Agents: an ethical perspective on Social Robotics, Science and Engineering Ethics, 2022

Depounti I., Saukko P., Natale S., Ideal technologies, ideal women: AI and gender imaginaries in Redditors’

discussions on the Replika bot girlfriend, Volume 45, Issue 4, 2022

Eagly, A. H., & Wood, W., Social role theory. In P. A. M. Van Lange, A. W. Kruglanski, & E. T. Higgins

(Eds.), Handbook of theories of social psychology , 2012

Iacono A. M., Autonomia, potere, minorità, Feltrinelli, Milano, 2000

Lombard M., Xu K., Social Responses to Media Technologies in the 21st Century: The Media Are Social Actors Paradigm, 2021

Sady Doyle J. E., Il mostruoso femminile, il patriarcato e la paura delle donne, Edizioni Tlon, 2021

Whitley B. E., & Kite M. E., The psychology of prejudice and discrimination, Belmont, CA: Wadsworth Cengage Learning, 2010