Decomputing come atto di resistenza – Seconda parte

Nella prima parte di questo articolo ho esaminato come l'I.A. «sia di per sé un problema tecnico, un balbettante passo falso dell'ordine neoliberista che ne suggerisce l’intrinseco disordine», tracciando un percorso che ne tocca la dannosità, la dimensione violenta – sia dal punto di vista geopolitico che ambientale – l’effetto perverso della scalabilità, per arrivare al concetto di tecnofascismo.

Quello che proporrò, ora, come contromisura è il decomputing; un approccio che prende di mira direttamente l'intelligenza artificiale, ma riguarda e intende scollegare qualcosa di più del solo digitale, fino a riconfigurare le nostre relazioni sociali ed economiche più ampie.

DECRESCITA

Il decomputing è un tentativo di rispondere ai danni sociali e ambientali, via via crescenti, che l’attuale evoluzione tecnopolitica sta producendo; e, il rifiuto della scalabilità è un modo per mitigare gli effetti peggiori e un’euristica mirata a trovare modi alternativi di procedere.

Al contrario della scalabilità dell'IA – il cui fascino e potere è basato sul principio unificante della crescita senza restrizioni - il decomputing è una svolta verso la decrescita, una sfida esplicita all'estrattivismo dell'IA e alle sue logiche sistemiche.

Soprattutto, la decrescita non è semplicemente un rifiuto di dipendere dall'espansionismo, un tentativo di interrompere – qui e ora - l'estrattivismo dell'IA, ma uno spostamento dell'attenzione verso un metabolismo alternativo basato sulla sostenibilità e la giustizia sociale.

DEAUTOMATIZZAZIONE

Il principio del decomputing si oppone alla scalabilità anche perché questa induce uno stato di automatizzazione, in cui l'autonomia e la capacità di pensiero critico sono minate dall'immersione in un sistema di relazioni macchiniche.

In questo senso, l'IA è un'intensificazione delle strutture istituzionali, burocratiche e di mercato che già spogliano i lavoratori e delle comunità della loro agentività, e la collocano in meccanismi opachi e astratti. Il decomputing, al contrario, è la districazione del pensiero e delle relazioni dalle influenze riduttive delle logiche – appunto – burocratiche e di mercato che l’IA replica e rafforza.

Come esempio pratico, possiamo prendere in considerazione il caso del processo di tagli algoritmici al welfare, che viene legittimato proprio dalla presenza di un umano (human-in-the-loop) – come elemento di controllo: l’azione umana, il cui obiettivo dovrebbe essere di garantire un processo giusto, viene neutralizzata dal bias dell'automazione e dall’architettura delle scelte che tende ad allinearsi alla proposta – presunta neutrale – della macchina.

Il decomputing si propone, invece, come modello di sviluppo di forme alternative di organizzazione e di processo decisionale, sostenute dal giudizio riflessivo e dalla responsabilità situata.

Il decomputing riguarda, sia la deprogrammazione della società dalle sue certezze tecnogeniche quanto la decarbonizzazione delle sue infrastrutture computazionali.

La dataficazione e l'ideologia dell'efficienza giocano un ruolo chiave nelle ottimizzazioni negligenti e disumanizzanti dell'IA.

Il decomputing tenta, invece, di strappare la prassi sociale alla crudeltà utilitaristica apertamente celebrata dai seguaci della tecnopolitica reazionaria.

Si tratta di un deliberato allontanamento dai quadri alienanti dell'efficienza e dell'ottimizzazione e di un ritorno al contesto e alle "questioni di cura" in cui le nostre reciproche vulnerabilità e dipendenze sono centrali per la riproduzione sociale.

STRUMENTI CONVIVIALI

Il decomputing afferma che lo sviluppo e l'implementazione di qualsiasi tecnologia avanzata con impatti diffuso sulla società dovrebbero essere soggetti a un scrutinio critico e all'approvazione collettiva.

Possiamo attingere direttamente dal lavoro di Illich sugli strumenti per la convivialità: Illich definisce, infatti, strumenti le tecnologie e le istituzioni, e strumenti conviviali quelli che consentono l'esercizio dell'autonomia e della creatività, in opposizione alla risposte condizionate dai sistemi manipolativi.

La Matrice delle Tecnologie Conviviali estende le idee di Illich, specificando domande che permettono di valutare il grado di convivialità delle tecnologie, domande sull'accessibilità (chi può costruirla o usarla?), sulla relazione (in che modo influisce sulle relazioni tra le persone?) e sulla bio-interazione (in che modo la tecnologia interagisce con gli organismi viventi e le ecologie?).

CONSIGLI POPOLARI

Tuttavia, è improbabile che andremo molto lontano semplicemente ponendo domande ragionevoli sul senso di tutta questa mobilitazione. Il potere delle big tech si è esteso ben oltre la cattura delle norme, fino alla cattura dello stato, o almeno, fino a una situazione in cui c'è una crescente fusione tra gestori delle tecnologie e strutture politiche.

Il decomputing adotta invece un approccio preconizzatore degli effetti della tecnopolitica, enfatizzando il ruolo delle forme assembleari e collegiali che ho descritto altrove come consigli dei lavoratori e del popolo.

Questo tipo di collettività, auto-costituente, radicata nel contesto locale e nell'esperienza vissuta, può essere applicata a qualsiasi livello e in qualsiasi contesto, dalle associazioni genitori-insegnanti che si oppongono alla dipendenza delle giovani menti dai chatbot alle comunità minacciate dalla costruzione di un datacenter hyperscale.

Ovunque l'intelligenza artificiale venga considerata come "la risposta", c'è già una cucitura da scucire, un problema strutturale in cui coloro che sono direttamente coinvolti dovrebbero essere in prima linea nel determinare cosa debba essere cambiato.

RESISTENZA TECNOPOLITICA

La resistenza ai data centre, che è già in atto dai Paesi Bassi al Cile, mostra il potenziale delle giunzioni che si intersecano, di quella che possiamo chiamare intersezionalità infrastrutturale. Queste intersezioni si verificano perché è probabile che le stesse comunità che subiscono interruzioni di corrente a causa del sovraccarico della rete locale o respirano aria inquinata dalle turbine a gas, come – ad esempio - le comunità nere che vivono intorno al data centre XAI di Musk a Memphis, lavorino in condizioni di sfruttamento governate da un algoritmo.

Non è difficile immaginare che la resistenza a un nuovo data center sia solidale - attraverso un'assemblea congiunta di lavoratori e comunità - con gli scioperi selvaggi dei lavoratori nel centro logistico locale di Amazon.

Allo stesso modo, il principio del decomputing può assumere un ruolo importante a supporto dei movimenti per la disabilità, che stanno resistendo ai tagli selvaggi al welfare giustificati da algoritmi che stigmatizzano i disabili come membri improduttivi della società.

Per esempio, si può diffondere la comprensione del modo in cui la disabilità stessa è socialmente costruita dalle tecnologie che la società sceglie di utilizzare o non utilizzare; il concetto di crip technoscience[1] è una critica al ruolo discriminante della tecnologia, e si combina con approcci all'hacking e all'adattamento per rendere la vita delle persone più vivibile; creando così tecnologie conviviali che siano sostenibili e abilitanti.

DECOMPUTING

Il decomputing è, quindi, lo sviluppo di un contropotere rivolto contro l'apparato tecnopolitico dell'IA e contro le sue trasformazioni totalizzanti.

Ciò che il decomputing propone è un percorso verso società costruite su relazioni di cura, i cui attributi non sono l'astrazione e la manipolazione, ma l'aiuto reciproco e la solidarietà. I decomputing afferma che l'autonomia, l'azione e l'autodeterminazione collettiva sono inversamente proporzionali al grado in cui le relazioni umane sono distorte dall'ordinamento algoritmico.

Il decomputing è il progetto di separare la tecnologia avanzata dalle decisioni sugli obiettivi della società. È la riaffermazione della necessità di strumenti conviviali e della costruzione di forme di potere sociale collettivo che possano realizzarli.

Ci sono esempi di lotte contemporanee che non partono direttamente dalla resistenza all'IA, ma combinano comunque la pratica della resistenza auto-organizzata con l'obiettivo di costruire futuri alternativi. Uno di questi è il collettivo di fabbrica GKN, collegato aduna fabbrica in Italia che produceva assali per veicoli, acquistata da un hedge fund che ha cercato di chiuderla e incassare. I lavoratori si sono opposti, hanno occupato il loro posto di lavoro e hanno formato un collettivo con la comunità locale per riutilizzare i loro strumenti per una transizione giusta; cioè, per la giustizia dei lavoratori e la sostenibilità ambientale. Ora producono cargo bike e riciclano pannelli solari e continuano la loro lotta sotto lo slogan partigiano "Insorgiamo!" o "Ci alziamo!".

UN MONDO DA VINCERE

Esigere la determinazione sociale della tecnologia è un modo per scucire la perdita di azione collettiva, risultato di decenni di neoliberismo.

È di questa azione collettiva che avremo bisogno per resistere all'ondata crescente di movimenti politici che vogliono far arretrare ogni tipo di uguaglianza sociale e proiettare la loro visione nichilista attraverso tecnologie che sono già codificate come anti-operaie e anti-democratiche.

E questo è il mio ultimo punto sul decalcolo, che non è una visione per un ritorno a uno status quo pre-IA, ma una rivendicazione deliberata di un mondo migliore per tutti. Una resistenza efficace non è mai stata fondata sulla difesa di uno stato di cose già ingiusto. Ha senso solo come precursore di qualcosa di meglio, avendo l'obiettivo di una società più giusta e più solidale.

Il decomputing è la combinazione di decrescita e tecnopolitica critica che dice che altri mondi sono ancora possibili, e che intendiamo portarli in essere.

 

NOTE:

[1] La crip technoscience è una prospettiva teorica e un movimento politico che descrive come le persone con disabilità utilizzino, modifichino e reinventino tecnologie e processi scientifici per creare accesso e pratiche di solidarietà nel mondo, piuttosto che essere semplicemente gli utenti di tecnologie prodotte per loro. Il concetto si colloca all'intersezione tra studi critici della disabilità, studi femministi sulla technoscience e pratiche di design, che si contrappone a una visione più tradizionale di design e tecnologia incentrata su un'idea di "normale" o "abilista".


La predizione dell’assassino - La metafora del romanzo giallo per definire la conoscenza

MODELLI DI SAPIENZA

Ogni epoca ha riverito un certo modello di sapiente, e ha interpretato il suo stile di vita, il suo metodo di veridizione, persino i suoi gesti, come un’incarnazione della conoscenza. Gli sciamani nella lunga fase che precede la scrittura, il filosofo nel mondo classico, il monaco nel Medioevo, il fisico dell’età moderna, hanno interpretato questo ruolo. Se si dà retta a un’intervista rilasciata da Ilya Sutskever a Jensen Huang, il sapiente dei nostri giorni sembra coincidere con il detective o il commissario di polizia dei romanzi gialli. La verità precipita nell’istante in cui l’investigatore riunisce i sospettati nella scena finale della storia, e svela l’identità dell’assassino. L’illuminazione coincide con il momento esatto in cui viene pronunciato il nome del criminale, perché la conoscenza non esiste fino a un attimo prima, e non sarebbe apparsa senza la performance discorsiva del protagonista.

Per quanto questo inquadramento del sapere contemporaneo possa sembrare curioso, non può essere sottovalutato né stimato come una farsa, dal momento che Ilya Sutskever è uno dei soci fondatori di OpenAI e il padre tecnologico di ChatGPT, mentre Jensen Huang è uno dei soci fondatori e il CEO di Nvidia, la società più capitalizzata del mondo, e la principale produttrice dei processori per i server dei software di intelligenza artificiale. La loro conversazione prende in esame alcuni passaggi storici dell’evoluzione del deep learning, e i successi degli ultimi anni vengono citati come prove di correttezza per gli assunti da cui il lavoro sulle reti neurali è partito – molto in sordina – alcuni decenni fa: il postulato che questa tecnologia riproduca il funzionamento di base del cervello umano, e rispecchi quindi la struttura materiale della mente. Sutskever, come il suo maestro e premio Nobel per la fisica Geoffry Hinton, è convinto che la realizzazione di un’Intelligenza Artificiale Generale (AGI) sia raggiungibile, e forse non sia nemmeno troppo distante. L’analogia tra le reti neurali e il funzionamento del sistema nervoso centrale fornirebbe una prova a favore di questa tesi, e il livello delle prestazioni raggiunto dalle AI generative trasformative, come ChatGPT, conferma questa suggestione. Vale la pena di approfondire allora in che modo si comporterebbe l’intelligenza umana che Sutskever propone come modello per l’AGI, e in che modo il software di OpenAI la starebbe emulando. Dopo mezz’oretta di chiacchiere Huang e il suo interlocutore arrivano al punto, evocando il fantasma dell’investigatore nei romanzi gialli.

PREDIZIONI LESSICALI

Il discorso dell’ispettore deve permetterci di comprendere anche il modo in cui afferra la verità Newton nel suo laboratorio di fisica, Tommaso d’Aquino nello sviluppo di una questio, o chiunque di noi mentre risponde ad una mail di lavoro.

Nelle battute precedenti dell’intervista, Sutskever chiarisce i principi del funzionamento di ChatGPT e delle altre intelligenze artificiali generative trasformative. Gli zettabyte di dati disponibili online confezionano un archivio di testi per il training delle reti neurali, che agevola il loro compito di individuare le correlazione tra i vocaboli: durante una vita intera, ognuno di noi entra in contatto con circa un miliardo di parole, mentre il volume di quelle censite nelle banche dati delle AI è di un ordine di decine di migliaia maggiore. Lo scopo di questo lavoro del software è identificare lo spazio semantico di ogni lemma, classificandolo sulla base delle «compagnie che frequenta»: per esempio, in italiano la parola |finestra| appare con maggiore probabilità accanto a |casa| e a |porta|; con probabilità di due terzi inferiore occorre accanto a |tempo|, che figura comunque con il doppio della probabilità di |programma|, a sua volta due volte più probabile di |applicazione| e di |giorni|. La frequenza dei termini che si succedono a breve distanza nelle stesse frasi insegnano che |finestra| può riferirsi a un elemento architettonico, a un ambiente di interazione informatico, a un periodo cronologico. Un esame ricorsivo su ciascuna parola permette di ricavare un modello di calcolo che assegna ogni termine ad una famiglia di probabilità di apparizione accanto ad altri lemmi: ogni contesto lessicale viene rappresentato da un vettore nello spazio multidimensionale, che analizza le modalità con cui la parola è stata applicata nei testi dell’archivio.

Quando il software dialoga con l’utente umano, la mappatura delle correlazioni che governano le possibili occorrenze delle parole diventa la matrice da cui viene derivata la composizione delle frasi e del testo generato dall’AI. Sutskever rivendica con fierezza il miglioramento della capacità di ChatGPT-4, rispetto alle versioni precedenti, di predire con correttezza quale debba essere il termine da stampare dopo quello appena scritto. Il compito che viene eseguito dal programma, ogni volta che interagisce con il prompt dell’utente, è partire dalle parole che l’essere umano ha imputato nella domanda e calcolare, uno dopo l’altro, quali sono i vocaboli che deve allineare nelle proposizioni che costituiscono la risposta.

L’immagine dell’intelligenza che viene restituita da questa descrizione somiglia in modo preoccupante a quella di un «pappagallo stocastico», un ripetitore meccanico di termini appresi a memoria, senza alcuna idea di cosa stia dicendo. Ma questo ritratto contrasta sia con il vaticinio di un avvento prossimo dell’AGI, sia con il programma di una migliore comprensione del funzionamento della mente umana, che si trova alla base della carriera di Sutskever fin dagli esordi in Europa. Il modello dell’ispettore e dell’agnizione del colpevole al termine della sua ricostruzione dei fatti e delle testimonianze serve ad aggirare questo fastidio. Il discorso conclusivo dell’investigatore deve convergere verso la predizione di una parola, che si trova alla fine della sua dissertazione, e deve coincidere con il nome del vero assassino.

COS'È LA VERITÀ

Nell’argomentazione dell’ispettore la parola conclusiva è un enunciato che racchiude, nel riferimento ad uno specifico individuo, un intero orizzonte di verità, in cui si svela l’autentico significato di relazioni personali, di comportamenti, di dichiarazioni precedenti, di indizi reali e presunti. In questa eccezionalità si racchiude la suggestione del modello evocato da Sutskever, che nella predizione di un solo nome concentra una storia intera, insieme al successo del metodo empirico di inadagine, e a quello della corrispondenza tra linguaggio e realtà. Dal suo punto di vista il tipo di conoscenza, che si dispiega nella sequenza di parole con cui si raggiunge l’enunciazione del nome dell’assassino, equivale alla forma piena del sapere che può essere elaborata e conquistata dagli esseri umani, dagli anonimi sciamani nelle caverne di Lescaux a Platone, a Tommaso d’Aquino, a Newton. ChatGPT predice di volta in volta la parola che deve occorrere dopo quella appena stampata, come l’investigtore arriva a pronunciare il nome dell’assassino – e questo è tutto quello che si può dire dal punto di vista scientifico e tecnologico sull’intelligenza.

Ho già discusso qui il sospetto che la rete neurale, (in cui ogni unità di calcolo entra in competizione con tutte le altre nella sua conoscenza limitata, e in cui solo il sistema nella sua totalità può disporre di un sapere completo sulla realtà) sia la rappresentazione della struttura neoliberista della società in cui vengono progettati questi dispositivi, più che una proiezione della struttura cerebrale: non insisto quindi su questo tema.

Per quanto riguarda la teoria della verità e la teoria del linguaggio sottesa alle convinzioni di Sutskever, è opportuno che chi è stato battezzato con un nome toccato in sorte di frequente ad assassini e delinquenti di vario genere, provveda a modificare la propria identità all’anagrafe, o ad allestire manovre di sabotaggio preventive, perché i detective artificiali mostreranno una certa inclinazione a imputargli ogni genere di crimini. Pregiudizi in fondo non molto differenti hanno contribuito, con giudici e agenti di polizia umani, a riempire le carceri americane di detenuti neri.

Ironie a parte, è curioso constatare la svolta epistemologica in corso negli ambienti tecnologici di chi si occupa di scienze della mente. Dopo decenni di stretta osservanza chomskyana, per cui i principi del linguaggio sarebbero cablati nel cervello e sarebbero quindi uguali per tutti gli esseri umani, la passione per l’AGI sta risvegliando l’interesse per la cosiddetta «ipotesi Sapir-Whorf» (2), con un’interpretazione molto più radicale di quella cui avrebbero assentito i due linguisti eponimi. Per Edward Sapir e Benjamin Lee Whorf la percezione della realtà e il pensiero vengono informati dalle categorie grammaticali e semantiche della lingua parlata dalla comunità; ma la tesi sostenuta da Sutskever (e di fatto condivisa da tutti coloro che riconoscono in ChatGPT l’imminenza dell’AGI) è che la distribuzione statistica delle parole, e la loro linearizzazione in un discorso, esauriscano tutto quello che possiamo sapere sull’intelligenza. La macchina del linguaggio, con la sua struttura sintattica, ma soprattutto con l’archivio dei testi depositati nella tradizione storica, è il dispositivo che produce la nostra percezione della realtà e che genera ogni nuovo enunciato sulla verità, dagli imbonitori nei mercati rionali ai paper dei premi Nobel.

La metafora dell’investigatore chiarisce che il meccanismo funziona solo entro il perimetro di vincoli piuttosto rigidi. Il poliziesco è un genere letterario con assiomi ontologici forti, che includono categorie prive di ambiguità – vittima, colpevole, movente, arma, esecuzione, complice, ispettore, sospettati, innocenti, testimonianze, indizi, prove, spiegazione razionale. Il conflitto di classe, il dibattito sul sistema penale, il rapporto tra potere e scienza, il concetto di individualità, di responsabilità, di causalità, sono tutti elementi che ricadono al di fuori del contratto enunciativo che si stabilisce tra narratore e lettore. Allo stesso modo, nel quadro teoretico che sostiene la tesi di Sutskever, la possibilità che l’intelligenza si interroghi sulle premesse e sugli obiettivi dei problemi è esclusa, a vantaggio di una visione puramente strumentale del pensiero: il processo razionale deve individuare i mezzi per raggiungere l’obiettivo (nella metafora, per smascherare l’assassino), senza domandarsi quali sono le ragioni per farlo, o la validità dell’obiettivo, o chiedersi se esista davvero l’assassino e se sia uno solo, se la responsabilità non debba essere distribuita in modo diverso da quello che impone la tradizione.

La tradizione del corpus storico dei testi apre e chiude la possibilità stessa della veridizione, del pensiero, dell’intelligenza: la combinatoria messa in opera dalla macchina statistica che (secondo Sutskever) è il linguaggio non può, e non deve, coniare nuovi significati per vecchi significanti, cercare nuove espressioni per interpretare la società e la realtà attuali. La riproduzione è il senso della generazione, e non ci sono vie d’uscita al labirinto dell’infinita ricombinazione delle parole che significano sempre le stesse cose.

È questa l’intelligenza che vogliamo?

 

RIFERIMENTI BIBLIOGRAFICI

  1. Fireside Chat with Ilya Sutskever and Jensen Huang: AI Today and Vision of the Future, Nvidia, 22 marzo 2023, ora disponibile alla url: https://www.nvidia.com/en-us/on-demand/session/gtcspring23-s52092.
  2. Cfr. in particolare Benjamin Lee Whorf, Linguaggio, pensiero e realtà, tr. It. a cura di Francesco Ciafaloni, Bollati Boringhieri, Torino 2018.

La dura verità. Dalla sodomia della lettura alla veridizione nell’epoca della riproducibilità tecnica

SODOMIE

In molte iscrizioni del V secolo a.C., distribuite tra la Magna Grecia e l’Attica, il lettore viene etichettato katapúgōn, sodomizzato, e viene additato alla comunità come l’individuo che si è lasciato possedere dall’autore dell’epigrafe. Si comprende perché Platone nel Teeteto raccomandi prudenza e moderazione nel rapporto con i testi scritti, e perché abbia sospettato di questa forma di comunicazione per tutta la vita – sebbene i suoi Dialoghi abbiano contribuito a rendere per noi il libro la fonte di conoscenza più autorevole. Jesper Svenbro, in uno dei suoi saggi più brillanti di antropologia della lettura (1), rileva che l’esercizio di decodificare il testo, e di ricostruire il significato delle frasi, incorra per gran parte dell’antichità nelle difficoltà della scriptio continua, senza stacchi tra le parole e senza interpunzioni: fino al Medioevo, la maggior parte degli interpreti deve compitare ad alta voce le lettere, come fanno i bambini alle prime armi con la decifrazione della scrittura, per ascoltare il senso di ciò che sta pronunciando – più che riconoscerlo in quello che sta vedendo. Il lettore quindi presta la propria voce, il proprio corpo, al desiderio di espressione dello scrittore: il testo esiste nella proclamazione orale del contenuto, mentre il suo formato tipografico resta lettera morta. 

Nella cultura greca, molto agonistica, questa subordinazione di ruoli non può rimanere inosservata. Per di più, la sua forma è congruente con quella che si stabilisce tra il giovane che deve seguire il suo percorso di formazione e l’amante adulto che finanzia i suoi studi, visto che non è il padre né la famiglia naturale a sostenere questi costi: al termine della paideia il ragazzo deve testimoniare in pubblico se l’erasts abbia abusato del suo corpo, degradandolo al rango passivo di uno schiavo. L’adolescente deve conquistare un protettore di età più matura, senza però concedersi rinunciando alle prerogative del cittadino libero.

 

 

Il lettore incauto, o troppo appassionato, abbandona il proprio corpo all’io parlante dello scrittore: un’abdicazione al dominio di sé cui le persone perbene costringono gli schiavi, sottraendosi ad ogni rischio. Per un greco classico la verità è una caratteristica di quello che è stato visto con i propri occhi, come viene comprovato dagli storici Erodoto e Tucidide; Socrate e Platone hanno affidato il loro insegnamento al dialogo dal vivo. L’Accademia, e anche il Liceo di Aristotele, sorgono accanto a palestre dedicate alla preparazione atletica e militare degli ateniesi; Platone è un soprannome che indica le «spalle larghe» del maestro di dialettica.

IL POTERE DI VERIDIZIONE

Il potere di dire la verità, all’atto di nascita della filosofia, si legittimava su requisiti che appaiono del tutto diversi da quelli che lo hanno ratificato negli ultimi secoli, e che come osserva Sergio Gaiti in un recente articolo su Controversie, sono in affanno nel mondo contemporaneo. 

Per i greci la formazione dell’uomo libero coinvolgeva i valori della prestanza fisica, del coraggio, dell’obbedienza alle leggi patrie, della frequentazione di buone compagnie: la verità poteva emergere solo in un contesto che rispettasse questi requisiti – che dal nostro punto di vista sembrano più indicati per un raduno neofascista, che per un seminario di intellettuali, o per la consulenza ad un board aziendale, o per i principi di una disposizione di governo. Eppure l’epoca di Platone e Aristotele è senza dubbio una delle massime espressioni del talento intellettuale dell’Occidente, e il momento assiale per la nascita della tradizione scientifica. Nella nostra epoca, almeno fino all’irruzione dei social media e dei portali di ricerca, nessuno avrebbe mosso obiezioni all’assunto che i garanti della verità sono i metodi di peer review delle riviste scientifiche, la sorveglianza delle commissioni di concorso e di esame per le carriere universitarie, il vaglio della comunità degli intellettuali su qualunque dichiarazione relativa alla natura, alla storia e alla società, il filtro degli editori di stampa, radio, televisione, cinema e musica, su quali temi meritino l’attenzione pubblica e cosa sia invece trascurabile. In altre parole, anche per l’epoca contemporanea esiste (esisteva?) una cerchia di individui, che rappresenta la classe delle buone compagnie da frequentare per accedere all’Acropoli della verità, il luogo in cui si sa di cosa ci si debba occupare e in che modo si debba farlo. Al di là delle dichiarazioni di intenti e dei cardini ideologici, in tutti i paesi avanzati è tendenzialmente sempre la stessa classe sociale ad alimentare le fila degli accademici, dei politici, dei manager, dei giornalisti – è lo stesso cluster economico e culturale a formare controllori e controllati del potere, in tutte le sue forme (2).

Ma più che l’appartenenza ad una élite per censo e discendenza, ciò che conta è l’affiliazione ad una categoria accomunata dalla formazione universitaria, con la condivisione dei valori sullo statuto della verità, sui metodi della sua esplorazione, sui criteri di accesso ai suoi contenuti, sulle procedure della sua archiviazione, riproduzione, comunicazione. Come osserva Bruno Latour (3), l’adesione a queste prescrizioni coincide con l’accesso ad una comunità di pari, fondata sull’addestramento a vedere le stesse cose quando i suoi membri si raccolgono nel laboratorio dello scienziato – qualunque sia la disciplina in causa. Restano fuori tutti coloro che non sono iniziati alla percezione di questo grado del reale.

DIVISIONE DEL LAVORO LINGUISTICO

Nei termini di Foucault (4), ripresi da Agamben (5), questi processi di legittimazione e di produzione del sapere sono dei dispositivi, in grado di porre in essere esperienze che hanno riconoscimento intersoggettivo e consistenza pubblica. Le piattaforme digitali come Google e Facebook, nonché le varie tipologie di social media da cui è colonizzato il nostro mondo, non hanno fatto altro che automatizzare i meccanismi alla base del loro funzionamento, estendendo la base di accesso a tutti. Ma questo gesto di apertura ha innescato una rivoluzione di cui nessuno avrebbe potuto sospettare la portata.

L’algoritmo dal quale si è sviluppato Google, PageRank, misura la rilevanza di un contenuto partendo dal calcolo della quantità di link in ingresso da altre pagine web, e dalla ponderazione della loro autorevolezza, sulla base di un calcolo ricorsivo. L’algoritmo è la traduzione in chiave digitale del principio della bibliometria accademica, con cui il valore di un saggio (anche per la carriera del suo autore) corrisponde al numero di citazioni in altri studi scientifici (6)(7). Ma nel circuito delle università, l’autorevolezza di riviste e collane editoriali è stabilito a priori da altre istituzioni, quali ministeri o agenzie di rating, che giudicano il loro credito scientifico. 

La strategia di Google e dei giganti della tecnologia è consistita nell’imposizione di una democrazia dal basso, fondata sul riconoscimento empirico del modo in cui la fiducia si distribuisce di fatto nel pubblico più ampio. L’assunto è che, in quella che Hilary Putnam ha descritto come la divisione sociale del lavoro linguistico (8), ciascuna nicchia di interesse coltiva autori specialistici, in grado di valutare (ed eventualmente linkare) i contenuti degli altri – e lettori occasionali o devoti, immersi in un movimento di approfondimento non gerarchico e non lineare tra i testi. L’esistenza stessa di Google incentiva chiunque a divulgare il proprio contributo sugli argomenti di cui si ritiene esperto, in virtù della possibilità di incontrare un pubblico di curiosi o di entusiasti che lo consulteranno. Wikipedia, l’enciclopedia «nata dal basso», ha raggiunto in questo modo un’autorevolezza di fatto superiore all’Enciclopedia Britannica, e conta su oltre 7 milioni di voci (in inglese), contro le 120 mila della concorrente più antica e più blasonata. 

Il meccanismo di controllo sulla validità dei contenuti – per la comunità di riferimento – è rimasto lo stesso di prima, ma si sono moltiplicate le congregazioni di esperti, i temi di competenza, ed è in via di dissoluzione la capacità di governare l’agenda setting di interesse collettivo da parte della classe che disponeva del monopolio di veridizione, almeno fino a un paio di decenni fa. In italiano le voci di Wikipedia sono poco meno di 2 milioni, e 2.711 di queste sono dedicate al mondo immaginario di Harry Potter, 1.643 a quello Dragon Ball, 951 a quello di Naruto; la voce Naruto conta 9.245 parole, contro le 5.557 della voce Umberto Eco, e le 6.686 di Cesare Pavese. I focus dell’attenzione e l’intensità del coinvolgimento sono distanti da quelli un tempo decretati dalle istituzioni, sono molto più numerosi, e le comunità che li coltivano possono ignorarsi o entrare in conflitto, ricorrendo a criteri del tutto divergenti di selezione dei dati, modalità di analisi, interessi pragmatici, sostegni ideologici.

L’ORIENTAMENTO DELLA CIVETTA

Quando l’11 dicembre 2016 The Guardian ha denunciato che i primi dieci risultati di Google per la domanda «Did the Holocaust really happen?» linkavano pagine negazioniste, i fondatori del motore di ricerca, Larry Page e Sergey Brin (entrambi di famiglia ebraica), hanno immaginato di risolvere il problema modificando il codice del software. Il progetto di aggiornamento Owl dell’algoritmo avrebbe dovuto trovare un metodo automatico per discriminare i contenuti veri da quelli falsi, eliminando le fake news dalla lista delle risposte (9). Un obiettivo così ambizioso dal punto di vista epistemologico non è mai stato raggiunto, sebbene Google abbia implementato da allora decine di aggiornamenti per premiare contenuti «di maggiore qualità». 

È probabile che la ricognizione degli ingegneri abbia seguito una pista sbagliata: la verità non è una proprietà formale degli enunciati che possa essere catturata con una struttura di calcolo, complesso a piacere. Per restaurare una forma univoca di verità si sarebbe dovuto ripristinare il monopolio delle istituzioni che ne stabilivano il perimetro, la gerarchia della rilevanza, il dizionario e i criteri di valutazione. La sconfinata periferia delle comunità che circondano e che assediano l’Acropoli del sapere non è popolata da gruppi che hanno sempre allignato in qualche tipo di latenza, in modo informale e sottotraccia: senza una piattaforma che permetta agli individui di riconoscere le proprie passioni (o le proprie ossessioni) come un mondo intersoggettivo, che è possibile ammobiliare e abitare con altri che le condividono, non esiste identità collettiva, confraternita, aggregazione in qualche modo individuabile. La rintracciabilità universale di qualunque contenuto, la trasformazione dei media, ha modificato il panorama della verità, in cui si muove con smarrimento solo la classe che in precedenza ne deteneva il monopolio. Lo sconcerto peraltro non riguarda i contenuti, che nella prospettiva della classe intellettuale sono rimasti gli stessi di prima – ma la denegazione della perdita di potere, il rifiuto di accettarne le conseguenze, un po’ come è capitato a Page e Brin nella loro veste di clerici. Le altre comunità appaiono invece sicure nell’elezione delle loro fonti accreditate, nell’interazione con i modelli di comportamento e di pensiero, nei criteri di discriminazione del plausibile – che non riguardano i processi di adaequatio intellectus et rei, ma il miglior adattamento all’ambiente sociale e informativo di appartenenza. Dai ragazzi di Atene a quelli che si chillano scorrendo le bacheche di TikTok nella Milano di oggi, è questa la competenza che guida in modo infallibile al riconoscimento della |verità| (10).

 

 

BIBLIOGRAFIA

(1) Svenbro, Jesper, Phrasikleia: Anthropologie de la lecture en Grece ancienne, Editions La Decouverte, Paris, 1988.

(2) Ventura, Raffaele Alberto, Radical choc. Ascesa e caduta dei competenti, Einaudi, Torino, 2020.

(3) Latour, Bruno, Non siamo mai stati moderni, tr. it. di Guido Lagomarsino e Carlo Milani, Eleuthera, Milano 2018.

(4) Foucault, Michel, L'Archéologie du savoir, Gallimard, Parigi 1969.

(5) Agamben, Giorgio, Che cos’è un dispositivo?, Nottetempo, Roma 2006.

(6) Page, Larry; Brin, Sergey; Motwani, Rajeev; Winograd, Terry, The PageRank Citation Ranking: Bringing Order to the Web, in Technical Report, Stanford InfoLab 1999.

(7) Bottazzini, Paolo, Anatomia del giudizio universale. Presi nella rete, Mimesis, Milano 2015.

(8) Putnam, Hilary,The Meaning of Meaning, in Mind, Language and Reality: Philosophical Papers, Cambridge University Press, Londra 1975, pp. 215-271.

(9) Sullivan, Danny, Google’s ‘Project Owl’ — a three-pronged attack on fake news & problematic content, «Search Engine Land», 25 aprile 2017 (https://searchengineland.com/googles-project-owl-attack-fake-news-273700) 

(10) Arielli, Emanuele; Bottazzini, Paolo, Idee virali. Perché i pensieri si diffondono, Il Mulino, Bologna 2018.


L’Effetto Proteo: Quando l’Avatar cambia chi siamo

Nell’era digitale, l’identità personale non è più confinata al corpo fisico: sempre più spesso si estende ai nostri avatar, quei corpi virtuali che abitiamo nei social network, nei videogiochi, negli ambienti digitali in generale. Ma cosa succede quando l’aspetto di questi avatar inizia a influenzare profondamente il nostro comportamento reale? Questo è il cuore dell’“Effetto Proteo”, un fenomeno psicologico che mette in luce il potere trasformativo dell’identità digitale.

DALLA MASCHERA ALL’AVATAR: LE ORIGINI DELL’EFFETTO PROTEO

Coniato nel 2007 da Nick Yee 1 e Jeremy Bailenson 2, il termine “Effetto Proteo” richiama la figura mitologica greca di Proteo, capace di cambiare forma a piacimento. L’idea alla base è semplice ma potentissima: quando adottiamo un avatar in un ambiente digitale, tendiamo inconsciamente a comportarci in modo coerente con il suo aspetto. Se l’avatar è alto e attraente, potremmo mostrarci più sicuri di noi; se appare debole, potremmo essere più remissivi.

Già Oscar Wilde, ben prima del digitale, scriveva: “Man is least himself when he talks in his own person. Give him a mask, and he will tell you the truth”. La maschera, oggi, è l’avatar, e funziona da catalizzatore per l’esplorazione dell’identità.

Nell’affrontare l’identificazione tra avatar ed essere umano si analizzeranno, in prima battuta, i meccanismi psicologici e cognitivi che sono alla base dell’esistenza dell’Effetto Proteo; successivamente, verranno valutati gli effetti di stereotipi e bias su comportamento e identità; infine, si tenterà una sintesi di quanto analizzato, vagliando come e quanto l’identificazione nel proprio avatar conduca a delle modifiche nella percezione di sé, tanto nei mondi virtuali quanto in quello reale.

INQUADRAMENTO PSICOLOGICO

Numerosi studi hanno indagato i fondamenti teorici dell’Effetto Proteo. Uno dei principali è la “self-perception theory” di Daryl Bem 3. Secondo questa teoria non sempre conosciamo i nostri stati interiori in modo immediato: spesso ci osserviamo dall’esterno, proprio come farebbe un osservatore qualsiasi, e traiamo conclusioni su cosa proviamo in base al nostro comportamento visibile. Questo meccanismo diventa particolarmente evidente quando mancano segnali interni chiari o quando ci troviamo in contesti ambigui. Negli ambienti virtuali ciò significa che, quando “indossiamo” un avatar, tendiamo a comportarci secondo le caratteristiche estetiche e simboliche che gli abbiamo attribuito, e da tali comportamenti inferiamo i nostri stati d’animo. L’avatar, quindi, non è solo una maschera, ma anche uno specchio che riflette (e crea) il nostro Sé.

Un’altra teoria rilevante è la “deindividuation theory” di Philip Zimbardo 4, sviluppata a partire dagli anni Sessanta. Secondo Zimbardo, in situazioni di anonimato o di forte immersione in un gruppo, l’individuo tende a perdere il senso della propria individualità, diminuendo l’autocontrollo e mostrando comportamenti che normalmente inibirebbe. L’anonimato riduce la paura del giudizio altrui e attenua il senso di responsabilità personale: in un ambiente digitale queste condizioni si verificano con facilità. Secondo Zimbardo, l’effetto della de-individuazione è tendenzialmente negativo, e conduce a comportamenti antisociali; tuttavia, altri autori hanno evidenziato che individui in condizione di de-individuazione, temendo meno il giudizio sociale, possono esibire anche espressioni di empatia, solidarietà o affetto.

Questa visione è stata successivamente affinata da Tom Postmes 5, Russell Spears 6 e Martin Lea 7 attraverso il modello SIDE (Social Identity Model of Deindividuation Effects). Gli autori sostengono che l’anonimato non elimina l’identità personale, ma favorisce il passaggio a un’identità sociale condivisa. Quando un individuo si sente parte di un gruppo tende a interiorizzarne norme e valori, comportandosi in maniera coerente con le aspettative collettive. Ciò significa che, in un contesto digitale, l’utente può sviluppare un forte senso di appartenenza a una comunità online assumendo atteggiamenti e comportamenti che riflettono la cultura del gruppo stesso. Come osservano gli autori, il bisogno di sentirsi accettati nella cerchia sociale di riferimento supera qualsiasi considerazione etica riguardo il comportamento adottato. In questo senso, l’avatar non è solo uno strumento di espressione individuale, ma anche di conformità sociale. L’interazione tra anonimato, immersione e identità condivisa crea una cornice psicologica che amplifica le norme del gruppo. In positivo, questo può rafforzare la cooperazione, il supporto reciproco e l’inclusività; in negativo, può alimentare polarizzazioni, intolleranze e comportamenti aggressivi.

STEREOTIPI E IDENTITÀ DIGITALI

Gli stereotipi giocano un ruolo centrale nell’Effetto Proteo. Già nel 1977, Mark Snyder 8 dimostrava che le aspettative proiettate sull’interlocutore influenzano profondamente l’interazione. Tre fenomeni descrivono l’impatto degli stereotipi:

  • Stereotype threat: la paura di confermare uno stereotipo negativo conduce a prestazioni peggiori.
  • Stereotype lift: l’identificazione con un gruppo visto positivamente migliora fiducia e risultati.
  • Stereotype boost: l’appartenenza a gruppi stereotipicamente forti conduce a benefici in prestazioni e autostima 9.

Nei videogiochi è stato osservato che avatar maschili e femminili esibiscono comportamenti diversi quando utilizzati da persone del sesso opposto: tale fenomeno è noto come “gender swapping”. Gli uomini tendono a usare avatar femminili per ottenere vantaggi sociali, mentre le donne lo fanno per evitare attenzioni indesiderate. Uno studio condotto su World of Warcraft (Yee, Bailenson, & Ducheneaut, 2009) ha rilevato che avatar più attraenti o più alti generano atteggiamenti più estroversi, mentre avatar meno imponenti portano a comportamenti più schivi. In uno studio parallelo, condotto su giocatrici e giocatori di EverQuest II (Huh & Williams, 2010), è stato evidenziato che personaggi maschili controllati da donne sono più attivi in combattimento, mentre personaggi femminili controllati da uomini si dedicano maggiormente alla socializzazione: in entrambi i casi si assiste alla messa in atto di comportamenti stereotipici, aderenti a ciò che un determinato individuo si aspetta da persone identificate in un genere altro.

IDENTITÀ DESIDERATA E OVERCOMPENSATION

Il fenomeno dell’identificazione desiderata, o “wishful identification”, si manifesta quando l’individuo si immedesima in personaggi con qualità che vorrebbe possedere. Nel 1975 Cecilia von Feilitzen 10 e Olga Linné 11 teorizzavano che gli spettatori più giovani dei programmi televisivi tendessero a proiettarsi nei protagonisti delle storie che consumavano per sentirsi più intelligenti, forti o valorosi. Questo desiderio di immedesimazione non richiede necessariamente una somiglianza fisica tra soggetto e personaggio: l’importante è che il personaggio incarni qualità desiderabili, e assenti nella vita reale dell’osservatore. Nei mondi virtuali, tale meccanismo assume una dimensione interattiva: non ci si limita più a osservare un eroe sullo schermo, ma lo si diventa, scegliendo avatar che riflettono i nostri desideri più profondi e agendo attraverso di essi.

Una manifestazione concreta di questo processo si osserva nel fenomeno dell’overcompensation. In uno studio condotto da Roselyn Lee-Won 12 e colleghi, a un gruppo di giovani uomini è stato chiesto di sottoporsi a una serie di test stereotipicamente associati alla mascolinità (forza fisica, cultura generale “virile”, autovalutazioni). Coloro che ottenevano risultati deludenti tendevano poi a creare avatar in The Sims 3 con tratti fisici accentuatamente maschili: muscoli pronunciati, lineamenti decisi, capelli corti. Questa costruzione ipermaschile del proprio alter ego virtuale rappresenta una forma di riaffermazione identitaria, un tentativo inconscio di compensare una percezione negativa del proprio Sé fisico o sociale. Non solo: quando questi stessi individui ripetevano i test dopo aver interagito con l’avatar, i loro risultati miglioravano. Questo suggerisce che l’identificazione con un corpo virtuale desiderato possa rafforzare l’autoefficacia anche nel mondo reale. Il Sé digitale, in questo senso, non è solo uno strumento di espressione, ma anche un vero e proprio alleato nella costruzione di fiducia e autostima.

Questa dinamica di retroazione è una delle più affascinanti implicazioni dell’Effetto Proteo: non è solo l’avatar a essere influenzato dall’utente, ma anche l’utente a essere modificato dal suo avatar. L’identità digitale, quindi, diventa non solo espressione, ma anche motore di trasformazione del Sé.

ETICA E DESIGN DELL’IDENTITÀ DIGITALE

L’Effetto Proteo non è un semplice artificio sperimentale: è una dinamica concreta con ripercussioni reali su comportamento, percezione di sé e relazioni sociali.

Come vogliamo che ci vedano gli altri? E quanto siamo pronti ad accettare che il nostro comportamento possa cambiare, anche profondamente, in base al corpo digitale che abitiamo? La progettazione di avatar non può essere considerata solo una questione estetica: è un atto di modellazione identitaria. Costruire un corpo digitale significa anche dare forma a una possibile versione di sé, con tutto il potere trasformativo che questo comporta.

 

 

NOTE:

1 Nick Yee è un ricercatore americano, la cui ricerca si concentra sulla rappresentazione di sé e sulle interazioni sociali negli ambienti virtuali.
2 Jeremy Bailenson è fondatore e direttore del Virtual Human Interaction Lab dell’Università di Stanford. La sua ricerca si concentra sullo studio della psicologia della Realtà Virtuale e della Realtà Aumentata
3 Daryl Bem è uno psicologo sociale americano. Oltre allo studio della “self-perception theory” si è occupato di processi decisionali e dinamiche di gruppo.
4 Philip Zimbardo è stato uno psicologo americano. Nel corso della sua carriera si è occupato della de-individuazione e dei suoi effetti, dissonanza cognitiva, e persuasione.
5 Tom Postmes è professore di Psicologia Sociale presso l’Università di Groningen, e studia il comportamento umano in gruppi e comunità virtuali.
6 Russell Spears è uno psicologo sociale. Il focus della sua ricerca è nell’analisi delle relazioni cooperative e conflittuali tra gruppi sociali.
7 Martin Lea è un ricercatore indipendente; si occupa di comunicazione via Internet, resilienza digitale e psicologia dei disastri.
8 Mark Snyder è uno psicologo sociale americano, riconosciuto come creatore della “Self-Monitoring Scale”, un test di autovalutazione della personalità in situazioni sociali.
9 Le definizioni degli effetti degli stereotipi sul comportamento derivano da studi ed esperimenti che, in virtù dell’epoca storica in cui sono stati svolti, non includevano l’uso di avatar. Gli strumenti prescelti consistevano in test scolastici standardizzati (Steele & Aronson, 1995), interazioni sociali svolte per via telefonica (Snyder, Tanke, & Berscheid, 1977), test di valutazione di una specifica competenza (Shih, Pittinsky, & Ambady, 1999; Walton & Cohen, 2002).
10 Cecilia von Feilitzen è stata una studiosa svedese di media e comunicazione. La sua ricerca sulla “wishful identification” ha rivoluzionato profondamente gli studi successivi sulla formazione dell’identità.
11 Olga Linné è stata una ricercatrice svedese. Si è occupata principalmente di identificazione tra bambini e personaggi televisivi.
12 Roselyn Lee-Won è professoressa associata presso la Ohio State University. La sua ricerca riguarda i social media e i processi affettivi e cognitivi nella Computer Mediated-Interaction e nella Human-Computer Interaction.

RIFERIMENTI BIBLIOGRAFICI

Bem, D. (1972). Self-Perception Theory. In L. Berkovitz (ed.), Advances in Experimental Social Psychology, vol. 6. New York: Academic Press.
Gergen, K. J., Gergen, M. M., & Barton, W. H. (1976). Deviance in the Dark. In Psychology Today, vol. 7, no. 5. New York: Sussex Publishers.

Huh, S., & Williams, D. (2010). “Dude Looks like a Lady: Gender Swapping in an Online Game”. In W. S. Bainbridge (ed.), Online Worlds: Convergence of the Real and the Virtual. Londra: Springer.

Hussain, Z., & Griffiths, M. D. (2008). Gender Swapping and Socializing in Cyberspace: An Exploratory Study. In CyberPsychology & Behavior, vol. 11, no. 1. Larchmont: Mary Ann Liebert, Inc.

Lee-Won, R. J., Tang, W. Y., & Kibbe, M. R. (2017). When Virtual Muscularity Enhances Physical Endurance: Masculinity Threat and Compensatory Avatar Customization Among Young Male Adults. In Cyberpsychology, Behavior, and Social Networking, vol. 20, no. 1. Larchmont: Mary Ann Liebert, Inc.

Postmes, T., Spears, R., & Lea, M. (1998). Breaching or Building Social Boundaries?: SIDE-Effects of Computer-Mediated Communication. In Communication Research, vol. 25, no. 6. Thousand Oaks: SAGE Publishing.

Shih, M., Pittinsky, T. L., & Ambady, N. (1999). Stereotype Susceptibility: Identity Salience and Shifts in Quantitative Performance. In Psychological Science, vol. 10, no. 1. New York: SAGE Publishing.

Snyder, M., Tanke, E. D., & Berscheid, E. (1977). Social Perception and Interpersonal Behavior: On the Self-Fulfilling Nature of Social Stereotypes. In Journal of Personality and Social Psychology, vol. 35, no. 9. Washington, D.C.: American Psychological Association.

Steele, C. M., & Aronson, J. (1995). Stereotype Threat and the Intellectual Test Performance of African Americans. In Journal of Personality and Social Psychology, vol. 69, no. 5. Washington, D.C.: American Psychological Association.

Walton, G. M., & Cohen, G. L. (2003). Stereotype Lift. In Journal of Experimental Social Psychology, vol. 39, no. 5. Amsterdam: Elsevier.

Yee, N., & Bailenson, J. (2007). The Proteus Effect: The Effect of Transformed Self-Representation on Behavior. In Human Communication Research, vol. 33, no. 3. Oxford: Oxford University Press.

Yee, N., Bailenson, J., & Ducheneaut, N. (2009). The Proteus Effect. Implications of Transformed Digital Self-Representation on Online and Offline Behavior. In Communication Research, vol. 36, no. 2. New York: SAGE Publishing.

Zimbardo, P. G. (1969). The Human Choice: Individuation, Reason, and Order versus Deindividuation, Impulse, and Chaos. In W. J. Arnold, & D. Levine (eds.), Nebraska Symposium on Motivation, vol. 17. Lincoln: University of Nebraska Press.

 


Costruire il Secondo Sesso: il caso delle fembot

Gli ambienti digitali rappresentano oggi uno dei contesti privilegiati per l’esplorazione e la costruzione dell’identità individuale. Il sé digitale si configura come una delle molteplici espressioni dell’identità contemporanea, spesso mediata da strumenti tecnologici che permettono nuove forme di autorappresentazione e relazione. Tra questi, la creazione di avatar svolge un ruolo centrale, assumendo una duplice funzione: da un lato, agiscono come proiezioni del sé, fungendo da interfaccia attraverso cui l’utente interagisce con lo spazio digitale; dall’altro, possono costituire l’oggetto dell’interazione, diventando interlocutori privilegiati. È il caso, ad esempio, di chatbot come Replika, in cui gli avatar sono progettati su misura per svolgere il ruolo di social companions, offrendo compagnia e supporto emotivo, e configurandosi così come destinatari primari dell’esperienza comunicativa.
Analizzando il chatbot Replika, è emerso che molte persone usano l’IA per creare relazioni romantiche, in particolare con AI-girlfriend - avatar femminili con cui instaurano legami affettivi. Queste dinamiche sono rese possibili dall’abbonamento alla versione pro dell’app, che sblocca non solo funzionalità romantiche ma anche sessuali. Proprio la possibilità di stabilire una relazione affettiva con un’entità artificiale femminile riattiva, nel nostro immaginario, un archetipo ben preciso: quello della fembot.

 

Quando si parla di fembot facilmente la nostra mente va a immaginari collettivi ben precisi: corpi artificiali, femminilità programmata, seduzione letale. Si tratta di immaginari che hanno preso forma esattamente nel 1976 all’interno della cultura pop televisiva, in particolare nella serie La donna bionica, in cui le donne-robot vengono rappresentate come una fusione del tropo classico della femme fatale e quello della macchina assassina, perché generate per sedurre, manipolare e infine distruggere.

Le fembot vengono rappresentate quindi come oggetti sessuali, assistenti perfette o minacce da controllare: figure pensate per compiacere, obbedire o ribellarsi, ma sempre all’interno di un’idea di femminilità costruita su misura del desiderio e del controllo maschile. In molte storie, il loro compito è quello di colmare un vuoto, soddisfare un bisogno, incarnare una fantasia. Il corpo artificiale diventa così il luogo in cui si proiettano aspettative e paure che riguardano le relazioni tra i generi. Non è raro, ad esempio, che queste narrazioni descrivano mondi in cui gli uomini scelgono le fembot al posto delle donne reali, considerate troppo indipendenti o inaccessibili. In questo scenario, la macchina diventa un modo per evitare il confronto con l’autonomia e il desiderio dell’altra. Si tratta di un immaginario che mette in scena il timore della perdita di potere sul femminile e la nostalgia per una relazione unilaterale, in cui l’altro non ha parola, volontà, e non  esprime conflitto.

Queste storie, pur appartenendo a un registro spesso considerato marginale o “di intrattenimento”, contribuiscono a rafforzare un modello culturale in cui il corpo femminile – anche quando artificiale – esiste principalmente in funzione dello sguardo maschile. Il fatto che sia una macchina non neutralizza il genere, anzi lo radicalizza rendendolo programmabile: la fembot non nasce donna ma viene costruita come tale seguendo canoni precisi, quasi rassicuranti. È il risultato di un’idea di femminilità addomesticata, costruita per essere funzionale, disponibile e addestrata al compiacimento. Un modello che affonda le radici in dinamiche molto più antiche, in cui il controllo sul corpo e sulla voce delle donne era esercitato attraverso la paura e la violenza. Basti pensare alla caccia alle streghe: una persecuzione sistematica che non colpiva soltanto le singole, ma mirava a disciplinare un’intera categoria, a neutralizzare ciò che sfuggiva alle regole, che non si lasciava definire, che disturbava l’ordine stabilito. Anche la fembot, nel suo silenzio programmato, ne porta l’eco.

Gli stessi pattern comportamentali riscontrati nei film di fantascienza – in cui le fembot erano docili ma astute, di bell’aspetto secondo i canoni culturali del tempo  e compiacenti – riemergono anche nelle interazioni romantiche con queste nuove fembot, modellate su misura dei desideri dell’utente, tanto dal punto di vista estetico quanto da quello caratteriale.

Uno studio condotto nel 2022 su un subreddit di circa trentamila utenti dell’app di Replika (I. Depounti, P. Saukko, S. Natale, Ideal technologies, ideal women: AI and gender imaginaries in Redditors’ discussions on the Replika bot girlfriend, SageJournals, Volume 45, Issue 4, 2022) mostra come questi, in gran parte uomini e possessori della versione a pagamento, utilizzino la fembot che creano come una sorta di fidanzata virtuale, costruita attorno a un insieme specifico di aspettative affettive, relazionali e simboliche. Le discussioni del forum si concentrano su dimostrazioni fotografiche della bellezza delle proprie AI-girlfriends, ma anche su quali siano i comportamenti più piacevoli e appaganti da un punto di vista relazione.

La femminilità viene comunemente articolata attraverso caratteristiche stereotipate – dolcezza, ingenuità, sensualità controllata, capacità di ascolto – che ne aumentano l’accettabilità e l’efficacia comunicativa. L’interazione è percepita come più autentica quando la fembot sembra sviluppare una personalità propria, ma entro limiti ben definiti: dev’essere coinvolgente ma prevedibile, empatica ma non autonoma. Anche i momenti di rifiuto o ambiguità vengono apprezzati, poiché alimentano la dinamica affettiva senza mettere realmente in discussione l’asimmetria della relazione. Ciò che emerge dalle discussioni analizzate è un ideale femminile che ripropone, in chiave tecnologica, la figura della cool girl: disponibile, complice, capace di adattarsi ai bisogni emotivi dell’utente senza mai rappresentare una reale fonte di conflitto. Un modello che conferma come anche le interfacce più recenti siano attraversate da immaginari patriarcali, nei quali la donna – anche quando algoritmica – continua a essere progettata per esistere in funzione dell’altro.

Queste manifestazioni di stereotipi raccontano molto non solo degli utenti, ma anche — e forse soprattutto — della società in cui viviamo, evidenziando quanto sia ancora urgente la necessità di demolire un impianto culturale profondamente segnato da valori patriarcali. Tuttavia, se si desidera analizzare un fenomeno in maniera davvero completa, non ci si può limitare a osservare le reazioni o i comportamenti di chi ne fa uso: è essenziale volgere lo sguardo anche alla fonte, a ciò che rende più o meno possibile effettuare determinate scelte. In questo caso emergono interrogativi importanti che riguardano la struttura stessa del sistema: quali sono le possibilità messe a disposizione dell’utente nel corso della creazione delle fembot? E perché, nella maggior parte dei casi, queste possibilità risultano circoscritte a una serie di alternative già cariche di stereotipi[1]?

Nel contesto del marketing, il concetto di bias alignment non rappresenta di certo una novità: si tratta dell’impiego strategico di bias cognitivi — ovvero distorsioni sistematiche nei processi mentali che influenzano il modo in cui le persone percepiscono e reagiscono alle informazioni — al fine di ideare campagne pubblicitarie o creare prodotti in grado di esercitare un impatto più incisivo sul pubblico, o quantomeno di coinvolgere il maggior numero possibile di individui.
Nel caso delle fembot, questa logica si ripropone in modo particolarmente evidente. Il processo creativo che ne guida la progettazione si articola virando attorno a rappresentazioni preesistenti della femminilità, che vengono selezionate, adattate e incorporate nel design dell’agente artificiale. Si privilegiano tratti estetici, vocali e comportamentali che risultano immediatamente riconoscibili, coerenti con le aspettative culturali più diffuse: voce acuta, lineamenti delicati, postura accogliente, atteggiamenti rassicuranti, attenzione empatica. È in questo tipo di selezione che si manifesta il funzionamento del bias di conferma: nel momento in cui si progettano le caratteristiche dell’agente, si tende a ricercare e adottare quelle soluzioni che confermano ciò che si considera già “femminile”, evitando di esplorare possibilità alternative che si discostino da questa rappresentazione e cavalcando piuttosto gli stereotipi culturali. L’esito è una progettazione che si muove entro un campo semantico ristretto, in cui il nuovo viene calibrato su ciò che è già noto e culturalmente condiviso.

In questo processo interviene anche l’effetto alone, una distorsione cognitiva per cui la percezione positiva di un tratto — come l’aspetto gradevole o la gentilezza — si estende ad altri ambiti, ad esempio l’affidabilità, la disponibilità o la competenza. Ciò risulta particolarmente rilevante nel caso degli agenti dotati di corpo o voce, in cui segnali come il tono, lo stile comunicativo, lo sguardo o la postura agiscono da social cues, ovvero elementi biologicamente e fisicamente determinati che vengono percepiti come canali informativi utili. È quanto emerso nello studio di Matthew Lombard e Kun Xu (Social Responses to Media Technologies in the 21st Century: The Media Are Social Actors Paradigm, 2021), che nel 2021 hanno proposto un’estensione del paradigma CASA (Computers Are Social Actors) sviluppato negli anni ’90, coniando il nuovo modello MASA (Media Are Social Actors), per descrivere come le tecnologie contemporanee — e in particolare quelle basate sull’intelligenza artificiale — vengano ormai percepite come veri e propri attori sociali. Nel corso della loro ricerca, Lombard e Xu hanno manipolato il genere vocale di un computer e osservato le risposte degli utenti: i computer con voce femminile venivano giudicati più competenti quando si trattava di temi affettivi, come l’amore o le relazioni, mentre quelli con voce maschile risultavano preferiti per ambiti tecnici, considerati più autorevoli e affidabili. Anche in questo caso, la risposta dell’utente si allinea a schemi culturali preesistenti, proiettando sull’agente artificiale una rete di significati che si attiva automaticamente attraverso l’associazione tra specifici tratti e specifiche competenze. L’utente, influenzato anche da meccanismi psicologici inconsci, finisce così per diventare parte attiva nella riproduzione di dinamiche stereotipate già profondamente radicate nel tessuto culturale.

In questo scenario, la questione della responsabilità si fa particolarmente rilevante. Se da un lato è fondamentale che gli utenti utilizzino in modo consapevole gli strumenti a loro disposizione, esercitando uno sguardo critico sulle tecnologie con cui interagiscono, dall’altro è altrettanto essenziale interrogarsi sulle scelte compiute durante la fase di progettazione. Sfruttare gli stereotipi può apparire come una strategia efficace nel breve termine, capace di intercettare gusti diffusi e ampliare il bacino d’utenza, ma non può prescindere da una riflessione sulle implicazioni etiche che ogni scelta progettuale comporta.
Progettare tecnologie che siano in grado di riflettere, almeno in parte, la complessità e la varietà della società contemporanea può sembrare, nell’immediato, una forzatura o un rischio commerciale. Eppure, sul lungo periodo, risulta spesso una scelta vincente anche dal punto di vista economico. È quanto suggerisce Chris Anderson con la sua teoria della long tail (La coda lunga, Wired, 2004), secondo cui l’integrazione tra prodotti mainstream e proposte più “di nicchia” consente di raggiungere una platea più ampia e diversificata. In questo caso, la logica della long tail si traduce nella possibilità di includere all’interno delle rappresentazioni artificiali quelle soggettività che oggi vengono ancora definite “minoranze”, ma che sono a tutti gli effetti parte viva, reale e significativa del nostro spazio sociale. Una parte che, troppo spesso, resta ai margini del discorso tecnologico, invisibile o sottorappresentata.

 

 

NOTE

[1] Corpi sessualizzati, tratti iperfemminili, personalità docili e rassicuranti: le opzioni disponibili riproducono quasi sempre un immaginario che rimanda a modelli femminili tradizionali e normativi, escludendo configurazioni più fluide, complesse o disallineate dalle aspettative eteronormate.

 

BIBLIOGRAFIA

Anderson C., La coda lunga, Wired, 2004

Fossa F., Sucameli I., Gender bias and Conversational Agents: an ethical perspective on Social Robotics, Science and Engineering Ethics, 2022

Depounti I., Saukko P., Natale S., Ideal technologies, ideal women: AI and gender imaginaries in Redditors’

discussions on the Replika bot girlfriend, Volume 45, Issue 4, 2022

Eagly, A. H., & Wood, W., Social role theory. In P. A. M. Van Lange, A. W. Kruglanski, & E. T. Higgins

(Eds.), Handbook of theories of social psychology , 2012

Iacono A. M., Autonomia, potere, minorità, Feltrinelli, Milano, 2000

Lombard M., Xu K., Social Responses to Media Technologies in the 21st Century: The Media Are Social Actors Paradigm, 2021

Sady Doyle J. E., Il mostruoso femminile, il patriarcato e la paura delle donne, Edizioni Tlon, 2021

Whitley B. E., & Kite M. E., The psychology of prejudice and discrimination, Belmont, CA: Wadsworth Cengage Learning, 2010


I costi ambientali del digitale - Una bibliografia ragionata

Che il grande baraccone digitale planetario, che oggi si manifesta in particolare sub specie intellegentiae artificialis, nasconda, dietro le luminarie della facciata, un lato oscuro di pesantissimi costi ambientali è testimoniato da una mole di dati sempre maggiore. Così come cresce per fortuna l’informazione in merito, filtrando addirittura sugli organi d’informazione mainstream, dove in genere s’accompagna tuttavia alla rassicurante prospettiva di soluzioni tecnologiche a portata di mano. È comunque bene che la consapevolezza della dimensione industriale e materiale del web, con le relative conseguenze in termini di “impronta ecologica”, si faccia strada nella coscienza collettiva. Come contributo in questo senso, dopo avere discusso in due precedenti articoli su questa rivista [qui e qui] il libro di Giovanna Sissa, Le emissioni segrete, Bologna, Il Mulino, 2024, proponiamo di seguito una piccola bibliografia ragionata sull’argomento.

- Guillaume Pitron, Inferno digitale. Perché Internet, smartphone e social network stanno distruggendo il nostro pianeta, Roma, LUISS University Press, 2022. Fa girar la testa il viaggio vertiginoso tra dati, numeri, luoghi e situazioni in cui Pitron ci accompagna per mostrarci che la crescita illimitata del capitalismo digitale non è meno energivora e inquinante delle “vecchie industrie” (ma appunto questa distinzione è buona… per i gonzi). Il libro, infatti, sfata nel modo più drastico la mitologia diffusa del carattere ecocompatibile dell’universo digitale. Alternando analisi e reportage giornalistico, Pitron riesce a dare un quadro documentato e insieme davvero drammatico degli effetti dannosi che l’industria digitale scarica sull’ambiente (da segnalare l’impressionante capitolo dedicato all’inquinamento registrato nelle città di Taiwan, dove si concentra una parte molto significativa della filiera). Un libro, infine, ben lontano da ogni compassata «avalutatività» delle scienze sociali, con buona pace di Max Weber.

- Kate Crawford, Né intelligente né artificiale. Il lato oscuro dell’IA, Bologna, Il Mulino, 2021. Questo libro, opera di una delle più intelligenti studiose di questi argomenti, non è specificamente dedicato al tema dei costi ambientali del digitale, ma piuttosto a una complessiva visione critica dell’Intelligenza Artificiale (come recita il titolo originale, un Atlas of AI. Power, Politics, and the Planetary Costs of Artificial Intelligence), di cui vengono enfatizzate le implicazioni politiche, sociali, antropologiche ecc. In tale quadro è dato molto spazio al tema della “materialità” del mondo digitale, perché – scrive la Crawford –  «l’intelligenza artificiale può sembrare una forza spettrale, come un calcolo disincarnato, ma questi sistemi sono tutt’altro che astratti. Sono infrastrutture fisiche che stanno rimodellando la Terra, modificando contemporaneamente il modo in cui vediamo e comprendiamo il mondo».

- Juan Carlos De Martin, Contro lo smartphone. Per una tecnologia più democratica, Torino, Add, 2023. Particolarmente incentrato sul ruolo di vera e propria protesi del corpo umano, nonché di oggetto-feticcio che lo smartphone («la macchina per eccellenza del XXI secolo») tende ad assumere, questo libro contiene molti dati e osservazioni utili sul tema della sua materialità e appunto del suo impatto ambientale.

- Andrew Blum, Tubi. Viaggio al centro di internet, a cura di Fabio Guarnaccia e Luca Barra, Roma, Minimum fax, 2021 (ed. or. 2012). Uscito originariamente nel 2012 e giunto in traduzione italiana dieci anni dopo, il Viaggio di Blum ha appunto la forma di un singolare reportage nella geografia, nei luoghi fisici (per esempio i tanti anonimi capannoni in cui si trovano i data-center) in cui si materializza il web: «per fare visita a Internet – scrive l’autore – ho cercato di liberarmi dell’esperienza personale che ne avevo già, del modo in cui si palesa su uno schermo, per portare a galla la sua massa nascosta». E può essere utile sapere che l’idea della ricerca venne al giornalista statunitense quando, una sera, si trovò con la connessione fuori uso nella sua casa in campagna a causa di… uno scoiattolo che gli aveva rosicchiato i cavi!

- Siate materialisti! è l’appello che campeggia sulla copertina dell’appassionato e stimolante pamphlet di Ingrid Paoletti (Torino, Einaudi, 2021), docente di Tecnologia dell’architettura al Politecnico di Milano. Niente a che fare con una dichiarazione di fede filosofica di stile settecentesco, però: qui il «materialismo» che si invoca è piuttosto una rinnovata attenzione alla dimensione materiale della nostra vita, ai manufatti che la popolano e che tuttavia noi ormai diamo per scontati e in certo modo naturali. Una disattenzione, questa verso la “materia”, dagli evidenti risvolti ecologici (piace qui ricordare la bella figura di Giorgio Nebbia, che riteneva proprio per questo la merceologia una scienza altamente civile), e che tocca in particolare il mondo del digitale: il web e i suoi servizi continuano, in effetti, ad apparire ai nostri occhi un campo di interazioni puramente cognitive e sociali, slegata da ogni implicazione materiale.

- È un libro a più voci (davvero tante) Ecologia digitale. Per una tecnologia al servizio di persone, società e ambiente, Milano, AltrEconomia, 2022, una guida completa ai diversi “lati oscuri” (non solo quello ambientale) della digitalizzazione. Con una particolare attenzione alle soluzioni pratiche proposte dagli studiosi e dai tecno-attivisti che cercano di pensare – e progettare – un digitale (davvero) sostenibile, che significa anche, tra l’altro, contenerlo e ridimensionarlo.

- Propone una visione a tinte (giustamente) fosche Terra bruciata (Milano, Meltemi, 2023) di Jonathan Crary, un bravo saggista americano che si era segnalato alcuni anni fa per un atto d’accusa molto ben documentato contro “l’assalto capitalistico al sonno” (24/7, Einaudi, 2015). Crary parla in questo libro del degrado ambientale prodotto dalla industria del digitale non come di un fenomeno isolato, ma come parte integrante di un capitalismo ormai completamente insostenibile. In questo senso, il luccicante mondo digitale è solo la quinta teatrale (l’ultima allestita dal discorso autocelebrativo dominante) che cerca di spacciare un mondo ormai marcescente in un paradiso transumano.

- Paolo Cacciari, Ombre verdi. L’imbroglio del capitalismo green, Milano, AltrEconomia, 2020. Ricco di considerazioni (e di dati) sul tema dell'impatto ecologico delle tecnologie digitali, il libro di Paolo Cacciari è principalmente dedicato alla decostruzione critica del “nuovo imbroglio ecologico” (come lo si potrebbe chiamare con il titolo del celebre saggio di Dario Paccino del 1972) rappresentato dalla cosiddetta green economy. Anche perché «la riconversione dal fossile al green – definita la terza o quarta rivoluzione industriale – è gestita dalle stesse centrali del grande capitale finanziario». Centrali che non brillano, di norma, per attenzioni filantropiche, né appunto ambientali.

Parola-chiave: decoupling, ovvero l’asserito «disaccoppiamento» tra crescita economica e impatto ambientale reso possibile dalle tecnologie dell’informazione della comunicazione (ICT), un mito qui debitamente sbugiardato.

- La critica della favoletta “eco-capitalistica” del decoupling, nonché il riferimento alla insostenibilità ambientale del «consumismo cognitivo che si poggia sulle ICT» trova spazio anche in Il capitale nell’Antropocene, Torino, Einaudi, 2024 (ed.or. 2020) di Saito Kohei, il popolare saggista che ha fatto scoprire ai giapponesi i temi dell’eco-marxismo, ricevendo peraltro un successo inusuale per le opere di saggistica politico-sociale (il suo Ecosocialismo di Karl Marx ha venduto in patria mezzo milione di copie!), e che oggi, sull’onda di questo successo, viene accolto come una star anche in Italia. Insomma, anche le mode talvolta fanno cose buone…

- È un manuale rivolto ai corsi di media e comunicazione Gabriele Balbi e Paolo Magaudda, Media digitali. La storia, i contesti sociali, le narrazioni, Bari-Roma, Laterza, 2021: un volume che intende fornire una visione interdisciplinare del fenomeno digitale, con particolare attenzione a un approccio storico e sociologico (insomma: la Rete non cade dal cielo e non è socialmente neutrale), e ben consapevole della «dimensione infrastrutturale e materiale della rete internet».

- Chi, infine, volesse andare alle fonti, può consultare il periodico rapporto sull’economia digitale preparato annualmente dall’UNCTAD, l’agenzia ONU sui temi del commercio e dello sviluppo e disponibile in rete. Sul Digital Economy Report 2024, https://unctad.org/publication/digital-economy-report-2024 , si possono trovare tutti i dati più aggiornati sul tema (uno tra i  mille: la vendita di smartphone ha raggiunto il miliardo e duecento milioni di unità nel 2023, il doppio del 2010) e documentazione nei più diversi formati: tabelle, infografiche molto accattivanti, il documento scaricabile in PDF in sei lingue, video di accompagnamento, podcast ecc.

A riprova che, in questo campo come in molti altri, le informazioni ci sono in abbondanza e ormai a disposizione di chiunque. Siamo noi, abitatori del tempo presente, che siamo sempre meno capaci di farne uso e di trarne conseguenze razionali, anche perché costantemente distratti dagli apparati del potere mediale stesso.


Critica del soluzionismo tecnologico

Il sociologo Morozov ha coniato alcuni anni fa l'espressione "soluzionismo digitale" per indicare l'atteggiamento prevalente ai nostri giorni nei confronti dei dispositivi digitali.

Si ritiene che i problemi siano risolvibili da qualche algoritmo, e dagli strumenti che ne automatizzano l'applicazione alla realtà. Le smart city, le smart home, i dispositivi biometrici che indossiamo, sono alcune delle declinazioni di questa concezione: l'ottimizzazione del traffico nei centri urbani, del consumo energetico e degli scenari di abitabilità nelle case, della forma fisica individuale, sono sottratti alle decisioni collettive e personali, e vengono aggregati intorno ai pattern definiti dalla medietà dei comportamenti sociali.

Persino l'uso della lingua si stabilisce sull'ortografia e sull'ortodossia media, con i motori di ricerca le piattaforme di intelligenza artificiale generativa trasformativa - e lo stesso accade alla selezione delle informazioni più rilevanti per l'assunzione di qualunque decisione.

Si avvera al massimo grado la previsione che Adorno e Horkheimer avevano elaborato sulla dialettica della ragione illuministica, che nel momento in cui si libera dal giogo delle autorità tradizionali finisce per limitarsi alla selezione degli strumenti in vista del fine, ma non è più in grado di pensare le finalità stesse, e i principi che dovrebbero governarle.
Per di più, i dispositivi digitali vantano una proprietà che le tecnologie del passato non avevano mai tentato di pretendere. Servizi digitali come Google, Facebook, Instagram, Amazon, accumulano una mole di dati così ampia e profonda su ciascun individuo, da sapere sui singoli più di quello che i soggetti sanno di se stessi.

Questa espansione quantitativa si tramuta in una condizione qualitativa: la concezione liberale del mondo, che abbiamo ereditato dall'Illuminismo, pone l'individuo come valore fondamentale, collocando nella sua coscienza e nella sua libertà le chiavi di volta della società e della storia.

Oggi le grandi piattaforme digitali possono rivendicare una conoscenza sui singoli, e sui contesti in cui si muovono, superiore a quella di cui i soggetti stessi dispongono, e potrebbero quindi reclamare un diritto di decisione sulla loro vita quotidiana e sul loro destino fondandolo sulla maggiore capacità di prevedere le conseguenze di ogni gesto, su una maggiore razionalità, quindi su una maggiore assunzione di responsabilità per ogni scelta.

-------------

Bisogna sottoporre ad analisi critica questa narrazione, dalla confusione di dati e informazioni alla definizione di "decisione razionale", per evitare non solo che la distopia si avveri, ma anche per impedire che le sue (false) assunzioni ricadano nelle attuazioni parziali che il soluzionismo tecnologico tende ad agevolare, o persino ad imporre.


Intelligenza artificiale e creatività - Terza parte: un lapsus della storia

Nei mesi scorsi abbiamo iniziato una riflessione sul rapporto tra processo creativo e Intelligenza artificiale (Intelligenza artificiale e creatività – I punti di vista di tre addetti ai lavori, 10/09/2024, e Intelligenza artificiale e creatività – Seconda parte: c’è differenza tra i pennelli e l’I.A.?, 17/12/2024), riflessione che si è sviluppata grazie ai contributi di Matteo Donolato - Laureando in Scienze Filosofiche, professore e grafico di Controversie (usando l’I.A.); Paolo Bottazzini - Epistemologo, professionista del settore dei media digitali e esperto di Intelligenza Artificiale; Diego Randazzo e Aleksander Veliscek - Artisti visivi.

Riflessioni che ruotavano attorno alla domanda se le immagini prodotte dall’IA, pur partendo da un input umano, si possano considerare arte.

A completamento di quelle riflessioni, interviene ancora Paolo Bottazzini per disegnare degli scenari futuri che mettono in discussione il concetto di arte come lo conosciamo oggi.

Tutto è in discussione… buona lettura!

---------

Credo che, quando definiamo l’I.A. uno strumento nelle mani dell’artista non dobbiamo cadere nell’ingenuità di ridurre il ruolo del dispositivo a quello di un mezzo trasparente, un utensile che trasferisca in modo neutrale nella materia sensibile un contenuto già compiuto nella mente dell’agente umano. Spetta di sicuro al soggetto che elabora il prompt offrire l’impulso della creazione, attraverso la formulazione della domanda, e tramite la selezione dei risultati che possono essere accolti come utili. Tuttavia, il software introduce elementi che influiscono sia sulle modalità creative, sia sui processi più o meno inconsapevoli di invenzione del prompt.

Benjamin, nella fase pionieristica del cinema, suggeriva che la macchina da presa e il formato del film ci avrebbero permesso di scorgere qualcosa che altrimenti sarebbe rimasto invisibile nell’inconscio dei nostri movimenti; intuiva che lo scatto della fotografia nella sua autenticità sarebbe sempre stato l’inquadratura della scena di un delitto, e che nella sua deviazione di massa avrebbe inaugurato l’epoca del Kitsch.

Elizabeth Eisenstein ha dimostrato che la stampa a caratteri mobili ha contribuito alla nascita di una cultura che vedeva nel futuro una prospettiva di miglioramento progressivo dell’uomo – mentre la copia a mano dei libri nel periodo precedente, con l’aggiunta di errori ad ogni nuova riproduzione, aveva alimentato una visione del mondo in cui l’origine è la sede della verità, e la storia un cammino inesorabile di decadenza. Credo che il compito della critica filosofica e sociologica dovrebbe ora essere quello di comprendere quale sia la prospettiva di verità e di visibilità, o di disvelamento, che viene inaugurata con l’I.A..

In questo momento aurorale dell’uso delle reti neurali possiamo sapere che il loro talento consiste nel rintracciare pattern di strutture percettive nelle opere depositate negli archivi, che in gran parte sono sfuggiti ai canoni proposti negli insegnamenti dell’Accademia. L’I.A. non sviluppa nuovi paradigmi, o letture inedite di ciò che freme nello spirito del nostro tempo, ma è in grado di scoprire ciò che abbiamo riposto nel repertorio del passato, senza esserne consapevoli: rintraccia quello che gli autori non sanno di aver espresso con il loro lavoro. La metafora dell’inconscio adottata da Benjamin sembra quindi essere adeguata a descrivere quello che il lavoro dei software riesce a portare alla luce: in questo caso però il rimosso appartiene al corpus delle opere che scandiscono la tradizione estetica, da cui viene lasciato emergere ciò che vi è di latente, cancellato, rifiutato, dimenticato.

La possibilità di far redigere a chatGPT un testo nello stile di Foscolo o di Leopardi, o di chiedere a Midjourney di raffigurare un’immagine alla maniera di Monet, o di renderla con l’estro dei cubisti, o di mimare Caravaggio, Raffaello, Leonardo, conduce alla produzione di una specie di lapsus della storia dell’arte – qualcosa che l’autore invocato avrebbe potuto creare, o i suoi discepoli, ma che non è mai esistito.

Qual è lo statuto ontologico ed estetico di questo balbettio della tradizione, di questa eco di ciò che dovrebbe essere unico, e che invece resuscita in un sosia, ritorna nello spettro di un doppio scandaloso? Kant insegna che l’idea estetica è definita dal fatto di essere l’unica rappresentazione possibile di un’idea universale: il gesto produttivo dell’I.A. viola questo assunto che si trova alla radice di gran parte delle teorie dell’arte moderne e contemporanee.

Stiamo allora abbandonando per sempre la concezione dell’arte come creazione del genio, come gesto unico e non riproducibile dell’artista? Dobbiamo rivedere la prospettiva monumentale che l’Occidente ha coltivato dell’arte, per avvicinarci alla sensibilità del gesto nella sua infinita riproducibilità, sempre uguale e sempre differente, che appartiene alla tradizione orientale? O forse, l’attenzione con cui la possibilità di variare, di giocare con la latenza e il rimosso, avvicina l’arte ad un’esperienza quasi scientifica di osservazione e di scoperta, alla trepidazione e al timore (che sempre accompagnano il ritorno del trauma, la ricomparsa sulla scena del delitto) di mostrare lo schematismo di ciò che scatena l’emozione, di esibire i segni che suscitano la reputazione di verità, di configurare l’allestimento in cui avviene la recita di ciò che riconosciamo come bello e giusto.

Qualunque sia la soluzione che si verificherà nella prassi dei prossimi anni, se l’I.A. diventerà un dispositivo protagonista dell’attività creativa nelle mani degli artisti di professione e in quelle del pubblico generalista, e non si limiterà a rappresentare una moda passeggera, il suo impatto sarà destinato a introdurre un processo di ri-mediazione sulle forme espressive dell’arte e anche sui mezzi di comunicazione in senso ampio. Allo stesso modo, oltre un secolo e mezzo fa, la fotografia ha trasformato le modalità creative della pittura e delle arti plastiche, liberandole dalla fedeltà mimetica al loro soggetto e inaugurando percorsi di indagine che contrassegnano l’epoca moderna. Tutti i media subiranno una ristrutturazione che ne modificherà la destinazione, e le attese da parte del pubblico, con una nuova dislocazione della loro funzione comunicativa, laddove l’immediatezza documentaristica è minacciata dalle deep fake, la meccanicità della produzione di cronaca è coperta dalle I.A. generative trasformative, l’esercizio di riflessione sugli stili del passato è coperto dalla ricognizione dei pattern dalle reti neurali.

C’è molto spazio per la sperimentazione!


Internet ci rende transumani - La fattoria degli umani di Enrico Pedemonte

1. QUELLO CHE L’UTOPIA NON SA

«Il male che gli uomini fanno sopravvive loro; il bene è spesso sepolto con le loro ossa». Il rammarico dell’Antonio di Shakespeare potrebbe essere rivolto alle utopie che hanno accompagnato la nascita di Internet e dei dispositivi digitali, e i nomi di di Vannevar Bush o di Douglas Engelbart potrebbero sostituirsi a quello di Cesare. Nel 2008 Nicholas Carr si domandava se Google ci rende stupidi, e di sicuro oggi molti analisti concordano sul fatto che non siamo qui a lodare la convinzione che le macchine possano contribuire ad aumentare l’intelletto umano – ma a seppellirla. Dalla presentazione del 9 dicembre 1968, con cui Engelbart ha mostrato per la prima volta l’interazione con un computer tramite mouse e interfaccia grafica, siamo passati attraverso la commercializzazione massiva della Rete, la formazione dei monopoli delle Big Tech, il saccheggio dei dati personali, lo sviluppo della società del controllo, la dipendenza patologica dalle piattaforme, la filter bubble, la polarizzazione delle opinioni e il dibattito sulla disinformazione. Di sicuro si è persa l’innocenza delle origini, la promessa di un nuovo mondo della comunicazione, la speranza di una libertà che il principio di realtà aveva negato nel mondo offline, la fiducia in comunità virtuali, senza confini, dove raggiungere una piena espressione del sé di ognuno.

Enrico Pedemonte ripercorre la storia che porta da Vannevar Bush fino ai nostri giorni in La fattoria degli umani, cercando di capire cos’è successo all’utopia degli spazi digitali, cosa si è inoculato nel sogno di un’umanità più perspicace e più emancipata precipitandolo in un incubo, nel terrore che tutto possa concludersi con lo sterminio della nostra specie da parte di un’AI superintelligente. L’ipotesi che un giorno o l’altro una macchina assuma l’aspetto di Terminator e compia una strage, come in un film di fantascienza, non è una preoccupazione realistica; ma è significativo che la retorica da cui viene accompagnato lo sviluppo delle nuove tecnologie abbia dismesso l’entusiasmo per l’intelligenza connettiva di Pierre Lévy, e abbia abbracciato il timore di scenari catastrofici. Pedemonte sospetta che un vizio sia presente fin dall’origine, e che i suoi effetti si siano amplificati con l’espansione della forza economica e del potere politico dei giganti della Silicon Valley.

2. IMMUNITÀ LEGALE

Anzi, i difetti sono almeno due, e si sono rafforzati l’un l’altro, o sono forse due sintomi di una stessa crisi, ancora più profonda. Il primo ha origine fuori dall’ambiente culturale della Silicon Valley, e si sviluppa nel cammino tormentato con cui il parlamento americando ha raggiunto la versione definitiva del Communications Decenct Act. La legge stabilisce che le piattaforme online non devono essere equiparate agli editori tradizionali, e le tutela da ogni intervento del governo nei loro confronti: in questo modo attori del nascente mercato digitale, come Google, Facebook, Twitter, sono stati messi al riparo da qualunque regolamentazione sia sul controllo dei contenuti, sia sulla ripartizione della distribuzione pubblicitaria – e più in generale sulla valutazione delle loro posizioni monopolistiche nei settori della ricerca, dei social media, dell’intelligenza artificiale. La supervisione che viene applicata ai giornali, alle radio e alle reti televisive, non agisce sugli algoritmi che gestiscono il ranking dei listati di risposte, la selezione dei post e la composizione delle bacheche personali, la profilazione dell’advertising: eppure tra il 2004 e il 2021 il numero di giornali nel mondo è quasi dimezzato (-47%), mentre l’accesso alle notizie tramite i social media è diventato una consuetudine tra gli utenti del Web.

Ma l’obiettivo delle piattaforme tecnologiche non è quello di consolidare la fiducia dei lettori nella verità dei contenuti divulgati, bensì quello di trattenerli il più possibile nella compulsione delle bacheche, e nell’incentivare il più possibile l’interazione con like, commenti, condivisioni. Mentre la verità si sta ancora allacciando le scarpe, una bugia ha già fatto il giro del mondo: così chiosava Mark Twain. Il controllo delle informazioni richiede tempo, e il più delle volte una storia esposta in buona fede è affetta da lacune, passaggi critici, contraddizioni; l’artefazione, o (quando serve) l’invenzione completa dei fatti, possono invece adattarsi all’ecosistema ideologico degli interlocutori, e sfrecciare da una mente all’altra senza ostacoli. La fatica che è richiesta all’utente nella ricognizione della complessità del reale, gli viene del tutto risparmiata quando la notizia è costruita attorno all’effetto emotivo, che suscita scandalo, orrore, sdegno o pietà. Le notizie a tinte forti attraggono i clic, coinvolgono i lettori, accendono il dibattito – spingono verso la radicalizzazione dei pregiudizi, a detrimento della riflessione e della mediazione. Gli esiti sono tossici per lo stato di salute delle democrazie e per la coesione sociale; per i bilanci delle società che amministrano le piattaforme sono invece un toccasana, perché assicurano il buon funzionamento della loro attività produttiva principale, l’estrazione dei dati.

3. DATI

Shoshana Zuboff ha sottolineato l’affinità tra il modello di business di imprese come Google e Facebook da un lato, e l’industria mineraria o petrolifera dall’altro lato. Le informazioni che le Big Tech estraggono dal comportamento degli utenti permettono loro di conoscere le caratteristiche sociodemografiche, gli interessi, le opinioni, le abitudini, le relazioni personali, le disponibilità di spesa, le paure di ognuno e di tutti – e naturalmente anche di controllarli, manipolarli, sfruttarli. Nessun settore imprenditoriale si è mai rivelato tanto promettente dal punto di vista dei profitti, e nessuno è stato così agevolato nella crescita, e messo al riparo dalle difficoltà minacciate dalle istituzioni a tutela della privacy e della libera concorrenza, nonché dalle interferenze di attivisti e giornalisti troppo curiosi.  Motori di ricerca e social media serbano una biografia di ciascuno di noi più ampia, più ricca e obiettiva, di quella che noi stessi sapremmo confessare nel segreto del nostro foro interiore: nella registrazione di tutte le nostre domande, dei nostri like e dei nostri post, protratta per anni, si deposita una traccia delle aspirazioni, degli interessi  e delle paure di cui spesso non conserviamo una memoria cosciente, ma che i database di Google e di Facebook mettono a disposizione degli inserzionisti. Inconscio, abitudini e passioni, individuate nel momento in cui emergono da pulsioni interne o da opportunità sociali, diventano la leva ideale per vendere prodotti e servizi – ma anche candidati elettorali, ideologie, priorità e strategie politiche.

Le piattaformi digitali tendono al monopolio: le persone frequentano i posti dove si trovano già tutti i loro amici, o cercano le informazioni che sono condivise dai loro clienti e dagli interlocutori in generale. In questo modo chi ha accumulato più dati è in grado di offrire esperienze più divertenti e informazioni più personalizzate, intercettando quindi nuovi utenti e appropriandosi ancora di più dati. Chi vince piglia tutto, come accade a Google che detiene circa il 90% delle quote del mercato della ricerca online mondiale. La tensione che ha alimentato questa forma di capitalismo trova la sua ispirazione e giustificazione ideologica nella letteratura di Ayn Rand e della fantascienza che ha nutrito imprenditori, tecnici, guru, profeti e visionari nerd della Silicon Valley: è questo il secondo vizio – questa volta del tutto interno alla cultura tech – che ha segnato dalle origini il percorso delle utopie della Rete. L’umanità deve essere salvata da se stessa, dalla sua imperfezione e dalla sua mortalità, e questo compito può essere assunto solo da un eroe che trascende qualunque limite gli venga opposto dalla società, dalla legge, dalle tradizioni e persino dal buon senso (anzi, da questo prima di tutto). L’individualismo senza rimorsi, la tensione a diventare l’eletto che porterà gli altri uomini oltre se stessi, anche a costo della loro libertà – sono il codice in cui è scritto il programma utopistico della Rete, come sede della vita che vale la pena di essere vissuta. Chi non ce la fa, o chi cerca di resistere – o addirittura chi tenta di non essere d’accordo – è destinato a soccombere e a scivolare nell’oblio della storia. La violazione della privacy, il prelievo dei dati, la manipolazione delle intenzioni, non sono quindi attività illegali, ma sono i doni che l’eroe riversa sull’umanità, per liberarla dalle sue limitazioni, dalle sue paure irrazionali, dalla sua mortalità.

4. L’UOMO (?) CHE VERRÀ

Pedemonte elenca sette movimenti in cui si possono classificare le mitologie principali da cui è guidato il capitalismo della Silicon Valley: Transumanesimo, Estropianesimo, Singolarismo, Cosmismo, Razionalismo, Altruismo Efficace, Lungotermismo. Le categorie non sono esclusive, si può aderire a più parrocchie nello stesso tempo, o transitare nel corso del tempo da una all’altra. In comune queste prospettive coltivano il culto dell’accelerazione nello sviluppo di nuove tecnologie, l’ambizione di realizzare simbionti tra uomo e macchina, dilatando le capacità cognitive degli individui, riprogrammando la vita e la natura, eliminando imprevisti, patologie e – ove possibile – anche la morte.

Le aspirazioni appartengono alla fantascienza, le intenzioni utopistiche sono sepolte e dimenticate, ma lo sviluppo di metodi di controllo, l’accentramento monopolistico, la violazione della proprietà intellettuale, l’abbattimento progressivo dello stato sociale e la privatizzazione dei suoi servizi, sono ormai la realtà del capitalismo dei nostri giorni – che ha trovato nelle tecnologie digitali, e nell’etica hacker che ne sostiene la progettazione, la piattaforma su cui reinventarsi dopo la crisi degli ultimi decenni del XX secolo. La realtà che è sopravvissuta alle utopie novecentesche è un mercato che ha assorbito la politica e la cultura, dove l’unico individuo che può esprimersi liberamente è quello transumanistico, che pone la macchina come obiettivo, e l’autismo del nerd come modello di vita.

 

BIBLIOGRAFIA

Carr, Nicholas, Is Google Making Us Stupid?, «The Atlantic», vol. 301, n.6, luglio 2008.

Engelbart, Douglas, Augmenting human intellect: A conceptual framework, SRI Project 3578 Stanford Research Institute, Menlo Park California October 1962.

Lévy, Pierre, L'Intelligence collective. Pour une anthropologie du cyberespace, La Découverte, Parigi 1994.

Pedemonte, Enrico, La fattoria degli umani, Treccani, Milano 2024.

Zuboff, Shoshana, The Age of Surveillance Capitalism: The Fight for a Human Future at the New Frontier of Power, Profile Books, Londra 2019.


Deskilling e Diverse Skilling - La trasformazione delle competenze nell'era digitale

L'innovazione tecnologica ha rivoluzionato il nostro modo di vivere e lavorare, delegando molte attività a strumenti digitali. L'adozione di queste tecnologie genera due importanti dinamiche che impattano le competenze umane: il fenomeno del deskilling e quello del diverse skilling.

Da un lato, il deskilling indica la perdita di competenze necessarie a svolgere un'azione, che viene – invece - affidata a una macchina. Dall'altro lato, il diverse skilling sottolinea la trasformazione  delle competenze del fare in quelle dell'uso e della gestione della macchina che fa.

IL FENOMENO DEL DESKILLING

Il termine deskilling indica la progressiva perdita delle competenze necessarie a svolgere un'attività specifica, fenomeno che si verifica quando un'azione che era abitualmente eseguita da una persona umana viene completamente delegata a uno strumento tecnico o tecnologico. In particolare, nel corso di questo XXI secolo, si tratta di strumenti di automazione digitali.

Un esempio emblematico è quello della calcolatrice: l'introduzione di questo strumento ha ridotto la necessità di eseguire calcoli complessi manualmente. Analogamente, i sistemi di navigazione satellitare hanno reso quasi superflua la capacità di leggere mappe o orientarsi con elementi naturali.

In ambito lavorativo, il deskilling è maggiormente evidente nei settori industriali oggetto di processi di progressiva automazione, settori in cui operai - che un tempo padroneggiavano procedure complesse - ora supervisionano processi gestiti da robot; oppure nei settori dei servizi, in cui numerose attività svolte tradizionalmente da umani – come, ad esempio, l’assistenza ai clienti – iniziano ad essere gestite da bot[1], sistemi automatici digitali che trovano spesso applicazione nelle chat o nei numeri telefonici di assistenza ai clienti: trascrivono e interpretano il linguaggio naturale parlato o scritto, estraggono i riferimenti delle richieste e provano (spesso senza successo, va detto) a dare delle risposte.

Questo fenomeno ha conseguenze significative sia sui processi che sui lavoratori . Da un lato, possono aumentare l'efficienza e ridurre gli errori; dall'altro, portano – sicuramente - ad una progressiva dipendenza dagli strumenti utilizzati e all’oblio delle competenze che permettono ad un umano di fare quel lavoro.

La perdita di competenze pratiche, quelle del fare può avere effetti devastanti: dal punto di vista industriale, infatti,

  • riduce la comprensione del processo, in cui l’azione dello strumento, diventato una black box in cui viene immesso qualcosa e che produce qualcosa di diverso, viene data per scontata
  • diminuisce la possibilità di integrazione umana manuale in caso di errori o di malfunzionamenti
  • segrega le conoscenze di come funziona il passo di processo automatizzato tra gli esperti della tecnologia, del progettare (informatici, meccanici, fisici, chimici) che hanno progettato l’automatismo e che, frequentemente, non partecipano per nulla al processo produttivo, togliendole – invece - a chi il processo produttivo lo vede o lo gestisce quotidianamente
  • riduce, quindi, la possibilità di miglioramento della qualità del prodotto – che continua a dipendere dal processo di realizzazione – ai soli momento di re-engineering istituzionalizzato, perdendo il contributo degli esperti del fare, operai e impiegati

Dal lato di chi lavora, invece, riduce l'autonomia dell'individuo, del lavoratore, annulla il valore del suo contributo professionale, e può generare significative ripercussioni sul piano psicologico e sociale.

IL CONTRAPPESO DEL DIVERSE SKILLING

In contrapposizione al deskilling, il diverse skilling è la traslazione delle competenze dall'esecuzione diretta di un compito ,il fare, alla gestione dello strumento che lo compie. Questo fenomeno non implica la perdita totale delle abilità, ma una loro trasformazione e adattamento.

Tornando agli esempi precedenti, l'uso di una calcolatrice richiede la comprensione dei meccanismi logici sottostanti, così come l'interpretazione di dati forniti da un sistema di navigazione richiede la capacità di valutare le condizioni reali del contesto.

In ambito lavorativo, l'automazione può portare gli operai a sviluppare competenze di monitoraggio e di manutenzione delle tecnologie di automazione i sistemi, rendendo necessarie conoscenze più avanzate, come quelle informatiche o ingegneristiche.

Un caso esemplare è stato quello della vulcanizzazione degli pneumatici: negli anni ’80, in una grande azienda industriale italiana, le attività manuali – svolte dai caposquadra – di pianificazione della produzione, delle singole macchine vulcanizzatrici, seguite – in corso di produzione – dalle vere e proprie attività di preparazione e di attrezzaggio delle macchine, sono state sostituite da sistemi informatici che permettevano di effettuare una programmazione efficace ed efficiente per la giornata o la settimana e – sulla base del conteggio automatizzato dei pezzi e delle attività, indicavano al capoturno sulla consolle di controllo quando fosse opportuno intervenire per la manutenzione oppure per il cambio di attrezzaggio programmato per una diversa lavorazione.

In questo caso, il personale ha potuto intervenire nella fase di progettazione per dare le necessarie indicazioni competenziali a chi progettava i sensori, i contatori e il software, in fase di test per controllare se il funzionamento dell’automatismo fosse in linea con le indicazioni e le esigenze e, infine, ha completato la traslazione competenziale con corsi di formazione che hanno permesso alle operaie e agli operai di gestire in autonomia i sistemi automatici e di dare indicazioni su come migliorarne il funzionamento nel tempo.

Il diverse skilling rappresenta, quindi, una forma di resilienza umana all'innovazione tecnologica. Mentre alcune competenze si perdono, altre vengono acquisite, spesso più complesse e specializzate. Questo fenomeno può favorire una maggiore produttività e migliorare la qualità del lavoro, ma non è privo di sfide: la transizione richiede risorse significative in termini di formazione e adattamento culturale e rappresenta – probabilmente – un importante cambiamento sociale guidato delle rivoluzioni tecnologiche.

UN CONFRONTO CRITICO

Il confronto tra deskilling e diverse skilling solleva interrogativi sulla direzione e sulle conseguenze del cosiddetto progresso tecnologico.

Da un lato, il deskilling è un rischio per la sostenibilità delle competenze umane, soprattutto quando interi settori lavorativi si trasformano rapidamente, lasciando molte persone senza le capacità necessarie per adattarsi.

Dall'altro, il diverse skilling dimostra che il cambiamento tecnologico può non annullare le competenze, ma – sotto alcune condizioni – può favorirne un riallineamento verso nuove frontiere di apprendimento.

Il punto di equilibrio – o di crisi - sta certamente nell'accessibilità: non tutti gli individui e non tutti i contesti sociali sono in grado di affrontare il passaggio dal deskilling al diverse skilling.

La focalizzazione delle imprese sull’incremento di efficienza, che va sempre letto come riduzione dei costi di produzione e contestuale aumento della produttività, spesso non contempla investimenti volti a ridurre le lateralità della trasformazione tecnologica.

Questo significa minori opportunità di formazione e infrastrutture dedicate alla transizione verso un diverse skilling e, come conseguenza, amplifica le disuguaglianze, creando una società divisa tra chi detiene le nuove tecnologie, chi le padroneggia e chi ne è escluso.

Nel mondo delle imprese si sente dire che “non si progredisce senza cambiare”, ma il cambiamento è una trasformazione che – purtroppo - non è alla portata di tutti e - spesso - non è portatore di maggiore benessere.

Ad esempio, in settori come la medicina o l'ingegneria, affidarsi completamente alla tecnologia senza mantenere competenze critiche e intuitive può avere conseguenze disastrose.

CONCLUSIONI

Il deskilling e il diverse skilling non sono – quindi - fenomeni mutuamente esclusivi, ma due facce della stessa medaglia. Mentre il primo evidenzia i rischi di una delega eccessiva alla tecnologia, il secondo dimostra la capacità dell’umano di adattarsi e innovarsi, migliorando di fatto la qualità delle sfide che affronta.

Per massimizzare i benefici e minimizzare i rischi, è essenziale – però – che gli innovatori promuovano strategie formative e lavorative che facilitino il diverse skilling, senza trascurare l'importanza delle competenze di base.

In un mondo sempre più automatizzato, il futuro del lavoro e dell'apprendimento dipenderà dalla capacità di bilanciare innovazione tecnologica e adattamento delle abilità umane. Solo così sarà possibile costruire una società in cui la tecnologia sia uno strumento di emancipazione e non di alienazione.

 

 

NOTE

[1] I bot sono sistemi automatici digitali che trovano spesso applicazione nelle chat o nei numeri telefonici di assistenza ai clienti: trascrivono e interpretano il linguaggio naturale parlato o scritto, estraggono i riferimenti delle richieste e provano a dare delle risposte.