Deskilling e Diverse Skilling - La trasformazione delle competenze nell'era digitale
L'innovazione tecnologica ha rivoluzionato il nostro modo di vivere e lavorare, delegando molte attività a strumenti digitali. L'adozione di queste tecnologie genera due importanti dinamiche che impattano le competenze umane: il fenomeno del deskilling e quello del diverse skilling.
Da un lato, il deskilling indica la perdita di competenze necessarie a svolgere un'azione, che viene – invece - affidata a una macchina. Dall'altro lato, il diverse skilling sottolinea la trasformazione delle competenze del fare in quelle dell'uso e della gestione della macchina che fa.
IL FENOMENO DEL DESKILLING
Il termine deskilling indica la progressiva perdita delle competenze necessarie a svolgere un'attività specifica, fenomeno che si verifica quando un'azione che era abitualmente eseguita da una persona umana viene completamente delegata a uno strumento tecnico o tecnologico. In particolare, nel corso di questo XXI secolo, si tratta di strumenti di automazione digitali.
Un esempio emblematico è quello della calcolatrice: l'introduzione di questo strumento ha ridotto la necessità di eseguire calcoli complessi manualmente. Analogamente, i sistemi di navigazione satellitare hanno reso quasi superflua la capacità di leggere mappe o orientarsi con elementi naturali.
In ambito lavorativo, il deskilling è maggiormente evidente nei settori industriali oggetto di processi di progressiva automazione, settori in cui operai - che un tempo padroneggiavano procedure complesse - ora supervisionano processi gestiti da robot; oppure nei settori dei servizi, in cui numerose attività svolte tradizionalmente da umani – come, ad esempio, l’assistenza ai clienti – iniziano ad essere gestite da bot[1], sistemi automatici digitali che trovano spesso applicazione nelle chat o nei numeri telefonici di assistenza ai clienti: trascrivono e interpretano il linguaggio naturale parlato o scritto, estraggono i riferimenti delle richieste e provano (spesso senza successo, va detto) a dare delle risposte.
Questo fenomeno ha conseguenze significative sia sui processi che sui lavoratori . Da un lato, possono aumentare l'efficienza e ridurre gli errori; dall'altro, portano – sicuramente - ad una progressiva dipendenza dagli strumenti utilizzati e all’oblio delle competenze che permettono ad un umano di fare quel lavoro.
La perdita di competenze pratiche, quelle del fare può avere effetti devastanti: dal punto di vista industriale, infatti,
- riduce la comprensione del processo, in cui l’azione dello strumento, diventato una black box in cui viene immesso qualcosa e che produce qualcosa di diverso, viene data per scontata
- diminuisce la possibilità di integrazione umana manuale in caso di errori o di malfunzionamenti
- segrega le conoscenze di come funziona il passo di processo automatizzato tra gli esperti della tecnologia, del progettare (informatici, meccanici, fisici, chimici) che hanno progettato l’automatismo e che, frequentemente, non partecipano per nulla al processo produttivo, togliendole – invece - a chi il processo produttivo lo vede o lo gestisce quotidianamente
- riduce, quindi, la possibilità di miglioramento della qualità del prodotto – che continua a dipendere dal processo di realizzazione – ai soli momento di re-engineering istituzionalizzato, perdendo il contributo degli esperti del fare, operai e impiegati
Dal lato di chi lavora, invece, riduce l'autonomia dell'individuo, del lavoratore, annulla il valore del suo contributo professionale, e può generare significative ripercussioni sul piano psicologico e sociale.
IL CONTRAPPESO DEL DIVERSE SKILLING
In contrapposizione al deskilling, il diverse skilling è la traslazione delle competenze dall'esecuzione diretta di un compito ,il fare, alla gestione dello strumento che lo compie. Questo fenomeno non implica la perdita totale delle abilità, ma una loro trasformazione e adattamento.
Tornando agli esempi precedenti, l'uso di una calcolatrice richiede la comprensione dei meccanismi logici sottostanti, così come l'interpretazione di dati forniti da un sistema di navigazione richiede la capacità di valutare le condizioni reali del contesto.
In ambito lavorativo, l'automazione può portare gli operai a sviluppare competenze di monitoraggio e di manutenzione delle tecnologie di automazione i sistemi, rendendo necessarie conoscenze più avanzate, come quelle informatiche o ingegneristiche.
Un caso esemplare è stato quello della vulcanizzazione degli pneumatici: negli anni ’80, in una grande azienda industriale italiana, le attività manuali – svolte dai caposquadra – di pianificazione della produzione, delle singole macchine vulcanizzatrici, seguite – in corso di produzione – dalle vere e proprie attività di preparazione e di attrezzaggio delle macchine, sono state sostituite da sistemi informatici che permettevano di effettuare una programmazione efficace ed efficiente per la giornata o la settimana e – sulla base del conteggio automatizzato dei pezzi e delle attività, indicavano al capoturno sulla consolle di controllo quando fosse opportuno intervenire per la manutenzione oppure per il cambio di attrezzaggio programmato per una diversa lavorazione.
In questo caso, il personale ha potuto intervenire nella fase di progettazione per dare le necessarie indicazioni competenziali a chi progettava i sensori, i contatori e il software, in fase di test per controllare se il funzionamento dell’automatismo fosse in linea con le indicazioni e le esigenze e, infine, ha completato la traslazione competenziale con corsi di formazione che hanno permesso alle operaie e agli operai di gestire in autonomia i sistemi automatici e di dare indicazioni su come migliorarne il funzionamento nel tempo.
Il diverse skilling rappresenta, quindi, una forma di resilienza umana all'innovazione tecnologica. Mentre alcune competenze si perdono, altre vengono acquisite, spesso più complesse e specializzate. Questo fenomeno può favorire una maggiore produttività e migliorare la qualità del lavoro, ma non è privo di sfide: la transizione richiede risorse significative in termini di formazione e adattamento culturale e rappresenta – probabilmente – un importante cambiamento sociale guidato delle rivoluzioni tecnologiche.
UN CONFRONTO CRITICO
Il confronto tra deskilling e diverse skilling solleva interrogativi sulla direzione e sulle conseguenze del cosiddetto progresso tecnologico.
Da un lato, il deskilling è un rischio per la sostenibilità delle competenze umane, soprattutto quando interi settori lavorativi si trasformano rapidamente, lasciando molte persone senza le capacità necessarie per adattarsi.
Dall'altro, il diverse skilling dimostra che il cambiamento tecnologico può non annullare le competenze, ma – sotto alcune condizioni – può favorirne un riallineamento verso nuove frontiere di apprendimento.
Il punto di equilibrio – o di crisi - sta certamente nell'accessibilità: non tutti gli individui e non tutti i contesti sociali sono in grado di affrontare il passaggio dal deskilling al diverse skilling.
La focalizzazione delle imprese sull’incremento di efficienza, che va sempre letto come riduzione dei costi di produzione e contestuale aumento della produttività, spesso non contempla investimenti volti a ridurre le lateralità della trasformazione tecnologica.
Questo significa minori opportunità di formazione e infrastrutture dedicate alla transizione verso un diverse skilling e, come conseguenza, amplifica le disuguaglianze, creando una società divisa tra chi detiene le nuove tecnologie, chi le padroneggia e chi ne è escluso.
Nel mondo delle imprese si sente dire che “non si progredisce senza cambiare”, ma il cambiamento è una trasformazione che – purtroppo - non è alla portata di tutti e - spesso - non è portatore di maggiore benessere.
Ad esempio, in settori come la medicina o l'ingegneria, affidarsi completamente alla tecnologia senza mantenere competenze critiche e intuitive può avere conseguenze disastrose.
CONCLUSIONI
Il deskilling e il diverse skilling non sono – quindi - fenomeni mutuamente esclusivi, ma due facce della stessa medaglia. Mentre il primo evidenzia i rischi di una delega eccessiva alla tecnologia, il secondo dimostra la capacità dell’umano di adattarsi e innovarsi, migliorando di fatto la qualità delle sfide che affronta.
Per massimizzare i benefici e minimizzare i rischi, è essenziale – però – che gli innovatori promuovano strategie formative e lavorative che facilitino il diverse skilling, senza trascurare l'importanza delle competenze di base.
In un mondo sempre più automatizzato, il futuro del lavoro e dell'apprendimento dipenderà dalla capacità di bilanciare innovazione tecnologica e adattamento delle abilità umane. Solo così sarà possibile costruire una società in cui la tecnologia sia uno strumento di emancipazione e non di alienazione.
NOTE
[1] I bot sono sistemi automatici digitali che trovano spesso applicazione nelle chat o nei numeri telefonici di assistenza ai clienti: trascrivono e interpretano il linguaggio naturale parlato o scritto, estraggono i riferimenti delle richieste e provano a dare delle risposte.
La morale della storI.A. - Corpus documentali, training e decisioni
GENTE DI TROPPA FEDE
Nel libro Paura della scienza Enrico Pedemonte racconta che nel Kentucky, a Petersburg, il pastore australiano Ken Ham ha investito 27 milioni di dollari per costruire un parco tematico in cui la storia della Terra viene esposta secondo il punto di vista della Bibbia. Dalla sua fondazione, nel 2007, il Creation Museum ha accolto oltre 3 milioni e mezzo di visitatori, che hanno potuto vedere con i loro occhi come il nostro pianeta non conti più di 6.000 anni di vita, e come i dinosauri esistessero ancora durante il Medioevo – quando San Giorgio e gli altri cavalieri li hanno sterminati, scambiandoli per draghi. Ai tempi di Dante il WWF avrebbe raffigurato la minaccia di estinzione con un povero tirannosauro, bullizzato da giovanotti di buona famiglia in armatura rilucente – altro che panda.
Una porzione molto ampia dell’opinione pubblica coltiva un rapporto con l’intelligenza artificiale paragonabile a quello che gli abitanti della «Bible Belt» americana nutrono nei confronti della storia: una fede che libera da ogni fatica di studio e approfondimento. Solo che gli imbonitori delle fantasticherie tecnologiche non hanno nemmeno bisogno di cimentarsi nella fatica di costruire parchi a tema per persuadere i loro spettatori: non mancherebbero i mezzi, visto che tra le loro fila si schierano personaggi come Elon Musk e Sam Altman. Nel film fantasy di portata universale che propone l’AGI come un evento imminente, i ruoli sembrano invertiti: il computer che raggiungerà l’intelligenza artificiale generale viene descritto come un vero drago di talento e raziocinio, con personalità propria, autonomia di giudizio, memoria illimitata, conoscenze smisurate, lucidità strategica, sottigliezza logica, e (perché no?) cinismo teso al dominio sull’uomo e sull’universo. Cosa potrà fare un San Giorgio moderno, negli abiti di un programmatore nerd, o di un eroico poeta in carne e ossa, o di un chirurgo che si prodiga per la salute dei suoi pazienti, o di un giudice che brama difendere la giustizia quanto Giobbe davanti a Dio – cosa potranno questi santi laici di fronte a un mostro simile?
Nick Bostrom ha avvisato più di dieci anni fa che se dovesse comparire questa forma di intelligenza, per tutti noi e i nostri santi sarebbe già troppo tardi, perché la macchina che raggiungesse le prestazioni dell’AGI non si fermerebbe al nostro livello di razionalità, ma crescerebbe a intensità esponenziale, conquistando gradi di perspicacia tali da impedire la scoperta delle sue manovre, e da inibire l’interruttore di spegnimento.
TOSTAPANI CON TALENTO PER LA STATISTICA
Ma è davvero così?
L’AGI è grande, e ChatGPT è il suo profeta: molti lo considerano tale. Il software di OpenAI è stimato l’avanguardia nel settore dell’intelligenza artificiale, grazie al marketing che gli ex e gli attuali soci fondatori hanno animato intorno alle sue prestazioni: il licenziamento di Sam Altman da CEO nel novembre 2023, rientrato dopo meno di una settimana, e le polemiche con Elon Musk, hanno contribuito ad amplificare il clamore intorno ai prodotti dell’azienda californiana. Ma se proviamo ad aprire l’armatura che protegge la macchina, ed esaminiamo l’euristica del suo funzionamento, troviamo un dispositivo che calcola quale dovrà essere la prossima parola da stampare nella sequenza sintattica della frase, sulla base del grado maggiore di probabilità che il lemma possiede nel campo semantico in cui compare il suo predecessore. I campi semantici sono strutture matematiche in cui ogni parola è convertita in un vettore che misura la frequenza delle sue occorrenze accanto alle altre parole, nel corpus di testi che compongono il database di training. Per esempio, il lemma finestra compare con maggiore frequenza vicino a casa, strada, balcone; la sua presenza è meno probabile dopo transustaziazione o eucaristia.
Naturalmente ChatGPT è un prodigio di ingegneria, perché calcola (al momento) 1.500 miliardi di parametri ad ogni parola che viene aggiunta nella sequenza proposizionale; ma in ogni caso non ha la minima idea di cosa stia dicendo, non sa nemmeno di stare parlando, non ha alcuna percezione di cosa sia un interlocutore e che esista un mondo su cui vertono i suoi discorsi. Lo provano i «pappagalli stocastici» che ricorrono nelle sue composizioni: gli errori che possono apparire nelle sue dichiarazioni non violano solo le verità fattuali (quali possono essere inesattezze di datazione, citazioni false, e simili), ma aggrediscono la struttura delle «conoscenze di Sfondo», la logica trascendentale che rende possibile l’esperienza stessa. Per i testi redatti da ChatGPT un libro pubblicato nel 1995 può citare saggi usciti nel 2003 o descrivere una partita di Go avvenuta nel 2017: l’eloquio del software è infestato da allucinazioni che provano l’assenza di comprensione, in qualunque senso del termine intelligente, di ciò che significa la sequenza dei significanti allineati dal suo chiacchiericcio. Un dispositivo che non mostra alcun intendimento dell’esistenza del mondo, e delle sue configurazioni più stabili, non è nemmeno in grado di perseguire obiettivi autonomi, di giudicare, stimare, volere, decidere. ChatGPT è un software con l’intelligenza di un tostapane, e uno smisurato talento per il calcolo della probabilità nella successione delle parole.
COSA DICE L’I.A. SUGLI UMANI
Come se la passano i fratelli, i cugini e i parenti vicini e lontani di ChatGPT?
Consideriamo il caso esemplare, descritto da Gerd Gigerenzer, del software COMPAS adottato dai tribunali americani per collaborare con i giudici nella valutazione della libertà sulla parola. Ogni anno la polizia degli Stati Uniti arresta circa dieci milioni di persone, e il magistrato deve stabilire se convalidare l’imprigionamento o lasciare libero il cittadino, sulla base della convinzione che non reitererà il reato. COMPAS ha contribuito ad emanare circa un milione di sentenze, dopo essere stato formato sull’intera giurisprudenza depositata nei provvedimenti di ogni ordine e grado dei tribunali americani. L’analisi delle sue proposte ha evidenziato una serie di pregiudizi che discriminano per colore della pelle, genere, età e censo, sfavorendo gli uomini neri, giovani, che provengono da quartieri poveri. Tuttavia la penalizzazione a sfondo razziale che è implicita nelle decisioni del software non proviene dal carattere ghettizzante dell’intelligenza artificiale: la macchina non ha autonomia di giudizio, ma sintetizza le opinioni catalogate nell’archivio delle ordinanze dei magistrati in carne e ossa, che sono i reali agenti dei preconcetti e dell’intolleranza di cui il dispositivo digitale è solo il portavoce. La convinzione che la sospensione del ricorso all’IA, in favore dell’autonomia di delibera da parte dei giudici umani, possa mettere a tacere l’intolleranza che serpeggia tra le valutazioni del software, è un’illusione come l’Eden del Creation Museum: gli autori dei testi da cui COMPAS ha appreso il funzionamento del suo mestiere continueranno ad applicare i principi – più o meno inconsapevoli – del razzismo che innerva la società americana e l’upper class giuridica.
Al pregiudizio concettuale i magistrati umani aggiungono anche le deviazioni dettate dalla loro fisiologia. Uno studio congiunto della Columbia Business School e della Ben-Gurion University pubblicato nel 2011 ha dimostrato che i giudici scelgono con la pancia – e lo fanno in senso letterale, poiché i verdetti diventano sempre più severi quanto più ci si allontana dall’orario dei pasti. Almeno i software non sono sensibili ai morsi della fame.
Nemmeno vale la pena di coltivare illusioni sul miglioramento del trattamento dei candidati per le selezioni dei posti di lavoro: gli uffici del personale che abbandonano la lettura dei curricula ai dispositivi di IA (che a loro volta hanno imparato a discriminare nel training sul database delle assunzioni precedenti) non sarebbero pronti a compiere valutazioni migliori – con ogni probabilità si limiterebbero a non leggere i CV.
RATING UNIVERSALE E ALTRI ANIMALI FANTASTICI
Gigerenzer invita a verificare con cura i numeri divulgati dagli uffici marketing e dai giornalisti affamati di sensazionalismo: ne abbiamo già parlato in un altro articolo su Controversie.
La convinzione che qualche nazione sia in grado di gestire un calcolo del rating sociale di ciascuno dei suoi cittadini appartiene al repertorio degli effetti dei mass media per la generazione del panico. L’opinione che la Cina sia in grado di praticarlo, con quasi 1,4 miliardi di abitanti, è ancora meno credibile. Per allestire un processo di portata così vasta occorre una potenza di calcolo che al momento non può essere gestita da alcuna infrastruttura tecnologica. La realtà di questo progetto è assimilabile a qualcuno degli animali del bestiario del Creation Museum, qui a beneficio della propaganda del regime di Pechino e della sua aspirazione a gonfiare muscoli informatici inesistenti. Il governo cinese razzia dati sui cittadini anche dalle imprese che rilasciano servizi di comunicazione e di ecommerce, con l’obiettivo di armare sistemi di controllo di larga scala, che l’Unione Europea ha già vietato con l’AI Act entrato in vigore lo scorso luglio. Senza dubbio è una giusta preoccupazione prevenire simili tentazioni di amministrazione della distribuzione delle utilità sociali; ma il focus su questa minaccia sembra al momento meno urgente della normativa che obblighi i produttori di software a pubblicare le euristiche con cui funzionano i dispositivi di intelligenza artificiale. La consapevolezza che l’euristica alla base di ChatGPT è il calcolo della parola con maggiore probabilità di trovarsi subito dopo quella appena stampata, avrebbe liberato il pubblico dall’ansia e dall’euforia di marciare sulla soglia di un’AGI pronta a rubare il lavoro e a giudicare gli imputati, imminente al prossimo cambio di stagione. Avrebbe anche sterminato le occasioni per Musk e Altman di favoleggiare risultati miracolosi nel marketing dei loro prodotti – più spietatamente di quanto San Giorgio massacrasse dinosauri.
I rischi più realistici riconducibili all’intelligenza artificiale riguardano proprio la trasparenza delle euristiche, la bolla finanziaria indotta da società prive di un modello di business (come OpenAI), le attese senza fondamento alimentate da società di consulenza e da formatori improvvisati, il monopolio sui modelli fondamentali già conquistato da pochi giganti della Silicon Valley, il tentativo di accaparrarsi lo sviluppo dell’intero settore da parte di personaggi con finalità politiche ed economiche come Musk e Altman.
Chi costruisce Creation Museum di ogni tipo non ha mai come scopo la divulgazione; dovrebbe essere compito degli intellettuali tornare a smascherare i draghi di questi impostori, come coraggiosi San Giorgio della ragione.
BIBLIOGRAFIA
Bostrom, Nick, Superintelligence: Paths, Dangers, Strategies, Oxford University Press, Oxford 2014.
Bottazzini, Paolo, La fine del futuro - I.A. e potere di predizione, «Controversie», 10 settembre 2024.
ChatGPT-4, Imito dunque sono?, Bietti Edizioni, Milano 2023.
Danziger, Shai; Levav, Jonathan; Avnaim-Pesso, Liora, Extraneous factors in judicial decisions, «Proceedings of the National Academy of Sciences», vol. 108, n.17, 2011.
Gigerenzer, Gerd, How to Stay Smart in a Smart World Why Human Intelligence Still Beats Algorithms, Penguin, New York 2022.
Pedemonte, Enrico, Paura della scienza, Treccani Editore, Torino 2022.
Necro-spider hand - Due facce della medaglia della tecnoscienza
Si dice che divertirsi aiuti a rilassarsi, ad imparare più facilmente e, anche, ad essere più creativi.
Sembra assodato che il divertimento sia un tassello fondamentale della vita quotidiana e sembra che sia importante anche nella vita e nel lavoro degli scienziati.
Anche durante la ricerca scientifica, è utile trovare il giusto divertimento, così da poter "scoprire ridendo".
Su questa linea di pensiero è stato pensato il premio IgNobel, un riconoscimento che «onora risultati di ricerca così sorprendenti da far prima RIDERE e poi RIFLETTERE»; il premio vuole «celebrare l’inusuale, premiare l’immaginifico e suscitare interesse, nel grande pubblico, per le scienza, la medicina, le tecnologie».
Le ricerche che portano alla vittoria di questo tanto ambito premio – dieci vincitori ogni anno - sono pubblicate sulla rivista umoristico-scientifica Annals of Improbable Research, che raccoglie studi su argomenti strani, inaspettati e che dimostrano quanto gli scienziati si divertano a fare ricerca.
In questo post parliamo di un premio IgNobel del 2023, quello assegnato a Te Faye Yap, Zhen Liu, Anoop Rajappan, Trevor Shimokusu, and Daniel Preston, “per aver rianimato ragni morti da usare come micro-strumenti meccanici di presa”.
Faye Yap e colleghi sono bravi ingegneri con un pizzico di eccentricità; immaginiamoli dopo una giornata di lavoro passata “tra bulloni e viti” a costruire una mano robotica, che notano un ragno morto sulla scrivania e – probabilmente - pensano: «Ma non si potrebbe usare…».
Quello che potrebbe far pensare ad un episodio di Black Mirror, è il risultato di una ricerca vera e sorprendentemente utile. Gli autori si sono ispirati alla fisiologia degli aracnidi, dando vita a una branca della meccanica che potremmo definire necrobotica.
La necrobotica è l'unione tra biologia e robotica, dove parti di organismi morti vengono riutilizzate come componenti robotici. In questo caso, i ricercatori hanno sfruttato le proprietà naturali del ragno per creare un dispositivo di presa micromeccanico.
I ragni muovono le loro zampe attraverso un sistema idraulico: pompando emolinfa nel loro esoscheletro, le zampe si estendono e quando la pressione diminuisce, si contraggono. Dopo la morte il sistema idraulico del ragno non funziona più, ma la struttura meccanica rimane intatta. Inserendo un ago nel prosoma (la parte anteriore del corpo del ragno) e applicando una piccola quantità di aria pressurizzata, i ricercatori sono stati in grado di controllare l'apertura e la chiusura delle zampe, trasformando il ragno in una pinza naturale.
Figura 1 - Esempio di creazione della manina-ragno
(immagine tratta dall'articolo di Te Faye Yap, Zhen Liu,
Anoop Rajappan, Trevor Shimokusu, and Daniel Preston)
Questo sistema ha dimostrato di essere sorprendentemente efficace: il ragno "cyber-zombificato" può afferrare oggetti fino a 130 volte il proprio peso.
Si possono immaginare le applicazioni in micro-ingegneria o in situazioni dove sono necessari strumenti delicati e biodegradabili.
Figura 2 - Esempi di utilizzo della manina-ragno
(immagine tratta dall'articolo di Te Faye Yap, Zhen Liu,
Anoop Rajappan, Trevor Shimokusu, and Daniel Preston)
Sfortunatamente, la durata funzionale della pinza-ragno era limitata a circa due giorni dopo la morte del ragno, a causa della disidratazione che rendeva le articolazioni più fragili e suscettibili a fratture meccaniche nel tempo.
A cosa può veramente servire questa ricerca?
Questa tecnologia potrebbe essere impiegata nell'assemblaggio di microelettronica o per la cattura di insetti nel loro habitat naturale. Infatti, la pinza-ragno è in grado di afferrare oggetti delicati e con geometrie particolari, come solo un aracnide può fare. È anche possibile modulare la forza di presa variando la pressione applicata, per applicazioni che richiedono forze dell'ordine di decine o centinaia di micronewton.
Studiare la forza di presa in ragni di diverse dimensioni o specie potrebbe portare a una comprensione più approfondita della relazione tra le dimensioni del ragno e la forza esercitata. I futuri lavori potrebbero includere l'esplorazione di metodi di rinforzo per migliorare la durata e la robustezza della pinza necrobotica, magari con qualche trattamento antietà per mantenere le articolazioni ben lubrificate.
Questa innovazione è una prova del fatto che possiamo imparare molto dalla natura, facendoci dare darci una mano nel migliorare le tecnologie attuali.
Infatti, la progettazione e la fabbricazione dei robot tradizionali comportano spesso processi complessi e tediosi. La necrobotica, tuttavia, bypassa gran parte del processo di fabbricazione incorporando componenti robotici all’interno di materiali biologici (e anche a chilometro zero) - o viceversa.
Un altro elemento da considerare è che le applicazioni della necrobotica sono realizzate per la maggior parte con materiali biodegradabili e, quindi, non contribuiranno al crescente flusso di rifiuti tecnologici – costituendo un significativo passo per l'ecosostenibilità.
DUE CONCLUSIONI, DUE FACCE DELLA MEDAGLIA
In conclusione, da un lato sembra evidente che il divertimento e la stranezza debbano essere i benvenuti nei laboratori di ricerca e che questi possono portare stimoli e idee tanto simpatici quanto utili per quella cosa che Latour definisce tecnoscienza.
Dall’altro lato, questa storia ci ricorda che “la natura” e gli animali considerati inferiori - in questo caso i ragni - vengono ancora utilizzati per la ricerca e per scopi di innovazione tecnologica con assoluta noncuranza per una loro possibile soggettività e capacità di vivere e sentire in modo complesso: «Il materiale biologico grezzo (i cadaveri dei ragni) venne procurato praticando l’eutanasia attraverso l’esposizione a temperature di congelamento (circa - 4°) per un periodo di circa 5-7 giorni».
BIBLIOGRAFIA
Te Faye Yap, Zhen Liu, Anoop Rajappan, Trevor J. Shimokusu, Daniel J. Preston. Necrobotics: Biotic Materials as Ready-to-Use Actuators. DOI: https://doi.org/10.1002/advs.202201174. Link diretto allo studio: https://onlinelibrary.wile
Ridiamo delle macchine? – Seconda parte
IL DISTRATTO E L’OSTINATO
Torniamo, per un’ultima volta, all’esempio dell’inciampo. Chiediamoci: quando affermiamo, nel corso dell’analisi, che la corsa dell’uomo che inciampa è fin troppo meccanizzata? Soltanto quando è già intervenuto un elemento di disturbo - un ciottolo, un’irregolarità, un imprevisto - che interrompe il regolare corso di un’abitudine. Fino a quel momento, fin quando egli non era caduto, l’idea o la sensazione di ridere non ci aveva minimamente sfiorato. Sarebbe evidentemente contro fattuale asserire che ridiamo di ogni abitudine, benché le abitudini siano, in qualche grado, una ripetizione. Con la caduta, l’abitudine contratta diventa immediatamente risibile, ma contemporaneamente è diventata «troppo meccanica», «abitudine irrigidita», e così via. L’elemento di disturbo non ha semplicemente «mostrato» l’abitudine troppo meccanica, ma l’ha in qualche modo determinata, l’ha resa per ciò stesso troppo meccanica per la realtà con cui è entrata in contrasto: la «rigidità di meccanismo» e «l’elemento di disturbo» nascono in unisono, laddove fino all’attimo prima operavano congiuntamente.
Tutto ciò ci permette di proporre una questione alternativa, nata in seno alla divisione delle due ragioni precedentemente espresse: il riso, in questa sua funzione squisitamente sociale, non è forse, piuttosto che essere il castigo di ciò che è umanamente troppo meccanizzato, il meccanismo sociale ad un tempo di razionalizzazione e oggettificazione per carpire e respingere ciò che di imprevedibile tocca l’abitudine?
Consideriamo i due casi del «distratto» e dell’ «eccentrico» o «ostinato», entrambi citati da Bergson[1]. Quando rido del distratto, in superficie irrido ciò che c’è di troppo meccanismo nei suoi atti, mentre in profondità la risata è l’atto stesso con cui allontano e oggettivo da me, singolo o società, l’evento dell’imprevedibilità che colpisce «qualcuno sino ad allora come me». Il riso è un atto di differenziazione non da ciò che è “troppo meccanico”, ma da ciò che è stato reso “troppo meccanico”, e dalla forza che è responsabile d’essersi “impossessata” di quell’abitudine: non allontano solamente il soggetto divenuto oggetto, ma in pari tempo la forza che ha reo possibile quell’oggettificazione. È qualcosa che Bergson tocca, seppur fugacemente e con gran dose d’ambiguità, nelle battute finali dell’opera: il riso, come il sogno, «è distacco».
Quando, diversamente, irrido colui che è ostinato oltre ogni ragione, in superficie posso sì affermare che, nuovamente, sto deridendo ciò che v’è di troppo meccanico in questi atti, ma la risata è, in profondità, il preciso meccanismo con cui allontano e dissacro ciò che v’è di imprevedibile negli atti di qualcosa che si «discosta dal centro comune».
Dell’ostinato non ridiamo per via della sua ostinazione, ma per il timore che ispira l’inintelligibilità delle sue ragioni, come il «raccapricciante e imprevedibile» citato da Friedrich Nietzsche (Aurora, p. 17) Infatti, si dovrà pur spiegare perché il folle ispiri così profondamente la coscienza comica.
Con buona pace di Bergson, la vergogna e la colpa impiegate dal riso, «intimidire umiliando» (Cit, p.98) della società non sarebbero dunque la vita vivente e mutevole che castiga ciò che c’è di «troppo automatizzato nella volontà» (Cit. p.94), ma i mezzi diretti per la gestione dell’imprevedibilità. Il riso è strumento dell’economia dell’imprevedibile.
Ridiamo del distratto e dell’ostinato, ma mentre nel primo caso l’evento comico è separato dal soggetto - «Giovanni non è la sua caduta», ma rido contemporaneamente di «Giovanni caduto» e della forza che ha fatto sì che egli divenisse quella forma oggettiva e meccanica -, nel secondo caso l’ostinazione fa tutt’uno con il soggetto - la forza che ha oggettificato il distratto è esterna, la forza che ha stravolto l’ostinato è interna. Non ci vendichiamo dei distratti ma degli ostinati.
Se dovessimo dare una semplicistica differenziazione basata sul binomio volontà-mondo, il distratto intimorisce l’intromissione del mondo negli eventi che provocano un errore, l’ostinato intimorisce per l’intromissione di qualcosa di imprevisto o irregolare nella volontà stessa del soggetto, più che del mondo.
Il riso diretto al distratto distanzia il ridente dall’oggettificazione di una volontà per via di un elemento di intromissione che se ne è come “impossessato”, il riso verso l’ostinato è esso stesso l’atto con cui si tenta di oggettificare una volontà - sbagliato.
Allora, dopo aver detto tutto ciò, ritorniamo a chiederci: ridiamo delle macchine? La risposta di Bergson è doppia: non ridiamo di ciò che è meccanico in quanto tale, ma se ne ridiamo è all’opera una qualche forma di antropomorfosi, un’analogia. Di conseguenza, nella e della macchina non c’è nulla che spieghi la funzione sociale del riso. Eppure, da ciò che si è scritto consegue un’ipotesi alternativa e correlativa.
Non ridiamo delle macchine, non perché queste non partecipano della variabile variabilità che contraddistingue la vita, ma in quanto non partecipano di ciò che comunemente si intende come essenza della volontà, ossia l’imprevedibilità, e la forza di quest’imprevedibilità di trasformare la stessa volontà in cose.
Perché la volontà vuole per sé quell’imprevedibilità che proviene dalla forza dell’ignoto, essa vuole oggettificare ma non vuole essere oggettificata.
NOTE
[1] Cfr, H. Bergson, Il riso
Ridiamo delle macchine? – Prima parte
SARTI E ANTROPOLOGI
Alle volte un vestito bisogna smantellarlo per intero perché dalla sua stoffa si possa far nascere qualcosa di nuovo. Altre volte, piuttosto che disfare è meglio tagliare per intromettervi quanto basta, un singolo filo che ne alteri certe piegature, le enfatizzi, produca nuove forme. Per usare un concetto recentemente espresso dall’antropologo Tim Ingold, tra la veste e questo nuovo filo non c’è un rapporto di determinazione quanto piuttosto un’attività di corrispondenza[1]: tra tessuto e filo ci devono essere tensione e risposta reciproca. È come per la costruzione di un cesto di vimini[2], dove progetto prefigurato e materialità dello stelo si incontrano nel reciproco rapporto di corrispondenza attraverso l’arco di tempo della sua realizzazione.
È il medesimo rapporto che c’è tra la domanda che dà il titolo al presente articolo e il saggio de Il riso pubblicato da Henri Bergson nel 1907: Ridiamo delle macchine? Posta la questione, è necessario ripercorrere il testo del filosofo francese. E sì, è una domanda che l’opera originaria non contiene, eppure è altresì erroneo proporla come domanda nuova: è in qualche forma presagita. Se dovessimo parlare per immagini semplici, forse potremmo dire che più che andare per una nuova via è scoprire una traccia sotterranea.
DEFINIZIONE DEL COMICO
Ridiamo delle macchine? Partiamo dal basso, direbbe Bergson (Il riso. Saggio sul significato del comico, Feltrinelli, 2017, p. 69), dalla disamina di alcuni esempi: all’apparenza, non troviamo nulla di risibili e comico nel meccanico andamento di una catena di montaggio, o nel funzionamento regolare delle nostre apparecchiature elettroniche. Per quanto ci sforziamo, questi singoli casi rimangono muti: non destano il riso, e ancor meno sono in grado di mostrarci la ragione precisa di questa mancanza. Insomma, non soltanto non ne ridiamo, ma non sappiamo spiegarci perché.
Variamo leggermente gli esempi: se immaginiamo un tale che, tornato a casa dal lavoro in fabbrica, tratta le vicende familiari con la medesima meccanicità con cui lavora, ecco che avremo creato il tipo squisitamente comico del distratto (Cit. p. 9): mette il pannolino al cane al posto del figlio, invece degli avanzi di cibo butta via i piatti, e alla moglie che richiede le sue tenere attenzioni replica innervosito «cara, non è ancora finito il mio quarto d’ora di pausa» (Questa è definita da Bergson come la forma comica dell’indurimento professionale; H. Bergson, Il riso, p. 89).
Ancora, quando in certe apparecchiature interviene un malfunzionamento, tutt’a un tratto la scena può diventare comica: ridiamo della lentezza del motore di ricerca paragonandolo ad un anziano - «who wins in a speed competition: internet explorer or Joe Biden?»; ancora, c’è qualcosa di risibile nell’apparente ostinazione con cui alcune aspirapolveri automatiche continuano a battere sul medesimo muro senza «voltarsi».
Ripartiamo dalle parole di Bergson: non è comico ciò che è meccanico, ma lo è «il meccanico applicato a qualcosa di vivente» (Cit. p. 9), poiché «non v’è nulla di comico al di fuori di ciò che è propriamente umano» (Cit. p. 9). Da ciò derivano due principi, condizioni sufficienti del riso: anzitutto, perché vi sia riso è necessaria una momentanea insensibilità, una soppressione di empatia, «dove la persona altrui non più ci commuove, là solamente può cominciare la commedia» (Cit. p. 70)[3]; e, secondariamente, «sembra che il riso abbia bisogno d’un eco»(Cit. p. 7), di un pubblico reale, potenziale o implicito - alle volte siamo soli e ridiamo, ma non è mai un ridere solitario.
Se dovessimo rileggere la batteria d’esempi appena proposti alla luce di queste considerazioni diremmo: la comicità della situazione casalinga è prodotta dall’ineliminabile presenza di una componente umana «meccanizzata». Diversamente, ma in fondo secondo un meccanismo similare, negli esempi riguardanti il malfunzionamento degli apparecchi, si potrebbe forse far valere un’antropomorfizzazione della macchina, la proiezione di una volontà umana sull’ostinazione dell’aspirapolvere, e una rappresentazione dell’atrofia della volontà senile sulla lentezza del motore di ricerca.
Detto ciò ci si potrebbe lasciare andare ad una conclusione provvisoria: non ridiamo delle macchine perché nella loro meccanicità (o oggettività) non c’è nulla di umano, così come «un paesaggio potrà essere bello, grazioso, sublime […], non mai ridicolo» (Cit. p. 6). Si tratta, ovviamente, di una petizione di principio: definiamo ciò che è comico in base ad un supposto e ineliminabile «ingrediente umano», escludendo poi le macchine in quanto non partecipi.
Come uscire dal circolo vizioso? È lo stesso Bergson a predisporre la via: dalla ricerca dal «basso» tramite gli esempi bisogna passare alla ricerca “dall’alto” che ricostruisca una definizione genetica, ossia l’individuazione di una ragione che intenda definire «il comico» non chiedendosi «cosa ci fa ridere», ma andando a individuare una connessione tra comico e riso, una «ragion sufficiente che risponda alla domanda perché ridiamo?» (Cit. p. 69)
Ripartiamo dunque da un esempio, questa volta dello stesso Bergson: «un uomo che corre sulla via, inciampa e cade: i passanti ridono» (Cit. p. 8).
Cos’è successo? Secondo Bergson all’andamento mutevole che dovrebbe contraddistinguere l’abitudine acquista del «camminare» si è sovrapposta un’abitudine «indurita», una «celerità acquisita» (Cit. p. 8), incapace di accordarsi al mutare delle circostanze, una «rigidità di meccanismo» (Cit. p. 9). I passanti ridono, ma perché ridono? Perché non piangere? Perché ci dovrebbe essere un collegamento essenziale e non contingente tra la «meccanicità» sovrapposta a qualcosa di vivente e il riso che ne risulta?
RISO E CASTIGO
Bergson, nel rispondere a questi interrogativi è in apparenza molto chiaro. Nella sua forma più contratta, la spiegazione di questa connessione essenziale è la seguente: «questa rigidità è il comico, ed il riso ne è il castigo» (Cit. p. 14). Ma appunto, perché la meccanicità o artificiosità di una volontà umana dovrebbe suscitare un castigo? Da parte di chi? E perché nella specifica forma del riso?
Per il nostro autore ci sono due ordini di risposta, che tuttavia tendono a sovrapporsi in una definizione unitaria: «la società e la vita esigono da ciascuno di noi un’attenzione costantemente sveglia» (Cit. p. 12). Il riso ha una funzione castigante, messa in atto da e per il funzionamento della società. I due ordini di risposta, quelli che l’autore francese fa coincidere, possono in vero essere separati: una spiegazione metafisica, laddove Bergson parla di «vita», e una spiegazione di ordine sociale, laddove menziona esplicitamente la «società».
Per distinguerle, ripartiamo dall’esempio dell’inciampo. Anzitutto, scrive Bergson, «la legge fondamentale della vita è di non ripetersi mai» (Cit. p. 18), dacché conseguenza che ogni ripetizione meccanica della camminata è da una parte interdetta e interrotta dalla variabilità della realtà, dall’altra suscita immediatamente il castigo di quella parte più variabile della «vita»che richiede ed anzi, è fatta, della maggior flessibilità. I viventi, in quanto viventi, ridono dei sonnambuli in quanto sonnambuli. Come ripete più volte Bergson, «l’automatismo in opposizione all’attività libera, ecco insomma ciò che il riso sottolinea e vorrebbe correggere»[4]. È come se affermassimo che l’acqua castiga il fuoco: non c’è ragione dell’opposizione se non nella «natura» dei due elementi.
-------------
D’altra parte, la spiegazione sociale caratterizza il rapporto tra comico e riso in modo, almeno apparentemente, differente: «ogni rigidità» scrive Bergson «sarà sospetta alla società, perché essa è il segno di un’attività che si isola e tende a scostarsi dal centro comune» (Cit. p. 65).
La «vita» castiga ogni ripetizione, la «società» castiga ogni rigidità, e rigidità e ripetizione meccanica sono, nella visione di Bergson, equivalenti. Eppure emergono due differenti connessioni tra la funzione castigante del riso e ciò che è comico: nella spiegazione metafisica, la vita variabile è ipso facto avversa a ogni ripetizione, dacché consegue che il riso è, in quanto atto della vita, opposto a ogni rigidità. Nel secondo caso, e utilizzando gli specifici termini usati da Bergson, la rigidità non è più punita per sua stessa «natura», ma in quanto «segno di ciò che si isola», segno di «insociabilità»(Cit. p. 18): seconda questa seconda spiegazione, la società non castiga «ogni rigidità», ma unicamente ciò che, ripetendosi in una forma che dovremo ancora spiegare, dimostra un discostamento dal «centro comune».
(1 /continua)
NOTE
[1] Cfr. Ingold T., Corrispondences, John Wiley and Sons Ltd, 2020
[2] Cfr. Cit.
[3] A p. 72, “il riso è incompatibile con l’emozione”.
[4] H. Bergson, p. 65.
Internet non è una “nuvola” - Prima parte
Qualsiasi cosa si creda dell’universo ipertecnologico che l’umanità sta costruendo in questi anni, che si sia d’accordo coi tecno-ottimisti che vi vedono solo una sequenza sempre più accelerata di miglioramenti verso l’ibridazione felice uomo-macchina o con chi, a vario titolo e con ottime ragioni, ne denuncia le numerose insidie, certo è un dato: il mondo digitale non è e non sarà senza effetti sul piano dell’inquinamento e in generale dell’impatto ambientale.
È, questa, una circostanza che è stata lungamente oscurata dalla cortina fumogena della retorica del “progresso tecnologico” e continua ad essere un vero e proprio «impensato», si direbbe in Francia, a tre decenni ormai da quella rivoluzione tecnologica che ci fece entrare nel mondo dell’informatica e della Rete. Anzi, quelle allora “nuove” tecnologie (chi è un po’ in età tende ancora per pigrizia a trascinarsela, ma è forse giunto il momento di abolire l’espressione “nuove tecnologie”!) apparvero da subito, e in parte continuano ad essere percepite, come tecnologie “soft”, leggere, poco invasive sul piano dell’impatto ambientale. Non si rifletteva – e non si riflette ancora abbastanza – sul fatto che esse sono pur sempre prodotto di filiere industriali non meno inquinanti di quelle “tradizionali” (anzi, per certi aspetti, e per i materiali coinvolti, anche più inquinanti), che per funzionare l’insieme degli apparati necessita di energia, che va pur prodotta, e che infine diventano scarto e dunque vanno a inquinare la terra, le acque, l’aria. Come tutti i manufatti, del resto.
Le cose stanno un po’ cambiando negli ultimi anni, per fortuna: nel quadro della molto accresciuta sensibilità ecologica globale che ha posto attenzione sull’“impronta ecologica” di tante nostre attività quotidiane, anche l’insieme delle attività che compiamo online (una quantità sempre crescente “o per amore o per forza”) ha cominciato ad essere considerata sotto il riguardo del suo impatto ambientale.
E così, anche se l’ideologia dominante tende, comunque, a presentare quello digitale come un progresso senza controindicazioni, apportatore nient’altro che di benefici, un numero crescente di voci si sta sollevando a indicare appunto quello che potremmo chiamare il lato oscuro (non l’unico, peraltro) della società digitale. Libri, ricerche, articoli e servizi giornalistici e televisivi si moltiplicano e richiamano la nostra attenzione sul carattere materiale, pesante, inquinante del mondo digitale.
Di recente, per esempio, si è appreso che in Irlanda il consumo di energia elettrica dei data center ha ormai superato quello necessario per l’illuminazione dell’intero paese,[1] mentre il “Washington Post” ci informa sull’enorme bisogno di energia che sta mettendo a dura prova le reti energetiche statunitensi, anche, da ultimo, per le necessità dell’Intelligenza Artificiale.
Ora, il recente volume di Giovanna Sissa, Le emissioni segrete. L’impatto ambientale dell’universo digitale (Bologna, Il Mulino, 2024) è un’ottima porta d’accesso, chiara e riccamente documentata, a questo enorme problema della contemporaneità. La scelta dell’autrice, docente presso la scuola di dottorato STIET dell’Università degli studi di Genova, è di concentrarsi sull’impatto ambientale del mondo digitale in particolare in termini di emissioni carboniche, da cui evidentemente il titolo. Sì, perché, mentre non sfugge a nessuno che un’acciaieria abbia un certo impatto ambientale in termini di emissioni, appare quasi incredibile che un impatto altrettanto pesante lo abbia anche il digitale: ma come, consultare un sito, ordinare una pizza con l’app, mandare un messaggino ecc. ecc. sono operazioni… inquinanti? Sembra impossibile, ma è così. Naturalmente per comprenderlo – ed è merito dell’autrice guidare il lettore in questo percorso di scoperta – è necessario, metaforicamente, sollevare gli occhi dal proprio schermo (o sollevare la testa dal proprio… smartphone, ciò che in questo momento sembra assai arduo alla nostra umanità tecno-ipnotizzata!) e guardare, o pensare, alle spesso lunghissime filiere industriali che sono alla base della produzione dei dispositivi con i quali le nostre attività digitali possono esistere.
PROCESSI DI PRODUZIONE (EMISSIONI INCORPORATE)
Ed è proprio considerando queste filiere che ci si rende conto di come la produzione dei dispositivi che tutti usiamo per fruire della rete e dei beni e servizi digitali comporti naturalmente un notevole dispendio di energia e dunque di emissioni. Un primo aspetto dell’impatto ecologico del digitale, infatti, consiste in quelle che vengono definite embodied emissions (o emissioni incorporate), quelle cioè dovute al processo di produzione, ma anche di (eventuale) scomposizione e riciclo dei dispositivi (da distinguere dalle operational emissions, ovvero le emissioni che avvengono nella fase di utilizzo, di cui parleremo nel prossimo paragrafo).[2] Il processo di produzione dei dispositivi digitali comporta, innanzitutto, una straordinaria mobilitazione di materia: minerali un tempo usati solo in modo marginale o per nulla sono oggi essenziali per il funzionamento dei nostri feticci tecnologici (per fare solo qualche esempio: il tungsteno che permette ai nostri smartphone di… vibrare; il gallio, contenuto nella bauxite, che permette di realizzare la retroilluminazione; il litio per le batterie e così via). Molti di questi metalli sono noti come terre rare, e sono definiti così non perché rari (non tutti lo sono), ma perché presenti in modo discontinuo e non concentrato, e dunque necessariamente oggetto di complessi processi industriali di estrazione, a loro volta implicanti notevoli emissioni. La qualità di questi materiali, soprattutto per quanto riguarda la realizzazione dei nuovi chip miniaturizzati, dev’essere poi ultra-pura – segnala l’autrice, molto attenta a tale aspetto – e questo comporta processi industriali di raffinazione estremamente specializzati e costosi e, essi pure, assai inquinanti.
L’ammontare delle emissioni determinate dal processo di produzione dei dispositivi è poi reso più cospicuo dal fatto che quella informatica è una industria strutturalmente globale, costruita lungo filiere ramificate e lunghissime e che attraversano i continenti, per cui tutte le materie prime e i semilavorati, e infine i prodotti di questa industria debbono essere spostati per il mondo, con relativo dispendio energetico.
Si può, insomma, sintetizzare così, con le parole dell’autrice: «L’impatto di un dispositivo digitale sull’ambiente, cominciato dal momento in cui sono state estratte le materie prime, si accresce processo dopo processo, continente per continente, laboratorio per laboratorio, fabbrica per fabbrica. Se l’estrazione delle materie prime comporta un forte utilizzo di energia primaria, non è certo da meno la fabbricazione dei componenti» (Cit. p. 32).
È qui opportuno osservare una cosa. Si potrebbe pensare che il processo di continua miniaturizzazione che interessa il mondo dell’informatica, quasi una sua “legge”, favorisca un più basso impatto: è ovvio che potenza sempre maggiore espressa da supporti sempre più ridotti (microchip sempre più piccoli, devices sempre più piccoli, ma sempre più efficienti) comportano minore prelievo di materia. Ciò è vero per il singolo dispositivo, ma un po’ meno se si ragiona sul piano “aggregato”, come dicono gli economisti: è vero che i dispositivi consumano di meno e richiedono meno materia, ma poiché si stanno moltiplicando all’inverosimile, nel complesso le esigenze di estrazione di materia crescono esponenzialmente. Basti pensare che – per dare solo pochi dati – dal 2007 al 2022 sono stati venduti 15.224.000.000 di smartphone, oltre a 5 miliardi di pc, tecnologia ormai “recessiva” e comunque più matura; se poi andiamo a vedere le vendite annuali di smartphone, scopriamo che dal 2014 il numero oscilla tra 1,2 e 1,5 miliardi, mentre per i pc oscilla tra i 250 e i 350 milioni.[3] Va poi tenuto conto che gli smartphone, i pc, o i tablet rappresentano solo una frazione dell’insieme di dispositivi connessi che popolano (e sempre più popoleranno) le nostre società e che vanno sotto il nome di Internet delle cose (IoT: Internet of Things): tale immensa mole di dispositivi connessi ammontava, nel 2021, a circa 11 miliardi di oggetti, che è stimato diventeranno 30 miliardi nel 2030 (Cit. p. 28).
Se a tutto ciò si aggiunge il ritmo sempre più vorticoso di sostituzione dei dispositivi cui siamo indotti dai meccanismi della obsolescenza programmata insieme alla pressione della pubblicità (e al netto dell’acqua fresca retorica degli ultimi anni sull’uso responsabile, il consumo critico ecc.), si capisce che siamo di fronte a un bel problema: «se da un lato (…) il materiale per il singolo componente tende al limite di zero – e ciò porterebbe a dedurre una disponibilità illimitata di risorse –, dall’altro il suo sfruttamento tende all’infinito» (Cit. p. 27-29).
EMISSIONI OPERATIVE
Alle emissioni che sono necessarie per il processo di produzione dei dispositivi, e che stanno per così dire “a monte” dell’universo digitale, le emissioni incorporate, si aggiungono poi quelle prodotte dall’uso della rete stessa, dal funzionamento di tutte le sue applicazioni, dal dialogare oggi sempre più fitto tra i dispositivi (oggi – non lo dimentichiamo – una quota crescente della complessiva attività della rete è tra macchine e non dipende da qualcuno che armeggia su una tastiera da qualche parte): sono, queste, le emissioni operative. Si tratta – come si vedeva in apertura – dell’aspetto che sta avendo la maggiore copertura giornalistica, forse anche perché il fenomeno dell’aumento dei consumi energetici (dovuto tra l’altro ai grandi data-center) si impone di per sé all’attenzione di decisori politici e comunità.
Quando si fa una comune ricerca in rete, o ci si serve di qualche servizio online, o si guarda un video ecc., non c’è infatti solo il proprio consumo casalingo, ben noto a tutti in quanto parte del consumo elettrico che poi uno si ritrova in bolletta (un consumo peraltro, in questo caso, quasi sempre abbastanza basso, rispetto agli altri elettrodomestici…), ma c’è un consumo elettrico dovuto a tutte le interazioni cui quella ricerca, quel servizio richiesto dal proprio dispositivo danno luogo. E in questo caso sono fenomeni che avvengono lontano da noi e che noi non registriamo in alcun modo, spesso neppure immaginiamo. E sono fenomeni che stanno conoscendo una crescita spaventosa, secondo il ritmo di crescita della digitalizzazione di sempre nuove attività e dominî della vita sociale. Anche in questo caso, un solo dato che parla da solo: sembra che oggi si producano quotidianamente 5 exabyte di dati (1 exabyte = 1 miliardo di miliardi di byte), che equivale alla massa complessiva di dati prodotti dalla nascita dell’informatica al 2003 (sì, proprio così!).[4]
Ebbene, per elaborare e gestire tutta questa impressionante mole di dati serve energia, e per produrre energia si producono emissioni.
Particolare peso hanno in questo fenomeno i data center, questi snodi fondamentali dell’attuale architettura della rete su cui oggi – lo vedevamo sopra – si sta appuntando una certa attenzione della stampa. Strumento fondamentale del cloud computing, la modalità oggi prevalente di funzionamento ed erogazione dei servizi e contenuti digitali,[5] i data center sono concentrazioni di server che devono stare accesi costantemente, e che garantiscono, da remoto, il funzionamento delle attività che ogni utente finale svolge online: le dimensioni possono andare dai piccoli data center poco più grandi di un appartamento a quelli giganteschi, che possono giungere alle dimensioni di una grande fabbrica. Qui la “popolazione” di computer accesi H24 sviluppa un notevole riscaldamento che dev’essere contenuto, mediante impianti di raffreddamento, attraverso l’acqua o altri strumenti.
E tutto ciò che abbiamo detto, inesorabilmente, costa dispendio energetico crescente, che potrebbe raggiungere, secondo alcune stime, il 14% del consumo elettrico complessivo nel 2030.[6]
Mica male, per una tecnologia leggera.
(1 / continua in una prossima
uscita di Controversie)
NOTE
[1] Il dato, riportato dall’ufficio statistico nazionale, si riferisce al 2023, quando è stato rilevato che il consumo di energia elettrica dovuto ai data center (molto numerosi in Irlanda, grazie alle ben note politiche fiscali di favore) è stato pari al 21% di tutto il consumo di elettricità misurato, mentre quello necessario per l’illuminazione delle abitazioni è stato pari al 18% (cfr. Biagio Simonetta, Irlanda, i data center usano più elettricità di tutte le abitazioni, “Il Sole 24 Ore”, 25 luglio 2024, p. 5).
[2] Le emissioni incorporate sono anche definibili come «la somma dei processi estrattivi, costruttivi e di smaltimento a fine vita» dei nostri dispositivi elettronici (Ivi, p. 86). Sono dunque da considerarsi tali anche le emissioni necessarie per i processi di smaltimento/riciclo, che sono essi pure processi industriali anche molto complessi.
[3] I dati sono tratti da Juan Carlos De Martin, Contro lo smartphone. Per una tecnologia più democratica, Torino, Add, 2023, p. 63-66 e da Giovanna Sissa, Le emissioni segrete, cit., p. 27 e ss.
[4] Il dato si trova in Guillaume Pitron, Inferno digitale. Perché Internet, smartphone social network stanno distruggendo il nostro pianeta, Roma, Luiss University Press, 2022, p. 71.
[5] Ed è curioso notare come, anche grazie all’uso di espressioni come queste (cloud, “nuvola”), si suggerisca sempre per il mondo della rete una immagine di leggerezza.
[6] Cfr. Kate Crawford, Né intelligente né artificiale. Il lato oscuro dell’IA, Bologna, Il Mulino, 2021.
BIBLIOGRAFIA
Evan Halper e Caroline O’Donovan, AI is exhausting the power grid. Tech firms are seeking a miracle solution, “Washington Post”, June 21, 2024, tr.it.: Le aziende tecnologiche assetate di energia, “Internazionale”, n. 1569, 28 giugno 2024, p. 32-33
Giovanna Sissa, Le emissioni segrete. L’impatto ambientale dell’universo digitale, Bologna, Il Mulino, 2024
Nobel 2024, Fisica: propagazione dell'errore e vertigine delle etichette
1. ETICHETTE
Goffrey Hinton è uno psicologo cui è stato assegnato il Premio Nobel per la fisica in omaggio alle sue innovazioni in ambito informatico. Questa mescolanza di discipline mostra quanto sia svantaggioso l’irrigidimento nella separazione delle competenze e l’insistenza sulla specializzazione; ma è sorprendente che questa evidenza sia portata alla luce da un personaggio che ha costruito la sua carriera sulla ricerca di meccanismi destinati ad eseguire operazioni automatiche di ordinamento e classificazione – anzi, di più, a imparare metodi di lettura di contenuti non strutturati per applicare loro etichette di catalogazione.
Hinton meriterebbe un Nobel all’ostinazione, per la perseveranza con cui ha continuato a impegnarsi nell’evoluzione delle reti neurali e del deep learning, anche durante le fasi di «inverno» dell’intelligenza artificiale, con la riduzione degli investimenti, la sfiducia da parte delle istituzioni, lo scetticismo dei finanziatori. Non solo: per almeno un paio di decenni i budget destinati alla ricerca nel settore dell’AI hanno sostenuto soprattutto progetti che non credevano nella possibilità di apprendimento da parte delle macchine, e che si affidavano a software dove i processi di comprensione, di decisione e di esecuzione erano definiti dalle regole di comportamento stabilite a priori dallo sviluppatore umano.
Nel 2012 Hinton, con i collaboratori-studenti Alex Krizhevsky e Ilya Sutskever, ha presentato al concorso ImageNet il riconoscitore di immagini AlexNet: è al successo clamoroso di questa macchina che dobbiamo la diffusa convinzione che intelligenza artificiale, reti neurali e apprendimento profondo, siano tutti sinonimi. Il software non ha solo vinto la competizione del 2012, ma ha migliorato l’indice di correttezza nella classificazione delle illustrazioni di oltre 10 punti percentuali rispetto all’edizione precedente: un passo in avanti nelle prestazioni dell’intelligenza percettiva che non si era mai registrato nella storia del concorso. È risultato chiaro a tutti che in quel momento la disciplina era entrata in una nuova fase, e che il paradigma di progettazione e implementazione era cambiato. Una prova è che Sutskever figura tra i fondatori di OpenAI nel 2015, e che sia stato arruolato fino al novembre 2023 come ingegnere capo dello sviluppo di ChatGPT – il progetto con cui l’intelligenza artificiale ha valicato i confini dell’interesse specialistico e si è imposta all’attenzione del pubblico di massa alla fine del 2022.
2. STRATI NASCOSTI E RETROPROPAGAZIONE DELL’ERRORE
Il lavoro trentennale che precede AlexNet ruota attorno al concetto di retropropagazione dell’errore nel processo di apprendimento delle reti neurali. Né la nozione né il metodo sono stati inventati da Hinton, ma la sua ostinazione nel coltivarli non è servita meno dei suoi contributi ai procedimenti attuali e alla loro divulgazione, per l’elaborazione del paradigma contemporaneo dell’AI.
AlexNet e le reti neurali che che le somigliano (quelle convolutive) sono costruite con diversi livelli di unità di elaborazione. Nel primo strato i «neuroni» mappano l’immagine in una griglia di piccole celle, in analogia a quanto accade nella fisiologia della percezione umana.
Il risultato di questo schema di ricezione viene esaminato dagli strati di unità di elaborazione «nascosti», che interpretano confini e colori della figura. L’effetto è una rimappatura dell’immagine per livelli di lettura, che separano il soggetto dallo sfondo, esaminano parti, valutano posture, e così via; possono anche astrarre verso concetti come «fedeltà» o «famigliarità». Maggiore è il numero di questi livelli intermedi, maggiore è il grado di affidabilità con cui all’immagine viene fatta corrispondere l’etichetta che la descrive. A sua volta la didascalia proviene da una tassonomia che la macchina ha archiviato in memoria durante la prima fase di addestramento, insieme ad una galleria di migliaia, se non milioni, di immagini già classificate.
Il compito del software è quindi associare pattern di pixel colorati alle etichette di uno schedario, con un certo grado di probabilità. Nella fase di addestramento con supervisione, se la didascalia scelta dalla macchina è corretta, il sistema rimane immutato; se invece l’output è sbagliato, il giudizio di errore si propaga tra gli strati intermedi che hanno contribuito alla stima, inducendo una variazione nei «pesi» del calcolo. Il procedimento tocca tutte le unità di elaborazione, e il suo perfezionamento è ancora oggi il principale tema di indagine per gli esperti del settore, come ha testimoniato Yann LeCun in un post su X poco meno di un anno fa.
La diffidenza di personaggi come Marvin Minsky e Seymour Papert sulla realizzabilità stessa della retropropagazione dell’errore ha dirottato per anni i finanziamenti su progetti che escludevano il deep learning: ai tempi della prima rete neurale, il Perceptron di Frank Rosenblatt che nel 1958 contava 1 solo livello intermedio, le difficoltà sembravano insormontabili. Come nelle storie dei grandi profeti, Hinton si è armato di fede, speranza – e anche senza la carità dei grandi finanziatori istituzionali, ha implementato una macchina capace di imparare a classificare.
3. LIMITI
La descrizione, colpevolmente troppo riduttiva, del funzionamento di AlexNet lascia anche intuire le condizioni e i limiti della concezione dell’intelligenza che è sottesa alla tecnologia delle reti neurali. Già nel piano di Rosenblatt il riconoscimento di un’immagine è inteso come un metodo che porta alla comprensione del contenuto attraverso l’autorganizzazione del contributo di molti attori atomici, coincidenti con le unità di calcolo: un altro articolo su «Controversie» ha esaminato come questo modello cognitivo derivi dal liberalismo economico e sociale di Von Hayek. Ma conta rilevare adesso altri due aspetti del paradigma: l’isolamento dell’apprendimento da ogni considerazione pragmatica, e la costruttività dal basso del processo di interpretazione.
Merleau Ponty ha esaminato con approccio fenomenologico il ruolo che l’attenzione svolge nella percezione: l’identificazione di persone e cose non è una successione di choc visivi che irrompono dal nulla, ma un flusso che segue un decorso da una maggiore indeterminazione ad una maggiore precisione, sull’istanza di una domanda. La richiesta interpella la nostra libertà di avvicinarci, approfondire, interagire: il riconoscimento avviene sullo sfondo di un mondo che è già in qualche modo pre-compreso, e che suscita interrogativi sulla base della relazione che intratteniamo con la scena in cui siamo immersi – per cui lo stesso masso si rivolge in modo differente ad un geologo, o ad un turista stanco per la passeggiata con il suo cane.
Il riconoscitore di immagini artificiale invece non stabilisce alcuna relazione con il mondo, né ha domande da indirizzargli. Anzi, non ha alcuna cognizione dell’esistenza del mondo e della possibilità di stabilire qualche rapporto con esso. La macchina valuta la probabilità con cui l’attivazione di certi pattern di unità ricettive possa essere messa in relazione con una tra le etichette dello schedario in memoria. Questo spiega come possa cadere nella trappola degli attacchi avversari, in cui il «rumore informativo» dovuto alla sostituzione di alcuni pixel (che non modificano per nulla l’aspetto dell’immagine ai nostri occhi) faccia cambiare le stime di AlexNet, convincendola a preferire l’etichetta struzzo a quelle assegnate correttamente in precedenza a tempio e cane.
Senza un mondo che agisca come orizzonte di senso per azioni e interpretazioni, non esistono domande, quindi nemmeno riconoscimenti e intelligenza – nel senso corrente di questi termini. Non esiste nemmeno la possibilità di un’autocorrezione, come quella che mettiamo a punto in modo istintivo quando incorriamo in un trompe l’oeil o in qualche illusione ottica: è la stabilità del mondo, non la coerenza delle leggi dell’apprensione, a permetterci di ravvisare l’errore. L’inganno per noi infatti è momentaneo, poi la coesione dell’esperienza del reale torna a ripristinare il senso della percezione (anche nei casi di abuso di sostanze psicotrope): è per questo che siamo consapevoli di essere vittime di illusioni.
La separazione della sfera cognitiva da quella pragmatica, e la riduzione della mente ad un sistema di procedure di problem solving, intrappolano invece la percezione in un mondo di specchi e di concetti senza via d’uscita. Le inferenze che si propagano da unità nucleari di percezione sono il correlato di un universo di etichette che non si riferiscono a nulla di reale – tanto da poter ravvisare uno struzzo al posto di un tempio, senza alcuna forma di disagio. Quel disagio che colpisce l’individuo intelligente davanti all’abisso della stupidità.
BIBLIOGRAFIA
Bottazzini, Paolo, Nello specchio dell’Intelligenza Artificiale - The Eye of the Master, «Controversie», 4 giugno 2024. https://www.controversie.blog/specchio-della-ia.
LeCun, Yann, Please ignore the deluge of complete nonsense about Q*, https://x.com/ylecun/status/1728126868342145481.
Merleau-Ponty, Maurice, Phénoménologie de la perception, Gallimard, Parigi 1945; trad. it. a cura di Andrea Bonomi, Fenomenologia della percezione, Bombiani, Milano 2003.
Minsky, Marvin; Papert, Seymour, Perceptrons, MIT Press, Cambridge 1969.
Rumelhart, David E.; Hinton, Geoffrey E.; Williams, Ronald J., Learning representations by back-propagating errors, «Nature», vol. 323, n. 6088, 9 ottobre 1986, pp. 533–536.
Szegedy, Christian, Zaremba, Wojciech, Sutskever, Ilya, Bruna, Joan, Erhan, Dumitru, Goodfellow, Ian, Fergus, Rob (2013), Intriguing Properties of Neural Networks, «arXiv», preprint arXiv:1312.6199.
L’etica hacker al di là di destra e sinistra - Il potere e la Silicon Valley
Quo usque tandem
Fino a quando i politici e i media mainstream abuseranno delle categorie di destra e sinistra per parlare della Silicon Valley? Candidati, ministri, deputati e giornalisti si impigliano in questa classificazione già nei loro discorsi consueti, aggovigliandosi in parole d’ordine in cui è difficile comprendere cosa distingua questi orientamenti politici e in che modo li si debba identificare. La loro applicazione al sistema di economia e di potere delle Big Tech è ancora più arbitrario, dal momento che i fondatori e i manager delle multinazionali digitali americane, l’ecosistema degli startupper e dei finanziatori, dichiarano da sempre di appartenere ad un’élite dell’umanità in cui valgono regole di valutazione, diritti di decisione e libertà di manovra, che non si trovano nella disponibilità di tutti.
Nello statuto di Facebook e nella lettera agli azionisti al momento del collocamento in Borsa, Mark Zuckerberg chiariva che il fondatore avrebbe conservato un potere di voto maggioritario, in modo indipendente dalla distribuzione delle quote azionarie, perché aveva dimostrato di essere più smart di chiunque altro. La rivendicazione di questo privilegio proviene dall’etica hacker, che distingue gli esseri umani in capaci e incapaci, senza ulteriori sfumature. L’abilità è testimoniata dal talento di trovare una procedura per risolvere qualunque problema – anzi, nell’individuare il procedimento più semplice dal punto di vista dell’implementazione e più esaustivo dal punto di vista dei risultati. Se si considera che questa è la prospettiva con cui viene descritta l’intelligenza dalle parti della Silicon Valley, non sorprende che la progettazione di una macchina capace di vincere le partite di scacchi sia stata interpretata come la via maestra per realizzare l’Intelligenza Artificiale Generale (AGI), raggiungendo la Singolarità, il tipo di intelligenza che si ritrova negli esseri umani.
Il problema di cosa sia smartness è che dipende sempre dalla definizione, e dal contesto culturale che la concepisce. Per gli esponenti più influenti della Silicon Valley coincide con la capacità di escogitare algoritmi: una serie di operazioni governate da una regola che possono essere automatizzate – ingranaggi che, sistemati nei luoghi opportuni, fanno funzionare meglio la macchina-mondo, così com’è. La politica, come riflessione sul potere e come progetto antropologico che immagina una realtà migliore e una società più giusta (qualunque significato si assegni a migliore e a giustizia), non serve: è inefficiente, provoca disagi e rallentamenti. L’universo attuale non ha bisogno di aspirazioni al cambiamento, se non il requisito di un’efficienza maggiore, movimenti più oliati, privilegi che si perpetuano scontrandosi con meno frizioni, un’opinione pubblica convertita in una platea di utenti-clienti.
Smartness
In questa prospettiva, i «ragazzi» che hanno fondato le imprese da cui proviene l’ecosistema di software in cui siamo immersi, possono a buon diritto stimarsi più smart degli amministratori pubblici. Elon Musk ha avviato il progetto Starlink per l’erogazione di connettività a banda larga via satellite nel 2019, e oggi conta su oltre 7.000 satelliti già in orbita, con circa tre milioni di abbonati tra gli utenti civili di tutto il globo – senza contare la capacità di intervenire nelle sorti delle guerre in corso in Ucraina e Israele, o di contribuire al soccorso delle popolazioni alluvionate in Emilia Romagna nel 2023. L’Unione Europea ha varato un piano concorrente solo quattro anni dopo: Iris2 ha debuttato nel marzo 2023, dopo nove mesi di dibattito preliminare, con la previsione di lanciare 170 satelliti entro il 2027. Il progetto però sta già subendo dei rinvii a causa delle tensioni con i partner privati Airbus (tedesca) e Thales (francese).
Altro esempio: dopo l’approvazione dell’AI Act, l’Unione Europea ha allestito un Ufficio per l’applicazione del regolamento, che occuperà 140 persone. Nel piano è previsto un finanziamento distribuito fino al 2027, di 49 milioni di euro complessivi, per progetti che creino un grande modello linguistico generativo open source, capace di federare le aziende e i progetti di ricerca del continente. L’obiettivo è costruire un’alternativa concorrente a ChatGPT, che però OpenAI ha cominciato a progettare nel 2015, su inziativa di quattro fondatori privati (tra cui il solito Elon Musk e Sam Altman, attuale CEO), che hanno investito di tasca loro oltre 1 miliardo di dollari, e che è stata sostenuta con più di dieci miliardi di dollari da Microsoft nell’ultimo round di finanziamento.
L’archetipo randiano
La storia dei successi delle tecnologie ideate e commercializzate in tutto il mondo dalle società della Silicon Valley accredita la convinzione dei loro fondatori di incarnare l’élite più smart del pianeta; l’etica hacker stimola la loro inclinazione a concepire, realizzare e distribuire dispositivi il cui funzionamento viola qualunque normativa a tutela della privacy e della proprietà intellettuale in vigore, con la creazione di mercati che trasformano ambienti, comportamenti, relazioni, corpi umani, in beni di scambio e di consumo; la filosofia di Ayn Rand giustifica sul piano della cultura, dell’ideologia e della politica, il loro atteggiamento come la missione salvifica dell’individuo eccezionale nei confronti della destinazione storica dell’intera specie. La devozione agli insegnamenti della Rand accomuna tutti i leader delle Big Tech in un’unica visione dell’uomo e del mondo, che legittima i loro modelli di business come valide espressioni del loro talento, e censura le reazioni degli organismi di giustizia come il sabotaggio perpetrato dall’ottusità tradizionale e dalla repressione (sprigionata dalla vocazione comunista di ogni istituto statale) sulla libertà di azione dell’imprenditore-eroe. La rivendicazione della libertà di iniziativa al di là dei limiti di qualsiasi sistema legale non avviene solo sul piano del diritto, ma è avvertita come un dovere da parte dei depositari della smartness del pianeta – perché, come osserva il co-fondatore ed ex direttore di Wired Kevin Kelly, il loro coraggio di innovazione porta a compimento un percorso di evoluzione ineluttabile: il tentativo di resistervi conduce ad un ruolo subordinato nelle retrovie del presente, nella parte di chi viene accantonato dalla Storia.
Tecnologia e istituzioni
Riotta e Bonini rilevano che oggi l’espressione culturale della Silicon Valley è il Think Tank del Claremont Institute, dove verrebbe praticato una sorta di culto delle idee di Leo Strauss. Se così fosse, dovremmo riconoscere che il clima filosofico della zona si è molto moderato, e raffinato, rispetto al superomismo tradizionale della Rand. Tuttavia gli editorialisti de la Repubblica leggono questo passaggio come un segnale dello sbandamento verso destra dei rappresentanti delle Big Tech, tra i quali si avvertirebbe sempre di più la frattura tra progressisti e reazionari. L’articolo del 21 settembre di Riotta prepara l’interpretazione politica del premio «Global Citizen Award 2024» dell'Atlantic Council a Giorgia Meloni, consegnato il 24 settembre da Elon Musk in persona. Molti giornali hanno chiosato il significato dell’evento come la celebrazione dell’alleanza tra il gruppo di imprenditori legati a Musk e la destra europea e americana. Il contratto di cui il creatore di Starlink e la Presidente del Consiglio avrebbero parlato nel loro colloquio privato riguarda proprio la gara di appalto per i servizi di connettività dello stato italiano. Tim e OpenFiber si sono aggiudicati i progetti per la copertura con banda larga di tutto il territorio, alimentati dal Pnrr; ma hanno già accumulato ritardi e opposto difficoltà alla concorrenza satellitare, per cui il governo potrebbe decidere di sostituire la loro fornitura via terra con quella dei servizi di Elon Musk. Anche per le operazioni di lancio dei satelliti di Iris2, l’Italia potrebbe appoggiare la collaborazione con SpaceX, grazie alla quale verrebbero superati gli impedimenti sollevati da Airbus e Thales. Il rapporto con le società americane permetterebbe loro di entrare nelle infrastrutture strategiche per la gestione dei servizi civili e persino per quelli di sicurezza nazionale dell’Unione Eruopea.
Già negli anni Ottanta del secolo scorso Ulrich Beck osservava che il ritmo di avanzamento della scienza e della tecnologia è troppo veloce per permettere alle istituzioni pubbliche di vagliare i rischi, di verificare condizioni e conseguenze, di guidarne lo sviluppo: alla politica non resta che constatare e convalidare l’esistente. Il rapporto che si stabilisce tra le figure di Musk e della Meloni non sembra differente: non è l’imprenditore ad essere affiliato alle fila della destra politica, ma è l’innovatore spregiudicato che definisce le prospettive della tecnologia, le possibilità che essa pone in essere, e i criteri per giudicare dispositivi e processi concorrenti. L’Unione Europea è relegata nel ruolo di inseguitore poco efficiente di ciò che Starlink ha già concepito e realizzato: il discorso con cui Giorgia Meloni consacra Elon Musk come campione degli ideali della destra, in fondo, non è che il gesto di validazione dell’esistente da parte delle istituzioni, e l’affiliazione della politica al mondo che l’eroe randiano ha progettato per noi. È la Presidente del Consiglio ad essere arruolata tra i legittimatori della leadership naturale dell’hacker, nelle fila di coloro che percepiscono il bene comune come la soluzione tecnologica di problemi che, o permettono questo tipo di ricomposizione, o non esistono.
Come ha dichiarato Sam Altman alla fine di luglio 2024, anche la crisi delle disparità sociali ha una soluzione che deve essere gestita dalle aziende tecnologiche, con la distribuzione di un reddito base universale a tutti coloro che stanno per perdere il lavoro: a causa della rivoluzione imminente dell’Intelligenza Artificiale Generale, secondo il CEO di OpenAI, questa sarà la situazione in cui a breve verseremo quasi tutti. Sono quasi due decenni che con le piattaforme digitali, Facebook e Google in primis, l’intero mondo Occidentale si è trasformato in un enorme esperimento sociale a cielo aperto, controllato e mirato solo da chi possiede le chiavi del software (purtroppo, molto spesso, nemmeno troppo in modo consapevole).
Come al tavolo dell’Atlantic Council, Giorgia Meloni siede alla destra di Elon Musk, alla corte dei re della tecnologia politica.
BIBLIOGRAFIA
Ulrich Beck, Una società del rischio. Verso una seconda modernità, trad. it. a cura di W. Privitera, Carocci Editore, Roma, 2005.
Paresh Dave, Here’s What Happens When You Give People Free Money, «Wired», 22 luglio 2024.
Kevin Kelly, Quello che vuole la tecnologia, Codice Edizioni, Milano 2010.
Gianni Riotta, Carlo Bonini, Silicon Valley, in fondo a destra, «la Repubblica», 21 settembre 2024.
Il Giappone abolisce i floppy disk - Agende digitali, tecnologie e competenze
I floppy disk non si producono più dal 2011.
Ma il Governo giapponese ha deciso solo nel mese di giugno - sì, del 2024 – di abolirne l’uso in tutti i suoi sistemi. In Giappone, infatti, fino a quest’estate, erano in vigore 1.034 leggi che regolavano – in alcuni casi imponevano – l’utilizzo dei floppy disk nelle funzioni burocratiche.
Strano Paese, il Giappone, avanzatissimo per molti aspetti ma spesso ancorato a strumenti di altri tempi come i floppy disk e gli hanko, dei timbri tradizionali personalizzati ancora usati per vidimare i documenti e che hanno suscitato molte critiche, per esempio, durante la pandemia, perché il conteggio dei contagi e dei vaccini avveniva ancora via fax e il lavoro da casa era stato molto rallentato dalla necessità di uso dei timbri.
Sembra, però, che anche per il Giappone sia arrivato il momento di provare ad allinearsi alle politiche e regolamentazioni che stanno adottando la maggior parte delle nazioni occidentali e “occidentalizzate” per promuovere la trasformazione digitale nei loro paesi.
Le principali e più diffuse linee guida di queste politiche sono: programmi di sviluppo delle competenze digitali di dipendenti pubblici imprenditori e cittadini, integrazione del curriculum digitale per integrare competenze e abilità digitali nei programmi delle scuole pubbliche, iniziative di e-Government, cioè politiche e regolamenti per digitalizzare i servizi pubblici e promuovere l'adozione dei servizi sui canali digitali, sandbox regolamentati per consentire la sperimentazione e l'innovazione con nuove tecnologie digitali, garantendo al contempo la coerenza con regolamenti generali già esistenti come il GDPR, sussidi e incentivi finanziari e incentivi per promuovere il passaggio al digitale di processi di piccole e medie imprese (PMI). Oltre a questo, molti governi hanno implementato misure punitive, multe e sanzioni, per scoraggiare le PMI e i terzi dall'evitare o rifiutare di partecipare agli sforzi di trasformazione digitale.
In quasi tutti i governi di tratta di un approccio poliedrico che coinvolge lo sviluppo delle competenze, l'erogazione di servizi pubblici digitali, quadri normativi e incentivi finanziari/punitivi per guidare e accelerare la trasformazione digitale delle loro economie e società. L'obiettivo è sbloccare i benefici delle tecnologie digitali gestendo al contempo i rischi e le sfide associate al cambiamento.
L'iniziativa del governo Giapponese sull’abolizione dei floppy disk si inquadra nelle misure di e-Government finalizzate a – finalmente - digitalizzare i propri servizi pubblici in modo aperto e promuoverne l'adozione nella società.
Questa decisione può avere effetti:
- sull’interoperabilità, che consente di sfruttare meglio e senza soluzione di continuità gli standard tecnici già condivisi, i modelli di dati le e interfacce di servizio che consentono alle diverse agenzie governative di trasmettere informazioni e condividere iniziateive in modo più semplice. Ad esempio, il Quadro Europeo di Interoperabilità dell'Unione Europea fornisce linee guida per raggiungere l'interoperabilità transfrontaliera e transettoriale.
- sull’erogazione di servizi ai cittadino: rendere i canali digitali l'opzione predefinita per accedere ai servizi pubblici, pur fornendo alternative offline per chi ne ha bisogno, richiede di abbandonare le tecnologie desuete che ne bloccano o rallentano i processi. Il principio del "once-only" USA secondo cui i cittadini devono fornire le informazioni al governo una sola volta, è un esempio di questo approccio.
- lo stesso vale per la graduale eliminazione dei servizi offline come la digitalizzazione di moduli, pagamenti e altri processi amministrativi per ridurre la dipendenza dalle interazioni di persona. Ad esempio, l'Estonia ha reso il 99% dei suoi servizi pubblici disponibili online.
Lo scopo comune di queste iniziative di e-government – come l’abolizione dei floppy disk - è migliorare l'efficienza e l'accessibilità dei servizi anche promuovendo un maggiore coinvolgimento dei cittadini, con il meta-obiettivo di sbloccare i benefici della trasformazione digitale sia per i governi che per il pubblico.
Tuttavia, questo è possibile se - da una parte - non ci sono di mezzo tecnologie fisicamente localizzate come i floppy disk e se - dall’altra – una parte molto rilevante della popolazione ha compiuto una buona parte del percorso di integrazione di competenze e abilità digitali.
Ogni azione di sviluppo digitale non può prescindere da un intenso lavoro di scolarizzazione e di diffusione degli strumenti e delle attitudini intellettuali nella popolazione sia quella nativamente digitale che quella che non lo è.
Infatti, «I nativi digitali italiani non sono tanto digitali. Solo il 58,3% dei giovani tra 16 e 19 anni, infatti, nel 2021 possiede competenze adeguate» e della popolazione italiana tra i 16 e i 74 solo il 45% ha competenze di base e il 22% ne di avanzate.
Rimuovere le tecnologie desuete è importante ma più importante è trovare delle leve e delle motivazioni per “arruolare” chi ha meno competenze in percorsi di graduale apprendimento, che non saranno immediati ma richiederanno tempo.
E adeguare tempi e aspettative dei programmi governativi a questi tempi di trasformazione delle persone.
Tecnologia e controllo - Una ricerca sul lavoro da remoto
Da quando il lavoro da remoto si è affacciato con prepotenza nelle vite di molti lavoratori sono sorte molte domande sul ruolo della tecnologia, non solo nello svolgimento delle diverse mansioni, ma soprattutto nell’evoluzione dei meccanismi di controllo a disposizione dei datori di lavoro.
L’esperienza del lavoro da remoto emergenziale è avvenuta infatti in un momento storico già fortemente caratterizzato dalla pervasività delle tecnologie informatiche in molti ambiti della nostra vita quotidiana (servizi, media, sanità, istruzione…). E se è vero che il tema del controllo non è nuovo (ha da sempre avuto un ruolo rilevante nella sociologia del lavoro e delle organizzazioni), è anche vero che siamo in un periodo in cui il controllo esercitato sui lavoratori e in generale sui cittadini è in aumento e sempre più visibile.
Pertanto, ci siamo domandate se l’accelerazione tecnologica che ha accompagnato la transizione al lavoro da remoto durante il periodo pandemico possa aver rappresentato un’ulteriore occasione per estendere forme pervasive ed estrattive[1] di controllo sui lavoratori, nel suo lavoro sul capitalismo della sorveglianza.
Tuttavia, la direzione della relazione fra tecnologia e controllo non è predeterminata[2]: l’impatto che l’introduzione della tecnologia ha sull’organizzazione del lavoro non è univoco ma situato all’interno dei contesti culturali, organizzativi e istituzionali in cui le tecnologie vengono impiegate e, vi è una profonda ambiguità insita nelle tecnologie informatiche[3]: «l’informatica propone di continuo nuove possibilità per l’asservimento della persona, non meno che opzioni per affrancarla» e gli esiti che l’introduzione di una certa tecnologia può generare in termini di qualità e organizzazione del lavoro «e ancora una questione di scelta».
Se da un lato la tecnologia può «liberare» il lavoratore da alcuni vincoli spazio-temporali, aumentare l’autonomia e ridurre il coinvolgimento in operazioni rischiose, dall’altro lato molte delle tecnologie utilizzate si fanno più pervasive e pongono le basi per un aumento del controllo da parte del management.
Non è, infatti, la tecnologia in sé a determinare un incremento del controllo, ma è, semmai, il modello economico sottostante che definisce obiettivi volti a estrarre valore dall’esperienza personale quotidiana, anche attraverso un monitoraggio serrato dei comportamenti dei lavoratori[4].
Di fronte a questi interrogativi abbiamo quindi cercato di indagare questo tema nell’ambito di una ricerca[5] avviata proprio durante il lockdown imposto dalla pandemia da Covid-19.
Per tentare di valutare come il lavoro da remoto nella sua forma emergenziale possa aver influito sulle modalità di controllo siamo partite dalla letteratura organizzativista classica[6] che individua tre forme di controllo: a) la supervisione diretta e il controllo gerarchico; b) il controllo degli output secondo un approccio al lavoro per obiettivi; c) il controllo sugli input, attraverso l’interiorizzazione delle norme e dei valori dell’organizzazione da parte dei lavoratori.
Queste tre forme di controllo, applicate alla situazione dello smart working emergenziale - in tempi rapidi, spesso senza pianificazione né concertazione - hanno mostrato diverse possibilità di remotizzazione, ed un diverso rapporto con la diffusione delle tecnologie digitali.
Il nostro lavoro, quindi, ha avuto l’obiettivo di ricostruire, a partire dall’esperienza di lavoratori e lavoratrici, i sistemi messi in atto dalle organizzazioni per coordinare le attività svolte a distanza, come è cambiato il controllo esercitato sul lavoro da remoto e che ruolo hanno giocato le tecnologie digitali.
I risultati[7] sono stati almeno in parte diversi da quanto ci saremmo aspettate.
Innanzitutto, la maggior parte dei lavoratori dichiarava di non aver percepito differenze nel controllo lavorando da remoto piuttosto che in presenza: quasi l’80% degli intervistati riteneva infatti che il controllo fosse “rimasto uguale”. Emergevano tuttavia alcune differenze fra i rispondenti. Erano soprattutto le persone che svolgevano mansioni esecutive nel lavoro di ufficio che dichiaravano un aumento nella percezione del controllo, mentre coloro che svolgevano professioni intellettuali o professioni nel commercio e nei servizi alla persona dichiaravano con più frequenza una diminuzione del livello di controllo percepito.
Questi dati ci hanno suggerito di guardare con più attenzione agli effetti che il lavoro da remoto può avere sulle diverse attività che possono essere svolte a distanza, e agli strumenti che le organizzazioni hanno a disposizione e di fatto applicano.
Iniziamo a vedere quali sistemi di controllo sono emersi dalla nostra rilevazione.
Il timore per il controllo tramite strumenti digitali rimanda spesso all’utilizzo di software esplicitamente dedicati al monitoraggio dei lavoratori, che consentono al responsabile di osservare le attività svolte con il personal computer, di registrare la cronologia, a volte persino i movimenti del mouse. La nostra rilevazione mostra tuttavia che questi strumenti vengono utilizzati in modo molto limitato: appena il 7% del campione dichiara di avere in uso programmi di questo tipo.
I sistemi di controllo più diffusi sono invece i programmi che servono a registrare le presenze, utilizzati in sostituzione della timbratura del cartellino. Un’alternativa all’utilizzo della timbratura online è la consegna di report quotidiani o settimanali che rendano conto del lavoro svolto, e che coinvolge quasi un terzo dei rispondenti.
I meccanismi formali per il controllo dei tempi, dei modi o dei risultati del lavoro non esauriscono però la questione dei processi organizzativi dedicati alla supervisione dell’operato del personale.
Nel corso della ricerca è emerso, ad esempio, l’utilizzo frequente di programmi che consentono di visualizzare lo “stato” di una persona, che può essere ad esempio “presente”, “assente”, “occupata” o “non attiva”. Si tratta di software finalizzati prevalentemente all’interazione in tempo reale, come Skype, Meet o Teams, che offrono contestualmente quello che si rivela come un ulteriore meccanismo di controllo. Il controllo in questo caso non avviene necessariamente da parte del responsabile, capo o supervisore, ma può anche assumere una direzione “orizzontale”, ed avvenire quindi tra pari, tra colleghi. Lo stesso avviene quando si utilizzano programmi per la condivisione online di documenti, come Google Drive, Dropbox o, per le scuole, Classroom, usati da oltre la metà del campione. Anche in questo caso si tratta di tecnologie indispensabili per replicare da remoto le diverse forme di collaborazione che avvenivano in presenza. Allo stesso tempo si tratta di una sorta di vetrina che consente a tutti coloro che accedono al documento di tenere traccia di quanto viene fatto dai vari membri con cui interagiscono. In questo senso, anche questi strumenti digitali di collaborazione diventano meccanismi impliciti di controllo, di tipo verticale oppure orizzontale.
Questi ultimi esempi sono indicatori del fatto che il senso e il ruolo delle tecnologie non sono intrinseci agli strumenti, ma si costituiscono con il loro utilizzo. Un programma progettato per le comunicazioni dirette può trasformarsi in uno strumento per il controllo da parte di un responsabile o, più spesso, per il controllo reciproco tra i lavoratori, spesso senza essere percepito come tale da chi ne fa uso.
I sistemi di controllo che abbiamo descritto sono utilizzati in modo diverso da diverse categorie di lavoratori. Possiamo quindi aspettarci che l’intensificarsi del controllo tramite tecnologie abbia conseguenze diverse per diverse categorie di lavoratori.
Per le professioni esecutive, le tecnologie tendono a replicare le forme di controllo attive nel lavoro in presenza (registrazione delle presenze, relazioni sulle attività svolte, controllo della quantità di lavoro completato a fine giornata/settimana/mese). In alcuni casi, l’utilizzo di software per il monitoraggio puntuale del lavoratore può aumentare il senso di supervisione diretta e con esso lo stress (ma abbiamo visto che si tratta di pratiche relativamente poco diffuse).
Nella nostra ricerca è emersa con frequenza l’idea che il controllo (diretto) non sia necessario perché il supervisore “si fida” del lavoratore.
In questo riferimento alla fiducia è compresa, a nostro avviso, oltre ad un riferimento alle relazioni personali, la tranquillità che proviene dalla certezza che il lavoratore operi secondo le norme standardizzate che ha appreso sul luogo di lavoro. La questione che si pone per immaginare il futuro del lavoro da remoto è allora relativa ai sistemi di riproduzione di questi meccanismi di formazione e trasmissione di norme (e valori) aziendali. I processi di reclutamento nelle aziende che ormai utilizzano in modo ordinario il lavoro da remoto hanno messo in luce la necessità di prevedere periodi più intensi di lavoro in presenza nelle fasi di inserimento, proprio perché alcune modalità di acquisizione di informazioni non sempre formalizzabili sono difficilmente replicabili da remoto.
Per le professioni intellettuali, invece, che prevedono interazione e lavoro di gruppo, le tecnologie digitali possono far emergere il controllo orizzontale tra colleghi, rendendo qualsiasi attività visibile per tutto il team. A questo si aggiunge il fatto che, come sottolineano ormai molte ricerche, la crescente autonomia nella gestione dei tempi produce nei fatti un aumento delle ore di lavoro, oltre ad una maggiore “porosità” tra i tempi di vita, con il lavoro che tende ad invadere momenti tradizionalmente dedicati ad altre attività. La combinazione di queste dinamiche può portare a nuove forme di “autosfruttamento” da parte dei lavoratori, per via di quello che è stato definito il “paradosso della flessibilità”: anziché fornire maggiore libertà e autonomia, la flessibilità produce nei fatti una tendenza ad autoimporsi ritmi e tempi di lavoro crescenti.
Per un approfondimento, si veda Goglio V., Pacetti, V., Tecnologia e controllo nel lavoro da remoto, in “Meridiana: rivista di storia e scienze sociali”, n.104, 2, 2022, 47-73.
NOTE
[1] Per utilizzare i termini identificati da Zuboff, Zuboff, S. (2019). The age of surveillance capitalism: The fight for a human future at the new frontier of power (First edition). PublicAffairs.
[2] Si veda il contributo di Gasparini https://www.controversie.blog/le-tecnologie-non-sono-neutrali-la-lezione-dimenticata-del-determinismo-tecnologico/
[3] Gallino, L. (2007). Tecnologia e democrazia: Conoscenze tecniche e scientifiche come beni pubblici. Einaudi.
[4] Cfr Zuboff, cit. nota 1
[5] La ricerca è stata avviata ad aprile 2020 con un ampio piano di interviste in profondità (189 rispondenti, metà dei quali intervistati una seconda volta a circa 8-10 mesi di distanza), seguita poi da una rilevazione tramite questionario (circa 900 risposte) nel 2021.
[6] Mintzberg, H. (1989). Mintzberg on Management: Inside Our Strange World of Organizations. Free Pr.
[7] Goglio, V., & Pacetti, V. (2022). Tecnologia e controllo nel lavoro da remoto. Meridiana, 104, 47–74.
[8] Cfr. ancora Zuboff, cit. nota 1