Questo intervento – che Controversie pubblica in due parti, questa e la prossima settimana – è intitolato “Decomputing as Resistance“. In esso, sosterrò che l’IA contemporanea rivela alcune falle nell’apparente connessione senza “cuciture visibili” (seamless) di tutte le tecnologie digitali del nostro sistema attuale, con evidenze che non possono essere ignorate. Proporrò che l’IA sia di per sé un problema tecnico; un balbettante passo falso dell’ordine neoliberista che ne suggerisce l’intrinseco disordine.
Quello che proporrò come contromisura è il decomputing; un approccio che prende di mira direttamente l’intelligenza artificiale, ma riguarda e intende scollegare qualcosa di più del solo digitale. Il decomputing è un modo per riconfigurare le nostre relazioni sociali ed economiche più ampie.
L’INTELLIGENZA ARTIFICIALE È CONSIDERATA DANNOSA
Quando parlo di IA mi riferisco alle tecnologie specifiche che legittimano così tanti danni sociali e ambientali in questo momento. In particolare parlo delle reti neurali e dei modelli trasformativi1 .
È affascinante osservare l’ascesa di questi meccanismi dell’intelligenza artificiale, perché – in realtà – è una finzione. L’IA predittiva è inaffidabile quanto l’IA generativa; sono entrambe gigantesche operazioni di corrispondenza dei modelli il cui unico appiglio sulla realtà è la correlazione. È come un QAnon informatico.
Il fatto che questi modelli siano anche del tutto opachi rende impossibile svelare il processo che ha portato a un particolare output. In pratica, i modelli di ragionamento non possono davvero dirti come sono arrivati a una risposta. Eppure, l’intelligenza artificiale viene presentata come una soluzione tecnologica generalizzabile ai problemi più spinosi della società e un agente così intelligente che sarà sicuramente in grado di sostituirci.
Sebbene l’intelligenza artificiale non sia veramente in grado di sostituire nessuno, funziona come motore di precarizzazione ed emarginazione, come nel caso dei tagli algoritmici al welfare2; è un apparato che estrae grossolanamente quanta più conoscenza umana codificata possibile al fine di fornire un sostituto scadente per funzioni sociali chiave come l’istruzione e l’assistenza sanitaria, concentrando ulteriormente ricchezza e potere.
VIOLENZA INFRASTRUTTURALE
Questa violenza strutturale è ora integrata da quantità altrettanto eclatanti di violenza ambientale.
Come ora ci rendiamo conto, i presunti vantaggi di avere un chatbot intelligente in tasca hanno un prezzo incredibilmente alto in termini di consumo di energia e di acqua; e la catena di approvvigionamento per la produzione delle GPU dipende dall’estrattivismo coloniale e dai minerali alla base di numerosi conflitti armati.
Certamente, la domanda di energia per l’IA non è il leviatano che ci fa precipitare in un cambiamento climatico irreversibile, l’industria dei combustibili fossili e l’agricoltura industriale non hanno bisogno di alcun aiuto su questo fronte.
Tuttavia, l’indiscussa inevitabilità dell’IA come unico futuro per lo sviluppo economico e come chiave del potere geopolitico legittima le aziende tecnologiche ad abbandonare la loro pretesa performativa di sostenibilità, e consumare energia senza controllo.
Questo significa che, quando le infrastrutture nazionali, che già barcollano sotto il peso delle politiche private di profittabilità, saranno portate al collasso dalle ulteriori richieste dei data center, l’IA avrà la priorità sui bisogni umani.
SCALABILITÀ
Voglio concentrarmi per un attimo sulla scalabilità come concetto che lega insieme l’apparato tecnico dell’IA con il contesto sociale.
Il modello connessionista dell’IA, che sta alla base di tutto l’impianto di sviluppo, esiste da decenni ma è stato quasi ignorato fino al 2012, perché erano necessari troppi dati e troppa potenza di calcolo per elaborare risposte plausibili. La convergenza di social media, set di dati in crowdsourcing e GPU ha cambiato la prospettiva.
Da allora, l’industria dell’intelligenza artificiale ha generato un mini-universo di metriche auto-rinforzanti – e dal sapore eugenetico – che pretendono di misurare i progressi senza affrontare le cose che devono davvero cambiare.
Il fattore di base del successo di queste metriche è la scalabilità dei set di dati e della potenza di calcolo. Se misuriamo il calcolo in termini di operazioni in virgola mobile o FLOP, passiamo dai 1017 FLOP del primo AlexNet ai 1025 FLOP dei modelli più recenti.
Per mettere questo dato in prospettiva, questo livello di scalabilità supera qualsiasi altra rivoluzione tecnologica, dall’adozione dei telefoni cellulari al sequenziamento del genoma.
La logica generale di tutte le metriche del settore è esattamente la stessa del PIL: l’unica cosa che conta è la crescita, la crescita, la crescita, indipendentemente dai danni collaterali generati lungo il percorso.
La scalabilità illimitata è una visione di crescita infinita basata su modelli di cooptazione (nel testo originale: enclosure, creazione di nuovi mercati, trasformando cose che prima non erano economiche in nuovi beni mercificabili, NdT) mai realizzati prima e sull’ipotesi di forme di conoscenza che andranno oltre la comprensione umana.
È la scalabilità che attrae i flussi di capitale di rischio a breve termine, ed è la scalabilità alla base delle affermazioni sulla superintelligenza emergente.
Agli occhi dei sostenitori dell’IA non ci sono, quindi, limiti sociali, ambientali o planetari.
Di fatto, essi sostengono la necessità di andare oltre e più velocemente perché solo l’intelligenza artificiale può salvarci dalla crisi climatica e curare tutte le malattie umane.
MOBILITAZIONE TOTALE
Possiamo ritenere a buon diritto che la convergenza intorno all’infrastruttura dell’IA possa essere intesa come una forma di “mobilitazione totale”, un termine coniato negli anni ’30 dallo scrittore ultranazionalista Ernst Jünger, per caratterizzare la canalizzazione di tutte le risorse materiali ed energetiche di una nazione in un nuovo ordine tecnologico.
Per Jünger siamo entrati in una nuova era, che richiede «la conversione della vita stessa in energia» poiché le nazioni sono «spinte inesorabilmente a impadronirsi della materia, del movimento e della forza attraverso il formalismo della tecnoscienza»
La mobilitazione totale legittima una nuova forma di ordine politico basato sul vitalismo del conflitto. Oggi, stiamo assistendo all’abbandono dei propri impegni a favore del bene comune, da parte delle grandi aziende di intelligenza artificiale, che si radunano attorno a visioni di predominio nazionalista, basato – come sempre – sulla potenza militare ed economica.
Il risultato della mobilitazione di tutte queste energie non è – quindi – semplicemente l’accumulazione di capitale, ma comporta la separazione della società dai suoi precedenti ormeggi morali e l’allineamento con la visione di una svolta verso una nuova epoca, svolta guidata dalla violenta trasformazione tecnologica.
E questa spinta verso l’estrema tecnologizzazione non è, come sembrerebbe, una forma di nichilismo ma l’espressione della volontà di potenza nietzschiana.
TECNOFASCISMO
Ovviamente, non sto dicendo che i nostri leader tecnologici e politici siano appassionati studiosi delle idee di Jünger, ma che la mobilitazione totale cattura l’interesse e genera il culto dell’IA da parte dei vertici aziendali e dei governi nazionali, in risonanza con l’accelerazionismo e con la politica neo-reazionaria che pervadono l’industria tecnologica e fanno da ponte con i movimenti politici come il MAGA e con l’estrema destra.
Questo stile di pensiero – caratterizzato da scenari di tecnologie fantascientifiche e di autoritarismo – è la risposta di coloro che desiderano mantenere una massiccia asimmetria di potere e ricchezza a fronte del crollo dell’ordine neoliberista, crollo determinato dalle sue stesse contraddizioni e dei conseguenti shock di sistema, come l’austerità e il cambiamento climatico.
Comprendere questi sviluppi, insieme alla proliferazione dell’infrastruttura dell’IA come una forma di mobilitazione totale, suggerisce che abbiamo a che fare con un cambiamento di fase di stampo tecnopolitico, un cambiamento che non sarà sviato o trattenuto dalla razionalità e dalla regolamentazione, un cambiamento che considera sostanzialmente usa e getta chi non fa parte della piccola élite destinata a guidare questo cambiamento.
NOTE:
1 Il modello trasformativo è un tipo di architettura di rete neurale che eccelle nell’elaborazione di dati sequenziali, principalmente associati ai modelli linguistici di grandi dimensioni (LLM). I modelli trasformativi hanno raggiunto prestazioni eccezionali anche in altri campi dell’AI, come ad esempio la computer vision, il riconoscimento vocale e la previsione delle serie temporali. (https://www.ibm.com/it-it/think/topics/transformer-model). Sono modelli di apprendimento profondo che adottano il meccanismo della auto-attenzione, pesando differentemente la significatività di ogni parte dei dati in ingresso. Sono usati primariamente nelle branche dell’elaborazione del linguaggio naturale e della visione artificiale.
2 Si veda, ad esempio, https://www.politico.eu/article/dutch-scandal-serves-as-a-warning-for-europe-over-risks-of-using-algorithms/
Autore
-
Laurea in Fisica a Oxford e dottorato in Fisica Sperimentale delle Particelle presso l'Imperial College di Londra, è attualmente Lecturer in Creative and Social Computing presso il Goldsmiths, University of London https://www.gold.ac.uk/computing/people/d-mcquillan/
Nel 2022 ha pubblicato il libro Resisting AI. An Anti-fascist Approach to Artificial Intelligence, Bristol University Press https://bristoluniversitypress.co.uk/resisting-ai
Leggi tutti gli articoli
