1. ALGORITMI
Nel subcontinente indiano si celebra l’Agnicayana, il più antico rituale documentato nel mondo ad essere ancora praticato: consiste nella costruzione dell’altare Syenaciti, a forma di falco, che celebra la ricomposizione del corpo del dio primordiale Prajapati dopo la creazione del mondo – fatica da cui è uscito letteralmente a pezzi. La modalità di costruzione dell’altare è complessa, è prescritta da un algoritmo, ed è scandita da un mantra che accompagnano la posa delle pietre. Paolo Zellini riferisce che nelle civiltà della Mesopotamia e dell’India le conoscenze matematiche, l’organizzazione sociale, le pratiche religiose, erano governate da schemi procedurali con una via di accesso al sapere alternativa alla formalizzazione logica – la via della dimostrazione assiomatico-deduttiva che appassionava i greci (1). Questa soluzione non ha permesso agli scribi del Vicino e del Medio Oriente di raggiungere l’univocità del concetto di numero, a partire dai numerali con cui gestivano le questioni nei vari contesti di applicazione: il sistema che organizzava le derrate di grano e di riso era diversa da quella che permetteva di contare i soldati, da quella che quantificava pecore e cavalli, da quella che misurava i debiti; ma ha permesso di evitare le difficoltà che i numeri irrazionali, e la relazione spigolosa della diagonale con il lato del quadrato, hanno suscitato nel mondo greco-romano.
L’algoritmo non è un’astrazione concettuale occidentale contemporanea, ma un dispositivo che emerge dalla cultura materiale, dalle procedure sociali di gestione del lavoro. L’etichetta proviene dal latino medievale, e si riferisce al metodo di calcolo con numeri posizionali descritto in un saggio di al-Kuwarizmi (andato perduto nella versione originale, ma conservato in due traduzioni latine). A partire dal XIII secolo il ricorso al metodo indiano di calcolo con cifre posizionali si diffonde in tutta Europa, soprattutto per la sua utilità in ambito commerciale: è di nuovo una pratica sociale a veicolare e a materializzarsi nel successo dell’algoritmo, iscrivendolo nella fioritura della nuova cultura urbana, e nel corpo delle relazioni costruite dai traffici della borghesia nascente (2).
Il calcolo posizionale insiste su matematica ed economia; ma qualunque sequenza di istruzioni che trasformino un certo materiale di partenza in un risultato finale, attraverso un numero finito di passi, (ognuno dei quali sia definito in modo abbastanza chiaro da non autorizzare interpretazioni variabili in modo arbitrario), è un algoritmo. Una ricetta di cucina, le istruzioni dell’Ikea, il meccanismo di lettura della scrittura alfabetica, sono esempi di algoritmi con cui possiamo avere più o meno dimestichezza (e fortuna). Gran parte della nostra esistenza si consuma nella frequentazione di procedure di questo tipo; la creatività, quando compare, può somigliare all’adattamento ingegnoso di una di loro, o alla combinazione inedita di pezzi di procedimenti diversi. Secondo alcuni teorici, come Ronald Burt, non si danno nemmeno casi del genere, ma solo importazioni di algoritmi da culture diverse, che i compatrioti ancora non conoscono, ma che possono digerire grazie ad adattamenti e traduzioni opportune (3).
In un articolo recente pubblicato su Controversie si è sostenuto che il rapporto tra algoritmi e esseri umani ha smesso di essere simmetrico e co-evolutivo, perché in qualche momento dell’epoca contemporanea la macchina si sarebbe sostituita ai suoi creatori, sarebbe diventata prescrittiva, avrebbe imposto griglie di interpretazione della realtà e avrebbe cominciato a procedere in modo autonomo a mettere in atto le proprie decisioni. Credo che una simile valutazione derivi da due sovrapposizioni implicite, ma la cui giustificazione comporta diversi problemi: la prima è quella che identifica gli algoritmi e le macchine, la seconda è quella che equipara il machine learning dei nostri giorni all’AGI, l’Intelligenza Artificiale Generale, capace di deliberazione e di cognizione come gli esseri umani.
2. PRIMO ASSUNTO
Non c’è dubbio sul fatto che gli automi siano messi in funzione da sequenze di istruzioni; ma questo destino non tocca solo a loro, perché gran parte dei comportamenti degli uomini non sono meno governati da algoritmi, appena mascherati da abitudini. Più le operazioni sono l’esito di un percorso di formazione culturale, più l’intervento delle direttive standardizzate diventa influente. Parlare una lingua, leggere, scrivere, dimostrare teoremi matematici, applicare metodi di analisi, giocare a scacchi o a calcio, sono esempi di addestramento in cui gli algoritmi sono stati interiorizzati e trasformati in gesti (che sembrano) spontanei. Adattando un brillante aforisma di Douglas Hofstadter (4) alla tecnologia dei nostri giorni, se ChatGPT potesse riferirci il proprio vissuto interiore, dichiarerebbe che le sue risposte nascono dalla creatività libera della sua anima.
Le lamentele che solleviamo contro gli algoritmi, quando gli effetti delle macchine contrastano con i nostri canoni morali, è paragonabile all’accusa che rivolgeremmo al libro di ricette se la nostra crostata di albicocche riuscisse malissimo. L’Artusi però non è responsabile del modo maldestro con cui ho connesso le sue istruzioni con gli algoritmi che prescrivono il modo di scegliere e maneggiare gli ingredienti, il modo di misurare le dosi, il modo di usare gli elettrodomestici della cucina: parlo per esperienza. Tanto meno è responsabile della mia decisione di cucinare una crostata di albicocche. Allo stesso modo, il software COMPAS che è stato adottato per collaborare con i giudici di Chicago non ha deciso in autonomia di discriminare tutte le minoranze etniche della città: la giurisprudenza su cui è avvenuto il training, che include l’archivio di tutte le sentenze locali e federali, è il deposito storico dei pregiudizi nei confronti di neri e diseredati. Il suo uso, che non è mai confluito nella pronuncia autonoma di verdetti, può anzi vantare il merito di aver portato alla luce del dibattito pubblico un’evidenza storica: generazioni di giudici, del tutto umani, hanno incorporato nel loro metodo di valutazione algoritmi ereditati dalla consuetudine, dall’appartenenza ad una classe sociale che perpetua se stessa, in cui questi preconcetti sono perdurati e si sono applicati in sentenze eseguite contro persone reali.
Allo stesso modo, non è il software The Studio a muovere guerra ai civili di Gaza: un’accusa di questo genere servirebbe a nascondere le responsabilità che devono essere imputate ai politici e ai militari che hanno deciso i massacri di questi mesi. Nello scenario del tutto fantascientifico in cui l’intelligenza artificiale avesse davvero selezionato gli obiettivi, e fosse stata in grado di organizzare le missioni di attacco (come viene descritto qui) – in realtà avrebbe ristretto gli attacchi ai soli obiettivi militari, con interventi chirurgici che avrebbero risparmiato gran parte degli effetti distruttivi della guerra. Purtroppo, in questo caso, l’AI non è in alcun modo capace di sostituirsi agli uomini, perché – a quanto si dichiara – i suoi obiettivi non sarebbero stati il genocidio, ma l’eliminazione di un justus hostis secondo le caratteristiche tradizionali dello spionaggio nello scontro bellico dichiarato. Il fatto che l’impostazione stessa del conflitto non sia mai stata tesa a battere un nemico, ma a sterminare dei terroristi, mostra che le intenzioni umane, erano ben diverse fin dall’inizio. Gli algoritmi selezionano mezzi e procedure per l’esecuzione di obiettivi, che sono sempre deliberati in altro luogo.
3. SECONDO ASSUNTO
Questa riflessione ci conduce alla seconda assunzione: tutto il software oggi è AI, e i dispositivi di deep learning sono in grado di maturare intenzioni, articolarle in decisioni autonome – e addirittura, in certe circostanze, avrebbero anche l’autorità istituzionale di coordinare uomini e mezzi per mandarle in esecuzione.
Basta smanettare un po’ con ChatGPT per liberarsi da questo timore. Le AI generative trasformative testuali sono meravigliosi programmi statistici, che calcolano quale sarà la parola che deve seguire quella appena stampata. Ad ogni nuovo lemma aggiunto nella frase, viene misurata la probabilità del termine successivo, secondo la distribuzione vettoriale dello spazio semantico ricavato dal corpus di testi di training. È la ragione per cui può accadere che ChatGPT descriva nelle sue risposte un libro che non esiste, ne fissi la data di pubblicazione nel 1995, e stabilisca che nel suo contenuto viene citato un testo stampato nel 2003, nonché descritta una partita di Go svolta nel 2017 (5). ChatGPT, Claude, DeepSeek, e tutta l’allegra famiglia delle intelligenze artificiali generative, non hanno la minima idea di quello che stanno dicendo – non hanno nemmeno idea di stare dicendo qualcosa. AlphaGo non sa cosa significhi vincere una partita a Go, non conosce il gusto del trionfo – tanto che pur riuscendo a vincere contro il campione di Go, non sa estendere le sue competenze ad altri giochi, se non ripartendo da zero con un nuovo training.
L’AI attuale è in grado di riconoscere pattern, e di valutate la probabilità nella correlazione tra gli elementi specifici di cui il software si occupa, senza essere in grado di passare tra segmenti diversi dell’esperienza, generalizzando o impiegando per analogia le conoscenze che ha acquistato, come invece fanno gli esseri umani. Comprensione dei contenuti, intenzioni, strategie, sono attribuite alla macchina da chi ne osserva i risultati, sulla base delle ben note norme conversazionali di Paul Grice (6). I software di AI dispongono dello stesso grado di coscienza, e della stessa capacità di deliberare intenzioni e stabilire valori, che anima il forno in cui tento di cucinare la mia crostata di albicocche.
Non vale la pena dilungarsi oltre, visto che di questo tema ho già parlato qui e qui.
4. GATTOPARDI
Nessuna tecnologia è neutrale: non lo è nemmeno l’AI. Ma la comprensione del modo in cui i software incrociano il destino della società implica un’analisi molto più dettagliata e articolata di una crociata generica contro algoritmi e macchine, dove la fabbricazione di altari, la preparazione di torte di albicocche, il comportamento di Palantir (ma anche quello di ChatGPT, di AlphaFold, di Trullion), possono finire nello stesso mucchio, a beneficio di una santificazione di un’umanità che sarebbe vittima delle manipolazioni di perfidi tecnologi. La ghettizzazione urbanistica in America, la soppressione dello Jus Publicum Europaeum (7) e la scomparsa del diritto internazionale dagli scenari di guerra (che infatti non viene più dichiarata: ne ho già parlato qui), sono problemi che vengono nascosti dal terrore di un Golem che non esiste, ma di cui si continua convocare lo spettro leggendario, questa volta nelle vesti di Intelligenza Artificiale. Quanto più si disconosce la suggestione di questa tradizione mitologica, tanto più se ne subisce inconsapevolmente il potere. È solo con un esame paziente delle condizioni di cui siamo eredi, spesso nostro malgrado, con l’analisi della complessità dei fattori che agiscono in ciascun problema sociale, e l’ammissione che non esiste un fuori dai dispositivi, che si può tentare un’evoluzione quanto più prossima ai nostri requisiti di libertà e di dignità; il processo sommario al Golem, la convocazione dell’algoritmo (!) come capro espiatorio di tutti i misfatti della modernità, per rivendicare il diritto di rigettare tutto e ripartire da zero, non è che un modo per pretendere che tutto cambi – perché tutto rimanga come prima.
BIBLIOGRAFIA
Burt, Ronald, Brokerage and Closure: An Introduction to Social Capital, Oxford University Press, Oxford 2007.
ChatGPT-4, Imito, dunque sono?, a cura di Paolo Bottazzini, Bietti Editore, Milano 2023.
Grice, Paul, Studies in the Way of Words, Harvard University Press, Cambridge 1986.
Hofstadter, Douglas, Gödel, Escher, Bach. Un’eterna ghirlanda brillante. Una fuga metaforica su menti e macchine nello spirito di Lewis Carroll, tr. it. a cura di Giuseppe Trautteur, Adelphi, Milano 1980.
Pasquinelli, Matteo, The Eye of the Master: A Social History of Artificial Intelligence, Verso Books, Londra 2023
Schmitt, Carl, Il nomos della terra nel diritto internazionale dello «Jus publicum europaeum», tr. it. a cura di Franco Volpi, Adelphi, Milano 1991.
Zellini, Paolo, Gnomon. Una indagine sul numero, Adelphi, Milano 1999.
Autore
-
Si occupa di media digitali dal 1999: è co-fondatore di Pquod e VentunoLab, società specializzate nella comunicazione web e nell’analisi di dati. Ha svolto attività di docenza per il Politecnico di Milano e l’Università degli Studi di Milano. Dal 2011 pubblica sulle testate Linkiesta, pagina99, Gli Stati Generali. È il direttore responsabile di Controversie. Per le pubblicazioni: https://scholar.google.com/citations?hl=it&user=zSiJu3IAAAAJ
Leggi tutti gli articoli