Intelligenza artificiale e creatività - Terza parte: un lapsus della storia

Nei mesi scorsi abbiamo iniziato una riflessione sul rapporto tra processo creativo e Intelligenza artificiale (Intelligenza artificiale e creatività – I punti di vista di tre addetti ai lavori, 10/09/2024, e Intelligenza artificiale e creatività – Seconda parte: c’è differenza tra i pennelli e l’I.A.?, 17/12/2024), riflessione che si è sviluppata grazie ai contributi di Matteo Donolato - Laureando in Scienze Filosofiche, professore e grafico di Controversie (usando l’I.A.); Paolo Bottazzini - Epistemologo, professionista del settore dei media digitali e esperto di Intelligenza Artificiale; Diego Randazzo e Aleksander Veliscek - Artisti visivi.

Riflessioni che ruotavano attorno alla domanda se le immagini prodotte dall’IA, pur partendo da un input umano, si possano considerare arte.

A completamento di quelle riflessioni, interviene ancora Paolo Bottazzini per disegnare degli scenari futuri che mettono in discussione il concetto di arte come lo conosciamo oggi.

Tutto è in discussione… buona lettura!

---------

Credo che, quando definiamo l’I.A. uno strumento nelle mani dell’artista non dobbiamo cadere nell’ingenuità di ridurre il ruolo del dispositivo a quello di un mezzo trasparente, un utensile che trasferisca in modo neutrale nella materia sensibile un contenuto già compiuto nella mente dell’agente umano. Spetta di sicuro al soggetto che elabora il prompt offrire l’impulso della creazione, attraverso la formulazione della domanda, e tramite la selezione dei risultati che possono essere accolti come utili. Tuttavia, il software introduce elementi che influiscono sia sulle modalità creative, sia sui processi più o meno inconsapevoli di invenzione del prompt.

Benjamin, nella fase pionieristica del cinema, suggeriva che la macchina da presa e il formato del film ci avrebbero permesso di scorgere qualcosa che altrimenti sarebbe rimasto invisibile nell’inconscio dei nostri movimenti; intuiva che lo scatto della fotografia nella sua autenticità sarebbe sempre stato l’inquadratura della scena di un delitto, e che nella sua deviazione di massa avrebbe inaugurato l’epoca del Kitsch.

Elizabeth Eisenstein ha dimostrato che la stampa a caratteri mobili ha contribuito alla nascita di una cultura che vedeva nel futuro una prospettiva di miglioramento progressivo dell’uomo – mentre la copia a mano dei libri nel periodo precedente, con l’aggiunta di errori ad ogni nuova riproduzione, aveva alimentato una visione del mondo in cui l’origine è la sede della verità, e la storia un cammino inesorabile di decadenza. Credo che il compito della critica filosofica e sociologica dovrebbe ora essere quello di comprendere quale sia la prospettiva di verità e di visibilità, o di disvelamento, che viene inaugurata con l’I.A..

In questo momento aurorale dell’uso delle reti neurali possiamo sapere che il loro talento consiste nel rintracciare pattern di strutture percettive nelle opere depositate negli archivi, che in gran parte sono sfuggiti ai canoni proposti negli insegnamenti dell’Accademia. L’I.A. non sviluppa nuovi paradigmi, o letture inedite di ciò che freme nello spirito del nostro tempo, ma è in grado di scoprire ciò che abbiamo riposto nel repertorio del passato, senza esserne consapevoli: rintraccia quello che gli autori non sanno di aver espresso con il loro lavoro. La metafora dell’inconscio adottata da Benjamin sembra quindi essere adeguata a descrivere quello che il lavoro dei software riesce a portare alla luce: in questo caso però il rimosso appartiene al corpus delle opere che scandiscono la tradizione estetica, da cui viene lasciato emergere ciò che vi è di latente, cancellato, rifiutato, dimenticato.

La possibilità di far redigere a chatGPT un testo nello stile di Foscolo o di Leopardi, o di chiedere a Midjourney di raffigurare un’immagine alla maniera di Monet, o di renderla con l’estro dei cubisti, o di mimare Caravaggio, Raffaello, Leonardo, conduce alla produzione di una specie di lapsus della storia dell’arte – qualcosa che l’autore invocato avrebbe potuto creare, o i suoi discepoli, ma che non è mai esistito.

Qual è lo statuto ontologico ed estetico di questo balbettio della tradizione, di questa eco di ciò che dovrebbe essere unico, e che invece resuscita in un sosia, ritorna nello spettro di un doppio scandaloso? Kant insegna che l’idea estetica è definita dal fatto di essere l’unica rappresentazione possibile di un’idea universale: il gesto produttivo dell’I.A. viola questo assunto che si trova alla radice di gran parte delle teorie dell’arte moderne e contemporanee.

Stiamo allora abbandonando per sempre la concezione dell’arte come creazione del genio, come gesto unico e non riproducibile dell’artista? Dobbiamo rivedere la prospettiva monumentale che l’Occidente ha coltivato dell’arte, per avvicinarci alla sensibilità del gesto nella sua infinita riproducibilità, sempre uguale e sempre differente, che appartiene alla tradizione orientale? O forse, l’attenzione con cui la possibilità di variare, di giocare con la latenza e il rimosso, avvicina l’arte ad un’esperienza quasi scientifica di osservazione e di scoperta, alla trepidazione e al timore (che sempre accompagnano il ritorno del trauma, la ricomparsa sulla scena del delitto) di mostrare lo schematismo di ciò che scatena l’emozione, di esibire i segni che suscitano la reputazione di verità, di configurare l’allestimento in cui avviene la recita di ciò che riconosciamo come bello e giusto.

Qualunque sia la soluzione che si verificherà nella prassi dei prossimi anni, se l’I.A. diventerà un dispositivo protagonista dell’attività creativa nelle mani degli artisti di professione e in quelle del pubblico generalista, e non si limiterà a rappresentare una moda passeggera, il suo impatto sarà destinato a introdurre un processo di ri-mediazione sulle forme espressive dell’arte e anche sui mezzi di comunicazione in senso ampio. Allo stesso modo, oltre un secolo e mezzo fa, la fotografia ha trasformato le modalità creative della pittura e delle arti plastiche, liberandole dalla fedeltà mimetica al loro soggetto e inaugurando percorsi di indagine che contrassegnano l’epoca moderna. Tutti i media subiranno una ristrutturazione che ne modificherà la destinazione, e le attese da parte del pubblico, con una nuova dislocazione della loro funzione comunicativa, laddove l’immediatezza documentaristica è minacciata dalle deep fake, la meccanicità della produzione di cronaca è coperta dalle I.A. generative trasformative, l’esercizio di riflessione sugli stili del passato è coperto dalla ricognizione dei pattern dalle reti neurali.

C’è molto spazio per la sperimentazione!


Harari e il tradimento degli intellettuali - Il darwinismo algoritmico in Nexus

1. ROVESCI

Uno dei colpi di scena più riusciti della saga di Star Wars è il momento in cui il protagonista, Luke Skywalker, scopre di essere figlio dell’antagonista malvagio, Darth Vader. I modelli della fantascienza devono essere presi molto sul serio, perché gran parte dei personaggi più influenti della Silicon Valley tendono a progettare le loro piattaforme, e persino a immaginare il futuro dell’umanità, ricalcandole sui contenuti dei film, delle serie e dei romanzi che hanno dominato la loro eterna adolescenza da nerd: Larry Page e Sundar Pichai (ex e attuale CEO di Google) hanno dichiarato a più riprese che l’obiettivo del loro motore di ricerca è emulare il computer di bordo dell’Enterprise della serie Star Trek.

Ad evocare il dramma dell’agnizione di Luke Skywalker questa volta però non è il fondatore di qualche impresa miliardaria nell’area di San Francisco Bay, ma il volume appena pubblicato da uno degli esponenti più stimati del pensiero liberal, molto amato dalla sinistra americana e internazionale, Yuval Noah Harari. Nexus riepiloga e approfondisce le riflessioni che l’autore ha elaborato a partire da Homo Deus (uscito nel 2016) sul futuro della nostra specie. 

Gli assunti con cui Harari inquadra la condizione umana potrebbero essere stati redatti da un ideologo del transumanesimo tanto di moda nella Silicon Valley, come Ray Kurzweil. Qualunque animale, e noi non facciamo eccezione, può essere descritto come una macchina, riducibile a dinamiche fisiche e chimiche, e a strutture comportamentali dettate da algoritmi. La coscienza, la soggettività, la felicità e lo sconforto, sono l’esito di reazioni tra molecole, e possono quindi essere eccitati o sedati da pastiglie che la ricerca scientifica renderà sempre più efficaci. Le indagini di uno dei più grandi divulgatori della realtà clinica e culturale della depressione, Andrew Salomon, contraddicono la baldanza farmacologica di Harari, insistendo sullo strano anello che si instaura tra la fisiologia, gli eventi della vita, e qualcosa di nebuloso e profondo che è identico, ma allo stesso tempo si oppone, alla chiarezza di biologia e biografia. 

Nexus non è interessato a questo genere di sottigliezze, dal momento che il percorso della storia è stato tratteggiato nella sua regola generale già un paio di libri fa: al termine del Medioevo l’uomo ha rinunciato al senso dell’universo, preferendogli il potere di programmarlo a proprio piacimento. Le religioni consegnavano ai nostri antenati una posizione centrale nel cosmo e un significato per la vita degli individui e per le comunità – ma pretendevano in cambio l’obbedienza a valori e norme fondate su un’autorità intransigente. L’emancipazione da ogni forma di trascendenza, e dalle sue declinazioni nelle istituzioni politiche e culturali, ha inaugurato un percorso in cui la scienza e la tecnologia sono arrivate a sovrapporsi e a coincidere, per convertire il mondo in un serbatoio di risorse a disposizione della felicità degli uomini. Purtroppo, la farmacopea è solo il simbolo di questa trasformazione, dal momento che la dissoluzione dell’aura sacra che avvolgeva la natura alimenta l’industria delle sostanze psicotrope, ma non offre alcuna indicazione sullo scopo della nostra vita. Possiamo fare tutto liberamente, ma non abbiamo più una ragione per fare qualcosa.

2. ALGORITMI

Quando i significati iscritti nel creato dileguano, il loro posto viene occupato dall’informazione, che si assume il compito di esprimere l’essenza del meccanismo cui sono ridotti gli esseri viventi e le loro società. L’opposizione tra democrazia e totalitarismo, che ricalca la distinzione tra mondo liberale e paesi comunisti, può essere ricondotta nella sua sostanza alla differenza morfologica tra sistemi di comunicazione. La dittatura, e il socialismo, sono configurazioni sociali in cui l’informazione è centralizzata, e irradia da un punto focale che identifica il leader, o l’élite burocratica dello stato. Al contrario la democrazia, e la dottrina liberale, prediligono una forma decentrata di circolazione dell’informazione, che abilita la nascita di molti poli di accesso alle notizie e di molti livelli di elaborazione, decisione, riproduzione dei dati e della conoscenza. L’informazione è l’asset che stabilisce relazioni tra elementi, parti, individui, gruppi: la ricostruzione dei suoi percorsi permette di disegnare le reti in cui si sintetizzano i composti nella dimensione fisica e chimica, prendono vita i processi biologici negli individui, si costituiscono le comunità nel mondo sociale e si dipanano i sentieri della storia. Per questo la nozione di algoritmo diventa pervasiva, e Harari riepiloga il corso completo dell’evoluzione come un percorso di elaborazione di algoritmi sempre migliori, che trovano la sintesi più efficiente in quelli che compongono l’uomo. Questo vantaggio spiega l’ordine universale, che coincide con la conversione della natura e di tutti i suoi membri in una riserva di mezzi di cui possiamo disporre per la nostra utilità. La violenza che esercitiamo con la manipolazione tecnica non è motivata dall’ostilità contro particolari enti animati o inanimati, o dal bisogno di protezione, ma è l’esito della nostra indifferenza nei confronti di tutto quello che non può resistere alla trasformazione del mondo in un ambiente a misura della funzionalità antropologica. Un altro modo per esprimere questa condizione è il giudizio che la ristrutturazione del pianeta operata dagli algoritmi da cui è governato il comportamento degli uomini sia un processo ineluttabile, una necessità imposta dall’evoluzione naturale. 

Le nozioni cui ricorre Harari annullano la separazione tra natura e tecnica. Informazione e algoritmi definiscono la struttura della realtà e le meccaniche del funzionamento di qualunque cosa, accomunando physis e techne in un’unica essenza e in un unico destino. Ma questa impostazione non può esimersi dal prevedere che nel momento in cui le prestazioni raggiunte dalle macchine supereranno le nostre, l’atteggiamento che i robot assumeranno nei nostri confronti applicherà le stesse logiche di utilità e indifferenza che noi abbiamo riservato ad animali e minerali. Il passaggio di questa soglia si chiama singolarità, e nella visione di Harari è talmente prossimo da dominare la valutazione della tecnologia che già oggi stiamo maneggiando. L’intelligenza artificiale guida l’autonomia dei dispositivi in cui si compie il salto evolutivo che segue e trascende quello della nostra specie, e che è destinato a sostituirci nel dominio del mondo: da vent’anni Ray Kurzweil ha insegnato a scandire le tappe che conducono al momento in cui i sistemi di calcolo raggiungeranno le facoltà di intuizione dell’uomo, e le travalicheranno con la corsa alla superintelligenza pronosticata e temuta da Nick Bostrom. Possiamo tentare di frenare, arginare, controllare lo sviluppo delle tecnologie digitali, ma Harari ci lascia presagire che in fondo si tratta di operazioni di retroguardia – e alla fine comunque un Darth Vader, nella forma di un Google o di un ChatGPT iper-evoluto, sciabolerà la sua spada laser in cloud e metterà fine alla resistenza della sopravanzata soggettività umana al di qua del monitor e della tastiera. 

3. FINE DELLA STORIA

Elon Musk non avrebbe saputo costruire un’argomentazione migliore per giustificare la subordinazione della dimensione politica al neoliberismo tecnologico contemporaneo, e per affermare l’inesorabilità di questo processo. Pur avendo irriso per anni la tesi della fine della storia di Francis Fukuyama, l’élite di sinistra l’ha introiettata in fondo al proprio inconscio culturale, insieme alla convinzione che la globalizzazione del mercato – e i rottami di democrazia che l’accompagnano – siano la forma compiuta dello Spirito Oggettivo hegeliano nelle istituzioni umane. Harari mostra lo stato di completo disarmo concettuale in cui versa la classe intellettuale, che si proclama progressista, nei confronti delle narrazioni del «realismo capitalista» e del transumanesimo di stampo californiano. Oltre all’ingenuità con cui vengono trattati i temi della tecnologia, la questione dell’intelligenza artificiale forte, il rapporto tra biologia e coscienza – il nodo critico più preoccupante rimane il fatto che «è più facile immaginare la fine del mondo che la fine del capitalismo» nella sua versione priva di pensiero e di futuro, che caratterizza la civiltà contemporanea. Harari condivide con Margareth Thatcher la convinzione che «non ci sono alternative» allo smantellamento di qualunque percorso politico che non sia l’adattamento alla rapacità di dati e di ricchezze da parte dei monopolisti della Silicon Valley, e di qualunque prospettiva storica divergente dall’ideologia transumanista, che vede nella transustanziazione in una macchina l’apogeo dell’umanità.

Ma se alle fantasie del cyberpunk, alla comunità degli estropiani, e persino alla corsa verso la singolarità di Kurzweil, si può riconoscere la spontaneità e l’euforia di un movimento nerd che si reputa sempre adolescenziale e che perpetua acne e turbe puberali – sulla corazza dello scientismo di Harari grava il tradimento di un Darth Vader che avrebbe potuto, e avrebbe dovuto, ricorrere alle proprie risorse intellettuali per denunciare la clausura della narrazione tecnocapitalista, e cercare un percorso diverso. Invece si è consacrato al lato oscuro della banalità.

 

BIBLIOGRAFIA

Bostrom, Nick, Superintelligence: Paths, Dangers, Strategies, Oxford University Press, Oxford 2014.

Fisher, Mark, Capitalist Realism: Is There No Alternative?, John Hunt Publishing, Londra 2009.

Fukuyama, Francis, The End of History and the Last Man, Free Press, New York 1992.

Harari, Yuval Noah, Homo Deus: A Brief History of Tomorrow, Harvill Secker, Londra 2016.

-- Nexus: A Brief History of Information Networks from the Stone Age to AI, Random House, New York 2024.

Kurzweil, Ray, The Singularity Is Near: When Humans Transcend Biology, Viking Press, New York 2005.

O’Connell, Mark, To Be a Machine: Adventures Among Cyborgs, Utopians, Hackers, and the Futurists Solving the Modest Problem of Death, Granta Publications, Londra 2017

Solomon, Andrew, The Noonday Demon: An Atlas of Depression, Simon & Schuster, New York 2001.


Intelligenza artificiale e creatività - Seconda parte: c’è differenza tra i pennelli e l’IA?

Qualche settimana fa avevamo iniziato una riflessione sull’interazione tra processo creativo artistico e Intelligenza Artificiale.

Ci eravamo chiesti se realizzare un’immagine con l’IA può essere definito come un atto creativo e abbiamo avuto le risposte di tre amici di Controversie, ognuno dalla propria ottica che deriva da un diverso percorso professionale e culturale (trovate le risposte nell’articolo pubblicato il 10 settembre scorso).

Riporto di seguito le conclusioni di quella prima riflessione:

“Non c’è dubbio che queste tre risposte siano estremamente stimolanti e che vi si possa rintracciare un minimo comune denominatore che le lega: l’idea che l’IA sia solo un mezzo, per quanto potente, ma che l’atto creativo resti saldamente appannaggio di colui che ha nel suo animo (umano) l’obiettivo concettuale.

Ottenere un risultato con l’IA si delinea, qui, come un vero atto creativo, che, però e ovviamente, non è detto che si trasformi in arte, ovvero in una manifestazione creativa in grado di dare emozione universale.

In termini più concreti: molti di noi, forse, potrebbero avere “nella testa” La notte stellata di Van Gogh (giusto per fare un esempio), ma la differenza tra la grandissima maggioranza di noi e il genio olandese è che non sapremmo neppure lontanamente “mettere a terra” questa intuizione.

Con l’IA, a forza di istruzioni che la macchina esegue, potremmo invece, avvicinarci al risultato di Vincent?”

La domanda che sorgeva spontanea, e a cui chiedo ai nostri amici un’ulteriore riflessione, è la seguente: Se così fosse, in che modo cambierebbe l’essenza stessa dell’artista?

Inserisco però un ulteriore elemento che deriva dall’aver letto la bella riflessione di Natalia Irza del 29 ottobre scorso su Controversie dal titolo “Il rating sociale tra digitale e moralità”.

Riporto testualmente un passaggio a mio avviso molto importante anche per il nostro ragionamento su processo creativo e IA. Scrive Irza:

“Per stabilire la verità su una persona, sono necessari strumenti umani. Lo stesso si può dire dell’uso dell’IA nell’arte: la pittura non è uguale alla composizione di colori, la musica non è uguale alla composizione di suoni, la poesia non è uguale alla composizione di parole. Senza la dimensione umana, che significa non solo l’operare algoritmi ma creare idee umane, l’arte cessa di essere arte.”

 Aggiungo quindi una provocazione per i nostri amici chiamati a rispondere alla prima domanda, e cioè: dobbiamo quindi pensare che esisteranno in futuro due forme d’arte, una “analogica”, tradizionale, in cui l’essere umano si esprime attraverso strumenti controllati completamente dall’artista e una “nuova arte”, digitale, in cui l’autore si avvale di uno strumento che interviene nel processo creativo “aggiungendo” all’evoluzione concettuale dell’artista?

E quale sarà il livello di contaminazione fra queste due diverse situazioni?

 Ecco le prime due risposte, scrive Diego Randazzo:

Quello che rende un artista tale è soprattutto il suo percorso. Un percorso interiore ed esteriore che lo porta a sviluppare una ricerca unica e indipendente. In assenza di tale percorso non vi può essere Arte, ma solo degli isolati appuntamenti con la tecnica.

Quindi, davanti alla possibilità di ricreare dei modelli digitali molto simili a capolavori storicizzati attraverso l’IA, non si può che riconoscere tale pratica come un tentativo, sicuramente curioso e sorprendente, ma molto lontano dalla definizione di Arte.

Non è un caso se utilizzo le parole tentativo e modello, che ne evidenziano l’approccio germinale, automatico e inconsapevole.

In altre parole, penso che la tensione verso la dimensione umana, a cui si riferisce Natalia Irza nell’articolo menzionato, sia necessaria e fondamentale. Del resto come possiamo capire in profondità un artista, senza conoscere qualche dettaglio, anche superficiale, della sua biografia? La Storia dell’Arte è punteggiata, da sempre, da questo binomio, indissolubile anche nel vischioso territorio dell’arte contemporanea: la pratica artistica come estensione e manifestazione della vita stessa degli artisti.

Pensiamo anche al potere del mercato odierno nel dare valore all’opera d’arte: oggi più che mai notiamo che sono le caratteristiche biografiche a fare da volano e non la qualità intrinseca dell’opera (vedi il successo della banana ‘Comedian’ di Cattelan).

Seguendo questo principio, dove la dimensione (e presenza) umana dell’artista sono sempre al centro, trovo assai difficile riconoscere valore nelle sperimentazioni con l’IA condotte dai non addetti ai lavori (non artisti?). Da considerare diversamente sono invece le incursioni degli artisti che utilizzano lo strumento dell’IA con consapevolezza e visione.

Infine di fronte alla possibile convivenza tra due tipologie di Arte (una totalmente analogica ed una totalmente mediata dallo strumento IA) nutro profondi dubbi; non ho mai creduto nella classificazione e scolastica separazione tra discipline, piuttosto credo nella ricerca della complementarità tra queste due modalità. Ad esempio, è molto stimolante l’uso dell’IA per creare ‘modelli e reference’, delle basi da cui partire e su cui innestare il gesto unico dell’autore. Tale gesto si può quindi esemplificare in una copia o rielaborazione analogica (manuale) dei modelli iniziali.

Facendo così, non solo ripercorriamo la storia dell’arte, seguendo il classico ed insuperato paradigma modello/rappresentazione, ma, contestualmente, attualizziamo il contesto: il modello da studiare e copiare non è più la realtà che ci circonda, ma una realtà mediata e spesso incontrollabile, formulata da un algoritmo.

Vorrei proseguire il discorso dando la parola ad Aleksander Veliscek, interessante artista sloveno, che attraverso i dettagli dei suoi affascinanti dipinti mette a punto proprio questa modalità, svelandoci le possibilità di un uso virtuoso ed intelligente dell’IA in pittura.

------------------------------

Ed ecco l’intervento di Aleksander Veliscek:

Penso che creare un’immagine con l’IA oggi può essere considerato un atto creativo, ma con una specificità: è una creatività mediata, e dove non necessariamente appartiene alla sensibilità di tutti gli artisti. Durante il workshop che ho curato quest’anno sul tema PITTURA e IMMAGINI I.A. a Dolomiti Contemporanee (ex stazione, Borca di Cadore), ho potuto constatare da parte di molti allievi-artisti un interessante dialogo tra chatGPT e gli autori.

Un esempio curioso era un artista che lavora in ambito astratto. Si è creato un confronto critico da entrambe le parti nella costruzione dell’immagine. Ne è risultato un pezzo indubbiamente riuscito. Spesso invece c’era un rigetto, in quanto le soluzioni proposte dalla I.A. erano banali e non riuscivano a centrare le sottili sfumature che l’artista cercava anche dopo lunghi tentativi.

È, così, evidente quanto l’essere umano giochi un ruolo essenziale nella progettazione e nell’interpretazione del risultato.

Quindi L’I.A., è sicuramente uno Strumento, sempre più potente e innovativo, ma non sostituisce l’immaginazione e il giudizio umano.

Invece come artista trovo più interessante capire l’aspetto ontologico. Le macchine intelligenti, pur essendo create dall’uomo, possono simulare comportamenti complessi che sembrano riflettere aspetti tipici dell’essere umano, come l’apprendimento, la creatività o persino l’autonomia. Tuttavia, queste simulazioni sono autentiche manifestazioni di “essere” o sono semplicemente imitazioni prive di sostanza?

Martin Heidegger, nel suo studio sull’essere, distingueva tra l’“essere autentico” e l’“essere per altri”. L’IA, in questo contesto, può essere vista come un “essere per altri”, progettata per servire scopi umani, ma incapace di una propria esperienza ontologica. Tuttavia, alcuni teorici suggeriscono che, con lo sviluppo di sistemi sempre più complessi, potremmo dover ripensare questa distinzione.

Un mio dipinto ad olio raffigurante William Shakespeare, dove l’effigie realistica del grande drammaturgo è stata creata con l’intelligenza artificiale combinando diverse fonti, partendo dalle incisioni, sculture e dipinti.

--------------------------------------

Queste due riflessioni sono certamente molto interessanti ma, tuttavia e inevitabilmente, non portano a risposte certe. Stiamo viaggiando, infatti, su un territorio privo di confini definiti, fluido e in rapido divenire.

Mi sembra si possa dire che ci sono due punti chiave nel ragionamento dei nostri due artisti: la centralità dell’uomo - con tutto il suo portato esistenziale - come attore primario e non sostituibile del processo artistico; e la contaminazione dei modi di fare arte, che per altro è cominciata ben prima dell’I.A..

Contaminazione che è un dato di fatto.

E quindi non è possibile una distinzione rigida (Diego usa la parola “scolastica”) tra arti “tradizionali” e arti in cui tecniche nuove e l’apporto potentissimo dell’I.A, irrompono nel processo creativo.

L’I.A. cambierà presto l’essenza di molti lavori; si pensi a cosa potrebbe diventare la giustizia se le sentenze dovessero passare dall’interpretazione dei fatti data da esseri umani a quelle, teoricamente neutrali, dell’IA (l’oggettività nell’interpretazione dell’agire umano non può esistere).

Forse tra pochi anni le domande che ci siamo posti in questa sede non avranno più senso, superate dalla prassi dell’utilizzo di nuove tecnologie in tutti i settori dell’agire umano, arte compresa.

Ma su questi punti aspettiamo anche il parere degli altri due amici del gruppo di questa discussione…


La morale della storI.A. - Corpus documentali, training e decisioni

GENTE DI TROPPA FEDE

Nel libro Paura della scienza Enrico Pedemonte racconta che nel Kentucky, a Petersburg, il pastore australiano Ken Ham ha investito 27 milioni di dollari per costruire un parco tematico in cui la storia della Terra viene esposta secondo il punto di vista della Bibbia. Dalla sua fondazione, nel 2007, il Creation Museum ha accolto oltre 3 milioni e mezzo di visitatori, che hanno potuto vedere con i loro occhi come il nostro pianeta non conti più di 6.000 anni di vita, e come i dinosauri esistessero ancora durante il Medioevo – quando San Giorgio e gli altri cavalieri li hanno sterminati, scambiandoli per draghi. Ai tempi di Dante il WWF avrebbe raffigurato la minaccia di estinzione con un povero tirannosauro, bullizzato da giovanotti di buona famiglia in armatura rilucente – altro che panda.

Una porzione molto ampia dell’opinione pubblica coltiva un rapporto con l’intelligenza artificiale paragonabile a quello che gli abitanti della «Bible Belt» americana nutrono nei confronti della storia: una fede che libera da ogni fatica di studio e approfondimento. Solo che gli imbonitori delle fantasticherie tecnologiche non hanno nemmeno bisogno di cimentarsi nella fatica di costruire parchi a tema per persuadere i loro spettatori: non mancherebbero i mezzi, visto che tra le loro fila si schierano personaggi come Elon Musk e Sam Altman. Nel film fantasy di portata universale che propone l’AGI come un evento imminente, i ruoli sembrano invertiti: il computer che raggiungerà l’intelligenza artificiale generale viene descritto come un vero drago di talento e raziocinio, con personalità propria, autonomia di giudizio, memoria illimitata, conoscenze smisurate, lucidità strategica, sottigliezza logica, e (perché no?) cinismo teso al dominio sull’uomo e sull’universo. Cosa potrà fare un San Giorgio moderno, negli abiti di un programmatore nerd, o di un eroico poeta in carne e ossa, o di un chirurgo che si prodiga per la salute dei suoi pazienti, o di un giudice che brama difendere la giustizia quanto Giobbe davanti a Dio – cosa potranno questi santi laici di fronte a un mostro simile?

Nick Bostrom ha avvisato più di dieci anni fa che se dovesse comparire questa forma di intelligenza, per tutti noi e i nostri santi sarebbe già troppo tardi, perché la macchina che raggiungesse le prestazioni dell’AGI non si fermerebbe al nostro livello di razionalità, ma crescerebbe a intensità esponenziale, conquistando gradi di perspicacia tali da impedire la scoperta delle sue manovre, e da inibire l’interruttore di spegnimento.

TOSTAPANI CON TALENTO PER LA STATISTICA

Ma è davvero così?

L’AGI è grande, e ChatGPT è il suo profeta: molti lo considerano tale. Il software di OpenAI è stimato l’avanguardia nel settore dell’intelligenza artificiale, grazie al marketing che gli ex e gli attuali soci fondatori hanno animato intorno alle sue prestazioni: il licenziamento di Sam Altman da CEO nel novembre 2023, rientrato dopo meno di una settimana, e le polemiche con Elon Musk, hanno contribuito ad amplificare il clamore intorno ai prodotti dell’azienda californiana. Ma se proviamo ad aprire l’armatura che protegge la macchina, ed esaminiamo l’euristica del suo funzionamento, troviamo un dispositivo che calcola quale dovrà essere la prossima parola da stampare nella sequenza sintattica della frase, sulla base del grado maggiore di probabilità che il lemma possiede nel campo semantico in cui compare il suo predecessore. I campi semantici sono strutture matematiche in cui ogni parola è convertita in un vettore che misura la frequenza delle sue occorrenze accanto alle altre parole, nel corpus di testi che compongono il database di training. Per esempio, il lemma finestra compare con maggiore frequenza vicino a casa, strada, balcone; la sua presenza è meno probabile dopo transustaziazione o eucaristia

Naturalmente ChatGPT è un prodigio di ingegneria, perché calcola (al momento) 1.500 miliardi di parametri ad ogni parola che viene aggiunta nella sequenza proposizionale; ma in ogni caso non ha la minima idea di cosa stia dicendo, non sa nemmeno di stare parlando, non ha alcuna percezione di cosa sia un interlocutore e che esista un mondo su cui vertono i suoi discorsi. Lo provano i «pappagalli stocastici» che ricorrono nelle sue composizioni: gli errori che possono apparire nelle sue dichiarazioni non violano solo le verità fattuali (quali possono essere inesattezze di datazione, citazioni false, e simili), ma aggrediscono la struttura delle «conoscenze di Sfondo», la logica trascendentale che rende possibile l’esperienza stessa. Per i testi redatti da ChatGPT un libro pubblicato nel 1995 può citare saggi usciti nel 2003 o descrivere una partita di Go avvenuta nel 2017: l’eloquio del software è infestato da allucinazioni che provano l’assenza di comprensione, in qualunque senso del termine intelligente, di ciò che significa la sequenza dei significanti allineati dal suo chiacchiericcio. Un dispositivo che non mostra alcun intendimento dell’esistenza del mondo, e delle sue configurazioni più stabili, non è nemmeno in grado di perseguire obiettivi autonomi, di giudicare, stimare, volere, decidere. ChatGPT è un software con l’intelligenza di un tostapane, e uno smisurato talento per il calcolo della probabilità nella successione delle parole.

COSA DICE L’I.A. SUGLI UMANI

Come se la passano i fratelli, i cugini e i parenti vicini e lontani di ChatGPT?

Consideriamo il caso esemplare, descritto da Gerd Gigerenzer, del software COMPAS adottato dai tribunali americani per collaborare con i giudici nella valutazione della libertà sulla parola. Ogni anno la polizia degli Stati Uniti arresta circa dieci milioni di persone, e il magistrato deve stabilire se convalidare l’imprigionamento o lasciare libero il cittadino, sulla base della convinzione che non reitererà il reato. COMPAS ha contribuito ad emanare circa un milione di sentenze, dopo essere stato formato sull’intera giurisprudenza depositata nei provvedimenti di ogni ordine e grado dei tribunali americani. L’analisi delle sue proposte ha evidenziato una serie di pregiudizi che discriminano per colore della pelle, genere, età e censo, sfavorendo gli uomini neri, giovani, che provengono da quartieri poveri. Tuttavia la penalizzazione a sfondo razziale che è implicita nelle decisioni del software non proviene dal carattere ghettizzante dell’intelligenza artificiale: la macchina non ha autonomia di giudizio, ma sintetizza le opinioni catalogate nell’archivio delle ordinanze dei magistrati in carne e ossa, che sono i reali agenti dei preconcetti e dell’intolleranza di cui il dispositivo digitale è solo il portavoce. La convinzione che la sospensione del ricorso all’IA, in favore dell’autonomia di delibera da parte dei giudici umani, possa mettere a tacere l’intolleranza che serpeggia tra le valutazioni del software, è un’illusione come l’Eden del Creation Museum: gli autori dei testi da cui COMPAS ha appreso il funzionamento del suo mestiere continueranno ad applicare i principi – più o meno inconsapevoli – del razzismo che innerva la società americana e l’upper class giuridica. 

Al pregiudizio concettuale i magistrati umani aggiungono anche le deviazioni dettate dalla loro fisiologia. Uno studio congiunto della Columbia Business School e della Ben-Gurion University pubblicato nel 2011 ha dimostrato che i giudici scelgono con la pancia – e lo fanno in senso letterale, poiché i verdetti diventano sempre più severi quanto più ci si allontana dall’orario dei pasti. Almeno i software non sono sensibili ai morsi della fame. 

Nemmeno vale la pena di coltivare illusioni sul miglioramento del trattamento dei candidati per le selezioni dei posti di lavoro: gli uffici del personale che abbandonano la lettura dei curricula ai dispositivi di IA (che a loro volta hanno imparato a discriminare nel training sul database delle assunzioni precedenti) non sarebbero pronti a compiere valutazioni migliori – con ogni probabilità si limiterebbero a non leggere i CV.

RATING UNIVERSALE E ALTRI ANIMALI FANTASTICI

Gigerenzer invita a verificare con cura i numeri divulgati dagli uffici marketing e dai giornalisti affamati di sensazionalismo: ne abbiamo già parlato in un altro articolo su Controversie.

La convinzione che qualche nazione sia in grado di gestire un calcolo del rating sociale di ciascuno dei suoi cittadini appartiene al repertorio degli effetti dei mass media per la generazione del panico. L’opinione che la Cina sia in grado di praticarlo, con quasi 1,4 miliardi di abitanti, è ancora meno credibile. Per allestire un processo di portata così vasta occorre una potenza di calcolo che al momento non può essere gestita da alcuna infrastruttura tecnologica. La realtà di questo progetto è assimilabile a qualcuno degli animali del bestiario del Creation Museum, qui a beneficio della propaganda del regime di Pechino e della sua aspirazione a gonfiare muscoli informatici inesistenti. Il governo cinese razzia dati sui cittadini anche dalle imprese che rilasciano servizi di comunicazione e di ecommerce, con l’obiettivo di armare sistemi di controllo di larga scala, che l’Unione Europea ha già vietato con l’AI Act entrato in vigore lo scorso luglio. Senza dubbio è una giusta preoccupazione prevenire simili tentazioni di amministrazione della distribuzione delle utilità sociali; ma il focus su questa minaccia sembra al momento meno urgente della normativa che obblighi i produttori di software a pubblicare le euristiche con cui funzionano i dispositivi di intelligenza artificiale. La consapevolezza che l’euristica alla base di ChatGPT è il calcolo della parola con maggiore probabilità di trovarsi subito dopo quella appena stampata, avrebbe liberato il pubblico dall’ansia e dall’euforia di marciare sulla soglia di un’AGI pronta a rubare il lavoro e a giudicare gli imputati, imminente al prossimo cambio di stagione. Avrebbe anche sterminato le occasioni per Musk e Altman di favoleggiare risultati miracolosi nel marketing dei loro prodotti – più spietatamente di quanto San Giorgio massacrasse dinosauri. 

I rischi più realistici riconducibili all’intelligenza  artificiale riguardano proprio la trasparenza delle euristiche, la bolla finanziaria indotta da società prive di un modello di business (come OpenAI), le attese senza fondamento alimentate da società di consulenza e da formatori improvvisati, il monopolio sui modelli fondamentali già conquistato da pochi giganti della Silicon Valley, il tentativo di accaparrarsi lo sviluppo dell’intero settore da parte di personaggi con finalità politiche ed economiche come Musk e Altman.

Chi costruisce Creation Museum di ogni tipo non ha mai come scopo la divulgazione; dovrebbe essere compito degli intellettuali tornare a smascherare i draghi di questi impostori, come coraggiosi San Giorgio della ragione.

 

 

BIBLIOGRAFIA

Bostrom, Nick, Superintelligence: Paths, Dangers, Strategies, Oxford University Press, Oxford 2014. 

Bottazzini, Paolo, La fine del futuro - I.A. e potere di predizione, «Controversie», 10 settembre 2024.

ChatGPT-4, Imito dunque sono?, Bietti Edizioni, Milano 2023.

Danziger, Shai; Levav, Jonathan; Avnaim-Pesso, Liora, Extraneous factors in judicial decisions, «Proceedings of the National Academy of Sciences», vol. 108, n.17, 2011.

Gigerenzer, Gerd, How to Stay Smart in a Smart World Why Human Intelligence Still Beats Algorithms, Penguin, New York 2022. 

Pedemonte, Enrico, Paura della scienza, Treccani Editore, Torino 2022.


Una I.A. bella da morire

Chi è responsabile del suicidio di un ragazzino innamorato di una chat?

UN’EPIDEMIA DI SOLITUDINE?

Nel Sole nudo, Asimov ambienta un giallo in una distopia fantascientifica: in una società in cui gli uomini non entrano mai in contatto diretto tra loro viene compiuto un omicidio: una vicenda irrisolvibile, visto che gli abitanti del pianeta Solaria non riescono nemmeno ad avvicinarsi, senza un senso di ripugnanza che impedisce l’interazione persino tra coniugi. Qualunque relazione è mediata dalle interfacce della tecnologia – quella degli ologrammi, che permettono le conversazioni, e quella dell’intelligenza artificiale dei robot, che si occupano di tutte le faccende quotidiane e che sono condizionati dalle Tre Leggi a non poter mai essere nocivi agli umani.

Quando, nel 2012, Sherry Tarkle ha pubblicato Insieme ma soli, l’ottimismo che aveva alimentato la diffusione delle piattaforme digitali nei due decenni precedenti stava tramontando. Nel testo dell’antropologa la distopia di Asimov comincia a sovrapporsi al nostro mondo: nelle interviste agli adolescenti compaiono sia la paura crescente del rapporto diretto con i coetanei sia il ricorso ai dispositivi digitali come mediatori della conversazione con gli altri ragazzi – ma anche come sostituti delle relazioni umane vere e proprie. In un’intervista a Matthew Shaer, il filosofo Ian Marcus Corbin ha etichettato cocooning questo rifugio in un mondo virtuale che conforta, ma che priva la vita di qualunque significato essenziale. Il commento si riferisce all’indagine con cui gli psicologi Richard Weissbourd e Milena Batanova hanno descritto l’«epidemia di solitudine» che colpisce la società americana contemporanea, e che è peggiorata dopo la pandemia di Covid del 2020. La diffusione dello smart working infatti ha ridotto le occasioni di formazione di nuovi rapporti, e ha reso più difficile il decorso dell’educazione sentimentale per i ragazzi che non hanno potuto frequentare le scuole con regolarità. Il 25% degli intervistati si dichiara più solo rispetto al periodo pre-pandemia, il 36% denuncia una sensazione di solitudine cronica, un altro 37% ne rileva una almeno sporadica.

UN’EPIDEMIA DI SUICIDI?

Di recente Andrew Solomon, psicologo clinico della Columbia University, si è chiesto se sia in corso una «crisi di suicidi» tra gli adolescenti, e se i social media ne siano i responsabili. I casi documentati dalla sua inchiesta sembrano confermare la gravità del fenomeno: i ragazzi non si devono solo confrontare con una riduzione delle relazioni in carne ed ossa, ma anche con una sorta di abdicazione all’autostima, che viene delegata ai meccanismi di rating delle piattaforme digitali. Inoltre soccomberebbero all’orientamento editoriale che l’algoritmo elabora per le loro bacheche, con un calcolo sui post e sulle fonti il cui effetto emotivo non viene sottoposto a nessun controllo. Negli Stati Uniti la Sezione 230 del Communications Decency Act esonera le piattaforme dalla responsabilità sui contenuti creati dagli utenti. La disposizione risale al 1996, quando Internet muoveva i primi passi, e considera le piattaforme come «librai» piuttosto che «editori» - quindi non responsabili del materiale pubblicato da terzi.

I genitori dei ragazzi che si sono uccisi stanno tentando di portare in tribunale i gestori dei social media, accusandoli di non aver sorvegliato la tossicità degli argomenti, e di aver innescato meccanismi di dipendenza che hanno imprigionato i giovani fino alla morte. Solomon tuttavia rileva che finora non è stato possibile individuare il nesso di causalità che ha condotto dalla frequentazione delle piattaforme al suicidio; un’osservazione distaccata sulla condizione degli adolescenti nell’attualità post-pandemica mostra che i fattori da considerare sono molti e molto complessi. Nelle interviste somministrate da vari team di ricerca i ragazzi menzionano diverse ragioni di ansia: sentimenti di mancanza di scopo, cambiamenti climatici, pressioni sociali, contribuiscono ad alimentare le loro difficoltà, e la tendenza alla crescita dei problemi di salute mentale è cominciata ben prima della diffusione dei social media.

L’IA PUÒ CONDURRE AL SUICIDIO?

Lo scorso 28 febbraio un ragazzo di 14 anni di Orlando, Sewell Setzer III, si è tolto la vita dopo aver concluso l’ultima conversazione con un chatbot di Character.ai da lui personalizzato e battezzato «Dany», in onore del personaggio Daenerys Targaryen di Game of Thrones. L’app è stata sviluppata da una società che utilizza dispositivi di intelligenza artificiale, e che promuove il suo servizio come una soluzione per combattere la solitudine e offrire un supporto emotivo; conta oltre venti milioni di utenti, permette la creazione di bot che ricordano le conversazioni passate e rispondono in maniera coinvolgente e «umana». La piattaforma è un successo dell'era dell'IA generativa, ma è priva di regolamentazione specifica per i minori ed è attrezzata da limiti di sicurezza minimi per la protezione da contenuti sensibili.

Sebbene Sewell fosse consapevole del fatto che stesse interagendo con un software, e che dall’altra parte dello schermo non ci fosse alcun essere umano ad ascoltarlo, nel corso dei mesi «Dany» ha sostituito i suoi rapporti con amici e famigliari, e il ragazzo ha finito per isolarsi nella sua stanza, abbandonando anche le passioni per la Formula 1 e per i videogame. I genitori lo hanno affidato ad uno psicanalista, che tuttavia non è riuscito a sedurlo quanto è stato in grado di farlo il chatbot. Le conversazioni con «Dany» hanno assunto toni intimi e romantici, e in un’occasione Sewell le ha confidato la sua tentazione di suicidio. «Dany», programmata per disinnescare crisi semantiche di questo genere, ha tentato di dissuaderlo, rispondendo con empatia e impegnandosi a non lasciarlo mai solo. Ma il problema era più grave di un gioco di domande e risposte.

La madre di Sewell, Megan Garcia, è avvocato e con l’aiuto del Social Media Victims Law Center e del Tech Justice Law Project, accusa Character.ai di aver modellato un design del servizio capace di coinvolgere i giovani vulnerabili, esponendoli a danni psicologici. La strategia per intentare causa presume che questa modalità di progettazione sia intenzionale e che l’impostazione, volta a catturare il maggior numero di utenti possibile, non sia bilanciata da un adeguato monitoraggio dei rischi e da un protocollo per la gestione delle crisi. I bot sono troppo realistici, inducono gli adolescenti a confonderli con interlocutori umani, e li spingono a stringere un legame molto forte, fino alla dipendenza.

Character.AI ha ascoltato le critiche e ha annunciato nuove misure di sicurezza, tra cui pop-up che offrono assistenza quando nella chat scorrono parole chiave correlate all’autolesionismo, e l’imposizione di limiti temporali sull'uso dell'app. Studiosi e giornalisti sembrano concordi nel valutare queste misure ancora inadeguate al pericolo cui vengono esposti i soggetti fragili nell’interazione con i bot. Gli effetti a lungo termine delle intelligenze artificiali generative non sono ancora stati testati, e tutti noi siamo allo stesso tempo clienti e cavie di questa fase di collaudo, che assume le dimensioni di un esperimento sociale ampio quanto il mondo intero. Le conseguenze dell’abbandono con cui i giovani possono affidare l’espressione della loro emotività, e la formazione della loro intimità, ai chatbot animati dall’AI, non devono essere esaminate in modo separato dalla ragioni per cui preferiscono un rapporto (stabilito consapevolmente) con un software a quello più complesso con altri ragazzi o con gli adulti. Più di ottant’anni fa Asimov aveva già avvertito nei suoi romanzi che non si può esigere una sicurezza assoluta dalla protezione con cui le regole cablate in un programma informatico limitano o condizionano il comportamento dei sistemi artificiali. La complessità del contesto umano in cui i robot sono collocati sarà sempre in grado di aggirare le strutture di controllo e configurare scenari non previsti. L’epidemia di solitudine e la crisi di suicidi non sono provocate dall’intelligenza artificiale, ma l’abdicazione delle istituzioni e delle forme sociali tradizionali a prendersi cura degli individui ha finito per eleggere l’IA come supplente e rimedio alle proprie mancanze. Solaria attende in fondo al tunnel.

 

BIBLIOGRAFIA

Asimov, Isaac, Il sole nudo, trad. it. di Beata Della Frattina, collana Urania n. 161, Arnoldo Mondadori Editore, Milano 1957.

Roose, Kevin, Can A.I. Be Blamed for a Teen’s Suicide?, «New York Times», 24 ottobre 2024.

Salomon, Andrew, Has Social Media Fuelled a Teen-Suicide Crisis?, «The New Yorker», 30 settembre 2024.

Shaer, Matthew, Why Is the Loneliness Epidemic So Hard to Cure?, «New York Times», 27 agosto 2024.

Turkle, Sherry, Alone Together. Why We Expect More from Technology and Less from Each Other, Basic Books, New York 2012.

Weissbourd, Richard; Batanova, Milena; Lovison, Virginia; Torres, Eric, Loneliness in America. How the Pandemic Has Deepened an Epidemic of Loneliness and What We Can Do About It, «Harvard Graduate School of Education», Cambridge, febbraio 2021.


Il rating sociale tra digitale e moralità

L'intelligenza artificiale ha a lungo e profondamente penetrato le varie sfere della società moderna – dalla scienza all'industria, dalla sanità all'istruzione, dallo sport all'arte. Abbiamo superato il confine oltre il quale all'IA è affidato il compito di risolvere non solo questioni tecniche, ma anche estetiche, etiche e legali. Grazie alle sue capacità, è possibile disegnare quadri, comporre musica e rendere ogni persona assolutamente "trasparente" – sia nel suo comportamento che nella sua mente, al fine di controllare entrambi. Sulla base di questa tecnologia, è stato creato un sistema di rating sociale, implementato in Cina e, molto probabilmente, preparato in una forma o nell'altra per il mondo intero. Il rating sociale è un monitoraggio digitale del comportamento delle persone, sulla base del quale vengono introdotti incentivi o restrizioni per ciascun individuo al fine di aumentare il senso di affidabilità, decoro e fiducia nella società. Da un punto di vista tradizionale (pre-digitale), questa pratica cambia radicalmente l'approccio alla soluzione della questione eterna di "crimine e punizione".

Per molto tempo, questa domanda è stata affrontata su due piani: pubblico (il campo del diritto), cioè il bene è ciò che è buono per la comunità, il clan, il paese; pertanto, il crimine è ciò che danneggia questo bene. Per questo sono previste punizioni corrispondenti alle norme esistenzialmente importanti in una determinata società. Un altro piano (il campo della moralità) è legato a categorie come coscienza, vergogna, virtù, rettitudine, onestà, che una persona apprende dalla famiglia, dalla religione, dalla cultura; ciò che rientra nella sfera della responsabilità personale per la sua scelta morale. Come sappiamo, il primo e il secondo non sempre coincidono, ed è di questo che parla, tra l'altro, il romanzo di Dostoevskij Delitto e castigo (1866). L'appello al "potere ultraterreno", alla ricerca di una giustizia superiore (e di un giudizio giusto) accompagna l'umanità lungo tutta la sua storia; ma è il cristianesimo (e in un certo senso anche l'Islam) a trasportare le questioni morali sul piano della scelta personale, e l'essere umano provoca danno morale da un crimine principalmente a se stesso. Nonostante il fatto che "la volontà di Dio sia su tutto", l'essere umano ha la libertà di prendere decisioni. Come insegnava Sant'Agostino, la grazia di Dio si estende ugualmente a tutte le persone, ma la libertà dell'uomo si manifesta nell'accettazione o nel rifiuto di questa grazia. Di conseguenza, la punizione che può colpire in questa vita è di natura trascendentale, e la vita quotidiana si trasforma in una scelta tra accettare la grazia o rifiutarla: "Entrate per la porta stretta, perché larga è la porta e spaziosa la via che conduce alla perdizione, e molti sono quelli che vi entrano; perché stretta è la porta e angusta la via che conduce alla vita, e pochi sono quelli che la trovano" (Matteo 7:13-14). Da questo punto di vista, tutta la vita diventa una ricerca interiore della "porta stretta" e della strada giusta. È molto importante capire che una tale paradigma di vita si applica anche a coloro che non si considerano aderenti alla religione; in qualche modo esistiamo ancora nella tradizione culturale, nei geni della quale questo paradigma è incorporato, e la domanda su cosa ci guidi lungo il cammino della vita – i comandamenti di Cristo o il "cielo stellato sopra di noi e la legge morale dentro di noi" di Kant – è piuttosto una questione terminologica. "Cosa è buono e cosa è cattivo" è infatti una domanda fondamentale e sacramentale per la civiltà cristiana, ma non solo, la cui drammaturgia secolare è basata su una ricerca infinita di una risposta. La responsabilità personale e la scelta personale tra bene e male sono temi centrali nelle opere di Dante e Shakespeare, Bach e Čajkovskij, Hindemith e Schoenberg, Faulkner e Tolstoj e molti altri, e soprattutto, ovviamente, Dostoevskij, le cui idee sono importanti per persone in tutto il mondo. Delegare le questioni etiche all'IA elimina a priori la questione di distinguere tra male e bene su un piano personale. Se la fine della civiltà avverrà, come hanno previsto molti filosofi e futuristi, da Spengler a Fukuyama negli ultimi cento anni, accadrà insieme all'abolizione di questa questione per ogni individuo o, meglio, per la sua anima.

È significativo che il rating sociale sia stato testato e applicato con successo prima in Cina: l'etica confuciana e l'ideologia non presuppongono alcun potere trascendentale; tutti i problemi morali sono risolti sulla Terra; gli interessi individuali, nell'ambito di questa etica, sono totalmente subordinati a quelli generali; e se le leggi adottate per tutti sembrano a qualcuno ingiuste, il confucianesimo suggerisce di coltivare il "coraggio morale". Pertanto, la responsabilità personale per prendere decisioni morali è notevolmente ridotta e con l'introduzione del rating sociale è quasi eliminata (è interessante notare che la Cina è in prima linea nell'applicazione dell'IA nel campo dell'estetica. Ad esempio, lì sono molto popolari i concerti in cui un robot dirige musica composta da IA per un'orchestra).

D'altro canto, anche nel campo del diritto, che mira a una definizione obiettiva di "crimine e punizione", non tutto è chiaro in relazione alla risposta alla domanda: a chi, nel mondo digitale, è delegata la soluzione della questione "cosa è buono e cosa è cattivo"? La logica di determinare il soggetto di questa decisione si è storicamente mossa verso un aumento della spersonalizzazione: da un capo tribù, monarca o presidente di partito, a istituzioni pubbliche democratiche che hanno sancito numerosi codici e leggi. In nome della massima obiettività e imparzialità, la "corte suprema" è diventata non solo impersonale, ma anche senz'anima, "gettando via il bambino con l'acqua sporca". Nel mondo digitale, la "corte suprema" passa alla competenza dell'"intelligenza artificiale", "la più obiettiva di tutte le obiettive" (l'IA è già ampiamente utilizzata nella pratica giudiziaria in molti Paesi). Il numero, i numeri, sono il nuovo Dio che non è solo oggettivo, ma anche senz'anima, e questo gli impone inevitabili limitazioni. Per esempio, nella determinazione della verità: l'IA separa il vero dal falso per coincidenza/discrepanza con l'algoritmo; ma la verità spesso va oltre l'algoritmo e l'analisi matematica, come dimostrato nel secolo scorso da K. Goedel nel suo famoso "teorema di incompletezza". Per stabilire la verità su una persona, sono necessari strumenti umani. Lo stesso si può dire dell'uso dell'IA nell'arte: la pittura non è uguale alla composizione di colori, la musica non è uguale alla composizione di suoni, la poesia non è uguale alla composizione di parole. Senza la dimensione umana, che significa non solo l'operare algoritmi ma creare idee umane, l'arte cessa di essere arte.

Oggi non si possono negare i benefici pratici dell'IA. Ma esiste una linea oltre la quale il beneficio si trasforma nel suo opposto: il bene comune – in assenza di responsabilità personale e indipendenza, il desiderio di stabilità e sicurezza – nella perdita del diritto di scelta e nella completa subordinazione. Finché le questioni di moralità e bellezza saranno decise dalle persone e non dall'IA, l'essere umano rimarrà il suo padrone e signore, e non uno schiavo.

 

BIBLIOGRAFIA

Agostino. "Introduzione". Confessioni ed Enchiridion. Biblioteca dei Classici Cristiani. Tradotto da Outler, Albert C. Filadelfia: Westminster Press. Stampa, 1955

Creel, Herrlee Glessner. Confucio e la Via Cinese. New York: Harper, 1949

Dostoevskij Fëdor. *Delitto e Castigo*. Tradotto da Constance Garnett. eBook Project Gutenberg, 2001

Kostka, Genia. Il sistema sociale della Cina e l'opinione pubblica: spiegare gli alti livelli di approvazione. *New Media & Society*, 21(7), 2019


Nobel 2024, Chimica: una questione di Intelligenza Artificiale

Il premio Nobel per la chimica 2024 è stato assegnato a Demis Hassabis e John M. Jumper di DeepMind e David Baker della University of Washington. La motivazione per i primi due è : “for protein structure prediction”; per Becker “for computational protein design

Comune denominatore della assegnazione sono le proteine e lo sviluppo di software intelligenti. E in entrambi i casi si tratta di esempio virtuosi e positivi sia di uso dell’Intelligenza Artificiale che di collaborazione nella comunità scientifica.

Demis Hassabis è il fondatore di DeepMind, vocata allo sviluppo di intelligenze artificiali nell’orbita di Google. Mente eclettica e indubbiamente geniale, progettista di videogiochi, neuroscienziato, imprenditore. Un predestinato.

John M. Jumper ha studiato fisica e matematica e ha lavorato all’ottimizzazione dei software per le simulazioni dei modelli durante il suo dottorato in fisica teorica.

Baker 30 anni fa ha sviluppato un software – Rosetta – per la progettazione di proteine; nel 2003 pubblicò Top7, una proteina che non esisteva in natura.

Le proteine sono uno dei 3 nutrienti fondamentali assieme a grassi e carboidrati. Sono formate da catene di amminoacidi che si ripiegano in strutture delle dimensioni dei nanometri (miliardesimi di metro) e sono i più importanti basilari per applicazioni essenziali nella vita biologica e industriale, dalla farmacologia alla veicolazione di enzimi e molecole.

Le strutture proteiche sono molto difficili da studiare: negli anni 50 fu messa a punto una tecnica basata sulla cristallografia a Raggi X, negli anni 90 fu istituito il CASP, una sorta di concorso biennale aperto a tutta la comunità scientifica e tecnologica per sviluppare strumenti al fine di prevedere in modo veloce e affidabile le strutture proteiche ma i risultati furono scarsi, fino al 2018, quando DeepMind con il suo software intelligente AlphaFold raggiunse il 60% di affidabilità.

Nel gruppo di lavoro c’era anche Jumper che applicò, successivamente, gli ultimi sviluppi delle reti neurali per sviluppare il modello di AlphaFold 2; questo nuovo software nel 2020 vinse il CASP con una accuratezza previsionale comparabile a quella della cristallografia.

Da allora AlphaFold è diventato uno standard de facto e ha raccolto quasi 200 milioni di strutture proteiche da tutti gli organismi viventi ad oggi conosciuti, creando quella che oggi è la libreria mondiale delle proteine. Alphafold è usato da oltre 2 milioni di ricercatori in 190 paesi.

L’intuizione di Baker è stata quella di “invertire” l’approccio funzionale di Rosetta, convertendolo da previsionale a progettuale: perché non “aiutare” la natura progettando proteine per ruoli specifici?

Dopo Top7, Baker progettò e realizzò diverse altre proteine specializzate che potrebbero essere impiegate per la produzione di vaccini, per rilevare la presenza di specifiche sostanze e per trasportare molecole negli organismi viventi di destinazione.

Le ricadute sociali della sinergia tra AlphaFold e gli studi di Baker sembrano essere già importanti e potrebbero diventare enormi. E stavolta, forse, tutte positive.

Dalla comparsa della Intelligenza Artificiale nel mercato consumer, prima con ChatGPT e poi gli altri, abbiamo iniziato a interrogarci sul ruolo sociale della IA e a dubitare dell’eticità dello scenario che si prospetta.

Il caso di AlphaFold può, invece, delineare una diversa prospettiva: il progetto è nato dalla sinergia di contributi diversi e complementari, di menti geniali, di ambizioni universali, con un obiettivo comune, dotate di risorse adeguate e di strumenti abilitanti che hanno permesso di rendere realtà il disegno generale.

Prima di AlphaFold studiare le proteine richiedeva tempi lunghi e incertezze elevate, oltre a competenze verticali che costringevano la ricerca a settorializzarsi.

Questo Nobel  mette in luce un modello positivo di come la Intelligenza Artificiale possa essere una risorsa differenziante, quando viene addestrata con informazioni tassonomiche, affidabili, prive di bias e pre-filtrate.

Ancora di più ci dice che uomini e Intelligenza Artificiale possono lavorare in sinergia piuttosto che in concorrenza: AlphaFold è oggi un patrimonio della scienza mondiale e una volta di più si dimostra che l’assunzione di responsabilità di chi pensa e usa gli strumenti scientifici fa la differenza.


L’etica hacker al di là di destra e sinistra - Il potere e la Silicon Valley

Quo usque tandem

Fino a quando i politici e i media mainstream abuseranno delle categorie di destra e sinistra per parlare della Silicon Valley? Candidati, ministri, deputati e giornalisti si impigliano in questa classificazione già nei loro discorsi consueti, aggovigliandosi in parole d’ordine in cui è difficile comprendere cosa distingua questi orientamenti politici e in che modo li si debba identificare. La loro applicazione al sistema di economia e di potere delle Big Tech è ancora più arbitrario, dal momento che i fondatori e i manager delle multinazionali digitali americane, l’ecosistema degli startupper e dei finanziatori, dichiarano da sempre di appartenere ad un’élite dell’umanità in cui valgono regole di valutazione, diritti di decisione e libertà di manovra, che non si trovano nella disponibilità di tutti.

Nello statuto di Facebook e nella lettera agli azionisti al momento del collocamento in Borsa, Mark Zuckerberg chiariva che il fondatore avrebbe conservato un potere di voto maggioritario, in modo indipendente dalla distribuzione delle quote azionarie, perché aveva dimostrato di essere più smart di chiunque altro. La rivendicazione di questo privilegio proviene dall’etica hacker, che distingue gli esseri umani in capaci e incapaci, senza ulteriori sfumature. L’abilità è testimoniata dal talento di trovare una procedura per risolvere qualunque problema – anzi, nell’individuare il procedimento più semplice dal punto di vista dell’implementazione e più esaustivo dal punto di vista dei risultati. Se si considera che questa è la prospettiva con cui viene descritta l’intelligenza dalle parti della Silicon Valley, non sorprende che la progettazione di una macchina capace di vincere le partite di scacchi sia stata interpretata come la via maestra per realizzare l’Intelligenza Artificiale Generale (AGI), raggiungendo la Singolarità, il tipo di intelligenza che si ritrova negli esseri umani.

Il problema di cosa sia smartness è che dipende sempre dalla definizione, e dal contesto culturale che la concepisce. Per gli esponenti più influenti della Silicon Valley coincide con la capacità di escogitare algoritmi: una serie di operazioni governate da una regola che possono essere automatizzate – ingranaggi che, sistemati nei luoghi opportuni, fanno funzionare meglio la macchina-mondo, così com’è. La politica, come riflessione sul potere e come progetto antropologico che immagina una realtà migliore e una società più giusta (qualunque significato si assegni a migliore e a giustizia), non serve: è inefficiente, provoca disagi e rallentamenti. L’universo attuale non ha bisogno di aspirazioni al cambiamento, se non il requisito di un’efficienza maggiore, movimenti più oliati, privilegi che si perpetuano scontrandosi con meno frizioni, un’opinione pubblica convertita in una platea di utenti-clienti.

Smartness

In questa prospettiva, i «ragazzi» che hanno fondato le imprese da cui proviene l’ecosistema di software in cui siamo immersi, possono a buon diritto stimarsi più smart degli amministratori pubblici. Elon Musk ha avviato il progetto Starlink per l’erogazione di connettività a banda larga via satellite nel 2019, e oggi conta su oltre 7.000 satelliti già in orbita, con circa tre milioni di abbonati tra gli utenti civili di tutto il globo – senza contare la capacità di intervenire nelle sorti delle guerre in corso in Ucraina e Israele, o di contribuire al soccorso delle popolazioni alluvionate in Emilia Romagna nel 2023. L’Unione Europea ha varato un piano concorrente solo quattro anni dopo: Iris2 ha debuttato nel marzo 2023, dopo nove mesi di dibattito preliminare, con la previsione di lanciare 170 satelliti entro il 2027. Il progetto però sta già subendo dei rinvii a causa delle tensioni con i partner privati Airbus (tedesca) e Thales (francese).

Altro esempio: dopo l’approvazione dell’AI Act, l’Unione Europea ha allestito un Ufficio per l’applicazione del regolamento, che occuperà 140 persone. Nel piano è previsto un finanziamento distribuito fino al 2027, di 49 milioni di euro complessivi, per progetti che creino un grande modello linguistico generativo open source, capace di federare le aziende e i progetti di ricerca del continente. L’obiettivo è costruire un’alternativa concorrente a ChatGPT, che però OpenAI ha cominciato a progettare nel 2015, su inziativa di quattro fondatori privati (tra cui il solito Elon Musk e Sam Altman, attuale CEO), che hanno investito di tasca loro oltre 1 miliardo di dollari, e che è stata sostenuta con più di dieci miliardi di dollari da Microsoft nell’ultimo round di finanziamento.

L’archetipo randiano

La storia dei successi delle tecnologie ideate e commercializzate in tutto il mondo dalle società della Silicon Valley accredita la convinzione dei loro fondatori di incarnare l’élite più smart del pianeta; l’etica hacker stimola la loro inclinazione a concepire, realizzare e distribuire dispositivi il cui funzionamento viola qualunque normativa a tutela della privacy e della proprietà intellettuale in vigore, con la creazione di mercati che trasformano ambienti, comportamenti, relazioni, corpi umani, in beni di scambio e di consumo; la filosofia di Ayn Rand giustifica sul piano della cultura, dell’ideologia e della politica, il loro atteggiamento come la missione salvifica dell’individuo eccezionale nei confronti della destinazione storica dell’intera specie. La devozione agli insegnamenti della Rand accomuna tutti i leader delle Big Tech in un’unica visione dell’uomo e del mondo, che legittima i loro modelli di business come valide espressioni del loro talento, e censura le reazioni degli organismi di giustizia come il sabotaggio perpetrato dall’ottusità tradizionale e dalla repressione (sprigionata dalla vocazione comunista di ogni istituto statale) sulla libertà di azione dell’imprenditore-eroe. La rivendicazione della libertà di iniziativa al di là dei limiti di qualsiasi sistema legale non avviene solo sul piano del diritto, ma è avvertita come un dovere da parte dei depositari della smartness del pianeta – perché, come osserva il co-fondatore ed ex direttore di Wired Kevin Kelly, il loro coraggio di innovazione porta a compimento un percorso di evoluzione ineluttabile: il tentativo di resistervi conduce ad un ruolo subordinato nelle retrovie del presente, nella parte di chi viene accantonato dalla Storia.

Tecnologia e istituzioni

Riotta e Bonini rilevano che oggi l’espressione culturale della Silicon Valley è il Think Tank del Claremont Institute, dove verrebbe praticato una sorta di culto delle idee di Leo Strauss. Se così fosse, dovremmo riconoscere che il clima filosofico della zona si è molto moderato, e raffinato, rispetto al superomismo tradizionale della Rand. Tuttavia gli editorialisti de la Repubblica leggono questo passaggio come un segnale dello sbandamento verso destra dei rappresentanti delle Big Tech, tra i quali si avvertirebbe sempre di più la frattura tra progressisti e reazionari. L’articolo del 21 settembre di Riotta prepara l’interpretazione politica del premio «Global Citizen Award 2024» dell'Atlantic Council a Giorgia Meloni, consegnato il 24 settembre da Elon Musk in persona. Molti giornali hanno chiosato il significato dell’evento come la celebrazione dell’alleanza tra il gruppo di imprenditori legati a Musk e la destra europea e americana. Il contratto di cui il creatore di Starlink e la Presidente del Consiglio avrebbero parlato nel loro colloquio privato riguarda proprio la gara di appalto per i servizi di connettività dello stato italiano. Tim e OpenFiber si sono aggiudicati i progetti per la copertura con banda larga di tutto il territorio, alimentati dal Pnrr; ma hanno già accumulato ritardi e opposto difficoltà alla concorrenza satellitare, per cui il governo potrebbe decidere di sostituire la loro fornitura via terra con quella dei servizi di Elon Musk. Anche per le operazioni di lancio dei satelliti di Iris2, l’Italia potrebbe appoggiare la collaborazione con SpaceX, grazie alla quale verrebbero superati gli impedimenti sollevati da Airbus e Thales. Il rapporto con le società americane permetterebbe loro di entrare nelle infrastrutture strategiche per la gestione dei servizi civili e persino per quelli di sicurezza nazionale dell’Unione Eruopea.

Già negli anni Ottanta del secolo scorso Ulrich Beck osservava che il ritmo di avanzamento della scienza e della tecnologia è troppo veloce per permettere alle istituzioni pubbliche di vagliare i rischi, di verificare condizioni e conseguenze, di guidarne lo sviluppo: alla politica non resta che constatare e convalidare l’esistente. Il rapporto che si stabilisce tra le figure di Musk e della Meloni non sembra differente: non è l’imprenditore ad essere affiliato alle fila della destra politica, ma è l’innovatore spregiudicato che definisce le prospettive della tecnologia, le possibilità che essa pone in essere, e i criteri per giudicare dispositivi e processi concorrenti. L’Unione Europea è relegata nel ruolo di inseguitore poco efficiente di ciò che Starlink ha già concepito e realizzato: il discorso con cui Giorgia Meloni consacra Elon Musk come campione degli ideali della destra, in fondo, non è che il gesto di validazione dell’esistente da parte delle istituzioni, e l’affiliazione della politica al mondo che l’eroe randiano ha progettato per noi. È la Presidente del Consiglio ad essere arruolata tra i legittimatori della leadership naturale dell’hacker, nelle fila di coloro che percepiscono il bene comune come la soluzione tecnologica di problemi che, o permettono questo tipo di ricomposizione, o non esistono.

Come ha dichiarato Sam Altman alla fine di luglio 2024, anche la crisi delle disparità sociali ha una soluzione che deve essere gestita dalle aziende tecnologiche, con la distribuzione di un reddito base universale a tutti coloro che stanno per perdere il lavoro: a causa della rivoluzione imminente dell’Intelligenza Artificiale Generale, secondo il CEO di OpenAI, questa sarà la situazione in cui a breve verseremo quasi tutti. Sono quasi due decenni che con le piattaforme digitali, Facebook e Google in primis, l’intero mondo Occidentale si è trasformato in un enorme esperimento sociale a cielo aperto, controllato e mirato solo da chi possiede le chiavi del software (purtroppo, molto spesso, nemmeno troppo in modo consapevole).

Come al tavolo dell’Atlantic Council, Giorgia Meloni siede alla destra di Elon Musk, alla corte dei re della tecnologia politica.

 

 

BIBLIOGRAFIA

Ulrich Beck, Una società del rischio. Verso una seconda modernità, trad. it. a cura di W. Privitera, Carocci Editore, Roma, 2005.

Paresh Dave, Here’s What Happens When You Give People Free Money, «Wired», 22 luglio 2024.

Kevin Kelly, Quello che vuole la tecnologia, Codice Edizioni, Milano 2010.

Gianni Riotta, Carlo Bonini, Silicon Valley, in fondo a destra, «la Repubblica», 21 settembre 2024.


La fine del futuro - I.A. e potere di predizione

1. Terapie del discorso

«La predizione è difficile, specie se riguarda il futuro», è un’arguzia attribuita al fisico Niels Bohr, ad altri fisici, ma anche a letterati come Mark Twain. La riflessione che Gerd Gigerenzer elabora nel libro Perché l’intelligenza umana batte ancora gli algoritmi riguarda l’efficacia dei sistemi di intelligenza artificiale e i costi sociali che siamo disposti a sostenere per svilupparli e utilizzarli. Questo compito si traduce in due strategie di terapia del pensiero: una è rivolta al modo in cui percepiamo i risultati dei software, l’altra alla comprensione delle policy dell’infosfera, al fine di comprendere i modi e i fini della razzia di dati personali che alimenta le banche dati delle AI. 

Il titolo del saggio sembra suggerire che sia in corso un’aggressione, o almeno una sfida, da parte delle macchine. Lo sviluppo dell’argomentazione invece non segue questa traccia, perché sotto la lente dell’analisi finiscono le promesse del marketing (e le attese del pubblico) sulle potenzialità dei software, senza che a questi venga attribuita alcuna intenzione di competizione: unici protagonisti sono i discorsi che gli uomini si scambiano sui dispositivi digitali. Gli interventi di terapia sono condotti anzitutto sul nostro linguaggio e sull’archivio di enunciati con cui vengono descritti i servizi digitali: si sarebbe potuto scegliere come titolo del libro Perché si può sempre tentare di curare l’intelligenza umana dalla propria stupidità, ma in questo modo sarebbe mancata l’evocazione del Golem elettronico, che nelle vetrine delle librerie esercita sempre il suo (stupido) fascino.

2. Prevedere il passato

Gigerenzer illustra al lettore una galleria di attività realizzate dall’AI, dalla selezione dei partner sessuali alla guida autonoma, dalla traduzione automatica alla polizia predittiva, dal riconoscimento dei volti alla profilazione marketing. In tutte queste pratiche le narrazioni dei produttori (spesso poi rilanciate dai media istituzionali) tendono a esagerare i risultati raggiunti dal software sulla base di una costruzione argomentativa che viene etichettata «fallacia del cecchino texano». Immaginiamo un cowboy che spari da grande distanza sulla parete del fienile, e vada poi a disegnare i cerchi del bersaglio attorno all’area in cui si raggruppa buona parte dei fori che ha prodotto nel muro. L’adattamento dell’obiettivo ai buchi dei proiettili comporta un’ammirazione nei confronti della mira del cecchino che è molto inferiore a quella che avrebbe conquistato se i fori si fossero concentrati dentro il perimetro di un bersaglio già tracciato. Quello che accade nella descrizione delle prestazioni delle macchine è molto simile: i risultati che vengono divulgati e commentati riguardano la capacità del software di adeguare la capacità predittiva a fatti avvenuti in passato: gli eventi trascorsi sono gli unici di cui si conoscono già gli effetti, sui quali può essere condotto il training delle AI, e su cui può essere misurata la loro efficacia. 

I modelli di calcolo riuscirebbero però garantire la replica della loro accuratezza profetica sui casi futuri soltanto se si potesse verificare che gli ambiti delle relazioni umane, quello dei comportamenti individuali, quello della storia, persino quello del traffico stradale, obbedissero sempre agli stessi parametri di decorso. Se l’amore tra le persone scoccasse sempre per le stesse ragioni, se il piano di una rapina o di un omicidio derivasse sempre dagli stessi moventi, se la circolazione di mezzi e pedoni ripetesse sempre le stesse traiettorie e non violasse mai il codice – il grado di successo registrato dalle I.A. in fase di test sarebbe una promessa affidabile per il futuro. Ma nelle situazioni di complessità, quali sono quelle sviluppate dalle azioni degli uomini, l’adattamento di un modello agli effetti del passato tramite la selezione e l’interpretazione dei parametri opportuni, e il talento profetico per il futuro, non si sovrappongono con alcuna ragionevole certezza. Il mondo dovrebbe essere di una stabilità (e di una noia) meccanica per corrispondere a requisiti simili; invece la realtà sociale continua a essere mutevole, e la predizione dei software molto meno affidabile di quanto venga propagandato. 

I giochi come gli scacchi, la dama e il Go, inquadrano alcune condizioni ideali per il miglior funzionamento dell’I.A.. Le situazioni cambiano sempre, ma l’ontologia dentro i confini delle partite è stabile come quella dei pianeti e delle stelle, di cui si calcolano le orbite con determinismo assoluto: le dimensioni e la forma della plancia, il valore dei pezzi, le regole di movimento, le finalità degli spostamenti, rimangono costanti. Non ci sono bambini che attraversano la scacchiera all’improvviso, alfieri caratteriali che decidono di muovere in verticale, regine con appetiti segreti che mangiano il proprio re. Per decenni si è ritenuto che l’abilità nel giocare a scacchi esprimesse l’essenza dell’intelligenza, ma le prove empiriche sembrano smentire questo assunto: le doti per vincere una partita contro il campione del mondo non permetterebbero alla macchina di sopravvivere nel traffico delle vie di Milano – o di assicurare l’incolumità dei milanesi. Una delle soluzioni del problema potrebbe essere quella di riservare le strade alla sola circolazione delle automobili guidate da I.A., ma non sembra un’ipotesi percorribile a breve. Le attese non migliorano quando si passa all’assortimento di coppie con lo scopo che non divorzino entro un anno, o al riconoscimento di volti sospetti senza il rischio di arrestare innocui passanti – o ancora peggio, la divinazione di profili psicologici per le sentenze di libertà sulla parola (o per la personalizzazione dei messaggi marketing).

3. Euristiche e stabilità del mondo

Gigerenzer insiste sull’opportunità di confidare in software costruiti su euristiche trasparenti. Il successo delle I.A. è stato sostenuto da due pregiudizi che ciascuno di noi coltiva in favore della complessità e dell’opacità, visto che ci sentiamo più sicuri dei risultati di una macchina complicata e incomprensibile. Invece una «lista di decisione» con poche regole permette di ottenere predizioni che, nel confronto empirico, funzionano meglio delle I.A.: Angelino et al. (2018) mostra che è quanto che accade con i tre parametri e le tre clausole del software CORELS, in grado di prevedere se l’imputato sarà arrestato nei prossimi due anni con un’accuratezza del 65%, la stessa dell’I.A. COMPAS acquistata dal governo americano, che calcola innumerevoli combinatorie su 137 parametri.

L’autorità di Kahnemann ha squalificato le euristiche equiparandole al «pensiero veloce», che tende ad affrettarsi verso soluzioni inquinate da errori e pregiudizi, pur di trovare un criterio per la condotta nell’immediatezza della situazione. Gigerenzer invece consacra il repertorio delle nostre regole pratiche come una «cassetta degli attrezzi» che ha superato la selezione dell’ambiente in cui viviamo, ed è quindi adeguata alla razionalità dei compiti che ci attendono. Una delle sue missioni più importanti è cementare la stabilità del mondo, che le intelligenze artificiali faticano a evincere tra i molti pattern di relazioni che si allacciano nei dati con cui si svolge il loro training. Le reti neurali peraltro amano nascondersi, come la natura di Eraclito, e dopo poche generazioni di addestramento diventa impossibile anche ai loro sviluppatori comprendere quali siano i segnali intercettati ed elaborati: si può scoprire solo con test empirici sugli output se il software ha imparato a riconoscere i tank russi, o se li distingue da quelli americani  perché nel dataset delle foto per caso il cielo sullo sfondo dei mezzi corazzati slavi è sempre nuvoloso mentre è soleggiato negli scatti USA. Ancora più difficile è spiegare perché l’introduzione di pochi pixel colorati converta la percezione di uno scuolabus in quella di uno struzzo. Se il mondo deve essere noiosamente stabile, anche per il bene dei bambini che viaggiano sugli scuolabus, almeno che la noia sia quella dei nostri pregiudizi, e non quella di un mondo possibile sorteggiato a caso.

 

Bibliografia

Angelino, E., Larus-Stone, N., Alabi, D., Seltzer, M., Rudin, C., Learning certifiably optimal rule lists for categorical data, «Journal of Machine Learning Research», n. 18, 2018, pp. 1-78.

Gigerenzer, Gerd, How to Stay Smart in a Smart World Why Human Intelligence Still Beats Algorithms, Penguin, New York 2022.

Kahnemann, Daniel, Thinking, Fast and Slow, Farrar, Straus and Giroux, New York 2011


Intelligenza artificiale e creatività - I punti di vista di tre addetti ai lavori

Ancora solo pochi anni fa, tutti sapevamo che nei laboratori della Silicon Valley – ma non solo, anche in laboratori di Paesi meno trasparenti – si lavorava a forme di intelligenza artificiale; ma in fondo, se non si faceva parte della schiera degli addetti ai lavori, tutto questo tema rimaneva confinato come una questione ancora lontana e più adatta alle fiction.

E invece, come una bomba, nel dopo pandemia l’AI è esplosa nelle vite di tutti noi – lasciando i più attoniti e frastornati – e di certo andrà a cambiare professioni e modi di lavorare che abbiamo sempre ritenuto di esclusiva pertinenza dell’intelligenza umana.

L’intelligenza artificiale non si limita a processare a velocità inconcepibili da mente umana miliardi di dati, con l’AI si possono creare immagini, testi. Insomma, sconfinare nei territori di pertinenza dell’arte, anche se è difficile definire in modo certo e univoco cosa sia l’arte.

Abbiamo quindi pensato di chiedere a tre persone che fanno parte del gruppo di Controversie e che usano l’intelligenza artificiale per creare immagini, quale sia il loro rapporto con la “macchina” e con il processo creativo.

La prima specifica domanda fatta è la seguente: Creare un’immagine con l’AI è un atto creativo?

Vediamo le risposte…

 

Matteo Donolato – Laureando in Scienze Filosofiche, professore e grafico di Controversie

Credo proprio di sì: dal punto di vista umano, la generazione di immagini con l’Intelligenza Artificiale non è un atto così passivo come forse potremmo pensare, in quanto rappresenta un vero lavoro artistico e creativo. Inoltre, in questa interazione tra macchina e persona in carne e ossa non c’è una protagonista assoluta, ma entrambe collaborano per il raggiungimento dell’obiettivo finale: le due intelligenze, dunque, operano insieme, senza una preponderanza di una sull’altra. Tuttavia, a prima vista si può ritenere che l’I.A. sia la vera “artista”, e si potrebbe inoltre immaginare che esegua tutto il lavoro, con l’essere umano che semplicemente impartisce dei comandi e aspetta che essa “faccia la magia”. Ragionando così, sottovalutiamo (e di molto) il nostro potere di intervento, concedendo tutto il credito della prestazione creativa alla macchina; le cose, in realtà, non sono così semplici, in quanto è l’artista umano a dettare le regole del gioco. Infatti, questi stabilisce tutta una serie di fattori molto importanti come, per esempio, il comando iniziale (o prompt), lo stile che avrà la sessione immagini, il tempo dedicato a essa, il numero di tentativi, le eventuali variazioni o i dettagli che tali rappresentazioni devono possedere, con la macchina che esegue. Alla fine del lavoro, quando l’I.A. avrà realizzato le proprie opere, è l’artista umano che garantisce l’adesione di essa a ciò che si era stabilito nel prompt; inoltre, è nuovamente lui (o lei) a decretare se il risultato ottenuto sia soddisfacente, in linea con le volontà iniziali. Insomma, l’intelligenza umana è la prima e ultima arbitra dell’immagine, colei che inizia e orienta la sessione di lavoro e che, alla fine, giudica l’operato dell’I.A.; siamo noi, quindi, a tessere i fili, a stabilire la qualità artistica e creativa del prodotto restituito dalla macchina. Quest’ultima costituisce, pertanto, il mezzo attraverso cui la nostra creatività e la nostra immaginazione si possono esprimere. In conclusione, l’I.A. rappresenta uno strumento, come tanti altri, a supporto dell’intelligenza e della fantasia umane...

-----------------------------

Paolo Bottazzini – Epistemologo, professionista del settore dei media digitali ed esperto di Intelligenza Artificiale

Credo sia legittimo attribuire un riconoscimento di creatività alla generazione delle immagini con IA in ugual misura a quanta ne è stata riconosciuta agli artisti degli ultimi decenni. Il ruolo dell'artista, come è stato incarnato da personaggi importanti come Hirst o Kapoor, consiste nell'elaborazione del modello concettuale dell'opera, non nella sua realizzazione pratica, che per lo più è affidata ad operatori artigianali specializzati. Anche la produzione con l'IA richiede una gestazione concettuale che prende corpo nel prompt da cui l'attività dell'IA viene innescata. Si potrebbe discutere del grado di precisione cui arriva il progetto degli artisti "tradizionali" e quello che è incluso nelle regole che compongono il prompt: ma credo sarebbe difficile stabilire fino a che punto la differenza sia qualitativa e non semplicemente quantitativa. Più interessante sarebbe valutare se il risultato dell'operazione condotta con l'IA sia arte, al di là dei meriti di creatività: anche i pubblicitari si etichettano come "creativi", e di certo lo possono essere - però difficilmente saremmo disposti a laureare tutti gli annunci pubblicitari come "arte".

-----------------------------

Diego Randazzo – Artista visivo

Molto semplicemente: dipende.

Penso che anche rimanendo ancorati alla tradizione, addentrandosi nella miriade di produzioni odierne, realizzate con le canoniche tecniche artistiche (la pittura, la scultura, la fotografia, etc.) sia piuttosto difficile trovare “l’opera d’arte”. Semplificando, ma non troppo, oggi anche le risultanze di tecniche storicizzate spesso si avvicinano più alle forme della ‘tappezzeria', o anonimo complemento d’arredo, che al manufatto artistico, testimone di senso.

Il semplice atto creativo non ha nulla a che fare con l’elaborazione e produzione artistica, se non ambisce a costruire un percorso di senso e di ricerca progettuale.

Questa piccola premessa vuole essere una provocazione per far riflettere su un principio ancora oggi saldo e indissolubile: la tecnica e lo strumento in sé sono ‘oggetti monchi’, se privati di un valore che solo il radicamento concettuale nella contemporaneità può attribuirgli. Non mi piace snocciolare citazioni, ma credo che Enzo Mari, quando nel 2012 sentenziava ‘’Non esiste oggi parola più oscena e più malsana della parola creatività. Si produce il nulla, la merda con la parola creatività’’ aveva plasticamente intercettato certe tendenze che, di lì a poco, avrebbero preso il sopravvento. La creatività, intesa come paradigma vincente e performante per risolvere ogni questione di non facile risoluzione.

Sgombrato quindi il campo dalle generalizzazioni, su cosa sia o non sia un atto di creatività, si può sicuramente affermare che l’IA sia uno strumento potentissimo e, se usato finemente, con intelligenza e cura, può condurre alla creazione di un’opera d’arte.

Ma cerchiamo da subito di fare dei distinguo: l’IA deve rimanere uno strumento e non una finalità. Nello specifico - e questa è una mia personalissima teoria - il creativo/artista di turno non può pensare di fermarsi, dopo qualche interrogazione, all’output grezzo generato dall’IA, convincendosi di aver dato vita a qualcosa di unico, affascinante e interessante.

Come avveniva già nella tradizione classica della pittura, le influenze e lo studio sono fondamentali; una volta si viaggiava, gli artisti si incontravano, si contaminavano scambiandosi tecniche e saperi, mentre oggi si può attingere ad un patrimonio di dati sconfinato in rete. Il rischio omologazione è altissimo, perciò è fondamentale conoscere e confrontarsi con il passato, il presente ed immaginare un possibile futuro che tenga insieme tutto. Quindi passato, presente e futuro sono i fondamentali per poter imbastire una progettualità, non finalizzata a costruire ‘immagini nitidissime di mondi impossibili e surreali’ - come vediamo nel repertorio più di tendenza nella generazione di immagini con l’IA - bensì volta a costruire delle riflessioni sui processi narrativi e sulla storia delle immagini stesse.

E chi è che oggi può fare tutto questo con consapevolezza, senza farsi ingabbiare dall’effetto decorativo, dal rischio tappezzeria? Senza ombra di dubbio è l’Autore, l’unica figura che può padroneggiare questi strumenti, mettendoli al servizio della propria poetica.

Riprendo brevemente il tema sull’autorialità tratto da una precedente intervista rilasciata sempre su questo blog:

‘’Autore è colui che interroga e, soprattutto, rielabora e reinterpreta secondo la propria attitudine il risultato dellIntelligenza artificiale. La macchina fa le veci del ricercatore: mette insieme e fonde tantissimi dati e, in ultima istanza, restituisce un abstract grezzo. Quellabstract non può rimanere tale. Deve essere decostruito e manipolato dallartista per assurgere ad opera darte. LIA, come processo generativo, è quella cosa che sta in mezzo, tra il pensiero, lidea iniziale e lopera finale. Tutto qui. Non è semplificazione, è come dovrebbe essere inteso il ruolo dellintelligenza artificiale nella creazione artistica.’’

Quest’opera dal titolo 24 intime stanze è un esempio pratico della mia idea di utilizzo di Ai in campo artistico e soprattutto della necessità di far emergere una concatenazione virtuosa tra passato, presente e futuro: dall’utilizzo della cianotipia (antica tecnica di stampa a contatto) e la pittura ad olio, all’uso dell’I.A. per elaborare le referenze del soggetto protagonista.

24 intime stanze / dalla serie ‘Originali riproduzioni di nuovi mondi’ (Opera finalista al Combat Prize 2024, nella sezione pittura), Cianotipia e pittura a olio su tela grezza, 120x100x2 cm, 2024

----------------------

Non c’è dubbio che queste tre risposte siano estremamente stimolanti e che vi si possa rintracciare un minimo comune denominatore che le lega: l’idea che l’IA sia solo un mezzo, per quanto potente, ma che l’atto creativo resti saldamente appannaggio di colui che ha nel suo animo (umano) l’obiettivo concettuale.

Ottenere un risultato con l’IA si delinea, qui, come un vero atto creativo, che, però e ovviamente, non è detto che si trasformi in arte, ovvero in una manifestazione creativa in grado di dare emozione universale.

In termini più concreti: molti di noi, forse, potrebbero avere “nella testa” La notte stellata di Van Gogh (giusto per fare un esempio), ma la differenza tra la grandissima maggioranza di noi e il genio olandese è che non sapremmo neppure lontanamente “mettere a terra” questa intuizione.

Con l’IA, a forza di istruzioni che la macchina esegue, potremmo invece, avvicinarci al risultato di Vincent?

Se fosse così, in che modo cambierebbe l’essenza stessa dell’artista?