AI Act – La prima legislazione europea sull’Intelligenza Artificiale

Anno 45 a.C.: Giulio Cesare legifera sulla circolazione dei carri nei centri abitati – dall’alba alla metà del pomeriggio[1]. L’obiettivo è di snellire il traffico urbano, ridurre la sporcizia (sterco dei cavalli), l’odore e il rumore nelle strade durante il giorno (non è cambiato nulla, mi pare).

Anno 1865: in Gran Bretagna viene promulgato il Red Flag Act[2] che impone alle autovetture (self-propelled vehicles, la tassonomia è importante: distingue dalle vetture a cavalli) di avere un equipaggio di almeno 3 persone, di non superare la velocità massima di 4 miglia orarie sulle strade fuori città e di 2 miglia orarie in città, di essere precedute a 60 yarde da un uomo a piedi con una bandiera rossa che ne segnali l’arrivo, regoli il passaggio di carrozze e cavalli e, infine, faccia fermare il veicolo a motore in caso di necessità.

È una normativa stringente, finalizzata – oltre che a proteggere il lavoro dei vetturini pubblici – a garantire la sicurezza delle persone contro la minaccia del trasporto privato "self-propelled".

Anno 1903: entra in vigore il primo codice della strada organico a New York, a fronte della velocità che possono raggiungere senza sforzo, “effortless”, gli autoveicoli lungo le strade cittadine.

Anno 1929: con poco meno di 250.000 circolanti su tutto il territorio nazionale – nasce il Codice della Strada italiano, che vedrà alcune riedizioni e ammodernamenti, nel 1992 e quest’anno.

Queste normative hanno tutte come principale finalità il contenimento dei rischi per guidatori, passeggeri, passanti e cose a fronte del pericolo generato da una tecnologia: i mezzi di trasporto su strada.

E hanno influenzato lo sviluppo della tecnologia “automobile”, così come la tecnologia “automobile" ha orientato il nostro modo di vedere la realtà e le nostre dinamiche sociali, produttive, economiche - come rilevava Bruno Latour con la sua teoria dei Quasi Oggetti [3]

9 dicembre 2023, due giorni fa: l’Unione Europea – primo organo istituzionale al mondo a farlo – ha approvato l’AI ACT, piattaforma normativa sull’utilizzo delle tecnologie di intelligenza artificiale. [4]

“Un quadro giuridico unico per lo sviluppo dell'intelligenza artificiale di cui ci si può fidare. E per la sicurezza e i diritti fondamentali delle persone e delle imprese.”, dichiara Ursula Va Der Leyen [4].

L’obiettivo di questa legge è “garantire che l'IA protegga i diritti fondamentali, la democrazia, lo Stato di diritto e la sostenibilità ambientale”, permettendo uno sviluppo efficace ma “sicuro” delle innovazioni.

Tra le norme “in negativo” si evidenziano:

“i sistemi di categorizzazione biometrica che utilizzano caratteristiche sensibili, come le convinzioni politiche, religiose e la razza; la raccolta non mirata di immagini del volto da Internet o da filmati di telecamere a circuito chiuso per creare database di riconoscimento facciale; il riconoscimento delle emozioni sul posto di lavoro e nelle scuole;  il social scoring; le tecniche manipolative; l'IA usata per sfruttare le vulnerabilità delle persone.” [4]

In positivo, invece, vigerà l’obbligo alla “valutazione dell'impatto sui diritti fondamentali.” [4] Delle applicazioni di IA.

Il punto critico che ha reso complessa la negoziazione è l’utilizzo delle tecnologie di IA da parte delle forze dell’ordine, soprattutto per il riconoscimento biometrico e in tempo reale e la polizia predittiva.

“Alla fine i negoziatori hanno concordato una serie di salvaguardie e ristrette eccezioni per l'uso di sistemi di identificazione biometrica (RBI) in spazi accessibili al pubblico ai fini di applicazione della legge, previa autorizzazione giudiziaria e per elenchi di reati rigorosamente definiti” [4]

Al di là delle specifiche indicazioni normative, va notato che:

  • Le istituzioni comunitarie europee hanno adottato un punto di vista molto concreto sull’IA, in cui prevale il suo carattere di tecnologia, con usi ed effetti privati e pubblici
  • In quanto tecnologia, come accadde per gli autoveicoli dal 1865 in poi, ne ha considerato i rischi per i soggetti che rappresenta: popolazione e tessuto produttivo, e ha – conseguentemente - imposto delle misure di controllo e di contenimento di questi rischi.
  • Nell’ambito dei rischi da contenere, sono stati privilegiati quelli che riguardano la discriminazione, l’invasione del territorio emotivo personale, la manipolazione dei comportamenti e i danni fisici e psicologici agli individui.
  • Inoltre, è stata posta una particolare attenzione sulle tecnologie IA definite “ad alto impatto”[5], che includono i sistemi di IA generale-generativa, come Chat GPT 3.5, per i quali è obbligatoria “l’applicazione ex ante delle regole su sicurezza informatica, trasparenza dei processi di addestramento e condivisione della documentazione tecnica prima di arrivare sul mercato”. [4]
    In poche parole, i produttori dovranno rendere pubblico come viene addestrato il sistema e su quali basi!

 

L’IA, con questa normativa, viene assimilata a molte altre tecnologie, anche dal punto di vista del legislatore, perde una parte dell'aura di mito contemporaneo,
viene collocata nella sua “rete di relazioni, che si estende ben oltre la sua forma”[7]
e – dopo la glorificazione dei potenziali vantaggi già avvenuta in molte sedi istituzionali [6] -
i rischi che genera vengono affrontati in modo concreto
come accade, almeno dal 45 a.C., per tutte le nuove tecnologie.

 

NOTE

[1] Lex Iulia Municipalis, https://www.archeologiaviva.it/4055/rumore-e-traffico-in-citta-un-problema-di-sempre/#:~:text=Gi%C3%A0%20nel%2045%20a.C.%20Giulio,circa%20le%20cinque%20del%20pomeriggio).

[2] https://vlex.co.uk/vid/locomotives-act-1865-808255757

[3] Bruno Latour, Non siamo mai stati moderni, Eleuthera, 2018

[4] https://www.rainews.it/articoli/2023/12/intesa-ue-per-la-legge-su-intelligenza-artificiale-breton-momento-storico-97d8b5ca-141f-4284-a6fb-434b9871ee01.html

[5] Categorizzate per potenza di elaborazione almeno pari a 10^25 FLOPs (floating point operations per second, un criterio tutto sommato più adeguato di quello proposto precedentemente sul fatturato dell’impresa.

[6] Si veda il mio post del 24 ottobre 2023, Etica, morale e intelligenza artificiale, https://www.controversie.blog/etica-intelligenza-artificiale-un-approccio-analitico-e-normativo/

[7] Bruno Latour, Non siamo mai stati moderni, Eleuthera, 2018


OpenAI e Sam Altman - Anatomia di un Qomplotto (prima parte)

Si è molto parlato (nelle scorse settimane) del licenziamento di Sam Altman, amministratore delegato di OpenAI, un laboratorio di ricerca sull'intelligenza artificiale costituito dalla società no-profit OpenAI, Inc. e dalla sua sussidiaria for-profit OpenAI, L.P. L'obiettivo dichiarato della sua ricerca sarebbe promuovere e sviluppare un'intelligenza artificiale amichevole (friendly AI) in modo che l'umanità possa trarne beneficio.

Cerchiamo di ricostruire la vicenda.

1. AMERICAN HISTORY Q

Nella cultura americana contemporanea la Q non è una lettera come le altre, perché esercita una forza mitopoietica di cui il resto dell’alfabeto è privo.

Il 6 gennaio 2021 coloro che assaltano la sede del Congresso a Washington brandiscono bandiere con la Q di QAnon: la teoria del complotto universale che per milioni di persone negli USA (e nel resto del mondo) ha trasformato Donald Trump in un supereroe da fumetto contro i poteri occulti del deep state.

Il 22 novembre 2023 la «Reuters» spiega che il licenziamento di Sam Altman da parte del consiglio di amministrazione di OpenAI sarebbe stato giustificato da una lettera di delazione[1], con cui alcuni dipendenti dell’azienda hanno illustrato ai membri del board i pericoli per l’umanità in agguato nelle prossime versioni di ChatGPT.

Il progetto Q* ha appena superato con successo i primi test e si prepara a liberare nel mondo un’AGI – un’intelligenza artificiale generale – armata di una competenza letteraria vasta quanto l’universo, che include le storie sul Golem e sulle altre hybris del genere Frankenstein.

L’assalto al Campidoglio non ha avviato la guerra civile; la minaccia che dai progressi dei software di OpenAI si inneschi l’«esplosione» di un’intelligena artificiale destinata a sostituire l’uomo nel dominio della Terra confida su una probabilità nulla di avverarsi.

La destituzione di Altman, avvenuta il 18 novembre, è un evento simile ad un colpo di stato; anche più di quello tentato dallo Sciamano e dai suoi compagni al Campidoglio nel gennaio 2021, se si considera che OpenAI ha beneficiato di un investimento di 13 miliardi di dollari da parte di Microsoft[2], equivalente al doppio del PIL della Somalia, superiore a quello di un’altra decina di nazioni africane, e pari a quello dell’Armenia, del Madagascar e della Macedonia.

Il finanziamento è in larga parte da ascrivere al rapporto di fiducia tra Kevin Scott, CTO di Microsoft, e Altman; la sua cacciata non è stata preceduta da alcun segnale di crisi, e si è consumata in una fase di espansione e di prosperità dell’azienda.

ChatGPT 3.5 si è laureato nel gennaio 2023 come il servizio internet con la crescita di utenti più veloce di sempre: in soli due mesi dal lancio ha raggiunto la quota di 100 milioni di utenti attivi[3], bruciando in questa competizione il risultato di TikTok (nove mesi) e quello di Instagram (due anni e mezzo).

Il trionfo ha imposto il tema dell’intelligenza artificiale e delle reti neurali all’attenzione del pubblico di massa, ma ha anche riconsegnato a Microsoft una posizione di primato tra le protagoniste dell’innovazione tecnologica.

Il motore di ChatGPT è stato integrato in Bing, e il suo inserimento strutturale nei prodotti di Office (con il marchio «Copilot») è in fase di sperimentazione avanzata.

Trasformerà il rapporto dei colletti bianchi di tutto il pianeta con i loro computer, convertendo in automatico poche idee scarabocchiate con un elenco puntato in un documento di cinque pagine, o in una presentazione Power Point attrezzata di tutto punto; per converso, sarà capace di tradurre il vaniloquio di ore di riunione in un report agile da condividere via mail, e gestirà le operazioni di controllo delle entrate e delle uscite su Excel.

Tuttavia, i burocrati diventeranno ancora più fannulloni, gli impiegati ancora più analfabeti, e Microsoft gioirà sulle disgrazie umane con un valore di mercato anche più immenso di quello attuale.

Quindi siamo di fronte a un caso di «Q di Qomplotto», per usare un’espressione presa in prestito dall’analisi del caso Qanon elaborata da Wu Ming 1 (2023)?

 

2. INTELLETTUALI E IMPRENDITORI

La stupidità spiega molti più misteri del retropensiero, e persino più della serietà del giornalismo di inchiesta.

Potrà sembrare un paradosso, ma lo scenario dei profitti smisurati e la prospettiva di una nuova forma di dominazione culturale sulla produzione dei contenuti business, sono all’origine del colpo di mano del CDA contro Altman.

La governance di OpenAI presentava fino al 18 novembre una configurazione ereditata dalla missione originaria della società, fondata sulla strategia «open source» di Altman, Elon Musk e Peter Thiel[4]: il metodo per assicurare un progetto di intelligenza artificiale a beneficio dell’umanità, e priva di rischi per il futuro, coincide con lo sviluppo di modelli accessibili a tutti, quindi sottoposti al controllo dell’intera comunità degli esperti. Anche dopo l’uscita di Musk dal consorzio, e la maggiore integrazione in Microsoft dal 2020, il comparto di OpenAI destinato alla produzione di servizi for-profit è rimasto sottoposto allo scrutinio di un consiglio di amministrazione nominato dalla componente no-profit.

Nel novembre 2023 il board annoverava oltre ad Altman altri quattro personaggi: Helen Toner, Ilya Sutskever, Adam D'Angelo, Tasha McCauley. Toner ha maturato una carriera di primo piano nell’ambito delle organizzazioni umanitarie grazie al suo coinvolgimento nel movimento accademico dell’«altruismo efficace»[5], che si richiama alla lezione dei filosofi morali Peter Singer, Toby Ord, William MacAskill, e che esercita un’influenza di ampio respiro sull’upper class americana.

Dai temi della beneficienza e del miglioramento delle condizioni di vita nei Paesi più poveri del pianeta, questa corrente di pensiero è passata alla riflessione sulle professioni meritevoli di essere intraprese, e si è estesa ai «rischi esistenziali» e ai «rischi di catastrofe globale»; con una forte vocazione di futurologia che oscilla tra parossismo e parodia (involontaria) del «principio responsabilità» di Hans Jonas (1979).

In questo contesto viene intercettato l’insegnamento di Nick Bostrom (2014), che arruola tra i propri fedeli anche McCauley e Sustkever, nonostante la loro formazione tecnica di altissimo livello, e li allea alle preoccupazioni di Toner. Le tesi di Bostrom sulle «superintelligenze» sono molto famose, anche grazie alle metafore che ha inventato per rendere più persuasiva la distopia che alimenta la sua ansia: mancano pochi anni all’esplosione delle capacità di raziocinio delle intelligenze artificiali, che travolgeranno quelle naturali per velocità, vastità e precisione di intuizione, quantità di memoria, organizzazione e controllo; ma l’attivazione delle loro facoltà produrrà più conseguenze rovinose per l’umanità rispetto a quelle utili.

Qualunque sia lo scopo cui sarà indirizzata, ciascuna superintelligenza tenderà in modo necessario a perseguire comportamenti utili per la propria sopravvivenza e per il raggiungimento degli obiettivi che compongono la sua ragion d’essere: in primo luogo attraverso l’affinamento della potenza di calcolo e della raccolta di risorse necessarie. Di conseguenza, la macchina cui sarà assegnato, per esempio, il compito di creare graffette, agirà in modo da ottimizzare al massimo l’ambiente a questo scopo, riducendo la Terra intera a un deposito di materiale lavorabile e di graffette già confezionate – genere umano incluso.

L’iperbole di Bostrom potrebbe implicare una critica al modello liberistico della visione del mondo, in cui la razionalità coincide con una subordinazione degli elementi della natura e del lavoro dell’uomo (tutti convertiti in risorse) agli obiettivi di produzione, senza alcun interesse per l’orizzonte di senso in cui il processo dovrebbe essere calato. Questo genere di valutazione può incrociare l’allarme per le conseguenze che l’automazione introdotta dal Copilota nella suite Office potrà determinare nelle facoltà di riflessione, di elaborazione strategica, persino di articolazione linguistica, di gran parte degli impiegati e dei dirigenti del mondo.

Di certo si può paventare una scivolata nel processo di proletarizzazione tecnologica degli individui (di tutte le fasce sociali) impegnati in una professione di tipo intellettuale, almeno nei termini di Stiegler (2012). Ma la furia distopica di Bostrom non si placa a così poco prezzo: brama molto di più di una situazione critica che potrebbe suscitare un dibattito serio; esige che la conversione degli esseri umani nei cervelli in una vasca di Putnam (1981) diventi un canovaccio plausibile, il paradigma delle minacce reali.

Per il CDA di OpenAI il passaggio dal Copilota alle graffette è fin troppo breve; tanto più che Microsoft ha già attentato alla pazienza dell’umanità con Clippy dal 1996 al 2007, il mostruoso assistente di Office a forma di graffetta antropomorfa. È bastato un incidente qualunque nel rapporto tra Altman e Toner per innescare i cinque giorni di crisi che negli uffici di Seattle sono stati battezzati, senza alcun aiuto di copywriting da parte di ChatGPT, il Turkey-Shoot Clusterfuck di OpenAI.

Appena annunciata la notizia della deposizione di Altman, la piattaforma Reddit è stata presa d’assalto da un tumulto di commenti[6] e tentativi di interpretazione del colpo di mano ai vertici di OpenAI, molti dei quali in chiave di Qomplotto. Q* è davvero la culla dell’AI che ci trasformerà tutti in graffette? È il Clippy odioso che abita dentro ciascuno di noi, la nostra anima di silicio?

 

Lo sapremo a breve, con un nuovo post.

 

NOTE

[1] https://www.reuters.com/technology/sam-altmans-ouster-openai-was-precipitated-by-letter-board-about-ai-breakthrough-2023-11-22/

[2] https://www.newyorker.com/magazine/2023/12/11/the-inside-story-of-microsofts-partnership-with-openai

[3] https://www.reuters.com/technology/chatgpt-sets-record-fastest-growing-user-base-analyst-note-2023-02-01/

[4] https://www.nytimes.com/2015/12/12/science/artificial-intelligence-research-center-is-founded-by-silicon-valley-investors.html

[5] https://it.wikipedia.org/wiki/Altruismo_efficace

[6] https://www.reddit.com/r/singularity/comments/181oe7i/openai_made_an_ai_breakthrough_before_altman/?rdt=54043


Sarà mai possibile? - Auto a guida autonoma tra immaginazione e realtà

di Sara Sbaragli (CNR-ISTC), Vincenzo Punzo (UNINA), Giulia Vannucci (CNR-ISTC) e Andrea Saltelli (CNR-ISTC)

Un giorno, in un futuro non troppo lontano, tutto il traffico potrebbe essere guidato dall’intelligenza artificiale con gli esseri umani che leggono le notizie o diversamente impegnati nel comfort delle loro auto o, meglio, nell’agio di un veicolo condiviso.

Importanti ostacoli culturali, tecnologici e normativi dovranno essere superati per ottenere un traffico obbligatorio basato esclusivamente sull’intelligenza artificiale con gli esseri umani confinati a guidare in località speciali. Nel frattempo, il futuro offrirà probabilmente situazioni in cui l’intelligenza artificiale e gli esseri umani coesisteranno nello stesso ambiente di guida.

Sarà mai possibile? Coesisteranno auto guidate dall’uomo e dall’intelligenza artificiale sulla stessa strada? Ovunque nel mondo, da Berkeley a Napoli?

Il problema di questa convivenza sta nella varietà delle culture e degli stili di guida che restano ostinatamente locali nonostante la globalizzazione. Un guidatore guidato dall’intelligenza artificiale ha maggiori probabilità di farsi strada agevolmente nel traffico della ben educata Monaco e meno in quello di Mumbai o Città del Messico.

Il problema principale qui è la riflessività degli agenti umani. Laddove prevalgono stili di guida aggressivi, un conducente umano può rendere la vita difficile ai veicoli automatizzati sfruttando il comportamento cauto dell’intelligenza artificiale, ad esempio, inserendosi davanti alle auto a guida autonoma approfittando del fatto che queste mantengono una giusta distanza di sicurezza dal veicolo che precede. Questo sarebbe il caso, a meno che all’IA non venga consentito di iniziare a negoziare il proprio spazio stradale con conducenti umani che accettano il conseguente rischio di collisione.

È così che le cose potrebbero diventare complicate, con l’intelligenza artificiale che compensa eccessivamente adottando manovre spericolate per “vincere” contro esseri umani ribelli, in scenari fantascientifici, simili a Black Mirror, di auto o camion assassini. Qualcosa del genere accadde qualche anno fa, quando un’intelligenza artificiale di Microsoft impiegò solo un giorno per diventare razzista e dovette essere frettolosamente messa offline. Naturalmente la tecnologia interverrà per evitare che ciò accada. Supponendo quindi che i produttori di automobili raccolgano la sfida della coesistenza tra uomo e intelligenza artificiale, come gestiranno un processo di formazione sull’intelligenza artificiale che debba adattarsi alle scale locali – possibilmente a livello di regione, più che a livello di stati nazionali? In Italia gli autisti di Bolzano non assomigliano a quelli di Milano che sono diversi da quelli di Roma, Napoli e Palermo. Il tema dell’addestramento sensato e della sperimentazione dell’intelligenza artificiale nelle situazioni quotidiane, anche lontano da situazioni “limite” di vita o di morte tanto apprezzate dagli studiosi di etica assorti con carrelli in fuga, è affrontato in un recente articolo sugli Atti della National Academy of Science, una rivista statunitense. Come si può testare il “buon senso” di un’auto automatizzata? Pur sottolineando che sarà probabilmente necessaria una personalizzazione reciproca tra esseri umani e conducenti automatizzati, il pezzo offre consigli utili agli aspiranti tester, come ad esempio non prendere gli esseri umani come gold standard, considerando il compromesso tra autorità umana e autonomia della macchina in vista di risultati sicuri, considerare attentamente le condizioni locali delle culture, degli stili di guida e della morfologia stradale.

Queste calibrazioni avranno bisogno che l’intelligenza artificiale interagisca con modelli di guidatori umani appositamente costruiti con questo scopo in mente. Il compito apparentemente insormontabile di sviluppare questi modelli per testare l’intelligenza artificiale è stato intrapreso da un progetto europeo denominato i4Driving, il cui obiettivo è quello di sviluppare modelli di guida umana in condizioni naturali che possano essere utilizzati da produttori di automobili, da regolatori e dal mondo accademico nei loro test, con l’obiettivo finale di accreditare i sistemi di intelligenza artificiale per l’implementazione sul mercato.

La visione di i4Driving è quella di gettare le basi di una nuova metodologia standard del settore per stabilire una linea credibile e realistica della sicurezza stradale umana per la valutazione virtuale dei sistemi di mobilità cooperativa, connessa e automatizzata (CCAM[1]). Le due idee centrali proposte nel progetto sono una libreria di simulazione che combina modelli esistenti e nuovi per il comportamento di guida umano; in combinazione con una metodologia che tiene conto dell’enorme incertezza sia dei comportamenti umani che delle circostanze di uso. Trattare l’incertezza è cruciale per il successo della tecnologia e a questo scopo il progetto richiama esperti di diverse discipline per giudicare le ipotesi e i risultati della modellazione. Il team del progetto sta simulando (quasi) incidenti in scenari multi-conducente (accesso a molte fonti di dati, simulatori di guida avanzati e laboratori sul campo) attraverso una rete internazionale[2]. i4Driving offre una proposta a breve e lungo termine: una serie di elementi costitutivi che aprono la strada alla patente di guida per i veicoli autonomi.

Insolitamente, per un progetto orientato alla tecnologia come i4Driving, questo studio esaminerà anche la dimensione culturale della guida autonoma, spingendo gli ingegneri del progetto a lavorare in relazione alla loro visione del mondo, alle aspettative e a possibili pregiudizi. Per questi motivi i tecnologi coinvolti nel team i4Driving si sottoporranno a domande di carattere generale come “Nel probabile caso in cui questa tecnologia richiederà investimenti in infrastrutture pubbliche, la società li sosterrà? Verrà raccolta un’enorme quantità di big data sui guidatori umani. Come verranno utilizzati questi dati dalle autorità, dagli inserzionisti, dagli hacker?”. Queste domande non devono essere risolte da i4Driving ma la visione dei modellatori su questo argomento è necessaria secondo una componente sociologica riflessiva incorporata nel progetto.

Certamente, allo stato attuale della tecnologia, vengono sollevate molte critiche sull’effettiva fattibilità delle auto a guida autonoma. Nonostante gli sforzi pubblicitari dell’ultimo decennio sull'imminente commercializzazione dei veicoli autonomi, ad oggi questi sono ancora considerati non sicuri, nonché un ostacolo al traffico attuale o, ad esempio, alle operazioni dei veicoli di emergenza. Pur promettendo “piena capacità di guida autonoma” – con video apparentemente "messi in scena" – TESLA ha dovuto difendersi in tribunale sostenendo che questa affermazione di marketing non costituivano una frode. L’accusa era che le prestazioni 'autonome' dimostrate erano in realtà artefatte, non genuine.

Sembrerebbe quindi che su questo tema, come su altre nuove tecnologie legate all’intelligenza artificiale, si scontrino visioni contrastanti. Sebbene la tecnologia abbia compiuto progressi significativi per rendere sostenibili i veicoli automatici anche la società dovrà svolgere un ruolo vigile riguardo alle promesse dei produttori.

Come sottolineato da Jack Stilgoe e Miloš Mladenović (due sociologici della tecnologia che si occupano del problema)

i veicoli automatizzati non saranno definiti dalla loro presunta autonomia ma in base al modo in cui la società negozierà la soluzione di questioni politiche come:
Chi vince? Chi perde? Chi decide? Chi paga? Mantenendo aperti all’indagine entrambi i lati della questione, il progetto i4Driving offre un contributo che fa parlare la sociologia con la tecnologia.

 

 

NOTE

[1] Mobilità cooperativa, connessa e automatizzata: per molti aspetti i veicoli di oggi sono già dispositivi connessi. Tuttavia, in un futuro prossimo, interagiranno anche direttamente tra loro, nonché con l’infrastruttura stradale e con gli altri utenti della strada. Questa interazione è il dominio dei sistemi di trasporto intelligenti cooperativi che consentiranno agli utenti della strada di condividere informazioni e utilizzarle per coordinare le loro azioni. Si prevede che questo elemento cooperativo migliorerà significativamente la sicurezza stradale, l’efficienza del traffico e il comfort di guida, aiutando il conducente a prendere le giuste decisioni e ad adattarsi alla situazione del traffico.

[2] La rete internazionale ha collaborato con gli Stati Uniti (struttura NADS), con l’Australia (simulatore di guida avanzato UQ e strutture di simulatore di guida connesse TRACSLab), la Cina (simulatore di guida Tongji Univ. 8-dof e laboratorio sul campo su larga scala) e il Giappone (NTSEL) e con diversi laboratori di progettazione (università e laboratori di ricerca, OEM e Tier 1, autorità di regolamentazione dei veicoli, autorità di omologazione, istituti di standardizzazione e compagnie assicurative).


Maniac, di Benjamín Labatut - Considerazioni

Quando alla fine della seconda guerra mondia­le John von Neumann concepisce
il MANIAC – un calcolatore universale che doveva, nel­le intenzioni del suo creatore,
«afferrare la scienza alla gola scatenando un potere di cal­colo illimitato»
- sono in pochi a rendersi conto che il mondo sta per cambiare per sem­pre”
[1]

 

Il terzo libro di Benjamín Labatut, pubblicato in Italia per i tipi di Adelphi, cerca di raccontare, come i due che lo hanno preceduto, la società e la tecnologia del presente grazie ad uno sguardo su alcune figure drammatiche, tra cui spiccano John Von Neumann , il creatore del Maniac e Lee Sedol, maestro di Go.

Cos’è il Go? Un gioco millenario diffuso soprattutto in Asia
che il profano può considerare come una sorta di dama
soggetta ad una rapida esplosione combinatoria.
Esplosione combinatoria che si è a lungo tempo considerata
il vero argine contro il riproporsi della capitolazione
nel mondo degli scacchi di Garry Kasparov contro DeepBlue.

 

----------

Il tema di quella che chiamiamo intelligenza artificiale è raccontato dalla prospettiva di Sedol, uno dei due veri protagonisti di questa narrazione, che con una frase esemplifica un atteggiamento molto in voga nei confronti di questi temi: il senso di «impotenza e paura», che esalta quella sensazione di «debolezza e fragilità di noi esseri umani».

Di virgolettati come questi, è bene dirlo, il lettore non ne troverà poi molti, a favore invece di un gusto dell’invenzione tutto modernista dell’esplosione, della frammentazione del racconto.

Una frammentazione che regna in realtà nello sguardo con cui Labatut dipinge l’altro protagonista, John von Neumann, e si eclissa invece nella più piana rappresentazione delle vicende di Sedol.

In questo libro non troviamo l’efficacia evocativa che pervade i bozzetti di figure che ci hanno aiutato a “smettere di capire il mondo”, ma una sorta di hollywoodizzazione della vicenda che rende sicuramente avvincenti alcuni momenti di quella rivoluzione innescata dagli anni ’930, a partire della sommessa presentazione di Kurt Gödel a Könisberg.

Tuttavia, si può dire che la lettura non si conclude avendo capito davvero e a fondo quello che è successo. Von Neumann pare niente più che una scheggia impazzita, intenta a portare a termine ogni progetto che incontra nel suo vagabondaggio nei regni della fisica, della matematica e della biologia. Sedol, al contrario, sembra semplicemente schiacciato da qualcosa di impossibile da comprendere.

L’istrionismo del primo e l’incredulità del secondo risultano allora uniti da uno stesso fatalismo: di fronte ad una abilità dirompente di costruzione del mondo, pare che l’intelligenza che la sottende, questa abilità, non possa essere di questo mondo.

Ne segue, inevitabilmente, che von Neumann, insieme ad altri geniali profughi ungheresi, diventi un «marziano» e Sedol paia affrontare nelle sue iconiche partite il terminale umano di uno dei Grandi Antichi sognati negli incubi di Lovecraft, piuttosto che il risultato di una peculiare modo di ragionare sul mondo (quello di una infallibile computazione).

--------

Cosa resta dunque da fare a questa umanità derelitta?

Arrendersi a queste forme di intelligenza aliena?

No, dice Labatut, perché il «miracolo», come lo ha definito in una recente intervista[2],  può sempre accadere e può sempre dunque stravolgere il domani.

Ma è stato un miracolo, allora, che von Neumann abbia portato a fondo la ricerca sulla bomba H?

È stato un miracolo che la sua teoria dei giochi sia stata «l’architrave della Guerra Fredda», come Labatut fa dire a Oskar Morgenstern?

Oppure è stato un miracolo il tumore alle ossa che a 53 anni ha interrotto le sue azioni su questa terra?

Labatut non sorvola certo su questi fatti storici e morali e anzi fa di essi alcuni snodi cruciali del suo racconto. Tuttavia, possiamo dire che l’inevitabilità di un contrappasso sia la stessa di una decisione presa scientemente e ripetutamente in compagnia dei più disparati generali?

Dove sta, quindi, la responsabilità del singolo?

--------

Ecco, forse preso dal tentativo di rendere il più godibile, e cioè serrata e avvincente, la narrazione, Labatut non si confronta davvero con questa domanda, ma la fa aleggiare nelle decisioni di ogni singolo attore.[3]

A chi legge resta così il compito di soppesare e dare una propria risposta a questa questione e forse, durante questo dibattimento tutto privato, torneranno alla mente le parole con cui Leonardo Sciascia commenta il giudizio di Enrico Fermi sul futuro scomparso Ettore Majorana.

---------

Alla «mancanza di buon senso» rimproverata da Fermi a Majorana, mancanza che non gli avrebbe permesso di inventare la bomba atomica come lui invece aveva fatto, Sciascia propone un’altra visione: «Perché un genio della fisica come Majorana, trovandosi di fronte alla virtuale, anche se non riconosciuta, scoperta della fissione nucleare, non potrebbe aver capito che il fiammifero per accendere l’isola di fulmicotone su cui si trovavano c’era già, ed essersene allontanato – poiché mancava di buon senso – con sgomento, con terrore?».

Rompere la mano che vuol sfregare quel fiammifero allora può diventare il vero segno di un’intelligenza non aliena ma ben radicata nel nostro pianeta. E non è detto che questa intelligenza sia per forza umana.

 

 

NOTE

[1] Dal risvolto di copertina dell’edizione italiana: Maniac, B. Labatut, Adelphi, 2023

[2] L’intervista è quella rilasciata a Fahrenheit, il programma di Rai Radio 3, e il passaggio è nella risposta dell’autore all’ultima domanda della conduttrice. https://www.raiplaysound.it/audio/2023/10/Fahrenheit-del-04102023-24a6d3a6-db42-424b-8941-1ebcb3426e1e.html

[3] Nella stessa intervista prima menzionata Labatut, tuttavia, dice: «People who have great intelligence carry a weight of responsibility but the fact of the matter is that we, as human beings, make the world and it could be made in very different ways, so the responsibility is shared. It’s not something that we can just delegate to others who are smarter than us, who are more intelligent than us, who are more capable than us. I think that there are certain people whose job it is to come up with new things but it's all of our jobs to decide what we do what are the limits»


Etica, morale & Intelligenza Artificiale

L’intelligenza artificiale è una tecnologia “nuova” che sta trovando applicazione in numerosi campi scientifici, industriali, sociali e politici, e – come per ogni nuova tecnologia – nella sua applicazione possono emergere dei problemi di carattere etico e morale.

In questo post:

  • cerco di mettere in rilievo perché sia opportuno dedicare attenzione alla correlazione tra intelligenza artificiale e questioni etiche e morali
  • analizzo due casi concreti di utilizzo di tecnologie intelligenti alla ricerca di spunti di riflessione
  • provo a rappresentare un esempio di catena di responsabilità nella realizzazione di questo tipo di tecnologie
  • e, infine, traggo delle conclusioni di ordine morale – che mi piacerebbe che fossero normative

 Per definire convenzionalmente e localmente – giusto per la lettura di questo post – l’Intelligenza Artificiale, mi attengo a questa coppia di definizioni, la prima di “intelligenza”,  di E. Scribano, in un suo libro su Descartes, da me modificata in senso più generale, e la seconda di “artificiale”, dal Dizionario Treccani:

  • intelligenza: il vivente è una macchina intelligente, se traduciamo questo termine nell'insieme dei comportamenti causati da stati fisici che consentono al corpo vivente di reagire all'ambiente in modo funzionale a degli obiettivi [1], tenendo conto dell'esperienza passata [2]
  • artificiale: fatto, ottenuto con arte

Allo stesso livello di generalità prendiamo in considerazione la definizione che si trova sul sito di un gigante delle tecnologie, la Oracle Corporation:

Intelligenza Artificiale (I.A.): sistemi o macchine che imitano l'intelligenza umana per eseguire certe attività e che sono in grado di migliorarsi continuamente in base alle informazioni raccolte [3]

 

PERCHÈ PARLARE DI ETICA E DI MORALE ASSOCIATE ALL’IA?

La riflessione può nascere in un contesto molto familiare, la guida di una automobile con un sistema intelligente anti-collisione: il sistema ha provocato la frenata, ha letteralmente “inchiodato” la macchina in mezzo al Carrobbio [4], senza che il guidatore (io) capisse perché o potesse intervenire. La ragione della frenata era un gatto che era passato a pochi centimetri dal sensore radar e che, senza anti-collisione, forse non avrei risparmiato.

Le lateralità di questo salvataggio di un gatto del Carrobio sono state, per fortuna, senza conseguenze:

1) il cane di famiglia è finito a gambe all’aria nel bagagliaio

2) l’auto che mi seguiva ha inchiodato a sua volta evitando il tamponamento

Non si può negare, osservando questo caso banale, che un problema morale nell’utilizzo di tecnologie intelligenti c’è.

C’è ed è pervasivo: nel 2022 gli investimenti per l’IA sono di 500 milioni di euro in Italia [5] e di più di 90 miliardi di dollari nel mondo[6].

C’è e prende diverse direzioni: gli investimenti in Italia sono destinati all’Elaborazione Intelligente di Dati (34%), alla Comprensione del Linguaggio Naturale (28%), ai Sistemi di Supporto alla Decisione (19%), alla Visione Computerizzata (10%) e all’Automazione Robotica dei Processi.[7]

Il caso della frenata, del gatto del Carrobbio e del cane di famiglia si colloca tra Visione Computerizzata, Elaborazione Intelligente di Dati e Automazione dei Processi.

Inoltre, lo sviluppo delle tecnologie di IA è sostenuto dalle Istituzioni: ad esempio, lo Stato italiano ha elaborato un Programma Strategico per gli anni 2022 – 2024, focalizzato su Talenti (da creare o trattenere), Competenze (da generare) e Applicazioni, nel privato e nella Pubblica Amministrazione. [8]

Le Istituzioni non nascondono il problema morale e alcune preoccupazioni; tra il 2019 e il 2022, l’Unione Europea ha varato 3 deliberazioni [9] che cercano di normare le implicazioni etiche della nuova tecnologia: le “Linee Guida per una IA affidabile” si focalizzano sulla robustezza, sul rispetto della sicurezza degli esseri umani (escludendo il gatto del Carrobbio, il cane di famiglia e altri viventi non umani), della trasparenza, della privacy, della non-discriminazione, del benessere ambientale e sociale, e sulla attribuzione di responsabilità per le azioni delle tecnologie; un Atto per l’Intelligenza Artificiale, che delinea l’approccio corretto per lo sviluppo e l’applicazione; una proposta per stabilire delle norme di responsabilità civile in caso di danni.

Il problema morale è enfatizzato dal comportamento delle Aziende: più di un terzo delle Aziende che utilizzano IA non ritiene rilevante il tema etico, il 40% lo prende in considerazione in termini futuri o in modo destrutturato; solo il 21% ha una strategia definita[10] .

-------

L’APPROCCIO DEL PARLAMENTO EUROPEO

Una pubblicazione del Parlamento Europeo, su rischi e vantaggi dell’Intelligenza Artificiale, esprime la visione dell’Istituzione che legifera per l’EU sull’IA:

“L’intelligenza artificiale può consentire lo sviluppo di una nuova generazione di prodotti e servizi, anche in settori in cui le aziende europee sono già in una posizione di forza come l’economia circolare, l’agricoltura, la sanità, la moda e il turismo. Può infatti offrire percorsi di vendita più fluidi e ottimizzati, migliorare la manutenzione dei macchinari, aumentare sia la produzione che la qualità, migliorare il servizio al cliente e risparmiare energia.” [11]

“L’intelligenza artificiale potrebbe significare una migliore assistenza sanitaria, automobili e altri sistemi di trasporto più sicuri e anche prodotti e servizi su misura, più economici e più resistenti. Può anche facilitare l’accesso all’informazione, all’istruzione e alla formazione.” [12]

“L’IA aiuta a rendere il posto di lavoro più sicuro, perché il lavoro più pericoloso può essere demandato ai robot, e offrire nuovi posti di lavoro grazie alla crescita delle industrie dell’intelligenza artificiale.”[13]

E stima l’aumento della produttività del lavoro tra l’11% e il 37% entro il 2035. [14]

L’approccio tradisce la visione scientista, positivista ed efficientista –che proviene dalla pratica scientifica e dalle aziende che ricercano efficacia ed efficienza.

Poco viene detto sulle lateralità negative.

Si potrebbe tradurre: benvenuta la nuova tecnologia che aiuta la crescita e il comfort delle persone che già hanno la gran parte delle opportunità e dei privilegi.

---------

DUE CASI CONCRETI ED EMBLEMATICI

Il primo caso esemplare è quello già accennato del radar anti-collisione dell’automobile.

Tra i soggetti potenzialmente coinvolti negli effetti di applicazione ci sono – oltre al gatto del Carrobbio e al cane di famiglia: il guidatore, i passeggeri che possono riportare danni, i passanti che si possono salvare, gli altri automobilisti che hanno tempi di reazione molto minori del sistema e possono subire danni fisici in caso di tamponamento.

Il problema morale, in questo caso, può essere delineato in questi termini:

  • il sistema deve intervenire o solo “avvisare”, cioè, suggerire al guidatore un intervento?
  • Cosa farebbe un umano senza il sistema?
  • Che frequenza e gravità hanno gli effetti collaterali negativi?
  • Per gestire il trade-off tra danni ad un vivente e un altro, si deve fornire al sistema una scala di valore delle categorie di esseri viventi per decidere cosa fare?
  • Quanto deve essere grande e vicina la sagoma rilevata, per attivare la frenata?
  • Si deve lasciare al guidatore la possibilità di disattivare il sistema?
  • Come sono influenzate dalle culture locali, in Europa, in USA, in Cina, le categorie logiche che informano il sistema? John, Hu, Michelle, Stella darebbero le stesse istruzioni alla macchina? E quando Jack usa la macchina di Michelle?

Il secondo contesto che esaminiamo è quello delle applicazioni in campo medico, in particolare dei sistemi intelligenti di supporto alla diagnosi, per i quali KBV Research stima 1,3 miliardi di dollari di spesa all’anno.[15]

Le principali applicazioni diagnostiche, basate sui grandi numeri e sull’analisi statistica, sono rivolte a pratiche come:

  • la diagnosi differenziale – che è discernimento tra diverse possibili patologie con sintomatologie simili
  • la ricerca di pattern fuori focus – cioè, di sintomi, fenomeni, elementi e manifestazioni minori che, se identificati, possono aiutare a diagnosticare patologie che sono fuori dal focus diagnostico principale
  • l’analisi ex-post del tasso di errore diagnostico umano, per esempio a fronte di determinati schemi di sintomi che “puntano” a diverse possibili patologie

per ridurre il tasso di errore diagnostico umano.

Una ragione per cui si investono capitali così ingenti sulle tecnologie diagnostiche intelligenti è, infatti, l’incidenza di errori diagnostici dei medici, che si stima causi alcune migliaia di morti in Italia e decine di migliaia negli USA;[16] oltre al costo sociale, questi errori comportano anche costi finanziari ingenti – in termini di ulteriori esami, ricoveri e, soprattutto, risarcimenti.

Le cause degli errori diagnostici, secondo uno studio congiunto di Sidney University  e University of Newcastle (Aus), sono per il 15% di tipo cognitivo, legate a:

  • uso errato della statistica
  • ancoraggi, ossia collegamenti rigidi tra situazioni sintomatiche e diagnosi
  • errori di framing
  • pletora o carenza di esami
  • fissazione su esperienze di successo
  • cecità attentiva

In questo senso, i tanti sostenitori dell’utilizzo delle tecnologie intelligenti in diagnostica, che si richiamano al concetto di Medicina Basata sulle Evidenze (EBM, Evidence Based Medicine), ritengono che questi sistemi possano supportare il lavoro diagnostico grazie a:

  • l’uso razionale delle informazioni
  • l’interpretazione automatizzata dei dati diagnostici
  • l’uso intensivo delle statistiche, delle frequenze storiche e delle previsioni probabilistiche

Tuttavia, i sistemi di Intelligenza Artificiale cadono spesso in errori (allucinazioni), come è accaduto a ChatGPT quando ha suggerito che si possono ottimamente sostituire i bisturi con i grissini. [17]

Il problema morale sotteso all’uso di queste tecnologie in diagnostica è correlato a:

  • la possibilità di errore sistematico nella progettazione degli algoritmi di apprendimento e di analisi
  • la prevalenza della statistica sull’esperienza, che può influenzare il medico sulle occorrenze più probabili e ad ignorare le possibilità meno frequenti, replicando gli effetti degli errori cognitivi
  • l’effetto black box, ossia l’accettazione acritica di ciò che suggerisce il sistema.

-----------

PROBLEMA DELLA RESPONSABILITÀ

Il problema morale solleva quello della responsabilità, che vede coinvolta una serie di figure professionali quali, p.e.:  il progettista, l’ingegnere della conoscenza che controlla l’apprendimento, il programmatore che “scrive” i meccanismi di autoapprendimento, il produttore, l’acquirente – p.e.: il dipartimento acquisti della struttura sanitaria, l’utilizzatore tecnico e l’utilizzatore finale che prende la decisione diagnostica e alimenta il meccanismo di autoapprendimento.

Ad esempio: in caso di danni ad un paziente derivanti da malfunzionamento o da una distorsione del sistema, a chi va attribuita la responsabilità? A chi l’ha realizzato oppure a chi l’ha istruito? Al produttore che lo vende sulla base di una promessa di valore che volutamente tralascia le negatività? All’acquirente abbagliato dai risparmi? Oppure all’utilizzatore finale che prende per buono acriticamente il responso della “macchina”?

La responsabilità morale – a mio avviso – ricade su tutti i soggetti che hanno trascurato, con motivazioni differenti, i rischi di errore e di lateralità del sistema.

In assenza di una norma che regoli tutte le fasi del processo, è evidente che anche la responsabilità giuridica è difficile da attribuire.

Forse è più facile agire affinché questi errori accadano con minore frequenza, grazie alla consapevolezza sui rischi legati all’utilizzo delle tecnologie e a un grado superiore di responsabilizzazione preventiva di tutti i soggetti.

-----------

CI SONO DELLE CONCLUSIONI?

Posto che quello della IA può essere un cambiamento epocale con enormi caratteri positivi, vorrei delineare delle possibili raccomandazioni generali di ordine morale:

  • non ci si può sottrarre ad una analisi approfondita dei criteri morali che informano i comportamenti delle macchine;
  • va tenuto presente che i modelli di apprendimento sono altrettanto sensibili al problema morale; come vengono addestrate le macchine, quali euristiche adottano, quali modelli di percezione [18] vengono usati, sono fattori determinanti per il comportamento delle tecnologie e per l’orientamento delle decisioni umane;
  • non è il caso di sostituire l’analisi e l’esperienza con i modelli statistici: in diagnostica, p.e., l’IA può egregiamente svolgere funzioni di supporto ma è preferibile che “non prenda decisioni”
  • ci si deve guardare dall’effetto black box, soprattutto se nei sistemi sono incluse funzionalità di apprendimento;
  • non vanno mai dimenticate le lateralità sociali

Ma questo vale per tutte le nuove tecnologie.

 

 

 

 

NOTE

[1] Il testo originale (vedi nota successiva) recitava “alla conservazione della vita”

[2] E. Scribano, Macchine con la mente, Carocci Editore, 2015

[3] https://www.oracle.com/it/artificial-intelligence/what-is-ai/

[4] Il Carrobbio, da quadrivium, è un largo di Milano le cui origini risalgono all'epoca romana. È posto indicativamente alla confluenza fra via Torino, corso di Porta Ticinese, via San Vito, via Cesare Correnti e via del Torchio. Nei dintorni circolano ancora numerosi gatti randagi.

[5] Politecnico di Milano, Osservatori.net - Osservatorio Artificial Intelligence 2023

[6] AI index report 2022, Stanford University

[7] : Politecnico di Milano, Osservatori.net - Osservatorio Artificial Intelligence 2023

[8] Ibidem

[9] Ibidem

[10] Ibidem

[11] Parlamento Europeo - https://www.europarl.europa.eu/news/it/headlines/society/
20200918STO87404/quali-sono-i-rischi-e-i-vantaggi-dell-intelligenza-artificiale

[12] Ibidem

[13] Ibidem

[14] Ibidem

[15] KBV RESEARCH - https://www.kbvresearch.com/artificial-intellgence-diagnostic-market

[16] Morti in ospedale all’anno per errori diagnostici, in Italia: più di 10.000 (M. Motterlini, V. Crupi, Decisioni Mediche, Raffello Cortina Editore, 2005); in Usa: tra 44.000 e 100.000 (Politecnico di Milano, 2002; United States Institute of Medicine, 1999)

[17] Corriere della Sera, 24.01.2023

[18] A breve sarà a disposizione sul blog un articolo di un filosofo orientale che focalizza l’attenzione sulla dimensione epistemologica dell’IA