di Sara Sbaragli (CNR-ISTC), Vincenzo Punzo (UNINA), Giulia Vannucci (CNR-ISTC) e Andrea Saltelli (CNR-ISTC)

Un giorno, in un futuro non troppo lontano, tutto il traffico potrebbe essere guidato dall’intelligenza artificiale con gli esseri umani che leggono le notizie o diversamente impegnati nel comfort delle loro auto o, meglio, nell’agio di un veicolo condiviso.

Importanti ostacoli culturali, tecnologici e normativi dovranno essere superati per ottenere un traffico obbligatorio basato esclusivamente sull’intelligenza artificiale con gli esseri umani confinati a guidare in località speciali. Nel frattempo, il futuro offrirà probabilmente situazioni in cui l’intelligenza artificiale e gli esseri umani coesisteranno nello stesso ambiente di guida.

Sarà mai possibile? Coesisteranno auto guidate dall’uomo e dall’intelligenza artificiale sulla stessa strada? Ovunque nel mondo, da Berkeley a Napoli?

Il problema di questa convivenza sta nella varietà delle culture e degli stili di guida che restano ostinatamente locali nonostante la globalizzazione. Un guidatore guidato dall’intelligenza artificiale ha maggiori probabilità di farsi strada agevolmente nel traffico della ben educata Monaco e meno in quello di Mumbai o Città del Messico.

Il problema principale qui è la riflessività degli agenti umani. Laddove prevalgono stili di guida aggressivi, un conducente umano può rendere la vita difficile ai veicoli automatizzati sfruttando il comportamento cauto dell’intelligenza artificiale, ad esempio, inserendosi davanti alle auto a guida autonoma approfittando del fatto che queste mantengono una giusta distanza di sicurezza dal veicolo che precede. Questo sarebbe il caso, a meno che all’IA non venga consentito di iniziare a negoziare il proprio spazio stradale con conducenti umani che accettano il conseguente rischio di collisione.

È così che le cose potrebbero diventare complicate, con l’intelligenza artificiale che compensa eccessivamente adottando manovre spericolate per “vincere” contro esseri umani ribelli, in scenari fantascientifici, simili a Black Mirror, di auto o camion assassini. Qualcosa del genere accadde qualche anno fa, quando un’intelligenza artificiale di Microsoft impiegò solo un giorno per diventare razzista e dovette essere frettolosamente messa offline. Naturalmente la tecnologia interverrà per evitare che ciò accada. Supponendo quindi che i produttori di automobili raccolgano la sfida della coesistenza tra uomo e intelligenza artificiale, come gestiranno un processo di formazione sull’intelligenza artificiale che debba adattarsi alle scale locali – possibilmente a livello di regione, più che a livello di stati nazionali? In Italia gli autisti di Bolzano non assomigliano a quelli di Milano che sono diversi da quelli di Roma, Napoli e Palermo. Il tema dell’addestramento sensato e della sperimentazione dell’intelligenza artificiale nelle situazioni quotidiane, anche lontano da situazioni “limite” di vita o di morte tanto apprezzate dagli studiosi di etica assorti con carrelli in fuga, è affrontato in un recente articolo sugli Atti della National Academy of Science, una rivista statunitense. Come si può testare il “buon senso” di un’auto automatizzata? Pur sottolineando che sarà probabilmente necessaria una personalizzazione reciproca tra esseri umani e conducenti automatizzati, il pezzo offre consigli utili agli aspiranti tester, come ad esempio non prendere gli esseri umani come gold standard, considerando il compromesso tra autorità umana e autonomia della macchina in vista di risultati sicuri, considerare attentamente le condizioni locali delle culture, degli stili di guida e della morfologia stradale.

Queste calibrazioni avranno bisogno che l’intelligenza artificiale interagisca con modelli di guidatori umani appositamente costruiti con questo scopo in mente. Il compito apparentemente insormontabile di sviluppare questi modelli per testare l’intelligenza artificiale è stato intrapreso da un progetto europeo denominato i4Driving, il cui obiettivo è quello di sviluppare modelli di guida umana in condizioni naturali che possano essere utilizzati da produttori di automobili, da regolatori e dal mondo accademico nei loro test, con l’obiettivo finale di accreditare i sistemi di intelligenza artificiale per l’implementazione sul mercato.

La visione di i4Driving è quella di gettare le basi di una nuova metodologia standard del settore per stabilire una linea credibile e realistica della sicurezza stradale umana per la valutazione virtuale dei sistemi di mobilità cooperativa, connessa e automatizzata (CCAM[1]). Le due idee centrali proposte nel progetto sono una libreria di simulazione che combina modelli esistenti e nuovi per il comportamento di guida umano; in combinazione con una metodologia che tiene conto dell’enorme incertezza sia dei comportamenti umani che delle circostanze di uso. Trattare l’incertezza è cruciale per il successo della tecnologia e a questo scopo il progetto richiama esperti di diverse discipline per giudicare le ipotesi e i risultati della modellazione. Il team del progetto sta simulando (quasi) incidenti in scenari multi-conducente (accesso a molte fonti di dati, simulatori di guida avanzati e laboratori sul campo) attraverso una rete internazionale[2]. i4Driving offre una proposta a breve e lungo termine: una serie di elementi costitutivi che aprono la strada alla patente di guida per i veicoli autonomi.

Insolitamente, per un progetto orientato alla tecnologia come i4Driving, questo studio esaminerà anche la dimensione culturale della guida autonoma, spingendo gli ingegneri del progetto a lavorare in relazione alla loro visione del mondo, alle aspettative e a possibili pregiudizi. Per questi motivi i tecnologi coinvolti nel team i4Driving si sottoporranno a domande di carattere generale come “Nel probabile caso in cui questa tecnologia richiederà investimenti in infrastrutture pubbliche, la società li sosterrà? Verrà raccolta un’enorme quantità di big data sui guidatori umani. Come verranno utilizzati questi dati dalle autorità, dagli inserzionisti, dagli hacker?”. Queste domande non devono essere risolte da i4Driving ma la visione dei modellatori su questo argomento è necessaria secondo una componente sociologica riflessiva incorporata nel progetto.

Certamente, allo stato attuale della tecnologia, vengono sollevate molte critiche sull’effettiva fattibilità delle auto a guida autonoma. Nonostante gli sforzi pubblicitari dell’ultimo decennio sull’imminente commercializzazione dei veicoli autonomi, ad oggi questi sono ancora considerati non sicuri, nonché un ostacolo al traffico attuale o, ad esempio, alle operazioni dei veicoli di emergenza. Pur promettendo “piena capacità di guida autonoma” – con video apparentemente “messi in scena” – TESLA ha dovuto difendersi in tribunale sostenendo che questa affermazione di marketing non costituivano una frode. L’accusa era che le prestazioni ‘autonome’ dimostrate erano in realtà artefatte, non genuine.

Sembrerebbe quindi che su questo tema, come su altre nuove tecnologie legate all’intelligenza artificiale, si scontrino visioni contrastanti. Sebbene la tecnologia abbia compiuto progressi significativi per rendere sostenibili i veicoli automatici anche la società dovrà svolgere un ruolo vigile riguardo alle promesse dei produttori.

Come sottolineato da Jack Stilgoe e Miloš Mladenović (due sociologici della tecnologia che si occupano del problema)

i veicoli automatizzati non saranno definiti dalla loro presunta autonomia ma in base al modo in cui la società negozierà la soluzione di questioni politiche come:
Chi vince? Chi perde? Chi decide? Chi paga? Mantenendo aperti all’indagine entrambi i lati della questione, il progetto i4Driving offre un contributo che fa parlare la sociologia con la tecnologia.

 

 

NOTE

[1] Mobilità cooperativa, connessa e automatizzata: per molti aspetti i veicoli di oggi sono già dispositivi connessi. Tuttavia, in un futuro prossimo, interagiranno anche direttamente tra loro, nonché con l’infrastruttura stradale e con gli altri utenti della strada. Questa interazione è il dominio dei sistemi di trasporto intelligenti cooperativi che consentiranno agli utenti della strada di condividere informazioni e utilizzarle per coordinare le loro azioni. Si prevede che questo elemento cooperativo migliorerà significativamente la sicurezza stradale, l’efficienza del traffico e il comfort di guida, aiutando il conducente a prendere le giuste decisioni e ad adattarsi alla situazione del traffico.

[2] La rete internazionale ha collaborato con gli Stati Uniti (struttura NADS), con l’Australia (simulatore di guida avanzato UQ e strutture di simulatore di guida connesse TRACSLab), la Cina (simulatore di guida Tongji Univ. 8-dof e laboratorio sul campo su larga scala) e il Giappone (NTSEL) e con diversi laboratori di progettazione (università e laboratori di ricerca, OEM e Tier 1, autorità di regolamentazione dei veicoli, autorità di omologazione, istituti di standardizzazione e compagnie assicurative).

Autore

  • S. Sbaragli, V. Punzo, G. Vannucci, A. Saltelli

    Sara Sbaragli, dottoressa in Sociologia e Ricerca Sociale presso l'Università di Bologna, è assegnista di ricerca in Sociologia presso l’Istituto di Scienze e Tecnologie della Cognizione del CNR, nell'ambito del progetto di ricerca HORIZON Europe “i4Driving - integrated 4D driver modelling under uncertainty”, Project no.101076165, sul tema dell’Intelligenza Artificiale con specifica declinazione per la guida autonoma. Vincenzo Punzo is currently full professor at the University of Naples Federico II, where he teaches “Road traffic control” and “Smart and electric mobility”. He has been associate professor at the same university since 2014, and recipient of a senior researcher grant on Intelligent Transportation Systems and e-Mobility at the European Commission Joint Research Centre, from 2011 to 2013. Giulia Vannucci, Research Fellow all'Istituto di Scienze e Tecnologie della Cognizione (ISTC) del CNR Andrea Saltelli ha lavorato in fisica chimica, scienze ambientali, statistica applicata, analisi di impatto e scienza per la politica. Il suo principale interesse disciplinare è per l’analisi di sensitività, una disciplina dove strumenti statistici sono utilizzati per interpretare le predizioni di modelli matematici e statistici, e per il sensitivity auditing, una estensione della analisi di sensitività a tutto il processo di produzione dell’evidenza di un contesto di supporto alle politiche. Fra il 2005 ed il 2015 ha diretto l’unità di Econometria e Statistica applicata al Centro Comune di Ricerca della Commissione Europea. In seguito, fino al giugno 2020, è stato professore associato al Centro per lo Studio delle Scienze Naturali e Umanistiche presso l’Università di Bergen (NO). Attualmente è ad Open Evidence Research, all’ Università Aperta di Catalogna.