Ontologie dell’Intelligenza Artificiale
Parlare di intelligenza artificiale senza ricadere nella trita contrapposizione tra la visione “apocalittica” e quella “integrata” (che possono ben coesistere, ne ho parlato qui) è uno dei compiti che Controversie sta perseguendo dalle prime uscite nell’ottobre del 2023, con più di 40 articoli a tema.
In questo percorso abbiamo lavorato sulla dimensione morale correlata all’utilizzo delle tecnologie intelligenti (e innovative, più in generale), sulla relazione tra I.A. e produzione artistica, sul suo uso bellico, su quello nelle aziende, sui bias culturali che riproduce dando loro una parvenza di oggettività, di I.A. e sovranismo, sulla possibile soggettività personale della macchine intelligenti e, infine, sullo sdoganamento nelle università.
Riteniamo, però, che sia opportuno anche prendere in considerazione la dimensione ontologica dell’intelligenza artificiale, cercare di mettere a terra “cos’è” la I.A..
Per farlo, utilizziamo, ma nello stesso tempo cerchiamo di andare oltre, le definizioni di ontologia più accreditate, come quella di un gigante delle tecnologie, la Oracle Corporation:
Perché andare oltre questa chiarissima definizione?
Ci sono numerose buone ragioni. Proviamo a focalizzarci su alcune:
- tentare di ridimensionare e depolarizzare i toni del dibattito che ferve intorno alla I.A., dibattito che troppo spesso prende la forma di una contrapposizione tra “integrati” e “apocalittici” (ne abbiamo parlato qui)
- comprendere meglio, grazie alla maggiore chiarezza su cos’è e che tipo di approccio adottare nella relazione con queste tecnologie
- cogliere chi e come siamo noi, umani, quando le progettiamo e le utilizziamo
- per stabilire delle scale di valori che ne guidino lo sviluppo e l’applicazione
- dare, quindi, un senso alla loro presenza nel mondo in cui viviamo.
Ora, proprio di ontologia delle I.A. parleremo nel corso della Tavola Rotonda “Ontologie dell’Intelligenza Artificiale” organizzata da Controversie per il giorno 11 giugno in Statale. Usiamo il plurale (le I.A.) perché non c’è una sola intelligenza artificiale ma si tratta di un fenomeno polimorfo, a partire dalle forme di Large Language Model più diffusi, come GPT, Gemini, LLaMA, Claude, per arrivare alle applicazioni verticali meno note quali, ad esempio, LucrezIA, sviluppata dall’Università di Padova anche per le attività didattiche (ne abbiamo parlato qui) –
Senza pensare di esaurire lo spazio delle forme ontologiche in cui si può presentare l’Intelligenza Artificiale, nel corso del dibattito:
- affronteremo il fatto che le I.A. sono dei programmi, delle sequenze di righe di codice, attraverso l’esame di un esempio prototipale della metà degli anni ’80, cogliendone la capacità di migliorarsi attraverso le informazioni raccolte (secondo la definizione di Oracle Corporation);
- vedremo la collocazione di questa pietra miliare nella filogenesi dei due principali paradigmi attuali di I.A. e nella ripartizione tra software più tradizionali, in cui lo sviluppatore inserisce esplicitamente tutte le regole di comportamento e reti neurali, che sono in grado di apprendere con vari metodi di training;
- cercheremo la possibilità di definire l’ontologia delle I.A. attraverso le sue applicazioni verticali, seguendo una traccia fenomenologica, analizzandone l’uso-per, in particolare per le applicazioni in campo medico;
- adotteremo una prospettiva di analisi più ludica che permette di caratterizzare cos’è la I.A. attraverso lo studio dell’utopia nell'immaginario della fantascienza sullo schermo e nei fumetti;
- studieremo, infine, una meta-dimensione della questione che suggerisce di interpretare la I.A., più che come soggetto, come ambiente cognitivo che definisce, modella, deforma l’ontologia dell’umano.
In questo percorso ci addentreremo anche in questioni delicate sulle proprietà delle ontologie delle I.A., tra le quali la possibilità che possano essere in qualche modo coscienti.
Quale verità? L'intelligenza artificiale e lo smarrimento epistemico
UNA NUOVA SFIDA PER LA CONOSCENZA - PREMESSA METODOLOGICA
Questo articolo inaugura una serie di approfondimenti sull'impatto dell'intelligenza artificiale sui nostri sistemi di conoscenza. Il tema è troppo vasto per essere esaurito in un solo testo, e troppo importante per essere trattato superficialmente. In questa prima parte, propongo il concetto di "smarrimento epistemico" come chiave interpretativa generale. Nei prossimi articoli, scenderò nel dettaglio di questioni specifiche. Come ad esempio:
- i meccanismi linguistici dei modelli generativi e le implicazioni cognitive nonché il tema della fiducia nella conoscenza e i suoi metodi
- le implicazioni umane e concrete nei settori professionali (commercio, media, diritto, educazione, etc.)
- le risposte normative, educative e pragmatiche che stiamo sperimentando
CHE COS'È LA CONOSCENZA QUANDO TUTTO PUÒ ESSERE SIMULATO?
La conoscenza può assumere forme diverse: sperimentale, narrativa, deduttiva, esperienziale. In ambito accademico scientifico, il metodo scientifico rappresenta in realtà soltanto un elemento. Questo perché, in definitiva, il gold standard conoscitivo potrebbe essere non una singola metodologia, ma la capacità di scegliere il metodo più appropriato al dominio in studio. E per rigore scientifico e intellettuale, richiede anche la capacità di rimanere aperti, in maniera trasparente, alla correzione e alla revisione costante. Non c’è una scienza, ma ci sono le “scienze”.
Ma cosa succede quando l'intelligenza artificiale non si limita a offrirci nuovi strumenti, ma inizia a riconfigurare le infrastrutture stesse attraverso cui produciamo, trasmettiamo e valutiamo la conoscenza? È qui che si gioca la partita epistemologica del nostro tempo.
QUANDO L'APPARENZA INGANNA: IL CASO DELL'AVVOCATO E DELLE SENTENZE FANTASMA
Nel 2023, l'avvocato Steven Schwartz si è trovato protagonista di una vicenda che oggi considero emblematica. Ha presentato alla Corte di New York una serie di citazioni giuridiche generate da ChatGPT. Apparivano perfette: coerenza formale impeccabile, riferimenti precisi, linguaggio tecnico inappuntabile. Il problema? Erano completamente inventate. Sentenze mai esistite, casi mai accaduti, dottrine giuridiche nate dalla fantasia algoritmica.
Non si trattava solo di un errore tecnico. Quello che è emerso è qualcosa di più inquietante: l'erosione della relazione tradizionale tra forma e verità. La credibilità linguistica non coincide più con l'autenticità dei contenuti. È una trasformazione che tocca il cuore di come attribuiamo fiducia alle informazioni che riceviamo.
L'EROSIONE DELLA FIDUCIA: QUANDO DUBITIAMO DI TUTTO
La ricerca in psicologia sociale ci ha insegnato che la nostra fiducia in un contenuto non dipende solo dalla sua forma, ma dalla fiducia nell'infrastruttura che lo produce. Quando leggiamo un articolo su una rivista scientifica, la nostra valutazione si basa anche sulla reputazione della rivista, sul processo di peer review, sull'autorevolezza dell'autore.
Oggi, istituzioni come giornali, università e tribunali stanno iniziando a integrare sistemi di generazione automatica nei loro processi. Questo non mette sotto pressione solo la qualità dei contenuti, ma le infrastrutture stesse della conoscenza che abbiamo costruito nei secoli.
Il vero problema non è che l'IA possa generare errori o falsità. Dopotutto questo succede anche a noi esseri umani. Il punto è un altro: la contaminazione retroattiva della fiducia. Quando scopriamo che anche contenuti apparentemente perfetti possono essere sintetici, iniziamo inevitabilmente a dubitare anche di quelli autentici.
Questa è la distinzione cruciale tra semplice disinformazione (che presuppone comunque la possibilità di smascherare il falso) e quello che propongo di chiamare “smarrimento epistemico”: la perdita progressiva degli strumenti stessi per distinguere il vero dal falso. E se il falso è causato dall’utilizzo dell’IA, chi è responsabile?
OLTRE LE SOLUZIONI TECNICHE
Watermarking digitale, fact-checking potenziato, regolamenti come l'AI Act europeo: sono tutti strumenti utili, ma non risolvono il problema epistemico di fondo. Il watermarking può essere aggirato con relativa facilità, il fact-checking è strutturalmente troppo lento rispetto alla velocità di produzione dei contenuti artificiali, le norme si concentrano sulla trasparenza formale senza affrontare il problema cognitivo.
Il cuore della questione è più profondo e più umano: che ruolo vogliamo assegnare all'essere umano nel processo di conoscenza? Cosa resta dell'esperienza vissuta, dell'intuizione coltivata, del giudizio critico formato nel tempo, se la forma può essere perfettamente automatizzata e l'autenticità è sempre in dubbio?
TRE SFIDE PER NAVIGARE IL PRESENTE
Come società, stiamo imparando a vivere in un mondo dove l'aspetto di un contenuto non garantisce più né la sua origine né la sua veridicità. Questo ci pone di fronte a tre sfide interconnesse:
A livello individuale: dobbiamo sviluppare una nuova alfabetizzazione critica, capace di riconoscere i pattern tipici della generazione artificiale senza cadere nella paranoia generalizzata. L’individuo è poi chiamato a sviluppare nuove skill, nuovi orizzonti formativi e una coscienza maggiore della propria umanità.
A livello istituzionale: università, media, sistemi giudiziari devono ridefinire i loro processi di validazione della conoscenza, trovando equilibri inediti tra efficienza, autenticità e fini ultimi.
A livello civile: lo smarrimento epistemico si manifesta come crisi dei riferimenti condivisi. Non è solo il singolo a disorientarsi, ma l’intero tessuto sociale a perdere coerenza nella produzione, circolazione e riconoscimento della conoscenza. Dibattiti pubblici basati su fonti inesistenti, polarizzazioni alimentate da contenuti artificiali credibili, l’equivalenza apparente tra opinioni e dati verificati: tutto questo erode la possibilità stessa di una società civile.
Difendere la qualità della conoscenza non è solo un compito accademico, ma una necessità democratica. Perché senza linguaggi condivisi, criteri minimi di verifica e fiducia epistemica reciproca, si rischia una frammentazione culturale senza precedenti. In altre parole, non solo i conflitti d’interesse o le inclinazioni politiche alterano ricerca o risultati scientifici, ora i bias diventano inesplorabili e dettati da algoritmi.
PROSPETTIVE PER IL FUTURO CHE STIAMO COSTRUENDO
Non possiamo permetterci di limitarci a "correggere lungo il cammino". Serve una leadership consapevole, a tutti i livelli: individuale, istituzionale, sociale, economica. L'intelligenza artificiale rappresenta probabilmente la più grande trasformazione epistemologica dalla nascita della stampa, e forse anche di più.
In futuro, la conoscenza dipenderà dalla nostra capacità di sviluppare nuove forme di discernimento critico, mantenendo vivo il valore insostituibile dell'intelligenza e dell'esperienza umana in un ecosistema informativo sempre più ibrido.
La sfida non è tecnologica: è profondamente umana. È una sfida fatta d’invisibile, che si vince con domande che aprono orizzonti e intuizioni di ciò che non è ancora, e forse mai sarà, codificabile o “scaricabile”.
Io studio e le infinite connessioni tra conoscenza, coscienza e umanità diverranno sempre più importanti.
Quali domande nel tuo ambito rimarranno profondamente umane?
---
Nei prossimi articoli di questa serie, approfondirò le questioni tecniche e settoriali accennate qui. Invito lettori ed esperti a contribuire al dibattito: solo attraverso un confronto aperto potremo sviluppare approcci adeguati a questa enorme sfida storica per tutta l’umanità.
BIBLIOGRAFIA
Bender, E. M., Gebru, T., McMillan-Major, A., & Shmitchell, S. (2021). On the dangers of stochastic parrots: Can language models be too big? Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency (FAccT), 610–623. https://doi.org/10.1145/3442188.3445922
Feizi, S., Saberi, A., Rezaei, A., Sadasivan, S., Kumar, A., Chegini, S., & Wang, D. (2023). Robustness of AI-Image Detectors: Fundamental Limits and Practical Attacks. arXiv preprint. https://arxiv.org/abs/2310.00076
Graves, L. (2016). Deciding What’s True: The Rise of Political Fact-Checking in American Journalism. New York: Columbia University Press.
Nemecek, J., Jiang, X., & Ayday, E. (2025). Watermarking Without Standards Is Not AI Governance. arXiv preprint. https://arxiv.org/abs/2505.13842
Pang, L., Hu, C., Zheng, Y., & Smith, R. (2024). No Free Lunch in LLM Watermarking: Trade-offs in Watermarking Design Choices. arXiv preprint. https://arxiv.org/abs/2402.16187
European Commission. (2021). Proposal for a Regulation Laying Down Harmonised Rules on Artificial Intelligence (Artificial Intelligence Act), COM (2021) 206 final. https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX:52021PC0206
Prodotti da forno intelligenti? – Una nuova forma di ibridazione
Di recente, un’azienda di comunicazione ha reso nota un’esperienza di uso ibrido tra intuizione umana e capacità dell’intelligenza artificiale. L’azienda è stata incaricata da un cliente di sviluppare un nuovo prodotto nella linea dei prodotti da forno salati.
Va ricordato che nel marketing, quando si parla di prodotto si intende – come minimo - la combinazione tra prodotto fisico (in questo caso, quello che si mangia), prezzo, posizionamento, packaging e immagine visuale.
Per realizzare questa operazione, l’agenzia ha avviato una ricerca sensoriale con giudici umani professionisti, coinvolgendo anche consumatori e community online di potenziali consumatori, che hanno definito le caratteristiche di sapore, consistenza e dimensioni, del prodotto fisico.
Poi, utilizzando le informazioni raccolte, ha chiesto a un sistema di Intelligenza Artificiale di generare dei visual evocativi che rappresentassero le caratteristiche desiderate del prodotto. Queste immagini hanno dato input a designer e addetti al marketing per sviluppare la dimensione di immagine e packaging del prodotto, da proporre al cliente.
Il risultato, il prodotto che sarà proposto sul mercato, costituito dalle diverse componenti, sembra essere, quindi, un ibrido tra creatività umana e lavoro di analisi e di sintesi svolto da una macchina.
Questo processo sinergico uomo-macchina sembra aver amplificato la creatività umana e pone la consueta domanda: il ruolo dell’ingegno umano è insostituibile? La IA può concepire modi di pensare differenti – magari non migliori ma sicuramente alieni - da quelli possibili per un umano? Grazie alle macchine intelligenti, può estendere il concetto stesso di creatività?
Proviamo a fare una prima razionalizzazione di questo tipo di approccio ibrido:
- In un processo di brainstorming, ogni partecipante espone la sua personale idea dell’argomento. Quando le idee sono esaurite, si fa un compendio delle possibili soluzioni reali. Al termine, si sceglie una o più di una per essere approfondite e una per essere sviluppata.
- Se Inseriamo la I.A. nel processo, questa può essere ennesimo partecipante che avanza una sua proposta, nata – evidentemente dai dettagli o dalle omissioni delle altre.
- Al termine del processo, la I.A. può fare il compendio di tutte le proposte e restituirlo all’umano, che lo rielaborerà con il suo pensiero e stile personale.
Se intensifichiamo l’ibridazione, possiamo immaginare che la I.A. generi – sulla base della conoscenza acquisita – anche un compendio completo di esempi, fatti e contraddittorio, mantenendo un “tono di voce” nello stesso tempo riflessivo e inclusivo. L’umano potrà, poi, personalizzare questo compendio secondo la propria sensibilità e stile.
Questo modello di approccio unirebbe la velocità della I.A. alla profondità della riflessione umana, favorendo la naturale tendenza umana a risparmiare energia come strategia di sopravvivenza. Alla IA si può affidare il compito più gravoso, tenere traccia e organizzare i contenuti, che svolgerà velocemente. L’uomo può ri-elaborare i contenuti con il proprio tocco personale.
Il risultato finale si può considerare una soluzione accettabile? Potremmo chiederlo all’umano e alla macchina, reiterando il processo fino a quando l’umano risponde positivamente.
Come può essere definita la forma intellettuale del risultato? Ci sarebbe arrivato comunque l’uomo? Ci sarebbe arrivata la macchina tra i suoi scenari possibili attingendo allo scibile a sua disposizione?
Di fatto, sembra assodato che l’ingegno umano sia caratterizzato dalla capacità di pensare in modo critico, di immaginare nuove possibilità e di trovare soluzioni non convenzionali ai problemi.
Queste qualità sono difficili da replicare completamente con la tecnologia, anche con i progressi dell’intelligenza artificiale. Questa può analizzare grandi quantità di dati e identificare modelli, ma – per ora - manca di intuizione e di pensiero laterale.
Inoltre, l’ingegno umano è spesso guidato da emozioni, esperienze personali e valori culturali, elementi che la tecnologia non può replicare completamente.
Un prodotto sviluppato congiuntamente da umano e I.A. può essere considerato – a nostro parere - una nuova tipologia di prodotto, poiché rappresenta una fusione delle capacità uniche di entrambi, e neutralizzare felicemente la tensione tra le visioni apocalittica e integrata di queste nuove tecnologie.