UNA NUOVA SFIDA PER LA CONOSCENZA – PREMESSA METODOLOGICA

Questo articolo inaugura una serie di approfondimenti sull’impatto dell’intelligenza artificiale sui nostri sistemi di conoscenza. Il tema è troppo vasto per essere esaurito in un solo testo, e troppo importante per essere trattato superficialmente. In questa prima parte, propongo il concetto di “smarrimento epistemico” come chiave interpretativa generale. Nei prossimi articoli, scenderò nel dettaglio di questioni specifiche. Come ad esempio:

  • i meccanismi linguistici dei modelli generativi e le implicazioni cognitive nonché il tema della fiducia nella conoscenza e i suoi metodi
  • le implicazioni umane e concrete nei settori professionali (commercio, media, diritto, educazione, etc.)
  • le risposte normative, educative e pragmatiche che stiamo sperimentando

CHE COS’È LA CONOSCENZA QUANDO TUTTO PUÒ ESSERE SIMULATO?

La conoscenza può assumere forme diverse: sperimentale, narrativa, deduttiva, esperienziale. In ambito accademico scientifico, il metodo scientifico rappresenta in realtà soltanto un elemento. Questo perché, in definitiva, il gold standard conoscitivo potrebbe essere non una singola metodologia, ma la capacità di scegliere il metodo più appropriato al dominio in studio. E per rigore scientifico e intellettuale, richiede anche la capacità di rimanere aperti, in maniera trasparente, alla correzione e alla revisione costante. Non c’è una scienza, ma ci sono le “scienze”. 

Ma cosa succede quando l’intelligenza artificiale non si limita a offrirci nuovi strumenti, ma inizia a riconfigurare le infrastrutture stesse attraverso cui produciamo, trasmettiamo e valutiamo la conoscenza? È qui che si gioca la partita epistemologica del nostro tempo.

QUANDO L’APPARENZA INGANNA: IL CASO DELL’AVVOCATO E DELLE SENTENZE FANTASMA

Nel 2023, l’avvocato Steven Schwartz si è trovato protagonista di una vicenda che oggi considero emblematica. Ha presentato alla Corte di New York una serie di citazioni giuridiche generate da ChatGPT. Apparivano perfette: coerenza formale impeccabile, riferimenti precisi, linguaggio tecnico inappuntabile. Il problema? Erano completamente inventate. Sentenze mai esistite, casi mai accaduti, dottrine giuridiche nate dalla fantasia algoritmica.

Non si trattava solo di un errore tecnico. Quello che è emerso è qualcosa di più inquietante: l’erosione della relazione tradizionale tra forma e verità. La credibilità linguistica non coincide più con l’autenticità dei contenuti. È una trasformazione che tocca il cuore di come attribuiamo fiducia alle informazioni che riceviamo.

L’EROSIONE DELLA FIDUCIA: QUANDO DUBITIAMO DI TUTTO

La ricerca in psicologia sociale ci ha insegnato che la nostra fiducia in un contenuto non dipende solo dalla sua forma, ma dalla fiducia nell’infrastruttura che lo produce. Quando leggiamo un articolo su una rivista scientifica, la nostra valutazione si basa anche sulla reputazione della rivista, sul processo di peer review, sull’autorevolezza dell’autore.

Oggi, istituzioni come giornali, università e tribunali stanno iniziando a integrare sistemi di generazione automatica nei loro processi. Questo non mette sotto pressione solo la qualità dei contenuti, ma le infrastrutture stesse della conoscenza che abbiamo costruito nei secoli.

Il vero problema non è che l’IA possa generare errori o falsità. Dopotutto questo succede anche a noi esseri umani. Il punto è un altro: la contaminazione retroattiva della fiducia. Quando scopriamo che anche contenuti apparentemente perfetti possono essere sintetici, iniziamo inevitabilmente a dubitare anche di quelli autentici.

Questa è la distinzione cruciale tra semplice disinformazione (che presuppone comunque la possibilità di smascherare il falso) e quello che propongo di chiamare “smarrimento epistemico”: la perdita progressiva degli strumenti stessi per distinguere il vero dal falso. E se il falso è causato dall’utilizzo dell’IA, chi è responsabile?

OLTRE LE SOLUZIONI TECNICHE

Watermarking digitale, fact-checking potenziato, regolamenti come l’AI Act europeo: sono tutti strumenti utili, ma non risolvono il problema epistemico di fondo. Il watermarking può essere aggirato con relativa facilità, il fact-checking è strutturalmente troppo lento rispetto alla velocità di produzione dei contenuti artificiali, le norme si concentrano sulla trasparenza formale senza affrontare il problema cognitivo.

Il cuore della questione è più profondo e più umano: che ruolo vogliamo assegnare all’essere umano nel processo di conoscenza? Cosa resta dell’esperienza vissuta, dell’intuizione coltivata, del giudizio critico formato nel tempo, se la forma può essere perfettamente automatizzata e l’autenticità è sempre in dubbio?

TRE SFIDE PER NAVIGARE IL PRESENTE

Come società, stiamo imparando a vivere in un mondo dove l’aspetto di un contenuto non garantisce più né la sua origine né la sua veridicità. Questo ci pone di fronte a tre sfide interconnesse:

A livello individuale: dobbiamo sviluppare una nuova alfabetizzazione critica, capace di riconoscere i pattern tipici della generazione artificiale senza cadere nella paranoia generalizzata. L’individuo è poi chiamato a sviluppare nuove skill, nuovi orizzonti formativi e una coscienza maggiore della propria umanità. 

A livello istituzionale: università, media, sistemi giudiziari devono ridefinire i loro processi di validazione della conoscenza, trovando equilibri inediti tra efficienza, autenticità e fini ultimi. 

A livello civile: lo smarrimento epistemico si manifesta come crisi dei riferimenti condivisi. Non è solo il singolo a disorientarsi, ma l’intero tessuto sociale a perdere coerenza nella produzione, circolazione e riconoscimento della conoscenza. Dibattiti pubblici basati su fonti inesistenti, polarizzazioni alimentate da contenuti artificiali credibili, l’equivalenza apparente tra opinioni e dati verificati: tutto questo erode la possibilità stessa di una società civile.

Difendere la qualità della conoscenza non è solo un compito accademico, ma una necessità democratica. Perché senza linguaggi condivisi, criteri minimi di verifica e fiducia epistemica reciproca, si rischia una frammentazione culturale senza precedenti. In altre parole, non solo i conflitti d’interesse o le inclinazioni politiche alterano ricerca o risultati scientifici, ora i bias diventano inesplorabili e dettati da algoritmi.

PROSPETTIVE PER IL FUTURO CHE STIAMO COSTRUENDO

Non possiamo permetterci di limitarci a “correggere lungo il cammino”. Serve una leadership consapevole, a tutti i livelli: individuale, istituzionale, sociale, economica. L’intelligenza artificiale rappresenta probabilmente la più grande trasformazione epistemologica dalla nascita della stampa, e forse anche di più.

In futuro, la conoscenza dipenderà dalla nostra capacità di sviluppare nuove forme di discernimento critico, mantenendo vivo il valore insostituibile dell’intelligenza e dell’esperienza umana in un ecosistema informativo sempre più ibrido.

La sfida non è tecnologica: è profondamente umana. È una sfida fatta d’invisibile, che si vince con domande che aprono orizzonti e intuizioni di ciò che non è ancora, e forse mai sarà, codificabile o “scaricabile”.

Io studio e le infinite connessioni tra conoscenza, coscienza e umanità diverranno sempre più importanti.

Quali domande nel tuo ambito rimarranno profondamente umane?

Nei prossimi articoli di questa serie, approfondirò le questioni tecniche e settoriali accennate qui. Invito lettori ed esperti a contribuire al dibattito: solo attraverso un confronto aperto potremo sviluppare approcci adeguati a questa enorme sfida storica per tutta l’umanità.

 

BIBLIOGRAFIA

Bender, E. M., Gebru, T., McMillan-Major, A., & Shmitchell, S. (2021). On the dangers of stochastic parrots: Can language models be too big? Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency (FAccT), 610–623. https://doi.org/10.1145/3442188.3445922 

Feizi, S., Saberi, A., Rezaei, A., Sadasivan, S., Kumar, A., Chegini, S., & Wang, D. (2023). Robustness of AI-Image Detectors: Fundamental Limits and Practical Attacks. arXiv preprint. https://arxiv.org/abs/2310.00076 

Graves, L. (2016). Deciding What’s True: The Rise of Political Fact-Checking in American Journalism. New York: Columbia University Press.

Nemecek, J., Jiang, X., & Ayday, E. (2025). Watermarking Without Standards Is Not AI Governance. arXiv preprint. https://arxiv.org/abs/2505.13842

Pang, L., Hu, C., Zheng, Y., & Smith, R. (2024). No Free Lunch in LLM Watermarking: Trade-offs in Watermarking Design Choices. arXiv preprint. https://arxiv.org/abs/2402.16187 

European Commission. (2021). Proposal for a Regulation Laying Down Harmonised Rules on Artificial Intelligence (Artificial Intelligence Act), COM (2021) 206 final. https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX:52021PC0206

Autore

  • Esperto in etica applicata, innovazione organizzativa e governance strategica, con un focus crescente sull’intelligenza artificiale. Dirigente aziendale con oltre 17 anni di esperienza internazionale, collabora con imprese, enti pubblici e istituzioni accademiche su temi legati all’impatto delle tecnologie emergenti, alla leadership responsabile e alla trasformazione dei modelli decisionali. È docente all’Università Statale di Milano e formatore executive. Ha conseguito un MBA presso l’IPAG Business School di Parigi e un executive program in Artificial Intelligence presso il MIT di Cambridge (USA).

    Leggi tutti gli articoli