Gestione sostenibile delle foreste - Una risposta concreta ai problemi climatici e ambientali

Il cambiamento climatico è un dato oggettivo. 

La comunità scientifica discute sulle cause e sulle conseguenze, ma non sul fatto che le temperature sul nostro pianeta siano più calde di 30, 50 o 100 anni fa. E anche sulle cause, sono pochissimi gli scienziati che negano l’effetto delle attività umane. La discussione rimane invece aperta rispetto al peso percentuale di queste attività sul fenomeno del riscaldamento globale.

Quindi, possiamo dire che il modello di sviluppo industriale novecentesco è stato largamente responsabile di questa situazione. Parliamo essenzialmente dell’emissione di gas a “effetto serra” che impediscono al calore di disperdersi oltre l’atmosfera. Si tratta dei gas emessi dal bruciare di combustibili fossili per uso industriale, soprattutto per la mobilità e delle emissioni principalmente di CO2, ma anche di metano e protossido di azoto.

Un ulteriore aspetto da non dimenticare è il popolamento degli esseri umani sulla Terra. Non va dimenticato che gli abitanti della Terra sono passati da circa 1,5 miliardi a inizio Novecento a circa 8 miliardi oggi. Otto miliardi di persone che devono nutrirsi e che generano attività economiche, quindi consumano energia. Se il problema sono i combustibili fossili, da tempo sono noti dei possibili rimedi. In primis, la sostituzione del petrolio e dei suoi derivati con energie pulite rinnovabili (sole, vento, maree), l’efficientamento dei processi produttivi e poi il formidabile potere delle foreste.

Ma se la sostituzione del fossile non è affatto semplice perché il bisogno di energia è in continua crescita, sulle foreste il discorso diventa molto interessante. Le foreste sono un formidabile strumento di stoccaggio della CO2, di regolazione del ciclo delle piogge e di conservazione della biodiversità.

Il ricercatore inglese Thomas Crowther dell’ETH di Zurigo stima che attualmente sulla Terra ci siano circa 3.000 miliardi di alberi (!!) ma che 12.000 anni fa fossero più del doppio. Egli stima anche che sul nostro pianeta ci sia spazio per piantare circa 1.000 miliardi di nuovi alberi, che darebbero un contributo enorme a risolvere il problema dei gas serra. Basti pensare che recenti studi hanno constatato che mediamente un albero ad alto fusto assorbe ogni anno 25 kg di CO2 (dato prudenziale, fonte: Ecotree). Naturalmente una piantumazione così massiccia è impossibile all’atto pratico, ma questi dati dovrebbero far capire che la strada della salvaguardia delle foreste esistenti e dell’implementazione di nuove è imprescindibile per risolvere il problema del riscaldamento globale.

Invece è triste constatare come, tutt’ora, il saldo tra deforestazione e nuove foreste sia largamente negativo con circa 10 milioni di ettari persi ogni anno e con la sola eccezione virtuosa dell’Europa che ha 158 milioni di ettari di terreni boschivi, in aumento (Fonte: Rapporto Foreste Legambiente 2023).

---------

Dopo aver brevemente contestualizzato il problema e l’argomento di discussione, ora veniamo al tema dei crediti di carbonioSi tratta di titoli negoziabili che sono stati concepiti a seguito degli accordi del Protocollo di Kyoto. I crediti di carbonio sono strumenti finanziari introdotti con la finalità di rendere conveniente economicamente la salvaguardia delle foreste. Ogni credito equivale allo stoccaggio di una tonnellata di CO2. Di fatto le imprese possono acquistare questi titoli (su base obbligata per le grandi aziende molto energivore, su base volontaria per le altre) che corrispondono a una gestione forestale virtuosa delle grandi aree forestali africane, sudamericane e asiatiche. 

I titoli di credito di carbonio possono essere emessi da consorzi che si sono dotati di un Piano di Gestione Forestale Sostenibile certificatoIn queste aree vi è quindi la certezza (non sempre reale, temiamo) che la foresta sarà protetta e ci saranno piani di tagli programmati per aumentare comunque la massa legnosa e l’assorbimento netto di CO2. Tra regolamenti complessi, processi non sempre trasparenti e mille polemiche, in poco come di vent’anni di vita, il meccanismo dei crediti di carbonio non è stato un pieno successo, dal momento che non ha bloccato la deforestazione. Tuttavia, ha generato delle ricadute positive soprattutto con il concetto di Gestione Forestale Sostenibile.

Ma veniamo all’Italia. Nel nostro Paese le foreste godono di buona salute (forse contrariamente al sentire comune). In Italia ci sono circa 11 milioni di ettari di boschi e foreste, e questo dato è in continuo aumento dal dopoguerra (Fonte: Ministero dell’Agricoltura, Rapporto sullo stato delle foreste in Italia). 

Grafico di Forest Sisef

 

Nel nostro Paese si sta diffondendo anche la pratica delle Gestione Forestale Sostenibile: i proprietari di grandi boschi (siano enti pubblici o privati) possono costruire questi piani grazie al lavoro di dottori forestali specializzati che pianificano il monitoraggio accurato dello stato della zona interessata e definiscono  le pratiche per salvaguardare il bosco e per incrementare la sua capacità di protezione della biodiversità e dello stoccaggio di CO2. I piani di GFS devono essere costruiti secondo standard di enti riconosciuti. In Italia operano le filiali nazionali dei due maggiori enti internazionali: FSC (Forest Stewardship Council) e PEFC (Programme for Endorsement of Forest Certification).

Qual è il vantaggio di certificare i boschi? Chi vuol vendere legno a scopi industriali ha un plus se ha la certificazione, perché, sempre più, l’industria e i regolamenti richiedono legname certificato. D'altro canto, anche chi vuole promuovere l’uso di boschi per escursioni avrà un vantaggio nel dire che il suo è un bosco gestito in modo virtuoso.

Infine si stanno muovendo dei meccanismi economici. La GFS può generare dei crediti di sostenibilità, ovvero titoli che riconoscono una corretta gestione dei servizi della foresta (ecosistemici). Si tratta di un mercato ancora largamente agli inizi, che il legislatore, sia nazionale che europeo, sta facendo molta fatica a definire e regolamentare. Tuttavia oggi nel nostro Paese esistono consorzi che hanno ottenuto il via libera dagli enti certificatori per emettere crediti di sostenibilità, sulla base di una verifica di un beneficio dei servizi ecosistemici, segnatamente un calcolo dell’addizionalità nello stoccaggio di CO2 del bosco interessato.

Il prezzo di questi titoli oggi non si basa su criteri oggettivi ed è dato da accordi privati tra ente venditore e acquirenti. 

Ci si chiederà: che vantaggio acquisisce chi acquista questi titoli? Si tratta di un vantaggio esclusivamente reputazionale. Un’azienda che acquista questi titoli racconta di aver investito nella salute dei boschi e delle comunità che li abitano. 

È auspicabile che tutto questo sia solo l’inizio di una crescita di consapevolezza dell’importanza del ruolo di boschi e foreste. Se così sarà, questa consapevolezza potrà innestare un circolo virtuoso tra aziende finanziatrici e sistema naturale a beneficio di ambiente, territorio e comunità.


Triangolo, Spazio bianco, Trapezio - Strutture geometriche del management scientifico

Abbiamo visto come il manager utilitarista abbia evoluto la classica struttura piramidale del management scientifico in una strana forma composita: un triangolo, dato dal vertice e da pochi eletti; una base trapezoidale indistinta; uno spazio bianco che evita il contatto tra le due figure precedenti.

Oggi vediamo le caratteristiche di queste 3 figure del management scientifico moderno all’opera.

Il triangolo: questo livello presenta sia caratteristiche comuni a tutte le impostazioni aziendali, di qualsiasi dimensione e industry, che caratteristiche specifiche dell’impostazione utilitarista. Concentriamoci su queste ultime, ricordando che parliamo di un qualcosa che riguarda lo 0,000003% della popolazione aziendale.

  • La prima specificità è la seguente: tutti i componenti sono di netta matrice utilitarista e presentano - le attitudini manageriali che abbiamo visto nel precedente articolo e sulle quali non mi soffermerò qui. -
  • La seconda specificità riguarda i criteri di scelta: i criteri per la scelta dei componenti sono differenti a seconda delle aree (commerciale, governance, Digital/IT). Non ci sarebbe nulla di strano, se non fosse per il modello  adottato.
    • Area commerciale: criterio classico. I componenti devono avere una forte presa sulla rete di vendita e una forte business vision. Quindi: basso turnover e provenienza dalla stessa industry e in quasi sempre – incredibile dictu – dalla stessa azienda. 
    • Area di governance: criterio conservativo. Questa area in realtà è vista come un peso da sopportare per il semplice fatto che bisogna averla per legge o normative di settore. I componenti devono esserne consapevoli, perché a fronte di questo presupposto devono preoccuparsi solo di non fare danni e di compiacere il vertice. Stop. Quindi: medio turnover, provenienza dalla stessa industry e quasi mai dalla stessa azienda.
    • Area Digital/IT: criterio di sperimentazione sociale. Questa è l’area dove l’utilitarismo si sbizzarrisce in quanto i componenti sono fungibili al mantenimento del proprio network auto referenziato e alla sperimentazione di nuove forme di management scientifico. Ricordando le caratteristiche dell’utilitarismo, non sorprende che questo criterio venga adottato proprio in questa area: è quella in cui ci sono ancora nuovi ambiti/scambi da poter controvalorizzare da zero. Quindi: alto turnover, provenienza da qualsiasi industry e mai dalla stessa azienda.
  • I componenti del Triangolo sono ottimi comunicatori all’esterno, sanno scegliere in maniera perfetta gli argomenti, i canali, le tempistiche e soprattutto la platea di riferimento. I destinatari delle loro comunicazioni all’esterno sono quasi sempre loro peer o membri del proprio network
  • Chi appartiene a questo livello non ha execution risk dal punto di vista del proprio percorso di carriera. gli verrà riconosciuto il merito per qualsiasi successo  che l’Azienda raggiungerà nel breve termine, non risponderà di qualsiasi danno o fallimento sperimentato dall’Azienda nel breve/medio/lungo termine. Questo è ovvio, considerando i punti sopra riportati, e rappresenta un aspetto fondamentale perché consente di comprendere i diversi livelli di accountability che concretamente il singolo manager mette in atto.

 

Lo spazio bianco: questo livello è la vera novità della nuova struttura organizzativa. Vi chiederete da che punto di vista vada analizzato, dato che al suo interno non sono presenti risorse aziendali.Ebbene, questo spazio va studiato dal punto di vista della comunicazione. Infatti, avendo rinunciato a una cinghia di trasmissione manageriale tra i 2 livelli, l’Azienda utilitaristica basa la propria coesione sulla sola capacità di comunicare e diventa quindi fondamentale comprendere le modalità di riempimento di questo spazio bianco.

  • Argomenti affrontati:
    • Quelli dall’alto verso il basso sono sempre generici e quindi inconfutabili; difficilmente il Triangolo entra nel vivo della vita aziendale quando comunica e preferisce toccare temi sociali o di contesto su cui tutti non possono che riconoscersi. Da questo punto di vista, assistiamo quasi al paradosso di vedere l’utilitarismo sposare uno degli esiti della morale kantiana.
    • Quelli dal basso verso l’alto sono sempre appiattiti e a scarso valore aggiunto per chi fosse, eventualmente, interessato a raccoglierli Questo può essere dovuto a più ragioni che non si riescono a esplorare in maniera esaustiva nello spazio di questo articolo. Sicuramente l’esito è quello di un’occasione persa.

La combinazione di questi due aspetti fa sì che sia molto più facile sapere cosa sta accadendo dentro e fuori l’azienda andando a leggere i mezzi di comunicazione pubblici, piuttosto che i contenuti presenti nello Spazio Bianco.

  • Impostazione:
    • Dall’alto verso il basso si assiste a un wording asettico; è questa un’evoluzione rispetto al puro formalismo, perché si tratta di un linguaggio che vorrebbe essere coinvolgente ma non riesce ad esserlo, e né d’altronde potrebbe riuscirci. Infatti tra l’attenzione al politically correct e la necessità di evitare termini che potrebbero urtare chissà quale sensibilità, al destinatario non rimane nulla del messaggio che si vorrebbe trasmettere. Questo è sicuramente frutto della volontà di fare override di qualsiasi caratteristica culturale, per omogeneizzare la popolazione aziendale.
    • Dal basso verso l’alto il linguaggio è diretto, a volte sfrontato. Il limite principale è quello di usare ancora un wording che dà troppo per scontato che i destinatari della comunicazione abbiano lo stesso background culturale dei mittenti, mentre non è più così. Quindi a volte si rischia di essere o troppo diretti oppure fraintesi. Da questo punto di vista i componenti del Trapezio devono ancora fare uno sforzo significativo per essere maggiormente efficaci nel comunicare.

La combinazione di questi due aspetti fa sì che chi dall’esterno legge le comunicazioni presenti nello Spazio Bianco, possa pensare di trovarsi di fronte a un verbale di un’assemblea generale di un grande Partito politico della Prima Repubblica.

  • Tempistiche:
    • Dall’alto verso il basso il timing è calibrato nell’ottica del “poi non dire che non te lo avevo detto”. La comunicazione istituzionale viaggia con tempi che nascondono - neanche troppo – il fatto che la stessa sia vissuta come un atto dovuto, nulla più.
    • Dal basso verso l’alto il timing è diverso in base al tipo di comunicazione: si va dal random (nel caso di condivisione di fatti di vita aziendale) al very last minute (nel caso di comunicazione istituzionale).
  • Canali: ormai i canali di comunicazione sono molteplici ed efficienti; si va dalla mail ai social, passando per tool aziendali più o meno complessi, a seconda dei casi e delle necessità. Qui esiste una vera e propria mappa dei canali da usare rispetto alla finalità della comunicazione. Rimarco solo l’impiego sempre più decrescente del canale più antico del mondo, e cioè quello fisico: anche qui le ragioni sono varie e occuperebbero troppo spazio.

Vale la pena riportare giusto una nota differenziante del nuovo management scientifico, e cioè lo slogan “per chi vuole, la mia porta è sempre aperta”. Questa è una perla che, unita a tutti gli altri punti, sintetizza il valore dello Spazio Bianco nella nuova struttura aziendale

 

Il Trapezio: questo livello chiaramente c’è sempre stato, mentre nel tempo è cambiata la sua composizione ed è quindi da questo punto di vista che lo analizziamo.

  • Competenze: così come avviene in molti contesti attuali, l’estrema specializzazione del lavoro porta all’aumento del mix di competenze presenti nel Trapezio. La partizione di competenze, già in fieri sin dal concepimento del management scientifico, è adesso arrivata a livelli estremi per cui non esiste più nessuno che possa essere veramente autonomo nel condurre la propria attività. Un tempo questa impostazione era tipica delle catene di montaggio, adesso viene applicata anche ai cosiddetti “lavori di concetto” e questo fa ben capire il ruolo e la dignità del capitale umano nella concezione utilitaristica al lavoro. Questo livello quindi è pieno di competenze diverse, il che le rende a lungo andare tutte uguali nel senso che sono tutte pienamente fungibili, con chiari benefici da parte del Triangolo.
  • Gerarchie: in questo livello le gerarchie sono molto sfumate, fenomeno paradossale considerando il suo evidente ispessimento rispetto a solo 50 anni fa; adesso fanno parte del Trapezio figure che un tempo sarebbero sicuramente state in livelli superiori dell’organizzazione anche se non nel Triangolo (il cosiddetto middle management, ad esempio), eppure questa differenziazione sta perdendo di significato. Non serve più distinguere per livelli in maniera sostanziale: nel Trapezio hanno tutti la stessa valenza decisionale ed esecutiva di fronte all’azienda e resta qualche residuo legato ad alcuni aspetti istituzionali, quali il processo valutativo o remunerativo, ma sempre più pilotati dall’alto, lasciando poche leve a chi li deve agire dal basso.

Nel breve termine questo aspetto viene percepito molto positivamente da tutti i componenti, nel medio si inizia a percepire l’inganno che si nasconde dietro a questo apparente “mondo degli uguali”.

  • Anzianità: questa è chiaramente funzione dell’industry di cui parliamo, e del ciclo di vita in cui si trova l’Azienda. Un aspetto che differenzia l’impostazione utilitarista dalle altre è l’impiego delle risorse in età pre-pensionabile. Nelle aziende non utilitariste queste risorse, negli ultimi mesi/anni di attività vengono impiegate, anche part-time, per la formazione e per il passaggio di consegne. Nelle aziende utilitariste, prive di memoria, le stesse risorse vengono accantonate per non contaminare il futuro con il passato
  • Fidelizzazione: il fatto che questa sia decrescente è comprensibile in base a quanto spiegato fin qui, e d’altronde non sembra che la fidelizzazione sia un tema che stia particolarmente a cuore in questo tipo di impostazione. E’ invece interessante studiare l’interazione tra i giovani e l’azienda: infatti possiamo immaginare che i profili giovani siano quelli che meglio aderiscono ai nuovi standard, semplicemente perché sono cresciuti nella convinzione – trasmessa dagli stessi decision maker che compongono il Triangolo - che questi standard siano gli unici possibili e corretti. Quello che andrà capito è quanto, nel medio termine, questo binomio sia sostenibile nelle aziende di grandi dimensioni. Chi, dei giovani che oggi compongono il Trapezio, entrerà per vie traverse (e non per carriera interna, per quanto detto prima) a far parte del Triangolo? E che impostazione saprà dare all’Azienda? Quale stile avrà il giovane di oggi e manager di domani, cresciuto in un contesto lavorativo senza memoria?

Ancora non c’è una serie storica significativa per rispondere a queste domande, almeno in Italia. Sicuramente ne riparleremo alla prossima generazione del management scientifico!




OpenAI e Sam Altman - Anatomia di un Qomplotto, prima parte

Si è molto parlato (nelle scorse settimane) del licenziamento di Sam Altman, amministratore delegato di OpenAI, un laboratorio di ricerca sull'intelligenza artificiale costituito dalla società no-profit OpenAI, Inc. e dalla sua sussidiaria for-profit OpenAI, L.P. L'obiettivo dichiarato della sua ricerca sarebbe promuovere e sviluppare un'intelligenza artificiale amichevole (friendly AI) in modo che l'umanità possa trarne beneficio.

Cerchiamo di ricostruire la vicenda.

1. AMERICAN HISTORY Q

Nella cultura americana contemporanea la Q non è una lettera come le altre, perché esercita una forza mitopoietica di cui il resto dell’alfabeto è privo.

Il 6 gennaio 2021 coloro che assaltano la sede del Congresso a Washington brandiscono bandiere con la Q di QAnon: la teoria del complotto universale che per milioni di persone negli USA (e nel resto del mondo) ha trasformato Donald Trump in un supereroe da fumetto contro i poteri occulti del deep state.

Il 22 novembre 2023 la «Reuters» spiega che il licenziamento di Sam Altman da parte del consiglio di amministrazione di OpenAI sarebbe stato giustificato da una lettera di delazione[1], con cui alcuni dipendenti dell’azienda hanno illustrato ai membri del board i pericoli per l’umanità in agguato nelle prossime versioni di ChatGPT.

Il progetto Q* ha appena superato con successo i primi test e si prepara a liberare nel mondo un’AGI – un’intelligenza artificiale generale – armata di una competenza letteraria vasta quanto l’universo, che include le storie sul Golem e sulle altre hybris del genere Frankenstein.

L’assalto al Campidoglio non ha avviato la guerra civile; la minaccia che dai progressi dei software di OpenAI si inneschi l’«esplosione» di un’intelligena artificiale destinata a sostituire l’uomo nel dominio della Terra confida su una probabilità nulla di avverarsi.

La destituzione di Altman, avvenuta il 18 novembre, è un evento simile ad un colpo di stato; anche più di quello tentato dallo Sciamano e dai suoi compagni al Campidoglio nel gennaio 2021, se si considera che OpenAI ha beneficiato di un investimento di 13 miliardi di dollari da parte di Microsoft[2], equivalente al doppio del PIL della Somalia, superiore a quello di un’altra decina di nazioni africane, e pari a quello dell’Armenia, del Madagascar e della Macedonia.

Il finanziamento è in larga parte da ascrivere al rapporto di fiducia tra Kevin Scott, CTO di Microsoft, e Altman; la sua cacciata non è stata preceduta da alcun segnale di crisi, e si è consumata in una fase di espansione e di prosperità dell’azienda.

ChatGPT 3.5 si è laureato nel gennaio 2023 come il servizio internet con la crescita di utenti più veloce di sempre: in soli due mesi dal lancio ha raggiunto la quota di 100 milioni di utenti attivi[3], bruciando in questa competizione il risultato di TikTok (nove mesi) e quello di Instagram (due anni e mezzo).

Il trionfo ha imposto il tema dell’intelligenza artificiale e delle reti neurali all’attenzione del pubblico di massa, ma ha anche riconsegnato a Microsoft una posizione di primato tra le protagoniste dell’innovazione tecnologica.

Il motore di ChatGPT è stato integrato in Bing, e il suo inserimento strutturale nei prodotti di Office (con il marchio «Copilot») è in fase di sperimentazione avanzata.

Trasformerà il rapporto dei colletti bianchi di tutto il pianeta con i loro computer, convertendo in automatico poche idee scarabocchiate con un elenco puntato in un documento di cinque pagine, o in una presentazione Power Point attrezzata di tutto punto; per converso, sarà capace di tradurre il vaniloquio di ore di riunione in un report agile da condividere via mail, e gestirà le operazioni di controllo delle entrate e delle uscite su Excel.

Tuttavia, i burocrati diventeranno ancora più fannulloni, gli impiegati ancora più analfabeti, e Microsoft gioirà sulle disgrazie umane con un valore di mercato anche più immenso di quello attuale.

Quindi siamo di fronte a un caso di «Q di Qomplotto», per usare un’espressione presa in prestito dall’analisi del caso Qanon elaborata da Wu Ming 1 (2023)?

 

2. INTELLETTUALI E IMPRENDITORI

La stupidità spiega molti più misteri del retropensiero, e persino più della serietà del giornalismo di inchiesta.

Potrà sembrare un paradosso, ma lo scenario dei profitti smisurati e la prospettiva di una nuova forma di dominazione culturale sulla produzione dei contenuti business, sono all’origine del colpo di mano del CDA contro Altman.

La governance di OpenAI presentava fino al 18 novembre una configurazione ereditata dalla missione originaria della società, fondata sulla strategia «open source» di Altman, Elon Musk e Peter Thiel[4]: il metodo per assicurare un progetto di intelligenza artificiale a beneficio dell’umanità, e priva di rischi per il futuro, coincide con lo sviluppo di modelli accessibili a tutti, quindi sottoposti al controllo dell’intera comunità degli esperti. Anche dopo l’uscita di Musk dal consorzio, e la maggiore integrazione in Microsoft dal 2020, il comparto di OpenAI destinato alla produzione di servizi for-profit è rimasto sottoposto allo scrutinio di un consiglio di amministrazione nominato dalla componente no-profit.

Nel novembre 2023 il board annoverava oltre ad Altman altri quattro personaggi: Helen Toner, Ilya Sutskever, Adam D'Angelo, Tasha McCauley. Toner ha maturato una carriera di primo piano nell’ambito delle organizzazioni umanitarie grazie al suo coinvolgimento nel movimento accademico dell’«altruismo efficace»[5], che si richiama alla lezione dei filosofi morali Peter Singer, Toby Ord, William MacAskill, e che esercita un’influenza di ampio respiro sull’upper class americana.

Dai temi della beneficienza e del miglioramento delle condizioni di vita nei Paesi più poveri del pianeta, questa corrente di pensiero è passata alla riflessione sulle professioni meritevoli di essere intraprese, e si è estesa ai «rischi esistenziali» e ai «rischi di catastrofe globale»; con una forte vocazione di futurologia che oscilla tra parossismo e parodia (involontaria) del «principio responsabilità» di Hans Jonas (1979).

In questo contesto viene intercettato l’insegnamento di Nick Bostrom (2014), che arruola tra i propri fedeli anche McCauley e Sustkever, nonostante la loro formazione tecnica di altissimo livello, e li allea alle preoccupazioni di Toner. Le tesi di Bostrom sulle «superintelligenze» sono molto famose, anche grazie alle metafore che ha inventato per rendere più persuasiva la distopia che alimenta la sua ansia: mancano pochi anni all’esplosione delle capacità di raziocinio delle intelligenze artificiali, che travolgeranno quelle naturali per velocità, vastità e precisione di intuizione, quantità di memoria, organizzazione e controllo; ma l’attivazione delle loro facoltà produrrà più conseguenze rovinose per l’umanità rispetto a quelle utili.

Qualunque sia lo scopo cui sarà indirizzata, ciascuna superintelligenza tenderà in modo necessario a perseguire comportamenti utili per la propria sopravvivenza e per il raggiungimento degli obiettivi che compongono la sua ragion d’essere: in primo luogo attraverso l’affinamento della potenza di calcolo e della raccolta di risorse necessarie. Di conseguenza, la macchina cui sarà assegnato, per esempio, il compito di creare graffette, agirà in modo da ottimizzare al massimo l’ambiente a questo scopo, riducendo la Terra intera a un deposito di materiale lavorabile e di graffette già confezionate – genere umano incluso.

L’iperbole di Bostrom potrebbe implicare una critica al modello liberistico della visione del mondo, in cui la razionalità coincide con una subordinazione degli elementi della natura e del lavoro dell’uomo (tutti convertiti in risorse) agli obiettivi di produzione, senza alcun interesse per l’orizzonte di senso in cui il processo dovrebbe essere calato. Questo genere di valutazione può incrociare l’allarme per le conseguenze che l’automazione introdotta dal Copilota nella suite Office potrà determinare nelle facoltà di riflessione, di elaborazione strategica, persino di articolazione linguistica, di gran parte degli impiegati e dei dirigenti del mondo.

Di certo si può paventare una scivolata nel processo di proletarizzazione tecnologica degli individui (di tutte le fasce sociali) impegnati in una professione di tipo intellettuale, almeno nei termini di Stiegler (2012). Ma la furia distopica di Bostrom non si placa a così poco prezzo: brama molto di più di una situazione critica che potrebbe suscitare un dibattito serio; esige che la conversione degli esseri umani nei cervelli in una vasca di Putnam (1981) diventi un canovaccio plausibile, il paradigma delle minacce reali.

Per il CDA di OpenAI il passaggio dal Copilota alle graffette è fin troppo breve; tanto più che Microsoft ha già attentato alla pazienza dell’umanità con Clippy dal 1996 al 2007, il mostruoso assistente di Office a forma di graffetta antropomorfa. È bastato un incidente qualunque nel rapporto tra Altman e Toner per innescare i cinque giorni di crisi che negli uffici di Seattle sono stati battezzati, senza alcun aiuto di copywriting da parte di ChatGPT, il Turkey-Shoot Clusterfuck di OpenAI.

Appena annunciata la notizia della deposizione di Altman, la piattaforma Reddit è stata presa d’assalto da un tumulto di commenti[6] e tentativi di interpretazione del colpo di mano ai vertici di OpenAI, molti dei quali in chiave di Qomplotto. Q* è davvero la culla dell’AI che ci trasformerà tutti in graffette? È il Clippy odioso che abita dentro ciascuno di noi, la nostra anima di silicio?

 

Lo sapremo a breve, con un nuovo post.

 

NOTE

[1] https://www.reuters.com/technology/sam-altmans-ouster-openai-was-precipitated-by-letter-board-about-ai-breakthrough-2023-11-22/

[2] https://www.newyorker.com/magazine/2023/12/11/the-inside-story-of-microsofts-partnership-with-openai

[3] https://www.reuters.com/technology/chatgpt-sets-record-fastest-growing-user-base-analyst-note-2023-02-01/

[4] https://www.nytimes.com/2015/12/12/science/artificial-intelligence-research-center-is-founded-by-silicon-valley-investors.html

[5] https://it.wikipedia.org/wiki/Altruismo_efficace

[6] https://www.reddit.com/r/singularity/comments/181oe7i/openai_made_an_ai_breakthrough_before_altman/?rdt=54043


Un manager utilitarista - Il management scientifico alla prova dei fatti

Negli ultimi mesi ho modo di vedere l’etica utilitarista messa in opera da parte di un gruppo di manager di un’azienda multinazionale.

Non parlo di attitudini caratteriali o di comportamenti specifici che ognuno di noi può avere, parlo proprio di un’impostazione che permea il pensiero, le parole, le azioni e le decisioni dell’individuo.

Parlo di un qualcosa di sistematico che, se applicato alla conduzione di un’azienda, può a ragion veduta definirsi management scientifico: c’è un metodo standard, c’è uno stile manageriale reiterabile, c’è l’estrema specializzazione del lavoro che – in ultima istanza – porta alla piena fungibilità dello stesso.

E la prima volta che mi capita di osservare una cifra etica così netta e chiara; e la cosa non va sottovalutata, perchè tutta la storia della globalizzazione degli ultimi 250 anni si basa su questa etica.

Volete sapere come me ne sono accorto?

Eccovi alcuni esempi.

Il manager utlitarista presenta i risultati di fine esercizio senza commentare neanche un numero della situazione attuale, e concentra tutto l’intervento sul nuovo livello di aspettative del mercato, sulla propria visione strategica e su cosa fare per migliorare la propensione degli investitori.

Cosa è stato raggiunto o fallito nel passato non conta; conta la decisione, adesso, decontestualizzata dalle ragioni che hanno portato ad un determinato stato dell’arte.

Il passato conta solamente in quanto deve essere rimesso in discussione, ma attenzione: non lo si rimette in discussione, per preconcetto o per dare un messaggio di discontinuità.

Lo si rimette in discussione perché è eticamente giusto farlo, perchè il processo decisionale passa dal discreto al continuo, e l’esistenza stessa dell’individuo è un continuo decidere e rielaborare la decisione.

Non a caso il manager utilitarista dichiara sin dall’inizio che sì, è vero, esiste un piano strategico, ma che poi all’interno di tale piano si può (anzi si deve) cambiare direzione n+1 volte.

Certo che è strano: una scienza basata sulle aspettative e non sulla accumulazione delle esperienze...mai vista!

Ma forse sì, se la si applica al management di azienda può essere sostenibile... sicuramente l’utilitarismo consente di fare un passo avanti rispetto ai nostri stereotipi…

Poi, il manager utilitarista identifica dal mercato i propri collaboratori, manager a riporto diretto, presentandoli come il meglio possibile per l’azienda, e rimuovendoli dopo poche settimane senza neanche sentirsi in dovere di spiegare il perchè e cosa sia cambiato rispetto al loro ingresso di poco tempo prima.

Il fatto che ogni ingresso a quei livelli comporti l’avvio di riorganizzazioni aziendali e di nuove relazioni personali non conta, visto che per lui è uguale essere a capo dell’azienda X o dell’azienda Y, sono invarianti anche i nomi dei propri collaboratori e i diversi possibili set up organizzativi.

Tutto è pienamente fungibile, quando si deve massimizzare l’utilità.

Questa me la spiego facilmente dai... il sapere scientifico deve essere invariante rispetto all’individuo, altrimenti è soggettivo; giusto, giusto, sarà per questo che le organizzazioni del manager utilitarista sono tutte piatte: un vertice (il manager stesso), un “cerchio della fiducia” di poche decine di eletti, e migliaia di persone appiattite.

Ah, un attimo, c’è qualcosa che non torna... la scienza applicata all’azienda prevede una struttura piramidale ben definita, qui invece abbiamo: un triangolo, uno spazio bianco, e un grandissimo trapezio sotto. Che roba è? Mi sembra quasi che si sia passati dalla massimizzazione del profitto di azienda alla massimizzazione del profitto individuale. Ma forse, anzi sicuramente, mi sto sbagliando....

Ancora: il manager utilitarista trasforma in valore economico anche le ultime categorie che erano rimaste non oggetto di scambio: l’ambiente e l’identità sessuale.

Essendoci un legame diretto tra massimizzazione dell’utilità e valore degli scambi, negli ultimi anni si stava osservando un problema abbastanza serio per l’utilitarismo: era finito il genere di item passibili di scambio.

E allora ecco che il manager utilitarista definisce come oggetto di scambio, e quindi portatore di valore da massimizzare, cose che prima non lo erano: l’aria, l’acqua, l’identità di genere, e gli dà un nome: ESG.

L’ossigeno? Lo si produce forestizzando i terreni pastorizi del Paese X, lo si “impacchetta” e lo si vende a lotti virtuali alle aziende che inquinano nel Paese Y.

Il pride? Rappresenta un target di clientela nuovo, interessante: e allora perchè non fare un’analisi delle abitudini di spesa dei partecipanti, venderla al Comune ospitante, che così decide i percorsi dei cortei in modo da ottimizzare la presenza degli esercizi commerciali che rispondono a tali abitudini di spesa?

Tutto è pienamente scambiabile, quando si deve massimizzare l’utilità.

La Data Science applicata al management di azienda, ecco: questo è uno spunto veramente “scientifico”! Certo, il fatto che si basi su una funzione che tende asintoticamente a zero, perchè prima o poi gli oggetti di scambio finiranno veramente, potrebbe far pensare che non mi stessi sbagliando poi tanto con la mia precedente impressione...chissà!

In ultimo: il manager utilitarista ci dice che il futuro della cultura è nel Metaverso e nella Generative AI: nuove esperienze, felicità garantita, poter essere contemporaneamente in più luoghi senza essere realmente da nessuna parte.

Non è ancora chiaro cosa muova il manager utilitarista: forse la massimizzazione dell’utilità e della felicità individuale; forse lo spirito “scientifico”.

Quello che non ho ancora capito è qual’è il vantaggio per il manager utilitarista: mi auguro che lo scopo sia, anche qui, semplicemente quello di avere un nuovo item oggetto di scambio; mi auguro a questo punto che sì, le impressioni che ho manifestato in precedenza fossero corrette, e che ce la caviamo banalmente dicendo che l’utilitarismo applicato in un’azienda “scientificamente” organizzata porta solo alla massimizzazione del valore per un singolo individuo.

Non è bello ma me lo auguro perchè, se così non fosse, se ci fosse qualche altro razionale, gli effetti finali potrebbero essere ben più devastanti.

 


Sostenibilità - Una sfida scientifica, tecnologica e sociale per le aziende

Da qualche anno si parla tantissimo di sostenibilità e di sviluppo sostenibile, ma di cosa parliamo esattamente?

Il concetto di sviluppo sostenibile è stato fissato dalla Commissione Brundtland (Onu) nel rapporto “Our common future” del 1987. In quel rapporto si parlava della necessità di garantire il benessere delle generazioni future, letteralmente: “Lo sviluppo sostenibile è quello sviluppo che consente alla generazione presente di soddisfare i propri bisogni senza compromettere la possibilità delle generazioni future di soddisfare i propri.

A partire da quegli anni ci si è resi conto che gli squilibri tra il nord e il sud del mondo non erano più accettabili e che il modello di sviluppo del mondo industrializzato non poteva durare per i danni ambientali e sociali che portava con sé.

È nato quindi il concetto di sostenibilità basato su tre pilastri: la sostenibilità economica, ambientale e sociale; tre aree di intervento che sono chiaramente interconnesse fra loro. E dai primi anni 90 in poi l’argomento è diventato sempre più al centro del dibattito internazionale e sempre più diffuso anche tra il grande pubblico.

Vediamo di fare qualche considerazione sull’oggi centrata sul nostro Paese:

  • La sostenibilità è uscita dal recinto del dibattito per tecnici ed è diventata anche un driver di business per le imprese
  • Per le imprese è un elemento di rafforzamento della corporate reputation ma può diventare argomento pericoloso e scivoloso, quelle che sbandierano le loro virtù sostenibili sono anche le più vulnerabili ad attacchi mediatici per come agiscono
  • Se ne parla tanto, forse troppo, se ne parla male, con superficialità o ideologicamente; c’è un interessante rapporto del Marco Frey (un’autorità in materia) che spiega come ci sia saturazione nell’opinione pubblica verso il tema

In altre parole, il sovrautilizzo della parola e dei concetti che rappresenta rischia di svuotare la stessa di significato, rende difficile per il cittadino capire chi opera correttamente e chi fa greenwashing e soprattutto la banalizzazione di certi temi – insieme alle discutibili manifestazioni dell’ambientalismo estremista – fanno sì che l’opinione pubblica si stia dividendo e polarizzando.

Ci sono molti gruppi di attivisti, che spesso operano con una carica emotiva che esclude la razionalità, e c’è una larga parte di popolazione ormai indifferente se non infastidita da un tema che sembra per molti versi lontano dai “problemi reali”. Questa situazione aggiunge incertezza per come affrontare un cambiamento già di per sé è tutt’altro che facile.

-------------

In un interessante intervento al Salone della CSR - che come ogni anno dal 2012 si svolge ai primi di ottobre in Bocconi a Milano - il professor Stefano Zamagni ha illustrato una tesi (che sostiene da tempo) sul concetto di Sostenibilità, che trovo particolarmente interessante.

Zamagni è un economista decisamente poco allineato: laureatosi alla Cattolica di Milano e da sempre vicino al mondo cattolico e del non profit, ha insegnato in università italiane (Parma, Bologna, Bocconi), inglesi e spagnole. Ha collaborato con Joseph Ratzinger prima e dal 2013 con Papa Bergoglio e oggi dirige la Pontifica Accademia delle scienze sociali. Ma Zamagni è conosciuto soprattutto per la riscoperta dei concetti dell’Economia civile che affonda le sue radici nel pensiero della scuola economica napoletana del 700.

In estrema sintesi (mi perdonerete…) l’Economia civile si pone come alternativa all’Economia politica che nasce con Adam Smith nel 700 e che è il paradigma che ha dominato e permeato lo sviluppo del capitalismo in occidente. A differenza del pensiero economico di matrice anglosassone che è sfociato nel liberismo prima e nel neoliberismo di Milton Friedmann negli anni 60 del secolo scorso, l’Economia civile si basa sul concetto di “bene comune” in cui i soggetti economici non lavorano solo per il mero profitto.

Si capisce quindi come delle tre gambe della Sostenibilità, a Zamagni interessi maggiormente quella sociale. Egli pensa che siano le imprese a trainare la riflessione e l’azione su questo tema, anche più delle istituzioni.

Quindi è sulla sostenibilità sociale il challenge maggiore per le imprese oggi.

Infatti la sostenibilità economica non può che essere un prerequisito, impossibile da bypassare, l’unica problematica della sostenibilità economica è creare regole condivise per tutti, ed evitare situazioni di vantaggio per singoli paesi o aziende.

Il caso più classico è la Cina, il maggior produttore al mondo di batterie per la mobilità elettrica per noi europei è anche il più grande inquinatore del pianeta. Il mix energetico cinese infatti si basa per l’85% sulle fonti fossili e per il 15% sulle fonti rinnovabili ed è il maggiore consumatore di carbone al mondo con una quota del 50,2%. (Fonte Crea)

È giusto far notare comunque che certe fughe in avanti prospettate dagli ambientalisti duri e puri prescindono totalmente da valutazioni economiche, come se le risorse finanziarie fossero una variabile indipendente dalla realtà, una situazione questa che è la premessa per creare, appunto, le diseguaglianze di cui si diceva.

Quanto alla sostenibilità ambientale, essa può essere normata e misurata (pur con tutte le difficoltà, le polemiche e la complessità di trovare soluzioni condivise). La sostenibilità ambientale alla fine è un insieme di regole, si tratta di decidere quali applicare e come, ma una volta individuate c’è poco da discutere, si è dentro o fuori dal set definito.

Eccoci quindi alla terza area della sostenibilità, quella sociale, che è senza dubbio quella di cui è più difficile definire i contorni concettuali e le regole, ma è anche quella che impatta in modo più diretto sulla vita delle persone.

L’osservatorio della Fondazione Sodalitas sulla Responsabilità Sociale d’Impresa ha condotto una ricerca su un campione di 100 imprese appartenenti alla Fondazione per capire “a che punto siamo”.

Ne viene fuori un quadro di notevole sensibilità e responsabilità che poggia su alcuni pilastri:

  • l’ascolto degli stakeholder interni ed esterni all’impresa
  • il benessere dei dipendenti
  • l’attenzione e l’integrazione con il territorio
  • l’importanza del fare rete

Certo fa piacere sentire che le aziende sono concentrate su questi temi e che spingono verso una situazione virtuosa, tuttavia è anche facile pensare che si tratti di un’indagine su un campione “drogato” in senso positivo; tutte imprese che fanno parte della Fondazione e che quindi sono molto sensibili al tema.

Ma si potrà dire altrettanto del complesso delle aziende italiane? Non credo proprio di sbagliare se dico che la risposta è no e che c’è ancora molto da fare in questo senso.

Purtroppo, al di là dei molti codici etici, bilanci di sostenibilità, compunte dichiarazioni di CEO molto attenti alla propria immagine, la sostenibilità sociale pare essere un lusso per imprese economicamente molto solide.

Il vero scatto in avanti si farà quando i comportamenti di Corporate Social Responsibility non dipenderanno dalla sensibilità dei singoli ma saranno frutto di una cultura condivisa e di regole riconosciute. Ci vorrà del tempo ma la sfida è questa, non può esistere sostenibilità senza la sua componente sociale.


Knowledge Management - Una visione critica tra antropologia e sociologia

Il concetto di Knowledge Management[1] - che comprende i sistemi e i processi di gestione della conoscenza di un’organizzazione - è un mito aziendale, un oggetto simbolico a cui si attribuisce il potere magico di “mettere a posto le cose”.

Proprio per questa dimensione mitica e magica, rischia di avere limitati spazi di applicazione pratica e di non mantenere le promesse che evoca.

Spesso l’obiettivo del KM è descritto con tre asserzioni che ne riassumono la promessa di valore:

  • “assicurare, in modo efficace, il passaggio del sapere dall’individuale al collettivo”
  • passare “dal sapere individuale al sapere collettivo”,
  • passare “dal sapere tacito al sapere esplicito”

A questa descrizione dell’obiettivo del KM manca solo l’efficienza, categoria di pensiero che, in pratica, significa “fare di più con un costo minore”

--------

Il percorso che seguo per spiegare perché sostengo che il KM è un mito che promette e che non mantiene, attraversa:

  1. una breve storia del concetto
  2. i suoi assunti di base applicati alle organizzazioni
  3. gli obiettivi e le promesse dei progetti di KM
  4. il corollario di queste promesse, ossia quali pratiche un KMS dovrebbe sostituire
  5. le difficoltà e le distorsioni incontrate in progetti di KM.

--------

1. Breve storia del concetto di Knowledge Management

Il KM  “è una disciplina aziendale che si riferisce alla gestione e alla condivisione della conoscenza tra esseri umani. Il Knowledge Management si affaccia sulla scena manageriale a partire dagli anni ’90 grazie al lavoro di due studiosi giapponesi: Ikujiro Nonaka e Hirotaka Takeuchi”[2]; esso si focalizza su come poter mettere a servizio di tutta l’azienda le conoscenze professionali specifiche di ogni membro.

Questa logica spinge il knowledge management a diventare un sorta di “filosofia” della collaborazione e della condivisione negli ambienti di lavoro, tanto che Ikujiro Nonaka lo definisce come “un processo umano dinamico di giustificazione del credo personale, diretto verso la verità”[4].

Nella pratica, si tratta di “strategie e metodi per identificare, raccogliere, sviluppare, conservare e rendere accessibile la conoscenza delle persone che fanno parte di una organizzazione assume la moderna connotazione e prende il nome di knowledge management, o gestione della conoscenza organizzativa, avvalendosi di strumenti delle tecnologie dell’informazione sempre più sofisticati: i cosiddetti knowledge management system”[3].

I Knowledge Management System sono sistemi informatici che permettono di creare una biblioteca di argomenti e di informazioni relative al know-how di una organizzazione, di indicizzarli e di metterli a disposizione dei membri dell’organizzazione stessa con relativa facilità.

2. Assunti alla base

Ritengo che gli assunti più rilevanti alla base del concetto di KM siano:

  • che esista un corpus disciplinare, cioè un insieme di conoscenze, competenze, norme e procedure che descrive “come si fanno le cose”; il corpus disciplinare è necessario, senza di esso non si può fare Knowledge Management
  • che il corpus disciplinare sia completo, formalizzabile e riassuma quanto serve sapere per “fare le cose”
  • che si possa trascrivere il sapere specialistico delle persone in modo stabile, durevole, organizzabile, indicizzabile e leggibile, per renderlo fruibile - come e quando serve - da parte di altre persone, “che non sanno”.

3. Obiettivi e promesse

Si rilevano di frequente alcune promesse di valore del KM che riguardano più da vicino il modo d’essere delle organizzazioni:

  • oggettivare e formalizzare il sapere specialistico delle persone “che fanno un certo mestiere”
  • facilitare il trasferimento e la collettivizzazione del sapere
  • passare da “formare” sulle competenze a “addestrare alla consultazione”
  • ridurre la formazione e i tempi di apprendimento, imparando la funzione “cerca” e saper leggere
  • aumentare l’efficienza operativa grazie alla immediata e contestualizzata disponibilità di informazioni

È evidente che l’orizzonte di valore proposto dal concetto di Knowledge Management converge in questi due punti: ridurre i costi e svincolare l’organizzazione dai singoli attori depositari della conoscenza.

4. Corollario: l’illusione della sostituzione

Il concetto e i progetti di KM promettono, illusoriamente, di ridurre al minimo - con effetti positivi su tempo e costi:

  • la selezione, il reclutamento e l’onboarding di personale secondo criteri di adeguatezza al compito;
  • le sessioni di formazione;
  • l’apprendistato sul campo – con risparmio anche del tempo dell’esperto che fa e spiega;
  • le curve di apprendimento e l’inefficienza dei nuovi addetti;
  • la dipendenza dalle persone più senior con maggiori competenze e costi più elevati

Provo a fare un paio di esempi:

  • un frigorista che fa attività di assistenza e riparazione presso i clienti è “maturo” dopo circa un anno e mezzo di formazione, affiancamento, tentativi, errori, insuccessi. Dopo un anno e mezzo ha imparato abbastanza bene a riconoscere e diagnosticare i principali guasti, i rumori sospetti e le loro cause, i rischi di rottura a breve, i modi con cui tranquillizzare e vendere gli interventi al cliente.
  • un operatore di assistenza telefonica deve comprendere un insieme complesso di stati d’animo, problemi in primo piano e problemi impliciti, rischi di reclamo, esigenze, e discernere le migliori soluzioni da proporre al cliente, al telefono o via chat. La curva di apprendimento può essere di alcuni mesi e richiede sessioni di formazione, ascolto, counseling di colleghi esperti, imitazione comportamentale, errori e figuracce.

Ho visto personalmente manager seri e navigati emozionarsi all’idea che un buon sistema di KM riduca a 2 mesi il tempo di “messa sul campo” del neo-frigorista, ovvero che l’assistente telefonico possa rispondere in modo corretto e completo alle esigenze del Cliente dopo 2 ore di addestramento.

5. Difficoltà e distorsioni

È opportuno esaminare alcune difficoltà che si incontrano nei progetti di KM:

  • gli utilizzatori degli strumenti di Knowledge Management hanno a disposizione una raccolta ampia di informazioni, istruzioni, procedure, ma non sanno cosa cercare. Infatti, consultare una Knowledge Base richiede una conoscenza almeno superficiale del problema da affrontare; trovare risultati davvero pertinenti ed utilizzabili richiede una capacità di discernimento a volte molto elevata;
  • le informazioni messe a disposizione dell’utilizzatore sono spesso sterilizzate dalla formalizzazione; perdono la caratteristica espressione della forma di vita che le ha generate; sono opache rispetto alla realtà che rappresentano; possono essere superficiali o proceduralmente artificiose e burocratiche;
  • il sapere che viene messo a disposizione è – quindi – carente della componente “locale”, “indigena”; non contiene la forma pratica delle cose, quella generata dalla “conoscenza del corpo”[5][6]
  • le carenze e distorsioni vengono amplificate se l’opera di “registrazione e trascrizione” del sapere “di chi sa e sa fare” è affidata a tecnici esperti di metodologie di KM ma esterni al contesto di riferimento della conoscenza
  • tra gli effetti distorsivi nell’utilizzo si ritrovano: l’induzione di comportamenti stereotipati là dove l’intento è di generare degli standard comportamentali efficaci; errori di esecuzione indotti dall’oscurità, dalla formalizzazione o dalla burocratizzazione

Da un punto di vista economico, si presentano spesso due criticità:

  • i costi di realizzazione di un progetto di KM possono essere molto elevati e l’efficienza prodotta si può rivelare di un ordine di grandezza inferiore; il ritorno sull’investimento può essere molto lungo.
  • il costo di manutenzione necessario a garantire l’efficacia del KM può essere molto rilevante a causa del divario tra i contenuti della base di sapere iniziale e la realtà, che emerge con l’utilizzo dello strumento e dell’evoluzione della disciplina e del contesto che generano una attività continua di revisione della base di conoscenza e delle relative connessioni e indicizzazioni;

Queste due criticità possono ridurre in modo significativo i benefici di efficienza attesi, fino ad azzerarli.

---------

Un tentativo di conclusione

Possiamo quindi sostenere che il rischio di fallimento dei progetti di Knowledge Management sia determinato da:
a) l’illusione di completezza e fruibilità del sapere “riversato” nello strumento;
b) il sovradimensionamento degli obiettivi, come il desiderio di svincolare l’organizzazione dalle impegnative pratiche tradizionali di trasmissione del sapere basate su: la selezione di soggetti “adeguati”, l’onboarding, l’affiancamento, i tentativi, la correzione, la “conoscenza del corpo”;
c) l’affidamento a “espertiorizzontali” là dove il sapere disciplinare, sociale e culturale è palesemente verticale.

Il concetto di Knowledge Management, però, può risultare efficace e di successo se applicato in condizioni controllate, in una organizzazione, o in una rete di persone competenti in una disciplina, per depositare e trasmettere il sapere che sta intorno ai fatti operativi, raccolto in modo aperto, attivando direttamente i detentori, investendo nel loro tempo.

Le “condizioni controllate” sono: il dimensionamento corretto delle aspettative e l’inserimento in un contesto in cui lo strumento può essere valorizzato; la dimensione di valutazione può essere invece qualitativa: quanti e quali “fatti” all’interno di una certa disciplina possono essere catalizzati o facilitati e quanto significativi possono essere.

 

 

Note


[1] Glossario degli acronimi: KM sta per Knowledge Management, indifferentemente il concetto e gli strumenti; KMS per Knowledge Management System, inteso come strumento; KB sta per Knowledge Base, repository delle informazioni che costituiscono la base del KM; alcuni parlano di Knowledge Transfer Process e di Knowledge Transfer Management: mi sembrano assimilabili alla nozione di Knowledge Management.

[2] Knowledge Management: cos’e’ a cosa serve e che strumenti usa, https://www.aryanna.net/knowledge-management-2/#storia-del-km

[3] ibidem

[4] https://hbr.org/2007/07/the-knowledge-creating-company

[5] Nonaka I. (1991) The Knowledge-Creating Company Harvard Business Review, Nov.-Dec. 96-104; Ikujiro Nonaka e Hirotaka Takeuchi, The knowledge creating company: how Japanese companies create the dynamics of innovation, New York, Oxford University Press, 1995, p. 284, ISBN 978-0-19-509269-1.

[6] Jackson M., Conoscenza del corpo, tr. it. in Antropologia Culturale, i temi fondamentali, a cura di S. Allovio, L. Ciabarri, G. Mangiameli, Raffaello Cortina Editore, Milano 2018