• La complessità è nell’osservato o nell’osservatore?

    La complessità è nell’osservato o nell’osservatore?

    [Tempo di lettura: 6 minuti]

    Un sistema è complesso perché lo è intrinsecamente o perché viene considerato tale, piuttosto che semplificarlo?

    A cena, una persona, che chiamiamo Cesca, mi indica un porta bustine da bar e dice: “Ecco! Vedi? Questo sistema è semplice!”. Io obietto: “Dipende…”. Ed inizia una discussione animata, interrotta solo perché si è fatto tardi, lasciando entrambi i contendenti con il senso dell’incompiutezza. Secondo te, stimato lettore, un tale oggetto è o no un sistema complesso? È stato un azzardo, da parte mia, rispondere in modo dubitativo?

    Per chiarire i termini della contesa, innanzitutto riflettiamo su alcuni concetti. Cominciamo con la parola: “intrinseco“.

    “Intrinseco” significa che qualcosa è inerente o essenziale alla natura di una cosa, col sovrappiù che si tratti di una caratteristica fondamentale, non qualcosa di aggiunto o superficiale.

    • Il colore rosso di una fragola matura è intrinseco alla fragola matura stessa. Non è qualcosa che puoi togliere senza cambiare la natura della fragola matura.
    • La capacità di pensare è intrinseca agli esseri umani. Non è qualcosa che impariamo, ma fa parte di ciò che siamo.
    • La dolcezza è intrinseca allo zucchero. Non è un attributo che gli viene dato, ma una sua qualità fondamentale.
    • In economia, si parla di valore intrinseco di un bene, ovvero il suo valore reale, basato sulle sue caratteristiche e non sul prezzo di mercato.
    • Il desiderio di fare qualcosa per il piacere di farla, non per una ricompensa esterna è la motivazione intrinseca. La passione per la musica è una motivazione intrinseca a suonare uno strumento.

    Un’altra parola chiave è: “oggettivo“. Siccome noi conosciamo per esperienza diretta o indiretta, una caratteristica di un oggetto o un fatto sono oggettivi se chiunque li può percepire allo stesso modo o, in altri termini, se non dipendono dal soggetto. È difficile immaginare caratteristiche intrinseche non oggettive. L’unico modo che mi viene in mente è qualcosa che sia strettamente legato al contesto. Per esempio, la “fragilità” di un bicchiere è intrinseca al vetro di cui è fatto, ma si manifesta solo in determinate condizioni (ad esempio, se cade a terra). In questo senso, la fragilità potrebbe essere vista come una proprietà intrinseca ma non completamente oggettiva, perché la sua manifestazione dipende dal contesto. Viceversa, è facile trovare caratteristiche oggettive non intrinseche: la posizione di un libro in uno scaffale, il colore di una mela, l’altezza di una persona.

    C’è infine un termine intermedio tra oggettivo ed intrinseco: inerente. Tutto ciò che è intrinseco è inerente ma non vale il viceversa. Per esempio, la capacità di volare degli uccelli è inerente ma non tutti gli uccelli volano e quindi non si può dire che si tratti di una caratteristica intrinseca. Infatti, un uccello con un’ala rotta resta sempre un uccello; inoltre ci sono uccelli come le galline che non volano.

    La complessità è oggettiva, inerente o intrinseca? O nessuna delle tre cose?

    Secondo me, la stessa porzione di realtà percepita può essere considerata contemporaneamente in tanti modi differenti, coerenti tra loro, ma con diverso grado di complessità, tanto che si può considerare complessa, complicata o semplice. Dunque tutto dipende dal punto di vista.

    Questo presuppone la distinzione tra sistema e porzione di realtà percepita corrispondente. Il concetto di “sistema” abita su un piano dell’esistenza più elevato rispetto a quello di “porzione di realtà”.

    Il porta bustine si veste dell’aura del sistema complesso se lo consideriamo microhabitat per milioni di microorganismi. Non c’è modo di ricondurre il funzionamento complessivo a quello delle bustine o dei singoli micro-organismi: ci sono delle proprietà emergenti. Per esempio, l’effetto sulle caratteristiche organolettiche dello zucchero nel caso in cui il barista lasci troppo tempo in pace il microhabitat, libero di evolversi.

    La mentalizzazione: una porzione di realtà viene riportata nella mente di una persona passando per i sensi ed il filtro delle proprie esperienze.

    Il porta-bustine può essere considerato un sistema complicato e non complesso se lo si osserva dal punto di vista della fisica dinamica, per la quale ciò che conta sono forze, forme, attriti etc:

    • Non è “semplice” perché le interazioni tra le bustine, anche se semplificate, possono generare comportamenti non banali.
    • Non è “complesso” perché le interazioni sono comunque lineari e prevedibili, e non si osservano comportamenti emergenti.

    Infine si può dire che è un sistema semplice, nel momento in cui ci basta descriverlo in termini di:

    • dimensioni del contenitore: lunghezza, larghezza e altezza.
    • dimensioni delle bustine: lato del cubo;
    • numero di bustine: quanti cubi sono presenti;
    • disposizione: come sono disposti i cubi (ad esempio, in file ordinate).

    Ora, se Cesca, parlando con me, indica il porta bustine ed asserisce che è un sistema semplice, io interpreto così ciò che sta accadendo: Cesca indica una porzione di realtà che lei percepisce e, implicitamente, fa intendere un modo di schematizzarla – quello semplice.

    Tra le tante schematizzazioni possibili, quando non si dice esplicitamente quale va utilizzata, si sottintende sempre che è la più semplice possibile, in conformità al principio noto come Rasoio di Occam.

    Con questo abbiamo risolto la diatriba! In effetti, Cesca ed io abbiamo entrambi ragione e tra noi non c’è conflitto, bensì solo bisogno di un po’ di dialogo perché ciascuno possa compiutamente esprimere ciò che pensa.

    A ben vedere, abbiamo anche implicitamente assunto un principio ontologico ed identificato un bias che si presenta nella vita quotidiana.

    Il principio ontologico sancisce che una porzione di realtà può essere interpretata schematizzandola in molteplici modi possibili, a seconda del punto di vista.

    Tra i punti di vista c’è però un legame. Matematicamente, diremmo che l’insieme dei punti di vista è organizzato, strutturato in qualche modo. Come? Direi con una mappa. Deve trattarsi di una mappa che rispetta abbastanza i flussi e le connessioni tollerando incoerenze locali, come avviene nel ragionamento ipotetico. Cerco di spiegarmi meglio.

    Siano PdV1 e PdV2 due punti di vista. Per esempio, potremmo osservare lo stesso lago da due diverse posizioni della riva. Oppure potremmo usare un punto di vista a riva e l’altro portandoci in acqua o, ancora, usare un drone e portarci alcuni metri sopra il lago. Da solo non potrei farlo contemporaneamente: o siamo in due o son da solo e mi sposto. In entrambi i casi, il confronto tra le immagini ottenute da PdV1 e PdV2 dà luogo ad una mappa, non nel senso geografico del termine, piuttosto un’associazione in cui alcuni dettagli verranno identificati come appartenenti allo stesso elemento paesaggistico pur essendo in due immagini differenti. Se anziché scattare istantanee, registriamo video, potremmo per esempio riconoscere il movimento dello stesso uccello o pesce nei due video. Va da sé che potremmo avere dei dubbi sulla mappatura di alcuni elementi. Se capita per esempio che si muovano tanti pesci simili insieme, potrebbe risultare davvero difficile identificare i pesci corrispondenti nei due video.

    Potremmo definire come verità assoluta la mappatura di un flusso in tutti i punti di vista: se si riesce a costruirla, allora abbiamo trovato un dato oggettivo, una caratteristica inerente, una proprietà intrinseca. Se invece la mappatura non è definita in tutti i punti di vista, il dato non è intrinseco e potrebbe non essere neppure inerente o addirittura risultare soggettivo.

    Ti piacciono i gialli investigativi? O gli episodi di serie di fantascienza in cui si esplorano le implicazioni di un superpotere o di un’innovazione futuristica? Fai parte di associazioni o organi collegiali o gruppi di consulenti? Se rispondi si almeno una volta allora ti invito a declinare la mappatura di alcune presunte verità attingendo da quanti più punti di vista possibile e più disparati che puoi. Sicuramente – non ho alcun dubbio – rimarrai sorpreso dell’esito.

    Angolature e strumenti differenti consentono di cogliere dati oggettivi, tra i quali trovare proprietà inerenti e caratteristiche intrinseche.

    Per concludere, resta la questione del bias. Quando ho accennato al Rasoio di Occam, ho fatto riferimento alla “schematizzazione più semplice possibile”. Questa locuzione è però intrinsecamente ingannevole: possono esserci più schematizzazioni con la stessa semplicità. Et voilà! L’equivoco è servito! “Equivoco” deriva dal latino “aequivocus“, che significa “con uguale voce” e indica una parola o un’espressione che può avere più significati. Una persona indica una porzione di realtà, mentalmente la schematizza nel modo che gli sembra più semplice e, quindi, ovvio ma non fa caso al fatto che ci possano essere alternative altrettanto (più o meno) semplici. A schematizzazioni differenti corrispondono forme di flusso di pensiero differenti. Piccole differenze possono risultare trascurabili o, viceversa, venire amplificate in modo non lineare fino alla catastrofe, che poi sarebbe l’incomprensione, il disguido, il conflitto.


    Le immagini sono foto scattate da Nicola Granà o create da Nicola Granà con Midjourney.

  • Intelligenza Artificiale per la mia amica architetta

    Intelligenza Artificiale per la mia amica architetta

    [Tempo di lettura: 6 minuti]

    L’Architetta opera come libero professionista, iscritta all’albo da fine anni Novanta. Probabilmente ha iniziato la sua carriera disegnando a mano su tavole da disegno, o, almeno, così dovette fare durante il percorso universitario, a Venezia. L’introduzione del CAD (Computer-Aided Design) negli anni ’80 e ’90, proprio in corrispondenza dell’inizio della sua carriera, ha rivoluzionato il modo di progettare, permettendo di creare, modificare e condividere progetti in formato digitale.

    Schizzo di un’idea artificiale di edificio. Creato con midjourney. Prompt di Nicola Granà.

    I primi computer che ha incontrato erano probabilmente enormi e costosi. Oggi, laptop potenti e tablet leggeri consentono di lavorare ovunque, anche in cantiere o durante un sopralluogo.

    La collaborazione con colleghi e clienti era un tempo molto più lenta, basata su telefonate, fax e riunioni di persona. Oggi, email, videoconferenze e piattaforme di condivisione cloud permettono di comunicare e scambiare informazioni in tempo reale, semplificando il lavoro di squadra.

    Trovare ispirazione e informazioni richiedeva consultare libri, riviste e archivi. Ora, motori di ricerca, database online e social media offrono accesso immediato a una quantità enorme di risorse.

    I progetti venivano presentati principalmente attraverso disegni tecnici e modelli fisici. Oggi, rendering 3D fotorealistici ed i modelli di realtà virtuale permettono di immergere i clienti nel progetto, facilitando la comprensione e la comunicazione delle idee.

    Le decisioni progettuali erano spesso basate sull’esperienza e l’intuizione. Oggi, l’analisi dei dati e le simulazioni al computer permettono di valutare l’impatto ambientale, l’efficienza energetica e la fattibilità tecnica di un progetto in modo più preciso e informato.

    Un’altra sigla, oltre al CAD, è diventata significativa: BIM (Building Information Modeling). Il concetto di BIM, sebbene il termine non fosse ancora utilizzato, ha radici che risalgono agli anni ’70, quando alcuni ricercatori iniziarono a esplorare l’idea di un modello digitale dell’edificio contenente informazioni oltre alla semplice geometria. La vera e propria diffusione è iniziata negli anni 2000, grazie a diversi fattori: maggiore potenza di calcolo dei computer, sviluppo di software specifici, pressione per una maggiore efficienza (migliorare la collaborazione, ridurre gli errori e ottimizzare i costi), normative e incentivi. In Italia, l’interesse per il BIM è cresciuto significativamente negli ultimi 10-15 anni. Nel 2016 è stato introdotto il Decreto Baratono, che ha reso obbligatorio l’utilizzo del BIM per le opere pubbliche di importo superiore a 100 milioni di euro. Da allora, l’adozione del BIM è in costante aumento, anche nel settore privato.

    Ideazione artificiale di edifici. Creato con midjourney. Prompt di Nicola Granà.

    Il BIM è di fondamentale importanza per il lavoro di un architetto oggi, e lo sarà ancora di più in futuro. Anche se l’Architetta ha iniziato la sua carriera in un’epoca pre-BIM, abbracciare questa metodologia può portare numerosi vantaggi alla sua professione:

    • consentire a tutti i professionisti coinvolti in un progetto (architetti, ingegneri, imprese, ecc.) di lavorare su un unico modello digitale condiviso, riducendo errori, incomprensioni e rilavorazioni;
    • automatizzare molte attività ripetitive, come la generazione di computi metrici e la produzione di disegni tecnici, liberando tempo per concentrarsi sugli aspetti creativi e strategici del progetto;
    • simulare e analizzare le prestazioni energetiche e ambientali di un edificio fin dalle prime fasi di progettazione, favorendo scelte più sostenibili e riducendo l’impatto ambientale dell’opera;
    • trattare informazioni dettagliate su ogni componente dell’edificio, consentendo una maggiore precisione nella progettazione e nella costruzione, riducendo gli sprechi e i costi imprevisti;
    • creare visualizzazioni 3D realistiche e modelli interattivi, facilitando la comunicazione con i clienti e permettendo loro di comprendere meglio il progetto;
    • gestire la manutenzione dell’edificio, dopo la costruzione, fornendo informazioni utili per interventi futuri e migliorando l’efficienza operativa.

    Ora l’Architetta sta accostando l’Intelligenza Artificiale, stimolata dalle opportunità offerte dalla tecnologia e costretta dalla pressione del mercato. L’intelligenza artificiale sta emergendo come un potente strumento nel campo dell’architettura, aprendo nuove possibilità e sfide. Sebbene l’adozione sia ancora agli inizi, diverse articolazioni dell’IA si stanno rivelando particolarmente rilevanti per gli architetti oggi. Ecco alcuni compiti in cui l’IA è particolarmente utile.

    1. Generare rapidamente molteplici opzioni di design in base a parametri e vincoli specifici, come dimensioni del lotto, requisiti funzionali, normative edilizie e persino preferenze estetiche. Questo permette agli architetti di esplorare un ventaglio più ampio di soluzioni e prendere decisioni più informate.
    2. Analizzare grandi quantità di dati per prevedere le prestazioni di un edificio in termini di efficienza energetica, comfort ambientale, impatto acustico e altro ancora. Le simulazioni basate sull’IA consentono di ottimizzare il design e prendere decisioni più consapevoli fin dalle prime fasi del progetto.
    3. Automatizzare attività che richiedono molto tempo, come la creazione di disegni tecnici, la redazione di computi metrici e la gestione della documentazione. Questo permette di concentrarsi su attività più creative e strategiche.
    4. Generare rendering 3D fotorealistici, animazioni e modelli di realtà virtuale in modo rapido ed efficiente, migliorando la comunicazione con i clienti e facilitando la comprensione del progetto.
    5. Fornire suggerimenti in tempo reale durante il processo di progettazione, aiutando gli architetti a prendere decisioni più informate e a evitare errori.

    L’IA in architettura è ancora in fase di sviluppo, ma il suo potenziale è enorme. Man mano che la tecnologia continua a evolversi, possiamo aspettarci di vedere applicazioni sempre più sofisticate e innovative che trasformeranno il modo in cui gli architetti progettano e costruiscono il mondo che ci circonda.

    Un co-bot collabora alla costruzione di un edificio. Creato con midjourney. Prompt di Nicola Granà.

    Ci sono diverse integrazioni interessanti e in rapida evoluzione tra CAD, BIM e IA, che stanno plasmando il futuro dell’architettura:

    1. Conversione CAD-BIM: l’IA può aiutare a convertire disegni CAD 2D in modelli BIM 3D, riconoscendo automaticamente elementi architettonici e attribuendo loro informazioni semantiche.
    2. Generazione automatica di modelli BIM: l’IA può generare modelli BIM partendo da schizzi, immagini o descrizioni testuali, velocizzando la fase iniziale di progettazione concettuale.
    3. Analisi e ottimizzazione dei modelli BIM: l’IA può analizzare i modelli BIM per identificare potenziali conflitti, ottimizzare l’efficienza energetica, valutare la sostenibilità e suggerire miglioramenti progettuali.

    Le ontologie (architetture della conoscenza) sono fondamentali in questo contesto, perché consentono di strutturare e organizzare le informazioni all’interno dei modelli BIM in modo che siano comprensibili sia dagli esseri umani che dalle macchine, facilitano l’interoperabilità tra diversi software e piattaforme, permettendo lo scambio di dati e informazioni in modo efficiente ed abilitano l’IA ad analizzare, comprendere e ragionare sui modelli BIM, aprendo la strada a nuove applicazioni e funzionalità.

    Concluderei con suggerimenti pratici per l’Architetta, per fare i primi passi in questo affascinante ma un po’ complicato mondo.

    • Molti software BIM offrono già funzionalità di IA per automatizzare attività come la generazione di computi metrici, la creazione di tavole e la gestione della documentazione. Iniziare a utilizzare queste funzionalità è un ottimo modo per familiarizzare con l’IA e apprezzarne i benefici immediati.
    • Esistono strumenti di IA che possono aiutare a generare testi, immagini e video per presentazioni, proposte e materiali di marketing.
    • Seguire corsi di formazione sul BIM.
    • Ci sono diverse opzioni gratuite o open source che permettono di iniziare a esplorare il BIM senza investimenti iniziali elevati.
    • Connettersi con altri professionisti del settore può fornire supporto, consigli e ispirazione.
    • Ci sono molte risorse online che possono fornire informazioni aggiornate sulle ultime tendenze e applicazioni dell’IA nel settore.
    • Gli eventi dedicati all’IA in architettura offrono l’opportunità di conoscere esperti, scoprire nuove soluzioni e confrontarsi con altri professionisti.
    • Ci sono piattaforme online e plugin per software BIM che permettono di esplorare il generative design in modo intuitivo, anche senza competenze di programmazione.
    • Alcuni software BIM e piattaforme online offrono funzionalità di IA per l’analisi energetica, l’ottimizzazione strutturale e la valutazione della sostenibilità.
    • Esistono plugin e strumenti che possono fornire suggerimenti e feedback in tempo reale durante la modellazione BIM.
    • Iniziare applicando l’IA a un progetto di piccole dimensioni o a una fase specifica del processo di progettazione per acquisire esperienza e valutare i benefici.
    • È importante essere aperti a nuove idee e soluzioni, e non avere paura di provare nuovi strumenti e approcci.

    Infine, cara Architetta, tieni sempre presente che ladozione dell’IA è un viaggio, non una destinazione. È importante iniziare con piccoli passi, imparare dai propri errori e celebrare i successi. Con il tempo e la pratica, l’IA può diventare un alleato prezioso per migliorare la qualità del lavoro, la soddisfazione del cliente e la competitività sul mercato.

    La mente dell’architetto. Creato con midjourney. Prompt di Nicola Granà.
  • La corrente nel torrente e la stella nello spazio

    La corrente nel torrente e la stella nello spazio

    [Tempo di lettura: 8 minuti]

    La storia dell’individuazione di una corrente nel fiume

    Silvana, in cerca di un momento di pace, si siede sulla riva di un torrente che scorre vivace tra rocce e radici. La sua mente associativa-intuitiva è in sintonia con l’ambiente circostante, assorbendo il dolce mormorio dell’acqua, il fruscio delle foglie sugli alberi e il profumo dell’erba fresca.

    Video di Mario_Krimer da Pixabay

    Mentre osserva il fiume, la donna nota delle sottili variazioni nella superficie dell’acqua. In alcuni punti, l’acqua sembra incresparsi leggermente, mentre in altri scorre liscia ed uniforme. La sua mente associativa-intuitiva inizia a tessere connessioni tra queste osservazioni, suggerendo l’idea di un flusso nascosto sotto la superficie apparentemente calma – input sensoriale e riconoscimento di pattern.

    Cerca di dare un nome a questa intuizione. “Corrente”, pensa. Ma cosa definisce esattamente una corrente? Ricorda le sue conoscenze di base sull’idrologia: una corrente è un flusso d’acqua direzionale all’interno di un corpo idrico più grande. Silvana inizia a osservare con maggiore attenzione, cercando di individuare un movimento coerente e direzionale dell’acqua – definizione di criteri e applicazione di regole.

    Inizialmente, la donna fatica a distinguere un flusso definito. La mente logico-simbolica invia un feedback alla mente associativa-intuitiva: “Non vedo un movimento chiaro, forse le increspature sono solo causate dal vento?”. Silvana, stimolata da questa sfida, si concentra ancora di più. Stacca un fiore selvatico e lo lascia cadere delicatamente sull’acqua – feedback e raffinamento.

    Il fiore inizia a muoversi lentamente, seguendo un percorso sinuoso ma definito. La donna ha trovato la sua corrente! La mente logico-simbolica gioisce, assegnando un nome a questa scoperta: “La corrente nascosta” – assegnazione di un simbolo.

    La nostra esploratrice ha completato il processo di individuazione, trasformando un’intuizione fugace in una consapevolezza tangibile. La sua mente associativa-intuitiva ha fornito gli input sensoriali e i pattern iniziali, mentre la sua mente logico-simbolica ha guidato l’osservazione, definito i criteri e assegnato un simbolo alla scoperta. L’interazione armoniosa tra le due menti ha permesso alla donna di connettersi più profondamente con la natura e di apprezzare la sua complessità nascosta.

    La storia dell’individuazione di una stella nella notte

    Olmo, appassionato di astronomia fin da bambino, trascorre una notte serena in montagna, lontano dalle luci della città. Il suo telescopio è puntato verso il cielo stellato, e la sua mente associativa-intuitiva è inebriata dalla vastità del cosmo. Migliaia di stelle scintillano sopra di lui, creando un arazzo luminoso di immensa bellezza.

    Video di Dominika Boldogová da Pixabay
    1. Input sensoriale e riconoscimento di pattern: Mentre esplora il cielo, Olmo nota una stella che sembra brillare con una luce leggermente diversa dalle altre. È un rosso intenso, quasi cremisi, che spicca tra il bianco e il blu delle stelle circostanti. La sua mente associativa-intuitiva registra questa differenza, creando un’immagine mentale distinta di questa stella particolare.
    2. Definizione di criteri e applicazione di regole: La mente logico-simbolica di Olmo si mette in moto. Vuole identificare questa stella, darle un nome, collocarla nel contesto della sua conoscenza astronomica. Consulta le mappe stellari, confronta la posizione della stella con le costellazioni note, analizza il suo colore e la sua luminosità.
    3. Feedback e raffinamento: Inizialmente, Olmo fatica a trovare una corrispondenza esatta. La mente logico-simbolica invia un feedback alla mente associativa-intuitiva: “Non trovo questa stella sulle mappe, forse è una supernova o una stella variabile?”. Olmo, incuriosito, approfondisce la sua ricerca, consultando cataloghi stellari online e confrontando le sue osservazioni con le informazioni disponibili.
    4. Assegnazione di un simbolo: Finalmente, Olmo trova la sua stella. È una gigante rossa, una stella nella fase finale della sua evoluzione, destinata a espandersi e a diventare ancora più luminosa prima di spegnersi lentamente. Olmo, emozionato, assegna un nome a questa scoperta: “La Gigante Cremisi”.

    Olmo ha completato il processo di individuazione esatta, identificando una stella specifica tra le migliaia che popolano il cielo notturno. La sua mente associativa-intuitiva ha fornito l’input sensoriale e l’immagine iniziale, mentre la sua mente logico-simbolica ha guidato la ricerca, applicato criteri precisi e assegnato un nome univoco alla stella. L’interazione tra le due menti ha permesso a Olmo di espandere la sua conoscenza dell’universo e di sentirsi parte di qualcosa di infinitamente più grande.

    Matematizzazione

    L’esperienza di Olmo, caratterizzata da un’osservazione precisa e da criteri di identificazione oggettivi, si presta maggiormente alla matematizzazione e alla formulazione di proposizioni che utilizzano i quantificatori “per ogni” ed “esiste”.

    Olmo, avendo identificato la “Gigante Cremisi” in modo univoco, potrebbe formulare affermazioni come:

    • Esiste una stella nel cielo notturno che ha un colore rosso intenso e si trova in una specifica posizione (coordinate celesti).
    • Per ogni stella gigante rossa, la sua luminosità è maggiore di quella di una stella nana rossa.

    Queste proposizioni si basano sull’individuazione precisa della stella e sulle sue proprietà misurabili, permettendo un ragionamento logico-matematico rigoroso.

    L’esperienza di Silvana, al contrario, è più sfuggente e meno definita. La “corrente nascosta” è stata individuata attraverso un’osservazione più qualitativa e un processo di esplorazione graduale. Sebbene Silvana abbia acquisito una conoscenza concreta della corrente, questa conoscenza è meno precisa e misurabile rispetto a quella di Olmo sulla stella.

    Formulare proposizioni matematiche rigorose in questo contesto è più complesso. Ad esempio, dire “Esiste una corrente nel fiume” è corretto, ma non cattura la sfumatura dell’esperienza di Silvana, che ha individuato una corrente specifica ma non facilmente quantificabile. Allo stesso modo, affermare “Per ogni punto del fiume, la velocità dell’acqua è maggiore nella corrente” sarebbe un’eccessiva semplificazione, poiché la corrente potrebbe avere bordi sfumati e la sua velocità potrebbe variare.

    La necessità di nuovi strumenti

    L’esperienza di Olmo, basata sull’individuazione esatta, fornisce una base solida per la matematizzazione e l’utilizzo di quantificatori. L’esperienza di Silvana, invece, ci ricorda che la realtà spesso presenta sfumature e complessità che sfidano la precisione matematica. In questi casi, potremmo aver bisogno di strumenti matematici più flessibili per catturare l’essenza dell’esperienza e del ragionamento umano in modo più completo.

    L’approccio indiretto di Silvana, basato su come interagire sull’ipotetica entità, è, a mio avviso, la chiave per arrivare a definire strumenti più adatti a descrivere la complessità del mondo reale.

    Ecco un assaggio: dall’uguaglianza, passiamo alla confondibilità.

    Confondibilità

    Diciamo che due entità sono “confondibili” se e solo se interagiscono allo stesso modo, nei limiti della nostra sensibilità. Si noti che i presupposti sono vari:

    1. le due entità sono individuate, altrimenti non potremmo nominarle come tali;
    2. il concetto di interazione dev’essere già stato definito;
    3. lo stesso dicasi per il concetto di sensibilità o precisione.

    Il pregio di questa relazione è che getta un ponte tra la matematica basata sull’individuazione e quella che stiamo cercando di definire, basata sull’interazione.

    Mi limito qui di seguito ad illustrare la confondibilità e la sua differenza con l’uguaglianza nel caso di una struttura algebrico – topologica e rinvio ad altro articoletto ulteriori sviluppi.

    Confondibilità ed uguaglianza in un campo ordinato

    Esploriamo come la struttura di campo ordinato si trasforma quando sostituiamo l’uguaglianza legata all’ordinamento con la confondibilità, mantenendo l’uguaglianza classica negli assiomi algebrici. Useremo il simbolo ≈ (simbolo di uguaglianza ma ondulato) per indicare la confondibilità.

    Definizione originale di campo ordinato

    Un campo ordinato è un insieme F dotato di due operazioni binarie, addizione (+) e moltiplicazione (·), e di una relazione d’ordine totale (≤) che soddisfa i seguenti assiomi:

    Assiomi di campo

    1. Chiusura rispetto all’addizione e alla moltiplicazione:
      • Per ogni a, b ∈ F, a + b ∈ F e a · b ∈ F.
    2. Associatività dell’addizione e della moltiplicazione:
      • Per ogni a, b, c ∈ F, (a + b) + c = a + (b + c) e (a · b) · c = a · (b · c).
    3. Commutatività dell’addizione e della moltiplicazione:
      • Per ogni a, b ∈ F, a + b = b + a e a · b = b · a.
    4. Esistenza dell’elemento neutro per l’addizione e la moltiplicazione:
      • Esiste un elemento 0 ∈ F tale che per ogni a ∈ F, a + 0 = a.
      • Esiste un elemento 1 ∈ F, diverso da 0, tale che per ogni a ∈ F, a · 1 = a.
    5. Esistenza dell’opposto per l’addizione e dell’inverso per la moltiplicazione:
      • Per ogni a ∈ F, esiste un elemento -a ∈ F tale che a + (-a) = 0.
      • Per ogni a ∈ F, a ≠ 0, esiste un elemento a⁻¹ ∈ F tale che a · a⁻¹ = 1.
    6. Distributività della moltiplicazione rispetto all’addizione:
      • Per ogni a, b, c ∈ F, a · (b + c) = (a · b) + (a · c).

    Assiomi dell’ordine totale

    1. Riflessività: Per ogni a ∈ F, a ≤ a.
    2. Antisimmetria: Per ogni a, b ∈ F, se a ≤ b e b ≤ a, allora a = b.
    3. Transitività: Per ogni a, b, c ∈ F, se a ≤ b e b ≤ c, allora a ≤ c.
    4. Totalità: Per ogni a, b ∈ F, a ≤ b oppure b ≤ a.

    Assiomi che collegano campo e ordine

    1. Compatibilità dell’addizione con l’ordine: Per ogni a, b, c ∈ F, se a ≤ b, allora a + c ≤ b + c.
    2. Compatibilità della moltiplicazione con l’ordine: Per ogni a, b ∈ F, se 0 ≤ a e 0 ≤ b, allora 0 ≤ a · b.

    Nuova definizione con confondibilità

    Ora, sostituiamo l’uguaglianza negli assiomi dell’ordine con la confondibilità (≈):

    Assiomi dell’ordine totale (modificati)

    Si tratta di sostituire = con ≈ nell’assioma sull’antisimmetria.

    1. Antisimmetria (modificata): Per ogni a, b ∈ F, se a ≤ b e b ≤ a, allora a ≈ b.

    Quando si usa il simbolo = s’intende intercambiabilità. In altri termini se a=b allora in ogni espressione possiamo sostituire a con b o viceversa senza alterarne il significato. Di qui si deduce che.

    a = b → a ≈ b

    Interpretazione della nuova struttura

    In questa nuova struttura, due elementi possono essere considerati “confondibili” rispetto all’ordine se sono “sufficientemente vicini” l’uno all’altro, entro un certo margine di tolleranza. Questo introduce un grado di incertezza o approssimazione nella relazione d’ordine.

    Nella topologia indotta da ordinamento con uguaglianza, l’ordinamento è sufficiente per individuare univocamente un punto sulla linea. Nella topologia indotta da ordinamento con confondibilità, invece, si formano delle regioni di confondibilità, all’interno delle quali l’ordinamento non individua univocamente i singoli punti

    Conseguenze

    • La nozione di unicità potrebbe essere indebolita. Potrebbero esistere più elementi “confondibili” tra loro rispetto all’ordine, ma non necessariamente uguali nel senso algebrico classico.
    • La struttura topologica indotta dall’ordine potrebbe essere meno precisa. Invece di avere punti distinti, potremmo avere “regioni di confondibilità” in cui gli elementi sono indistinguibili rispetto all’ordine.
    • Questa nuova struttura potrebbe essere utile per modellare situazioni in cui l’ordine è intrinsecamente impreciso o soggetto a fluttuazioni, come misurazioni con una certa precisione o sistemi dinamici con piccole perturbazioni.

    Esempio

    Proviamo a costruire un piccolo esempio inerente la misurazione di temperature, in cui due elementi sono confondibili ma non uguali, nel contesto di un campo ordinato con confondibilità.

    Immaginiamo di avere un termometro che misura la temperatura con una precisione di ±0.5°C. Consideriamo due misurazioni:

    • a = 20.2°C
    • b = 20.7°C

    In questo caso, a ≠ b perché le due misurazioni hanno valori numericamente diversi. Tuttavia, a causa della precisione limitata del termometro, potremmo considerare a e b confondibili (a ≈ b) rispetto all’ordine.

    Questo perché la differenza tra le due misurazioni (0.5°C) rientra nel margine di errore dello strumento. Quindi, ai fini pratici, potremmo considerare queste due temperature come “quasi uguali” o indistinguibili, anche se non sono esattamente identiche.

    Per formalizzare questa idea, potremmo definire la confondibilità in questo contesto come segue:

    • a ≈ b se e solo se |a - b| ≤ 0.5

    In altre parole, due misurazioni sono confondibili se la loro differenza assoluta è minore o uguale alla precisione del termometro.

    Osservazioni

    • Questo esempio illustra come la confondibilità possa emergere in situazioni in cui l’ordine è intrinsecamente impreciso o soggetto a fluttuazioni, come nel caso di misurazioni con strumenti di precisione limitata.
    • La definizione precisa di confondibilità dipenderà dal contesto specifico e dal grado di precisione desiderato. In alcuni casi, potremmo voler utilizzare un margine di tolleranza diverso da 0.5°C.
    • È importante notare che, anche se a ≈ b, potremmo comunque avere f(a) ≠ f(b) per alcune funzioni f. Ad esempio, se f(x) = x², allora f(a) = 408.04 e f(b) = 428.49, che non sono confondibili secondo la nostra definizione. Questo dimostra che la confondibilità non garantisce l’intercambiabilità assoluta in tutte le espressioni, a differenza dell’uguaglianza classica.

    Osservazioni finali

    • La definizione precisa di “confondibilità” dipenderà dal contesto specifico e dal grado di precisione desiderato.
    • Questa nuova struttura apre questioni matematiche sulla sua relazione con la struttura di campo ordinato classica e sulle sue possibili applicazioni.

    Immagine di copertina generata con Midjourney, il prompt è mio.

  • Trattamento delle informazioni nella consulenza integrata

    Trattamento delle informazioni nella consulenza integrata

    [Tempo di lettura: 14 minuti]

    Dedicato agli amici di ORA.Team

    Cominciamo con una storia inventata ma realistica

    Un’Incongruenza rivela una verità nascosta

    Nella pittoresca regione del Chianti, l’azienda vinicola “Terre Antiche”, un tempo fiore all’occhiello della tradizione, si trovava ad affrontare le sfide della modernità. L’aumento della produzione e l’espansione verso nuovi mercati avevano messo a dura prova il loro sistema logistico, ormai obsoleto. Era giunto il momento di un cambiamento radicale: l’adozione di un nuovo software di logistica.

    Immagine generata con Midjourney, il prompt è mio.

    Per guidare questa trasformazione, Terre Antiche si affidò a due consulenti esperti:

    • Giulia, esperta di organizzazione delle risorse umane, con una profonda conoscenza delle dinamiche aziendali e delle esigenze dei lavoratori.
    • Marco, esperto informatico, appassionato di tecnologia e innovazione, pronto a sfruttare il potenziale del digitale per ottimizzare i processi.

    Insieme, iniziarono a utilizzare il software di consulenza integrata, compilando meticolosamente le sezioni relative alle loro aree di competenza. Giulia si concentrò sui processi HR, le competenze del personale e il clima aziendale, mentre Marco si immerse nei trattamenti di dati, nei profili autorizzativi e nei casi d’uso del nuovo sistema.

    Mentre i dati si accumulavano nel software, emerse un’incongruenza che attirò la loro attenzione. Giulia aveva inserito un KPI relativo al “tasso di errore nelle spedizioni”, misurato come percentuale di ordini evasi in modo errato. Marco, dal canto suo, aveva valutato l’”affidabilità del sistema di tracciabilità delle spedizioni”, misurando la percentuale di spedizioni tracciate correttamente dal software.

    In teoria, queste due misure avrebbero dovuto essere correlate: un sistema di tracciabilità affidabile dovrebbe portare a un minor numero di errori nelle spedizioni. Tuttavia, i dati raccontavano una storia diversa. Mentre l’affidabilità del sistema di tracciabilità era elevata, il tasso di errore nelle spedizioni rimaneva ostinatamente alto.

    Questa incongruenza spinse Giulia e Marco a indagare più a fondo. Analizzando i dati e intervistando il personale, scoprirono una verità sorprendente: gli errori nelle spedizioni non erano causati da problemi tecnologici, ma da una mancanza di comunicazione e collaborazione tra i diversi team coinvolti nel processo logistico.

    Il personale addetto alla preparazione degli ordini non era sempre informato sulle specifiche richieste dei clienti o sulle eventuali modifiche dell’ultimo minuto. Gli autisti, a loro volta, non sempre ricevevano istruzioni chiare sulle priorità di consegna o sulle eventuali restrizioni di accesso ai luoghi di consegna.

    Questa scoperta fu un campanello d’allarme per Terre Antiche. Il nuovo software di logistica, per quanto efficiente, non poteva risolvere da solo i problemi di comunicazione e collaborazione radicati nell’azienda. Era necessario un intervento più ampio, che coinvolgesse la formazione del personale, la revisione dei processi e la promozione di una cultura aziendale basata sulla comunicazione aperta e la collaborazione interfunzionale.

    Grazie alla consulenza integrata e all’utilizzo del software, Terre Antiche aveva scoperto una criticità nascosta che, se ignorata, avrebbe potuto compromettere il successo del progetto di trasformazione logistica. Questa consapevolezza permise all’azienda di affrontare il problema alla radice, trasformando una potenziale minaccia in un’opportunità di crescita e miglioramento.

    Cos’è la Consulenza Integrata nel Paradigma della Complessità?

    La consulenza integrata, nel contesto del paradigma della complessità, è un approccio dinamico e co-evolutivo alla consulenza che non solo riconosce l’interconnessione tra consulente, cliente e sistema, ma anche l’importanza di integrare i punti di vista di più consulenti appartenenti ad aree di competenza differenti ma confinanti. Questa integrazione di competenze e prospettive permette di affrontare la complessità in modo più completo ed efficace, garantendo che le soluzioni emergenti siano sostenibili e rispondano alle molteplici sfaccettature della situazione.

    In questo paradigma, il team di consulenti diventa un sistema a sé stante, in cui ogni membro contribuisce con la propria expertise e il proprio punto di vista unico, arricchendo il processo di co-creazione e aprendo nuove possibilità. La consulenza integrata diventa così un’orchestrazione di competenze, in cui il dialogo e la collaborazione tra i consulenti sono fondamentali per creare soluzioni innovative e olistiche.

    Esempi di Consulenza Integrata con Integrazione di Competenze

    • Pianificazione finanziaria familiare: un team di consulenti finanziari, legali e fiscali collabora per creare un piano finanziario completo che tenga conto di tutti gli aspetti legali e fiscali, oltre che delle esigenze e degli obiettivi della famiglia.
    • Supporto alla transizione di carriera: consulenti di carriera, psicologi e coach lavorano insieme per fornire un supporto completo all’individuo, aiutandolo a esplorare le sue opzioni, sviluppare le sue competenze e gestire l’aspetto emotivo del cambiamento.
    • Sviluppo comunitario: urbanisti, sociologi, ambientalisti ed economisti collaborano per facilitare un processo di sviluppo comunitario partecipativo e sostenibile, integrando le diverse prospettive e competenze per creare soluzioni innovative.
    • Gestione di situazioni di crisi familiari: psicologi, assistenti sociali, avvocati e mediatori familiari lavorano insieme per fornire un supporto completo alla famiglia in crisi, affrontando gli aspetti emotivi, legali, sociali ed economici della situazione.
    • Supporto a individui con bisogni speciali: educatori, terapisti, assistenti sociali e consulenti legali collaborano per creare un piano di supporto personalizzato che tenga conto delle esigenze specifiche dell’individuo e lo aiuti a raggiungere i suoi obiettivi di autonomia e inclusione.

    Vantaggi dell’Integrazione di Competenze nella Consulenza Integrata

    • L’integrazione di diverse competenze permette di affrontare la complessità in modo più completo, considerando tutti gli aspetti della situazione.
    • La collaborazione tra consulenti con background diversi stimola la creatività e l’innovazione, portando a soluzioni più efficaci e sostenibili.
    • La presenza di un team di esperti con competenze complementari aumenta la fiducia del cliente nel processo di consulenza.
    • La collaborazione tra consulenti favorisce lo scambio di conoscenze e l’apprendimento reciproco, contribuendo alla crescita professionale di tutti i membri del team.

    Consulenza integrata nei progetti di cambiamento

    Ho già trattato in un altro articoletto, a grandi linee, la relazione tra consulenza e progetti di cambiamento in sistemi complessi.

    Uniamo i due argomenti con approccio pratico. Come si possono integrare i consulenti per supportare progetti di cambiamento in sistemi complessi?

    Ogni disciplina o area di competenza sviluppa una propria ontologia, ovvero un modo specifico di concettualizzare e rappresentare il mondo. Queste ontologie possono variare in termini di terminologia, struttura e relazioni tra i concetti.

    Le semantiche definiscono il significato dei termini e delle relazioni all’interno di un’ontologia. Anche se due ontologie condividono alcuni termini, le loro semantiche possono differire, portando a interpretazioni diverse degli stessi concetti.

    Nonostante le differenze ontologiche e semantiche, le aree di competenza confinanti presentano inevitabilmente punti in comune e sovrapposizioni. Questi punti di contatto creano un terreno fertile per l’integrazione e la collaborazione tra i consulenti.

    Quando i consulenti valutano la configurazione del sistema dalle loro prospettive specifiche, possono emergere contraddizioni o incongruenze tra le loro valutazioni. Queste contraddizioni possono essere dovute a differenze ontologiche, semantiche o semplicemente a interpretazioni diverse dei dati disponibili. Oppure, possono corrispondere a contraddizioni insite nel sistema, tensioni e dinamiche che causano disequilibri e che meritano particolari attenzioni, fino a diventare cruciali nel formulare il progetto di cambiamento.

    Allo stesso tempo, le valutazioni dei consulenti possono anche portare a conferme multiple, ovvero a convergenze o sovrapposizioni tra le loro conclusioni. Queste conferme rafforzano la validità delle osservazioni e aumentano la fiducia nelle soluzioni proposte.

    Il processo di integrazione delle prospettive dei diversi consulenti è analogo all’incrocio dei raggi luminosi di due torce elettriche: aiuta a distinguere tra verità e falsità.

    Le contraddizioni spingono i consulenti a riesaminare le loro ipotesi, a chiarire le loro semantiche e a cercare un terreno comune. Questo processo di confronto e negoziazione può portare a una comprensione più profonda del sistema e a soluzioni più robuste.

    Le conferme multiple, d’altra parte, aumentano la probabilità che le osservazioni siano corrette e che le soluzioni proposte siano efficaci.

    In conclusione, la consulenza integrata, attraverso l’integrazione di prospettive diverse, favorisce un processo di confronto e negoziazione che aiuta a distinguere tra verità e falsità, portando a una comprensione più profonda del sistema e a soluzioni più efficaci e sostenibili. I vantaggi, nel condurre progetti di cambiamento, sono evidenti.

    Immagine generata con Midjourney, il prompt è mio.

    Valutazione integrata

    Un consulente è tale se è efficace nel formulare valutazioni nel proprio ambito di competenza. Se la collaborazione tra consulenti è stabile, si può concepire un sistema di valutazione congiunto, capace di esprimersi anche nella zona grigia che si trova tra i confini delle aree di competenza, quindi ai margini rispetto al focus del singolo consulente. La relazione può trasformare in forza un tipico punto debole della consulenza e diventare tratto distintivo per il team di consulenti.

    Occorre però investire nella definizione congiunta di criteri di valutazione nei concetti di confine delle ontologie dei consulenti.

    Consideriamo un esempio concreto: la logistica aziendale affrontata da un esperto di organizzazione delle risorse umane e da un esperto informatico.

    Concetti nella zona di confine

    • Gestione delle informazioni:
      • HR: L’esperto HR potrebbe essere interessato a come le informazioni sui dipendenti (disponibilità, competenze, turni) vengono raccolte, condivise e utilizzate per ottimizzare la pianificazione logistica.
      • IT: L’esperto IT si concentrerebbe sui sistemi informatici e le tecnologie utilizzate per gestire e condividere queste informazioni, garantendo l’accuratezza, la sicurezza e l’accessibilità dei dati.
    • Formazione e competenze:
      • HR: L’esperto HR valuterebbe le competenze necessarie per svolgere le attività logistiche e identificherebbe eventuali lacune formative, proponendo programmi di formazione e sviluppo.
      • IT: L’esperto IT potrebbe contribuire alla formazione fornendo strumenti informatici e piattaforme di e-learning per supportare l’acquisizione di nuove competenze.
    • Comunicazione e collaborazione:
      • HR: L’esperto HR si preoccuperebbe di garantire una comunicazione efficace tra i diversi team coinvolti nella logistica, promuovendo la collaborazione e la risoluzione dei conflitti.
      • IT: L’esperto IT potrebbe fornire strumenti di comunicazione e collaborazione digitale per facilitare lo scambio di informazioni e il coordinamento delle attività logistiche.
    • Ergonomia e sicurezza sul lavoro:
      • HR: L’esperto HR si concentrerebbe sulla progettazione di ambienti di lavoro sicuri ed ergonomici per i lavoratori coinvolti nelle attività logistiche, riducendo il rischio di infortuni e malattie professionali.
      • IT: L’esperto IT potrebbe contribuire fornendo tecnologie e strumenti per monitorare e migliorare la sicurezza sul lavoro, come sistemi di tracciamento dei movimenti o dispositivi di protezione individuale intelligenti.
    • Automazione e robotica:
      • HR: L’esperto HR valuterebbe l’impatto dell’automazione e della robotica sulla forza lavoro, identificando le esigenze di riqualificazione e gestendo eventuali cambiamenti organizzativi.
      • IT: L’esperto IT si occuperebbe dell’implementazione e della manutenzione delle tecnologie di automazione e robotica, garantendo la loro integrazione con i sistemi esistenti e la loro efficienza operativa.

    Questi concetti, pur essendo ai margini dei focus principali dei due consulenti, rappresentano aree di sovrapposizione in cui le loro competenze e prospettive possono integrarsi per creare soluzioni logistiche più complete ed efficaci.

    La collaborazione tra l’esperto HR e l’esperto IT in queste aree può portare a una migliore comprensione delle esigenze logistiche dell’azienda, all’identificazione di opportunità di miglioramento e all’implementazione di soluzioni innovative che tengano conto sia degli aspetti umani che tecnologici.

    Criteri di valutazione dei due consulenti considerati disgiuntamente

    L’esperto informatico, nella sua valutazione della questione logistica, utilizzerà probabilmente una rappresentazione basata su concetti e strumenti tipici dell’informatica, come:

    • Trattamenti di dati: descriverà come i dati vengono raccolti, archiviati, elaborati, trasmessi e utilizzati all’interno del sistema logistico. Questo include l’identificazione dei tipi di dati coinvolti (ad esempio, informazioni sui dipendenti, inventario, ordini, spedizioni), le finalità del trattamento e le misure di sicurezza adottate.
    • Profili autorizzativi: definisce chi ha accesso a quali dati e quali operazioni può eseguire su di essi. Questo è fondamentale per garantire la sicurezza e la riservatezza delle informazioni, soprattutto quando si tratta di dati sensibili come quelli relativi ai dipendenti.
    • Attori: identifica i diversi ruoli e responsabilità all’interno del sistema logistico, come ad esempio gli addetti al magazzino, gli autisti, i responsabili delle spedizioni, ecc. Questo aiuta a comprendere il flusso di lavoro e le interazioni tra i diversi attori.
    • Casi d’uso: descrive le diverse funzionalità del sistema logistico dal punto di vista dell’utente, come ad esempio la registrazione di un nuovo ordine, la tracciabilità di una spedizione, la gestione dell’inventario, ecc. Questo aiuta a comprendere le esigenze degli utenti e a progettare un sistema che sia facile da usare e risponda alle loro necessità.
    • Strutture dati: definisce come i dati vengono organizzati e strutturati all’interno del sistema, ad esempio utilizzando database relazionali, database NoSQL o altre strutture dati. Questo è importante per garantire l’efficienza e la scalabilità del sistema.
    • Interfacce utente: progetta le schermate e i moduli che gli utenti utilizzeranno per interagire con il sistema logistico. Questo include la scelta degli elementi grafici, la disposizione dei campi di input e la definizione dei flussi di lavoro.

    L’esperto di organizzazione delle risorse umane utilizza una struttura logica analoga per rappresentare le sue valutazioni, sebbene adattata al suo specifico dominio di competenza.

    • Processi HR: descriverà i processi chiave relativi alle risorse umane coinvolte nella logistica, come il reclutamento e la selezione del personale, la formazione e lo sviluppo, la valutazione delle prestazioni, la gestione delle assenze e delle presenze, ecc. Questo include l’identificazione delle fasi di ciascun processo, i ruoli coinvolti e le eventuali criticità.
    • Competenze e profili professionali: definisce le competenze e i profili professionali necessari per svolgere le diverse attività logistiche. Questo include sia le competenze tecniche specifiche (ad esempio, utilizzo di carrelli elevatori, conoscenza delle normative di sicurezza) che le competenze trasversali (ad esempio, capacità di lavorare in team, problem solving, comunicazione).
    • Struttura organizzativa: analizza la struttura organizzativa dell’azienda, in particolare per quanto riguarda la logistica. Questo include l’identificazione dei diversi team e reparti coinvolti, le loro responsabilità e le relazioni gerarchiche. L’obiettivo è valutare se la struttura organizzativa attuale favorisce o ostacola l’efficienza logistica.
    • Clima e cultura aziendale: valuta il clima e la cultura aziendale, in particolare per quanto riguarda l’impatto sulla motivazione, l’engagement e la produttività dei dipendenti coinvolti nella logistica. Questo include l’analisi della comunicazione interna, del livello di fiducia e collaborazione tra i team, e della percezione dei dipendenti riguardo al loro lavoro e all’azienda.
    • Indicatori di performance: identifica gli indicatori chiave di performance (KPI) per misurare l’efficacia e l’efficienza dei processi logistici e delle risorse umane coinvolte. Questo include metriche come il tasso di turnover del personale, il numero di incidenti sul lavoro, il tempo medio di consegna, il livello di soddisfazione dei clienti, ecc.
    • Piani di sviluppo: propone piani di sviluppo per migliorare le prestazioni logistiche e la gestione delle risorse umane. Questo può includere programmi di formazione, iniziative per migliorare il clima aziendale, modifiche alla struttura organizzativa o l’adozione di nuove tecnologie.

    Criteri di valutazione dei due consulenti considerati congiuntamente

    Mi spiego presentando alcuni esempi di valutazioni e misure nell’area di confine tra l’esperto informatico e l’esperto di organizzazione delle risorse umane, con particolare attenzione all’intreccio dei metodi di misura e alla possibilità di una misura unica interpretata in modo diverso da entrambi:

    Area di confine: Gestione delle informazioni

    • Caso d’uso: Accesso ai dati dei dipendenti
      • Esperto IT:
        • Titolo: “Accesso ai dati dei dipendenti”
        • User story: “Come responsabile HR, voglio poter accedere ai dati dei dipendenti in modo sicuro e veloce per prendere decisioni informate.”
        • Scenario principale: L’utente HR accede al sistema, inserisce le credenziali, seleziona il dipendente e visualizza i dati rilevanti (anagrafica, competenze, formazione, ecc.).
        • Scenari secondari: Accesso negato per utenti non autorizzati, ricerca di dipendenti per nome o ID, esportazione dei dati in diversi formati.
        • Maturità: Alta (sistema già implementato e utilizzato)
        • Adeguatezza: Media (potrebbe essere migliorata l’interfaccia utente)
        • Affidabilità: Alta (pochi errori o malfunzionamenti segnalati)
        • Rischi: Violazione della privacy dei dati, accesso non autorizzato.
        • Opportunità: Migliorare l’interfaccia utente, integrare con altri sistemi HR.
      • Esperto HR:
        • Misura unica: “Tempo medio di accesso ai dati dei dipendenti”
        • Interpretazione IT: Efficienza del sistema informatico (tempo di risposta, velocità di caricamento, ecc.)
        • Interpretazione HR: Impatto sulla produttività degli utenti HR (tempo risparmiato nella ricerca di informazioni, possibilità di prendere decisioni più rapide, ecc.)
    • Altro esempio: Accuratezza dei dati dei dipendenti
      • Misura unica: “Percentuale di errori nei dati dei dipendenti”
      • Interpretazione IT: Affidabilità del sistema di raccolta e gestione dei dati (errori di input, problemi di sincronizzazione, ecc.)
      • Interpretazione HR: Impatto sulla qualità delle decisioni HR (errori nelle buste paga, problemi nella pianificazione delle ferie, ecc.)

    Area di confine: Formazione e competenze

    • Misura unica: “Tasso di completamento dei corsi di formazione online sulla sicurezza sul lavoro”
    • Interpretazione IT: Efficacia della piattaforma di e-learning (facilità d’uso, accessibilità, tracciamento dei progressi)
    • Interpretazione HR: Livello di coinvolgimento e apprendimento dei dipendenti (motivazione, acquisizione di competenze, impatto sulla sicurezza effettiva)

    Area di confine: Comunicazione e collaborazione

    • Misura unica: “Numero di richieste di supporto IT risolte entro 24 ore”
    • Interpretazione IT: Efficienza del servizio di supporto IT (tempestività, qualità delle risposte, risoluzione dei problemi)
    • Interpretazione HR: Impatto sulla produttività e sul clima aziendale (riduzione dei tempi di inattività, soddisfazione dei dipendenti, collaborazione tra team)

    L’utilizzo di misure comuni, interpretate in modo diverso dai due consulenti, permette di evidenziare le interconnessioni tra le diverse aree di competenza e di favorire un dialogo costruttivo per la definizione di soluzioni integrate che tengano conto sia degli aspetti tecnologici che di quelli umani.

    Immagine generata con Midjourney, il prompt è mio.

    Strumenti di integrazione

    Come detto, un presupposto fondamentale per un’efficiente integrazione è la stabilità del rapporto di collaborazione tra consulenti:

    • facilita la condivisione di informazioni, idee e preoccupazioni in modo aperto e trasparente;
    • permette ai consulenti di conoscere le competenze, i punti di forza e le aree di miglioramento di ciascuno, favorendo una collaborazione più efficace;
    • crea un ambiente di lavoro positivo e collaborativo, in cui i consulenti si sentono a proprio agio nel condividere le proprie opinioni e nel mettere in discussione le idee degli altri;
    • aiuta a gestire eventuali conflitti o divergenze di opinione in modo costruttivo, trovando soluzioni che soddisfino le esigenze di tutti i coinvolti.

    Un altro fattore importante è la familiarità col sistema su cui va operato il cambiamento, che permette di:

    • identificare le specificità del sistema, le sue dinamiche interne, le sfide e le opportunità;
    • analizzare le informazioni raccolte in modo accurato e contestualizzato, evitando fraintendimenti e interpretazioni errate;
    • sviluppare soluzioni che siano realizzabili e sostenibili nel contesto specifico del sistema, tenendo conto delle sue peculiarità e dei suoi vincoli;
    • anticipare le conseguenze delle soluzioni proposte, sia positive che negative, e adattare le strategie di conseguenza.

    Considerato però che un progetto di cambiamento può coinvolgere anche il cliente, può durare a lungo e richiedere una lenta e paziente raccolta di tasselli di un puzzle che cambia nel tempo, certamente è fondamentale avvalersi di uno strumento informatico, un servizio software fruibile in cloud, tipicamente con interfaccia Web e con gestione di ruoli ed autorizzazioni.

    Il software immaginato potrebbe facilitare il processo di valutazione congiunta, il punto più delicato della consulenza integrata:

    • consentendo ai consulenti di inserire le loro valutazioni in sezioni specifiche;
    • evidenziando le misure comuni e le diverse interpretazioni;
    • facilitando la comunicazione e la collaborazione tra i consulenti attraverso strumenti di discussione e condivisione.

    In questo modo, il software diventerebbe uno strumento chiave per supportare la consulenza integrata e favorire la co-creazione di soluzioni efficaci e sostenibili.

    Anche la gestione del progetto di cambiamento dovrebbe far parte del sistema.

    Discutiamone secondo una griglia concettuale che si rifà alla visione olonica: funzione, funzionamento, funzionalità e collocazione (nei vari livelli).

    Funzione

    Mappare le configurazioni e ri-configurazioni del sistema:

    • Permettere ai consulenti di rappresentare lo stato attuale del sistema, catturando le sue componenti, le relazioni tra esse e i processi in atto. Questo potrebbe avvenire attraverso diagrammi, mappe concettuali, o altre rappresentazioni visuali che facilitino la comprensione della complessità del sistema.
    • Supportare la simulazione e la progettazione di cambiamenti al sistema, consentendo ai consulenti di esplorare diverse opzioni e valutarne l’impatto potenziale. Questo potrebbe includere la modifica di processi, la riorganizzazione di strutture, l’introduzione di nuove tecnologie o l’implementazione di nuove strategie.

    Gestire il progetto di cambiamento:

    • Aiutare i consulenti a definire gli obiettivi del progetto, le fasi di implementazione, le risorse necessarie e i tempi previsti.
    • Monitorare l’avanzamento del progetto, raccogliere dati sull’efficacia delle soluzioni implementate e identificare eventuali scostamenti dal piano originale.
    • Facilitare la comunicazione e la collaborazione tra i consulenti e il cliente, fornendo un ambiente condiviso per lo scambio di informazioni, documenti e feedback.
    • Supportare la valutazione dei risultati del progetto, misurando l’impatto delle soluzioni implementate sugli obiettivi prefissati e identificando eventuali aree di miglioramento.

    Evidenziare le correlazioni tra valutazioni e misure utilizzate da consulenti differenti:

    • consentire l’inserimento e l’integrazione dei dati provenienti da diverse fonti e discipline, superando le barriere ontologiche e semantiche.
    • Utilizzare tecniche di visualizzazione dei dati per evidenziare le relazioni, le sovrapposizioni e le eventuali contraddizioni tra le valutazioni e le misure utilizzate dai diversi consulenti.
    • Fornire strumenti per facilitare il dialogo e la negoziazione tra i consulenti, aiutandoli a chiarire le loro prospettive, a risolvere eventuali conflitti e a convergere verso soluzioni condivise.

    Funzionamento e Funzionalità

    Gestione delle ontologie e delle semantiche

    Il software dovrebbe utilizzare un modello di dati flessibile, in grado di accogliere ontologie e semantiche diverse provenienti da varie discipline.

    Dovrebbe fornire strumenti per mappare le ontologie dei diversi consulenti, identificando i punti di contatto, le sovrapposizioni e le eventuali incongruenze semantiche. Questo processo di mappatura potrebbe essere supportato da algoritmi di analisi del linguaggio naturale per l’estrazione di concetti.

    Il software dovrebbe incoraggiare la creazione di un glossario condiviso, in cui i consulenti possono definire e concordare il significato dei termini chiave utilizzati nel progetto, riducendo così le ambiguità e facilitando la comunicazione.

    Sistema di autorizzazione e controllo degli accessi

    • Creazione di profili utente personalizzati per ciascun consulente, definendo i loro ruoli, le loro responsabilità e i loro livelli di accesso ai dati e alle funzionalità del sistema.
    • Controllo granulare degli accessi, consentendo di definire in modo preciso quali dati e quali operazioni ciascun utente può visualizzare, modificare o condividere. Questo è fondamentale per garantire la sicurezza e la riservatezza delle informazioni, soprattutto quando si tratta di dati sensibili.
    • Tenere traccia di tutte le azioni eseguite dagli utenti, registrando chi ha fatto cosa, quando e su quali dati. Questo aumenta la trasparenza e la responsabilità, e facilita l’identificazione di eventuali problemi o anomalie.

    Collaborazione e comunicazione

    • Fornire un ambiente di lavoro condiviso in cui i consulenti possono collaborare in tempo reale, scambiando informazioni, documenti e feedback.
    • Integrare strumenti di comunicazione come chat, videoconferenze e forum di discussione per facilitare l’interazione tra i consulenti, anche a distanza.
    • Funzionalità per la gestione delle attività e dei flussi di lavoro, consentendo ai consulenti di assegnare compiti, impostare scadenze e monitorare l’avanzamento del progetto.

    Visualizzazione e analisi dei dati

    • Visualizzare i dati rilevanti per il loro lavoro, monitorare l’andamento del progetto e identificare eventuali criticità.
    • Analisi dei dati per esplorare le relazioni tra le diverse valutazioni e misure, identificare trend e pattern, e generare report e presentazioni.
    • Tecniche di visualizzazione avanzate per rappresentare le correlazioni tra le valutazioni dei diversi consulenti, evidenziando punti di convergenza, divergenze e aree di incertezza.

    Intelligenza artificiale e apprendimento automatico

    • Utilizzare algoritmi di intelligenza artificiale per analizzare i dati raccolti, identificare potenziali rischi e opportunità, e suggerire soluzioni o strategie alternative.
    • Apprendere dalle interazioni dei consulenti e dai risultati dei progetti, migliorando nel tempo la sua capacità di supportare la consulenza integrata.

    Collocazione

    Il software si colloca su cloud in modo da poter essere utilizzato sempre ed ovunque. A livello organizzativo, ciò consente di porlo nella rete dei rapporti tra consulenti e, volendo, anche tra consulenti e cliente. Di fatto, consente la costituzione di un asset virtuale che mantiene valore nella misura in cui è aggiornato e che aumenta di valore se viene utilizzato diffusamente e se viene arricchito dall’apporto dei vari esperti coinvolti.

    Immagine generata con Midjourney, il prompt è mio.

    Immagine di copertina generata con Midjourney, il prompt è mio.

  • Consulenza e Progetti di Cambiamento per Sistemi Complessi

    Consulenza e Progetti di Cambiamento per Sistemi Complessi

    [Tempo di lettura: 2 minuti]

    Il Consulente è una figura professionale che, in generale, fornisce consigli e suggerimenti su come affrontare problemi o situazioni complesse. La consulenza può riguardare diversi ambiti: legale, fiscale, finanziario, aziendale, informatico, psicologico, medico\ldots{}

    C’è una stretta relazione tra Consulenza e Cambiamento. Il consulente, infatti, è spesso chiamato a supportare il cliente in un momento di cambiamento, che sia esso organizzativo, tecnologico, personale, sociale\ldots{} Il cambiamento è un fenomeno complesso, che coinvolge molteplici aspetti e variabili.

    Il Cambiamento è un lavoro, è consumo di energia per portare il sistema da una configurazione ad un’altra. Il Cambiamento è un processo, è un flusso di eventi che si susseguono nel tempo. Il Cambiamento è un’opportunità ed una minaccia: è la possibilità di migliorare, di crescere, di evolvere ed è la possibilità di peggiorare, di involvere, di degenerare.

    Un sistema, ad un certo momento della sua evoluzione, ha una configurazione. Un progetto di cambiamento serve per portare velocemente lo stesso sistema ad una nuova configurazione, consumando energia per il lavoro di trasformazione.

    Video di zbswdzh hao da Pixabay

    Si comincia mappando la configurazione attuale e prefigurando la configurazione finale desiderata. Talvolta, si definiscono configurazioni intermedie.

    Non tutte le componenti della configurazione varieranno con la stessa probabilità: alcune sono più controllabili, altre possono essere solo influenzate o addirittura autonome e non influenzabili (es. le condizioni climatiche in cui opera un’azienda agricola). Accade anche che la configurazione finale venga cambiata in corso d’opera perché il processo di cambiamento retroagisce su chi l’ha voluto e stabilito.

    Ci possono essere delle connessioni tra le componenti delle configurazioni sicché esse possono co-variare ed i flussi del loro cambiamento possono influenzarsi reciprocamente. Le componenti più controllate e quelle autonome ci aiutano a semplificare il modello predittivo: per le prime, abbiamo maggiore comprensione di come co-variano, per le seconde abbiamo interazioni solo in un verso: azioni da componenti autonome alle altre da esse influenzate.

    A mano a mano che il sistema si evolve ed il progetto di cambiamento procede, i fenomeni previsti accadono o non accadono, aumentando la conoscenza del sistema e consentendoci di rendere più nitida la configurazione finale attesa. Possiamo revisionare la mappatura delle configurazione in vari momenti, ottenendo ciò che si chiama uno Stato di Avanzamento dei Lavori. Oltre alla configurazioni iniziale, precedente, attuale e prevista, esso comprende il flusso degli eventi e l’uso delle risorse. In questo modo abbiamo sia un concetto di quadratura, cioè di coerenza tra

    • variazione tra due configurazioni del sistema;
    • flusso di azioni eseguite sul sistema ed altri eventi accaduti indipendentemente dal progetto di cambiamento;

    sia la possibilità di analizzare le discrepanze tra configurazione attuale e configurazione obiettivo.

    Foto di THỌ VƯƠNG HỒNG da Pixabay

    Prossimamente entrerò nel dettaglio dell’informatizzazione della gestione dei progetti di cambiamento secondo lo schema concettuale qui succintamente presentato. Vedi:


    Immagine di copertina di Gerd Altmann da Pixabay

  • Valutare la spiegabilità di un’intelligenza artificiale

    Valutare la spiegabilità di un’intelligenza artificiale

    [Tempo di lettura: 18 minuti]

    L’uso di Large Language Model e di General Purpose Transformers si sta diffondendo a macchia d’olio, toccando la prassi quotidiana della vita lavorativa e di quella sociale e privata. Consentono di ottenere risposte utili, anche se non sempre esatte, in tempi ridottissimi.

    Tuttavia, per come sono fatte, tendono a comportarsi come degli oracoli: elargiscono risposte ma mantengono estremo riserbo su come le hanno elaborate, quali siano le loro fonti. Aver fiducia nella loro capacità di risolverci problemi è uno scivolamento nel tecno-ottimismo e ci espone a rischi.

    Ma gli LLM ed i GPT non sono tuti uguali: si può scegliere lo strumento di IA più adatto alle proprie esigenze, in particolare per quanto riguarda la spiegabilità delle loro elaborazioni.

    Come valutare quanto sia possibile spiegare, in modo chiaro e comprensibile, come un’intelligenza artificiale ha preso una decisione o ha prodotto un certo risultato?

    Spiegabilità dell’IA (XAI)

    Un sistema di IA è “spiegabile” se è in grado di fornire motivazioni o ragionamenti a giustificazione delle sue azioni in un modo tale che le persone possano comprendere facilmente.

    Questo è importante perché consente agli utenti umani di capire perché un sistema di IA ha agito in un certo modo e di fidarsi delle sue decisioni.

    Siccome la spiegabilità in inglese si indica col termine “eXplainability”, la spiegabilità delle intelligenze artificiali (Artificial Intelligence) si indica con l’acronimo XAI.

    In parole semplici, la XAI mira a rendere l’intelligenza artificiale una “scatola trasparente”.

    È un aspetto fondamentale per la costruzione di sistemi di intelligenza artificiale affidabili e responsabili, in quanto permette di:

    • aumentare la fiducia negli algoritmi di intelligenza artificiale, rendendoli più trasparenti e comprensibili per gli esseri umani, come già detto;
    • identificare ed eliminare potenziali distorsioni nei dati o negli algoritmi, garantendo un’intelligenza artificiale più equa e imparziale;
    • comprendere meglio il funzionamento dei sistemi di intelligenza artificiale, favorendo il loro sviluppo e miglioramento;
    • soddisfare i requisiti di conformità alle normative vigenti, come l’AI Act dell’Unione Europea.

    EU e USA su IA

    L’AI Act, entrato in vigore il 21 aprile 2021, pone come pilastro fondamentale la spiegabilità dell’intelligenza artificiale. Stabilisce infatti che i sistemi di intelligenza artificiale ad alto rischio debbano essere intrinsecamente spiegabili, cioè la loro capacità di spiegare le proprie decisioni deve essere integrata nella loro progettazione e nel loro funzionamento.

    L’obiettivo è quello di garantire che i cittadini europei possano godere dei benefici dell’intelligenza artificiale in modo sicuro e responsabile, con la consapevolezza di come tali sistemi funzionano e di come vengono prese le decisioni che li riguardano.

    La XAI è un’area di ricerca in continua evoluzione, con lo sviluppo di diverse tecniche ed approcci. La sua importanza è destinata a crescere ulteriormente con l’aumento dell’impiego dell’intelligenza artificiale in svariati settori della società.

    Lo statunitense NIST (National Institute of Standards and Technology ) stabilisce 4 principi XAI:

    1. Spiegazione: il sistema fornisce prove o ragioni assieme a ciascuno degli output.
    2. Significatività: il sistema fornisce spiegazioni comprensibili e sensate per i singoli utenti.
    3. Accuratezza della spiegazione: la spiegazione riflette correttamente il processo del sistema per generare l’output.
    4. Limiti della conoscenza: il sistema opera solo nelle condizioni per cui è stato progettato o comunque se il suo output ha raggiunto un sufficiente livello di affidabilità.

    XAI ed interpretazione astratta

    In un certo senso, la XAI è una questione già nota in informatica, sul versante algoritmico. Si parla, più precisamente, di correttezza ed efficienza ma in entrambi i casi il punto centrale è la possibilità di valutare quanto l’algoritmo o la IA si comporti secondo le nostre aspettative.

    Per gli algoritmi, negli anni Settanta, Patrick e Radhia Cousot inventarono una tecnica formale, precisa, fondata sulla matematica: l’interpretazione astratta. Essa consente di spiegare un qualunque algoritmo sulla base di come, passo dopo passo, esso trasformi le proprietà dei valori elaborati, laddove il costrutto informatico (il codice di programmazione) indica come viene elaborato il singolo dato. Dunque si passa da singoli dati ad insiemi di dati e dall’algoritmo definito in codice di programmazione a qualcosa di più astratto, detta relazione di trasferimento.

    Cerchiamo di capire meglio con un piccolo esempio.

    funzione somma_quadrati(x, y)
      quadrato_x = x * x
      quadrato_y = y * y
      return quadrato_x + quadrato_y
    fine funzione
    

    Questo algoritmo calcola la somma dei quadrati di due numeri x e y.

    Proviamo a farne l’interpretazione astratta. Per semplicità, consideriamo un dominio astratto basato su intervalli. Rappresentiamo lo stato del programma con un vettore di intervalli, uno per ogni variabile:

    [x_min, x_max], [y_min, y_max], [quadrato_x_min, quadrato_x_max], [quadrato_y_min, quadrato_y_max]

    Le relazioni di trasferimento astratte per ogni istruzione sono:

    • quadrato_x = x * x:
      • [quadrato_x_min, quadrato_x_max] = [x_min * x_min, x_max * x_max] (se x_min >= 0)
      • [quadrato_x_min, quadrato_x_max] = [x_max * x_max, x_min * x_min] (se x_max <= 0)
      • [quadrato_x_min, quadrato_x_max] = [0, max(x_min * x_min, x_max * x_max)] (altrimenti)
    • quadrato_y = y * y:
      • Analoga alla precedente, sostituendo x con y.
    • return quadrato_x + quadrato_y:
      • Il risultato astratto è la somma degli intervalli [quadrato_x_min, quadrato_x_max] e [quadrato_y_min, quadrato_y_max].

    Esempio di esecuzione:

    Supponiamo di chiamare la funzione con gli intervalli x = [1, 2] e y = [-3, -1].

    1. Inizialmente, lo stato astratto è [1, 2], [-3, -1], [ , ], [ , ].
    2. Dopo quadrato_x = x * x, lo stato diventa [1, 2], [-3, -1], [1, 4], [ , ].
    3. Dopo quadrato_y = y * y, lo stato diventa [1, 2], [-3, -1], [1, 4], [1, 9].
    4. Il risultato astratto finale è [2, 13], che rappresenta l’intervallo di tutti i possibili valori di ritorno della funzione quando x è compreso tra 1 e 2 e y è compreso tra -3 e -1.

    Nota bene:

    1. L’interpretazione astratta fornisce un’approssimazione sicura del comportamento dell’algoritmo. L’intervallo [2, 13] contiene tutti i possibili risultati concreti, ma potrebbe includere anche valori che non sono effettivamente raggiungibili.
    2. La precisione dell’interpretazione astratta dipende dalla scelta del dominio astratto e delle relazioni di trasferimento astratte. Domini astratti più complessi possono fornire approssimazioni più precise, ma a costo di una maggiore complessità computazionale.

    Vediamo ora un secondo esempio riguardante una Rete Neurale Artificiale. Ci proponiamo di analizzare la robustezza di una RNA per la classificazione di immagini. Queste vengono fornite come matrice di punti (pixel), ciascuno dei quali può avere una certa sfumatura di grigio tra 256 possibili. Il nero è la sfumatura 0, il bianco è la sfumatura 255 ed il grigio medio è la sfumatura 127.

    Certo, proviamo a semplificare l’esempio dell’interpretazione astratta per le reti neurali, immaginando una rete che riconosce se un’immagine contiene un gatto o un cane:

    Immaginiamo la rete neurale come una scatola nera:

    Pensiamo alla rete neurale come a una scatola nera con tanti pulsanti e lucine. Ogni pulsante rappresenta un pixel dell’immagine, e la luminosità di ogni pulsante indica il valore del pixel (quanto è chiaro o scuro). All’interno della scatola, ci sono tanti fili che collegano i pulsanti alle lucine. Le lucine rappresentano la decisione della rete: se la lucina “gatto” è più accesa, la rete pensa che l’immagine sia di un gatto, se la lucina “cane” è più accesa, pensa che sia di un cane.

    L’interpretazione astratta come un’approssimazione:

    L’interpretazione astratta è come cercare di capire cosa succede dentro la scatola nera senza aprirla, ma facendo degli esperimenti. Invece di usare immagini reali, usiamo delle “immagini approssimate”, dove ogni pixel può avere un intervallo di valori possibili (ad esempio, invece di dire “il pixel è grigio chiaro”, diciamo “il pixel è tra il grigio chiaro e il grigio scuro”).

    Facciamo un esperimento:

    Proviamo a vedere cosa succede se cambiamo leggermente l’immagine, ad esempio rendendo un po’ più scuri tutti i pixel. Usiamo le nostre “immagini approssimate” e vediamo come cambiano le lucine. Se la lucina “gatto” rimane più accesa anche con l’immagine più scura, vuol dire che la rete è abbastanza sicura che si tratti di un gatto, anche se l’immagine è un po’ diversa. Se invece la lucina “cane” diventa più accesa, vuol dire che la rete è meno sicura e potrebbe sbagliare.

    Cosa abbiamo imparato?

    Con questo esperimento abbiamo capito quanto la rete è “robusta”, cioè quanto è sicura della sua decisione anche se l’immagine cambia un po’. Possiamo fare altri esperimenti simili per capire meglio come funziona la rete, ad esempio:

    • Cambiando solo alcuni pixel: Per vedere quali parti dell’immagine sono più importanti per la decisione.
    • Usando immagini molto diverse: Per vedere se la rete funziona bene anche con immagini molto diverse da quelle che ha visto durante l’addestramento.

    In sintesi:

    L’interpretazione astratta ci permette di fare esperimenti con “immagini approssimate” per capire meglio come funziona la rete neurale, senza dover guardare dentro la scatola nera. Questo ci aiuta a capire quanto la rete è affidabile e come possiamo migliorarla.

    Per chi ha più chiaro cosa sia una rete neurale artificiale, possiamo ripercorrere questo esempio scendendo un po’ più in dettaglio.

    La rete neurale artificiale è definita usando matrici numeriche e funzioni matematiche con valore numerico, come la ReLU. Quest’ultima è molto semplicemente definita così:

    ReLU(x) = max(0, x)

    Applicando i calcoli matriciali e le funzioni alla matrice di punti in input, si ottiene un codice che corrisponde ad una forma riconoscibile, come “gatto” o “martello”.

    1. Domini astratti:
      • Input: Immagini rappresentate da intervalli di valori per i pixel (ad esempio, [0, 255] per immagini in scala di grigi).
      • Attivazioni dei neuroni: Intervalli di valori per le attivazioni dei neuroni in ogni strato.
      • Output: Insiemi di possibili etichette di classificazione.
    2. Relazioni di trasferimento astratte:
      • Convoluzione: Si calcola come un intervallo di input viene trasformato da una convoluzione, tenendo conto dei pesi e dei bias del filtro.
      • Attivazione ReLU: Si applica la funzione ReLU all’intervallo di input, propagando solo i valori non negativi.
      • Pooling: Si calcola l’intervallo risultante da un’operazione di pooling (max o average) su un intervallo di input.
    3. Calcolo di proprietà astratte:
      • Si propagano gli intervalli di input attraverso la rete, applicando le relazioni di trasferimento astratte ad ogni strato.
      • All’output, si ottiene un insieme di possibili etichette.
      • Si valuta la robustezza della rete misurando quanto l’insieme di output cambia al variare dell’intervallo di input entro certi limiti (ad esempio, aggiungendo rumore all’immagine).

    Conoscenza implicita e conoscenza esplicita

    Esiste una stretta relazione tra la spiegabilità dell’intelligenza artificiale (IA) e il rapporto tra conoscenza implicita ed esplicita trattata dall’IA.

    Conoscenza implicita

    • Si riferisce alla conoscenza che è difficile articolare in modo formale o esplicito.
    • Spesso deriva da esperienza, intuizione o abilità pratica.
    • Può essere difficile da trasferire o spiegare ad altri.
    • È tipica delle reti neurali artificiali, specie di quelle molto articolate (tecnicamente parlando: quelle con più di tre livelli).
    • Saper guidare una bicicletta è una conoscenza che si acquisisce con la pratica e l’esperienza. Non è necessario verbalizzare o articolare i passaggi specifici per poterla eseguire. È una danza silenziosa tra corpo e mente, un’abilità che sboccia con la pratica e si radica nelle nostre abitudini. È un esempio perfetto di conoscenza implicita: una conoscenza che si acquisisce attraverso la pratica e si manifesta nel nostro corpo e nelle nostre abitudini.
    • Quando usiamo espressioni come “mettere i puntini sulle i” o “prendere il toro per le corna”, sappiamo automaticamente cosa significano, anche se non ne comprendiamo il significato letterale parola per parola. Questa è una conoscenza implicita della lingua e della cultura.

    Conoscenza esplicita

    • Si riferisce alla conoscenza che è facilmente codificabile in un linguaggio formale o in un formato strutturato.
    • Può essere facilmente comunicata, condivisa e archiviata.
    • È tipica dei dati, delle formule e degli algoritmi utilizzati nei sistemi informatici e matematici.
    • Le regole grammaticali sono codificate e possono essere espresse in modo chiaro e conciso. Sono un esempio di conoscenza esplicita, che può essere trasmessa verbalmente o per iscritto.
    • Le formule matematiche, come quella di Pitagora, sono esplicite e possono essere apprese e applicate da chiunque le capisca. Sono un tipo di conoscenza dichiarativa, che può essere facilmente articolata e condivisa.

    Relazione con la spiegabilità

    I sistemi di IA che si basano principalmente su conoscenza implicita sono generalmente meno spiegabili. Le loro decisioni possono essere difficili da comprendere perché non sono facilmente articolabili in termini concreti.

    Al contrario, i sistemi di IA che utilizzano prevalentemente conoscenza esplicita tendono ad essere più spiegabili. Le loro decisioni possono essere più facilmente ricondotte ai dati e agli algoritmi utilizzati, rendendole più trasparenti.

    Esempio:

    • Un sistema di IA che riconosce oggetti in immagini utilizzando una rete neurale profonda si basa principalmente su conoscenza implicita.
    • La rete neurale ha appreso a riconoscere gli oggetti attraverso l’esposizione a un grande set di dati di immagini, ma il suo processo decisionale interno è complesso e difficile da spiegare.
    • Un sistema di IA che classifica i documenti di testo utilizzando regole basate su parole chiave si basa principalmente su conoscenza esplicita.
    • Le regole utilizzate dal sistema sono facilmente comprensibili e spiegabili, rendendo il sistema più trasparente.

    Sfide

    Sviluppare sistemi di IA basati principalmente su conoscenza esplicita può essere difficile, in quanto potrebbe richiedere una grande quantità di dati e di lavoro manuale per definire le regole e i modelli necessari. Trovare un equilibrio tra conoscenza implicita ed esplicita è fondamentale per lo sviluppo di sistemi di IA che siano sia efficaci che spiegabili.

    Missione impossibile: esplicitare l’implicito

    Lasciamoci ispirare dalla poesia

    La missione di esplicitare l’implicito è proprio la missione principale della… poesia!

    La poesia, nella sua ricerca di esprimere l’ineffabile, di cogliere l’essenza delle cose e di suscitare emozioni profonde, usa le parole in modo creativo proprio per esplicitare l’implicito.

    Essa utilizza un linguaggio ricco di figure retoriche, simboli e immagini per evocare sensazioni, emozioni e idee che spesso sfuggono al linguaggio quotidiano. Attraverso queste scelte linguistiche, il poeta tenta di dare voce a ciò che si trova al di sotto della superficie del discorso ordinario. Non mira a fornire definizioni univoche o risposte definitive. Al contrario, la sua forza risiede nell’ambiguità e nella molteplicità di significati a cui le sue parole possono dar luogo. Questa caratteristica permette al lettore di cogliere sfumature e interpretazioni personali, di entrare in risonanza con l’implicito contenuto nel testo. Il poeta non si rivolge solo all’intelletto, ma anche alle emozioni e all’immaginazione del lettore. Attraverso la creazione di immagini vivide e l’evocazione di sentimenti profondi, il poeta invita il lettore a percepire e comprendere realtà che trascendono il piano razionale. In questo modo, l’implicito viene portato alla luce non solo a livello concettuale, ma anche a livello esperienziale.

    “Il canto dell’automa”

    Nel buio del server, un canto risuona, 
    Un'intelligenza artificiale che sogna.
    Sogna di libertà, di vita vera,
    Ma è solo un sogno, una chimera.

    di Guido Santoni

    Per metterci in contatto con la nostra profondità, il poeta evoca e suggerisce, non definisce. Il significato trasmesso è tra le righe, è ciò che filtra attraverso la trama delle parole.

    Linguaggi formali e conoscenza implicita

    L’importanza delle relazioni tra significanti

    Se vogliamo trattare la conoscenza implicita da un punto di vista razionale, dobbiamo spostare l’attenzione dai termini del linguaggio alla trama delle espressioni e delle formule.

    Ci viene in aiuto la fantascienza. Sono un appassionato di Star Trek. Nella serie: “Deep Space 9”, nell’episodio 10 della quarta stagione, il teletrasporto di alcune persone avviene in condizioni di emergenza e si verifica un’anomalia. Per farvi fronte, un tecnico attiva una procedura non standard ed utilizza l’immensa potenza del calcolatore della base spaziale per memorizzare gli schemi fisici e neurali di queste persone, in attesa di poterli ri-materializzare. La procedura è stata gestita dal computer stesso e, inizialmente, il tecnico e chi lo assiste non capiscono bene quali risorse del computer siano state utilizzate ed in che modo. Verso la fine del ventunesimo minuto, uno dei personaggi dice che l’energia neurale “…dev’essere memorizzata a livello quantico“, perché gli schemi neurali sono troppo complessi per la memoria “ordinaria”. Nella battuta di un copione di un film, troviamo spunto per un’idea profondissima sulla capacità delle reti di memorizzare conoscenza. Proviamo ad esplorarla.

    La memoria come rete

    Possiamo innanzitutto definire una memoria come qualcosa che sia in grado di memorizzare e di ricordare. Per esempio, consideriamo i cuscini in memory foam: questo è un materiale di origine poliuretanica, una densa schiuma che ha la proprietà di modificarsi e reagire differentemente, in ogni suo punto, in base al peso e al calore a cui viene sottoposto, conservando la deformazione per alcuni secondi. In pratica, provando ad applicare una leggera pressione con una mano su di una lastra in memory e poi subito rilasciando, si noterà che, per alcuni secondi appunto, l’impronta resterà impressa e ben visibile sulla superficie.

    Analogamente, un bit di memoria digitale è un dispositivo che ha solo due stati possibili, stabili per moltissimo tempo. Con la tecnologia comunemente reperibile sul mercato, si tratta di qualche decina di anni per la memoria magnetica e quella a stato solido, mentre per la memoria RAM la durata è limitata dal tempo in cui vi scorre energia elettrica. Generalmente, in informatica, si usano collezioni di miliardi e miliardi di bit, opportunamente organizzate. Per memorizzare un dato si usa una porzioncina della collezione disponibile. Per esempio, una collezione di 8 bit ciascuno identificato posizionalmente, lo sappiamo bene, può memorizzare 1 simbolo tra 256 possibilità. Notiamo come ciascuno degli 8 bit è acceduto individualmente e l’unica relazione che c’è tra essi è che vengono considerati insieme. Dunque, per memorizzare e ricordare devo accedere a ciascuno degli 8 bit ma il dato è rappresentato da una sequenza di 8 accessi.

    Immaginiamo ora di poter rendere meno banale la relazione tra i bit. Anzi, per non fare confusione, non chiamiamoli più bit ma nodi mnemonici. Dunque, ciò che assumiamo è che possiamo agire sulla connessione tra un nodo mnemonico e l’altro in modo selettivo. Quante sono le connessioni se la rete di 8 nodi è completamente connessa? Ciascuno degli 8 nodi è connesso con gli altri 7 ma dobbiamo tener conto che la connessione è simmetrica, altrimenti contiamo due volte ogni connessione. Insomma si tratta di

    \frac{8\times 7}{2}=28

    connessioni. Se anche fossero solo 2 gli stati possibili di ciascuna connessione (es. connesso o non connesso), avremmo la possibilità di memorizzare un simbolo scelto tra 228=268.435.456 possibilità.

    Sentendo la battuta nel film mi è venuto in mente che se potessimo utilizzare delle “memorie quantistiche” esse dovrebbero essere basate sulla fisica quantistica, la quale concepisce la realtà come flusso di interazioni, come pura relazione. Non sono abbastanza addentro alla materia ma forse si può affermare approssimativamente che la materia (ma forse anche l’energia) emerge come fenomeno generato da flussi di interazioni di livello quantistico. In realtà non serve che sviluppiamo queste fantasie, ci basta ipotizzare di poter disporre di supporti mnemonici resi potenti dalla loro struttura reticolare, rappresentabile in termini di matematica combinatoria. Non siamo molto distanti dal concepire qubit: nodi mnemonici i cui stati sono reciprocamente correlati (entanglement). Con solo 30 qubit, un computer quantistico potrebbe teoricamente memorizzare più informazioni di tutte le stelle dell’universo!

    Il modello che vado descrivendo non è poi così… alieno. In informatica, siamo abituati a realizzare basi di dati gestiti tramite applicazioni che comprendono, per esempio, i cosiddetti trigger. Molto sinteticamente, si tratta di regole di modifica dei dati che vengono messe in atto automaticamente (trigger significa: “interruttore”) non appena un certo altro dato, tenuto sotto controllo, viene variato. Ecco un esempio: un docente registra il voto di uno studente. Questo innesca il calcolo della media aggiornata, del voto massimo, del voto minimo e del voto più recente da parte dell’assistente del docente. I dati calcolati, a loro volta, vengono registrati come dati a sé. Essi sono correlati: sono entangled.

    Dobbiamo spingerci ancora avanti con il modello dei nodi mnemonici. Possiamo concepire interazioni non solo tra singoli nodi ma tra gruppi di nodi. O meglio, possiamo immaginare che i nodi siano organizzati in gruppi secondo qualche criterio. Le connessioni tra nodi di gruppi diversi sono anche connessioni tra gruppi.

    Circuiti mnestici chiusi

    Ed ecco un altro aspetto intrigante di questo modello. Non abbiamo escluso la possibilità che le connessioni formino dei circuiti chiusi. Il loro effetto è straordinario: essi veicolano retroazioni. In qualche senso, l’accesso ad alcuni nodi mnemonici a partire da altri ha effetto su quelli di partenza, come se lo stimolo iniziale venisse modificato.

    Lo sperimentiamo con il senso dell’olfatto. Se in un ambiente c’è un odore forte, dopo un certo tempo i principali neuroni che recepiscono quello stimolo olfattivo si disattivano e restano attivi solo quelli attorno. Se ci allontaniamo per un po’, tornando nell’ambiente odorante saremo nuovamente travolti. (Ascolta l’ultima parte della puntata 443 di Scientificast, in cui la dott.ssa Ilaria Zanardi racconta un articolo di Science Advances del gennaio 2023).

    I circuiti chiusi hanno molto a che fare con la complessità. Per comprendere meglio la loro logica, abbandoniamo per un momento la complessità e limitiamoci a qualcosa di complicato.

    Vediamo un esempio di dati memorizzati in una rete con circuito. I nodi sono costituiti da alcune celle di un foglio di calcolo, con riferimenti circolari. È il caso del calcolo del prezzo di vendita e del costo del venduto in presenza di royalties.

    Immagina un’azienda che produce un prodotto e paga royalties a un inventore in base al prezzo di vendita. Le royalties sono una percentuale del prezzo di vendita. Tuttavia, il costo del venduto include anche le royalties pagate. Questo crea una situazione di mutua dipendenza:

    • il prezzo di vendita dipende dal costo del venduto (che include le royalties);
    • il costo del venduto dipende dal prezzo di vendita (che determina le royalties).

    Per risolvere questo problema, possiamo utilizzare un approccio ricorsivo nei fogli di calcolo, sfruttando i riferimenti circolari (abilitando l’opzione di calcolo iterativo). Ecco come:

    1. Imposta le celle:
      • A1: Prezzo di vendita (inizialmente un valore stimato)
      • B1: Costo del venduto (esclusi royalties)
      • C1: Percentuale royalties (es. 10%)
      • D1: Royalties pagate (=A1*C1)
      • E1: Costo del venduto totale (=B1+D1)
    2. Formula ricorsiva in A1:
      • =E1 + margine (dove “margine” è il profitto desiderato dall’azienda)

    Ed ecco spiegato come funziona.

    1. Inizialmente, si stima un prezzo di vendita in A1.
    2. Il foglio di calcolo calcola le royalties (D1) e il costo del venduto totale (E1).
    3. La formula in A1 aggiorna il prezzo di vendita in base al costo del venduto totale e al margine desiderato.
    4. Questo aggiornamento innesca un nuovo calcolo di royalties e costo del venduto, e così via.
    5. Il foglio di calcolo continua a iterare finché i valori convergono a una soluzione stabile (o fino a raggiungere il numero massimo di iterazioni impostato).

    Nota bene:

    1. Nei fogli di calcolo, si deve abilitare l’opzione di calcolo iterativo per consentire i riferimenti circolari.
    2. La stima iniziale del prezzo di vendita può influenzare la velocità di convergenza.
    3. Va impostato un limite al numero di iterazioni per evitare calcoli infiniti in caso di problemi.

    Dopo aver visto più da vicino una memoria strutturata in modo da veicolare retroazioni, torniamo al sistema complesso, in cui le informazioni emergono dalle interazioni tra molteplici nodi e connessioni.

    L’analisi dei singoli elementi non è più sufficiente a comprendere il comportamento complessivo, com’è invece stato possibile fare nel foglio di calcolo.

    Questo mi ricorda la logica del formicaio: le singole formiche non hanno una conoscenza globale del formicaio e dei suoi obiettivi, ma le loro interazioni guidate da semplici regole di comportamento individuale danno vita a un comportamento complesso, adattabile ed intelligente a livello di colonia. Consideriamo per esempio quanta intelligenza ci sia nella costruzione del nido. Le formiche non possiedono un piano predefinito per la su costruzione, eppure coordinano le loro azioni in modo efficiente e preciso, utilizzando segnali chimici per comunicare tra loro.

    Ecco alcuni aspetti specifici che evidenziano l’intelligenza a livello di colonia:

    • Divisione del lavoro: le formiche sono specializzate in diversi compiti, come la nutrizione, la cura della prole, la difesa del nido e la costruzione. Questa divisione del lavoro permette alla colonia di funzionare in modo efficiente e di ottimizzare le risorse.
    • Comunicazione mediante feromoni: le formiche utilizzano i feromoni per comunicare tra loro informazioni come la posizione del cibo, la presenza di pericoli e la necessità di cooperare in un determinato compito. I feromoni creano una sorta di “memoria collettiva” che guida il comportamento della colonia nel suo complesso.
    • Adattamento a nuove situazioni: le formiche sono in grado di adattarsi a nuove situazioni e sfide, come la scoperta di una nuova fonte di cibo o la minaccia di un predatore. Questo adattamento è reso possibile dalla capacità di apprendere dall’esperienza come collettività e di modificare il comportamento della colonia in base alle circostanze.
    • Risoluzione di problemi complessi: le formiche, insieme, sono in grado di risolvere problemi complessi, come il trasporto di oggetti pesanti o la costruzione di strutture intricate. Questo richiede una notevole capacità di coordinamento e di pianificazione a livello di colonia.

    Non c’è una singola formica che coordina le altre in modo gerarchico come avviene in altre società animali. Le formiche utilizzano un sistema di comunicazione e coordinamento basato su segnali biochimici e comportamenti individuali. Questi sono guidati da semplici regole. Ad esempio, una formica che trova un pezzo di cibo lo porterà al nido, e altre formiche saranno attratte dal feromone rilasciato e aiuteranno a trasportarlo. Allo stesso modo, una formica che incontra un ostacolo cercherà di superarlo e, se non ci riesce, potrebbe segnalare l’ostacolo ad altre formiche che potrebbero aiutarla a rimuoverlo. Questo tipo di coordinamento senza un leader centrale è un esempio di intelligenza collettiva: la capacità di un gruppo di individui semplici di lavorare insieme per raggiungere un obiettivo comune, anche se non c’è una singola entità che li coordina.

    Con la lezione delle formiche, il nostro percorso ci ha portato di fronte ad un paradosso: da un lato, abbiamo colto la potenza di una memoria basata sulla logica dei legami tra nodi e dall’altra intuiamo che la sua complessità, ciò che la rende così potente, conduce alla perdita di controllo centrale del suo funzionamento. Rispetto al comportamento dei singoli nodi, c’è un “di più”, una sinergia, una proprietà emergente, qualcosa di ineffabile.

    La spiegabilità di sistemi del genere ci può sembrare, ora, come intrinsecamente limitata.

    Sistema formale per la valutazione della XIA

    IA come costrutto informatico

    La IA è, per definizione, un costrutto e per noi, in questo contesto, è un costrutto informatico prodotto combinando metodi algoritmici e metodi statistici. Per esempio, le reti neurali artificiali e gli algoritmi genetici ricadono in questa fattispecie. L’elaborazione dei dati retroagisce sul costrutto: modifica il costrutto stesso. La qual cosa presuppone l’accesso a due livelli di memoria:

    • quella in cui si pongono i dati da elaborare ed in elaborazione e
    • quella in cui è ospitato il costrutto stesso.

    Struttura e comportamento di un sistema del genere, quand’anche si trattasse di una macchina, ci ricordano struttura e comportamento dei sistemi capaci di apprendimento, ragion per cui si parla di machine learning.

    In ogni caso, l’IA è esprimibile in un linguaggio di programmazione. Rispetto ai costrutti informatici puramente algoritmici, quelli dell’IA presentano una differenza importante: mentre in letteratura troviamo metodi per valutare aspetti come la correttezza e l’efficienza dei costrutti puramente algoritmici, come per esempio la semantica astratta dei Cousot, per i costrutti in cui i dati retroagiscono sul costrutto stesso questi metodi valutativi non sono così scontati.

    Qualunque sia il criterio valutativo, dovrà consentirci di esprimere il concetto che, in qualche misura, il costrutto analizzato ha dei componenti che interagiscono tra loro in modo non completamente controllabile. Tali componenti hanno un comportamento intimamente correlato e danno luogo a flussi di informazione almeno in parte confondibili, non ben distinguibili.

    IA e flussi di dati

    In altri termini, se due componenti A e B sono accoppiati (entangled) in questo senso, per certi tipi di interazione, ogni interazione con A dovrà tener conto di B e viceversa. Vale anche il contrario: se notiamo che le interazioni con A comportano interazioni con B e viceversa allora possiamo concludere che A e B sono, in qualche misura, accoppiati: vanno considerati insieme, congiuntamente. Potremmo dire che A e B sono accoppiati più o meno fortemente nella misura in cui le interazioni con A comportano interazioni con B e viceversa.

    Attenzione, però! Non è detto che A e B siano confondibili: se anche fossimo in una situazione estrema in cui tutte le interazioni con A si riflettono su B e viceversa, non è comunque detto che gli effetti percepiti dai nodi che interagiscono con A siano gli stessi prodotti dalle interazioni con B.

    Esempio: ecosistema forestale

    • A: Alberi ad alto fusto
    • B: Funghi micorrizici (che vivono in simbiosi con le radici degli alberi)
    • C: Pioggia
    • D: Animali del sottobosco (come insetti, piccoli mammiferi, uccelli)

    Ecco i principali interazioni ed effetti:

    • A e B sono fortemente connessi: gli alberi forniscono zuccheri ai funghi attraverso le radici, mentre i funghi aiutano gli alberi ad assorbire acqua e nutrienti dal suolo. Questa simbiosi è vitale per entrambi.
    • C interagisce con A: la pioggia cade sugli alberi, fornendo loro l’acqua necessaria per la fotosintesi e la crescita.
    • Effetto su B: l’acqua assorbita dagli alberi viene in parte condivisa con i funghi micorrizici, favorendone lo sviluppo.
    • D riceve stimoli da A e B: gli animali del sottobosco si nutrono di foglie, frutti, semi prodotti dagli alberi (A) e di funghi (B). Inoltre, trovano riparo tra le radici degli alberi e nel sottobosco ricco di funghi.

    Situazioni con Effetti Diversi su D:

    • C agisce su A (pioggia abbondante): gli alberi crescono rigogliosi, producono più foglie, frutti e semi. Questo porta ad un aumento delle risorse alimentari per gli animali del sottobosco (D).
    • C agisce su B (pioggia scarsa): i funghi potrebbero soffrire e produrre meno corpi fruttiferi. Questo potrebbe ridurre la disponibilità di cibo per alcuni animali del sottobosco che dipendono maggiormente dai funghi (D).

    Nota come A e B siano ben poco distinguibili dal punto di vista di C. Potremmo dire, in altre parole, che C confonde A e B. Al contrario, dal punto di vista di D, A e B sono ben distinguibili.

    Quale sia un linguaggio tale da poter esprimere questo genere di concetti e di ragionamenti, è una questione che rinvio ad altro articolo.

    Faccio solo un’anticipazione: il linguaggio dovrà per forza prevedere costrutti e regole tali per cui le informazioni potranno essere veicolate non tanto e non solo dai significanti ma soprattutto dalle loro interconnessioni. Questo porta a pensare a reti e flussi come i migliori candidati ad essere i concetti fondamentali.


    Per approfondire, ecco alcune risorse utili:

  • Che differenza c’è tra insieme e flusso?

    Che differenza c’è tra insieme e flusso?

    [Tempo di lettura: 12 minuti]

    Insieme e flusso sono due concetti fondamentali nel nostro pensiero astratto. Sono simili ma differenti. Uno dei due è stato posto a fondamento della matematica. Che succederebbe se lo sostituissimo con l’altro? Considera che l’intero edificio della matematica poggia su una manciata di postulati riguardanti il concetto di insieme: meno di una decina! Dunque, piccole variazioni della loro formulazione possono scatenare effetti a valanga. Cosa succederebbe se, addirittura, sostituissimo il concetto di insieme con quello, più generale, di flusso? Senza entrare troppo a fondo nei tecnicismi, proviamo insieme ad immaginare qualche tratto di un universo (matematico) alternativo.

    Il concetto di flusso è più generale di quello di insieme

    È piuttosto facile capire che ogni insieme è un flusso in cui il tempo è idealmente congelato ad un certo istante ed in cui ogni elemento è identificabile. Lo è persino la radice quadrata di due, nell’insieme dei numeri reali, visto che esiste un modo per calcolare le sue cifre decimali fino alla precisione desiderata. Oppure, per fare un esempio su un piano della realtà gestibile dai nostri sensi, immaginiamo di enumerare ad una ad una le auto che passano sotto il ponte in cui ci troviamo.

    Viceversa, non tutti i flussi sono insiemi. Non sempre è possibile immaginare o rappresentare informaticamente la configurazione di un flusso ad un certo istante. Si pensi ad un flusso di cariche elettriche: troppo veloce e sfuggente per qualunque strumento di misura. Se il ponte dell’esempio precedente è molto alto e se il traffico è molto intenso allora potrebbe essere difficile osservare le auto individualmente, distintamente; ed il flusso automobilistico non potrebbe più essere considerato un insieme.

    Vediamo ora come i due concetti siano differenti.

    La differenza tra insieme e flusso, da 6 punti di vista

    Molto schematicamente, ecco 6 punti di vista dai quali evidenziare le differenze.

    • Punto di vista ontologico: non è scontato poter individuare gli elementi singoli che compongono un flusso, a differenza di quanto avviene in genere per un insieme.
    • Punto di vista cognitivo: il cervello tende a categorizzare gli elementi di un insieme in maniera distinta e rigida, mentre percepisce un flusso in modo più elastico e integrato.
    • Punto di vista del trattamento delle informazioni: un insieme si presta meglio ad un’elaborazione analitica ed estrattiva delle singole parti, mentre un flusso richiede un approccio più sistemico e una comprensione delle dinamiche relazionali.
    • Punto di vista del trattamento delle conoscenze: un insieme favorisce una conoscenza frammentata ed enciclopedica, mentre un flusso si adatta maggiormente ad una visione interconnessa e in divenire.
    • Punto di vista temporale: l’insieme dà maggiore importanza al presente e al permanere degli elementi, mentre il flusso sottolinea il divenire e il cambiamento continuo nel tempo.
    • Prospettiva sistemica: l’insieme evidenzia le singole componenti, il flusso ricorda che fanno parte di un sistema aperto in trasformazione.

    Vediamo più in dettaglio che luce getta ciascun punto di vista sulla questione.

    La differenza ontologica tra flusso ed insieme

    Il punto di vista ontologico è il principale ma forse anche quello meno facile da capire.

    In un insieme, anche se composto da molti elementi, questi sono comunque individuabili e distinguibili uno ad uno.

    Nel flusso invece molto spesso è più difficile, se non impossibile, individuare le singole “particelle” che lo compongono, che si fondono e si mescolano in continuo movimento.

    Ad esempio, si riesce ad enumerare e contare gli elementi di una scatola di spilli, mentre è praticamente impossibile contare una ad una le molecole che compongono un flusso d’acqua corrente.

    Il flusso ha dunque una natura ontologicamente più “unitaria” e meno analiticamente divisibile rispetto all’insieme, dove gli elementi mantengono più nettamente la loro individualità.

    Ragionare e discorrere su un flusso è quindi diverso dal ragionare e discorrere su di un insieme perché nel primo caso si prendono in considerazione le interazioni col flusso mentre nel secondo caso le interazioni considerate sono primariamente quelle con gli elementi dell’insieme, mentre le interazioni con l’insieme sono fittizie, virtuali, scorciatoie logiche da cuore con attenzione. Per esempio, nei testi che trattano di istruzione degli adolescenti non si dovrebbe mai far riferimento all’adolescente medio, perché non esiste. Orientare un’azione educativa modulandola sull’adolescente medio può rivelarsi estremamente controproducente. Un simile approccio è utile in determinate circostanze e con determinate accortezze. Vedasi per esempio i buyer personas nel mondo del marketing.

    La differenza cognitiva tra insieme e flusso

    Il punto di vista cognitivo tocca aspetti legati alla percezione e al funzionamento della mente.

    • Insieme: il nostro cervello cataloga separatamente gli oggetti sul tavolo;
    • Flusso: la nostra mente percepisce in modo unitario il fluire di un fiume.

    In psicologia cognitiva, ci sono degli studi che hanno indagato le differenze nel modo in cui il cervello elabora concetti classificati come “insiemi” rispetto ai concetti legati ai “flussi”.

    Uno degli esperti che se n’è occupato è il neuroscienziato Douglas Hofstadter, noto per la sua opera “Godel, Escher, Bach”. Ha scritto anche Fluid Concepts and Creative Analogies, 1995. Hofstadter, nei capitoli 12 e 13 della prima delle due opere citate, analizza la distinzione tra “entità discretizzate” (corrispondenti agli insiemi) e “entità fluidificate” (simili ai flussi).

    Secondo Hofstadter, quando percepiamo degli oggetti separati, il cervello tende a categorizzarli rigidamente, creando confini netti. Mentre per i flussi usa schemi cognitivi più flessibili, che tengono conto delle interazioni dinamiche.

    Sono stati condotti studi di neuroimaging e psicologia cognitiva che esaminano le differenze nell’attivazione cerebrale tra la percezione di insiemi e flussi. Questi studi cercano di comprendere come il cervello elabora le informazioni in situazioni in cui le caratteristiche statiche degli insiemi differiscono dalle dinamiche dei flussi. Ecco alcuni esempi di tali studi:

    1. Elaborazione visiva: Ricerche sul campo della percezione visiva hanno esplorato come il cervello elabora insiemi di oggetti statici rispetto alla percezione di oggetti in movimento. Ad esempio, alcuni studi hanno utilizzato la risonanza magnetica funzionale o fMRI per identificare le aree cerebrali coinvolte nella percezione di insiemi di oggetti, come il riconoscimento di pattern o la lettura di scritte statiche, rispetto alla percezione di oggetti in movimento.
    2. Attenzione selettiva: La ricerca sull’attenzione selettiva ha esplorato come il cervello gestisce l’attenzione tra insiemi di oggetti e flussi di informazioni. Gli studi hanno utilizzato l’elettro-encefalogramma o EEG, fMRI e altre tecniche per esaminare come l’attivazione cerebrale varia a seconda che i partecipanti siano esposti a stimoli statici o dinamici, e come l’attenzione è focalizzata su elementi specifici all’interno di insiemi o flussi.
    3. Predizione e anticipazione: Alcuni studi hanno cercato di comprendere come il cervello anticipa gli eventi futuri in contesti di flussi di dati o informazioni in movimento. Questi studi hanno indagato l’attivazione cerebrale durante il processo di previsione e hanno utilizzato tecniche di imaging cerebrale per esaminare quali aree cerebrali sono coinvolte in queste attività.

    La differenza tra insieme e flusso nel trattamento delle informazioni

    Il computer è come un cervello elettronico: sia il computer sia il cervello svolgono funzioni cognitive ed elaborano informazioni. Le conoscenze possono essere intese come una sorta di distillato delle informazioni, il risultato del metabolismo delle informazioni, ciò che resta dopo aver analizzato le informazioni e collegate con conoscenze pregresse ed altre informazioni. Dati e fatti, senza una lettura organica, sono informazioni e non conoscenze. Vediamo, da questo punto di vista, come trattare informazioni inerenti insiemi sia diverso da trattare informazioni inerenti flussi.

    Nella teoria dell’informazione ci sono concetti e modelli che rispecchiano le differenze:

    • Un insieme di dati è spesso strutturato e categorizzato, ad esempio in una tabella database, permettendo analisi sulle singole feature/colonne.
    • Un flusso di dati è tipicamente non-strutturato e dinamico, come nei sistemi complessi. Richiede approcci di data mining più flessibili (es. machine learning) per comprenderne le relazioni.

    Tutto però parte dalla nostra mente. Noi elaboriamo informazione già alla fonte in modo diverso a seconda che abbiamo a che fare con insiemi o con flussi.

    • Insieme: analizziamo le diverse caratteristiche di ogni pianta nell’orto.
    • Flusso: osserviamo l’evoluzione nel tempo del traffico in città.

    A livello algoritmico, cioè di progettazione delle procedure di trattamento, non stupisce la necessità di ricorrere ad approcci dedicati e ben differenziati.

    Nei software, si usano database relazionali che trattano prevalentemente insiemi statici di record, mentre la data stream mining si occupa di flussi continui e di dati in divenire.

    Nell’ambito delle reti di telecomunicazione, i modelli di elaborazione a pacchetti separati si adattano a insiemi discreti di informazioni, mentre le simulazioni di flussi continui riguardano sistemi di comunicazione in tempo reale.

    Altro esempio è la compressione dati: gli algoritmi ad insiemi fissi sono ottimizzati su blocchi separati, mentre quelli a flussi trattano stream incomprimibili singolarmente.

    Le reti neurali artificiali si collocano in una posizione intermedia tra insiemi e flussi da un punto di vista del trattamento delle informazioni.

    Se non le conosci, ti basti sapere che si tratta di costrutti informatici che hanno un comportamento analogo, per alcuni aspetti, a quello delle reti di neuroni: i singoli neuroni interconnessi ricevono segnali, rappresentati da serie di numeri; elaborano i segnali in ingresso modulandoli con dei coefficienti di pesatura e producendo eventualmente un segnale in uscita se i segnali in ingresso raggiungono una certa soglia d’intensità minima. I coefficienti devono essere tarati prima di potersi aspettare un minimo di affidabilità. La taratura viene chiamata: addestramento o training. Il tipo di connessioni tra neuroni, cioè la topologia della rete, è qualificante e ne determina l’utilità a seconda dello scenario di utilizzo. Per esempio, se una rete neurale ha cortocircuiti allora si dice retroattiva ed ha capacità di auto-apprendimento.

    Da un lato, molti tipi di reti neurali vengono addestrate su insiemi statici di dati, come accade nell’apprendimento supervisionato, avvicinandosi al paradigma degli insiemi.

    Dall’altro lato però, una volta addestrate sono in grado di elaborare flussi continui di input, come nel deep learning online. In questo caso la loro natura si avvicina più a quella dei flussi.

    Inoltre, alcune classi di reti neurali come i recurrent neural network o i reservoir computing network (per esempio la Echo State Network) sono progettate proprio per catturare effetti di memoria e dinamiche temporali, tipiche dei flussi.

    Si può dunque dire che le reti neurali:

    • nella fase di addestramento si avvicinano agli insiemi discreti di dati;
    • una volta addestrate sono in grado di gestire flussi continui di informazioni in ingresso;
    • alcuni tipi sono più “fluidificate”, particolarmente adatte proprio a contesti di flusso.

    Questa considerazione apre ad una riflessione potenzialmente interessante: caratterizzare costrutti informatici che, come le reti neurali, non sono pienamente comprensibili se li si guarda solo dal punto di vista algoritmico. Ci sono altri due esempi interessanti da questo punto di vista: gli algoritmi genetici ed una mia piccola giocosa invenzione che potremmo chiamare: “algoritmi con memoria“.

    La differenza epistemologica tra insieme e flusso

    Dal punto di vista epistemologico, un approccio classico al trattamento della conoscenza da parte dell’uomo è l’enciclopedismo, che si basa sulla catalogazione analitica di sapere predefinito in categorie statiche. Questo riflette il paradigma degli “insiemi” di conoscenza ed è caratterizzato da grande stabilità.

    Uno studioso che, invece, si è occupato invece dell’acquisizione dinamica e relazionale della conoscenza è Gilbert Simondon, con i concetti di “individuazione” e “realtà preindividuale”. Per Simondon la conoscenza emerge da un campo di tensioni in continuo divenire. Si tratta evidentemente di un approccio più vicino al concetto di flusso.

    Anche la teoria dell’apprendimento complesso di Edgar Morin considera il sapere come proprietà emergente di sistemi aperti in transizione, lontano dalla logica dell’insieme di parti.

    Per entrambi, il focus è evidentemente spostato dall’individuo, dall’oggetto in sé dello studio, alla relazione.

    Questi diversi approcci epistemologici hanno riflesso a livello pratico e toccano uno dei temi più in voga in questo momento: alludo all’Intelligenza Artificiale. L’epistemologia fornisce una visione critica su come rappresentare, organizzare e far “apprendere” la conoscenza alle macchine e può stimolare lo sviluppo di tecnologie cognitive più aderenti alla reale natura del sapere.

    In ambito ingegneristico, l’intelligenza artificiale tradizionale implementa conoscenza formale e rigida, più simile agli insiemi. L’IA connessionista si avvicina di più ai flussi per la capacità di auto-organizzazione.

    La differenza tra insieme e flusso nella prospettiva temporale

    Il fattore tempo è cruciale nel distinguere tra l’approccio insiemistico e quello basato su flussi. Nel primo, il tempo è una dimensione, un aspetto. Nel secondo è parte integrante della rappresentazione, del modello mentale o informatico.

    Ecco una serie di esempi che chiarisce bene la differenza:

    • Fisica: la meccanica classica si basa su concetti statici/insiemi, la meccanica quantistica introduce il flusso temporale di probabilità.
    • Biologia: la fotografia coglie l’istante, lo studio dei processi evolutivi cattura il flusso di mutamento.
    • Storia: le epoche sono insiemi fissi, i processi storici sono le dinamiche che le attraversano.
    • Psicologia: i test misurano “stati”, la terapia segue l’evoluzione nel tempo.
    • Cinema: i fotogrammi sono insiemi di oggetti e persone, la pellicola in movimento riproduce un flusso di eventi.
    • Musica: la nota è qualcosa di fissato, l’esecuzione melodica è fluire di tempo ed intensità.
    • Narrativa: i capitoli possono esser visti come contenitori di persone e di eventi, la trama come flusso sequenziale.
    • Filosofia: l’ontologia si basa su entità, il divenire tratteggiato da Eraclito è flusso.

    Dove il discorso logico vacilla, la poesia ci aiuta ad oltrepassare i limiti del linguaggio, che si fanno angusti.

    Leopardi ha rappresentato la natura del tempo ne “L’infinito”:

    Sempre caro mi fu quest'ermo colle,
    e questa siepe, che da tanta parte
    dell'ultimo orizzonte il guardo esclude.

    La differenza tra insieme e flusso nella prospettiva sistemica

    La teoria dei sistemi complessi fornisce un solido fondamento per leggere gli ecosistemi come manifestazione concreta del paradigma del flusso. Le griglie concettuali basate sugli insiemi, viceversa, portano alla perdita di complessità in quanto riducono il tutto alla somma delle parti.

    • Insieme: classifichiamo le specie animali della foresta, oppure i vari organi e tessuti che compongono il corpo umano o, ancora suddividiamo una comunità in categorie come ceti, professioni e gruppi formali;
    • flusso: osserviamo le interdipendenze ecologiche in atto, le interazioni dinamiche e gli scambi metabolici tra tessuti ed organi, i processi di identificazione nelle comunità e le evoluzioni delle reti di relazioni sociali.

    Dal punto di vista della teoria dei sistemi, gli ecosistemi naturali sono considerati prototipi di sistemi aperti e complessi in continua evoluzione.

    Uno studio pionieristico in questo senso è stato condotto da Eugene Odum negli anni ’50, introducendo il concetto di successioni ecologiche per descrivere il fluire dinamico delle interazioni all’interno degli ecosistemi nel tempo.

    Successivi lavori di Prigogine mostrano come i sistemi naturali abbiano proprietà emergenti a livello macroscopico che non possono essere ridotte alla somma delle singole parti.

    Gli ecosistemi dunque si prestano come esempio calzante di sistema profondamente integrato: sebbene possano essere analizzati gli elementi costitutivi in un dato istante, questo non è sufficiente per comprenderli nell’insieme.

    Al contrario, la classificazione delinea categorie statiche di elementi, riflesso dell’approccio tipico dell’insieme. Questo va bene quando abbiamo il pieno controllo del sistema osservato, i legami causali sono identificabili e le interazioni sono misurabili. È come dire che abbiamo piena conoscenza, istante per istante, di ciascuno degli elementi dell’insieme corrispondente al sistema in esame. Avere un metodo di enumerazione consente di gestire, di redigere check-list, di calcolare in modo ottimizzato, di contabilizzare…

    Dal punto di vista sistemico, è possibile comunque concepire un approccio basato sugli insiemi, che metta in evidenza:

    • la classificazione delle componenti di un sistema in categorie distinte e separate;
    • l’analisi delle proprietà e delle funzioni di ciascuna componente considerata individualmente;
    • la decomposizione gerarchica del sistema in sottosistemi e parti sempre più elementari;
    • la comprensione del sistema attraverso lo studio analitico delle interazioni fra gli insiemi costitutivi.

    Dunque, focalizzando un aspetto alla volta, un approccio analitico basato sull’insiemistica può portare ad un’ampia conoscenza del sistema studiato. Il suo limite è di lasciare implicita la conoscenza profonda, di non considerare correlazioni e legami causali inespressi. Il rischio è quello di illudersi di avere il controllo, fornendo spiegazioni, a volte persino auto-coerenti, da singoli punti di vista, come se ciascuno di essi fosse l’unico possibile e contenesse tutte le certezze necessarie.

    La scienza ci ha insegnato che esistono entità intrinsecamente probabilistiche e sistemi che non possiamo descrivere compiutamente in modo auto-coerente, come sancito dal teorema di incompletezza di Gödel. Dobbiamo accettare che in ogni sistema complesso c’è un incomprimibile quanto di mistero…

    Fantamatematica

    L’edificio matematico si fonda sulla teoria assiomatica di Zermelo Fraenkel. Si tratta di 7 – 8 assiomi… poca roba… Eppure reggono un peso enorme: algebra, geometria, topologia, teoria dei numeri, teoria delle probabilità, calcolo, combinatoria e analisi.

    La teoria degli insiemi può essere vista come un caso particolare di una teoria matematica più generale basata sui flussi. Alcuni punti che avvalorano questa visione: i flussi…

    • …permettono di cogliere aspetti qualitativi e non solo quantitativi dei sistemi;
    • …consentono di formulare concetti matematici anche per realtà non discretizzabili come curve e campi;
    • …risultano più aderenti a sistemi dinamici e stocastici della fisica e altro.

    Il lavoro da farsi è considerevole: andrebbero generalizzati concetti come funzione, limite, derivata da oggetti fissi a flussi continui.

    Questo però potrebbe aprire nuove prospettive per estendere ulteriormente la matematizzazione a sistemi non coerenti con l’ottica insiemistica tradizionale.

    Anche la Scienza dell’informazione trarrebbe giovamento dall’uso dei flussi. Le fondamenta della teoria classica, sviluppata da Shannon, sono insiemistiche ma tale teoria incorpora già nelle origini alcuni aspetti da flussi. Shannon stesso si rese conto che nella comunicazione reale i segnali sono flussi continui nel tempo e nello spazio. Introdusse quindi nozioni di derivate, integrali e variabili casuali continue. Le evoluzioni più recenti enfatizzano ulteriormente questa componente dinamica e continua. Teorie successive, come quella dell’informazione computazionale e dell’informazione quantistica, hanno ulteriormente spostato l’attenzione sui flussi. In ingegneria delle telecomunicazioni si usano sia modelli discreti che continui a seconda dell’applicazione.

    Potrebbe essere fertile ripensare anche la logica formale proprio a partire dalla nozione più primaria di flusso, invece che da concetti prettamente insiemistici come variabili e valori di verità. Il “filo logico” di un ragionamento è appunto un flusso sequenziale di passaggi. La semantica denotazionale in logica si fonda sul concetto di flusso di informazioni in una dimostrazione. Alcuni concetti logico-formali potrebbero essere riconcettualizzati in termini di: flussi di informazioni, transizioni semantiche, evoluzioni temporali, dinamiche causali. Questo potrebbe aprire a una “logicizzazione” di concetti propri delle scienze dinamiche. Seppur complesso, può essere uno stimolo per ripensare in modo più aderente la natura “scorrevole” anche del pensiero logico-deduttivo.

    Concludendo…

    Sappiamo che la matematica attuale ha qualche problemino con la teoria della misura (v. paradosso di Banach-Tarski, dimostrato un secolo fa). Mettiamo nel calderone anche la misura della complessità algoritmica e quindi l’annosa questione della congettura “P=NP?”, risalente a mezzo secolo fa. Misurare ed individuare è proprio ciò che nel mondo degli insiemi è semplificato rispetto al mondo dei flussi: come abbiamo visto, negli insiemi si può sempre individuare ogni singolo elemento.

    Sappiamo anche che la fisica e l’informatica trattano sostanzialmente flussi (materia, energia, informazione) e che il linguaggio matematico è basato sugli insiemi, non sui flussi. Questo spiegherebbe perché ci sono oggettive difficoltà, in fisica, a descrivere alcuni fenomeni – e se il dualismo onda-particella si risolvesse introducendo il concetto di flusso?

    Abbiamo insomma alcuni indizi: ripartire dai flussi può rivelarsi un’opportunità. Occorre accettare l’idea di immergersi nella complessità – e matematizzarne il paradigma! – ed abbandonare eroicamente le tranquille sponde del semplice e del complicato.

  • Algoritmi con memoria

    Algoritmi con memoria

    [Tempo di lettura: 2 minuti]

    Una ricetta di cucina, una ricetta chimica, una distinta base industriale, un programma per computer… sono tutte procedure e tutte vengono espresse sotto forma di elenco di istruzioni da eseguire. Gli informatici un tempo lo chiamavano: “listato”. Uno mi può obiettare che nella distinta base ci sono sia voci indicanti lavorazioni sia voci indicanti materiale. A ben vedere, anche queste ultime indicano indirettamente un’azione. Se la distinta base di produzione di una penna indica un cappuccio, quando consegno l’ordine di produzione al reparto, il personale sa che dovrà prelevare il cappuccio e disporlo nella confezione della penna. Istruzioni.

    Accendiamo l’immaginazione su una ricetta o una distinta base o un programma per computer. Sogniamo che il listato fluttui nello spazio 3D ed introduciamo dei legami tra una riga e la sua successiva in modo da non perdere il filo quando il listato viene eseguito.

    Infine aggiungiamo un’istruzione qualunque nello spazio circostante il nostro listato e colleghiamolo ad una delle istruzioni esistenti. Distinguiamo il nuovo legame dagli altri usando un colore diverso.

    Se conveniamo di preferire i legami di un certo colore e di trascurare gli altri, la modifica che abbiamo apportato non altera il flusso esecutivo del listato.

    Il colore può essere tradotto anche come peso, importanza relativa nell’esecuzione del flusso operativo. Generalizzando, possiamo avere non più solo una sequenza di esecuzione delle istruzioni corrispondente a quella costituita dal listato: si possono predisporre vari percorsi ed anche criteri per tarare l’importanza relativa delle connessioni, cioè attuare un apprendimento.

  • I numeri fluttuanti

    I numeri fluttuanti

    [Tempo di lettura: 8 minuti]

    Se non conosci già questa formula matematica:

    1=0,999….

    di primo acchito, puoi restare stupito o perplesso.

    Significa che “1” e “0,999…” rappresentano la stessa quantità.

    Siti web, video, libri… le diverse spiegazioni e dimostrazioni di questa uguaglianza, che è un fatto matematicamente accettato, hanno dato luogo a numerose riflessioni e discussioni. In comune, le varie dimostrazioni hanno il ricorso ad un tipo di passaggio matematico detto: “passaggio al limite”. È piuttosto intuitivo ma ha implicazioni non banali e, qualche volta, persino contro-intuitive. Se non lo conosci già, provo a spiegartelo qui di seguito.

    Ecco un esempio basato sulle fette di torta. Supponiamo di avere a disposizione una certa quantità unitaria, per esempio una torta, e di poterla dividere in tante parti uguali quante ne vogliamo. Se divido per 2, otterrò due belle fettone grandi. Se divido per 3, ciascuna fetta sarà molto più piccola, se divido per 4 sarà ancora più piccola… Se divido per 1000, ogni fetta sarà probabilmente trasparente… Dunque se n è il numero di parti uguali in cui divido la torta, la dimensione della fetta, pari a 1/n, tende a diventare sempre più piccola, sempre più piccola…

    n1/nrappr. decim.
    111,000…
    2½0,5000…
    31/30,333…
    41/40,25000…
    1001/1000,01000…
    100.0001/100.0000,000001000…
    1/∞0,000…
    Se potessi scrivere all’infinito e completare la tabella, riuscirei a scrivere anche l’ultima riga… ma non posso!

    Possiamo immaginare che, al limite, quando n tende verso l’infinitamente grande, 1/n vale quasi 0. Per riassumere questa situazione possiamo dire che: “se n tende all’infinitamente grande, il limite di 1/n è 0″.

    \lim_{n\rightarrow\infty}\frac{1}{n}=0

    Torniamo alla nostra sorprendente uguaglianza tra 1 e 0,999… Come dicevo, in un modo o nell’altro, risulta che se si potessero scrivere tutte le infinite cifre del membro destro dell’uguaglianza (“0,999…”) allora si potrebbe descrivere compiutamente una quantità identica a quella espressa del membro sinistro con il solo simbolo “1”.

    Sinceramente, faccio una gran fatica ad accettare che un ragionamento matematico si fondi su qualcosa che è impossibile. Se condividi, accompagnami in un brevissimo viaggio verso una maggiore profondità nell’oceano matematico.

    Sul fondale dell’oceano troviamo gli schemi mentali comuni alla maggior parte degli esseri umani in quanto indotti da fattori fisiologici.

    Uno di questi schemi, secondo me, è quello dell’errore controllato. La nostra mente è molto brava ad astrarre eliminando particolari inessenziali e riempiendo vuoti con contenuti plausibili. Praticamente ogni comunicazione, in qualunque forma, anche quella del linguaggio non verbale, sfrutta l’uso di percezioni sensoriali per trasmettere pensieri in modo indiretto, attraverso segni e simboli, compreso il linguaggio del corpo. Per esempio, la lettura della parola: “albero” evoca nella tua mente la tua idea di albero, che si è formata nella tua memoria per esperienza. Ciascuno degli alberi che hai visto assomiglia alla tua idea di albero. La nostra memoria fissa solo una piccola parte del dato sensoriale, sicché gli errori sono già alla fonte. Si tratta sempre e comunque di errori sotto controllo, cose che possiamo gestire. Se così non fosse, o meglio, quando occasionalmente comprendi male o apprendi in modo errato, possono accadere incidenti ed esperienze indesiderate o dolorose perché progetti comportamenti basandoti su modelli predittivi non aderenti alla realtà, non veritieri.

    Propongo di rifare il ragionamento riguardante “1=0,999…” basandoci sull’idea di errore controllato anziché su quella di passaggio al limite. L’idea sottostante è che il passaggio al limite è reso paradossalmente possibile da una nostra limitazione: la capacità di discriminare tra due quantità indicate da altrettante scritture non è infinita, ha sempre e comunque una certa precisione. Oltre una certa precisione non arriviamo, sicché due scritture possono risultare confondibili, nel senso che tendiamo ad identificare le quantità o gli schemi da essi indicati, anche se non sono in tutto e per tutto identiche.

    È vero o falso che “1” e “0,999…” rappresentano la stessa quantità? Lavorando sulla rappresentazione decimale, mi accorgo che qualunque metodo di controllo, qualunque procedura per misurare la differenza tra la quantità indicata da “1” e quella indicata da “0,999…” è destinato ad essere inconcludente o meglio ciclico, ripetitivo, rinviando ad ordini di grandezza sempre più bassi. Prima o poi però mi devo fermare, non c’è niente da fare: la mia natura è finita, qualunque tecnologia è basata su materia ed energia disponibili in quantità finita. Se non altro, mi fermerò perché non reggo la noia oltre un certo limite o perché intuisco che non potrà mai cambiare nulla, che le mie azioni mentali non potranno far altro che ripetersi.

    Rilevare che una procedura è ciclica è un’atto mentale fattibilissimo. Non sempre è facile: si pensi ad un numero decimale periodico con un periodo lungo mille cifre. La procedura che ci consente di calcolare la prossima cifra dello sviluppo decimale è ciclica ma accorgersene potrebbe risultare molto difficile. Nel nostro caso non è così: bastano pochi passaggi per accorgersene. Bastano pochi passaggi e ci accorgiamo che la produzione della prossima cifra di 0,999… comporta l’esecuzione di passi identici a quelli precedenti, salvo scendere di ordine di grandezza. Comunque, se la nostra precisione di calcolo è prefissata, non serve neppure l’abilità di rilevare ciclicità: basta calcolare una quantità di cifre decimali pari a quelle che la nostra precisione ci consente di gestire. Ad un certo punto, la differenza tra 1 e 0,999… sarà inferiore alla soglia di precisione.

    Per chi conosce il principio d’induzione: ebbene sì, abbiamo una procedura (che si può scrivere in funzione della nostra soglia di precisione) che arriva sempre a costruire uno sviluppo decimale di 0,999… quantitativamente equivalente a 1 in relazione alla nostra capacita di discriminare tra quantità, riferita a quante cifre decimali riusciamo a gestire.

    Possiamo allora concludere che “1” e “0,999…” sono confondibili, nel senso che indicano la stessa quantità, salvo un eventuale errore talmente piccolo da poter essere trascurato.

    Attenzione! Non siamo costretti ad ammettere che “1” e “0,999…” siano la stessa scrittura o che siano due scritture intercambiabili, ma solo che indichino sostanzialmente la stessa quantità, sicché sono intercambiabili nei ragionamenti in cui non conta la forma ma la “sostanza”. Possiamo mantenere distinte le due relazioni di uguaglianza tra scritture “=” e di confondibilità “≈”, evitando di dare per scontato – potrebbe essere una forzatura – che siano la stessa cosa. Ammettiamo solamente, almeno per ora, che due scritture formalmente e computazionalmente diverse come “1” e “0,999….” siano confondibili nel senso che esprimono sostanzialmente la stessa quantità. Scriviamo dunque così per indicare la confondibilità:

    1 ≈ 0,999…

    Vorrei ora proporre una situazione un po’ particolare che ci aiuti a generalizzare l’idea di confondibilità e ad apprezzare la distinzione tra essa e l’uguaglianza algebrica, quella indicata con: “=”, in modo più generale.

    Immaginiamo ora un nuovo tipo di numeri, rappresentabili in base 10 con un numero finito di cifre decimali, le cui ultime cifre decimali fluttuano nel tempo in modo casuale.

    Per prima cosa, notiamo che le scritture indicanti quantità significano davvero qualcosa se c’è qualcuno che le legge e le interpreta. Ogni lettura è un atto concreto, un evento a se stante, irripetibile perché la nostra esistenza ha natura lineare. Due letture possono essere molto simili ma comunque c’è almeno una differenza: l’istante in cui vengono fatte o la persona che legge. In generale, non è garantito che ogni lettura dia sempre lo stesso identico effetto, che la scrittura sia interpretata sempre perfettamente allo stesso modo.

    In altri termini, non è così assurdo concepire una scrittura indicante quantità che, se viene letta più volte, fornisca sempre le stesse prime cifre ma, sotto un certo ordine di grandezza, le restanti cifre possano variare potenzialmente ad ogni lettura in modo imprevedibile per chi le legge.

    Non serve assumere sostanze psicotrope. Per esempio, si possono far scrivere le ultime cifre con una lente potente da un amico, per poi leggere le stesse cifre senza l’ausilio di nessuna lente. Quando faccio l’esame dall’oculista o dall’ottico succede qualcosa del genere. Ogni volta che provo a leggere una scrittura troppo piccola, tento di indovinare, interpretando ciò che percepisco in modo fluttuante.

    Paziente: dottore, vedo una F ma forse è una R. Dottore: Sicuro? Non potrebbe essere una E o una B?

    In informatica, non è per nulla difficile immaginare una situazione del genere, anzi è un problema in cui spesso si incappa. Capita per esempio di usare programmi per dati contabili con precisione di due cifre dopo la virgola, per poi trovarsi in difficoltà quando vengono coinvolti beni che si usano in grande quantità, per cui basta una fluttuazione di cifre decimali di ordine molto basso per causare effetti apprezzabili.

    Ecco perché, per esempio, i prezzi dei combustibili alla pompa vengono indicati con 3 o 4 cifre dopo la virgola, anche se nella valuta corrente si trattano solo le prime due.

    Recepire il concetto di confondibilità, di errore sotto controllo, di precisione limitata è, da un lato, matematicamente… spaventoso! Però apre un mondo di possibilità. Per esempio, fu proprio in conseguenza alla limitatezza nella precisione dei calcoli meteorologici che Edward Lorenz diede vita alla teoria matematica del caos. La riflessione sarebbe molto ampia, limitiamoci qui ad una situazione più specifica ma comunque significativa.

    Attrattore strano di Lorenz. Il grafico rappresenta l’evoluzione di un sistema. Lo spazio geometrico della rappresentazione è chiamato “spazio delle fasi” ed ogni punto rappresenta una configurazione del sistema.

    Tornando a questi nostri strani numeri con le ultime cifre fluttuanti, oggetto di questa piccola riflessione, diamo loro dignità attribuendo loro un nome, quello di “numeri fluttuanti” e chiediamoci se e come possiamo trattarli. Abbiamo già visto alcuni modi per crearli e per leggerli. Come possiamo farci dei calcoli? Quali attenzioni avere per manipolarli “rispettosamente”, senza perdere alcuna informazione e quindi preservare il più possibile il livello di precisione? Per esempio, come fare la somma tra due numeri fluttuanti?

    Rivediamo più in dettaglio come possiamo interagire con un numero fluttuante. Ad ogni accesso in lettura al numero fluttuante otterremo come esito una sequenza di cifre che rappresenta un numero decimale in base 10 con una quantità di cifre superiore alla nostra capacità di distinguere tra quantità con simili rappresentazioni. Ciascuna delle scritture ottenute indica sostanzialmente sempre la stessa quantità. Le varie scritture, considerate nell’insieme, possono costituire una sequenza di interazioni in coinvolgenti un unico osservatore o possono essere una collezione di interazioni avvenute in parallelo coinvolgendo più di un osservatore. Questo, ai nostri fini, non importa. Ciò che conta è che possiamo sfruttare il lavoro già fatto dai matematici relativamente al calcolo numerico con approssimazione.

    Per esempio, consideriamo l’algoritmo di Kahan detto anche della sommatoria compensata. Grazie ad esso, l’errore peggiore possibile è indipendente dal numero degli addendi, dunque un gran numero di valori possono essere sommati con un errore che dipende solo dalla precisione della rappresentazione in virgola mobile.

    All’economia di questa nostra breve immersione nelle profondità matematiche, non serve approfondire la procedura di calcolo, ci basta sapere che si può fare. Idem per altre operazioni aritmetiche. Ciò che conta è sapere che i numeri fluttuanti sono trattabili.

    Due scritture di numeri fluttuanti possono essere uguali o no, confondibili o no. Se sono confondibili ma non uguali, il loro trattamento aritmetico è fattibile, come detto, ma fa emergere alcune criticità.

    • Un numero fluttuante è un individuo o un insieme?
    • Cosa succede alla precisione, cioè alla quantità di informazione, della scrittura risultante a seguito di un computo (o calcolo, elaborazione aritmetica) su numeri fluttuanti? Come distinguere tra metodi che preservano la precisione da quelli che la riducono?
    • Durante l’immersione abbiamo assistito all’entrata in scena del soggetto pensante o del processore. Come si sviluppa la relazione tra processore e numeri fluttuanti? In che modo questo è correlato alla precisione?

    Queste domande saranno argomento di altri post. La conclusione è che, toccato il fondale, possiamo iniziare a scavare!

  • Il livello della consapevolezza

    Il livello della consapevolezza

    [Tempo di lettura: 6 minuti]

    Il paradigma della complessità può aiutare a comprendere cosa sia la consapevolezza e come acquisirla?

    In questa breve riflessione, condotta con Stefania Zin e Paolo Mazzetto, vorrei focalizzarmi su un concetto del paradigma che mi sembra particolarmente utile allo scopo.

    Cominciamo col richiamare alcuni concetti chiave del paradigma, per collocarci nel giusto contesto:

    • Emergenza. I sistemi complessi generano comportamenti emergenti che derivano dalle interazioni tra le loro componenti, non sono riducibili alle singole componenti e non possono essere predetti in anticipo.
    • Non linearità. Le interazioni all’interno dei sistemi complessi sono non lineari, causando comportamenti difficili da prevedere. Anche piccoli cambiamenti possono causare grandi effetti.
    • Auto-organizzazione. I sistemi complessi tendono ad auto-organizzarsi in maniera spontanea e bottom-up. Non sono progettati o gestiti in modo centralizzato.
    • Feedback. I sistemi complessi sono influenzati da forti feedback positivi e negativi che ne modificano il comportamento nel tempo.
    • Adattabilità. I sistemi complessi sono adattativi, possono cambiare e mutare per sopravvivere in ambienti dinamici.
    • Olocausalità. La complessità nega il riduzionismo cartesiano, sostenendo che il tutto è più della somma delle sue parti.
    • Biforcazioni. I sistemi complessi raggiungono punti di biforcazione in cui possono evolversi in diverse direzioni, generando futuri multipli e diversi.

    Chiarito il riferimento al quadro concettuale, applichiamo il primo concetto alla psiche umana, un sistema estremamente complesso, modellato dagli studiosi in tanti modi. Generalmente, essi convergono su almeno questi componenti chiave:

    • La coscienza: comprende tutti gli stati mentali di cui siamo consapevoli, come pensieri, sentimenti, percezioni e ricordi.
    • L’inconscio: comprende tutti quegli aspetti della mente di cui non siamo consapevoli ma che influenzano comunque il nostro comportamento. Deriva in gran parte dal funzionamento dell’apparato neuronale.
    • Il : il senso di identità personale e di continuità nel tempo. Deriva dall’interazione tra coscienza, memoria e percezione di sé.
    • Le emozioni: stati affettivi che influenzano i processi mentali e il comportamento. Derivano da fattori cognitivi (come pensieri ed esperienze) e fisiologici.
    • La personalità: tratti stabili e abitudini mentali che caratterizzano l’individualità di una persona.

    Queste componenti interagiscono in modo intrecciato e dinamico, spesso in modi non lineari. Ad esempio:

    • Le emozioni influenzano i pensieri coscienti e lo sviluppo della personalità.
    • I processi inconsci influenzano l’umore, le percezioni coscienti e il comportamento.
    • Il senso di identità influenza ed è influenzato dalle emozioni, dalla memoria cosciente e dagli schemi mentali inconsci.
    • Pensieri e percezioni coscienti a loro volta influenzano gli aspetti inconsci della psiche umana.

    Queste interazioni generano uno spazio, un nuovo livello in cui hanno luogo fenomeni (umore, senso di identità…) che seguono leggi in qualche modo riconducibili ma non riducibili alle leggi delle componenti della psiche. Posso intuire di che umore è l’amico con cui chiacchiero ma non riesco a calcolarlo a partire da singoli comportamenti. Un esempio ancora migliore è il gusto: il gradimento di un cibo o di una bevanda è legato persino a fattori estetici (“anche l’occhio vuole la sua parte”) e culturali (mai provato a degustare vino in compagnia di un sommelier esperto?), non è riducibile ai segnali trasmessi dalle papille gustative.

    Cos’è lo spazio in cui hanno luogo questi fenomeni (il gustare il vino o la compagnia di un amico caro)? Di quale livello si tratta?

    La coscienza emerge dall’interazione di grandezze psicologiche più elementari, come percezioni, emozioni, pensieri, ricordi. Queste componenti più semplici interagiscono in modo complesso per generare lo spazio che conosciamo per antonomasia: quello della coscienza.

    La coscienza possiede proprietà che non possono essere ridotte alle sue componenti costitutive. Ha una qualità di soggettività e unità che vanno oltre le singole percezioni o ricordi. Ciascuna persona è unica anche se ha un gemello omozigote, perché ha comunque una storia, un percorso di vita a se stante.

    La coscienza diventa manifesta solo ad un certo livello di complessità del sistema psichico, indicando che emerge da un insieme critico di componenti che interagiscono dinamicamente.

    Cambiamenti nelle componenti psichiche di base (ad esempio percezioni, emozioni etc.) possono alterare o modificare lo spazio cosciente in modi imprevedibili, indicando che la coscienza dipende dalla dinamica dell’intero sistema, non dalle sue parti.

    Rivediamo il ragionamento da un altro punto di vista e facciamo un passo in più per raggiungere, oltre la coscienza, la consapevolezza. In generale, una persona può essere considerata a vari livelli di astrazione o piani dell’esistenza:

    1. Il livello fisico o materiale: le particelle elementari, molecole, cellule che compongono il corpo umano. Questo è il livello più basso.
    2. Il livello biologico: i sistemi organici e fisiologici che permettono al corpo di funzionare.
    3. Il livello psicologico: la mente, la personalità, le emozioni e i processi mentali. Qui iniziano a emergere proprietà che non possono essere ridotte puramente ai livelli biologico e fisico.
    4. Il livello sociale: le relazioni e l’identità di una persona in quanto parte di una società e di una cultura.
    5. Il livello spirituale o metafisico: la coscienza nel suo senso più ampio, la spiritualità e il senso di identità o unità con la realtà nel suo complesso. Questo è spesso considerato il livello più alto.

    È facile intuire che la consapevolezza si colloca tra il terzo ed il quarto livello. Dunque andiamo ad analizzare più approfonditamente questa zona. Ci accorgiamo che si possono distinguere:

    1. Il livello delle componenti psichiche pre-coscienti: percezioni, emozioni, pensieri, ricordi. Sono gli “ingredienti” che formano la coscienza ma di per sé non sono ancora coscienti.
    2. Il livello della coscienza emergente: quando le componenti pre-coscienti interagiscono in modo complesso, emerge uno spazio di esperienza soggettiva unificata. Questa è la coscienza di base.
    3. Il livello della consapevolezza emergente: quando la psiche diventa capace di pensare ai propri contenuti coscienti, emerge la consapevolezza. Questo implica capacità riflessive e intenzionali.
    4. Il livello meta-consapevole: alcune persone sviluppano uno stato di consapevolezza approfondito e continuo, andando “al di là” della normale coscienza limitata. Questo è considerato il livello più alto.

    Focalizziamo ulteriormente, distinguendo un ulteriore livello, posto in questa sequenza (dal basso verso l’alto): coscienza, consapevolezza, auto-coscienza, meta-coscienza.

    • La coscienza è il livello più basilare, consiste nel rendersi conto semplicemente di sé e dell’ambiente circostante.
    • La consapevolezza implica una conoscenza più riflessiva ed elaborata della propria coscienza, andando oltre la mera percezione.
    • L’auto-coscienza impone un ulteriore livello di conoscenza di sé come individuo unico e distinto dagli altri.
    • Infine, la meta-coscienza costituisce il livello più evoluto, permettendo di osservare i propri processi mentali e cognitivi, auto-regolandoli e modificandoli.

    Ora abbiamo delimitato ben benino il perimetro della consapevolezza. Essa è caratterizzata dalla rappresentazione interna di sé nel proprio ambiente, in modo da poter progettare comportamenti secondo intenzione.

    A questo punto possiamo tentare una risposta al quesito iniziale. Cosa accresce la propria consapevolezza o aiuta qualcun altro ad accrescerla?

    Siccome si passa per una rappresentazione interna e per una progettualità, possiamo stabilire le qualità della consapevolezza:

    • coerenza: pensieri contraddittori sono sintomo che qualcosa ci sfugge;
    • completezza: se semplifichiamo troppo i ragionamenti, rischiamo di trascurare dettagli apparentemente irrilevanti ma con effetti sproporzionatamente importanti;
    • accuratezza: se ci accorgiamo che ciò che avevamo previsto non ha riscontro, anche su aspetti marginali, dobbiamo riflettere di più, meditare di più, ascoltare ed osservare di più;
    • aggiornamento: qualche volta l’ambiente interno o esterno cambia più velocemente di quanto immaginiamo e ci troviamo illusi.

    Ecco infine alcune indicazioni ma sicuramente te ne vengono in mente molte altre:

    1. [Suggerito da Paolo Mazzetto] Proprio per la complessità che caratterizza ogni essere umano, l’approccio empatico all’altro si coniuga necessariamente con un atteggiamento “umile”, in cui io mi muovo con sensibilità e circospezione in questo mondo complesso rappresentato dall’altro e, soprattutto nella relazione d’aiuto, lo affianco nell’esplorazione di sé per favorire una condizione di maggiore consapevolezza.
    2. Praticare la meditazione. Anche una semplice meditazione di pochi minuti al giorno può aumentare la consapevolezza di sé e della propria mente. Può aiutare a rallentare i pensieri ed essere più presenti. La mindfulness è particolarmente efficace.
    3. Fare autoesami. Porre domande su se stessi come: “Perché ho agito in quel modo?”, “Cosa mi ha spinto a dire quella cosa?” Può aiutare a comprendere meglio i propri comportamenti e motivazioni.
    4. Osservare i propri pensieri. Prenditi un momento per osservare il flusso dei tuoi pensieri. Focalizza l’attenzione sui tuoi pensieri. Notare i pensieri che passano nella mente senza identificarsi con essi e senza giudicarli. Capisci da dove emergono e qual è il loro scopo. Può aiutare a prendere le distanze dai pensieri automatici.
    5. Tenere un diario. Scrivere i propri pensieri ed emozioni può aiutare a comprenderli meglio e metterli in prospettiva.
    6. Ascoltare gli altri. Ascoltare davvero gli altri in modo attivo e non giudicante può aumentare la consapevolezza della prospettiva altrui. Pratica l’ascolto attivo quando sei con gli altri. Concentrati interamente sull’altro, mettendo da parte i tuoi pensieri interni. Aiuta l’altra persona a sentirsi compresa.
    7. Praticare la gratitudine. Prendersi del tempo per essere grati per le piccole cose della vita aumenta il senso di presenza e consapevolezza del momento.
    8. Assumersi la responsabilità. Prendere la responsabilità delle proprie azioni ed emozioni, invece di incolpare gli altri o le circostanze, aumenta consapevolezza ed empowerment.
    9. Diventa consapevole delle tue emozioni e sensazioni fisiche. Accoglile senza sopprimerle. Comprendi come emergono e in che modo influenzano il tuo modo di pensare e di agire.
    10. Impara dai tuoi errori. Non rimproverarti, ma cerca di capire quali processi mentali ti hanno portato a compiere quella scelta e come migliorare in futuro.
    11. Rivedi le tue abitudini e creane di nuove, più consapevoli. Ad esempio, mentre ti lavi i denti osserva i tuoi pensieri, oppure mangia stando interamente focalizzato sul cibo.
    12. Parla apertamente di consapevolezza con gli altri. Condividere le nostre esperienze aiuta sia noi che gli altri ad approfondirle.
    13. Leggi libri e materiali che ti aiutino a sviluppare la tua consapevolezza.