Riflessioni Sistemiche n° 25


Maestri e mentori.
Visioni sistemiche attraverso le generazioni

Le imprevedibili virtù del riduzionismo


di Ignazio Licata


Institute for Scientific Methodology (ISEM), Palermo

Sommario 

Il racconto della mia formazione sistemica come fisico passa attraverso il confronto con il pensiero di tre grandi figure: David Bohm, Marcello Cini e Fritjof Capra. Il pensiero di questi grandi fisici teorici parte dalla fisica delle particelle, e questo offre la possibilità di una riflessione critica sul rapporto tra sistemica e riduzionismo.

 


Parole Chiave
Riduzionismo; Sistemica; Cibernetica; Fisica teorica; Teorie quantistiche.



Summary 

The story of my systemic training as a physicist passes through the comparison with the thought of three great figures: David Bohm, Marcello Cini and Frijof Capra. The thought of these great theoretical physicists starts from particle physics, and this offers the possibility of a critical reflection on the relationship between systemics and reductionism.



Keywords

Reductionism; Systemics; Cybernetics; Theoretical Physics; Quantum Theories.

 

1.                  –ismi 

Sono sempre stato affascinato dalle grandi costruzioni intellettuali come dalle strutture architettoniche che danno forma allo spazio e al tempo. Confesso che da ragazzo avevo solo intuito la bellezza del sistema hegeliano, ma i tempi violentemente politicizzati in cui si collocano i miei anni di formazione mi davano un’idea molto concreta dei pericoli insiti nell’affermare la coincidenza tra reale e razionale. Un’altra passione fu il lavoro di Russell sui principi della matematica, ed i Principia di Whitehead e Russel furono il primo libro che volli vedere appena misi piede nella biblioteca dell’istituto di matematica. La bellezza di quelle pagine scritte quasi completamente in linguaggio formalizzato non era minimamente sminuita dalla consapevolezza che i teoremi di Gödel avevano reso obsolete operazioni di quel tipo, proprio come l’essere laici non ci priva della meraviglia delle chiese gotiche. Successivamente conobbi le avventure della cibernetica e della teoria dei sistemi, ma man mano che gli studi di fisica diventavano una forma mentis sentivo che le osservazioni umorali di Max Born avevano un qualche fondamento. Nel 1927, anno di nascita della meccanica quantistica, Born e Wiener lavorarono sulla questione dei moti periodici ed aperiodici nei sistemi quantistici:

“Norbert era un matematico già ben conosciuto: egli attirò la mia attenzione sul fatto che le matrici potevano essere considerate come operatori che agiscono sui vettori di uno spazio multidimensionale, e suggerì di generalizzare la meccanica delle matrici ad una specie di meccanica degli operatori. Lavorammo sodo a quel progetto e pubblicammo un articolo che in un certo senso precorre il calcolo operatoriale di Schrödinger nella meccanica quantistica, mancando però il punto principale, in un modo che ancora oggi mi riempie di vergogna (…) Sviluppammo invece complicate rappresentazioni integrali per q e per p, nella linea della mentalità matematica di Wiener, che io assimilai con difficoltà e che ora ho dimenticato. Passammo perciò vicinissimi alla meccanica ondulatoria senza però raggiungerla (…) Da quel momento sono stato un po' scettico circa la sagacia di Wiener ed ho nutrito qualche pregiudizio sulle sue teorie, anche su quelle più generalmente applaudite come la cibernetica” (Born, 1980, pag. 331)

E’ vero che l’occasione mancata può essere a buon diritto attribuita ad entrambi, e Born stesso parla di “pregiudizio”. Nel suo discorso per il conferimento del premio Nobel Born cita Wiener come un valido collaboratore, eppure queste righe tratte dalla sua bellissima autobiografia, scritta inizialmente solo per i familiari, fanno suonare un campanello d’allarme che il fisico teorico conosce bene. Wiener generalizza, non tiene l’occhio sul problema e su quello che potremmo chiamare il bisogno di “stringere sul risultato”. Del resto, dopo questo lavoro, Wiener non tornerà più sulla teoria quantistica. Sfogliando i suoi libri iniziai anch’io ad avvertire i pregiudizi di Born. Wiener ha dato contributi fondamentali allo studio di macchine e organismi, sottolineando l’importanza diversa che ha nei due casi il rapporto sistema/ambiente. Con il tempo la cibernetica iniziava a sembrarmi un territorio vago e poco utile per un giovane fisico, perché finiva di essere matematico quando cominciava ad essere interessante e sfociava in formulazioni affascinanti più simili alle costruzioni di Spinoza e Leibniz che alle pratiche della scienza contemporanea.

Più tardi l’esperienza con la complessità e la sistemica, in cui pure sono stato coinvolto con i lavori su emergenza, apertura logica e coerenza, ha mostrato aspetti simili. Nata in un vasto bacino di feconde confluenze tra diversi problemi, tecniche e discipline, si sono presto forzate queste interconnessioni per fare della complessità l’ennesimo tentativo di “filosofia globale” tramite categorizzazioni e tassonomie basate su analogie vaghe e metafore fin troppo ampie. Niente di (troppo) male: non tutti hanno le raffinate capacità di Bateson, anche i suoi epigoni minori possono svolgere un buon servizio culturale e divulgativo cavalcando in selvaggia naïveté i pascoli della metafora e dell’analogia. Il rischio è quello di perdere la connessione con i problemi che generano e richiedono complessità, costruendo parodie filosofiche caratterizzate non dalle  “oscure lontananze e  profondità impenetrabili” esorcizzate dai neopositivisti nella loro ricerca di “precisione e chiarezza”- che pure evocano involontariamente Hölderlin ed altri nutrimenti indispensabili all’uomo-, ma dall’  uso inopportuno del linguaggio, sospeso tra gramelot scientifico, piattezza giornalistica e retorica concettuale, che arriva a lambire singulti etici a buon mercato. Lasciando ai sociologi di un futuro, che auspichiamo non troppo lontano, lo studio del cui prodest questo tipo di narrazione, notiamo che i cenacoli che la praticano somigliano più a luoghi di affinità nel senso della new age che a gruppi scientifici o scuole filosofiche. Anche qui non c’è niente di deprecabile, non tutte le cose che si fanno devono prendere la forma della produzione scientifica o filosofica, ma qui il tipo di aggregazione è un sintomo sistemico dell’incapacità di generare soluzioni praticabili, se non in un mondo a venire dove tutti siano stati toccati dall’insight dell’ala della complessità mistica. E tutto senza il divertimento e l’ironia assicurate dalla patafisica, ben lontano anche da un minimo di pragmatismo politico.

Da queste note si possono trarre alcune conclusioni provvisorie. I tentativi di estrapolare dalle pratiche scientifiche quelli che una volta si chiamavano “sistemi filosofici” incorrono in un doppio rischio tra poli correlati. Non trovando nuovi terreni da colonizzare e sprovvisti di strumenti abbastanza forti per tentare l’esplorazione, si ha una ricaduta sulle origini da una parte e/o si continua dall’altra in un viaggio d’astrazione incerto. È quello che è accaduto alla cibernetica, che rientrò presto nella teoria dei controlli automatici e dell’informazione di Shannon prima di essere recuperata dal dibattito post AI sui livelli di descrizione e le relazioni sistema-ambiente. La complessità e la sistemica, ponendo l’accento sulla (presunta) universalità delle interconnessioni, rischiano costantemente di dimenticare proprio quello che si prefiggono, i.e. ricordare che ogni descrizione del mondo è ottenuta da un modello sotto opportune condizioni limite, selezionando classi di eventi da dinamiche di processo, e dunque il valore di una rappresentazione (formale o concettuale) dipende da un’attenta ricognizione degli elementi in gioco, a partire dai costituenti.

 

 

2.                  Anti- (Sistemica e riduzionismo) 

Per il sistemico quadratico medio il riduzionismo rappresenta il male assoluto, la forma estrema della brutalità epistemologica e del machismo scientista, qualcosa davanti alla quale apporre un anti salvifico dalla triplice natura metodologica, culturale ed etica. Qui vorremmo sfumare questa opposizione tra riduzionismo e sistemica dal punto di vista della fisica, che sembrerebbe proprio il luogo preistorico da cui si origina, e favorire piuttosto l’idea di una necessaria complementarietà tra le due prospettive.

Gran parte del dibattito è generato da un’accezione unilaterale e del tutto staccata da ogni contesto del famoso “Il tutto è più della somma delle parti”, che deriva dallo studio delle dinamiche non lineari. Ricordiamo che un sistema si definisce non lineare quando la sua risposta non è proporzionale alla sollecitazione che ha ricevuto dall’esterno. Se ci guardiamo attorno è facile comprendere che nel mondo quasi tutto è non -lineare ed è piuttosto la linearità che si rivela un utile espediente per la costruzione di modelli matematici (per via del principio di sovrapposizione delle soluzioni). L’origine della frase ci porta perciò alla dinamica ed alla qualità esplicativa di un modello, e non riguarda specificamente la questione dei costituenti. Veniamo adesso a questioni più sottili, come i modelli di particella in fisica. Chiediamoci, in altre parole, quali sono le parti del mondo, o come si suol dire i suoi costituenti ultimi. Può essere facile oggi sorridere dell’intelligenza di Laplace in grado di calcolare futuro e passato a partire dai dati di tutte le particelle dell’universo immesse nelle leggi di Newton, ma non bisognerebbe dimenticare che ancora oggi la fisica classica, con la sua variante non lineare, ci parla correttamente di baseball, razzi e satelliti, biliardi tradizionali o circolari. Ancora una volta la vera questione sono i limiti di validità di un modello purely mechanical delle cose, che si tratti di orbite o di automi, e non la verosimiglianza degli ingredienti elementari sottesi a questi modelli. La particella newtoniana è una creazione inverosimile, un punto matematico dotato di massa che interagisce tramite urti perfettamente elastici ed ascolta soltanto la gravità; il suo scopo è quello di essere costruita ad immagine e somiglianza delle leggi della dinamica di Newton, non di essere realistica. Sappiamo che la descrizione dei sistemi fisici richiede da un lato il mélange di spazio, tempo e materia intrecciati della Relatività Generale, e dall’altra la Teoria Quantistica dei Campi, in cui non ci sono né onde né particelle ma classi di eventi che corrispondono ad opportuni click di un rilevatore. Più che mostrare dei “mattoni”, il mondo fisico si dissolve in una nuvola probabilistica di processi ordinati secondo il livello d’energia. Questo parametro ci permette di dire che “un protone è costituito da quarks”, ma non proprio come ci si aspetterebbe intuitivamente con le parti di un tutto. In modo analogo una particella dotata di spin non è una particella che ruota attorno al proprio asse, anche se in alcuni casi piò essere utile pensarla così. La fisica quantistica non è generosa con l’immaginazione, ma nonostante gli aspetti controintuitivi dei sistemi quantistici a questo punto si sarebbe tentati di considerare comunque il Modello Standard come una ricetta per costruire la materia attraverso tasselli appartenenti a livelli diversi d’energia, anche se non sappiamo quasi nulla ancora sul muro di Planck, dietro il quale i legami tra gravità e fisica quantistica si legano per dare origine allo spazio tempo. Siamo arrivati ad un’affermazione che dovrebbe soddisfare il riduzionista naive e il suo gemello sistemico: il mondo fisico è fatto di quark e leptoni. È una proposizione indubbiamente vera, ma anche singolarmente inutile: a chi può servire sapere che un elefante è fatto di quark e leptoni?

Il punto essenziale è che siamo circondati da un gran numero di sistemi organizzati secondo logiche di processo e vincoli che ridefiniscono ogni volta i termini di “tutto” e “parti”: un tessuto biologico, un mercato finanziario, un gruppo sociale, un cervello umano e la sua attività “mentale”, esempi sufficienti per rendersi conto che la nozione di costituente è legata non soltanto ad un range di comportamenti, eventi e valori, ma anche agli obiettivi dell’osservatore.

La questione che si colloca idealmente sul versante opposto dello spettro è quella dei comportamenti collettivi, dei quali si suole dire che sono “largamente indipendenti” dai costituenti. In quale misura è vero? Seguiremo una linea di ragionamento assolutamente generale prendendo spunto da un antico problema matematico che da Keplero è arrivato fino ai giorni nostri passando per il famoso elenco di Hilbert, la questione dell’impacchettamento ottimale delle arance (Sloane, 2003). Useremo qui una variante semplificata. Immaginiamo di avere n sfere tutte uguali da posizionare dentro una scatola cubica in modo da riempirla. E’ abbastanza intuitivo che esiste un solo modo di procedere, dunque esiste una soluzione ed è unica. L’analisi della geometria formata dal collegamento dei centri di queste sfere rivelerà una simmetria che caratterizza la soluzione. Consideriamo adesso n sfere però di diverso diametro, in un range abbastanza vasto tra raggi molto piccoli e molto grandi. Tutti i raggi r sono comunque compatibili con il lato L della scatola, i.e. r  L. In questo secondo caso non esiste un’unica soluzione ma ne saranno possibili un gran numero, equivalenti secondo un principio di indifferenza che impedisce di prevederle in linea di principio durante un riempimento random del contenitore. Sarà ancora possibile trovare nelle configurazioni geometriche tra i centri delle sfere alcune forme sottili di simmetria che rivelano grande coerenza coesistenti con altre reti di pura casualità- ed altre ancora se ne potranno osservare variando i vincoli sul sistema, come modificare la forma della scatola-, ma non saranno mai forme d’ordine globali, uniformi, uniche e semplici. Queste sono caratteristiche tipiche dei fenomeni emergenti che non sono dunque così indipendenti dai costituenti e dalle loro proprietà specifiche. IL mondo non è fatto di sassolini newtoniani ed è per questo motivo che la legge di Van der Waals fa si che un gas reale sia diverso dal modello di un gas perfetto, e che gli elettroni possano sovrapporsi in una coppia di Cooper superconduttrice.

L’esempio dei superconduttori ci porta al famoso More is Different di Philip Anderson, articolo tra i più belli della fisica dei sistemi collettivi e troppo spesso ridotto al suo titolo in forma di hashtag (Anderson, 2011).  Anderson non intendeva mettere in discussione il riduzionismo, ma piuttosto indicare la ricchezza dei comportamenti in quella “terra di mezzo” che si colloca tra le descrizioni microscopiche e quelle macroscopiche del mondo. In particolare la critica è verso il “costruzionismo”, che è proprio il modo inesatto di intendere il riduzionismo. Se ci concentriamo infatti su un singolo elettrone, o misurando il rapporto carica/massa in un esperimenti tipo Millikan o rilevando la posizione su uno schermo (click), raccoglieremo molte informazioni sulla particella- elettrone, ma potremo vedere la superfluidità quando porteremo ad una temperatura critica un’opportuna ceramica; soltanto allora indurremo gli elettroni a “tirar fuori” aspetti inediti della loro natura quantistica, come quelli di poter realizzare una statistica bosonica, opposta alla loro natura “individuale” fermionica, e scorrere così in regime di resistenza elettrica nulla ed espellendo all’esterno il campo magnetico. Il lettore attento avrà notato che abbiamo messo il termine individuale riferito all’elettrone tra virgolette, accorgimento necessario perché le particelle della fisica quantistica realizzano perfettamente gli indiscernibili di Leibniz e sarebbe possibile dedurre tutta la meccanica quantistica proprio dal principio di non distinguibilità tra due eventi. Su questa base potrebbe essere legittimo pensare che i sistemi quantistici non siano ideali per discutere di riduzionismo perché troppo lontani dall’esperienza comune, ma passando a sistemi meno esotici la lezione si rafforza. Per molto tempo è stato detto che i mattoni della vita sono quelli del DNA. Ancora una volta un’affermazione vera, che rimane però vaga se non si specificano le costruzioni realizzabili con questi mattoni. In questi ultimi anni è apparso sempre più chiaramente che il “dogma centrale” deve lasciare spazio ad un paradigma più complesso dove una pluralità di “centri” e di “periferie” guidano entrambe l’organismo all’interno di logiche di rete con molteplici canali di comunicazione (Noble, 2009). È all’interno di quadri di questo tipo che si può cominciare ad apprezzare l’unità profonda dei livelli fini di descrizione microscopica e quelli globali di tipo macroscopico: non sono univoci, spesso richiedono linguaggi diversi per essere interrogati ma si incontrano in una pluralità di soluzioni all’interno di quella middle way in cui  componenti e sistema si definiscono reciprocamente in  processi attraverso la produzione di vincoli che sono frozen nei sistemi biologici, dove una stabilità pur soggetta a fluttuazioni produce funzioni e ci dà la possibilità di individuare  scale di componenti, fino ai vincoli metastabili o instabili tipici dei processi socioeconomici dove il concetto di sistema e la tipologia dei componenti si ridefiniscono continuamente. Non dimentichiamo che nel rapporto con l’ambiente lo stesso sistema può configurarsi come componente di un sistema più ampio. Non esistono quindi in generale un livello microscopico assoluto, dove tutto è descrivibile in termini di costituenti, ed un altro macroscopico del tutto indipendente dai mattoni di cui è fatto, ci sono piuttosto vari livelli di descrizione dove il mesoscopico si rivela un territorio dove globale e locale si incontrano su più scale e con varie modalità.

  

 

3.           Maestri: appunti per una storia della fisica sistemica 

  All’interno della fisica, apparentemente quella più “riduzionista”, si sono formati alcuni grandi pensatori sistemici. Con alcuni di questi ho avuto la fortuna di dialogare nel corso di un gran numero di anni, e in alcuni casi di poter essere testimone della transizione verso un pensiero sistemico. Lasciando ad una futura ed improbabile autobiografia i dettagli di queste storie di amicizia e di pensiero, proverò a delineare brevemente quello che potremmo chiamare il peso specifico della fisica all’interno della visione sistemica.

Heinz von Foerster (Vienna, 13 novembre 1911 – Pescadero, California, 2 ottobre 2002) si formò sotto l’influenza della prima generazione quantistica ed iniziò prestissimo a generalizzare e utilizzare i concetti quantistici in altri ambiti, come in un pioneristico articolo del 1943 dove, in base agli studi sperimentali allora disponibili sulla memoria, abbozzò una teoria della dimenticanza ispirata al decadimento radioattivo. Negli Stati Uniti si unì al gruppo dei cibernetici, divenendo curatore degli atti delle Macy conferences (1946-1953) e nel 1949, presso l’università dell’Illinois, fondò il Biological Computer Lab, per molti anni un modello di attività interdisciplinare tra fisica, biologia ed elettronica (Heims, 1997). Il contributo più importante di Von Foerster fu sicuramente quello di aver posto le basi della seconda cibernetica e specificato le sue inscindibili relazioni con un approccio costruttivista alla conoscenza, opera che ha debiti profondi con la storia ed i concetti della meccanica quantistica. Mettendo l’accento sull’osservatore, von Foerster ampliò il dramma di idee sulla realtà che i fisici avevano vissuto con la natura non classica e sfuggente dei sistemi quantistici. L’osservatore viene modellato come un operatore della Meccanica Quantistica, un oggetto matematico i cui autovalori rappresentano l’insieme dei valori misurati relativi ad una certa variabile. In modo analogo l’osservatore raccoglie informazioni mirate durante l’esperienza e le organizza in un modello che non sarà una fotografia passiva della realtà ma il prodotto di un’attività poietica che segue il famoso detto di Einstein secondo cui i concetti della scienza sono sottodeterminati dai dati sperimentali, in sostanza una libera creazione della mente umana. Questa consapevolezza è alla base del costruttivismo di Von Foerster e non ha nulla a che fare con il relativismo, si tratta piuttosto di rendersi conto delle strategie che mettiamo in atto quando affrontiamo la complessità indefinita dell’esperienza (Von Foerster, 1987). I modelli che possiamo produrre nello studio di un processo possono essere molteplici e non necessariamente convergenti in un unico super-modello; ogni modello può riferirsi ad obiettivi, range e comportamenti diversi, non è possibile perciò una “teoria del tutto” dei sistemi complessi proprio in virtù della loro complessità, i.e. della capacità di mostrare emergenza e una pluralità di livelli. In tal modo l’incertezza si introduce definitivamente nella conoscenza scientifica del mondo non più come errore ma come fattore costitutivo di crescita: man mano che si sviluppano modelli e teoria nel loro interfacciarsi si moltiplicano le domande. Questo non accade per i quark e i leptoni ma accade per gli elefanti e per ogni altra cosa nella terra di mezzo tra le particelle e l’universo, a causa del grado diverso di complessità che può essere caratterizzato tramite il concetto di apertura logica, che deriva direttamente dalle idee di Von Foerster ed è stato poi sviluppato da un gruppo di studiosi che comprende Eliano Pessa, Gianfranco Minati, M. P. Penna e l’autore. L’apertura logica corrisponde alla quantità di informazione organizzata che viene scambiata tra un sistema e il suo ambiente. Un sistema con apertura logica n è un sistema con n vincoli o parametri che regolano questo flusso selezionando così informazione grezza da organizzare. Teniamo presente che un’apertura logica infinita ha poco significato perché implica che è impossibile distinguere tra sistema ed ambiente, così risulta ugualmente importante il concetto di chiusura logica, perché un modello deve mostrare nel suo range una certa coerenza interna. I modelli di un sistema complesso si organizzano dunque in una gerarchia di complessità in relazione al numero di vincoli, che sono scelti in base all’obiettivo modellistico e ai comportamenti da descrivere. Nella sua forma attuale la teoria dell’apertura logica è il framework più generale non soltanto per la descrizione di modelli e sistemi ma per cogliere il rapporto tra osservatore ed osservato, ricordandoci che ogni rappresentazione è sempre la sezione arbitraria di un processo in cui siamo immersi (Licata, 2008).

Eduardo Caianiello (Napoli, 25 giugno 1921 – Napoli, 22 ottobre 1993) ha dato contributi fondamentali alla teoria quantistica dei campi ed alla teoria della rinormalizzazione, nata quest’ultima per “eliminare gli infiniti” dalla teoria dei campi ed oggi diventata uno strumento per lo studio dei problemi fisici con più scale di grandezza, una sorta di “zoom” matematico in grado di esplorare i vari livelli, scartare le fluttuazioni, e catturare gli aspetti invarianti di un sistema. In effetti la teoria quantistica dei campi non è soltanto una teoria delle particelle, ma uno scenario concettuale e formale in cui è possibile studiare sistemi a rete in cui i nodi possono crearsi e distruggersi, il che dovrebbe subito metterne in evidenza l’estrema utilità in un contesto sistemico.  Questa linea di ricerca è stata sviluppata successivamente da Eliano Pessa (Portogruaro, 19 settembre 1946- Foligno, 22 marzo 2020; vedi: Pessa,2002; 2006; 2009; Licata), ma non ci deve sorprendere negli anni ’60 l’interesse di Caianello per le reti neurali, verosimilmente ispirate al lavoro fatto sulla teoria dei campi. Era un uomo di grande cultura e con una naturale, elegante autorevolezza che gli permetteva di catalizzare persone e risorse su progetti di ricerca. Occupò la cattedra che fu di Majorana a Napoli e la lasciò poi nel 1968 per andare a dirigere il Laboratorio di Cibernetica associato al CNR di Arco Felice. Grazie a Caianello a Napoli per diversi anni fu possibile qualcosa che è ancora difficile nel nostro paese, organizzare convegni interdisciplinari di grande respiro, riuscendo a far venire scienziati del calibro di Werner Heisenberg, Norber Wiener, Valentino Braitenberg, Hilary Putnam e Michel Arbib (autore di uno dei libri più amati della mia giovinezza: Menti,macchine e matematica, 1968, con la prefazione di Caianello; Arbib, 1968), solo per citarne alcuni. Passerà poi a Salerno dove fonda e dirige nel 1981 l'International Institute for Advanced Scientific Studies (IIASS) a Vietri sul Mare. Sperando in un nuovo Ermanno Rea in grado di raccontare le imprese della Napoli cibernetica, vogliamo soffermarci su alcuni aspetti del lavoro originale di Caianello sulle reti neurali. Le due equazioni di Caianello legano in modo inscindibile il neurone e la rete, a riprova dell’interconnessione tra sistema e costituenti. Una prima equazione, detta “neuronica”, descrive come cambia un singolo neurone in relazione allo stato dei neuroni vicini, la seconda equazione” mnemonica” invece descrive il cambiamento della rete tramite il cambiamento dei coefficienti di accoppiamento tra neuroni. L’ipotesi base è di range temporale, poiché si assume che la variazione globale della rete sia più lenta di quella dell’aggiornamento del singolo neurone, altrimenti non ci sarebbero effetti collettivi, come l’apprendimento e la memoria. Quando lo incontrai negli anni ’80 era impegnato a sviluppare un programma per inquadrare le diverse teorie fisiche come modelli di un sistema- universo, idea che poi ripresi a modo mio in un articolo del 2014, e nel contempo ad intendere l’oggetto della cibernetica nel senso che oggi diamo ai sistemi complessi. Le teorie fisiche venivano dunque ad essere le macrostrutture di riferimento per lo studio di livelli crescenti della complessità (Caianello, 1992; Licata, 2014). Idee che vennero esemplarmente applicata allo studio dell’attività neurale da Ricciardi e Umezawa.

Negli anni d’oro a Napoli, Luigi M. Ricciardi   e Hiroomi Umezawa, immersi nel clima di Caianello e Wiener, diedero alla luce nel 1967 un articolo prezioso di sole 4 pagine ma estremamente denso: Brain and physics of many body problems. La fisica a molti corpi citata è un’estensione dei metodi della teoria dei campi però estesa a situazioni dove la temperatura e le dinamiche organizzative, tipiche della “terra di mezzo”, sono più complesse, come nel caso già visto della superfluidità e superconduttività, dei laser e delle reti di spin. L’articolo è prima di tutto una teoria della mente, nel senso che l’attività cerebrale non viene vista in termini di neuroni, ma attraverso i pattern di attività neuronale, cosa che permette di trasportare i metodi della materia condensata nello studio delle funzioni cognitive. Ma è anche un modello di stile, perché da quel momento in poi saranno molte le applicazioni dei metodi matematici per lo studio dei many body problems ad ambiti fuori dalla fisica, come l’uso dei vetri di spin per studiare l’interazione tra gruppi sociali sotto condizioni date (scelte collettive, fluttuazioni, rottura di simmetria). Lo studio di questi magneti con interazioni frustrate e disordine stocastico mostrano un gran numero di comportamenti con configurazioni metastabili su più scale temporali e sono usati per modelli nello studio delle proteine e dei mercati finanziari. Il recente Nobel a Giorgio Parisi ha riportato l’attenzione alla teoria ed alle sue numerose applicazioni (Parisi, 2021)

La teoria di Ricciardi ed Umezawa considerava un sistema chiuso ed aveva un caratteristico problema di saturazione e conseguente riscrittura della memoria.  Come sappiamo da Proust -oltre che dalla nostra vita quotidiana-, i processi della memoria, la deformazione dei ricordi e la dimenticanza hanno una storia complessa che è quella della dissipazione e dell’entropia, come dimostrerà Giuseppe Vitiello con il suo Dissipative Quantum Model of Brain, un perfezionamento della teoria di Ricciardi-Umezawa che fa uso dei processi dissipativi tra cervello ed ambiente esterno. Si crea così un “doppio” del sistema che ha tutte le caratteristiche della coscienza (“io sono qui, adesso”). La memoria e la coscienza sono le radici della nostra individualità, e la teoria di Vitiello suggerisce che non va pensata come una monade ma come un campo, più ci confondiamo con il mondo più arricchiamo la nostra complessità (Vitiello, 2001)

Tra gli anni ‘60 ed i primi ’70 la fisica adronica era divisa in due grandi scuole, la teoria dei quark, molto legata a quello che si direbbe oggi un approccio riduzionistico tradizionale, e la teoria della matrice S, sostenuta dalla figura carismatica di Geoffrey Chew (Washington, 5 giugno 1924 – Berkeley, 11 aprile 2019). La prima si richiamava ai livelli impilati della teoria quantistica dei campi (“un adrone è fatto di quark”), mentre l’approccio di Chew, che si richiamava a idee introdotte da Heisenberg, rifiutava l’intera struttura della teoria dei campi e sosteneva che su scala adronica era necessario introdurre un nuovo livello di descrizione secondo il quale ogni particella era fatta da tutte le altre (“bootstrap”) e tutto ciò che si poteva dire di un processo era che da certe particelle in input  se ne ottenevano altre in output. La matrice S è una sorta di scatola nera matematica in cui sono scritti alcuni principi generali di conservazione e di simmetria e che ci permette di calcolare le ampiezze in output. La storia ci insegna che la teoria dei quark ebbe la meglio, ma la teoria della matrice S ritorna oggi con nuovi colori nella teoria delle stringhe. Chew, con il quale abbiamo avuto una densa corrispondenza e mi ha fatto l’onore di un paio di contributi preziosi alle antologie da me curate, non era particolarmente interessato alla cultura sistemica, ma il suo modo di pensare alle particelle elementari ha avuto un forte impatto sulla visione sistemica di un suo allievo, Fritjof Capra. Immaginiamo un mondo di frenetiche interazioni descritte alla Chew da una logica di bootstrap, in ogni punto dello spazio-tempo possiamo pensare ad una scatola nera S come ad un nodo in cui sono entrate n particelle e ne sono emerse m. Questo mondo di nodi e relazioni è l’intuizione centrale che guida il pensiero sistemico di Capra articolato sull’idea di reti intrecciate in cui ognuna ha un proprio dominio e vari livelli di compatibilità o incompatibilità con le altre. Un caso di incompatibilità è quello tra reti naturali ed economiche, che ha spinto Fritjof a dedicarsi negli ultimi anni principalmente all’ecologia non come preservazione della natura ma come principio guida nello sviluppo delle reti economiche attorno a quelle naturali. IL passaggio dalla fisica delle particelle ad una visione a rete è ben descritto nel best seller Il Tao della fisica, mentre un’esposizione organica della sistemica a rete è offerta nel bel libro scritto con Pier Luigi Luisi che presentammo a Genova in un incontro che ricordo ancora pieno di idee e con qualche nostalgico ricordo tra fisici dei tempi di Chew e della “quark Physics without quarks” (Capra,1989; 2012;2020)

Lascio per ultimi due pensatori che hanno avuto su di me un impatto enorme. Il primo, David Bohm (Wilkes-Barre, 20 dicembre 1917 – Londra, 27 ottobre 1992), universalmente riconosciuto come uno dei massimi studiosi della fisica quantistica, lo conobbi quando la mia università d’origine mi fece intendere che se avevo tempo da perdere con le interpretazioni della Meccanica Quantistica sarei dovuto andare al Birbeck College da Bohm. Cosa che feci, dopo una breve tappa a Parigi presso J. P. Vigier.  A Pochi anni dalla sua morte Bohm era entrato in una nuova stagione creativa, cosa che lo preservava dalla depressione, e l’unica cosa che poteva indisporlo erano le ricadute del suo dialogo con Jiddu Krishnamurti, che aveva avuto l’effetto di deformare il suo pensiero a favore di una lettura new age (e mi chiedo cosa direbbe oggi facendo un giro in rete). Il nome di Bohm viene ancora oggi spesso associato ad un recupero dell’onda pilota di De Broglie, ma questa fu soltanto una delle sue elaborazioni teoriche e andrebbe intesa non in senso “realistico” ma come l’impianto di un formalismo simile a quello degli integrali di cammino di Feynman (Licata & Fiscaletti, 2014). In realtà dietro tutto il pensiero di Bohm c’è una visione il cui valore epistemologico va ben oltre la fisica, il rapporto dialettico tra implicate/explicate order (un’eco in fisica, forse, delle sue passioni giovanili per Hegel e Marx). Dopo l’avvento delle prime formulazioni di cosmologia quantistica è più facile raccontarlo. Inizia infatti ad emergere un nuovo modo di pensare al Big Bang non come la sfinge di un’ineliminabile singolarità iniziale, ma come processo di localizzazione dello spazio-tempo-materia (explicate order) da un background non locale, una sorta di cristallizzazione della sostanza quantistica del mondo (implicate order). Una volta emerso, l’explicate order guida i successivi processi di localizzazione attraverso un “campo di informazione attiva” che agisce come la curvatura nello spazio-tempo di Einstein. Un altro modo di intendere questa dialettica tra i due livelli è quello di recuperare un po' di Aristotele e dire che l’implicate order è il luogo delle possibilità e l’explicate quello delle realizzazioni (Bohm,1980;1990; 1992; Bohm & Hiley, 1993). È evidente che questa teoria ha un valore enorme per le teorie della sistemica e lo studio dell’emergenza, e trova le sue ragioni rivoluzionarie in un ripensamento del concetto di legge fisica. Quest’ultima è vista troppo spesso come una sorta di algoritmo che la natura impone alla materia, ma gli aspetti ineliminabili di casualità introdotti dalla fisica quantistica ci suggeriscono piuttosto di intenderla come una griglia di possibilità degli eventi (Bohm, 1957). Una legge individua classi di eventi ma non ci dice nulla sulla loro realizzazione. Si pensa che il caso e la causalità siano concetti opposti, ma in realtà sono complementari: la causalità contenuta nelle leggi ci dice che un certo evento è possibile, ma a determinare la sua realizzazione è il caso, che etimologicamente indica ciò che effettivamente accade, e non qualcosa che “non ha cause”. La maggior parte dei processi che si svolgono intorno noi non seguono l’idea diffusa di una causalità meccanica, ma fluiscono tra i vincoli che ne fissano le possibilità. Con Leonardo Chiatti abbiamo dato della teoria di Bohm una versione basata sui Quantum Events (Licata & Chiatti,2019).

A considerazioni simili era giunto Marcello Cini (Firenze, 29 luglio 1923 – Roma, 22 ottobre 2012), che dopo un intenso periodo dedicato alla fisica delle particelle elementari e alla matrice S, iniziò ad occuparsi della logica profonda delle teorie quantistiche, e si trovò a riconsiderare l’impatto del concetto di caso nelle scienze arrivando ad un’idea di “legge” simile a quella teorizzata da Bohm. Il percorso di Marcello verso una visione sistemica fu accelerato da una crisi personale che sconvolse tutti gli aspetti della sua vita e lo guidò verso una nuova consapevolezza dopo l’analisi con Matte Blanco e la conoscenza del pensiero di Gregory Bateson, cose raccontate nella sua biografia Dialoghi con un cattivo maestro (Cini, 2001). Il Marcello dopo la crisi coniuga attivamente il sapere sistemico e l’attività politica, riprendendo con più forza (e con meno marxismo) le tesi de l’Ape e l’architetto in cui si svelava la non neutralità della scienza, e dunque la vacuità di ogni descrizione dello sviluppo dei saperi scientifici, esterna o interna, che non tenesse conto anche delle tensioni economiche e culturali sui microparadigmi che la guidano (Cini et al. 2011). Ho ripreso questo tema nel mio saggio “Residuo fisso”, contenuto in Piccole Variazioni, libro che ospita una postfazione di Marcello sulla nostra amicizia e sui temi che ci uniscono, dalla Meccanica Quantistica a Bateson (Licata, 2016). Mi ritrovo spesso a rileggere il miglior libro scritto sul passaggio da una scienza con una concezione meccanica delle leggi ad una visione sistemica di possibilità e vincoli, Il suo Paradiso perduto, e mi tornano in mente le nostre chiacchierate e la sua “ostinata dolcezza” (Cini, 2004; Licata, 2015).


 

4.           Conclusioni: il vino e la botte 

La fisica quantistica ha avuto sicuramente un ruolo importante nella formazione del pensiero sistemico per via della natura dei sistemi quantistici e dei loro comportamenti collettivi. Non ho avuto modo qui di trattare gli approcci quantum-like, che fanno uso del formalismo quantistico pur trattando sistemi che sono lontani dalla fisica e che hanno un notevole interesse sistemico, ad esempio nelle scienze cognitive.  Si tratta di impianti che fanno uso della contestualità quantistica, per cui il valore di un’osservabile non può essere pensato come la rivelazione di un valore preesistente ma dipende criticamente dal valore di altre osservabili compatibili. La tipica non -località dei fenomeni quantistici è una forma di contestualità, ma questa può essere preziosa anche per trattare proprietà emergenti e le “cose intrecciate” nel mondo mesoscopico (Khrennikov, 2010; Busemeyer & Bruza, 2012; Kitto, 2014)

Mi sono concentrato sulla fisica perché è la disciplina che conosco meglio, ma quello che vorrei far passare è un messaggio più generale che va al di là del “riscatto” delle virtù del riduzionismo, che pure ci sembra importante in un periodo in cui la sistemica rischia di deragliare verso un olismo indistinto. Si tratta dell’inclinazione infelice verso descrizioni generalissime cui facevo cenno all’inizio di queste note. Questi esercizi rischiano di restare vuoti senza fecondare i concetti sistemici con i saperi di discipline specifiche, botti vuote e grandissime senza il vino che dovrebbero portare a maturazione. Più che essere pensata come una disciplina a sé (anche se inevitabilmente la pratica del pensiero sistemico accumula propri schemi e concetti), la sistemica andrebbe pensata come una modalità di pensiero che assimila i saperi specifici e ne prende poi le distanze per una migliore comprensione della loro natura e possibilità, proprio quello che hanno fatto quei fisici che si sono soffermati sull’interpretazione della fisica quantistica. I vantaggi di operazioni di questo tipo sono enormi, come nel caso della citata Quantum Cognition, dove l’analisi sistemica ha permesso l’incontro inter-disciplinare. Per lo stesso scetticismo verso le generalizzazioni eccessive, meno felici sono i tentativi di transdisciplinarietà, a meno che il lavoro sistemico non emerga da un processo di fusione progressiva effettiva delle due aree, come accadde in biologia molecolare.

Questo ruolo non diminuisce la sistemica, ma la pone su un livello più alto. Per parafrasare un pensiero recente di Silvano Tagliagambe sulla filosofia (Tagliagambe, 2021), la sistemica svanisce nell’istante in cui si cessa di credere in lei. Non essendo una disciplina a sé stante, essa nutre però i saperi specifici e li porta a verso la saggezza. Se non si pratica, e si cessa di crederci, i saperi restano pratiche separate e non riescono ad esprimere le loro potenzialità come forme mature di conoscenza.

 

 

Bibliografia