Origine dell’azione

In primo piano

Prof. Ing. Sisto Firrao, libero docente, Politecnico di Milano. Traduzione di un suo lavoro comparso su “International Journal of Science and Research”, marzo 2020

Sintesi.Lo stato di un quanto può essere modificato dalla presenza di altri quanti senza che possa sempre individuarsi una azione da questi proveniente. Ciò obbliga a ritenere che  fra  quanti  adiacenti  si  svolga  uno  scambio  di  informazioni  supportato  da una sensorialità  che  crea  una  dipendenza  reciproca. L’informazione può determinare nel quanto  oggetto  un  “riconoscimento”   che  dà luogo ad una azione oppure può essere ritrasmessa   ad  altri  elementi  contigui,  compito  svolto  dai  quanti  di  spazio  fino  a raggiungere  l’elemento riconoscitivo.. Richiamando elementi della teoria della relatività si  mostra  come il limite massimo di velocità costituito dalla velocità della luce è dovuto all’ azione  frenante  esercitata  dallo  spazio  attraverso  le  azioni  gravitazionale  e elettromagnetica da esso mediate.  L’informazione non sollecita alcuna azione frenante esercitata  dallo  spazio  e  può perciò viaggiare a velocità superiore a quella della luce.

1- Problema inerente l’essenza dello spazio.                                                     Sembra incredibile che nell’ambito di una discussione filosofica e scientifica che ha coinvolto i più grandi geni dell’umanità quali Aristotele, Cartesio, Newton, Leibnitz, Maxwell non solo non si sia compreso il ruolo centrale dello spazio  nella generazione  dell’essere ma lo si sia addirittura fatto coincidere con il suo opposto, con il nulla. E ciò fino al punto di prevedere qualcosa che lo riempia per giustificare l’azione a distanza quale il plenum di Aristotele e di Cartesio [1], l’etere di Maxwell.[2] o i campi di forza della fisica attuale. Solo Platone affermò che “la materia e lo spazio sono la medesima cosa”[3].

Il problema può essere posto nel senso di stabilire se lo spazio debba considerarsi una entità che fa parte della realtà fisica o se debba considerarsi come una entità non fisica la cui struttura non può quindi essere alterata dagli accadimenti del mondo fisico. Questa seconda soluzione ha dominato il pensiero umano fino ai tempi più recenti; per Newton lo spazio poteva essere considerato come un contenitore infinito la cui struttura non poteva essere alterata in alcun modo dagli avvenimenti fisici che si verificavano nel suo interno nonché dalla aggiunta o sottrazione di materia o energia, così che poteva affermarsi che lo spazio vuoto coincidesse con il nulla.[4] Anche coloro che ritenevano che lo spazio contenesse un “plenum” o un “etere” o”campi di forza”, non hanno avanzato l’ipotesi che lo spazio, semplicemente, fosse esso stesso una entità fisica, malgrado ciò dovrebbe sembrare ormai incontrovertibile dopo l’enunciazione della relatività generale cheha mostrato l’esistenza di una interazione gravitazionale fra la   materia e lo spazio e la conseguente considerazione di quest’ultimo come una entità  gravitazionale. Non vi è dubbio, infatti, che la gravitazione abbia la caratteristica della biunivicità, che cioè un corpo che subisce l’azione gravitazionale sia anche capace di esercitarla.

Se consideriamo questa soluzione, cioè l’ appartenenza dello spazio al mondo fisico, dell’essere, è chiaro che l’esistenza del nulla non può essere neanche ipotizzata perché non può esistere ciò che per definizione non esiste. L’ipotesi più ragionevole che possiamo fare è che l’essere sia infinito, sia pure costituito da parti che si distinguono in qualche modo, cioè l’ipotesi di un multiverso infinito.

2- Problema inerente la relazionalità dei  quanti                                                         Il quadro concettuale sviluppato dalla fisica del secolo ventesimo con le teorie della relatività e dei quanti ci obbliga a dover considerare lo spazio ed i tempo come costituenti di unica entità e ci consente quindi di ritenere che questo spaziotempo abbia natura granulare, sia cioè composto di elementi infinitamente piccoli, i quanti, la cui composizione, come in un puzzle, determina lo spazio ed il tempo quali noi li percepiamo. Il quanto è una struttura relazionale, è cioè sempre in relazione coordinativa con l’esterno attraverso lo sviluppo di interazioni con esso senza che possa sempre individuarsi un’azione proveniente dall’esterno che dia origine a tale processo attraverso lo sviluppo di un meccanismo azione-reazione. Il problema sussisteva già nella fisica tradizionale antecedente agli sviluppi del XX° secolo nel verificarsi della interazione gravitazionale tra due corpi che richiede la necessaria preventiva avvertenza della reciproca presenza e ciò anche quando i corpi sono lontani ed il verificarsi della interazione richiede il superamento del nulla che, secondo Newton intercorre fra i corpi. Ad una specifica domanda in tal senso Newton infatti rispose  di non sapere come ciò avvenisse anche se era certo che avveniva. E non vi è dubbio che lo studio delle interazioni fra i corpi abbia portato ad avanzamenti straordinari della conoscenza scientifica, ma è altrettanto vero che l’ignoranza dell’origine prima dell’azione che innesca il processo relazionale abbia privato la scienza di sviluppi di grande importanza.

Tornando al livello dei componenti ultimi dell’essere, rileviamo che il problema si era già posto per la monade di Leibnitz. Anche la monade è una entità indivisibile e chiusa che si modifica in termini di coordinamento con l’esterno autonomamente, non per effetto di una azione meccanica esterna nei cui confronti è impenetrabile. Il problema, come è noto, non fu risolto da Leibnitz, (giacché non può dirsi soluzione il richiamo ad una azione demiurgica) ma il quadro complessivo dell’essere che ci prospetta la fisica del secolo ventesimo ha in se tutti gli elementi per risolvere il problema.  Essa ci ha mostrato che il moto, da cui origina il concetto di tempo è parte, come  quarta dimensione, del componente elementare dell’essere. Ciò significa che il problema dell’adduzione del cambiamento dall’esterno del quanto non esiste perché il motore del cambiamento è già interno al quanto. Ci ha inoltre mostrato che l’esistenza di una capacità di sentire l’altro costituisce una condizione necessaria e ineludibile perché si verifichi la relazionalità che si manifesta nella interazione che è all’origine del divenire. Ne consegue altrettanto necessariamente che la indivisibilità del quanto non può negare la esistenza di componenti più piccoli tenuti insieme da legami che, pur essendo di enorme forza, non impediscano scambi minimi o stati di eccitazione superficiali necessari per sentire gli altri con cui relazionarsi, per avere cioè la sensibilità.

Naturalmente il quanto non deve semplicemente “sentire” l’altro e produrre una azione. Ciò infatti non darebbe luogo ad alcun processo organizzativo ma al raggiungimento della massima entropia, come ormai sappiamo dal problema similare, governato dalla seconda legge della termodinamica, relativo ad un insieme di molecole che interagiscono, in volume limitato, attraverso il solo passaggio di calore. Il sensorio deve essere costituito da un certo numero di elementi sensori che, attraverso la variazione posizionale o la eccitazione differenziata, possano trasmettere una informazione costituita da un certo numero di bit afferenti all’appartenenza ad una delle forze fondamentali e, nell’ambito di questa, alla caratterizzazione di attrazione o rifiuto della risposta.

Dunque, nello schema che scaturisce dalla combinazione teoria della relatività – teoria quantistica, in cui il nulla non esiste, è giocoforza pensare ad una sensibilità di contatto fra gli elementi adiacenti dello spazio che funzionano da mediatori. L’informazione sensoria può essere ritrasmessa ad altri elementi contigui fino a raggiungere un elemento dotato di una struttura di riconoscimento in cui si dà luogo alla azione (che può essere di attrazione o rifiuto, in una delle quattro forze fondamentali) ossia con cui si instaura una dipendenza motoria, realizzando così l’azione a distanza.

Se il quanto non esiste da solo, se ha bisogno dell’altro per esistere, significa che esiste in quanto parte del tutto. Dunque il relazionismo che si manifesta attraverso il link costituito dall’informazione sensoria e che attraverso il riconoscimento può divenire un forte legame associativo è il collante che restituisce all’universo la caratteristica di unità indivisibile che gli era stata sottratta dalla teoria dei quanti. Pur legando le particelle ne rende possibile il mutamento della posizione reciproca (come abbiamo constatato attraverso il fenomeno dello “entanglement” anche a grande distanza) e del legame di dipendenza.

Dovremo dunque considerare la sensibilità all’altro, come un costituente dell’elemento ultimo, accanto allo spazio e al tempo e questa conclusione coincide con quella della teoria detta del “panpsichismo” giacché la sensibilità è la fonte della attività psichica. Questa teoria si è sviluppata nell’ambito degli studi psicologici, quindi in un ambito ben lontano da quello della meccanica quantistica, per le difficoltà altrimenti insormontabili di spiegare la nascita dei meccanismi psichici partendo dalla materia inanimata, in particolare della coscienza, che non sembra potersi ridurre ad un meccanismo robotico governato dalle leggi della fisica classica. Anche la variazione della dipendenza ha il suo equivalente psichico nel “transfert”.

Naturalmente noi dovremo ritenere che lo sviluppo del sistema complesso sia sempre accompagnato da uno sviluppo del sensorio, della informazione, della sua struttura stratificata secondo livelli di rigidità e della possibilità di modulazione della parte più flessibile, condizioni che determinano l’insorgere di nuove funzionalità non rilevabili a livello quantistico. Fa comunque specie rilevare come il pensiero sia costituito, come già intuito da Aristotele [5] dalla modulazione del sensorio nella sua parte più flessibile [6], nonché l’esistenza a tutti i livelli di complessità di un sensorio rigido, immodificabile che trasmette comandi incoercibili che possono essere leggi della natura o memorie acquisite nel corso dell’evoluzione del sistema.

3 –Sulla interazione gravitazionale elementare.                                                           Il contributo più importante dato da Newton alla fisica, da cui sono derivati in cascata risultati fondamentali della meccanica, può farsi giacere nella seguente proposizione: “In ogni fenomeno fisico variazionale, cioè non inerziale, le variazioni del fenomeno si realizzano in corrispondenza di variazioni delle coordinate infinitesime del primo ordine (derivata prima). In corrispondenza di variazioni delle coordinate infinitesime del secondo ordine (derivata seconda) le variazioni del fenomeno sono del tutto trascurabili.

Il contributo più importante dato da Einstein può invece farsi giacere nella seguente proposizione: “In ogni fenomeno fisico variazionale, cioè non inerziale, sussistono non solo variazioni che si realizzano in corrispondenza di variazioni delle coordinate infinitesime del primo ordine (derivate prime) ma anche variazioni che si  realizzano in corrispondenza di variazioni delle stesse coordinate infinitesime del secondo ordine (derivate seconde). I due tipi di variazione sono di segno opposto e si verificano sugli stessi elementi oggettuali.[7].

Noto, per inciso, che per Newton, inventore (in concorrenza con Leibnitz) del calcolo infinitesimale, non poteva sfuggire  la considerazione che l’integrale delle variazioni seconde avrebbe potuto avere una grande importanza se il campo di integrazione fosse stato abbastanza grande. La constatazione che anche a livello di campi assai estesi, quali ad esempio il sistema solare, la determinazione dei valori delle variabili fisiche non mostrava alcun segno di una contribuzione delle variazioni seconde, lo portò alla considerazione non solo della trascurabilità, ma addirittura della loro nullità. Einstein invece ha mostrato che la variazione seconda non è mai nulla, ma è talmente piccola da non essere rilevabile se non si assumono intervalli di integrazione assai più ampi di quelli considerati da Newton, ad esempio, per quanto riguarda le variabili astronomiche, dimensioni galattiche o dell’intero universo. .

Ciò  premesso  riesaminiamo  l’analisi, fatta  da   Newton, del moto di due masse m1 e m soggette  esclusivamente  alla  reciproca  attrazione gravitazionale apportandovi le variazioni  imposte  dalla  teoria  della relatività [8].  Le ipotesi che sono alla base dello studio di Newton sono: corpi assolutamente rigidi, sistema isolato, nessuna interazione con l’osservatore. Consideriamo in particolare il moto di allontanamento che fa seguito allo scontro. Questo moto è caratterizzato in ogni istante dai valori della velocità relativa delle due masse e quindi dall’energia cinetica E, della forza di attrazione gravitazionale F e dalla distanza fra le due masse s.  Nella trattazione  di  Newton  si  assume che un gradiente  dell’energia  cinetica  determini una forza capace di controbilanciare la forza gravitazionale. Newton cioè scrisse la famosa relazione.

                                             dE/ds =– F                           (1)

che  implica  lo  sviluppo  di  una  variazione  di  energia  cinetica  eguagliante la forza gravitazionale in corrispondenza di ogni valore della distanza. La funzione dell’energia cinetica  è  ottenuta,  nella  trattazione  di  Newton,  integrando  la  (1)   ovviamente sostituendo  alla  F  la  sua  esplicitazione  in  termini  di  masse e loro distanza e così ottenendo:

E= -km1m2 /s + C                         (2)

dove k è la costante di gravitazione e C il valore iniziale di E.

Quindi,  secondo  la  trattazione  classica,  se  l’energia  cinetica  ha un valore iniziale sufficientemente alto (valore di fuga) vi è nel processo di allontanamento che segue lo scontro  un  punto  a  partire  dal  quale   l’ attrazione   gravitazionale  decresce   più rapidamente   dell’ energia   cinetica   cosicché  il  moto  di  allontanamento  diviene irreversibile.

Secondo la teoria della relatività invece, durante il processo di allontanamento si verifica una trasformazione di energia cinetica in massa che implica un aumento dell’attrazione gravitazionale, in quantità equivalenti, trasformazione che termina solo con l’esaurimento dell’energia cinetica cosicché è sempre raggiunto un punto di inversione del moto da allontanamento ad avvicinamento, quale che  sia il valore iniziale dell’energia cinetica.

Einstein ha spiegato il motivo perché queste trasformazioni siano sfuggite nell’ambito della meccanica classica: Un confronto diretto con l’esperimento non è possibile al giorno d’oggi perché i mutamenti dell’energia E a cui possiamo sottoporre un sistema non sono grandi abbastanza da rendersi percettibili come mutamento della massa inerziale del sistema. E/c2 risulta troppo piccola in confronto alla massa m che era presente prima dell’alterazione energetica “ [9]

In fase di allontanamento si verifica dunque un processo di condensazione del quanto di energia dalla dimensione infinitesima del primo ordine alla dimensione infinitesima del secondo ordine del quanto di massa, mentre avviene l’opposto in fase di avvicinamento, si ha cioè l’espansione del quanto di massa infinitesimo del secondo ordine in quanto di energia infinitesimo del primo ordine. Il fenomeno fisico appare così un processo trasformazionale oscillatorio.

É importante rilevare, ai fini dello sviluppo del nostro lavoro, come si modifichi l’ampiezza, in termini di tempo, della oscillazione fra il punto iniziale del moto di allontanamento ed il punto finale di annullamento dell’energia cinetica, al variare dei valori iniziali della velocità e della attrazione gravitazionale.

Per quanto riguarda l’attrazione gravitazionale iniziale è ovvia la crescita con essa del suo potere frenante il moto di allontanamento e quindi l’effetto di decremento della dimensione dell’oscillazione. Per quanto riguarda l’effetto della velocità iniziale occorre considerare, in linea con la teoria quantistica, le forze gravitazionali come costituite da un insieme di quanti di forza, ciascuno agente su un quanto di spaziotempo caratterizzato da un certo quantitativo di spazio per unità di tempo. La realizzazione di una maggiore velocità implica quindi la presenza di una maggiore quantità di spazio nello stesso istante (principio di sovrapposizione degli stati) e quindi una molteplicità di forze gravitazionali elementari agenti nello stesso istante. In altre parole ciò equivale ad affermare che le unità di spazio sollecitano le forze gravitazionali e quindi la loro sovrapposizione nella velocità comporta una maggiore sollecitazione gravitazionale complessiva. In definitiva la dimensione dell’oscillazione decresce al crescere dei valori iniziali sia della gravitazione che della velocità, come d’altra parte già affermato da Einstein e Infeld [10].

Vi è dunque un valore limite della velocità iniziale in corrispondenza del quale la dimensione della oscillazione si annulla.tutta l’energia è istantaneamente trasformata in  massa. Naturalmente questo limite è variabile a seconda della dimensione della forza gravitazionale iniziale. Vi è anche un limite della attrazione gravitazionale iniziale in cui l’ampiezza della oscillazione si annulla, quale che sia la velocità, cioè non può sussistere alcun moto di allontanamento per la sua immediata trasformazione in massa (buchi neri)

Alla luce del risultato secondo cui vi è interazione fra la materia e lo spazio, possiamo ritenere che i risultati raggiunti possano essere estesi anche alla condizione in cui il corpo in movimento non sia sotto l’azione di un altro corpo come nel caso esaminato della interazione gravitazionale fra due corpi, ma sia in movimento libero nello spazio. In tal caso dovremo ritenere che la prima legge della dinamica, nella formulazione di Galileo e di Newton, non sia completamente corretta in quanto non considera l’azione frenante gravitazionale esercitata dallo spazio, sia pure per infinitesimi di ordine superiore al primo, quindi per distanze enormemente grandi.

4 – Problema inerente la velocità della luce                                                       Dunque non esiste un solo valore limite della velocità dei corpi gravitazionali, nel senso che vi sono tanti valori limite quanti sono i valori della forza gravitazionale. Nel caso del moto inerziale in cui l’elemento frenante, cioé la forza gravitazionale esercitata dello spazio, ha un valore costante si ha ovviamente un solo valore della velocità limite.per ogni valore della massa del corpo..

Una condizione simile deve sussistere nel caso della luce in cui l’azione frenante è costante. Consideriamo il secondo principio della dinamica “F=ma” dove F è una forza. m è la massa ed a è l’accelerazione, cioè la derivata della velocità. Se, mantenendo costante la forza riduciamo la massa aumenta l’accelerazione; possiamo cioè dire che, al tendere a zero della massa l’accelerazione tende all’ infinito. Visto che la luce non ha massa, alla più piccola sollecitazione la particella dovrebbe subire una enorme accelerazione e raggiungere una velocità infinita. Tale applicazione della seconda legge ha però il difetto di non considerare la variazione seconda che contiene l’elemento frenante costante e che porta la velocità limite a c. Naturalmente, quando la massa si avvicina allo zero, la velocità limite si avvicina alla velocità della luce cosicché possiamo dire che la velocità della luce è una velocità limite per tutte le particelle che subiscano una resistenza da parte dello spazio anche se solo elementi di massa piccolissima possono raggiungere velocità che si avvicinino a quella della luce.

5 – La velocità dell’informazione.                                                                   Nell’ambito gravitazionale o elettromagnetico abbiamo sempre una particella che si allontana ed un altra che si oppone all’allontanamento secondo diverse metriche spaziotemporali. Ciò non avviene nel caso della informazione ove non vi è nessuna particella che si muove ma solo un messaggio che si trasmette attraverso il contatto superficiale senza sollevare alcuna resistenza e a velocità che in teoria potrebbe essere infinita. É l’unico caso in cui non vale la legge relativistica secondo cui in ogni fenomeno fisico occorre considerare le variazioni infinitesime del primo e del secondo ordine in quanto in questo caso non esistono le due cause variazionali contrapposte che possano dare luogo al processo dialettico. Il processo si svolge integralmente nell’ambito delle particelle più piccole esistenti nei cui confronti non esiste un infinitesimo di ordine superiore.

La sensibilità all’altro introdotta in questo studio costituisce un legame comunicativo immateriale fra i quanti che forma una rete che racchiude in un immenso sistema comunicativo l’intero universo ed entro la quale la comunicazione può viaggiare ad una velocità superiore a quella della luce. Essa è costituita da una modificazione della disposizione di certi componenti, ossia della forma a mezzo di scambi minimali di energia a livello locale, a somma nulla, Essa cancella la relatività della simultaneità e consente quindi la determinazione di un tempo assoluto.

Riferimenti. .                                                                                                                    [1] – Descartes: Principia Philosophiae, ed. J.Vrin 1964

[2] – Maxwell: Campo ed etere, 1890 Universale scientifica Boringhieri, Torino 1967 

[3]-Platone: Timeo (sez. 2, 209 b)  

[4]-Newton: Principi matematici della filosofia naturale. Scolio iniziale. A cura di A. Pala UTET Torino 1965 

[5]-Aristotele: Dell’Anima, 3,427a, 427b, 428b, Laterza, Bari, 1973

[6]-Firrao Sisto: Il processo di associazione stimolo-risposta nelle reti stratificate. V meeting ,sulla neuroriabilitazione, Clinica Neurologica della II Facoltà di Medicina, Napoli, 6-7 ottobre 1989 

 [7]-Einstein: Sulla teoria generalizzata della gravitazione, in Le Scienze.1968-2018, pag.68, traduzione di un lavoro comparso su “Scientific American” Aprile 1950.

[8]-Firrao Sisto: Lo sviluppo di processi oscillatori nei sistemi isolati ad alta energia. In Studi sui sistemi complessi, Cap. 4 ed. Lulu 2011, nonché in Cybernetica, XXXI, 4,1988 

[9]-Einstein A. Uber die Spezielle und Allgemeine Relativitatstheorie, Lipsia 1916 

[10]  – Einstein A., Infeld Leopold: The evolution of Physics, 1938 . Pag 204 della  traduzione italiana, Boringhieri, Torino 1965

 

 

Importanza sociale della religione

In primo piano

Sommario                                                                                                                         La quantità  di violenza presente nella società non è  completamente  imputabile, nella sua origine, a coloro che la esercitano ma, in misura prevalente anche a coloro che, pur possedendo   valori   etici, non  sanno  proiettarli   al   loro   esterno   determinando   la strutturazione  di  una  fede religiosa di sufficiente ampiezza di accettazione sociale per la cui  realizzazione  esistono invece le condizioni psicologiche, avvertite come urgente bisogno, in una  estesissima fascia sociale. Si discute il ruolo svolto dallo sviluppo della scienza e dalla sclerotizzazione delle strutture religiose nel determinare il bloccaggio di tale fondamentale processo sociale.

Introduzione

Non vi è oggi alcun dubbio che la nostra specie, homo sapiens sapiens, costituisca la progenie di una scimmia, l’australopiteco amanensis, che in conseguenza di eventi orogenici che produssero la graduale scomparsa della foresta, fu costretto a vivere nella savana, scendendo dall’albero in cui si era da milioni di anni acclimatato. E non vi è anche alcun dubbio che se la scomparsa della foresta non fosse stata graduale, consentendogli ancora per molti millenni un estremo rifugio e dandogli così il tempo di evolvere verso una forma adattiva alla nuova forma dello habitat, la sua completa scomparsa sarebbe stata rapidissima ed oggi io non starei qui a scrivere queste mie parole. La sue caratteristiche fisiche non gli avrebbero consentito alcuna resistenza nei confronti dei grandi predatori della savana.

Non è coerente con le finalità di questo scritto illustrare nei dettagli il complesso processo evolutivo sia fisico che psichico che ha portato dall’australopiteco allo homo sapiens, soggetto sul quale esistono numerosissime pubblicazioni scientifiche. A me interessa solamente rilevare come l’elemento cruciale, fondamentale che ha consentito non solo la sopravvivenza ma addirittura il dominio su tutte le altre specie animali è rappresentato dalla realizzazione di una organizzazione sociale divenuta patrimonio definitivo della specie attraverso la sua introduzione nel DNA, supportata cioè da un impulso di origine genetica, l’impulso sociale che obbliga l’attività psichica ed il pensiero a fluire entro le canalizzazioni comportamentali da esso circoscritte. Non si tratta di un semplice impulso donatorio, empatico, quale si realizza in moltissimi animali, specialmente mammiferi, nelle cure parentali rivolte alla discendenza, cure che convivono con l’impulso di conservazione individuale in quanto la morte del soggetto si risolverebbe nella morte per inedia dei discendenti.

Si tratta invece della realizzazione di una “organizzazione” la cui prima legge è quella della preminenza della conservazione del gruppo anche a spese della conservazione individuale. (Aristotele: “l’uomo è un animale sociale”). La legge che in fisica esprime la distruzione di ogni comportamento sistemico in presenza di una propria direzione di moto di ogni componente è la legge dell’aumento dell’entropia (seconda legge della termodinamica) mentre la legge che richiede parallele direzioni di moto  dei componenti per la strutturazione degli aggregati è la legge di organizzazione nei sistemi aperti di Prigogine anche indicata come legge del parallelismo motorio [1],[2]. La terza fondamentale legge dell’organizzazione e quella che richiede la sua strutturazione a strati di differente rigidità (gerarchia) e la quarta legge fondamentale è quella che richiede che ogni elemento deve essere connesso con tutti gli altri elementi cosicché la combinazione delle due leggi mostra il sistema complesso come costituito dalla esistenza di reti di connessione di diverse rigidità ed interconnesse.

Le componenti dell’impulso sociale e le loro connessioni con le memorie di rassicurazione.

Ed invero l’osservazione diretta mostra che la organizzazione sociale umana  soddisfa pienamente a tutte le leggi organizzative che governano la formazione dei sistemi complessi. In particolare mostra una estrema variabilità fra gli individui dei fondamentali componenti caratteriali [3].Così che Rousseau ebbe a dire che “Vi è più differenza  fra gli uomini di quanta ve ne sia fra la specie umana e qualsiasi altra specie” .Tale variabilità si manifesta particolarmente nell’ambito del rapporto fra il dare e l’avere che ogni individuo tende a realizzare con il gruppo, ove il dare e l’avere si riferiscono alla soddisfazione del bisogno di “importanza”  in cui si manifesta, a livello di stimolo, l’impulso sociale, con una intensità del bisogno superiore a quella dell’impulso di conservazione individuale. Per le necessità di questo studio è sufficiente considerare una divisione delle stratificazioni caratteriali in tre gruppi che abbiamo denominato impulso dominativo o predatorio, con i valori più alti del rapporto avere/dare, impulso di scambio o di amore  dove i rapporti avere/dare sono più equilibrati  e infine impulso di fuga o di morte dove i valori del rapporto avere/dare sono i più bassi. Tali impulsi rappresentano dunque differenti modalità comportamentali con cui gli individui cercano di soddisfare il bisogno di importanza. In presenza di una situazione esistenziale che comporti una interazione sociale le modalità comportamentali fondamentali degli impulsi vengono imposte da strutture cerebrali (che chiameremo memorie comportamentali) e completate nei dettagli operativi dal pensiero cosciente a cui sono trasmesse come valori da perseguire (semantica).  Nel caso degli impulsi dominativo e di scambio le   memorie   comportamentali    sono   connesse   ad   altre   strutture  cerebrali   che chiameremo  ” memorie di rassicurazione”,  definite  nell’ambito dei terminali sensori, le quali a loro volta sono connesse  con centri cerebrali  di scarico tensionale (il piacere di Freud).    Ciò  significa   che  già  l ‘esercizio   delle   modalità   aggressive  e  donatorie degli impulsi  dominativo e di  scambio determina uno scarico  tensionale   che  diviene  crescente   con  l a   realizzazione  delle   condizioni   predatorie   e  di   scambio   quali sono  mostrate  dalle informazioni sensorie   acquisite   successivamente. Le  memorie  comportamentali  determinano  anche  la  modificazione della percezione sensoria   nel   senso   di   amplificare  i  risultati  dominativi e di scambio mostrati dalla informazione  sensoria, processo chiamato illusione e per conseguenza  aumentando il piacere connesso al maggiore scarico tensionale. La giustificazione, sul piano evolutivo, è ovvia.  Bisogna  che  sia  soddisfatto   il  bisogno   di importanza   perché   si  abbia la integrazione sociale dell’individuo; che poi tale integrazione sia frutto di una percezione reale  o  illusoria  non  ha  alcuna  importanza.   Per  questo  l’illusione  ha  una  enorme influenza sulla vita degli uomini:  negli  antichi testi  sacri indiani ( i Veda) è scritto che essa è un dono della dea Maya senza il quale la vita dell’uomo sarebbe impossibile e tale visione è stata  ripresa  da  Schopenauer.  In  definitiva, le modalità  comportamentali  istintuali  predatorie o donatorie divengono preferenziali negli individui a prevalenti   componenti  dominative  o di  scambio  dell’impulso  sociale  per  lo  scarico tensionale che le segue dovuto alle connessioni rigide con le memorie di rassicurazione.  Da  notare  che  la  rigidità  della  connessione  di scarico  non implica  analoga  rigidità dell’  attività   comportamentale;   esiste   in  tutti  gli  individui,  e   sia   pure   in   misura estremamente variabile, una energia di “amplificazione secondaria”   (gli impulsi sono la “amplificazione primaria” del substrato energetico di determinate informazioni sensorie) che  consente  la  amplificazione tensionale degli impulsi insoddisfatti  e la conseguente modificazione della attività comportamentale.  

L’impulso di fuga. 

La  rigidità  del  circuito  interno  di  connessione  fra  le  memorie  comportamentali e le memorie  di  rassicurazione  non  ha  lo  stesso  valore  per  tutti  gli  uomini. La   rigidità   della   connessione.  fra   le  memorie  comportamentali  e  le  memorie  di rassicurazione  non  implica lo  scarico  totale del  bisogno di importanza attraverso una azione  indipendentemente  dagli  effetti  prodotti  da questa azione sul corpo sociale nel qual  caso  sarebbe priva  di  alcun  effetto  aggregativo  che costituisce  l’obiettivo  che  il  bisogno  sociale si prefigge. Essa determina   uno scarico parziale che  ha  l’unico  effetto  di  mantenere  la  modalità  comportamentale  inibendo l’azione  repressiva  che  potrebbe  essere indotta da altri impulsi, ma l’effetto di scarico totale deriva dal raggiungimento della condizione  di  importanza,  cui  corrisponde  una “utilità“, per il corpo sociale,  dell’attività del soggetto.  E’ chiaro, a questo punto che, con l’aumentare del livello di importanza dell’individuo la sua conservazione individuale tende a coincidere con la conservazione del gruppo, pertanto per le caratteriologie dominative che occupano le posizione di massima importanza, cioè di potere, la superiorità dell’impulso sociale rispetto all’impulso di conservazione individuale non sussiste.in quanto i due impulsi coincidono. Gli individui con  carattere dominativo inseguono la condizione di importanza ed in questo senso seguono l’impulso sociale; ma inseguono le posizioni massime di importanza in corrispondenza delle quali la differenza fra importanza sociale ed importanza individuale sparisce..Per tal motivo l’impulso dominativo è anche chiamato “volontà di potenza”.Esso tende alla occupazione delle posizioni di potere  senza imporsi alcun vincolo comportamentale  oltre quello “esclusivo”della tendenza al potere..  Le  modalità  comportamentali  che soddisfano questo vincolo possono essere estremamente numerose e la scelta fra di esse è lasciata all’attività del pensiero.. In  particolare  non richiedono la concessione di alcun elemento di importanza, quindi di potere ad alcuno (elemento dare), se non in termini di scambio tattico, di ipocrisia, di inganno. In ciò sono facilitati dal fatto che le altre caratteriologie richiedono ai detentori del potere il riconoscimento di importanza. Cionondimeno l’utilità per  il  gruppo  sussiste  egualmente  perché  la  stratificazione  gerarchica ne consente l’organizzazione.  L’impulso di amore impone invece il vincolo  comportamentale  del dare  importanza all’ altro, quindi  potere  su  di sé, per avere l’importanza dall’altro, quindi potere su di lui. Il processo,  largamente   influenzato    dall’ illusione è però in questo caso  parzialmente inconscio.  Alla  coscienza  appare  un  bisogno  di dare  gratuito mentre il movente del processo,  vale  a  dire il  bisogno  dell’avere, rimane  nascosto  nell’inconscio, ma se lo scambio raggiunge il giusto equilibrio, l’impulso sociale rimane soddisfatto.   Nel  caso in cui   il  circuito  interno  di  autovalutazione  non si  strutturi,  non viene cioè parzialmente  soddisfatto  il  fondamentale  bisogno  di  importanza,   l ‘impulso  sociale mantiene nell’attività operativa un alto livello tensionale che può essere ridotto, sia pure con   l’aiuto di connessioni illusorie, solo da informazioni provenienti dall’esterno, da cui quindi  gli   individui dotati di questi impulsi sono estremamente dipendenti. L’impulso in questo  caso  prende  il  nome  di  impulso  di  fuga o  di  morte.Un elemento importante perché  si  sviluppi  tale  tipo  di  dipendenza è costituito dal basso valore dell’energia di amplificazione  secondaria,  che  potrebbe  anche  essere  chiamata forza di volontà,  e quindi della scarsa capacità di reprimere gli impulsi cosicché l’attività  comportamentale segue più  da  vicino  il principio  del  piacere.  Tale condizione non solo rappresenta un elemento importante  ai fini della formazione dei  caratteri in cui predominano gli impulsi di fuga, ma costituisce anche un elemento che ne rafforza enormemente la dipendenza dall’ esterno dello stato tensionale del sistema psichico .                                               La  denominazione  di impulsi  di fuga o di morte non deve far pensare che tali impulsi  non  diano  luogo ad una attività aggressiva rivolta verso l’esterno. Essa sta ad indicare che  la  dimensione  dell’impulso   sociale, che è di  conservazione  della specie, supera talmente    la   dimensione   dell’  impulso   di   conservazione   individuale   da   poterlo ampiamente  contraddire  e  ciò  sia  che  la  modalità  comportamentale sia aggressiva, assumendo  la  dimensione di  “odio” che va ben oltre le  necessità della conservazione individuale  e  che anzi espone ad altissimi rischi, sia che la  modalità  comportamentale sia   donatoria,  assumendo   aspetti   masochistici.   Essa  sta  anche  ad  indicare  una condizione di alto livello tensionale che, in assenza di scarichi tensionali rende possibile l’imbocco  di  una  canalizzazione  di  fuga  dalla  vita,  direttamente  autodistruttiva.        Sussistono  in  questi  individui  condizioni   aprioristiche  di  allarme  e  di   insicurezza comportamentale  cosicché,  se  esistono  condizioni  di  scarico tensionale  provenienti dall’esterno,  l’energia  psichica  confluisce nelle direzioni da esso indicate che possono essere  indifferentemente  aggressive  o  donatorie.  Se  le  condizioni   di  scarico sono parziali il valore della  tensione  psichica,  non  sottoposta a preventivi scarichi in circuiti interni, rimane alto rendendo per conseguenza estremamente violenta l’attività di questi individui.  Ma  anche  in  presenza  di  alti  scarichi  tensionali  provenienti  dall’esterno, l’attività  di   questi  individui  rimane  continua,  infaticabile   perché   la   necessità  del  consenso esterno  è  in  essi continua  ed è estrema la sensibilità al suo calo. In questi individui la  realizzazione,  sia   pure   marginale,  della  soddisfazione  del  bisogno  di  importanza  rappresenta  una  rassicurazione preliminare esterna che  sostituisce   gli   elementi   di  rassicurazione preliminare  interna   mancanti per evitare l’imbocco della canalizzazione di morte.  

Gli effetti sociali dell’impulso di fuga. 

 E’  superfluo  sottolineare  l’estrema  importanza   sociale   della presenza di individui in cui  siano  ampiamente  sviluppati   gli   impulsi   di   fuga;   l’esistenza   di   un   grande  bisogno  di  importanza   e  l’assenza   di  connessioni  interne  di scarico che leghino al perseguimento  di   determinate   modalità  comportamentali   rendono  questi  individui, in  assenza  di  una  soddisfazione  del   bisogno   di   importanza   attraverso   percorsi predisposti  dalla  organizzazione  sociale, plagiabili  da chiunque offra loro  un ruolo cui sia  legato, in  modo  reale  o   illusorio,  un  innalzamento   comparativo   attraverso   la appartenenza  ad   un gruppo..  E’  estremamente  importante  rilevare  che  il carattere  del  gruppo  ha una importanza  assolutamente  secondaria. Le condizioni  più attrattive per  questi  individui   sono  anzi  quelle  in cui  l’appartenenza   è  assicurata   da fattori non   di   merito   individuale   perché si  prestano  ad  una  determinazione  aprioristica  non   selettiva   come   la appartenenza  ad  una  razza  o  ad una  casta.   Viene  infatti  così    evitata   la   sollecitazione,   connessa   all ‘ esecuzione   di    una   prova    della  fondamentale   insicurezza   di   questi  uomini  che  viene anzi ridotta  permettendo   la  confluenza  di  tutte  le energie  psichiche  nelle attività,  nelle  finalità  e  nei  valori  del  gruppo  di  appartenenza.  Tali  condizioni  istintuali   facilitano   quindi   la   utilizzazione strumentale  di  questi  individui  in  strutture   criminali  o  rivoluzionarie  o  repressive o militari  e  costituiscono  in  tal  caso  un   importante   ostacolo   alla   realizzazione   di  una   organizzazione   sociale  ove  gli  impulsi  dominativi   abbiano  minor  spazio.  Gli  impulsi   dominativi,   infatti,   sono   estremamente  flessibili  e  possono  quindi  essere condizionati   nell’ambito   di   gruppi   ove  prevalgono  gli impulsi  di  scambio,  cioè  di  amore;  ma   è   la   presenza   degli  impulsi  di  fuga   che apporta   enorme   forza   ai   caratteri   dominativi   permettendo   l’organizzazione   di  enormi  forze  coercitive  con  cui  possono  sfuggire  ai   condizionamenti  riduttivi. Tali forze  coercitive poi, una volta  costituite    con   una   determinata   struttura   di   valori  e  finalità,  sono  difficilmente  controllabili  e  possono  quindi  sfuggire  al  controllo   delle caratteriologie  dominative  passando   sotto   il  controllo   di  caratteriologie  di  fuga  in  gruppi i n  cui  si  crea  un  circolo   vizioso   di   reciproco   apporto   di   importanza  fra il capo ed i componenti del gruppo  e  introducendo  così. per il contenuto di  irrazionalità, cioè di non coerenza con la  realtà  connesso  alla  grande  componente  illusoria  nella valutazione  della propria  importanza,  elementi  di  follia  nel  comportamento.    Questi  caratteri  costituiscono in sostanza  gli  elementi   sacrificali  dell’organizzazione come le formiche o le api operaie ma che, a differenza di queste ultime e coerentemente con la  flessibilità  della  struttura organizzativa umana, possono essere indirizzati verso qualsiasi direzione. In mancanza di un  indirizzo  globale,  unitario,  coerente  con  le finalità di sopravvivenza del gruppo, come  si  verificava  automaticamente  nelle  condizioni  dell’orda  primigenia  in  feroce, continua lotta per la sopravvivenza, essi  divengono  mezzi di  scontro e  fonti  di  auto-distruzione del sistema. Questi individui rappresentano i n  sostanza  energie  orientabili da un campo  informativo indotto dal corpo sociale. In assenza di un campo  informativo sociale  unidirezionale esse assumono  caratterizzazione  distruttiva, ma se tale campo  invece  esiste, esse  vengono  orientate  nella  direzione del campo che può essere una direzione  di  contenimento  degli impulsi dominativi e di sviluppo degli impulsi di amore, possono cioè essere un  importantissimo  anzi indispensabile fattore di conservazione e di progresso.

 Gli elementi familiari di sollecitazione del’impulso di fuga 

La  condizione  di  carenza  aprioristica di  valori  interni pur in  presenza di un estremo bisogno di  gratificazione  sociale pone questi individui in una condizione di conflittualità di impulsi di fronte  a sollecitazioni contrastanti provenienti dal corpo sociale.      Essendo, come accade in tutti  i  campi  di  forza, la condizione di dipendenza  funzione crescente  della  vicinanza, la  famiglia  dovrebbe  essere  l’ elemento  prioritario  in  cui dovrebbe  trovare  soddisfazione  il  bisogno  di  importanza.  L’intorno più ristretto nello’ ambito   della   famiglia   è   costituito  dalla   coppia,  ove  agli   elementi   di   realtà   si assommano  importati  contributi forniti dall’illusione. Gli elementi di realtà sono costituiti dalla  esistenza  di uno scambio  di  piacere sul piano della sessualità che “”trascina” un più ampio  scambio  in  cui  ogni  partner  attribuisce  all’altro  un  “potere”  su  di sé che chiameremo  “importanza  interna” alla  coppia  e  a  cui  generalmente viene attribuito il vocabolo  di  amore. L’innamoramento che ne rappresenta la fase iniziale  costituirebbe anche secondo Alberoni  lo sbocco  paranoico  della  condizione depressiva, di carenza di importanza.   L’elemento  paranoico  (la  paranoia esprime un valore dell’illusione che travalica  certi  limiti)   è  costituito  dalla  dimensione  dell’importanza   che  i  partner  si attribuiscono.  L’amplificazione  che  si  sviluppa  nell’innamoramento  è  stata   illustrata anche da Stendhal nel suo saggio  sull’amore.  Il processo  da  lui  descritto è identico a quello  descritto  da  Alberoni,  ma  è  straordinario  il  fatto  che  il  lavoro  di   Stendhal  precede  di  più  di  un  secolo  gli  sviluppi  della psicologia  su cui  poggia  il  lavoro  di  Alberoni.     Egli   aveva   ben   compreso   il   substrato    egoistico,    di    richiesta    di  importanza,   che   sottostà  all’amore;  infatti   descrive  il   processo    di  conferimento  reciproco   di   importanza   che  si  svolge  nell’innamoramento  come   un  circuito   a retroazione positiva “più sei importante tu, più sono importante  io che tu  ami, che  cioè consideri  importante”.      Ma   tale  scambio, pur  inflazionato   dalla   frustrazione   del  bisogno  che  impone  la auto – soddisfazione   paranoica,  non   avrebbe  di  per sé  la dimensione   capace  di  soddisfare   completamente   il   bisogno   di   importanza  che  l’evoluzione   ha  creato   come   mezzo di integrazione  in   gruppi   più   ampi,   capaci   di    garantire   la   sopravvivenza   nell’orda    cacciatrice   primordiale.    Il   rapporto   binario  è   quindi   sempre   accompagnato  da  una amplificazione   illusoria   anche   del   suo   contenuto   di   importanza   “esterna”   che assume particolare  rilievo  con l’indebolirsi  della  importanza  interna.   Stendhal   nel  suo  saggio  sull’amore  chiamò  il    processo     di    innamoramento   “cristallizzazione”   in   quanto    svolgentesi    per   apporti   successivi  di  piccola  entità  (come  avviene  nel  processo  di  formazione  di certi  cristalli  di  sale );   non   considerò   cioè   “il   colpo  di   fulmine”    che   invece  è   possibile  quando  i  contenuti  reali  di importanza   “esterna “  scambiati  nel  rapporto  sono  notevoli.    Naturalmente , gli   elementi   illusori  interni   conferiti    nel    rapporto   sono    soggetti    ad    un    processo    di   obsolescenza    di    dimensione    variabile   determinato  dall’impatto   con la realtà; ma   è quando si  verifica  una forte caduta dei contenuti esterni reali apportati da  uno  dei  partner  che  il   rapporto può   rompersi  e  verificarsi  nel   partner   perdente  la  trasformazione  dell’amore   in   odio.   Passando  quindi  al  rapporto genitori-figli trascuriamo in questo lavoro l’apporto  che  il  processo  di  strutturazione  della   componente   ontologica   degli   impulsi  (imprinting)  ha nella  formazione   del   carattere,   particolarmente    in   quegli   individui   che   non   hanno ereditato circuiti di  autovalutazione ma che possono acquisire sicurezza nel primigenio rapporto  genitoriale.  E’  di  tutta  evidenza  che  la  famiglia  patriarcale,   quale   si  è sviluppata  nella  odierna   nostra   civiltà,  racchiude  il   figlio   dotato di un carattere di fuga   in   un   ruolo   minoritario   e   restrittivo   che  non  ne  soddisfa   il  bisogno   di  importanza   e   lo   obbliga   a   rivolgersi    all’esterno   per   conseguire  tale   obiettivo dell’impulso sociale.    Da qui il formarsi,, quale   componente   strutturale  della  nostra  società,  di una contraddizione  tra  i valori interni ed esterni alla famiglia  che determina nel   figlio  il   cosiddetto   complesso   di  Edipo   e   porta   molta   violenza   attuale   o  potenziale   al   suo   interno..   L’estrema   diffusione   della  droga  è  ascrivibile, sotto  questa   prospettiva,   al   contrasto   oggi   esistente  fra   i   valori  interni   ed   esterni   alla  famiglia  che impone  l’imbocco  di  canalizzazioni  autodistruttive  negli  individui  con  impulsi  di  fuga  mentre la  modalità    adottata   è   ascrivibile,, ovviamente,  al   sollievo  tensionale indotto dal mezzo chimico.

Importanza sociale della religione.

Se   viene  effettuata una scelta fra le varie sollecitazioni, quelle escluse continuano ad esistere, lo  scarico  cioè  è  parziale. Abbiamo già esaminato  tale condizione che porta ad una eccessiva carica istintuale nelle attività operative. Rileviamo adesso riprendendo l’ argomento  che  il  superamento delle condizioni di insicurezza che la scelta comporta impone la confluenza  paranoica  (su  cui influisce la  paura della smentita) degli impulsi contrastanti in quelli scelti, confluenza  che comporta  la  trasformazione  delle  modalità comportamentali  di  amore  in modalità aggressive che assumono così una dimensione di  odio  assolutamente   sproporzionata   agli  obiettivi  definibili  razionalmente.  Come abbiamo  già  detto,  tali  condizioni  istintuali  facilitano  la utilizzazione  strumentale  di questi   individui   in   strutture   fortemente   aggressive,   criminali   o   rivoluzionarie  o repressive  o  militari   ove  le  manifestazioni  di  maggiore  disciplina  nel  gruppo  e di maggiore  crudeltà  verso  i  terzi  provengono  dalla confluenza  paranoica degli impulsi sociali   di   questi    individui    negli    elementi   di   identificazione   nel   gruppo   e   di differenziazione  dai  terzi,  Se  invece  le  sollecitazioni  provenienti  dall’ intorno sociale dell’ individuo  sono  coerenti,  la  soddisfazione  è  massima  non   solo  per  il  livello di importanza  raggiunto,  ma  anche  per  la  carenza di impulsi contrastanti. Il modello e i raggruppamenti  proposti  divengono  così  preferenziali  mentre  la  carenza  di  impulsi contrastanti  permette  di  dare  un contenuto donatorio alla modalità comportamentale.    Il problema  va quindi in sostanza risolto  predisponendo per questi individui possibilità di  identificazione  in  un  modello  sociale,  nonché  di  conseguente  partecipazione   a raggruppamenti operativi, che sia caratterizzato da finalità e valori utili all’aumento della quantità  di  amore  esistente  nel  sistema  e  facendo  in  modo  che  tale  modello   e  i connessi raggruppamenti  operativi siano preferenziali, impedendo cioè la confluenza di tali individui nelle strutture in cui si  scarica  la  violenza  distruttiva.  Come  abbiamo già avuto modo di rilevare, l’identificazione in un modello  e la  partecipazione  conseguente ad un certo  raggruppamento  non  devono  essere  frutto  di  una selezione, ma devono essere  aprioristiche  pur  se frutto di una scelta. La preferenzialità si sviluppa attraverso l’intensità e la dimensione della  gratificazione conferita dalla società  congiungendo alla scelta  conforme  a l modello  l’assunzione di  una importanza di un certo livello critico e conferita  da  una  stratificazione  assai  vasta  della  società,  definendo  come scambio paritetico con essa la partecipazione al raggruppamento.                                                  Le  caratteristiche  di  preferenzialità  indotte dal livello di importanza, dall’innalzamento, sono  peraltro  ancora  contrastabili  da organizzazioni  alternative  innanzi  tutto perché la maggior forza attrattiva, come in tutti i campi di forza, è data dall’intorno  sociale  dell’ individuo  e  perché,  come  già  detto, non  esiste  alcuna  preferenza  aprioristica.   La preferenza  può  benissimo  andare a raggruppamenti dominativi anti sociali quali quelli criminali.                                                                                                                 Stabilire gli elementi che possono determinare la esclusività della preferenza inducibile dalla  società  costituisce  un problema assai complesso che può essere sintetizzato nel concetto di “giustizia” da  perseguire  non  solo  negli  ambiti  in  cui  è  perseguita  nella nostra civiltà, ma anche nell’ambito della distribuzione del reddito che essa esclude. Da notare  però  che  la  semplice  donazione  di  un  reddito  da  parte  di  uno   stato  etico determinerebbe  la  stessa  situazione  di   riduzione   e   umiliazione   che   caratterizza il  rapporto  genitori-figli.    L’obiettivo  dell’impulso  sociale  (assumiamo  per  semplicità espositiva  un linguaggio  teleologico) non  è  quello  di  assicurare   un  reddito  ad ogni individuo ma di assicurarne  l’attività  lavorativa  in  favore del gruppo. Il bisogno sociale dell’individuo è quindi soddisfatto quando il reddito costituisce la remunerazione del suo lavoro in favore  del gruppo ed il livello del reddito  sia  correlato  al livello di importanza del suo lavoro.   L’individuo con impulso di fuga  non  ambisce a  raggiungere  posizioni dominanti, ma ricerca una posizione protettiva attraverso  un  rapporto  di scambio delle relative  importanze, lui importante  per il gruppo, il  gruppo importante  per lui,  cioè un rapporto di amore.                                                                                                  L’approfondire   questo   problema nei  suoi  vari  aspetti  non  rientra  negli  obiettivi  di questo studio;  io   intendo   approfondire   solo   un punto,   che    ritengo  di   primaria  importanza,  costituito  dalla  dimensione   della  stratificazione  sociale  che conferisce  l’importanza in quanto ritengo  che  se tale  dimensione  raggiungesse  un  certo livello critico potrebbe, a parità di altre condizioni  superare  l’effetto  attrattivo  del  più  diretto intorno sociale.del’individuo.   Lo Stato, inteso  come  la struttura organizzativa assunta dalla  società,  non   può   svolgere  questo   ruolo   perché   qualsiasi   organizzazione  richiede l’intervento  di uomini con  carattere    dominativo  che    hanno   la  necessaria  sicurezza    operativa   e   chiarezza   degli   obiettivi   che   però  non  sono  quelli  di assegnare    importanza  agli   uomini  con  carattere   di   fuga,   ma   al   contrario  di  dominarli   il   che   comporta   una   attività    predatoria   della  importanza.     Occorre  che  la   struttura  dei  valori   sia  gestita  da  una  entità  che  sia  avulsa  dal    potere  politico   ed   economico   di   cui   possa   essere    anzi   l’elemento    regolatore   se acquisisce,   una   certa   dimensione  critica  di  diffusione.    Occorrerebbe  cioè  una  “religione”   globale   che  non   dovrebbe  dipendere   da  alcuna organizzazione,  ma  dovrebbe  costituire  la  cultura  di  un  popolo,  capace  di  bloccare  in ogni momento l’arroganza del potere. La quantità  di  violenza  presente  nella  società  non è dunque completamente  imputabile,  nella   sua   origine, a  coloro  che  la  esercitano  ma, in misura   prevalente,  a  coloro  che,   possedendo   valori   interni   di   scambio,    non sanno  proiettarli    al    loro   esterno   determinando   la  strutturazione   di   una   fede  religiosa    di    sufficientemente     ampia     e    intensa     accettazione    sociale.   La responsabilità  della   mancata  strutturazione   di  valori   religiosi   ricade  dunque sui caratteri che possiedono prevalenti impulsi di amore perché il  loro  discorso  fa  presa su   una  più  ampia  platea  di  sofferenti  e più  facilmente   l’accettazione   dei   valori   da   loro    proposti   può   raggiungere  la   dimensione   critica   che   determina   la  formazione    di    linee  preferenziali  di  scarico  degli  impulsi   di   fuga   nonché   la   formazione    di    un    circuito   a   retroazione    positiva    per   il    fanatismo   cieco    sviluppato    dai   caratteri   di   fuga.      Le   condizioni   attuali   di  violenza   sono quindi  ascrivibili   sopratutto   allo   stato   di   incertezza   e disillusione  di  coloro   che   i   valori   morali    posseggono   istintivamente  e  sopratutto di quelle   stratificazioni  sociali  che  rappresentano  la “intelligenza” della società giacché sono esse che sono capaci di   dare   all’insieme  dei  valori   quella  struttura  coerente  che  ne   permette   la   trasformazione   in ideologia  di sufficientemente  ampia  e generale accettabilità.    E  bisogna  avere  il coraggio di  riconoscere che un importante ruolo negativo in questo senso  ha  avuto  lo  sviluppo  della   scienza  bloccando  tutta  una serie di possibilità di connessioni  illusorie  in  un  gruppo  di  caratteri  che hanno  bisogno di un alto livello di razionalizzazioni   secondarie  entro  cui far fluire  gli impulsi fideistici e così limitando la dimensione  dell’accettazione  sociale della religione proprio nell’ambito di stratificazioni sociali  che  hanno  una  grande  importanza  per  la  loro influenza sulla formazione del convincimento  sociale. Ma è proprio la scienza che riscopre la necessità della religione non  solo  nell’ ambito   dei  fenomeni  di   organizzazione  sociale, ma  nell’ambito  più generale dell’organizzazione dei sistemi, come necessaria rete di connessioni di tutte le componenti direzionali del sistema e, ancora più in generale, nell’ambito  dello  sviluppo del  processo  conoscitivo,  come  necessità  di  formazione  di  una teoria, sia pure con connessioni “deboli” come primo passo di indirizzamento  direzionale  che  impedisca la disgregazione della struttura informativa e possa innescare un processo di successione di modelli convergenti verso il modello più euristico.                                                           Ma  grandissimi  sono  stati  gli  errori (se così vogliamo chiamarli) di coloro che fino ad oggi  la  religione  hanno  guidato ,  inserendo   contenuti   che   ne   hanno   limitato   la dimensione di accettabilità e ne hanno spezzato l’unita o che addirittura si oppongono a strutture  morali  intensamente  sentite  da  estese stratificazioni sociali, sopratutto dagli strati  più  colti,  come  le  posizioni   prese   dalla   Chiesa   Cattolica   sulla  importanza della  donna,  sulla  sessualità,  sulla  omosessualità,  sul matrimonio, sul divorzio, sulla eutanasia, sulle diseguaglianze economiche, sul controllo delle nascite, ecc. Gravi sono stati  gli  errori  commessi  nel  dare un contenuto troppo rigido alla religione togliendole quella flessibilità  necessaria  ad ogni meccanismo regolatorio, impedendole di crescere nella  quantità  di  informazione  contenuta  e  di   adeguarsi   al   livello   della   cultura,  trasformando  in  fatto  traumatico,.  di  rottura,  anziché  di  rivelazione  divina  l’apporto conoscitivo della scienza.,                                                                                                  Ma    possiamo   andare   più   avanti  nella analisi  sulla rottura  dell’ unità  ideologica di fondo  necessaria  perché il sistema  non  progredisca ponendo le sue parti l’una contro l’altra  verso  l’autodistruzione.   Quando  la  religione si struttura in organizzazione essa diviene ,come  qualsiasi  altra  organizzazione, il  luogo  di sviluppo di impulsi dominativi che ne  snaturano  i  contenuti  e  le  finalità.  Lo sviluppo  di  una religione di amore che raggiunga  la  dimensione  che  le  permetta  di  svolgere  il  suo  fondamentale  ruolo di aggregazione  sociale costituisce però un fatto così complesso e che si svolge su tempi così  lunghi che non si può fare a meno di poggiare su quelle esistenti che già muovono centinaia di  milioni  di uomini  sperando  che  l’elaborazione intellettuale ne permetta la necessaria  evoluzione  in  cui  è  fondamentale  la  saturazione  della  scissione con la cultura  spezzando,  con  un   forte  movimento  di massa innescato dalle stratificazioni culturali più vicine  alla  religione,  da coloro che hanno saputo continuare a credere, gli ostacoli frapposti dalla rigidità delle strutture organizzative.                                          Le  prospettive  non  sono  incoraggianti..  Già un uomo  ci  ha  provato  a  fondare una religione  di amore sfidando i poteri costituiti ed è finito sulla Croce La sua religione si è sviluppata  anche  dopo  la  sua  morte  perché  troppo  forte era la richiesta, ma hanno provveduto  quelli  che  si  sono  proclamati   suoi  successori  a  trasformarla   in   uno strumento al servizio del potere.

Riferimenti                                                                                                                          [1]-Firrao S. Origine dell’azione, www.complexsystems.it                                            [2]-Firrao S. Lineamenti di una teoria delle interazioni informative, in “Saggi sulla Cibernetica” seconda edizione, Edint 1983, Milano                                                      [3]-Firrao S, La stutturazione degli impulsi, in “Saggi sulla Cibernetica” seconda edizione,  Edint  1983.  Milano                                                                                     [4[  -  Alberoni  F.  "Innamoramento  e  Amore",   Garzanti,   Milano,   1979         [5]- Stendhal

               .                               . 

Obsolescenza del principio di non contraddizione

Sommario
Contrariamente a quanto afferma il principio di non contraddizione, quest’ultima costituisce il fondamento dell’essere. Ciò non significa che un oggetto possa essere contemporaneamente nero e bianco, ma piuttosto che può assumere le due colorazioni o una colorazione intermedia in tempi diversi per effetto di un principio trasformazionale in esso  contenuto, sia pure sollecitato da una informazione che proviene dal suo esterno. Quanto detto per l’aspetto costituito dal colore è generalizzabile per l’azione che è costituita da due componenti opposte che originano nell’oggetto da cui l’azione parte.  Le due componenti si manifestano su infinitesimi della realtà di ordine diverso ma con un peso relativo variabile.in conseguenza di un processo di trasformazione dall’una all’altra componente governato dalle condizioni esterne al sistema agente. In questo studio si prende in esame la interazione gravitazionale fra due corpi in cui si ha un processo continuo di trasformazione fra la componente massa e la componente energia cinetica, processo che ha due punti singolari in cui si ha l’esaurimento di uno dei componenti ed il processo di trasformazione si inverte. In assenza di interventi di altri corpi il fenomeno assume quindi un carattere oscillatorio fra due condizioni estreme di esaurimento di uno dei componenti, ma nell’ambito delle condizioni intermedie le due istanze contraddittorie convivono secondo rapporti variabili.
Cenni storici sull’evoluzione del problema.
La non contraddizione ha costituito, fin dall’inizio della speculazione filosofica, un principio la cui evidenza è apparsa così chiara da non ammettere possibilità di discussione. Particolarmente dopo lo sviluppo della matematica euclidea e pitagorica è sembrato che il principio di non contraddizione costituisse la base stessa del pensiero cosicché la sua negazione equivalesse alla negazione del pensiero.
Tale intangibilità del principio di non contraddizione ha portato il pensiero umano a dibattersi per millenni nell’ambito di contraddizioni insanabili. Tutti i grandi temi della filosofia possono infatti essere ricondotti allo scontro con il principio di non contraddizione ed è anche possibile mostrare come tali temi siano tutti interconnessi così che la soluzione dell’uno condiziona la soluzione dell’altro.
Innanzi tutto i problemi della compatibilità del continuo con il discreto, introdotti da Zenone, sono connessi con le famose antinomie della dialettica trascendentale kantiana in quanto riconducibili alla contraddizione fra la logica dell’infinito e la logica del finito cui gli stessi paradossi zenoniani conducono.
Ma anche il problema della soggettività o della oggettività della conoscenza, forse il più dibattuto da Platone in poi, è riconducibile al problema del continuo, anche se ciò può non apparire, a prima vista, evidente.
Il tentativo di risolvere il problema del continuo portò infatti Leibniz ad inventare la monade, elemento chiuso, le cui modificazioni sono esclusivamente rappresentabili in termini di introversione ed estroversione del proprio contenuto (cfr.il mio studio “Interpretazione monadistica della meccanica ondulatoria e della relatività” su Sistematica, n°1/84) che coincidono, al livello della monade complessa dello spirito, con i fondamentali momenti dialettici hegeliani in cui la sostanza si pone come soggetto o si riconosce nell’oggetto.
Questo mio lavoro si pone l’obiettivo di chiarificare ulteriormente questa connessione, cioè di mostrare più direttamente come la soluzione del problema del continuo attraverso la negazione del principio di non contraddizione porti, sul piano fisico, alla determinazione della necessità di un processo oscillatorio che coincide, sul piano logico, con il processo dialettico di Hegel.
Ciò permette di confermare sia la concezione hegeliana della coincidenza della logica con la metafisica,, riportata anzi più concretamente, come già fece Helmoltz, sul piano della fisica, sia la conseguente fenomenologia dello spirito, che vede l’alternanza delle posizioni soggettivistica ed oggettivistica.
Il problema del continuo consiste nello stabilire se la realtà sia divisibile all’infinito o se i suoi componenti elementari debbano essere considerati come elementi discreti. Il problema fu dibattuto a lungo dalla filosofia ed è tuttora attuale. Un momento importante di tale discussione fu segnato da Aristotele con la sua divisione analitica fra infinito potenziale ed infinito attuale (o completato, come anche vien detto) secondo cui il concetto di suddivisione all’infinito poteva essere assunto sul piano concettuale, o potenziale, anche se non realizzabile nella realtà. E’ da notare che tale visione aristotelica domina ancora larga parte del pensiero logico matematico se alla fine del diciannovesimo secolo Dedekind diceva che l’infinito completato non poteva avere alcuna realtà, ma era solo una “facon de parler”.
Nell’ambito dellla fisica Louis  de Broglie è stato il primo a sostenere esplicitamente il  superamento del principio di non contraddizione. Egli sostenne la esistenza reale dei due aspetti che apparivano contradditori nel caso della luce che a seconda delle circostanze può assumere sia l’aspetto corpuscolare che l’aspetto ondulatorio. Egli affermò che bisognasse associare le due opposte componenti sia a tutta la materia sia al ragionamento. Queste le sue parole: “Il principio di contradditorietà complementare deve rimpiazzare il principio di non contraddizione come fondamento della logica” (riportate da Stefane Lupasco in L’experience  macroscopique et la pensé humaine. PUF 1941 pag. 286). Cionondimeno in questo studio siamo particolarmente interessati alla visione di Newton che fu il primo a smuovere la posizione di stallo in cui tale problema si trovava ormai da millenni anche se la sua soluzione costituisca un’accettazione della contraddizione non conscia ma nascosta sotto le giustificazioni dell’artificio matematico e della operatività pratica di esso.
Nella sua soluzione, che segnò la nascita del calcolo infinitesimale, si assume il limite, entità discreta, come equivalente di una successione infinita di elementi che per quanto si avvicinino sempre di più al limite non è lecito assumere, sul piano filosofico, che lo raggiungano
Ciò che permise a Newton di scavalcare il problema filosofico è costituito dal fatto che, se l’elemento di una successione si approssima sempre di più ad un determinato limite, esso raggiunge sempre certamente un valore per il quale la differenza dal limite è, a qualsiasi effetto pratico, trascurabile.
La visione di Newton permette, attraverso il concetto di limite, di suddividere una infinità di punti in altre infinità, concezione che ha portato successivamente agli spettacolari sviluppi matematici di Cantor. E’ da notare come tali sviluppi siano stati resi possibili da una ripetizione da parte di Cantor del procedimento newtoniano, cioè dall’accantonamento del problema filosofico, per andare comunque avanti, giustificando il superamento del principio di non contraddizione con argomenti pratici. In particolare egli affermava che per la validità delle sue teorie sugli infiniti era sufficiente che esse avessero una “coerenza interna”, posizione evidentemente di astensione sul fondamentale problema della coincidenza della logica, sia pure matematica, con la realtà fisica.
Gli enormi sviluppi aperti da tale invenzione di Newton, che hanno permesso un incredibile avanzamento di tutte le scienze, debbono però far riflettere sul fatto che, in fondo, essi sono stati determinati da un superamento pratico del principio di non contraddizione. Ciò particolarmente se si considerano gli ulteriori sviluppi della filosofia. Innanzi tutto la visione di Leibniz che, sviluppando e amplificando il concetto di limite, come “discreto contenente il continuo”, pervenne al concetto della monade che rappresenta tuttora un formidabile strumento di sintesi scientifica. Quindi la visione di Kant che, nello sviluppo ad essa dato da Schopenhauer, mostra il principio di ragione, entro cui si pone il principio di non contraddizione, come un elemento regolatore nell’ambito fenomenico e quindi spazio-temporale, di contenuti noumenici in cui tale principio non sussiste. Infine la visione di Hegel che fa della coincidenza degli opposti, che implica il superamento del principio di non contraddizione, addirittura l’elemento formativo della realtà.Se quindi accettiamo l’idea schopenhauriana che il principio di ragione e quindi il principio di non contraddizione, sia un momento dell’inquadramento nello spazio-tempo di elementi in cui esso non sussiste, una specie di ordine di successione di manifestazione degli opposti, allora tali opposti devono sussistere uno accanto all’altro, nell’atomo spazio-temporale, nell’infinitesimo. Ne consegue che la soluzione di Newton in cui attraverso un artificio matematico si è accettata l’esistenza di una contraddizione sul piano infinitesimale, deve portare, sul piano macroscopico, ad una alternanza di opposte determinazioni, ad una oscillazione, cosa che ci proponiamo di dimostrare attraverso il riesame di alcuni importanti risultati newtoniani.
Riesame dello studio di Newton sull’interazione gravitazionale di due gravi.           Ricordiamo, prima di iniziare tale riesame, che quando due insiemi di punti sono tali che ad ogni punto dell’uno corrisponde una infinità di punti dell’altro, si dice che il secondo insieme è infinito di ordine superiore rispetto al primo. Riprendiamo in esame una delle più importanti applicazioni di questi concetti fatta da Newton, vale a dire l’analisi del moto di allontanamento di due gravi di massa me m caratterizzato in ogni istante da un certo valore della velocità e quindi dell’energia cinetica E, della forza gravitazionale F e della distanza s. La novità dell’impostazione di Newton, connessa all’applicazione dei suoi nuovi concetti, consistette nel porre a raffronto, anziché valori corrispondenti delle variabili, il valore del gradiente di una variabile in corrispondenza di ogni valore di un’altra.In particolare, assumendo che la variazione di velocità determini una forza capace di bilanciare la forza gravitazionale,, si assume anche implicitamente che i punti velocità costituiscano un insieme infinito di ordine superiore rispetto all’insieme dei punti forza, cosicché occorre porre in relazione un gradiente, che comprende un numero infinito di punti, della velocità per ogni valore, che comporta un solo punto, della forza. Nell’ipotesi che i punti forza costituiscano un infinito dello stesso ordine dei punti distanza,, così che sia equivalente riferirsi ai punti forza o ai punti distanza, si può allora scrivere:
                                                                                                                                                       ;                                      dE = -Fds             (1)
da cui, esplicitando l’espressione della forza gravitazionale ed integrando, si ottiene la funzione dell’energia di Newton
                                                                                                                                                                                          E = -km1m2/s +C             (2)
dove k è la costante di gravitazione universale e C una costante arbitraria.Ma l’ipotesi che l’insieme dei punti forza sia un infinito dello stesso ordine dell’insieme dei punti distanza non è corretta. La forza gravitazionale presenta, in corrispondente di ogni gradiente della distanza, un gradiente più elevato e ciò, per la ipotesi di continuità che sottende al calcolo infinitesinale, implica che l’insieme dei punti forza sia di ordine superiore rispetto all’insieme dei punti distanza. La forza è, inoltre, espressione di una quantità (o gradiente) di energia impedita a manifestarsi come energia cinetica e costretta quindi a manifestarsi come quantità (o gradiente) di energia potenziale nella particolare forma (che può essere transitoria) della forza.
Poiché la presenza di una velocità e quindi di una energia cinetica implica la sostituzione dei punti spazio associati ad un altro punto (nei cui confronti sussiste) nei successivi punti tempo, cioè una operazione di moltiplicazione che si sviluppa nel tempo, la sostituzione dell’energia cinetica con l’energia potenziale implica che la moltiplicazione , impedita a manifestarsi nell tempo,, si manifesti nello spazio.
Ciò quindi implica, malgrado la difficoltà di rappresentazione (che d’altra parte si ha in tutti i casi di sovrapposizione di infinità di punti di differente ordine, ad esempio delle infinità di punti rappresentanti i numeri razionali ed i numeri irrazionali) che ad ogni punto-distanza debba essere associata una molteplicità di punti forza.
Ora, la variazione dell’energia cinetica e quindi della velocità si verifica in corrispondenza di ogni punto-forza e determina, per la definizione stessa di velocità, una variazione dell’intervallo ds percorso nell’intervallo di tempo dt. Per conseguenza, nell’ipotesi di una molteplicità di punti forza contenuti nell’intervallo elementare ds (che al limite può essere fatto coincidere con il singolo punto-distanza) la variazione della energia cinetica si verifica non solo fra gli intervalli ds relativi ai successivi intervalli temporali, ma anche nell’interno dell’intervallo ds. In altre parole, occorre prendere in considerazione una derivata seconda dell’energia rispetto alla distanza.
In conseguenza delle suddette considerazioni la funzione dell’energia che nella trattazione di Newton è data dalla (2), deve invece contenere un addendo che rappresenta l’apporto delle derivate seconde, cioé:

E = -km1m2/s + f(s) + C                 (3)

dove f(s) è una funzione crescente della distanza, il cui effetto, dipendendo dalla derivata seconda che è infinitesima di ordine superiore rispetto alla derivata prima, si manifesta su distanze di ordine superiore rispetto alle distanze su cui si manifesta -km1m2/s, vale a dire distanze molto grandi.
Ciò, nel mentre non intacca la validità dei risultati di Newton nell’ambito di distanze che non siano di ordine superiore, ha importanti conseguenze ai nostri fini. Secondo la formula di Newton (2), una volta che l’energia cinetica abbia, in corrispondenza di una certa distanza s, valori negativi (o di allontanamento) in valore assoluto eguali o superiori a km1m2/s, al crescere della distanza essa tende a zero meno rapidamente della forza gravitazionale, cosicché il moto di allontanamento diviene irreversibile. Secondo la (3) invece e sia pure nell’ambito delle distanze di ordine superiore, al crescere della distanza l’energia cinetica acquisisce una componente positiva, o di avvicinamento, che la fa tendere a zero più rapidamente dell’attrazione gravitazionale, cosicché l’inversione della direzione del moto quando l’energia cinetica si annulla si verifica sempre e necessariamente per tutti i sistemi in espansione.

Il superamento del principio di non contraddizione nell’infinitesimo porta quindi all’alternanza delle opposte determinazioni nel finito, cioè al processo dialettico di Hegel.
Come abbiamo avuto modo di mostrare, la coesistenza delle opposte tendenze nell’infinitesimo è resa possibile dalla diversa struttura infinitesimale dello spazio-tempo, della forza e dell’energia. Tali conclusioni hanno importanti conseguenze nell’ambito della fisica statistica. Secondo la formula di Newton (2), l’oscillazione sarebbe limitata al solo caso particolare di energia cinetica inferiore (in valore assoluto) al valore km1m2/s, ma non potrebbe in ogni caso emergere al livello di sistema macroscopico, cioè di sistema composto di una molteplicità di componenti per le modificazioni direzionali indotte dagli urti.
Ciò porta a definire come ipotesi fondamentale della fisica statistica la tendenza dei sistemi isolati macroscopici al cosiddetto “equilibrio statistico”, che individua una condizione di distribuzione omogenea delle variabili fisiche nel sistema. Da tale ipotesi deriva la legge dell’aumento dell’entropia , cioè dell’aumento del disordine nei sistemi isolati, che rende inspiegabili i fondamentali meccanismi di formazione dell’ordine nell’universo.
Tenendo conto della (3) invece, si ricava che i sistemi isolati, se hanno un adeguato livello dell’energia, assumono nell’ambito delle distanze di ordine superiore, che escludono un’alta frequenza di urti, una condizione oscillatoria ben differente dall’equilibrio statistico, condizione che permette la formazione dell’ordine.

Le conclusioni raggiunte in questo lavoro sono la trasposizione, nella meccanica newtoniana, di conclusioni già raggiunte da Einstein. La contrazione dell’intervallo elementare ds che dà luogo al secondo termine al secondo membro della (3), corrisponde infatti alla contrazione di Lorentz-Einstein nella sua rielaborazione consentita dalla teoria della relatività generale che stabilisce una equivalenza tra la forza gravitazionale e uno spostamento curvilineo, equivalenza corrispondente all’assunzione di un insieme di punti forza infinito di ordine superiore rispetto all’insieme infinito dei punti distanza.

Sulla entropia termodinamica di Clausius

1-Richiamo di alcuni fondamentali proposizioni di analisi infinitesimale.
L’integrale indefinito di una funzione f(x) è determinato a meno di una costante C, cioè:

f(x)dx = F(x) + C            (1.1)

giacché ovviamente la derivata di una costante è zero.
L’ integrale definito nell’intervallo di integrazione (a,b), cioè la differenza della funzione integrale fra i punti finale e iniziale, è allora

(a,b)f(x)dx = F(b) + C – F(a) – C = F(b) – F(a)          (1.2)

dove la eventuale componente costante scompare. Ovviamente, tale differenza può assumere un solo valore perché una sola è la variabile da cui la funzione dipende, si dice che il differenziale dy = f(x)dx è un differenziale esatto.
Se però noi partiamo dall’integrale definito in (a,b) cioè dalla (1.2), non possiamo dire che, poiché il differenziale è esatto la f(x) sia funzione solo della x perché la funzione potrebbe dipendere anche da un’altra variabile che è assente o si mantiene a valore costante nella nostra condizione sperimentale, ma potrebbe invece esistere e variare in un’ altra condizione sperimentale.
Il risultato può essere esteso alle funzioni di più variabili; ai nostri fini interessa però il caso di una funzione di due variabili. Il fatto che il suo differenziale sia esatto, cioè che l’integrale definito sia determinato dai valori assunti dalle due variabili negli estremi dell’intervallo di integrazione, non esclude l’esistenza di altre variabili indipendenti che siano assenti o si mantengano costanti nelle nostre condizioni sperimentali.
Vale quindi la considerazione che, se il differenziale di una funzione di due variabili non è esatto, deve necessariamente esistere una causa della sua variabilità, A differenza però di quanto detto per la funzione di una sola variabile, in questo caso la causa può non essere costituita da una terza variabile ignota da cui dipende la funzione, ma dal rapporto fra le due variabili note che può variare nelle diverse condizioni sperimentali.

Agganciandoci al lavoro di Pfaff [1] sulle equazioni differenziali possiamo affermare che in questi casi, che definiscono la cosiddetta “variabilità di scala”, è sempre possibile trovare un fattore di integrazione che permetta l’integrazione del differenziale (cioè lo renda esatto). É evidente allora che se proviamo ad integrare una funzione che riteniamo dipendere da due sole variabili indipendenti e la integrazione risulta impossibile perché il differenziale risulta inesatto, dobbiamo prima verificare se tale inesattezza è dovuta ad una variabilità di scala ricercando un possibile fattore di integrazione. Se però risulta impossibile trovare un fattore di integrazione, la funzione non può variare in funzione solo di due variabili indipendenti, essa necessariamente varia in funzione di almeno tre variabili indipendenti.
Dimostriamo allora che, in un caso particolare in cui la funzione di due variabili indipendenti ha un differenziale inesatto per la presenza di una variabilità di scala, tale variabilità viene eliminata dalla moltiplicazione della funzione per un fattore di integrazione.

2 – Eliminazione della variabilità di scala della funzione prodotto.
Sia z una funzione del prodotto yx, a sua volta ovviamente funzione delle due variabili indipendenti y ed x. Consideriamo quindi, nel piano di coordinate y ed x un intervallo definito dai valori assunti dalle coordinate ai suoi estremi e, in tale intervallo, tutte le traiettorie che possono unirne i punti iniziale e finale. Sia ds la componente elementare della traiettoria generica s. Possiamo scrivere:

dz=(dz/dyx) d(yx)/ds ds                        (2.1)

e tale differenziale non può essere esatto, ossia il suo integrale non può essere costante passando da una traiettoria all’altra perché già l’integrale di ds, che esprime la lunghezza della traiettoria, è variabile da una traiettoria all’altra.
Quindi, non è sufficiente che la funzione z dipenda solo da due variabili perché il suo differenziale sia esatto: occorre che la funzione y=f(x) che identifica la traiettoria nel piano di coordinate y ed x, venga definita univocamente, cioè sia eliminata la variabilità di scala.
Dimostriamo che la divisione del differenziale dz per il prodotto yx elimina la variabilità di scala, ossia che 1/yx costituisce un fattore di integrazione che rende esatto il differenziale dz se la sua inesattezza dipende solo dalla variabilità di scala del prodotto yx.

In ogni punto del piano di coordinate y ed x vi sono due direzioni che identificano variabili che non possono essere direttamente interdipendenti. Queste direzioni sono: la direzione w identificata dalla linea che congiunge il punto con l’origine degli assi, in cui può variare il prodotto yx ma non il rapporto y/x e la direzione u, identificata dall’iperbole equilatera che passa attraverso il punto in cui può variare il rapporto y/x ma non il prodotto yx.
Conseguentemente, in ogni punto della traiettoria il differenziale ds può essere diviso nella componente d(yx) in direzione w e nella componente d(y/x) in direzione u. Poiché z è funzione del prodotto yx e quest’ultimo può variare  solo nella direzione w, possiamo così riscrivere la (2.!)

dz = dz/d(yx) d(yx)/dw dw                  (2.2)

Proiettiamo dunque ds sulle due direzioni w e u (vedi figura) così ottenendo i segmenti dw e du cui corrispondono i differenziali d(yx) e d(y/x). In figura abbiamo anche tracciato l’asse di simmetria del primo quadrante del piano  di coordinate y ed x, ossia l’asse inclinato a 45 gradi passante per l’origine degli assi e che abbiamo indicato con il simbolo w’. Proiettiamo quindi il punto esaminato sull’asse di simmetria. Il triangolo definito dai segmenti w e w’ ed il triangolo definito dai segmenti w+dw e w’+dw’ sono simili e noi possiamo quindi scrivere:

dw/w = dw’/w’

Ciò si verifica quale che sia la congiungente con l’origine degli assi e quindi, sostituendo w con la sua espressione in termini di prodotto yx:

dw/yx = C                           (2.3)

dove C è una costante. Vediamo cosa ciò comporta. Come abbiamo già detto, ogni elemento di traiettoria ds può essere considerato come composto da uno spostamento lungo la congiungente il punto iniziale con l’origine degli assi, in cui varia il prodotto yx e uno spostamento lungo l’iperbole, in cui il prodotto yx non varia, ma varia il punto finale dell’elemento che è poi quello iniziale del successivo elemento di traiettoria che per conseguenza  giace su una diversa congiungente  con l’origine degli assi in cui la progressione del prodotto yx è diversa. Il differenziale dw, componente elementare della traiettoria nella variabile yx varierà dunque in dipendenza  della lunghezza dello spostamento lungo l’iperbole da cui dipende il suo spostamento su una diversa semiretta che inizi dall’origine degli assi. Come abbiamo mostrato in figura, tutti i segmenti che esprimono la variazione  dw nei vari assi hanno la stessa proiezione sull’asse di simmetria cui corrisponde, come mostrato nella (2.3) la divisione del differenziale dw per il prodotto yx. La variabilità di scala del differenziale dw che, come si vede, dipende dalla scelta iniziale del rapporto y/x di ogni elemento di traiettoria, da cui dipende la determinazione della congiungente con l’origine degli assi, è stata dunque eliminata dividendo per yx. Quindi, nell’espressione del differenziale dz/yx:

dz/yx =dz/d(yx) d(yx)/ds ds/yx                  (2.4)

il solo elemento che può variare con è dz/d(yx), ossia la inesattezza di dz/yx può essere dovuta esclusivamente alla variabilità di dz a parità di d(yx), quindi ad una terza variabile.

3- I dati sperimentali e la loro interpretazione.
Consideriamo un sistema gassoso che riceve calore dall’esterno ed esegue lavoro sull’esterno. Per la prima legge della termodinamica possiamo scrivere:

dq = dU + dW                (3.1)

dove dq è la quantità elementare di calore assorbita dall’esterno, dU l’aumento elementare dell’energia interna, dW la quantità elementare di lavoro eseguito sull’esterno e dove i due termini al secondo membro sono funzioni delle variabili di stato p, pressione e v, volume.

I risultati delle prime trasformazioni termodinamiche progettate per trasformare in lavoro le forze sviluppate da un disequilibrio termico mostrarono che il differenziale dq relativo ad una variazione elementare delle variabili di stato non è integrabile, non costituisce cioè un differenziale esatto laddove, dividendo entrambi i membri della (3.1) per la temperatura T, almeno in un certo tipo di trasformazioni (le reversibili), il differenziale dq/T diviene esatto.
Vennero dunque introdotti due tipi fondamentali di trasformazioni, le irreversibili e le reversibili e si osservò che il rapporto dq/T fra la quantità elementare di calore assorbito e la temperatura è un differenziale inesatto nelle variabili che definiscono lo stato nelle trasformazioni irreversibili, mentre è un differenziale esatto nel caso delle trasformazioni reversibili. Inoltre, a parità di stato, il rapporto dq/T ha un valore minore nelle trasformazioni irreversibili. Ciò può essere espresso per mezzo della seguente formula:

(dq/T)i < (dq/T)r                   (3.2)

dove l’introduzione dei due tipi di trasformazioni – irreversibili e reversibili – è rappresentato dagli indici sottoscritti che accompagnano i differenziali e dove inoltre il differenziale sulla sinistra è inesatto mentre quello sulla destra è esatto.
Consideriamo adesso la spiegazione che può essere data dei risultati sperimentali ottenuti partendo dalla constatazione che la quantità dq non è integrabile nei confronti delle variabili di stato mentre lo è la quantità dq/T, almeno nell’ambito delle trasformazioni reversibili.
La spiegazione è molto semplice dopo quanto abbiamo fin qui esposto: la non integrabilità del differenziale dq in funzione di due variabili, cioè la sua variabilità, implica semplicemente che sul fenomeno agisce una terza variabile. L’affermazione che una variabilità presuppone una variabile può sembrare lapalissiana; tuttavia può accadere che la terza variabile non sia una variabile indipendente che agisca direttamente sulla funzione, ma giaccia nel rapporto dimensionale fra le altre due variabili, che la variabilità sia cioè una variabilità di scala. In  questi casi però il differenziale può essere sempre reso esatto mediante la moltiplicazione per un fattore di integrazione; per conseguenza, quando non esiste un fattore di integrazione che renda integrabile la funzione è giocoforza riconoscere che sul fenomeno agisce una terza variabile.
Nel caso di specie quindi, sussistendo un fattore di integrazione rappresentato dal rapporto 1/T, la variabilità del differenziale dq è una variabilità di scala, giace cioè nel rapporto dimensionale  fra le due variabili di stato pressione e volume. Prendendo infatti in considerazione l’equazione di stato dei gas perfetti:

pv = RT                  (3.3)

dove R è la costante dei gas e T la temperatura, possiamo scrivere:

dq/T = Rdq/pv              (3.4)

e tenendo presente la (2.4) possiamo quindi dire che dq/T è l’espressione normalizzata, del differenziale dq, in cui cioè sono eliminati gli effetti della variabilità del rapporto fra le due variabili indipendenti, detta variabilità di scala.
Per conseguenza la diversità dei risultati dell’integrale di dq/T, pur a parità dei valori assunti dalle due variabili di stato note (p e v) agli estremi dell’intervallo di integrazione espressa dalla (3.2), implica necessariamente l’esistenza nelle trasformazioni irreversibili di una terza variabile di stato che è assente o si mantiene costante nelle trasformazioni reversibili.
Alla luce della teoria cinetica dei gas è abbastanza ovvio legare la terza variabile di stato alla distribuzione interna dei microstati. E’ infatti verosimile che la distribuzione interna dei microstati influenzi l’energia e la frequenza delle molecole dirette verso le resistenze esterne e per conseguenza il lavoro fatto su di esse. L’integrale di dq/T, raggiunge il suo massimo nelle trasformazioni reversibili per effetto di una certa distribuzione  dei microstati che implica un equilibrio termico interno ossia l’assenza di disequilibri interni che riducano  la frequenza delle molecole dirette verso le resistenze esterne. Le trasformazioni irreversibili, invece, involvono disequilibri interni che riducono il numero di molecole dirette verso le resistenze esterne e quindi il lavoro che può essere fatto su tali resistenze. Ciò giustifica il segno < nell’equazione (1.5).
Se i disequilibri interni fossero costanti nel corso delle trasformazioni, per tutte le trasformazioni aventi un determinato valore  dei disequilibri, il differenziale dq/T sarebbe un differenziale esatto, quantunque minore che nella condizione di equilibrio; ma per il postulato di Carnot e Clausius, secondo cui il calore fluisce dalle zone a più alta temperatura verso quelle a più bassa temperatura, il disequilibrio interno si riduce gradualmente nel corso della trasformazione. La velocità con cui il disequilibrio si riduce può essere diversa da una traiettoria all’altra pur con lo stesso valore iniziale dei disequilibri ed è così causa di inesattezza del differenziale.
La terza variabile potrebbe essere perciò identificata nell’entropia statistica di Boltzmann [7] che costituisce un indice che misura il livello di omogeneizzazione della condizione di stato nel sistema e che riferendoci, come si fa in statistica, al diagramma distribuzionale delle frequenze, sarebbe un indice di “concentrazione” della distribuzione di frequenza dei microstati.

4 – L’interpretazione di Clausius.
Secondo Clausius invece, l’esattezza del differenziale dq/T nelle trasformazioni reversibili implica che il suo integrale sia dipendente unicamente dalle due variabili di stato p e v con ciò escludendo che possa esistere  una terza variabile di stato non identificata che agisca in termini differenziali nelle trasformazioni irreversibili.
Si tratta di un errore perché contraddice un risultato elementare  del calcolo differenziale che è anche intuitivo; è evidente infatti  che, nell’ipotesi di assenza o di costanza di una terza variabile, essa non potrebbe influenzare il differenziale della funzione  dovuto alla variazione delle altre due variabili di stato, ma potrebbe farlo in altre condizioni sperimentali in cui sia presente e variabile da una trasformazione all’altra  e magari anche nell’ambito di una stessa trasformazione.
Se poi, con gli stessi valori delle variabili di stato che definiscono l’intervallo di integrazione e con la sicura assenza di una variabilità di scala (eliminata con la divisione per T), come avviene nelle trasformazioni irreversibili, la funzione risulta non integrabile, allora la presenza di una terza variabile di stato costituisce una certezza matematica. La negazione di quest affermazione  costituirebbe anzi la negazione di un principio fondamentale del metodo scientifico secondo cui se la ripetizione  di un esperimento con gli stessi precisi valori delle variabili dà luogo ad un risultato diverso, allora deve sussistere una ulteriore variabile che nel precedente esperimento non agiva.
Partendo dunque dalla erronea idea  che l’integrale del differenziale dq/T sia funzione delle sole variabili p, pressione e v, volume, Clausius ne deduce che esso dovrebbe pertanto sussistere, con lo stesso valore, anche nei corrispondenti stati delle trasformazioni irreversibili (ossia stati con gli stessi valori di p e v). Ma, pur a parità dei valori delle variabili di stato, il rapporto dq/T  è nelle trasformazioni irreversibili più basso del valore che compare nelle trasformazioni reversibili. Al fine di superare questa difficoltà Clausius suppose l’esistenza di una funzione dipendente unicamente dalle due variabili di stato, quindi a differenziale esatto, chiamata entropia, generalmente indicata con il simbolo S, che costituirebbe il supporto interno del lavoro esterno, la capacità produttiva. Questa capacità potrebbe essere completamente utilizzata nelle trasformazioni reversibili dando luogo all’integrale  di (dq/T)r che potrebbe pertanto essere assunto anche come misura di questa capacità e sarebbe invece solo parzialmente utilizzata nelle trasformazioni irreversibili, dando luogo all’integrale di (dq/T)i che potrebbe quindi essere assunto a misura dell’entropia utilizzata in queste trasformazioni, ma sussisterebbe comunque anche la parte inutilizzata, chiamata “produzione interna di entropia” e indicata con il simbolo dSi in misura tale che sommata alla parte utilizzata ricostituisca il valore dell’entropia delle trasformazioni reversibili, così salvando la affermazione che l’entropia è funzione unicamente delle due variabili di stato p e v. Si avrebbe cioè:

(dq/T)i + dSi  = (dq/T)r              (4.1)

Clausius applicò cioè un metodo simile a quello adottato da Newton nella trattazione della interazione gravitazionale di due gravi. Dovendo soddisfare la legge di conservazione dell’energia in fase di allontanamento dei due gravi, in cui l’energia cinetica andava diminuendo, introdusse una forma invisibile di energia che definì potenziale e tale artificio permise la sussistenza della teoria che, d’altra parte, funzionava perfettamente in termini  di risultati sperimentali. Come è noto, la teoria fu corretta da Einstein [6] che spiegò trattarsi di trasformazione di energia in massa e che la differenza nei risultati ottenibili con le due teorie era inavvertibile per effetto della enorme dimensione del rapporto di trasformazione energia-massa.
Ma l’introduzione della energia potenziale di Newton fu dovuta a quella che sembrava una necessità inderogabile, quella di soddisfare la legge di conservazione dell’energia, così non contraddicendo il fondamentale principio epistemologico  “entia non sunt multiplicanda preater necessitatem” mentre la necessità che portò Clausius all’ introduzione dell’entropia e della produzione interna di entropia non sussisteva del tutto, ma era frutto di un errore analitico.
Anche la teoria di Clausius fu accettata perché sembrava che funzionasse perfettamente ai fini pratici in cui la variazione della produzione interna di entropia di Clausius svolgeva in fondo la stessa funzione della variazione dell’entropia statistica talché lo stesso  Boltzmann [7] ne sostenne l’equivalenza.
Tuttavia, secondo la teoria di Clausius, in ogni stato caratterizzato da un certo valore delle variabili di stato p e v, l’entropia dovrebbe essere presente in corrispondenza univoca, anche in presenza  di un valore minore del rapporto dq/T mostrato dalla trasformazione irreversibile rispetto al valore mostrato nello stesso stato della trasformazione reversibile, in quanto la parte residua sarebbe coperta dalla parte “invisibile” costituita dalla produzione interna di entropia. La presenza di una parte “invisibile” dell’entropia statistica che è un indice di omogeneizzazione, cui corrisponde quindi una forma della struttura delle interazioni interne al sistema, è un concetto impossibile da accettare nella costruzione di Boltzmann anche se lo stesso Boltzmann non aveva colto questo aspetto. E’ infatti ovvio che una grande varietà di disomogeneità distribuzionali dei microstati può sussistere in corrispondenza degli stessi valori delle variabili p e v e che per conseguenza nella costruzione di Boltzmann  l’entropia è una variabile idi stato indipendente, mentre nella costruzione di Clausius è una variabile dipendente dalle variabili  p e v da lui considerate le uniche variabili di stato.
In realtà però nella maggior parte dei casi pratici il risultato di un basso valore dell’indice di omogeneizzazione (entropia statistica) è  quello di ridurre l’assorbimento di calore e la produzione di lavoro a fronte di una capacità teorica che il sistema avrebbe con un alto indice di omogeneizzazione, cioè lo stesso effetto di un alto valore della produzione interna dell’entropia termodinamica di Clausius. A differenza però di quanto accaduto per l’energia potenziale di Newton, in cui l’errore concettuale. operando su elementi infinitesimali, non poteva avere conseguenze sui risultati pratici, nel caso della teoria di Clausius possono mettersi in evidenza condizioni in cui la teoria può essere falsificata non solo sul piano logico (come abbiamo già fatto per quanto riguarda il significato dell’esattezza e della inesattezza del differenziale della quantità normalizzata di calore assorbito) ma anche dei risultati sperimentali, di alcuni dei quali riferiremo più avanti.

5- La formulazione di Clausius della seconda legge della termodinamica.
Desideriamo infatti mostrare con precedenza quali errori possono farsi nella impostazione di una teoria quando l’obiettivo è solo quello di giustificare i risultati ottenuti dall’esperienza non tenendo conto che gli stessi risultati possono essere giustificati da una infinità di teorie mentre una sola è quella che più si avvicina alla realtà o meglio che ha la massima ampiezza di validità euristica.
Esaminiamo a tal fine il ragionamento che ha portato Clausius alla sua enunciazione della seconda legge della termodinamica partendo dalla sua relazione tra le trasformazioni irreversibili e quelle reversibili:

(dq/T)i + dSi  = (dq/T)r              (4.1)

con il significato dei simboli che ormai conosciamo e dove i differenziali sono riferiti ad una variazione elementare del tempo.
Clausius considera quindi una trasformazione irreversibile di un sistema isolato e, poiché nei sistemi isolati non  sono possibili scambi con il mondo esterno, ritiene che il rapporto  (dq/T)i debba considerarsi identicamente nullo. Sostituendo per conseguenza zero a (dq/T)i  nella (4.1) si ottiene:

(dq/T)r = dSi ≥ 0                   (4.2)

e l’entropia quindi aumenterebbe per effetto della positività della produzione interna di entropia dSi.In ciò consiste la formulazione della seconda legge della termodinamica secondo Clausius.
Tale formulazione presenta difetti logici che a me sembrano assai evidenti. Infatti, in un sistema che, a parte eventuali vincoli di contenimento, sia per altri versi isolato, non può esistere alcuna trasformazione perché mancherebbe il motore del processo costituito dall’afflusso di calore dall’esterno. In particolare non può esistere alcuna trasformazione irreversibile, a meno che un disequilibrio interno sia la conseguenza temporanea di un calore assorbito dall’esterno prima che il sistema divenisse isolato. Tale quantità di calore è dunque parte integrante della trasformazione perché è all’origine della sua stessa esistenza e quindi delle modifiche in atto anche dopo l’inizio dell’isolamento.
Se dunque si vuole considerare quella parte della trasformazione che si manifesta dopo l’isolamento del sistema occorre ricordare che la (4.1) esprime la relazione fra le componenti dell’entropia in ogni stato della trasformazione nella ipotesi che l’entropia totale non sia una variabile indipendente, ma sia una funzione delle due variabili di stato p e v. Quindi, seguendo la teoria di Clausius, se ne trae che esistendo le due variabili di stato in ogni punto della trasformazione, deve esistere anche l’entropia totale e quindi anche le sue due componenti. L’applicazione della (4.1) alla trasformazione irreversibile del  sistema  isolato deve quindi comportare necessariamente a sinistra l’addendo (dq/T)i non come indicatore della quantità di calore in fase di assorbimento, ma come componente necessaria dell’entropia totale. Naturalmente deve comportare anche la presenza della componente dSi,  ma la componente (dq/T)i può solo crescere man mano che diminuisce la componente dSi. Infatti. per la tendenza del calore al passaggio dalle zone calde alle zone fredde (postulato di Carnot-Clausius) si raggiunge gradualmente  la condizione di completa omogeneizzazione del sistema e quindi la scomparsa della componente dSi, legata alle condizioni di disomogeneità del sistema. Quindi in un sistema isolato non potendosi verificare alcuna variazione delle variabili di stato (nell’ipotesi di un volume limitato) non può verificarsi alcuna variazione dell’entropia termodinamica totale; può solo verificarsi la scomparsa della componente dSi per la scomparsa dei disequilibri interni.
Con ciò non significa negare  che in un sistema isolato, in cui esistano inizialmente condizioni di disequilibrio termico, quindi in uno stato provvisorio, determinato da una precedente condizione di non isolamento, tenda verso una condizione di equilibrio termico, cui corrisponde il valore massimo dell’entropia statistica che esprime appunto il livello di omogeneizzazione dello stato del sistema, ma questa è una condizione che deriva direttamente dal postulato di Carnot-Clausius, senza necessità di passare per il fantasioso ragionamento di Clausius. Per alcuni autori infatti la seconda legge della termodinamica coincide semplicemente con il postulato di Carnot Clausius. E’ però senza dubbio importante l’accento che l’introduzione delle trasformazioni reversibili ed irreversibili pone sulle modalità con cui la trasformazione termodinamica, basata sullo sfruttamento di un disequilibrio termico, viene eseguita, modalità che possono portare, in misura maggiore o minore, a movimenti interni dei flussi di calore che si riflettono sull’efficienza del processo produttivo.

6-Conclusioni
Non sono mancate nel passato le voci critiche della teoria di Clausius, sopratutto a partire dalla fine del diciannovesimo secolo, con i lavori di Poincaré [2] e Zermelo e poi, agli inizi del ventesimo secolo, di Paul e Tatiana Ehrenfest [3] e sulla stessa linea sono alcune considerazioni di Planck che non  solo prospettavano l’esigenza  di una terza variabile di stato, ma la caratterizzavano come un vincolo interno al sistema, così centrando pienamente il problema [4], lavori tutti rimasti inascoltati come addirittura ignorati erano rimasti i risultati di Pfaff [1].
La teoria della termodinamica derivata dalla formulazione di Clausius conduce in casi particolari ad evidenti paradossi, quale l’impossibilità di una formazione iniziale di ordine nelle Galassie, mostrata da Gott [9] o quello di Finkelstein [11] secondo cui, seguendo le leggi della termodinamica classica, si dovrebbero ottenere, in certi processi, temperature assolute negative.
E’ poi erronea l’estensione della teoria, anche nella formulazione statistica di Boltzmann, dai gas al più generale campo dei sistemi complessi, come appare, ad esempio, nel paradosso di Lamprecht [10] che ha mostrato che esistono processi biologici che mostrano riduzioni di entropia che sono certamente di origine endogena. Nel caso dei gas infatti non è possibile controllare la direzione dei disequilibri interni che si formano durante il processo trasformazionale in quanto il calore, trasportato dalle molecole del gas contigue alla sorgente, si diffonde lungo tutte le direzioni deviando continuamente per effetto degli urti. Occorre, al fine di controllare la direzione dei disequilibri, la formazione di strutture di rigidità che fungano da canalizzazioni, cioè, nei termini di Prigogine [5], il passaggio dalla fase termodinamica alla fase cinetica del processo trasformazionale. Nella fase termodinamica, non è possibile ricostruire e ripercorrere i percorsi svolti dai flussi di calore e le trasformazioni sono irreversibili, nella fase cinetica le strutture rigide introducono dei vincoli al movimento delle molecole e quindi dei flussi di calore e le trasformazioni  possono divenire reversibili. Ma già i greci avevano capito che per rendere reversibile un percorso occorre un filo di Arianna; se il sentiero è segnato, ripercorrerlo in senso inverso non costituisce più un problema.
Nel caso più generale i sistemi complessi assumono un aspetto reticolare che consente l’indirizzamento dei flussi di energia nei nodi della rete.
Dunque, sia la teoria di Clausius che quella di Boltzmann, se applicate ai sistemi complessi, presentano il grave difetto di non tenere conto della direzione in cui i disequilibri interni si svolgono. Il disequilibrio interno sottrae energia al lavoro se la sua direzione è diversa da quella delle forze che producono lavoro, ma può invece aggiungere energia al lavoro se ha la stessa direzione. Il punto è estremamente importante perché è nel convogliare tutte le forze del sistema verso la resistenza esterna che consiste il nucleo fondamentale dell’organizzazione [5]. La diminuzione dell’entropia statistica può quindi avere effetti negativi o positivi sulla efficienza del sistema a seconda della direzione del disequilibrio che essa sottende.
Che le differenze fra le trasformazioni termodinamiche incontrate nelle applicazioni della seconda legge della termodinamica possano essere attribuite ad una variabile non ancora individuata, che tale soluzione abbia caratteristiche  di grande semplicità e verosimiglianza, laddove invece la soluzione data da Clausius al problema dia luogo, quanto meno, a dubbi e perplessità, non poteva sfuggire a tutti gli scienziati che la hanno studiata nel corso di più di un secolo e mezzo dalla sua formulazione, così che in realtà l’accettazione ottenuta dalla teoria di Clausius, che viene ancora insegnata nelle università, potrebbe sembrare uno dei misteri della scienza.. A mio parere ciò è dovuto all’enorme peso che, dopo Galileo, viene dato alla conferma sperimentale così che , quando questa sussiste, non si dà più luogo a discussione e le capacità critiche si addormentano. Malgrado che nell’ambito della logica si dimostri che un risultato vero può scaturire da una successione di passaggi logici falsi, ciò non scalfisce la fede assoluta nella teoria.
L’apporto alla filosofia della scienza di Karl Popper, uno dei maggiori filosofi del ventesimo secolo, à stato principalmente centrato su questo argomento. Egli ha mostrato che, anche in presenza  della conferma sperimentale, l’esistenza di errori nella catena dei passaggi teorici non solo ne limita la generalità, ma costituisce anche un ostacolo pesante all’ulteriore sviluppo della scienza. Egli ha quindi sostenuto che non occorre solo la conferma sperimentale, ma occorre il superamento di test di falsificazione, cioè studiati in modo di dirimere la validità di ogni passaggio elementare della teoria [14].
Ma, come abbiamo mostrato in questo studio, anche la attenta analisi matematica del processo logico può rivelare i punti deboli di una teoria, può, esprimendoci nel linguaggio di Popper, falsificarla, se ci si libera dalle costrizioni mentali dovute alla accettazione globale che possono trasformarla in una religione.

Riferimenti 
[ 1] – Pfaff, in Abb.d. Ber. Acad. (f814,815),presentato alla Berlin Academy il 11 maggio 1815.
[ 2] – Poincaré H.: Revue de Metaphysique et de Morale, 1893
[ 3] – Ehrenfest P., Ehrenfest T.: Encyclopedia of Mathematics, 1911
[ 4] – Planck M.: Annln. Phys., 19, 759, 1934, Physica, 2, 1029, 1935
[ 5] – Prigogine I., Nicolis G.: Self-Organization in Non-equilibrium Systems, Wiley, New York, 1977
[ 6] – Einstein A.: Uber die Spezielle und Allgemeine Relativitats-theorie, Lipsia, 1916
[ 7] – Boltzmann I.: Wien. Ber., 76, 373, 1877, K,Acad. Wiss. Sitzb, II Abt. 66, 275, 1871
[ 8] – Firrao S.: On Boltzmann Statistical Entropy, Cybernetics and Systems, 5, 20, September 1989
[ 9] – Gott R.J.: Recent Theories of Galaxy Formation, Annual Review of Astronomy and Astrophysics, 15, 1977
[10] – Lamprecht I.:Thermodynamics of Biological Processes, Lamprecht and Zotin eds., de Gruiter, Berlin, 1978.
[11] – Finkelstein R.J:Thermodynamics and Statistical Mechanics Freeman, San Francisco, 1969, 147
[12] – Firrao S.: Development of Oscillatory processes in Isolated High Energy Systems Cibernetica, XXXI, 4, 1988
[13] – Firrao S.:La formazione dell’ordine nelle Galassie Studi sui Sistemi Complessi, 2011, ISBN 978-1-4476-3406-5, Lulu.com
[14] – Popper K.:Logica della ricerca scientifica,1934, Einaudi,Torimo, 1970

Sui fondamenti relativistici della teoria dell’organizzazione

Le formule relativistiche di trasformazione fra sistemi in moto relativo, basate sulla invarianza trasformazionale del continuo spazio temporale e della somma energia + massa, sono molto importanti, come ho avuto modo di mostrare in altri lavori [1],[2], per comprendere i meccanismi di autorganizzazione dei sistemi, partendo da quelli macroscopici in cui l’organizzazione viene inizialmente innescata.
E’ mia intenzione mostrare che vi è un certo risultato, che precede di gran lunga gli sviluppi della relatività, che è stato acquisito in modo alquanto ambiguo dalla scienza, ma che può inserirsi in modo estremamente interessante nel discorso sui fondamenti relativistici della teoria dell’organizzazione.
Si tratta della caratterizzazione ulteriore degli elementi invarianti, che hanno cioè una esistenza assoluta, del referente ultimo della realtà che sottende alla relatività dialettica.

I principi di conservazione del continuo spazio-tempo e della somma massa-energia non risolvono molti problemi per i quali occorre dare all’elemento assoluto una caratterizzazione maggiore di quella che risulta dalla semplice esistenza di “qualcosa” che può manifestarsi in modi alternativi. Intendo riferirmi al principio del “contenimento” del continuo nel discreto, introdotto in modo alquanto ambiguo nella formulazione Newtoniana ed in modo invece netto nella formulazione Leibniziana che ha portato alla costruzione della teoria monadistica.
Come Einstein ha riconosciuto in un articolo pubblicato su “Scientific American” nel 1950, gli aspetti fondamentali della teoria della relatività erano già presenti nel pensiero di Leibniz. Le due teorie, avendo un corpo comune, sono coerenti e ciò ci permette di affermare che la soluzione Leibniziana del problema del referente ultimo è aprioristicamente valida, in termini euristici, anche nell’ambito della teoria della relatività.
La parte fondamentale del ragionamento di Leibniz, poi proseguita nella costruzione di una teoria sulla costituzione della realtà che va sotto il nome di monadologia, pur essendo costituita da elementi puramente logici, non sperimentali, ha portato allo sviluppo di una matematica, l’analisi infinitesimale, senza la quale non sarebbero stati possibili gli sviluppi della scienza sperimentale moderna.

Il punto di partenza ha origine nel pensiero greco, nei paradossi zenoniani circa la collocazione del mondo nel tempo e nello spazio e circa la divisibilità della sostanza composta in sostanze semplici che investono, in sintesi la compatibilità del continuo e del discreto, il primo caratteristica necessaria dello spazio e del tempo, il secondo caratteristica necessaria degli oggetti.

La soluzione del problema da parte di Newton e di Leibniz consistette nell’introduzione del concetto di “limite”, da cui scaturirono i concetti di derivata e di integrale, secondo cui il discreto è il limite a cui tende il continuo. La validità sul piano euristico di tale concezione è fuori discussione; se una sommatoria si approssima sempre di più ad un determinato valore, vi è sempre una dimensione della sommatoria per la quale la differenza da tale valore, dal limite, è, a qualsiasi effetto pratico, trascurabile. Cionondimeno, la accettabilità sul piano euristico non implica la accettabilità sul piano logico. Se una sommatoria si approssima sempre di più ad un valore senza mai raggiungerlo, non è lecito assumerne l’equivalenza, e l’artificio analitico, di considerare una sommatoria infinita si rivela, nella sua pratica inattuabilità, per quello che è, cioè solo un artificio.

E’ particolarmente importante rilevare che l’insufficienza della soluzione di Newton e del primo Leibniz apparve evidente a quest’ultimo nelle condizioni in cui un limite non è definibile, cioè nei problemi che involvono l’infinito, come nella prima antinomia e come si prospettano oggi di fronte alla dimostrazione dell’esistenza di una espansione accelerata dell’universo. Di qui l’insoddisfazione di Leibniz che lo spinse ad andare oltre il punto raggiunto anche da Newton. L’idea di Leibniz fu quella di trasferire alla realtà la conciliazione logica implicita nel concetto di limite, così anticipando di quasi due secoli l’impostazione filosofica positivistica secondo cui, essendo l’intelletto partecipe della realtà, è assurda una sua dicotomizzazione da essa (nihil est in intellectu quod prior non fuerit in sensu).

Quindi, poiché nel concetto di limite è implicito un “contenimento”, una limitazione del continuo da parte del discreto, nella realtà deve considerarsi il continuo come “subordinato”, “compreso” nel discreto. Ne consegue che lo spazio e il tempo che inducono il concetto di continuità, in quanto per essi non è definibile una dimensione minima, non hanno una esistenza autonoma, come invece ha la monade, cioè l’elemento discreto che costituisce la realtà e che li contiene. Essi costituiscono un mezzo di inquadramento delle relazioni inframonadiche, un prodotto delle monadi.
Secondo Leibniz dunque l’assoluto è assunto nelle monadi, serie di elementi adimensionali, ossia giacenti fuori della struttura spazio-temporale in cui peraltro si manifestano. Si noti l’anticipazione, due secoli prima di Planck, della teoria dei quanti che possono farsi coincidere con le monadi semplici se si accetta l’idea, connessa alla monade, che i quanti possano manifestarsi nel continuo spazio temporale in modi alternativi, relativistici.

Tale conclusione può essere assunta nell’ambito della teoria della relatività perché è con essa coerente. D’altra parte bisogna bene intendersi su che cosa significhi la ricerca dell’assoluto nell’ambito di una teoria scientifica. Essa certamente non implica un affacciarsi alla metafisica, ma semplicemente stabilire. di fronte alla variabilità ed alla trasformabilità degli elementi della realtà, quali siano le leggi, cioè gli elementi costanti che ne governano l’organizzazione.
In questo senso, la monade è ancora un mezzo di rappresentazione necessario al ragionamento, ma il portato sostanziale della teoria leibniziana è costituito dall’affermazione della legge generale, quindi assoluta, del contenimento del continuo nel discreto. Questa legge costituisce un elemento strutturale fondamentale della costruzione della realtà ed è alla base dell’analisi infinitesimale. Anche l’approssimazione di Newton ne è, in fondo, un riconoscimento.
La matematica fa infatti a pieno titolo parte della teoria dell’organizzazione, sia pure nei limiti definiti dal teorema di incompletezza che la definisce come parte sintattica di un sistema che richiede un completamento semantico. Come Galileo aveva già detto (anticipando Gödel), la matematica rappresenta il “linguaggio” della natura. Il modo con cui il concetto della subordinazione del continuo al discreto si presta a risolvere il paradosso di Russell [3] è ancora una dimostrazione di come esso vada considerato come una legge fondamentale della matematica e quindi della realtà.

E’ chiaro che, se volessimo rappresentare un continuo spazio temporale costituente l’universo come limitato, senza che possa definirsi in alcun modo un “fuori”, ci troveremmo di fronte ad una realtà “matematica” per la quale mancherebbero le possibilità di rappresentazione. Cionondimeno, se noi decidessimo di trascurare la rappresentazione di un “fuori” potremmo rappresentare l’universo come una sfera. Ciò non impedisce la possibilità di fasi di espansione e contrazione, ma pur sempre nell’ambito di un volume limitato ed è allora chiaro che l’esistenza del limite comporta che i fenomeni di espansione ed accelerazione dell’espansione dell’universo vadano interpretati in maniera ben diversa da quella oggi in vigore, comportando la necessità di una curvatura delle traiettorie espansive indotta dall’esistenza del limite, condizione di curvatura che d’altra parte è un portato della relatività generale, nell’ambito della quale la condizione sferica dell’Universo era stata già ipotizzata da Einstein [4], [5].
La coincidenza del risultato mostra però, nella diversità delle linee di pensiero che lo hanno determinato, che è possibile immaginare, seguendo la linea di pensiero di Leibniz che sia la curvatura a determinare la gravità, mentre, seguendo la linea di pensiero di Einstein avvenga il contrario, cioè sia la gravità a determinare la curvatura. Ed è possibile immaginare che le due linee di pensiero siano equivalenti e possano trovare una sintesi.
Quando si osservano altre galassie, poste ai confini dell’universo osservabile, non può trascurarsi che la considerazione di un centro di gravità in cui sarebbe concentrata l’attrazione gravitazionale è ragionevole nei confronti di aggregati ma non di ammassi posti ad immense distanze l’uno dall’altro, nel qual caso la considerazione di un centro di gravità comune è priva di senso. Anche qualora lo si volesse individuare occorrerebbe considerare che gli enormi movimenti e trasformazioni di masse che si verificano nell’universo determinerebbero corrispondenti movimenti del centro di gravità.
E’ possibile, data la relatività del moto, che il nostro sistema sia in decelerazione nei confronti di un certo centro di gravità e veda quindi in accelerazione sistemi che in realtà sono in moto uniforme rispetto ad un altro sistema di riferimento; è possibile, data la forma sferica dell’universo che movimenti accelerati di certe galassie lontane siano dovuti all’attrazione esercitata da masse che esistono al di là del nostro orizzonte

Le due linee di pensiero, quella di Leibniz.e quella di Einstein, si sfiorano ancora, ma senza identificarsi come era avvenuto sul piano della curvatura delo spazio, in conseguenza di quello che fu l’errore più grande di Leibniz. Secondo Leibniz, se le relazioni inframonadiche si svolgono al di fuori dello spazio e del tempo che sono solo dei mezzi di rappresentazione, le relazioni spazio-temporali, ed in particolare le relazioni meccaniche, non possono avere un contenuto reale, ma solo apparente.

Ciò comporta la considerazione della monade come una entità chiusa, che può modificarsi solo in virtù di un principio interno. Sulla base di tale concezione, osservando un maglio che schiaccia un lingotto, dovremmo ritenere che il lingotto si schiaccia in virtù di un principio interno, non in virtù dell’azione esercitata dal maglio. Ciò è già di per sé difficilmente credibile; quando poi la conseguente e ovvia questione sul come accada che lo schiacciamento del lingotto si verifichi proprio in corrispondenza dell’avvicinamento del maglio, su come cioè si verifichi una armonia fra le modificazioni delle monadi, trova risposta, da parte di Leibniz, nell’intervento di Dio, diviene comprensibile un giudizio severo, assai critico, sulla costruzione leibniziana.

Invero a molti critici, quali il Russell, la costruzione di Leibniz è apparsa come l’opera di un folle. Certamente la soluzione finale, per uscire in qualche modo dal ginepraio in cui lo aveva condotto la sua speculazione filosofica, non appare all’altezza dei livelli speculativi raggiunti nell’impostazione della monadologia, ma ciò non ci può consentire di ridimensionare questi ultimi.
E’ però da osservare, a tal proposito, che la relatività generale giunge ad alcuni risultati che richiamano in modo straordinario anche queste ultime proposizioni di Leibniz. Come è noto infatti, secondo il principio einsteiniano di equivalenza, la modificazione interna equivale all’azione esterna e i due fenomeni sono indistinguibili. Gli effetti dell’azione gravitazionale di un corpo su di un altro sono equivalenti agli effetti di un movimento rotatorio o accelerato di quest’ultimo.
Einstein quindi introduce una equivalenza delle due azioni, non una esclusività dell’azione interna e dobbiamo quindi domandarci se è giustificata la chiusura estrema della monade alle azioni meccaniche ipotizzata da Leibniz, domanda alla quale possiamo rispondere che essa è giustificata solo per la monade elementare ultima (che può essere associata al quanto), ma non certo per le monadi ottenute per associazione delle monadi elementari che costituiscono la sostanza della vita dell’universo.

Secondo Leibniz, lo spazio e il tempo costituiscono una struttura di “rappresentazione” delle interazioni inframonadiche nella forma di interazioni meccaniche. Ciò comporta che vi siano almeno due monadi interagenti, senza le quali la monade ha solo potenzialità, è priva di rappresentazione spazio-temporale. L’interazione delle due monadi crea quindi uno spazio-tempo interno all’insieme costituito dalle due monadi, nell’ambito del quale le interazioni inframonadiche appaiono come interazioni meccaniche e quindi, seppure non possono modificare la monade ultima, possono determinare l’aggregazione o la scissione delle rappresentazioni delle due monadi elementari. L’associazione delle monadi avviene quindi nella rappresentazione spazio-temporale che è tutto quanto noi percepiamo e dove esse sono soggette alle interazioni meccaniche.
Ovviamente, vi sono anche interazioni fra le monadi che sfuggono alla rappresentazione spazio-temporale, prima di tutte proprio quella che dà luogo alla formazione della struttura spazio temporale stessa e che quindi ne è fuori, esprime cioè una condizione di “entanglement” fra le monadi interagenti che è (almeno sul piano della logica) prodroma al loro coordinamento spazio temporale.
Inoltre è possibile che anche le interazioni che trovano la loro rappresentazione nello spazio tempo inducano degli effetti sul modo come le monadi stesse si presentano nello spazio tempo, possano cioè determinare le trasformazioni massa-energia e vice versa all’interno della monade elementare. E’ possibile che l’apparire come energia o come massa, richieda che le interazioni inframonadiche raggiungano un certo livello critico al di sotto del quale la monade mantiene un grado di libertà che gli consente di oscillare fra le forme di apparenza, di mantenere cioè un livello di indeterminazione (onda-corpuscolo).
E’ chiaro, in definitiva, che se la limitazione della impenetrabilità delle monadi viene limitata alle sole monadi elementari, costituenti ultime della realtà, la dicotomia fra le due teorie scompare insieme alle paradossali conseguenze che l’errore leibniziano aveva determinato.

Ma vi sono anche delle concordanze fra altri aspetti della monadologia e le conseguenze, in termini di fondamenti della teoria dell’organizzazione, che abbiamo tratto dalla considerazione delle trasformazioni relativistiche che si verificano nei sistemi isolati macroscopici ad alta energia. Secondo Leibniz, in corrispondenza di determinate caratteristiche delle interazioni le monadi possono associarsi e fondersi (ovviamente sempre nell’ambito delle rappresentazioni spazio temporali) in una nuova unità, in cui le caratteristiche delle monadi componenti non sono più rintracciabili, mentre compaiono qualità nuove.
Si tratta dunque di un processo creativo che trova precisi riscontri nella teoria dell’organizzazione, ove prende il nome di “incollamento”. La nuova monade complessa sarà allora la componente elementare di una certa stratificazione di realtà nell’ambito della quale essa non può più avere le caratteristiche della chiusura alle interazioni meccaniche e quindi della indistruttibilità.
Dunque la monade complessa non deve essere chiusa alle interazioni meccaniche anche se essa rimane un “contenitore” che delimita uno spazio interno determinato dalle interazioni fra le monadi interne ed uno spazio esterno determinato dalle interazioni con le altre monadi complesse. Il limite è dunque un filtro selettivo, che esercita l’azione di contenimento su una certa qualità del contenuto. E’ un concetto che ritroviamo come elemento estremamente importante nella teoria dell’ organizzazione a tutti i livelli di organizzazione. Anche, ad esempio, nell’organizzazione sociale, all’interno della quale si determina una struttura interna dei valori, una semantica, che non trova riscontro nell’ambiente esterno.

Vi sono alcuni tipi di interazione che seguono integralmente il concetto leibniziano, nel senso che esse danno luogo a delle trasformazioni che si verificano internamente alle monadi elementari, quali le trasformazioni massa-energia e queste trasformazioni si svolgono secondo il principio di equivalenza di Einstein. Il fatto che le interazioni che danno luogo a queste trasformazioni si svolgano secondo la variazione seconda delle coordinate getta una luce sul ruolo che le infinità di punti di diverso ordine che compongono il continuo spazio-temporale possono giocare nella trasmissione di vari tipi di interazione.
In primo luogo, poiché, seguendo la teoria Leibniziana, le interazioni inframonadiche non si limitano a creare la struttura di base spazio-temporale, ma danno un contenuto alla monade che comprende l’alternativa massa – energia nelle varie forme in cui questa può apparire, è possibile che ogni forma di energia sia supportata da un substrato infinito di diverso ordine del continuo spazio temporale in cui vibra. (Si noti le somiglianze con la teoria delle stringhe). La curvatura delle traiettorie determinata dalla presenza del limite, che agisce su tutte le monadi complesse, potrebbe allora essere selettiva nei confronti delle varie forme di energia; potrebbe cioè esistere una variabilità dell’azione di curvatura nei confronti delle varie forme di energia.
Ciò potrebbe condurre ad una molteplicità di linee di contenimento e quindi all’intrecciarsi delle strutture sistemiche nella monade complessa che assomiglierebbe ad una struttura reticolare.
In secondo luogo, nell’ambito dello studio del processo organizzativo sono state individuate due fasi fondamentali, di sinergia e di sintesi dialettica. La sinergia ha diverse gradualità di manifestazione, dalla semplice aggregazione dei componenti del sistema, per la quale abbiamo determinato la necessità di un parallelismo motorio, all’incollamento profondo che porta alla formazione di una nuova unità operativa e che corrisponde, in termini leibniziani alla formazione di una monade complessa.
Non sono però ben individuate le condizioni per il verificarsi dell’incollamento, a parte l’intervento di altri campi di forza e l’individuazione di una messa in sintonia di certe linee di flusso dell’energia che però non dovrebbe operare su componenti costituiti esclusivamente di massa. Se però si accettasse l’idea, che scaturisce dalle impostazioni leibniziane, che sia la curvatura a determinare la massa, questa potrebbe essere rappresentarsi come l’avvitarsi dell’energia su se stessa, come in un vortice. Si potrebbe forse allora comprendere come il parallelismo motorio possa favorire la fusione di due vortici, mentre la divergenza, possa portare alla repulsione, all’assunzione, da parte dell’energia cinetica, di una direzionalità antigravitazionale. Il binomio attrazione – rifiuto, che nell’ambito del campo elettromagnetico ha due soli valori, si e no, avrebbe nel campo gravitazionale una polarità graduata, secondo l’angolo di incidenza delle linee di azione dei due componenti e della entità della energia cinetica convogliata. Questo argomento è sviluppato, al di fuori di ogni considerazione relativistica, in un altro lavoro [6].

Anche Dio muore.

Dunque, l’idea Leibniziana dell’intervento demiurgico, di una “armonia prestabilita”, non fa che esprimere il concetto che le interazioni fra le monadi, che ne determinano la rappresentazione non sono manifestazione di una attività completamente libera, ma sono manifestazione di leggi generali, di vincoli posti all’attività creatrice delle monadi e ciò è indiscutibile, costituisce la tesi fondamentale che dà legittimazione all’esistenza di una teoria dell’organizzazione. L’elemento demiurgico non fa che esprimere il concetto di una unitarietà cui deve farsi risalire l’universalità di tali leggi, gli dà un contenuto immanente per cui le monadi sarebbero le cellule del Dio.

Certamente, si tratta di una visione che non soddisfa alcuna esigenza religiosa, alcuna esigenza esistenziale, alcun bisogno d’amore e non ti promette la vita eterna. Ti dice invece che, se la tua complessità ti porterà ad una pienezza di forma, sarai uno, ma sarai solo. Perché la forma piena ha variabilità infinita. Sarai un anelito inestinguibile ad un amore impossibile perché la solitudine dell’uno è la stessa solitudine del tutto, la stessa infinita solitudine di Dio.

Dio può rompere la sua solitudine solo vivendo nella vita delle sue cellule e quindi variandone l’interazione di cui tu sei un esemplare. Si può però anche pensare che un grande insieme o anche la totalità delle interazioni vengano spezzate al raggiungimento di una forma piena, perché le monadi elementari, rese vuote di contenuti, ma piene di desiderio, abbiano nuove possibilità di incontrarsi e scontrarsi e così dal caos produrre nuove splendide stelle.

E dunque la vita dell’Uno, del contenuto è fuori del tempo che è invece la coordinata del vuoto, del desiderio. E dunque Dio è uno fuori del tempo, ma è infinito nel tempo in cui nasce, ama, odia, ride, piange e muore.

Note e Riferimenti.

[1] – Firrao S.: Lo sviluppo di processi oscillatori nei sistemi isolati ad alta energia, riportato in questo blog
[2] – Firrao S.: La formazione dell’ordine nei sistemi isolati macroscopici, in questo blog,

[3] – Il paradosso di Russell si riferisce alla teoria degli insiemi e consiste nella domanda: “la classe di tutte le classi che non appartengono a se stesse appartiene o non appartiene a se stessa?” Sia che si risponda che appartiene, sia che si risponda che non appartiene, si da luogo ad una contraddizione. Fra gli assiomi degli elementi di Euclide è compresa la proposizione secondo cui il contenuto non può contenere il contenente. Cantor ha però mostrato come ciò non possa affermarsi riferendosi agli infiniti, cosa che per la verità aveva già affermato Galilei, ma Cantor ne fece un elemento importante della sua teoria degli insiemi, utilizzata quindi da Frege nella ricerca dei fondamenti ultimi della matematica, ricerca messa in crisi dal paradosso di Russell. Il punto fondamentale trascurato è costituito dal fatto che la classe di tutte le classi è un elemento discreto, finito, anche se le classi sono in numero infinito e quindi per essa vale l’assioma di Euclide per cui il contenente contiene il contenuto e non può verificarsi il contrario. Quindi la classe di tutte le classi che non appartengono a se stesse può contenere queste ultime senza che possa porsi il problema della sua appartenenza o meno ad una delle classi contenute.

[4] – Einstein A.: Relatività, Torino, Boringhieri, 1967
[5] – Einstein A.: Il significato della relatività, Torino, Boringhieri, 1980
[6] – Firrao S.: La formazione di equilibri dinamici nei sistemi in disequilibrio, riportato in questo blog

Formazione di equilibri dinamici nei sistemi in disequilibrio

L’azione esterna su di un insieme di molecole monoatomiche in equilibrio statistico induce una corrente lineare che viene deviata dalle forze gravitazionali del sistema che tende così a realizzare degli equilibri orbitali al suo interno. Gli elementi fondamentali per il raggiungimento di questo obiettivo sono costituiti, oltre che dalla capacità di aggregazione delle molecole e dai rapporti fra forza incidente, energia interna e forza gravitazionale, dall’angolo formato dalla direzione della forza esterna con la direzione della forza gravitazionale, dalla possibilità di scaricare all’esterno parte dell’energia assorbita e dall’assenza di limitazioni volumetriche. La presenza di un processo oscillatorio del volume occupato dal sistema può modificare ciclicamente la struttura delle forze permettendo il passaggio per condizioni che permettono lo stabilirsi dell’ordine su traiettorie curvilinee.

1 – Modificazione di un insieme gravitazionale per effetto di un’azione esterna.

L’intervento di una azione esterna è sempre necessario per provocare un processo organizzativo in un insieme non macroscopico. La permanenza dell’ordine che viene formato non può ipotizzarsi indefinitamente anche in presenza di una permanenza dell’azione esterna e ciò in conseguenza dell’aumento progressivo dell’energia interna dovuto all’azione esterna stessa. E’ quindi necessario, per mantenere in vita l’azione ordinatrice della azione esterna, che l’energia da essa fornita e non assorbita dai moti circolari, sia dissipata attraverso un flusso di energia uscente dall’insieme. Un tale insieme  costituisce una struttura dissipativa e ad essa si riferisce il presente studio [1].

Se noi ragionassimo sotto l’ipotesi di limitatezza del volume disponibile per il sistema, ipotesi che può essere rappresentata dalla presenza di pareti ideali che racchiudono il sistema, la completa scomparsa degli urti, che identifica la condizione di ordine, richiederebbe che tutti i movimenti si svolgano all’interno del contenitore senza mai toccarne le pareti, giacché l’urto con le pareti respingerebbe le molecole all’interno del sistema riaccendendo la catena degli urti. La condizione di limitatezza del volume disponibile va quindi accantonata o, quantomeno, va ritenuto che i limiti siano così ampi da poter ragionare come se essi non esistessero.

Per effetto dell’azione esterna, che supponiamo non diretta verso il baricentro del sistema, quindi avente una componente tangenziale ad una ideale circonferenza centrata sul baricentro, si formano due poli di concentrazione delle probabilità di occupazione dell’insieme, uno secondo la direzione dell’azione esterna e l’altro secondo la direzione della forza gravitazionale. Il sistema mostra quindi una certa quantità di movimenti interni di connessione dei due poli; tali movimenti si svolgono secondo linee curve, indotte dalla composizione degli effetti delle forze esterna e gravitazionale, con urti decrescenti con la polarizzazione dei movimenti su queste linee.

Supponiamo che la dimensione delle variabili in gioco permetta una penetrazione profonda della corrente ordinatrice nel sistema dissipativo dove subisce l’incurvamento dovuto alla composizione della forza esterna con la forza gravitazionale. La permanenza della prevalenza direzionale è dovuta alla persistenza dell’azione esterna (con un processo continuo di distruzione e ricostruzione) la cui cessazione determina il ripiombare del sistema nella condizione di equilibrio statistico. Dato l’effetto devastante che ha l’urto sull’ordine, per la permanenza dell’ordine una volta cessata l’azione esterna occorrerebbe o la completa scomparsa degli urti (che però da sola sarebbe una condizione estremamente instabile nei confronti di una qualsiasi minima azione esterna) o l’assunzione da parte delle traiettorie di una rigidità che le faccia resistere agli urti.

La “rigidità”, ossia la capacità di resistenza delle traiettorie sia agli urti che alla forze che tendano a modificarle viene determinata, prima di tutto, dall’irrigidimento dei corpi che viaggiano lungo tali traiettorie conseguente ai processi aggregativi resi possibili dal parallelismo direzionale. In secondo luogo, la rigidità delle traiettorie è determinata dallo sviluppo di equilibri dinamici fra la forze cui danno luogo l’energia cinetica e l’energia gravitazionale in corrispondenza di ogni allontanamento infinitesimo dalla traiettoria orbitale cui l’incurvamento della corrente abbia dato luogo

Se la direzione del moto della particella che fa parte della corrente entrante forma con la direzione della forza gravitazionale un angolo ottuso, la forza gravitazionale avrà una componente nella direzione opposta a quella dell’energia cinetica e una componente nella direzione ad essa ortogonale. La particella svilupperà per conseguenza una forza di reazione alla componente opposta e continuerà perciò nella sua corsa, ma subendo una riduzione graduale dell’energia cinetica per il lavoro effettuato contro la componente opposta della forza gravitazionale ed una rotazione per effetto della componente ortogonale assumendo infine la direzione della forza gravitazionale. Si noti che al diminuire dell’angolo diminuisce la componente frenante della attrazione gravitazionale. L’amplificazione dell’angolo di incidenza quindi equivale ad una riduzione dell’energia cinetica. Quando la divergenza fra la direzione della forza gravitazionale e la direzione dell’energia cinetica indotta dall’azione esterna raggiunge l’angolo retto e le dimensioni delle due grandezze fisiche sono in un certo rapporto, si forma una traiettoria orbitale; prendiamo in esame in particolare la traiettoria circolare.

Consideriamo dunque un generico punto della traiettoria circolare. La direzione della forza di attrazione gravitazionale che agisce su di esso è perpendicolare alla direzione dell’energia cinetica. Secondo gli attuali testi di  meccanica, il punto materiale tenderebbe a continuare per inerzia il suo moto nella direzione tangenziale, ma per effetto della attrazione gravitazionale su di esso esercitata subirebbe una continua accelerazione in direzione perpendicolare al moto tangenziale che manterrebbe il moto nella traiettoria circolare. Per conseguenza l’attrazione gravitazionale rimarrebbe sempre perpendicolare alla direzione del moto della particella. Osserviamo, però che la forza gravitazionale deve innescare un movimento di avvicinamento al baricentro già nella posizione orbitale e non solo dopo che sia iniziato il movimento di allontanamento in direzione tangenziale Si deve cioè realizzare una composizione fra il movimento tangenziale e quello ad esso ortogonale.

Mpto circolare

Come si  vede dalla figura, in cui A è la posizione iniziale e A’ la posizione successiva in cui la particella viene portata dalla composizione dei due moti nel tratto infinitesimo iniziale del suo moto e sono indicate in nero in A e in rosso in A’ le direzioni della forza gravitazionale e della energia cinetica, nella nuova posizione così assunta dalla molecola, l’energia cinetica formerà un angolo ottuso con l’attrazione gravitazionale e pertanto quest’ultima avrà una componente in direzione opposta all’energia cinetica e una componente ad essa ortogonale (indicate in verde in figura), . La particella proseguirà quindi nella direzione della energia cinetica, cioè di allontanamento, ma subendo una riduzione progressiva per effetto dell’azione frenante svolta dalla componente oppositiva della forza gravitazionale. e una rotazione per effetto della componente attrattiva ortogonale. La particella proseguirà cioè secondo una traiettoria curvilinea, che ha una componente nella direzione di allontanamento ed una componente nella direzione ad essa ortogonale. Man mano che questo movimento prosegue e la energia cinetica diminuisce, il movimento in direzione rotatoria che segue la particella acquisisce l’energia cinetica perduta dalla componente di allontanamento. . Se l’esaurimento della energia cinetica avviene quando il punto raggiunge  la distanza orbitale, tutta l’energia cinetica risulta trasferita nel moto rotatorio, ed il punto rientrato in orbita. Ciò significa che, per la conservazione dell’orbita  la forza di attrazione responsabile dell’avvicinamento deve essere eguale all’energia cinetica di allontanamento intesa come la forza complessiva che può esercitare riducendosi a zero.

Si potrebbe osservare che il punto in cui la particella viene portata dalla composizione dei due moti, tangenziale e radiale potrebbe essere  A” anziché A’, cosicché il processo potrebbe avvenire in maniera simile a quanto teorizzato dalla meccanica classica salvo il fatto che il ritorno in orbita sarebbe dovuto ad una componente oppositiva della forza gravitazionale ed alla rotazione indotta dalla componente ortogonale, ma ciò non è possibile. Abbiamo infatti visto che, perché la molecola rientri in orbita, la forza gravitazionale deve essere eguale all’energia cinetica e Newton ci ha anche mostrato che all’aumentare della distanza la forza gravitazionale tende a zero più rapidamente dell’energia cinetica. Quindi, se già in partenza la forza gravitazionale è uguale alla forza producibile dall’energia cinetica, nel punto A” in cui la distanza dal centro è aumentata, la forza gravitazionale non sarebbe più in grado di trattenere la molecola che si allontanerebbe seguendo la direzione di “fuga”,

La forza gravitazionale agisce dunque istantaneamente, cioè entro infinitesimi spazio-temporali di ordine superiore rispetto a quelli in cui si svolge il moto tangenziale.. Pertanto, nell’imboccare il percorso di allontanamento, la particella si trova già in una posizione più vicina al centro e tale direzione di allontanamento forma già nell’ambito di un intervallo infinitesimo del movimento un angolo ottuso con la direzione della forza gravitazionale. Il processo si svolge quindi completamente entro un infinitesimo della traiettoria circolare, senza che la molecola debordi dalla circonferenza che delimita tale  traiettoria.

E’ semplice a questo punto verificare che. se la particella subisce azioni di lieve entità che incrementino la sua penetrazione verso il centro, il processo sarà identico salvo il fatto che la quantità di energia cinetica sarà maggiore per l’apporto esterno e pertanto la particella potrà proseguire oltre la posizione orbitale prima di rientrare in orbita, ovviamente se la dimensione dell’energia cinetica non sia tale da portarla in fuga.

La traiettoria circolare costituisce pertanto l’inviluppo di oscillazioni sinusoidali che hanno una fase di avvicinamento e una fase di allontanamento. Lo schema solleva la ovvia obiezione che se la traiettoria circolare rappresenta l’ inviluppo di oscillazioni microscopiche, queste dovrebbero essere in talune condizioni osservabili. A questa obiezione è possibile rispondere che le oscillazioni microscopiche si sviluppano in intervalli infinitesimi di più alto ordine degli intervalli percettibili,

2 – Contributo di un processo oscillatorio del volume occupato dal sistema.

In generale, la variabilità configurale ottenuta per l’intervento di forze esterne tende a tornare alla condizione iniziale di equilibrio statistico a meno che non permanga il flusso di energia proveniente dall’esterno (ramo termodinamico del processo trasformazionale [1]). Ma se sussistono certe dimensioni e caratteristiche di rigidità degli aggregati e sono realizzate le condizioni, di cui ci siamo occupati nel precedente paragrafo, per la realizzazione degli equilibri dinamici, le configurazioni ottenute assumono, una capacità di permanenza anche al cessare del flusso energetico esterno (ramo cinetico del processo trasformazionale [1]). Nell’ordine così realizzato si manifesta il principio d’ordine nei sistemi aperti di Prigogine.

Come abbiamo già osservato il raggiungimento di una condizione di ortogonalità fra l’energia cinetica di un componente e la forza gravitazionale agente su di esso non è una condizione sufficiente perché si sviluppi un equilibrio di tipo rotatorio intorno al baricentro del sistema. Occorre che sussista una certa distanza che possa determinare, in relazione ai valori assunti dalla massa e dalla energia cinetica, i necessari rapporti delle forze agenti. Per di più è chiaramente necessario, una volta che si siano create delle traiettorie curvilinee, che le distanze intercorrenti fra i componenti del sistema siano tali da rendere impossibile l’intersezione fra le varie traiettorie.

Per questi motivi il raggiungimento di una condizione di ordine è legato al raggiungimento di una certa dimensione volumetrica del sistema, sia pur legata alla dimensione degli aggregati e a quella dell’energia cinetica del sistema. Se il sistema ha un volume che ne impedisce l’organizzazione, l’azione esterna dunque, oltre ad avere una certa intensità e una certa inclinazione rispetto alla direzione della forza gravitazionale, deve comporsi con un processo oscillatorio del volume, fra fasi di espansione e fasi di compressione, nell’ambito del quale il sistema possa ritrovare la condizione volumetrica necessaria all’instaurarsi dell’ordine.

Come abbiamo avuto modo di mostrare, l’azione esterna è essa stessa promotrice della fase espansiva attraverso l’azione delle reazioni cinetiche oppositive che si sviluppano quando la direzione dell’azione incidente ha una certa angolazione con la direzione della forza gravitazionale. Quando viene raggiunto un volume che consente la distribuzione delle masse, delle energie cinetiche e delle singole distanze che è necessaria per la realizzazione degli equilibri dinamici, la configurazione ordinata emerge selettivamente nell’ambito della variabilità configurale, perché priva di urti, cioè di elementi distruttivi, quindi dotata di sopravvivenza. In altre parole, la struttura dell’organizzazione delle masse, delle energie e delle distanze determina tali vincoli ai movimenti da costringere ad organizzarsi in termini di equilibrio orbitale (principio d’ordine nei sistemi chiusi di Boltzmann)

3 – Conclusioni.

I modi fondamentali di interazione dei sistemi sono tre: aggregazione, contrapposizione ed equilibrio. Sappiamo che negli insiemi in cui esiste una certa condizione di equilibrio statistico, quindi una certa quantità di moto, l’aggregazione può essere un fattore di organizzazione in quanto conferisca una potenzialità differenziale nei confronti degli altri componenti di un insieme, potenzialità che abbiamo indicato per semplicità come rigidità o resistenza agli urti che costituiscono il fattore elementare di contrapposizione. Sappiamo che l’utilizzazione per l’aggregazione delle stesse forze di campo che operano sugli altri componenti non determina alcuna potenzialità differenziale; è ben vero che alla massa corrisponde una maggiore potenzialità, ma l’assenza di una rigidità differenziale a livello elementare impedisce il raggiungimento di quel livello critico della massa cui corrisponde la necessaria potenzialità differenziale.

Il raggiungimento di una potenzialità differenziale richiede quindi l’intervento di altre variabili, che danno luogo a tutta una stratificazione di livelli di rigidità. In primo luogo la sovrapposizione di più campi di forza. Gli astronomi hanno chiamato incollamento la sovrapposizione, a livello dei componenti elementari di una nebulosa, dei campi gravitazionale ed elettromagnetico, dovuto al fatto che parte notevole delle particelle vi comparirebbero sotto forma di ioni, dando così luogo a nuclei di aggregazione.

Ma sul fenomeno dell’incollamento agisce un fenomeno ulteriore che può manifestarsi anche nell’ambito delle strutture di maggior massa cui l’iniziale intervento dell’attrazione elettrostatica abbia dato luogo, cioè l’incorporazione del moto all’interno dell’aggregato, elemento che determina elementi di coordinamento interno che portano non solo ad una maggiore potenzialità differenziale, ma strutturano una nuova unità, dotata di nuove qualità. E’ un fatto ancora misterioso, creativo, che Corning chiama la “magia della natura”[2].

Ora noi sappiamo da tempo, anche con un certo dettaglio da quando Bohr ha presentato la sua ricostruzione della struttura dell’atomo, come già in esso sia contenuta una enorme quantità di moto e sappiamo che anche nel processo di sintesi chimica, il processo di condivisione fra più atomi del moto degli elettroni si sovrappone alla attrazione elettrostatica. Sappiamo anche che nell’ambito della chimica organica e più in particolare delle interazioni in ambito biologico operano interazioni di forma, legate al disegno che la forma dei corpi induce nella forma dei campi di forza [3].

A me sembra che il presente studio, con la sua interpretazione del moto circolare, apporti un contributo alla spiegazione degli effetti della incorporazione del moto all’interno del sistema, in quanto mostra come dalla interazione del moto con le forze di campo seguano processi di sommatoria o frazionamento dovuti a mutamenti direzionali connessi a variazioni negli angoli di incidenza, processi che si svolgono parzialmente entro infinitesimi spazio-temporali di ordine superiore rispetto agli infinitesimi in cui si svolge la parte visibile. Ciò d’altra parte è implicito nella relatività generale, che impone di prevedere l’ esistenza, per ogni funzione fisica, di una derivata seconda alle coordinate spazio-temporali che deve quindi operare su una infinità di punti di ordine superiore rispetto a quella in cui opera la derivata prima.

La generalità, anzi l’universalità, che la considerazione dell’unità del mondo fisico assegna ai teoremi della teoria dell’organizzazione comporta, ad esempio, che nell’ambito delle relazioni interpersonali, la condizione di equilibrio dialettico sia sempre supportata dalle condizione di eguaglianza fra operazioni di dare e avere che si svolgono per infinitesimi di ordine superiore rispetto a quelli percepibili cioè, come direbbe Freud, a livello “subliminale”

Bibliografia

[1] – Prigogine L.: Self-organization in Non-equilibrium Systems, Wiley & Sons, New York, 1977.
[2]- Corning P.: Nature’s Magic, Synergy in evolution and the fate of humankind, Cambridge University Press, 2003
[3]-Firrao S.: Sulla teoria dell’evoluzione, in questo blog.

Sulla teoria dell’evoluzione

1- Le interazioni di forma.

Nell’ambito del processo di organizzazione dei sistemi macroscopici costituiti da atomi eguali e con alto valore dell’energia interna, l’elemento condizionante la sinergia fra elementi contigui è costituito dal possesso di un parallelismo motorio. Tale condizione, effetto dell’azione di una forza esterna che agisce con continuità sul sistema imponendo la prevalenza della sua direzione di moto, assume una frequenza di accadenza e di permanenza che, oltre un certo livello critico è capace di innescare il processo aggregativo. Tale processo è dovuto alla riduzione delle interazioni cinetiche , cioè delle forze sviluppate in corrispondenza degli urti, cui danno luogo le comuni condizioni di moto degli elementi contigui, riduzione che consente alle forze gravitazionali di svolgere la funzione aggregativa [1].
Il semplice accostamento, dovuto alle interazioni gravitazinali, non garantisce la resistenza alla disgregazione per effetto degli urti con le particelle aventi una diversa direzione di moto. Per tal motivo nelle ipotesi che si fanno circa i processi di formazione delle stelle partendo dalle nebulose si ipotizza che fra gli elementi contigui si sviluppino più forti interazioni di campo, non solo in vista del fatto che la forza esercitata dal campo gravitazionale è fortemente crescente al ridursi della distanza, ma sopratutto perché possono essere sollecitati altri campi di forza quale l’elettromagnetico che, nell’ambito delle distanze microscopiche è più intenso del campo gravitazionale. Si ipotizza quindi che una certa quota delle particelle siano nella forma di ioni che possono così dar luogo, nelle condizioni di accostamento e di parallelismo motorio, quindi ad un basso livello delle interazioni cinetiche, alla formazione di aggregati dotati di una maggiore rigidità di quelli formati per la sola azione del campo gravitazionale, aggregati che divengono poi nuclei di un più ampio processo di accrescimento per effetto dell’incremento delle forze gravitazionali dovuto alla crescita della massa. Occorre dunque distinguere il semplice accostamento o anche la semplice aggregazione superficiale dalla compenetrazione più profonda che nell’ambito degli studi astronomici è stata denominata “incollamento”.termine che anche noi adotteremo in questo studio.

E’ chiaro che questo processo di incollamento costituisce una fase fondamentale del processo organizzativo in tutte le stratificazioni in cui si articola la realtà anche se prende diversi nomi nelle corrispondenti stratificazioni della scienza. Nell’ambito della chimica le reazioni sono sempre processi di aggregazione o disgregazione e successiva aggregazione, svolte a livello di incollamento. Si tratta del fondamentale processo creativo di nuove entità reali anche se la legge di conservazione della somma massa+energia non viene violata. Ciò che infatti viene creata è una nuova “qualità” non esistente nei componenti. E’ quella che Corning definisce la “magia della natura”[2]. Dalla fusione fra ossigeno ed idrogeno nasce l’acqua che ha caratteristiche, qualità, non rintracciabili in alcun modo nei componenti.
Nell’ambito dei contesti ambientali in cui si è sviluppata la vita, i livelli della interazione cinetica fra i componenti elementari, molecole organiche complesse, costituite cioè da una molteplicità di atomi, sono tali da permettere l’accostamento senza che occorrano particolari condizioni di parallelismo motorio e sussistono anche interazioni aggregative che possono portare all’incollamento. Non intendiamo riferirci ai legami di tipo ionico o di covalenza che si sviluppano nell’ambito delle reazioni chimiche, ma a forze assai più deboli che le molecole esercitano nel loro intorno e che possono essere potenziate, quando non addirittura prodotte, da un certo tipo di penetrazione, fino al punto di determinare l’incollamento. Fra queste forze dobbiamo quindi comprendere principalmente le forze elettrostatiche generate dagli squilibri di elettronegatività degli atomi componenti la molecola ma anche altre, sia pure ancora più deboli, come le forze elettroniche di Van der Waals. La produzione di queste forze si sviluppa particolarmente nell’ambito dei composti organici del carbonio anche se una, di estrema importanza, il legame idrogeno, si forma fra le molecole dell’acqua. Come è noto, le due eliche del DNA sono tenute insieme da legami idrogeno ed alcuni di tali legami possono essere rotti, determinando la separazione di tratti della doppia elica, per effetto di forze elettrostatiche opposte generate da altre strutture molecolari.
E’ però nell’ambito dei composti organici del carbonio che si sviluppa il processo di penetrazione cui abbiamo accennato. Esso è dovuto ad un elemento inesistente nei processi di aggregazione fra componenti elementari, ma fondamentale nei processi di aggregazione fra sistemi complessi, costituito dalla forma, cioè da come si dispongono nello spazio i componenti elementari delle strutture complesse.
La forma governa lo sviluppo di forze da parte dei campi di forza interagenti fra sistemi complessi (che contengono sempre componenti rigide e componenti flessibili, sono cioè strutture stratificate) in modo così articolato da rendere praticamente infinito il panorama delle interazioni possibili fra gli elementi della realtà. Si tratta del fatto che certe strutture sono accompagnate da campi di forza prodotti dai componenti e la forma, vale a dire la particolare distribuzione spaziale dei componenti, determina una corrispondente distribuzione delle forze esercitate all’intorno delle strutture, condizione che supporta l’azione dei catalizzatori nonché dei processi di riproduzione. Quando si incontrano forme complementari, cioè forme che permettono una penetrazione reciproca di una particolare profondità, le forze di aggregazione prodotte sono pertanto anch’esse di particolare intensità.
Come è noto, l’intensità delle forze esercitate dal campo elettrostatico è direttamente proporzionale al prodotto delle cariche ed inversamente proporzionale al quadrato della distanza che separa gli elementi tra cui tale campo agisce (legge di Coulomb). Quindi, l’intensità dell’azione esercitata da un sistema su un sistema esterno è pari alla somma dell’attrazione esercitata da tutte le combinazioni binarie costituite dagli elementi dei due sistemi ciascuna proporzionale al prodotto delle cariche e inversamente proporzionale al quadrato della distanza. Naturalmente forze significative ai fini dello sviluppo di processi di aggregazione e incollamento si realizzano per distanze fra gli elementi corrispondenti dei due sistemi piccolissime, dello stesso ordine delle distanze intramolecolari, poiché aumentando la distanza fra gli elementi interagenti, l’effetto della forma scompare e i due sistemi cessano allora di interagire come sistemi complessi.
Quindi lo sviluppo della interazione di forma fino ad una dimensione critica che abbiamo definito di incollamento richiede una “compenetrazione”, ossia l’accostamento dei componenti dei sistemi interagenti non limitata a pochi componenti, ma che si estenda fino a raggiungere la detta dimensione critica. Per raggiungerla, gli elementi dei due sistemi devono avere dimensione similare e i sistemi devono avere forme “complementari”, ossia ad una preminenza dell’uno deve corrispondere una cavità dell’altro e viceversa. Ciò implica che lo sviluppo delle interazioni di forma non è una caratteristica di un singolo sistema, per quanto complesso, ma è una caratteristica di una specifica coppia di sistemi, una interazione selettiva, legata al riconoscimento di una informazione specifica.
Torniamo adesso alla considerazione che certi componenti elementari delle macromolecole biologiche sono accompagnate da campi di forza elettrostatici il che implica che l’attrazione esercitata su cariche di segno opposto non si sviluppa in un’unica direzione, ma agisce con egual forza in tutte le direzioni con simmetria sferica. L’interazione di forma che si raggiunge al livello dell’incollamento è caratterizzata dunque dal fatto che ogni componente interagisce con tutti gli altri componenti. Ciò comporta che l’interazione può essere modulata mediante opportuni spostamenti dei componenti e ciò comporta che ne viene variata non solo la forza complessiva di aggregazione ma anche il tipo di oggetto che può essere aggregato che deve avere la forma complementare alla forma definitiva raggiunta dalla struttura modulata.
La forma del sistema influenza non solo la dimensione della forza di aggregazione complessiva, ma anche la distribuzione della capacità di interazione di ogni componente con gli altri componenti. E’ ovvio infatti che se tutti i componenti di un sistema sono disposti lungo una linea retta, i componenti posti all’estremità del segmento avranno una interazione reciproca rapidamente decrescente con l’aumento della reciproca distanza e quindi assai minore di quella che si verificherà fra componenti posti nelle zone centrali. Se invece i componenti sono disposti lungo una circonferenza, la più equa distribuzione dell’interazione reciproca, naturalmente a parità dei campi di forza associati ad ogni componente, risulta di immediata evidenza
In definitiva, noi possiamo considerare il campo di forza associato ad un oggetto come rappresentazione dell’esistenza di un “collegamento” fra l’oggetto ed ogni punto del campo e la interazione che si sviluppa fra due oggetti lungo la congiungente come conseguenza della sovrapposizione dei due campi associati.
La interazione fra i componenti di un sistema dà quindi luogo in ognuno di essi ad un processo di composizione delle forze che agiscono su di esso e per conseguenza all’emissione di forze nelle linee di connessione che avranno in genere una distribuzione dimensionale diversa da quella delle forze entranti. Ogni variazione prodotta da una forza esterna nel processo di composizione che si svolge in un componente si riflette in una variazione indotta in tutti gli altri e si innesca per conseguenza una variabilità “configurale” ossia della forma dell’intero sistema che tende, in assenza di nuove azioni provenienti dall’esterno e per il principio della tendenza all’omeostasi, ad una forma cui corrisponde un assetto definitivo di equilibrio dell’intero sistema.
E’ allora chiaro che anche il più piccolo spostamento di un componente del sistema, con la conseguente variazione dell’intensità dell’interazione, si rifletterà sugli equilibri indotti in ogni componente e quindi sull’assetto globale. Naturalmente, in sistemi complessi costituiti da un numero estremamente grande di componenti, la variazione di un solo componente avrà un effetto infinitesimo e quindi trascurabile, ma quando la somma di più variazioni raggiunge un certo valore critico, la variazione globale del sistema diviene visibile.
Quindi, nella condizione da noi esaminata, la disposizione dei componenti determina la forma del campo di forza somma dei campi di forza associati a ciascun componente e ciascun componente interagisce con tutti gli altri dando luogo ad una rete complessa di interazioni i cui punti nodali sono costituiti dai componenti del sistema. Si determina così ovviamente in essa anche una forma interna, costituita dalle variazioni di “forza aggregativa”, che possiamo anche chiamare rigidità, dovute alla diversità di sovrapposizione dei campi e quindi delle interazioni nelle varie zone del sistema.
Tale condizione dà luogo alla formazione di una unità organizzativa che è caratterizzata non solo dal fatto che tutti i componenti sono interconnessi, ma anche che, per effetto della stratificazione di rigidità interna, sussistono vincoli ai movimenti individuali che permettono di definire un’attività funzionale del sistema.
Essa non è che l’espressione paradigmatica di una più ampia classe di interazioni di forma, resa possibile dalla complessità della struttura, ossia dalla sua natura di “composto” di una molteplicità di componenti. Anche le interazioni fra sistemi complessi non microscopici sono sempre influenzate dalla forma dei sistemi, sia esterna che interna, (che comprende struttura di rigidità e quindi capacità di sviluppare forze) e la modifica del disegno porta ad una modifica della struttura delle interazioni. La differenza con le interazioni che si verificano fra sistemi microscopici sta nel fatto che nei sistemi non microscopici il disegno è generalmente separato dallo sviluppo dell’energia che avviene esclusivamente in particolari nodi o gruppo di nodi della rete delle interazioni.
Il trasporto dell’informazione in input, cioè del disegno iniziale, può avvenire infatti attraverso mezzi che richiedono un supporto minimo di energia, quali le onde elettromagnetiche, le onde acustiche, i conduttori elettrici ecc, mentre lo sviluppo di energia “effettrice”, cioè la “conversione” dell’energia informativa in energia effettrice, avviene in particolari nodi della rete e ciò porta ad un enorme allargamento del campo delle interazioni di forma che possono esercitarsi anche fra elementi posti a grandi distanze.
Naturalmente, a noi interessano particolarmente le interazioni in cui l’azione effettrice finale viene esercitata da organi biologici. Un esempio importante nel campo psicologico è costituito dai richiami, cioè dallo sviluppo di energia (sollecitazione di un impulso) in corrispondenza di specifiche informazioni sensorie, quali sono i richiami infantili, sessuali e sociali. In questo modo si sviluppano campi di forza di tipo “specialistico” cioè limitati ad una certa categoria di oggetti che posseggono determinati elementi di forma che ne costituiscono la password, come è evidente negli impulsi cui abbiamo accennato, ma che vale per tutti gli impulsi umani. Tale password può svolgere la sua funzione anche se gli elementi di decrittazione sono posseduti in numero parziale , ma gli effetti saranno di minore intensità, come avviene nella capacità di attrazione (e di repulsione) sessuale che varia molto da un individuo all’altro.
Nelle interazioni di forma di grande distanza, la modulazione della interazione (la “commutazione”) può avvenire anche durante il trasporto. Ad esempio nel trasporto tramite un flusso di energia elettrica che percorre dei conduttori è sufficiente inserire nel percorso degli interruttori che consentono di deviare la direzione dl flusso di energia, come avviene nelle reti telematiche.
La differenza rispetto alla modulazione che avviene fra le molecole organiche è costituita dal fatto che gli interruttori inseriti nelle reti telematiche sono di tipo binario, consentono cioè solo due alternative di percorso che equivale alla connessioine con solo due punti successivi mentre ogni componente di una interazione di forma che si svolga a livello microscopico fra molecole organiche può in potenza stabilire la connessione con tutti i punti del campo, costituisce cioè un interruttore con infinite alternative direzionali. Considerando inoltre che può spostarsi e che ad ogni spostamento corrisponde una modulazione anche della dimensione del flusso, è facile comprendere che alla interazione di forma a livello molecolare corrisponde una enorme capacità di commutazione non confrontabile anche con le più avanzate applicazioni computazionali odierne. L’argomento è ripreso in un altro mio lavoro [4].
La forma non riguarda esclusivamente la disposizione nello spazio,il disegno, seguito dai componenti, ma anche la disposizione nel tempo, la successione con cui si susseguono le interazioni. Anche l’intelligenza non fa che ricercare forme diverse, fino a ritrovare quella che sviluppa la richiesta interazione. Come infatti la forma di un oggetto complesso è determinata dal modo come gli oggetti elementari che lo compongono sono disposti, così il ragionamento è costituito dal modo con cui le connessioni logiche elementari, di origine istintuale (legate a contiguità spazio-temporali memorizzate) sono disposte in successione [4].

2 – La commutazione evolutiva.

E’ visione comune in ambito scientifico che il processo di nascita della vita abbia comportato la concentrazione in adatte località di molecole organiche che non abbiano raggiunto una condizione di equilibrio stabile ma si mantengano invece in una continua condizione di trasformazione con lo svolgimento di una infinità di fusioni, scissioni e riaggregazioni, condizione a cui è stato dato il nome di “caos molecolare del brodo primordiale”. Tale condizione è dovuta alla debolezza dei legami, al fatto che tale debolezza si presenta con una gerarchia di valori, che la gerarchia è sconvolta dall’intervento di una molteplicità di variabili, alcune delle quali hanno un andamento oscillatorio, così determinando un mutamento ciclico delle condizioni di sopravvivenza delle strutture con i legami più deboli che costituiscono parti essenziali degli organismi viventi. La permanenza delle condizioni di sopravvivenza di queste strutture è legata alla realizzazione di situazioni particolari, come l’annidamento in uno spazio protetto da pareti costituite da sostanze a legami forti o la formazione di strutture complesse in cui gli elementi protettivi facciano parte della propria organizzazione.
Per determinare lo sviluppo della vita occorrono quindi innanzi tutto una serie di condizioni che permettano la formazione delle strutture a legami deboli quali un’agitazione termica in un mezzo liquido che porti a modificare la posizione relativa delle molecole e quindi a variazioni dei contatti che comportano reazioni di aggregazione e successivamente mezzi di protezione per evitare la strage dovuta non solo alla predominanza dei legami più forti, quindi con più forte potere di sostituzione nell’abbraccio molecolare, ma anche alla mancata resistenza di molti legami deboli all’escursione termica. Occorre inoltre la presenza degli elementi necessari a realizzare tutta la serie di trasformazioni da cui si è sviluppata la vita, carbonio, idrogeno, azoto, ossigeno, fosforo, zolfo, nonché di adeguate forme di energia.
Non è nostro interesse , né sarebbe possibile allo stato delle conoscenze scientifiche sull’argomento, entrare nei dettagli dell’evoluzione subita dal brodo primordiale. Noi possiamo partire, nella prosecuzione del nostro discorso, dalla semplice ed incontrovertibile constatazione che dal caos primordiale sono emerse gradualmente strutture in cui si verifica una grande sopravvivenza e addirittura sviluppo dei componenti con i legami più deboli, suscettibili di interazione di forma, in quanto protette da barriere esterne più rigide, cioè le cellule.Da queste ultime poi, per successivo incollamento, sono nate le strutture pluricellulare degli animali in cui le barriere difensive raggiungono il massimo livello.
Noi possiamo immaginare che, nel processo di replicazione che ha strutturato una specie, nel genoma di ogni individuo ottenuto sia inserita l’amplificazione delle dimensioni o delle capacità funzionali di un organo. Poiché la funzionalità del sistema richiede una condizione di precisi rapporti fra gli organi, condizione che definiamo di equilibrio, lo sviluppo delle dimensioni e delle capacità funzionali di una molteplicità o addirittura della totalità degli organi sarebbe impedito dallo sviluppo di forze antagoniste volte a mantenere l’equilibrio delle componenti e la dimensione dell’insieme ai valori che ne hanno determinato la sopravvivenza. Noi dunque supporremo che le funzionalità del sistema specie tolleri una certa variabilità dimensionale di una frazione assai limitata degli organi di ogni singolo individuo. Tale tolleranza può essere distribuita fra i vari organi e funzioni nei vari esemplari della specie, così che in definitiva nella specie vi siano per ogni funzione individui che possono svolgerla meglio degli altri e possono quindi rispondere meglio degli altri a una determinata azione selettiva.
Ora, noi abbiamo visto che fra gli esseri unani sono possibili interazioni di forma mediate , oltre che dal diretto contatto, da diversi mezzi di trasporto. Non sono però possibili interazioni che involvano il DNA, in cui sono contenute le informazioni strutturali del sistema.
La completa assenza di interdipendenza nei confronti delle interazioni di forma genetiche fra i componenti di una specie animale urta però contro i meccanismi accertati dell’evoluzione, anzi addirittura dei processi organizzativi più generali dei sistemi complessi. Infatti, se le varietà che realizzano una diversità di risposta alla selezione nell’ambito di una specie fossero indipendenti, costituissero cioè un semplice insieme, le varietà resistenti ad una certa azione selettiva potrebbero occupare lo spazio reso libero dalla selezione, ma non potrebbero dar luogo ad alcun meccanismo di trasformazione quale è il processo evolutivo. Perché si verifichi una evoluzione le varietà devono costituire un sistema, deve cioè sussistere fra di esse una interdipendenza.
Qualsiasi mutamento del disegno costruttivo contenuto nel DNA non può che avvenire in sede di replica; è pertanto solo sede di relazione generazionale che si verifica la interdipendenza sistemica. Se in un locus protetto da disturbi esterni si concentrano le sostanze necessarie a realizzare la replica e in esso pervengono gli elementi genomici di due individui differenti in esso si realizza la fusione dei due genomi e le caratteristiche dell’individuo risultante saranno l’espressione della interazione fra i due patrimoni genetici delle cellule genitrici.
La sopravvivenza alla selezione implica dunque l’esistenza di un “potenziale antiselettivo” posseduto dai sopravvissuti che costituisce un elemento di potenziale sinergia fra di loro, per la cui esplicazione, che comporterebbe l’aumento della capacità di resistenza all’azione selettiva, occorrerebbe la fusione dei relativi genomi, condizione che, come abbiamo già visto, può essere realizzata solo in fase di costruzione di un nuovo individuo, ove tale costruzione comporti l’incontro di due diversi individui portatori dello stesso potenziale antiselettivo.
Il rafforzamento del potenziale antiselettivo che si realizza nel figlio permette di rafforzare la condizione di sopravvivenza che può essere inizialmente assai fragile e di mantenerla anche qualora le condizioni ambientali non rimangano stazionarie ma si determini invece un aumento di forza dell’azione selettiva, purché ciò avvenga con una velocità uguale o inferiore a quella del processo di rafforzamento della resistenza.
Tuttavia, all’attività dei potenziali che permettono la sopravvivenza ad una azione selettiva non corrispondono a livello fenotipico forze che determinino l’incontro degli individui portatori, necessario per portare l’interazione a livello del DNA della cellula figlia. Le specie che si sono sviluppate maggiormente sono perciò quelle in cui l’incontro fra gli individui si realizza comunque, indipendentemente dall’esistenza di una azione selettiva, dando luogo ad un individuo in cui si realizza la fusione del DNA, cioè le specie in cui la riproduzione avviene per via sessuale.
E’ chiaro che ove l’attività selettiva non sussista l’incontro di due componenti portatori di una eguale potenziale darebbe luogo ad un rafforzamento non necessario. Il semplice incontro non deve quindi dar luogo ad alcun rafforzamento (o dà luogo ad un rafforzamento infinitesimo, quindi trascurabile). Se invece l’attività selettiva sussiste, l’incontro di due componenti dotati del comune potenziale antiselettivo diviene più frequente e quindi più frequente anche la ripetizione della coincidenza nei successivi processi riproduttivi nella linea di discendenza. Il rafforzamento avviene dunque quando la frequenza di ripetizione raggiunge un certo valore critico che rende minima la probabilità di casualità nella comunione del potenziale (valore raggiunto anch’esso per via selettiva)[5].
Ovviamente ciò comporta che nel genoma debba sussistere un meccanismo che memorizza le ripetizioni, ma tale meccanismo è insito nelle interazioni di forma che, come avviene nel DNA, si svolgono fra sistemi costituiti da una grande quantità di componenti, quindi estremamente complessi. In seguito alla realizzazione della coincidenza di un potenziale questi sistemi subiscono variazioni infinitesime della posizione di uno o più componenti, variazioni quindi singolarmente trascurabili, sia per quanto riguarda l’effetto della variazione della forza sviluppata dal singolo componente sull’assetto complessivo del sistema, sia per quanto riguarda la variazione stessa della forza sviluppata dal singolo componente in seguito alla variazione di posizione nel campo di forza elettrostatico generatore delle forze deboli. Queste variazioni, tuttavia, sono permanenti e ciò rende sommabili le successive mutazioni fintanto che il numero delle mutazioni elementari non raggiunga un certo livello critico che porta ad un importante variazione dell’assetto. Il processo, che possiamo chiamare di sommatoria di informazioni non riconoscitive fino al raggiungimento del livello di riconoscimento è simile a quello che ho mostrato per il meccanismo di discernimento del cervello attraverso l’accumulo di informazioni non riconoscitive nelle sinapsi fino al raggiungimento del livello di riconoscimento [4].
E’ chiaro a questo punto che questo meccanismo comporta la morte dei genitori o almeno la perdita ad una certa età della capacità generatrice. Infatti, ai fini del raggiiungimento del livello critico di riconoscimento, l’incontro fra individui generati in seguito a diversi cicli riproduttivi ha una valenza maggiore di quello fra individui generati in seguito mad un minor numero di cicli riproduttivi, cosicché la permanenza nella attività riproduttiva per più generazioni rende più lento e meno efficace il processo evolutivo [5 ].
Come tutti i sistemi complessi anche il genoma deve avere una struttura a strati di diversa rigidità, cioè che sviluppano una diversa forza di resistenza alle modificazioni. Gli strati più rigidi richiedono un più alto livello critico di riconoscimento e per conseguenza un tempo più lungo per raggiungerlo, cioé una maggiore gradualità di realizzazione.
Il sistema di interdipendenze interne ad una specie è idealmente rappresentabile, nella sua forma più complessa come una rete “stratificata” nei cui nodi, costituiti dai genomi individuali, si realizza la regolazione di un flusso informativo in entrata trasmesso dalle cellule generatrici al momento della fecondazione ed il risultato trasmesso in uscita ad un nodo successivo al momento dell’accoppiamento. Lo schema è similare a quello del cervello se consideriamo che quest’ultimo coordina le componenti della risposta agli stimoli esterni eseguibile a livello ontologico ed il genoma quelle realizzabili a livello genetico [6].
La similarità del processo nei due casi permette di mostrare come, nell’ambito dei diversi circuiti della rete, si possono memorizzare esperienze elementari evolutive (nella forma di energie potenziali non giunte al livello critico di scarico) che possono confluire in un unico nodo di scarico dando luogo a risultati evolutivi che sembrano contraddire il principiodi continuità del processo evolutivo e che riuniscono linee evolutive apparentemente prive di una aprioristica sinergia [4]. Da notare che l’intelligenza della rete genetica è assai superiore a quella dell’individuo perché quest’ultima è basata su interruttori con un numero finito di alternative, mentre quella della rete genetica è basata su interruttori a numero infinito di alternative.
L’innesco del processo di modificazione della struttura viene dunque indotto e guidato dalle interazioni di forma a livello genetico, ma anche lo sbocco può essere la crescita della potenzialità di produrre certe interazioni di forma all’interno della struttura prodotta.Ad esempio la capacità di produrre ragionamenti più lunghi, cioè contenenti un maggior numero di passaggi elementari, condizione che richiede il rafforzamento della permanenza dei passaggi, cioè della loro memoria e che può dar luogo ad una più efficiente interazione di forma con un oggetto.

3-Evoluzione lineare ed evoluzione non lineare.

Abbiamo esaminato un processo evolutivo in cui l’elemento selettivo, pur cambiando di dimensioni, mantenga la sua direzione ed in cui inoltre la velocità di aumento della sua forza non sia superiore alla velocità di modificazione del’assetto genico, che si svolge su più generazioni. Se sono verificate queste condizioni ci si trova di fronte ad un processo evolutivo lineare. Si possono però anche verificare processi evolutivi non lineari, caratterizzati dal fatto che la forza selettiva cambia decisamente di direzione, ponendo in opposizione i nuovi ed i vecchi potenziali antiselettivi del sistema e rendendo obsolete precedenti strutture del sistema cui i vecchi potenziali avevano dato luogo.
In questi casi gli esiti del processo di adattamento alle nuove condizioni possono essere i più diversi; possono mancare gli adeguati potenziali antiselettivi e può essere insufficiene la velocità del loro rafforzamento così che in definitiva il tasso di sopravvivenza si deteriora e ne può risultare l’estinzione della specie. Naturalmente è impossibile modificare le strutture più rigide del sistema che realizzano elementi fondamentali di difesa aspecifica, frutto di milioni di anni di processo evolutivo, ma vi sono stratificazioni di rigidità intermedia che possono subire degli aggiustamenti. Ovviamente, trattandosi di modificare strutture aventi un certo livello di rigidità, occorrono più ripetizioni e quindi più tempo per la modificazione dell’assetto del sistema e ciò quindi richiede che la velocità di incremento della forza del nuovo elemento selettivo sia ancora più basso.
Il risultato è la perdita o la riduzione di alcune capacità e l’acquisizione o il potenziamento di altre. E’ in questo modo che il nostro progenitore australopiteco ha perso a capacità di fare quei grandi salti, veri e propri voli, da una cima all’altra dei grandi alberi della foresta, dove viveva sicuro, irraggiungibile dai predatori, ha perso la disponibilità della coda prensile che gli permetteva di dormire appeso ai rami, ha perso la disponibilità del cibo che la natura gli offriva gratuitamente nei frutti degli alberi. E’ stato invece schiacciato al suolo dove muoversi strisciando come un verme, dove è diventato cibo dei grandi predatori della savana, condannato a vivere nella poaura divenuta una componente fondamentale e continua dell’esistenza e a procurarsi il cibo con fatica, a nutrirsi del sangue degli altri animali.
Considerato da un certo punto di vista questi cambiamenti potrebbero essere considerati una perdita di qualità della vita, ma l’evoluzione non riconosce valore alle qualità se non come fattori di sopravvivenza; la bellezza , in cui si esprime la qualità desiderabile, è un prodotto dell’evoluzione, una spinta verso più alti valori della qualità che ha determinato la sopravvivenza , cos’ che per l’animale coprofilo la cosa più bella del mondo è la merda. Come recita un antico detto popolare napoletano “ogni scarafone è bello a mamma soia”.

3- La Bellezza

La bellezza non esiste nelle cose del mondo.
E’ una fragile creazione dell’anima
E’ la misura, nata dal dolore,
dell’amabilità delle cose che permisero,
in un tempo lontano,
il fluire della vita.
E’ il desiderio che le cose si muovano
verso la lontana spiaggia
di una irraggiungibile sicurezza dove,
come salmone alla fonte
l’anima possa riposarsi
e morire.
E’ bisogno d’amore,
una fame antica che non può essere saziata
dalle cose immobili, né dagli uomini fermi,
tutti in attesa dell’amore altrui.
Tributo di morte alla vita della nostra specie,
gran fuoco di mezza estate
dove la bellezza è nella fiamma ardente
e noi siamo i tizzoni e veniamo consunti
da quest’ansia assurda
che ci alberga nel cuore.

Riferimenti bibliografici

[1]- Firrao S.: La formazione dell’ordine nei sistemi isolati macroscopici, Studi sui sistemi complessi, ISBN: 978-1-4476-9406-5 Initial Formation of Order in Isolated Macroscopic Systems, Cybernetica, XXXIII, 2, 1990
[2]- Firrao S.: L’associazione stimolo-risposta nelle reti stratificate, Studi sui sistemi complessi, op.citata Il processo di associazione stimolo-risposta nelle reti stratificate, V Meeting di Neuroriabilitazione, Clinica Neurologica della II facoltà di Medicina, Napoli, 6-7 ottobre 1989, Europa Medicophysica, XXV, 4, 1989
[3]-Firrao S.: Controllo statistico della qualità, Cap. 1, Politecnico di Milano, Corso di perfezionamento in industrie tessili, 1968
[4]-Firrao S.: La fisica dell’amore, permalink:
http://www.complexsystems.it/index.php/2012/10/la-fisica-dellamore-2/
[5]-Firrao S.:Interpretazione cibernetica del pensiero, Quaderni di Cibernetica, 7, 1990.
[6]- Firrao S.: La formazione di equilibri dinamici in sistemi in disequilibrio. Studi sui sistemi complessi, op.citata Dynamic Equilibria Generation in Non-Equilibrium Systems, Cybernetics and Systems,, 22, 25-40, 1991
[7]–Jaynes E.T.: Where do we Stand on Maximum Entropy? In The Maximum Entropy Formalism, R.D.Levine and M. Tribus eds., MIT Press, Cambridge, Massachusetts, 1979
[8]- Prigogine I., Nicolis G.:Self-Organization in Non-equilibrium Systems, Wiley, New York, 1982
[9]-Firrao S.: Stratification of Feedbacks Circuits in Evolution Structures, Quaderni di Cibernetica, 8, 1991
[10] -Dover G.A: The Spread and Success of Non-Darwinian Novelties, in Evolution
[11] – Haken H.: Information and Self-Organization (Series in Synergetics, vol. 40) Springer Verlag, New York, 1988
[12]-Prigogine I., Stenger I.: Order Out of Chaos: Man’s New Dialogue with Nature, Bantam Books, New York, 1984
[13]-Firrao S.: On the applicability in Biology of the Theory of Self-organization of the Systems, Cybernetica, XXXV,1, 1992

La formazione dell’ordine nei sistemi isolati macroscopici.

 

In uno studio precedente [1] ho mostrato come l’ipotesi ergodica di Boltzmann, di una possibilità di variazione dello stato complessivo di un sistema isolato, sia inammissibile perché essa comporterebbe la variazione della frequenza degli stati elementari, cioè una condizione di indipendenza statistica di questi ultimi che è invece di interdipendenza statistica, cioè dovuta ad azioni di scambio all’interno del sistema che lasciano inalterate le frequenze complessive di ogni stato elementare.Tale dimostrazione, condotta attraverso i metodi della matematica statistica, urta però contro una opposta dimostrazione condotta attraverso i metodi della meccanica razionale, costituita dal teorema di Liouville, cui si appoggiano coloro che sostengono l’opposta tesi [2].

L’obiettivo di questo studio è dunque quello di mostrare gli errori contenuti nella dimostrazione data da Liouville del teorema che porta il suo nome, risultato che, insieme a quello contenuto nello studio precedente, dovrebbe chiudere la questione.Verrà poi elaborata l’ipotesi relativistica che apre la strada alla soluzione del problema della formazione dell’ordine nei sistemi isolati macroscopici da cui in cascata può seguire la formazione dell’ordine in sottosistemi sempre più piccoli.

1 – Il teorema di Liouville

Consideriamo lo stato del sistema descritto da un punto nello spazio detto delle fasi o anche, a mio parere più correttamente, delle configurazioni, cioè in uno spazio a 2s coordinate, dove s è il numero dei componenti del sistema e dove per ogni componente si hanno due coordinate, una di posizione p e una di impulso q. L’insieme dei diversi stati attraversati in un intervallo di tempo sufficientemente lungo dal sistema sarà allora rappresentato da punti distribuiti nello spazio delle fasi con una densità proporzionale al valore della funzione di distribuzione µ(p,q) (per semplicità indichiamo, nell’argomento di µ con p e q le successioni dei valori delle coordinate di posizione pi e d’ impulso qi dei vari componenti).

Ora, i punti così ottenuti possono essere considerati, anziché la rappresentazione degli stati del sistema in diversi istanti, la rappresentazione di sistemi identici nello stesso istante (insieme statistico). Anche tale rappresentazione deve infatti rispettare la legge di distribuzione µ(p,q).Seguiamo allora l’ulteriore movimento dei punti dello spazio delle fasi che rappresentano gli stati dell’insieme durante un certo intervallo di tempo. E’ evidente che in tutti i successivi istanti t questi punti devono essere sempre distribuiti secondo la distribuzione µ(p,q), cioè i punti di fase si spostano in modo che la densità di distribuzione resti invariante nello spazio delle fasi.

Si può allora considerare, in modo del tutto formale, lo spostamento dei punti di fase come corrente stazionaria di gas nello spazio delle fasi a 2s dimensioni ed applicarvi l’equazione di continuità che esprime l’invarianza del numero totale dei componenti. Vale a dire:

i ∂(µvi)/∂xi = 0 (i = 1……..2s)                   (1)

dove in un gas µ sarebbe la densità e vi la velocità in direzione della coordinata xi.Nel nostro caso le coordinate xi corrispondono alle coordinate pi e qi dello spazio delle fasi e le velocità alle rispettive derivate rispetto al tempo pi e qi.

Quindi sostituendo nella (1):

i[∂(µq i)/∂qi + ∂(µpi)/∂pi] = 0      (i = 1…….s)           (2)

e, calcolando le derivate:

i[qi∂µ/∂qi + pi∂µ/∂pi]+ µ∑i[∂qi/∂qi + ∂pi/∂pi] = 0    (i=1…….s)     (3)

Scrivendo le equazioni della meccanica nella forma di Hamilton:

qi=∂H/∂pi, pi= -∂H/∂qi

dove H=H(p,q) è l’Hamiltoniana del sistema in esame, si vede che:

qi/∂qi = ∂2H/∂qi∂pi = – ∂pi/∂pi

e quindi il secondo termine al primo membro della (3) si annulla. Il primo termine è invece la derivata totale rispetto al tempo della funzione di distribuzione. Si ha quindi in definitiva:

dµ/dt = ∑i(∂µ/∂qi qi + ∂µ/∂pi pi) = 0                  (4)

dove l’eguaglianza fre il primo e l’ultimo membro della (4) esprime ancora la condizione iniziale di partenza che l’insieme si sposta lungo traiettorie dello spazio delle fasi che lascino costante la distribuzione di probabilità. La relazione (4) implica però in più che la funzione di distribuzione deve esprimersi con combinazioni delle variabili p,q che rimangano costanti durante il movimento del sistema nello spazio delle fasi, cioè attraverso invarianti meccanici o integrali primi delle equazioni del moto, cosicché è essa stessa un integrale primo delle equazioni del moto.

Tenendo presente che la distribuzione µ12per l’insiemedi due sottosistemi è pari al prodotto delle funzioni di distribuzione µ12 dei sottosistemi presi separatamente e che pertanto si ha:

lnµ12 = lnµ1 + lnµ2                           (5)

se ne deduce che il logaritmo della funzione di distribuzione è una grandezza additiva. Il logaritmo della funzione di distribuzione deve essere quindi non solo un integrale primo, ma anche un integrale primo additivo delle equazioni del moto.

Come è noto dalla meccanica, esistono tre integrali primi additivi indipendenti del moto: energia, impulso e momento angolare. Considerando il sistema nel suo insieme privo di moto di traslazione o di rotazione, l’integrale si riduce ad uno solo: l’energia. Pertanto, con riferimento ad un qualsiasi sottosistema a, la funzione di distribuzione deve essere del tipo:

lnµa = αa + βEa(p,q)                   (6)

dove αaè la costante di normalizzazione e β una costante che può essere determinata dal valore costante dell’integrale primo additivo dell’energia di tutto il sistema.

Ciò permette di ricavare una funzione di distribuzione semplice che soddisfa il teorema di Liouville per tutto il sistema isolato. Una tale distribuzione è µ = costante per tutti i punti dello spazio delle fasi corrispondenti ad un valore costante dell’energia del sistema e µ = 0 per tutti gli altri punti. Per conseguenza la funzione di distribuzione per l’intero sistema sarebbe del tipo:

µ = cδEo                            (7)

dove c è una costante e δ è una funzione che assicura l’annullamento di µ in tutti i punti dello spazio delle fasi in cui la grandezza E non sia eguale al suo valore assegnato Eo . Una simile distribuzione, che viene detta microcanonica, è il punto di partenza per il successivo sviluppo della distribuzione di Gibbs [3]. Considerando che certi punti dello spazio delle fasi rappresentano configurazioni complessive del sistema non distinguibili, cioè modalità differenti di ottenimento di una stessa configurazione del sistema, si ottiene in definitiva una distribuzione che rispecchia quella di Boltzmann.

Vi è però una importante differenza: la considerazione della necessità di un movimento, di una traiettoria percorsa nello spazio delle fasi fra gli stati espressi dalla (7) implica che la traiettoria nello spazio delle fasi del punto rappresentativo dello stato di un sistema isolato in un intervallo di tempo sufficientemente lungo debba necessariamente passare per ogni punto che abbia il dato valore costante di µ .

Il movimento del sistema nello spazio delle fasi avrebbe quindi un andamento approssimativamente ciclico, ripetitivo, oscillatorio, che implicherebbe il necessario passaggio per certi stati che avrebbero la capacità di innescare una evoluzione verso l’ordine.

2 -Critica del teorema

La critica che può effettuarsi poggia su tre piani: sul piano epistemologico, sul piano della matematica statistica e sul piano della fisica statistica.

Sul piano epistemologico rilevo che la metodologia scientifica richiede che ove all’impostazione di una ipotesi faccia seguito lo sviluppo di una teoria, i risultati ottenuti debbano essere controllati dall’esperienza e, se non confermati, l’ipotesi debba venire respinta. Se invece i dati di partenza costituiscono una realtà già acquisita, gli ulteriori risultati ottenuti mediante processi matematici rigorosi, acquisiscono lo stesso livello di verità dei dati di partenza, ma questo non è il caso del teorema di Liouville.

Nel suo ragionamento Liouville parte dalla considerazione dell’esistenza di una molteplicità di stati complessivi attraversati dal sistema, dando quindi per scontata la presenza sia di tali stati alternativi che del moto di passaggio dall’uno all’altro, laddove la loro esistenza costituisce solo una ipotesi, anzi addirittura la materia del contendere. Le conclusioni ottenute andrebbero quindi confrontate con la realtà, ma tutti i risultati finora ottenuti in fisica statistica dallo studio di particolari sistemi non hanno confermato la validità dell’ipotesi ergodica nei sistemi isolati in equilibrio statistico; citiamo fra gli altri i lavori di Poincaré e di Fermi [4]. E ciò malgrado le configurazioni alternative distinguibili dovrebbero presentarsi, secondo le conclusioni della teorema, con una frequenza abbastanza elevata.

 Sul piano della matematica statistica, la presenza di configurazioni alternative comporta che le particelle elmentari abbiano un qualche grado di libertà nella determinazione del loro stato, cioè che siano statisticamente indipendenti, cosa che ho dimostrato non esistere nel mio citato lavoro.

Infine, per quanto riguarda la fisica statistica consideriamo la relazione (4) della dimostrazione di Liouville, che qui riportiamo:

dµ/dt = ∑i(∂µ/∂qi qi + ∂µ/∂pi pi) = 0                  (4)

Perché si abbia una variazione della configurazione del sistema occorre che si abbia un variazione della struttura delle forze agenti. In un sistema isolato costituito da un gas perfetto gli unici eventi che possono indurre una modificazione della struttura delle forze sono costituiti dagli urti. Poiché gli urti coinvolgono almeno due punti materiali, ai fini della valutazione degli effetti sul sistema occorre considerare quale mutamento comporta la somma dei mutamenti intervenuti in ambedue i punti che costituiscono a tal fine un unico evento che si produce simultaneamente in entrambi. Potremo quindi considerare la somma degli effetti di tutti gli urti che avvengono in un determinato intervallo temporale nel sistema

Applichiamo allora la (4) alle coppie di punti in collisione che indicheremo con i pedici i e i+1. In ognuno dei due punti, per il principio della conservazione della quantità di moto, si verifica una variazione eguale e contraria della quantità di moto, cosicché la variazione complessiva della quantità di moto relativa alla coppia, cioé l’impulso qi +qi+1dovuto all’urto, è nullo e per conseguenza lo è anche la sua derivata. Il primo termine al secondo membro della (4) è quindi nullo e sono per conseguenza possibili solo i movimenti consentiti dalle forze agenti che implicano lo scambio di quantità di moto e quindi di posizione, cioè quelle che vengono indicate come permutazioni e che se i punti materiali componenti il sistema sono indistinguibili, non determinano la modificazione della configurazione. Esiste quindi una ed una sola configurazione possibile del sistema, quella di massima entropia e quindi la funzione di densità delle configurazioni µ introdotta da Liouvllle non può esistere, richiedendo l’esistenza di una molteplictà di configurazioni.

Nei gas reali esiste però ancora un altro potenziale, cioè un serbatoio di energia, che può produrre delle forze che potrebbero modificare il quadro delle interazioni fra i componenti del sistema. Esso è costituito dall’attrazione gravitazione verso il baricentro del sistema.

Estrapolando ai sistemi complessi lo schema di interazione fra due gravi di Newton, possiamo già dire intuitivamente che la variabile che così introduciamo determina una accelerazione dei punti materiali diretti verso il baricentro (direzione centripeta) e una corrispondente decelerazione dei punti materiali che si allontanano dal baricentro (direzione centrifuga) e che i due effetti sono equivalenti. Il problema è stato studiato nei suoi dettagli matematici da Maxwell e Boltzmann che hanno mostrato che le velocità si distribuiscono secondo la legge di Gauss, distribuzione che è simmetrica, cosicché nell’ambito dei valori delle grandezze fisiche che si incontrano nella realtà l’effetto differenziale svolto dall’attrazione gravitazionale è trascurabile. Non può istituirsi una corrente oscillatoria che procede dai valori più alti ai valori più bassi delle velocità e viceversa, attivata dall’attrazione gravitazionale come accade nello schema di Newton, perché, data la frequenza degli urti, ogni traiettoria che nasce da un urto viene quasi immediatamente spezzata dall’urto successivo. Il trasferimento avviene quindi attraverso una catena di collisioni e pertanto le differenze di velocità assumono un certo grado di ripartizione omogenea nel sistema.

3 – La soluzione relativistica

L’impossibilità della formazione dell’ordine in un sistema isolato in equilibrio statistico viene in definitiva fatta risalire alla presenza di quelli che Prigogine ha chiamato “vincoli di simmetria”, dovuti agli urti, da cui consegue l’ assenza di “gradi di libertà configurale del sistema” [5].

Per la formazione dell’ordine in un sistema isolato si richiede quindi, come è ovvio, che il sistema non sia in equilibrio statistico ma che la condizione oscillatoria fra fasi di espansione e di compressione, dovuta al gioco dell’alternanza delle due forme dell’energia, cinetica e potenziale, che abbiamo visto esistere già in nuce nella distribuzione delle velocità di Maxwell e Boltzmann, assuma un maggior rilievo.

Nei sistemi isolati, comunque, se l’energia cinetica massima del sistema è inferiore ad un certo valore, detto di “fuga” all’ aumentare dell’ espansione, che comporta un allontanamento dei componenti del sistema dal centro di gravità, si verifica una diminuzione dell’energia cinetica dei componenti per effetto dell’azione frenante svolta dall’attrazione gravitazionale e per conseguenza si raggiunge un punto in cui l’energia cinetica centrifuga si esaurisce e rinasce nuovamente come energia cinetica centripeta per effetto dell’attrazione graviazionale; il movimento cioè si inverte da espansione a compressione.

Senza entrare in particolari dettagli per i quali rimando ad un altro lavoro [6], durante l’espansione non di fuga, l’interazione attrattiva fra i componenti posti ad eguale distanza dal baricentro decresce per effetto dell’aumento della reciproca distanza più di quanto decresca l’attrazione verso il baricentro. La struttura direzionale dell’energia assume quindi gradualmente una direzionalità esclusivamente centripeta, condizione che impedisce la formazione della complessa struttura di interdipendenza delle variabili agenti che costituisce l’ordine.

D’altra parte, un sistema che, nella condizione di espansione, abbia un valore massimo dell’ energia cinetica superiore al valore di fuga, in cui cioè l’attrazione gravitazionale diviene trascurabile quando l’energia cinetica ha ancora valori finiti, si trasformerebbe, in assenza di trasformazioni relativistiche, in un sistema in espansione in cui i componenti, procedendo inerzialmente, si allontanerebbero l’uno dall’altro senza che di questo processo potrebbe intravedersi la fine.

Secondo la teoria della relatività invece, durante l’espansione di qualsiasi sistema, si ha la trasformazione dell’energia cinetica in massa che ha natura accumulativa e che alla lunga determina il suo esaurimento e l’avvio di un processo di contrazione, tale processo si verifica anche nel caso dell’espansione di fuga, sia pure raggiungendo il punto di inversione a distanze enormemente più grandi. E’ chiaro che, nel caso della espansione di fuga, sia la dimensione della energia cinetica richiesta che la dimensione spazio-temporale in cui si realizza la trasformazione dell’energia, limitano le possibilità di tale processo oscillatorio ai soli sistemi macroscopici, astronomici, in cui si determini una esplosione iniziale di enorme potenza.

Secondo gli schemi teorici generalmente accettati, prima che venga raggiunta una configurazione ordinata ogni galassia può essere considerata come un sistema termodinamico, ossia come un sistema composto da un gran numero di componenti elementari in moto disordinato lungo tutte le direzioni possibili e in cui vi sia conseguentemente un’alta frequenza di urti. Essa può essere quindi considerata un sistema isolato macroscopico in cui può realizzarsi il processo oscillatorio comprendente l’espansione di fuga.

Si può allora mostrare che, durante la fase espansiva di questo processo oscillatorio si realizza una amplissima variabilità configurale. È infatti evidente che, per l’aumento della distanza dei componenti dal baricentro che porta ad una riduzione dell’attrazione gravitazionale verso di esso e ad una diminuzione della frequenza degli urti, per l’aumento della interazione gravitazionale fra i componenti del sistema dovuta alla trasformazione dell’energia cinetica in massa, si realizza una tale continua modificazione della struttura delle forze agenti da giustificare la più ampia variabilità delle configurazioni.

Con ciò non si intende affatto affermare che la formazione dell’ordine sia una conseguenza immediata della realizzazione di una variabilità configurale. Ciò che può verosimilmente attendersi è la realizzazione di un caos deterministico dovuto al mutamento continuo delle condizioni di interazione e in cui comincino a mostrarsi certe regolarità che possono, in adatte condizioni e luoghi particolari evolvere verso la stazionarità.

Certamente, il campo di indagine che così si apre alla ricerca è enorme e non desidero in questa sede procedere ad alcun approfondimento, ma solo sottolineare alcuni aspetti che mi sembrano di particolare interesse ai fini dello sviluppo dello studio dei sistemi complessi.

L’espansione è accompagnata da una variabilità configurale che mostra una prevalenza della componente espansiva della direzione del movimento dei componenti. Essa implica che una parte notevole delle particelle assumano gradualmente una comune direzione di moto, assumano cioè un certo grado di parallelismo motorio. Come è noto dal principio di relatività, l’energia cinetica relativa ad una velocità comune è come inesistente ai fini delle interazioni fra i componenti, non fa cioè parte dell’energia interna del sottosistema composto da tali componenti. Essa non può pertanto ostacolare l’accostamento dei componenti che si muovono parallelamente dovuto alle interazioni gravitazionali fra di loro progressivamente crescenti per l’aumento della massa e per l’intervento dell’attrazione elettromagnetica che tale accostamento rende possibile, permettendo così la formazione di aggregati.

È infatti ormai riconosciuto che i processi di aggregazione che si svolgono nelle grandi strutture astronomiche richiede di non considerare perfettamente rigide le particelle che le costituiscono e che vi sia una grande presenza di ioni, così da essere soggette al fenomeno dell’”incollamento” che comporta l’acquisizione di caratteristiche di resistenza agli urti da parte degli aggregati elementari. Chiaramente, man mano che aumenta la dimensione degli aggregati, il successivo accrescimento diviene più facile in vista della maggiore forza attrattiva nei confronti delle particelle connessa all’aumento della massa.

Durante la fase di espansione, tale processo di aggregazione e incollamneto, esaltato dalla trasformazione dell’energia dei componenti in massa, con il conseguente aumento delle relative interazioni gravitazionali, porta necessariamente i sistemi macroscopici quali le nebulose a raggiungere quel rapporto critico fra massa ed energia che porta al collasso gravitazionale, dando così luogo al ripetersi dell’esplosione.

La variabilità configurale del sistema permette alle particelle di trovare poli di aggregazione alternativi nelle traiettorie circolari o ellittiche attorno agli aggregati principali, cioè formati per aggregazione nella direzione espansiva, in vista del fatto che in tali traiettorie si realizza l’equilibrio fra le forze di attrazione e di rifiuto nei confronti degli aggregati principali, condizione che ne determina una maggiore stabilità e quindi ancora una emersione selettiva. Vi sono diverse teorie su come si realizza la formazione di questi moti orbitali ed io stesso mi sono cimentato su questo argomento [7]; qui segnalo solo l’importanza di questo problema, che possiamo definire di formazione degli equilibri dinamici perché esso è paradigmatico nei confronti di molte situazioni che si incontrano nello studio dei sistemi complessi.

4 – Generalizzazione dei risultati.

Lo schema organizzativo esposto per l’evoluzione delle galassie rappresenta uno schema basilare di interazione che opera in tutti i processi organizzativi, quindi anche in quelli in cui la variabilità configuale è indotta da un’azione proveniente dall’esterno. Tale schema vede la sovrapposizione di due tipi di energia, attrattiva e repulsiva, che si manifestano sia nel campo gravitazionale che in quello elettromagnetico.

Newton, come è noto, non ha introdotto esplicitamente un campo repulsivo contrapposto al campo gravitazionale. Alieno ad introdurre ipotesi che non avessero un immediato riscontro con la realtà, così da apparire quasi delle semplici constatazioni (hypotheses non fingo), si limitò ad introdurre un corpo ideale, perfettamente rigido, per il quale enunciò il terzo principio della dinamica, secondo cui ad ogni azione corrisponde una reazione eguale e contraria. Ai fini dello sviluppo di una teoria generale dell’organizzazione è invece opportuno interpretare tale reazione come dovuta ad un campo repulsivo immaginabile come una molla che si carica di energia potenziale in corrispondenza dell’urto, per restituirla immediatamente come energia di allontanamento.

Lo studio che abbiamo fatto permette di sottolineare l’importanza di tre processi che appaiono essere fondamentali in tutti i processi di organizzazione cui dà luogo la sovrapposizione dei campi di forza; sono i processi selettivo, aggregativo e di formazione di equilibri dinamici.

L’azione selettiva è fondamentale perché si tratta dell’azione svolta dalla forza esterna che abbiamo visto essere necessaria perché si innesti la variabilità configurale. Il flusso di energia proveniente dall’esterno impone la sua direzione di flusso ad un certo numero di componenti del sistema ed in tal maniera rompe gli equilibri esistenti creando così un disequilibrio e quindi una variabilità configurale che tende, secondo il postulato di Carnot, verso una nuova condizione di equilibrio.

Tale azione rende più probabile l’accostamento di elementi dotati delle caratteristiche selezionate e lo sviluppo di interazioni fra di essi che nel caso preso in esame abbiamo definito, a seconda dell’intensità delle forze aggregative, di aggregazione e di incollamento. Questo processo è creatore di una realtà nuova in cui gli effetti della selezione sono amplificati (sinergia) e resi autonomi dall’azione iniziale.

Si formano infatti oggetti viaggianti nella direzione inizialmente indotta dalla selezione e che, per effetto sia della maggiore rigidità dovuta all’incollamento che della dimensione della massa complessiva, resistono agli urti con i componenti dotati di moto contrario ed anzi impongono la loro direzione di moto così da determinare, se raggiungono una certa dimensione e rigidità (principio di organizzazione di Prigogine) la persistenza della prevalenza direzionale indotta dall’azione selettiva anche quando questa cessa.

L’importanza della selezione, della sinergia e della dialettica nella creazione della realtà è estrema. Questi strumenti organizzativi, che agiscono iterativamente sovrapponendosi in fasi successive del processo hanno effetti creativi straordinari in quanto produttori di nuove entità ove gli elementi costituenti non sono più riconoscibili. Nuove entità, con qualità assolutamente nuove, scaturiscono ovviamente dalla estensione dei concetti di sinergia e di sintesi ai processi chimici, alle interazioni di forma, in tutti i tipi di interazione che l’accostamento e la codirezionalità o la complementarietà rendono possibili. È quella che Corning chiama la “magia della natura” [8].

Bibliografia

[1]- Firrao S.: Sull’entropia statistica di Boltzmann; Cybernetics and systems,5,20, set. 89

[2]- Lifsits E.M., Landau L.D.:Fisica Statistica it. Ed. Editori Riuniti, Bologna, 1978, pag,23

[3]– Gibbs J.W.:Principles of Statistical Mechanics;, New Haven, 1948

[4]– Toda M, Kubo R., Saito N.:Statistical Physics 1, Springer Verlag, Berlin, 1983, pag. 204

[5]– Prigogine I., Nicolis G.: Self-Organization in Non equilibrium Systems Wiley, New York, 1977

[6]- Firrao S: Development of oscillatory processes in isolated high energy systems, Cybernetica, vol. XXXI, n.4, 1988

[7]- Firrao S. Dynamic equilibria generation in Nonequilibrium systems Cybernetics and Systems, 22, 1991,

[8]-Corning P.:Nature’s magic, synergy in evolution and the fate of humankind,  Cambridge, Univesity Press, 2003 

.

Lo sviluppo di processi oscillatori nei sistemi isolati ad alta energia

Secondo la meccanica classica se, in assenza di limitazioni volumetriche, in un sistema isolato costituito da un gas con le caratteristiche dello schema di Boltzmann, (cioè costituito da molecole monoatomiche soggette esclusivamente a forze cinetiche e gravitazionali) l’energia cinetica supera un certo valore, ossia il cosiddetto “valore di fuga”, il campo gravitazionale non può più trattenere le molecole che si muovono in direzione centrifuga, che pertanto continuano inerzialmente il loro moto. Chiameremo sistemi “ad alta energia” i sistemi in cui si verifica tale condizione. 

Se la nostra conoscenza della fisica fosse ancora al livello prerelativistico, la conoscenza della possibilità di esistenza di una espansione di fuga del sistema isolato non sarebbe dunque molto utile per lo sviluppo della teoria dell’organizzazione. I concetti introdotti dalla teoria della relatività [2], [3] permettono invece di dimostrare che durante l’espansione di fuga e sulle grandi distanze si verificano trasformazioni di energia in massa che trasformano l’espansione in un processo oscillatorio. Per tale via è possibile identificare meccanismi che portano alla formazione di semplici forme di ordine organizzativo in certi sottosistemi e ad associati flussi di energia ordinata tra tali sottosistemi, flussi che innescano processi che portano alla formazione di ordine complesso nei sottosistemi che li ricevono [4], [5], [6].

Prima dell’enunciazione della teoria della relatività, lo spazio ed il tempo erano considerati entità assolute, i cui valori dovevano essere covarianti (che implica l’ invarianza degli intervalli spazio-temporali) rispetto a sistemi di coordinate in moto relativo uniforme. La trasformazione di coordinate che riflette questo principio è la trasformazione di Galileo.

Il primo risultato scientifico che generò dubbi sulla validità dell’approccio di Galileo fu ottenuto nel campo dei fenomeni elettromagnetici. Nell’ambito di tali fenomeni, governati dalle equazioni dell’elettromagnetismo di Maxwell e Lorenz, il principio di relatività galileiano non viene infatti rispettato.

L’applicazione del principio galileiano comporta che la velocità di un raggio di luce muoventesi parallelamente al moto della terra dovrebbe risultare modificata dal moto della terra nei confronti di un osservatore posto sulla terra. L’esperimento di Michelson e Morley mostrò invece che la velocità della luce non è influenzata dal moto di traslazione della terra, così confermando il risultato di inapplicabilità della trasformazione di Galileo in un certo ambito di fenomeni.

La teoria della relatività ristretta tenne conto di questi risultati traendone la ovvia conclusione che, non essendo gli intervalli spazio-temporali sempre invarianti nei confronti di sistemi inerziali in moto relativo come previsto dalla trasformazione di Galileo, lo spazio ed il tempo non sono assoluti. Tuttavia, le differenze nei valori delle variabili fisiche che portano all’invalidazione della trasformazione di Galileo scompaiono se viene usata la trasformazione di Lorenz (ottenuta assumendo la velocità della luce come invariante trasformazionale) invece della trasformazione di Galileo. Per mezzo di questa trasformazione le leggi della fisica possono essere trasferite da un sistema inerziale all’altro, senza più le limitazioni che scaturivano dalla utilizzazione della trasformazione di Galileo.

Secondo la teoria della relatività ristretta, le leggi della fisica sono quindi invarianti rispetto alla trasformazione di Lorenz e ciò dà ai sistemi inerziali una speciale caratteristica di privilegio, allo stesso modo in cui l’invarianza rispetto alla trasformazione di Galileo aveva attribuito una natura privilegiata al sistema assoluto di riferimento nella fisica prerelativistica. Come Einstein ha sottolineato [2] e come è in ogni caso evidente, ciò comporta il trasferimento della natura di assolutezza dallo spazio e dal tempo presi singolarmente al continuo spazio-temporale.

Una volta che l’ipotesi di spazio e tempo assoluti era stata invalidata, il risultato fu portato alle sue estreme conseguenze, negando la caratteristica di assolutezza anche al continuo spazio-temporale, operazione eseguita da Einstein nella teoria generale della relatività [3]. Secondo questo modo di vedere, come l’invarianza delle leggi della fisica nei confronti della trasformazione di Galileo rappresenta una prima approssimazione che cade quando certe condizioni limite di moto relativo uniforme dei sistemi di riferimento vengono raggiunte, così l’invarianza delle leggi della fisica nei confronti della trasformazione di Lorentz rappresenta una prima approssimazione che cade in condizioni di moto relativo accelerato dei sistemi di riferimento.

Così come l’invarianza della velocità della luce permise di formulare la trasformazione di Lorentz, così la formulazione di una trasformazione generale fra sistemi di coordinate in moto relativo non uniforme comporta che vengano identificati gli elementi di invarianza per mezzo dei quali sia possibile tale formulazione. Il problema può essere posto nei seguenti termini: data una certa figura geometrica definita in un sistema di coordinate spazio temporali (spazio quadridimensionale di Minkoski) quale sarà la nuova figura se le coordinate variano? Einstein trasse gli elementi di invarianza, attraverso cui ottenere la trasformazione, dal principio di continuità secondo il quale le variazioni fra i sistemi devono aver luogo al livello della seconda derivata rispetto alle coordinate. La risposta alla domanda divenne così un problema geometrico già risolto dalla geometria non euclidea di Riemann, sviluppata nel calcolo dei tensori di Ricci e Levi-Civita.

Questo tipo di matematica permette di determinare gli elementi di invarianza in un tensore, di cui occorre fornire le relazioni fra i componenti che costituiscono gli elementi di variabilità. Per quanto riguarda il campo gravitazionale, queste relazioni furono fornite dal principio di equivalenza secondo il quale nel passare da un sistema di coordinate all’altro, l’accelerazione e l’attrazione gravitazionale devono essere considerate equivalenti. Questa equivalenza implica condizioni di simmetria fra i componenti del tensore.

I risultati ottenuti modificano dunque le conclusioni della meccanica classica in merito alla espansione di fuga. L’individuazione degli elementi di variabilità nell’equivalenza fra attrazione gravitazionale e accelerazione implica che nella trasformazione di un sistema ad una decelerazione deve corrispondere un aumento della attrazione gravitazionale e quindi della massa, implica cioè il principio di conservazione della somma massa+energia che sostituisce i due separati principi di conservazione dell’energia e della massa della meccanica tradizionale. Ciò implica che durante l’espansione di fuga si verifica una trasformazione continua di energia in massa che alla lunga arresta l’espansione e avvia una fase di compressione, trasforma cioè l’espansione in un processo oscillatorio.

Riesaminiamo allora l’analisi di Newton del moto oscillatorio di due masse m1 e m2 soggette esclusivamente alla attrazione gravitazionale reciproca. Questo moto è caratterizzato in ogni istante dai valori della velocità relativa delle due masse e quindi dell’energia cinetica E, della forza di attrazione gravitazionale F e della distanza fra le due masse s. Nella trattazione di Newton si assume che un gradiente dell’energia cinetica determini una forza capace di controbilanciare la forza gravitazionale. Newton cioè scrisse la famosa relazione:

dE/ds = – F                         (1)

che implica lo sviluppo di una variazione di energia cinetica, eguagliante la forza gravitazionale, in corrispondenza di ogni valore della distanza.

La funzione dell’energia cinetica è ottenuta, nella trattazione Newtoniana, integrando la (1), da:

E = -k m1m2 /s + C                 (2)

Quindi, secondo la trattazione classica, se l’energia cinetica ha un valore iniziale sufficientemente alto (il valore di fuga) vi è nel processo di espansione un punto a partire dal quale l’attrazione gravitazionale decresce più rapidamente dell’energia cinetica cosicché il moto di allontanamento diviene irreversibile.

Questa conclusione fu dovuta al fatto che Newton considerava due separati principi di conservazione dell’energia e della massa, considerava quindi invariabili le masse. Secondo la teoria della relatività, invece, durante il processo di espansione si verifica una trasformazione di energia cinetica in massa che implica un aumento dell’attrazione gravitazionale, in quantità equivalenti, cosicché è sempre raggiunto un punto di inversione, quale che sia il valore iniziale dell’energia.

Anche Newton incontrò l’ostacolo del principio di conservazione nella formulazione della sua teoria. Egli infatti postulò, appunto per rispettare il principio di conservazione dell’energia, che durante il processo di espansione l’energia cinetica si trasformasse in una energia potenziale, che non modificava per nulla l’attrazione gravitazionale, invenzione debole che solo al pregiudizio dovuto al grande prestigio di Newton deve la sua sopravvivenza.

I sistemi isolati ad alta energia, in conclusione, non assumono, in assenza di vincoli volumetrici, una condizione di espansione permanente come vuole la trattazione classica. Assumono una condizione oscillatoria di lungo periodo.

La conclusione è anche traibile al livello di relatività ristretta. Citiamo direttamente Einstein [2]: “se un corpo, che si muove con la velocità v, assorbe una quantità di energia Eo in forma di radiazione, senza che questo processo ne alteri la velocità, esso subisce di conseguenza un incremento della propria energia uguale a:

Eo / √ (1-v2/ c2)                              (3)

e l’energia cinetica del corpo risulta essere:

(m+Eo/c2)c2 / √ (1 – v2/ c2)                 (4)

Il corpo ha così la stessa energia di un corpo di massa m+Eo/c2 che si muove con la velocità v. Possiamo dunque dire: se un corpo assorbe una quantità di energia Eo, allora la sua massa inerziale cresce di una quantità Eo/c2; la massa inerziale di un corpo non è una costante, ma varia a seconda del mutamento di energia del corpo stesso. Il principio di conservazione della massa di un sistema diventa identico al principio di conservazione dell’energia ed è valido solo in quanto il sistema non assorba né emetta energia.” Naturalmente, in questo caso Einstein ha preso in esame un sistema un moto uniforme, ma le conclusioni possono essere estese facilmente al caso nostro, in cui il corpo subisce una decelerazione in conseguenza dell’attrazione gravitazionale. Supponiamo infatti che, subita la decelerazione, il corpo assuma un moto uniforme con velocità v. Per il principio di conservazione dell’energia il corpo deve avere assorbito la quantità di energia corrispondente alla decelerazione che diciamo Eo; vale quindi ancora la (4). Il risultato non può cambiare se, subita la decelerazione il corpo ,invece di riprendere il moto uniforme, subisce una ulteriore decelerazione. Ad ogni decelerazione corrisponderà un aumento della massa.

Einstein stesso spiega il motivo perché queste trasformazioni siano sfuggite nell’ambito della meccanica classica: “Un confronto diretto con l’esperimento non è possibile al giorno d’oggi, perché i mutamenti dell’energia Eo a cui possiamo sottoporre un sistema non sono grandi abbastanza da rendersi percettibili come mutamento della massa inerziale del sistema. Eo/c2 risulta troppo piccola in confronto alla massa m che era presente prima dell’alterazione energetica. E’ grazie a questa circostanza che è stato possibile stabilire con successo un principio di conservazione della massa come legge avente validità autonoma.”[2]

Dunque in questo studio non ho fatto altro che riesporre elementi fondamentali della teoria della relatività, perché la trasformazione da energia a massa (e viceversa) nell’ambito dei sistemi non inerziali (o, come abbiamo visto, anche nei sistemi inerziali, se la variazione di energia non determina un mutamento della velocità) non è una conclusione marginale della teoria, ma il cardine stesso della teoria che non dovrebbe pertanto poter essere ignorato.

Riferimenti

[1] -Firrao S.: Development of oscillatory processes in isolated high energy systems, Cybernetica, XXXI, 4, 1988

[2] -Einstein A.:Uber die Spezielle und Allgemeine Relativitats-theorie, Lipsia, 1916

[3] -Einstein A.: Vier Vorlesungen uber Relativitats-theorie Vieweg & Sohn, Braunschweig, 1992 (Course of lectures held at the Princeton in 1921)

[4] -Bertalanffy L.:Science, III, 1960, 23

[5] -Brillouin L.: J. Appl. Phys., 24, 9, 1152, Septem. 1953

[6] -Prigogine I., Nicolis G.:SeSelf-Organization in Non-equilibrium Systems, Wiley, New York, 1977

Sulla entropia statistica di Boltzmann

Una delle leggi fondamentali della fisica statistica ha sollevato problemi di così difficile soluzione da bloccare, fino ad oggi, il progresso in campi di estremo interesse. Il mio proposito attuale è di mostrare, come questo fondamentale teorema potrebbe ricevere, sulla base di importanti avanzamenti della matematica statistica, delle profonde, sostanziali rielaborazioni. Intendo riferirmi alla legge sulla variabilità dell’entropia statistica di Boltzmann. Secondo Boltzmann, la configurazione di massima entropia ha la più alta probabilità di realizzarsi, ma non è la sola configurazione possibile. Quindi, il passaggio del sistema in equilibrio statistico attraverso configurazioni di minore entropia non è escluso (ipotesi ergodica).

Tale conclusione di Boltzmann è basata sull’ipotesi che i vari modi di combinazione dei microstati, che danno luogo alle varie configurazioni del sistema abbiano eguale probabilità. Per conseguenza, la configurazione di massima entropia ha la massima probabilità perché può essere ottenuta nel maggior numero di modi. Noi mostreremo, invece, che la configurazione di massima entropia è la sola possibile configurazione di una sistema in equilibrio statistico.

Iniziamo con il considerare il senso ed il significato che la statistica permette oggi di attribuire all’entropia statistica. Sia un sistema composto da n elementi estratti da un insieme più ampio e individuati da un indice i che va da 1 a n e supponiamo che tali elementi possano trovarsi in r stati individuati dall’indice k che va da 1 a r con probabilità pi,k . E’ ovviamente:

∑pk = 1            (1)

quale che sia l’elemento i considerato. Supponiamo anche che le probabilità siano eguali quale che sia l’elemento considerato, così che possano essere indicate semplicemente con pk.

Poniamoci ora questa domanda: data tale struttura di probabilità dei componenti elementari, quale sarà la distribuzione più probabile degli n elementi?

Nello rispondere a questa domanda fondamentale, la statistica propone un contro-quesito preliminare che condiziona la soluzione del problema e i cui termini, pur essendo prospettati da oltre due secoli, non sono stati evidentemente compresi, visto che un errore banale nella risposta al contro-quesito è stato non solo commesso da Boltzmann ma non rilevato nel corso di un dibattito da allora mai interrotto.

Secondo la statistica, dunque, il termine di probabilità è privo di senso se non viene definito preliminarmente il campo di variazione nei cui confronti esso viene definito. Il campo di variazione può essere interno ad un insieme chiamato universo se costituito da un numero infinito di componenti e popolazione se costituito da un numero finito di componenti. In tal caso il campo di variazione è comune a tutti i componenti e si dice che esiste una interdipendenza statistica delle probabilità. Il campo di variazione nei cui confronti è definita la probabilità può essere invece interno ad ogni componente che può presentarsi in una molteplicità di modi alternativi, ed il campo di variazione complessivo per un insieme si costituisce per sovrapposizione moltiplicativa dei campi di variazione dei singoli componenti e si dice che esiste una indipendenza statistica delle probabilità.

Il caso tipico di interdipendenza statistica è costituito da una popolazione di individui classificati secondo una certa caratteristica, supponiamo il colore di una maglia indossata. La probabilità di un certo colore di maglia non costituisce una caratteristica variabile nell’individuo, che si presenta con un solo colore di maglia, ma è desunta dalla variabilità della caratteristica nella popolazione. Da notare, ai fini del raffronto con la condizione da cui è partito Boltzmann nelle sue elaborazioni, che la condizione di interdipendenza statistica non muta se gli individui si scambiano la maglia, perché il numero di maglie di un dato colore rimane in tal caso costante così come rimane per conseguenza costante la probabilità di ottenere un determinato colore di maglia scegliendo a caso un individuo dalla popolazione.

Se invece ciascun individuo può presentarsi con un colore diverso di maglia senza che ciò sia l’effetto di una scambio, ad esempio attingendo ad un campo di variabilità proprio, costituito dal proprio guardaroba, senza cioè che il numero di maglie di un determinato colore debba rimanere costante nella popolazione, si ottiene una condizione di indipendenza statistica delle probabilità.

Trasferiamo tali considerazioni al caso fisico che costituisce il punto di partenza della elaborazione di Boltzmann, vale a dire un gas monoatomico costituito da molecole fra le quali si esercitano solamente urti elastici e forze gravitazionali. Nell’ambito di valori costanti dell’energia complessiva e del volume complessivo del sistema, si avrebbe una condizione di indipendenza statistica delle probabilità degli stati delle molecole se ogni molecola potesse presentarsi in una molteplicità di stati indipendentemente dalla sua appartenenza al sistema. (Allo stesso modo di come un individuo, nell’esempio testé fatto, potrebbe mostrare, attingendo al proprio guardaroba, una variabilità del colore della maglia anche uscendo fuori dalla popolazione).

Ma è ben evidente che, se una molecola fuoriesce dal sistema (e dal connesso campo gravitazionale) essa non può subire alcuna modifica del suo stato energetico ed anche la sua variazione di posizione è soggetta a condizioni limitative espresse dal principio di inerzia. La variabilità mostrata è quindi effetto di scambio mentre le probabilità sono necessariamente desunte dalla frequenza degli stati molecolari nell’ambito del sistema complessivo. La condizione di partenza è quindi tipicamente di interdipendenza statistica, mentre Boltzmann ipotizza, al contrario, che la condizione sia di indipendenza statistica delle probabilità degli stati. Si tratta di un errore grave ai fini dello svolgimento della successiva trattazione, non accettabile neanche in via di approssimazione, giacché le due condizioni sono, ai fini di determinati, importanti sviluppi, diametralmente opposte. E’ già ben evidente, infatti, che in condizioni di interdipendenza statistica il sistema può assumere una sola configurazione, in quanto la modifica della configurazione comporta la variazione della frequenza e quindi della probabilità degli stati di posizione, il che implica la possibilità di variazione autonoma, non di scambio, di tali stati, quindi una condizione di indipendenza statistica degli stati.

  È bene sottolineare che la condizione di interdipendenza statistica degli stati non implica alcuna dipendenza funzionale fra di essi ma semplicemente il fatto che la probabilità di ottenere un dato stato scegliendo a caso un componente del sistema è data della frequenza con cui questo stato appare nel sistema complessivo. I vari stati vanno però considerati come entità assolutamente indipendenti e di comparsa assolutamente casuale, allo stesso modo come le frequenze dei colori di maglia dei componenti della popolazione nell’esempio citato di interdipendenza statistica non possono mutare, ma ciò non toglie che la prima costituzione delle frequenze dei colori possa essere una scelta assolutamente libera da vincoli, quindi casuale.

 Consideriamo adesso un problema che è connesso alle suesposte considerazioni. Lo stato macroscopico può essere considerato come composto di n eventi indipendenti, cioè di n successive estrazioni. La probabilità può quindi essere calcolata come il prodotto delle probabilità dei singoli eventi. E’ legittima questa procedura di calcolare la probabilità dell’evento complesso? Generalmente parlando, non lo è. Poiché l’estrazione è eseguita da un insieme finito, esiste una interdipendenza indiretta o da “container” delle successive estrazioni, cosicché l’ipotesi della loro indipendenza non può ritenersi verificata. Poiché tutti gli elementi vengono estratti dallo stesso insieme finito, ogni estrazione modifica la distribuzione degli elementi rimanenti e quindi il livello probabilistico delle successive estrazioni.

Ricordiamo che la probabilità di un evento complessivo costituito da due elementi semplici è moltiplicativa (cioè ottenibile dal prodotto delle due probabilità elementari) quando i due elementi hanno campi di variabilità completamente separati. In tal modo il campo totale, in cui la probabilità dell’evento complesso deve essere calcolato cresce in modo moltiplicativo (il numero di possibili eventi combinatori, cioè la dimensione del campo di variabilità dell’evento complesso si ottiene infatti moltiplicando tutti i punti dell’uno per tutti i punti dell’altro e sommando). Essa diviene invece additiva (ossia ottenibile per somma delle probabilità elementari, quando i due eventi si realizzano nello stesso campo, cosicché l’accadenza dell’uno riduce il campo di variabilità dell’altro.

Nel nostro caso, l’occorrenza di un certo numero di eventi riduce il campo di variabilità degli altri al fine di soddisfare non solo la relazione (1) ma anche per ottenere una struttura di frequenze eguale a quella delle probabilità, che impone ulteriori vincoli alla classe delle frequenze individuali. Cionondimeno in statistica si ritiene che, quando il numero di elementi estratti è molto piccolo in confronto al numero totale di elementi della popolazione, la modifica connessa a quest’ultima considerazione possa essere ignorata e la estrazione è considerata come avvenire in una popolazione infinita o universo (o può stabilirsi che, dopo ogni estrazione, l’elemento venga rimesso nella popolazione cosicché il suo campo di variabilità non venga influenzato dalla estrazione). In questo modo, l’intero campo di possibilità offerto dalla popolazione è aperto ad ogni elemento estratto e, in termini aprioristici, il processo effettivamente si svolge come se non vi fossero limiti nella dimensione del campo

La probabilità dell’evento complesso può allora essere valutata come prodotto delle probabilità dei singoli eventi elementari in quanto le modificazioni indotte nella popolazione dalla estrazione possono, in questi casi, essere ignorate. Tuttavia, l’aumento moltiplicativo delle dimensioni del campo di variabilità che è implicito nel calcolare la probabilità totale tramite il prodotto delle probabilità elementari, non può essere ignorato. Infatti il numero di combinazioni possibili non è rappresentato dalle combinazioni ottenibili se a ogni estrazione corrispondesse un differente campo di variabilità laddove ad ogni estrazione corrisponde lo stesso campo di variabilità.

Occorre quindi, in ogni caso, apportare al prodotto delle probabilità una correzione che tenga conto di questa necessità di “normalizzazione” del campo di variabilità che si aggiunge alla necessità di normalizzazione del campo delle probabilità, espresso dalla (1).

Assumendo un campione di dimensione n, si avranno npk componenti con probabilità pk e quindi, moltiplicando le probabilità di tutti gli elementi estratti si otterrebbe, come valore della probabilità complessiva:

P =∏(pk)npk                     (2)

Cioè un numero tendente rapidamente a zero con la dimensione del campione.

Tale risultato è privo di senso e riflette l’ampliamento esponenziale delle possibilità che si verifica per effetto della considerazione di campi di variabilità separati per ogni componente estratto con la conseguente rapidissima tendenza a zero della quota rappresentata dall’evento realizzato, cioè della sua probabilità. Va quindi eliminato l’aumento dimensionale del campo connesso alla presenza del coefficiente n nell’esponente della (2) e ciò è evidentemente molto facile, basta cassarlo.

Con queste premesse, ed effettuata l’operazione di normalizzazione del campo di variabilità, la probabilità del fenomeno complesso può essere ritenuta coincidere con il prodotto delle probabilità dei fenomeni elementari, ma ad ogni modo, per tener conto delle ipotesi semplificative che permettono tale affermazione, sopratutto del riferimento a campioni estratti da un universo piuttosto che da una popolazione finita, essa viene chiamata “verosimiglianza” e indicata generalmente con la lettera L, iniziale del termine anglosassone “likelihood”.

La verosimiglianza dello stato macroscopico sarà quindi espressa da:

L = pk)pk                                (3)

Vi è però un elemento di ambiguità che l’introduzione della verosimiglianza mantiene: esso è costituito dal fatto che il numero di parametri a cui è assegnata la densità di probabilità non è necessariamente costante, ma può essere addirittura una funzione della dimensione del campione.

Per conseguenza, pur avendo eliminato l’elemento di ambiguità connesso all’esponente n della (2) il prodotto delle probabilità può tendere rapidamente a zero ed essere quindi privo di significato per l’aumentare del numero dei parametri i per ciascuno dei quali va determinato il livello di probabilità. Si dice che esiste una ambiguità connessa alla variabilità di scala del parametro a cui viene assegnata la densità di probabilità.

La normalizzazione realizzata dividendo l’esponente della (2) per n non è quindi completa, fintanto che il numero dei fattori al secondo membro della (3) è soggetto ad una variabilità di scala connessa alla variabilità del numero dei parametri o dei valori del parametro per i quali è richiesta la determinazione probabilistica.

La variabilità di scala implica che data una certa distanza individuata da un segmento di una retta, essa può essere espressa in modi diversi, intendendosi come tali diversi numeri di punti intermedi cui diamo importanza significativa. Ciò può accadere anche se consideriamo una infinità di punti di un segmento, cioè una condizione di continuità perché è possibile considerare infinità di punti di diverso ordine nell’ambito dello stesso segmento.

Il problema della eliminazione della variabilità di scala è un altro di quei problemi che mostrano quanto difficile sia la comprensione del significato e della generalità di certi risultati. Esso è stato infatti risolto da Bernoulli intorno al 1700 nell’ambito della dimostrazione della convergenza della binomiale alla gaussiana ridotta [2] ed il metodo adottato è stato poi applicato alla dimostrazione del teorema limite centrale del calcolo delle probabilità [3], nonché di altri importanti teoremi, ma senza che alcuno rilevasse la generalità di tale soluzione, così che il risultato generale è stato ricercato per secoli e ritrovato recentemente da Jaynes [6] riprendendo un’idea di Jeffrey [7], nell’ambito di un problema similare ed infine da me [8], in modo del tutto autonomo nell’ambito di un diverso problema.

Nel paragrafo che segue si riporta la elegante dimostrazione di Bernoulli, che commenteremo ove opportuno al fine di mostrare attraverso di essa il significato dell’operazione di normalizzazione ivi condotta e come dovrebbe essere facile, almeno intuitivamente, dedurne l’estensione al calcolo differenziale.

Consideriamo una variabile statistica distribuita secondo lo schema di Bernoulli

dove p e q sono le probabilità di accadenza (1) e di non accadenza (0) di un evento. Come è noto, la somma di n variabili statistiche distribuite secondo lo schema di Bernoulli può essere associata al polinomio:

 (pt + q)n       (5)

il cui termine generale dello sviluppo è dato dall’espressione di Newton:

Bernoulli2cui corrisponde la variabile statistica:

Bernoulli3

ogni valore

relativo ad un valore di s, esprime la frequenza di s accadenze su n eventi indipendenti, ciascuno distribuito secondo lo schema di Bernoulli (4). La distribuzione di frequenza della variabile statistica (7) è detta distribuzione binomiale. E’ facile calcolarne la media e la varianza. Si ha infatti per la distribuzione elementare (4):

               media = m = (1xp+0xp)/(p+q) = p(p+q) = p

              varianza = σ2= (1-p)2p + (0-p)2q = pq                                            (8)

Ne segue che per la variabile (7) somma di n variabili elementari (4) si ha:

            m = np                           σ2= npq                 (9)

Come si vede, quindi, l’intervallo (0,1) della variabile originaria, definito da due soli punti, ha assunto nella variabile somma n+1 punti significativi, cioè ha assunto una variabilità di scala. E’ facile vedere che ciò determina una tendenza a zero di tutte le probabilità al crescere del numero di variabili statistiche somma, cioè di n, che cioè l’espressione generica della probabilità tende a zero con il crescere di n ed assume quindi una ambiguità connessa all’esistenza di una variabilità di scala. Dimostriamolo per il massimo valore della frequenza, valore che si ha in corrispondenza di un valore i della variabile s per cui si ha:

che comporta:

                                                   i > pn-q                                   (11)

Per grandi valori di n si può allora porre i = pn e pertanto Wi diviene:

Applicando la formula di De Moivre Stirling, valida per grandi valori di n:

si ha, sostituendo in (12):

Bernoulli

e quindi, per n tendente all’infinito.

Se però sostituiamo ai valori della variabile statistica di partenza (4) gli scarti rispetto alla media rapportati allo scarto quadratico medio totale (i cosiddetti scarti ridotti) se cioè partiamo da variabili statistiche del tipo:

la variabile statistica X(n) somma di n di tali variabili, al tendere di n all’infinito tende ad una forma limite la cui distribuzione di frequenza è data dalla formula:

detta “Gaussiana ridotta”.

Basta, per dimostrare questa affermazione, applicare l’inversa del primo teorema limite del calcolo delle probabilità e dimostrare che la funzione generatrice della variabile statistica somma X(n) tende alla funzione generatrice della gaussiana ridotta. Ci risparmiamo il dettaglio di questa dimostrazione, contenuta in tutti i testi di statistica ed in particolare nel mio testo citato in bibliografia, cap. II, pagg, 25 e 26 [4].

Ciò che a noi interessa è che il passaggio agli scarti ridotti, cioè a variabili anche dette normalizzate, che viene svolto anche nella dimostrazione di altri importantissimi teoremi, quale il teorema limite centrale del calcolo delle probabilità, può essere espresso in termini differenziali come sostituzione della variazione elementare d con la variazione d/, cui corrisponde, a livello integrale, il passaggio ai logaritmi.

Come ho avuto modo di accennare, tale conclusione è stata ritrovata da Jaynes, assai recentemente, attraverso la cosiddetta “teoria della marginalizzazione” [6], nell’ambito di una ricerca volta ad eliminare l’ambiguità connessa alla variabilità di scala del parametro cui viene assegnata la uniforme densità di probabilità nel teorema di Bayes e Laplace. Lo stesso risultato è stato da me ottenuto in un altro contesto [8].

Dunque la variabilità di scala di un parametro viene eliminata sostituendo le variazioni differenziali del parametro, d, con il rapporto d/, il che implica, a livello integrale, l’assunzione di una scala logaritmica. La verosimiglianza, nella sua forma logaritmica, diviene:

cioè la verosimiglianza normalizzata coincide (trascurando il segno) con l’entropia statistica. Per quanto abbiamo più sopra detto, essa è quindi libera dalle ambiguità connesse alla variabilità di scala del parametro cui è assegnata la densità di probabilità.

E’ opportuno che ci soffermi ancora sul concetto che la verosimiglianza normalizzata, o l’entropia, pur coincidendo con la probabilità dell’evento complesso quando questo costituisce un piccolo campione estraibile da una popolazione infinita, non può essere assolutamente con essa confusa quando ci si allontani da queste ipotesi estremamente restrittive assumendo eventi complessi la cui dimensione non sia più trascurabile nei confronti della popolazione o addirittura la esauriscano, per considerare quali sono i motivi per cui essa rimanga pur tuttavia, anche in queste condizioni un indice di estrema importanza.

L’entropia, come prodotto delle frequenze normalizzate, è in rapporto univoco con la struttura distribuzionale della popolazione o del campione e rappresenta perciò un indice distribuzionale, una misura della variabilità.

Come è ben noto agli studiosi di statistica, sono stati proposti numerosi indici che possano rappresentare sinteticamente una distribuzione di frequenza. Evidentemente, vista la ovvia impossibilità teorica di sintetizzare in un solo indice informazioni così numerose e complesse quali sono racchiuse in una distribuzione di frequenza, la scelta dell’indice assume degli aspetti soggettivi, risultando un indice più adatto ad un problema piuttosto che ad un altro. Cionondimeno un indice ha avuto un successo particolare in virtù del fatto che si inquadra come componente in un quadro matematico che permette l’analisi completa della variabilità. Mi riferisco alla varianza o momento del secondo ordine, che rappresenta il secondo termine dello sviluppo in serie di una funzione, detta funzione caratteristica, che può essere trasformata, attraverso il teorema di inversione di Fourier, nella funzione distribuzionale [5].

Quindi, seppure non è possibile trasferire l’intera quantità di informazione contenuta in una funzione distribuzionale in un solo indice, è possibile trasferirla in una successione di indici, o momenti, che rappresentano lo sviluppo in serie della funzione caratteristica e fra i quali il momento del secondo ordine occupa un posto di particolare importanza, visto che generalmente il resto dello sviluppo in serie tende rapidamente a zero.

E’ possibile quindi apprezzare il significato dell’entropia mediante il raffronto fra le variazioni dell’entropia e le variazioni del momento del secondo ordine.

E’ innanzi tutto evidente che, poiché le probabilità sono valori frazionari, l’entropia diminuisce all’aumentare del numero dei fattori, cioè del numero delle classi di frequenza. Poiché parliamo di campi variazionali normalizzati, in cui cioè è eliminata la variabilità di scala, la riduzione del numero delle classi, e quindi l’aumento dell’entropia, riflette la reale riduzione degli elementi di variabilità o distinguibilità, ossia la diminuzione dell’ampiezza del campo di variabilità normalizzato e quindi della varianza. L’entropia è un indice distribuzionale che varia in modo inverso alla varianza, è cioè, con i termini di Gini, un indice di “concentrazione”.

Naturalmente, non ignoriamo che la varianza dà un peso crescente agli elementi della variabile statistica a seconda della differenza dei loro valori dalla media, laddove nell’entropia statistica il solo elemento considerato è la frequenza, quale che sia il valore dell’elemento. Quindi nell’entropia statistica la distinguibilità degli elementi è determinata dalla selezione apriori degli eventi elementari a cui è assegnata una densità di probabilità e a cui l’operazione di normalizzazione riporta. Nella varianza invece, la distinguibilità entra anche attraverso i valori della variabile statistica che entrano nel calcolo dell’indice e non solo nella determinazione delle classi di frequenza. Quindi nella varianza è possibile graduare la distinguibilità o differenziazione, laddove nell’entropia la distinguibilità ha solo due livelli: si e no. Quindi l’entropia statistica non è adeguata al trattamento di fenomeni in cui la variabile statistica (che esprime la distinguibilità) varia secondo una quantità numerabile, mentre è adeguata alla trattazione di fenomeni in cui la variabile statistica varia per attributi.

In ogni caso, l’entropia è influenzata dalla determinazione aprioristica degli elementi di distinguibilità che può essere, in una certa misura, arbitraria, come è mostrato dal famoso paradosso di Gibbs [9].

Gibbs mostrò che le conseguenze fisiche del mischiare due gas “quasi identici” sono essenzialmente le stesse del mischiare due gas identici. Tuttavia la variazione di entropia data dalla relazione di Boltzmann è grande per molecole distinguibili mentre è zero per molecole identiche. Malgrado siano passati più di cento anni da quando Gibbs formulò il suo paradosso, non è stata ancora trovata una spiegazione soddisfacente.

Alla luce della nostra analisi la sua soluzione è chiara. Assumendo un elemento di poca importanza ai fini della distinguibilità, come è implicito nei termini “quasi identici”, come elemento fondamentale di determinazione del campo di variabilità normalizzato gli si dà la massima importanza proprio per quanto riguarda la distinguibilità, così introducendo la possibilità di valutazioni erronee se l’entropia non è valutata in relazione al valore elementare di distinguibilità definito apriori.

In altre parole, l’entropia deve essere valutata in relazione al valore elementare di distinguibilità dato a una classe rispetto ad un’altra, valore che non entra nel calcolo dell’indice come invece avviene nella varianza.

Nella dimostrazione di Boltzmann della legge dell’ aumento dell’entropia statistica la scelta arbitraria di distinguibilità consiste nella dimensione della cella elementare.. Tale cella venne scelta in modo da contenere un gran numero di particelle, cosicché il numero dei modi con cui una configurazione può essere realizzata è dato da:

La sua espressione logaritmica è l’entropia coincidente (come ha mostrato Shannon utilizzando la formula di De Moivre Stirling e tenendo conto che Nk/N = pk) con l’opposto della espressione (18). In essa Nkè il numero di particelle contenute nella cella k. Secondo Boltzmann, la configurazione più probabile è quella per la quale la eq. (19) diviene massima.

Ora, i fattori Nk! Esprimono le permutazioni degli elementi contenuti all’interno delle celle cosicché eq. (19) esprime le permutazioni residue fra le celle.

Evidentemente il valore dell’eq. (19) aumenta quando le particelle sono suddivide fra le celle (perché aumentano le permutazioni fra le celle) e diminuisce quando le particelle sono condensate nelle celle (perché aumentano le permutazioni nelle celle). Ma il valore dell’eq. 19, e quindi dell’entropia, aumenta anche se la dimensione delle celle decresce perché anche in questo caso le permutazioni fra le celle aumentano. Quindi l’entropia dipende dalla dimensione delle celle che cambia l’ elemento di distinguibilità. Da notare che le differenze in entropia fra le configurazioni diminuisce quando la dimensione delle celle diminuisce: se scegliamo una cella così piccola da contenere solo una particella, tutti i fattori Nk! dell’eq. (19) divengono unitari ed il numero di modi di combinazione dei microstati diviene N! quale che sia la configurazione!

Ritorniamo allora al problema da cui siamo partiti, vale a dire la determinazione della distribuzione delle frequenze degli r stati in cui ciascun elemento di un insieme può trovarsi in condizioni di interdipendenza statistica ed in particolare delle frequenze di posizionamento che individuano la forma del sistema, cioè la configurazione del sistema. Ricordiamo la conclusione cui siamo giunti che in condizioni di interdipendenza statistica può esistere una sola configurazione in quanto la modifica della configurazione implicherebbe la variazione delle frequenze degli stati di posizionamento che in una condizione di interdipendenza statistica di un sistema isolato non possono sussistere.

Con ciò ovviamente non abbiamo determinato quale sia questa configurazione, anche se sappiamo che è unica; ricordiamo però che la prima formazione della distribuzione di frequenza è un processo casuale.

Noi possiamo in tal caso applicare il principio di indifferenza di Laplace e la conseguente legge dei grandi numeri di Bernoulli. Essa stabilisce che in simili casi in cui non vi è alcuna ragione a priori per dare differenti probabilità agli stati elementari si deve assumere una condizione di eguale probabilità e ritenere che l’esistenza di una non uniformità distribuzionale sia equivalente all’esistenza di una causa agente,

Si può dimostrare che, quando le probabilità degli stati elementari sono eguali, il livello di entropia di tale distribuzione è superiore a quello ottenibile con qualsiasi altra distribuzione. Dimostriamolo per semplicità nei confronti della verosimiglianza.

La condizione di normalizzazione delle frequenze impone:

Il massimo della verosimiglianza richiede l’annullamento della derivata, cioè per Max(p1*p2*……)deve essere:

Ma essendo

si deve avere:

p1 = p2 = ….ecc                       (22)

Dunque, la configurazione di massima entropia non è la configurazione più probabile, ma l’unica possibile.

Ma allo stesso risultato si può giungere attraverso una diversa linea di ragionamento, senza necessità di passare dalla legge dei grandi numeri. Supponiamo che tutti i componenti del sistema abbiano lo stesso stato energetico, cioè lo stesso livello di energia cinetica.

Perché i differenti modi di combinazione diano luogo a configurazioni distinguibili vi devono essere differenze nella composizione delle celle in cui il sistema viene diviso. Ciò implica una variabilità della densità dei componenti e quindi differenziali dell’energia totale fra una cella e l’altra.

Quindi, una variabilità configurale può esistere solo sotto condizioni di disequilibrio [10], altrimenti le diverse combinazioni di celle son indistinguibili. Tuttavia, poiché le condizioni di disequilibrio tendono, per il postulato di Carnot, verso l’equilibrio e poiché queste condizioni di equilibrio non possono essere abbandonate, in definitiva sotto condizioni di equilibrio solo una configurazione macroscopica è possibile.

Conclusioni

L’ipotesi di Boltzmann è quella di equiprobabilità dei modi di combinazione degli stati per realizzare le configurazioni. Ma alle diverse configurazioni corrispondono diverse distribuzioni di frequenza degli stati e quindi diverse distribuzioni delle probabilità elementari. Poiché abbiamo visto che le distribuzioni asimmetriche delle probabilità elementari non sono possibili in assenza di una causa sistemica (secondo la locuzione di Prigogine esistono “vincoli di simmetria”), l’ipotesi di Boltzmann contraddice clamorosamente il principio di indifferenza di Bernoulli ed equivale ad ammettere che vi siano effetti senza cause.

Si tratta di un errore metodologico grave, che è stato possibile commettere e non rilevare dopo che era stato commesso, in virtù di una condizione di impossibilità ancora più grave cui sembrava condurre la sua negazione, quella della impossibilità della formazione dell’ordine nei sistemi isolati. Infatti, malgrado attraverso l’ipotesi di Boltzmann si debba considerare come macrostato più probabile quello ottenibile con il maggior numero di modi di combinazione che è quello di massima entropia, sussistono probabilità di passaggio per macrostati diversi, che possono determinare l’innesco di un meccanismo evolutivo (ipotesi ergodica), probabilità che seguendo lo schema di Bernoulli debbono invece escludersi.

Ma una contraddizione non è mai stata risolta da un’altra contraddizione: se, invece di cercare impossibili modo di formazione dell’ordine per via casuale, si fosse considerato che le conclusioni ottenute tramite lo schema di Bernoulli dimostrano la necessità dell’esistenza di un fattore sistemico nascosto, questo sarebbe stato alla lunga trovato, come ho avuto modo di mostrare in altri lavori [11]

Bibliografia

[1] – Jaynes E.T.:Where do we stand on maximum entropy? In “The maximum entropy Formalism” Levine & Tribus ed., MIT Press, 1978

[2] – Firrao S.: Controllo Statistico della Qualità, Politecnico di Milano, 1968, pag. 25

[3] – Ibidem, pag. 29

[4] – Ibidem pag. 25 e 26

[5] – Ibidem, pag 18

[6] – Jaynes .T.: Foundations of Probability Theory, Statistical Inference and Statistical Theories of Sciences, W.L. Harper and C. A. Hooker eds, D. Reidel Publishing Co. Dordrecht, Holland, 1976

[7] – Jeffreys H.:Theory of Probability, Oxford University Press, 1948

[8] – Firrao S.:Sui fondamenti della termodinamica, in Studi sui sistemi complessi, Lulu, cap. 2

[9] – Gibbs J.W. : Principles of Statistical Mechanics, Yale University Press, New Haven, 1948

[10] – Prigogine I., Nicolis G.: Self-Organization in Non-equilibrium Systems, Wiley, New York, 1977

[11] – Firrao S.: Development of Oscillatory Processes in Isolated High Energy Systems, Cibernetica, XXXI, 4, 1988

.