Sui fondamenti relativistici della teoria dell’organizzazione

Le formule relativistiche di trasformazione fra sistemi in moto relativo, basate sulla invarianza trasformazionale del continuo spazio temporale e della somma energia + massa, sono molto importanti, come ho avuto modo di mostrare in altri lavori [1],[2], per comprendere i meccanismi di autorganizzazione dei sistemi, partendo da quelli macroscopici in cui l’organizzazione viene inizialmente innescata.
E’ mia intenzione mostrare che vi è un certo risultato, che precede di gran lunga gli sviluppi della relatività, che è stato acquisito in modo alquanto ambiguo dalla scienza, ma che può inserirsi in modo estremamente interessante nel discorso sui fondamenti relativistici della teoria dell’organizzazione.
Si tratta della caratterizzazione ulteriore degli elementi invarianti, che hanno cioè una esistenza assoluta, del referente ultimo della realtà che sottende alla relatività dialettica.

I principi di conservazione del continuo spazio-tempo e della somma massa-energia non risolvono molti problemi per i quali occorre dare all’elemento assoluto una caratterizzazione maggiore di quella che risulta dalla semplice esistenza di “qualcosa” che può manifestarsi in modi alternativi. Intendo riferirmi al principio del “contenimento” del continuo nel discreto, introdotto in modo alquanto ambiguo nella formulazione Newtoniana ed in modo invece netto nella formulazione Leibniziana che ha portato alla costruzione della teoria monadistica.
Come Einstein ha riconosciuto in un articolo pubblicato su “Scientific American” nel 1950, gli aspetti fondamentali della teoria della relatività erano già presenti nel pensiero di Leibniz. Le due teorie, avendo un corpo comune, sono coerenti e ciò ci permette di affermare che la soluzione Leibniziana del problema del referente ultimo è aprioristicamente valida, in termini euristici, anche nell’ambito della teoria della relatività.
La parte fondamentale del ragionamento di Leibniz, poi proseguita nella costruzione di una teoria sulla costituzione della realtà che va sotto il nome di monadologia, pur essendo costituita da elementi puramente logici, non sperimentali, ha portato allo sviluppo di una matematica, l’analisi infinitesimale, senza la quale non sarebbero stati possibili gli sviluppi della scienza sperimentale moderna.

Il punto di partenza ha origine nel pensiero greco, nei paradossi zenoniani circa la collocazione del mondo nel tempo e nello spazio e circa la divisibilità della sostanza composta in sostanze semplici che investono, in sintesi la compatibilità del continuo e del discreto, il primo caratteristica necessaria dello spazio e del tempo, il secondo caratteristica necessaria degli oggetti.

La soluzione del problema da parte di Newton e di Leibniz consistette nell’introduzione del concetto di “limite”, da cui scaturirono i concetti di derivata e di integrale, secondo cui il discreto è il limite a cui tende il continuo. La validità sul piano euristico di tale concezione è fuori discussione; se una sommatoria si approssima sempre di più ad un determinato valore, vi è sempre una dimensione della sommatoria per la quale la differenza da tale valore, dal limite, è, a qualsiasi effetto pratico, trascurabile. Cionondimeno, la accettabilità sul piano euristico non implica la accettabilità sul piano logico. Se una sommatoria si approssima sempre di più ad un valore senza mai raggiungerlo, non è lecito assumerne l’equivalenza, e l’artificio analitico, di considerare una sommatoria infinita si rivela, nella sua pratica inattuabilità, per quello che è, cioè solo un artificio.

E’ particolarmente importante rilevare che l’insufficienza della soluzione di Newton e del primo Leibniz apparve evidente a quest’ultimo nelle condizioni in cui un limite non è definibile, cioè nei problemi che involvono l’infinito, come nella prima antinomia e come si prospettano oggi di fronte alla dimostrazione dell’esistenza di una espansione accelerata dell’universo. Di qui l’insoddisfazione di Leibniz che lo spinse ad andare oltre il punto raggiunto anche da Newton. L’idea di Leibniz fu quella di trasferire alla realtà la conciliazione logica implicita nel concetto di limite, così anticipando di quasi due secoli l’impostazione filosofica positivistica secondo cui, essendo l’intelletto partecipe della realtà, è assurda una sua dicotomizzazione da essa (nihil est in intellectu quod prior non fuerit in sensu).

Quindi, poiché nel concetto di limite è implicito un “contenimento”, una limitazione del continuo da parte del discreto, nella realtà deve considerarsi il continuo come “subordinato”, “compreso” nel discreto. Ne consegue che lo spazio e il tempo che inducono il concetto di continuità, in quanto per essi non è definibile una dimensione minima, non hanno una esistenza autonoma, come invece ha la monade, cioè l’elemento discreto che costituisce la realtà e che li contiene. Essi costituiscono un mezzo di inquadramento delle relazioni inframonadiche, un prodotto delle monadi.
Secondo Leibniz dunque l’assoluto è assunto nelle monadi, serie di elementi adimensionali, ossia giacenti fuori della struttura spazio-temporale in cui peraltro si manifestano. Si noti l’anticipazione, due secoli prima di Planck, della teoria dei quanti che possono farsi coincidere con le monadi semplici se si accetta l’idea, connessa alla monade, che i quanti possano manifestarsi nel continuo spazio temporale in modi alternativi, relativistici.

Tale conclusione può essere assunta nell’ambito della teoria della relatività perché è con essa coerente. D’altra parte bisogna bene intendersi su che cosa significhi la ricerca dell’assoluto nell’ambito di una teoria scientifica. Essa certamente non implica un affacciarsi alla metafisica, ma semplicemente stabilire. di fronte alla variabilità ed alla trasformabilità degli elementi della realtà, quali siano le leggi, cioè gli elementi costanti che ne governano l’organizzazione.
In questo senso, la monade è ancora un mezzo di rappresentazione necessario al ragionamento, ma il portato sostanziale della teoria leibniziana è costituito dall’affermazione della legge generale, quindi assoluta, del contenimento del continuo nel discreto. Questa legge costituisce un elemento strutturale fondamentale della costruzione della realtà ed è alla base dell’analisi infinitesimale. Anche l’approssimazione di Newton ne è, in fondo, un riconoscimento.
La matematica fa infatti a pieno titolo parte della teoria dell’organizzazione, sia pure nei limiti definiti dal teorema di incompletezza che la definisce come parte sintattica di un sistema che richiede un completamento semantico. Come Galileo aveva già detto (anticipando Gödel), la matematica rappresenta il “linguaggio” della natura. Il modo con cui il concetto della subordinazione del continuo al discreto si presta a risolvere il paradosso di Russell [3] è ancora una dimostrazione di come esso vada considerato come una legge fondamentale della matematica e quindi della realtà.

E’ chiaro che, se volessimo rappresentare un continuo spazio temporale costituente l’universo come limitato, senza che possa definirsi in alcun modo un “fuori”, ci troveremmo di fronte ad una realtà “matematica” per la quale mancherebbero le possibilità di rappresentazione. Cionondimeno, se noi decidessimo di trascurare la rappresentazione di un “fuori” potremmo rappresentare l’universo come una sfera. Ciò non impedisce la possibilità di fasi di espansione e contrazione, ma pur sempre nell’ambito di un volume limitato ed è allora chiaro che l’esistenza del limite comporta che i fenomeni di espansione ed accelerazione dell’espansione dell’universo vadano interpretati in maniera ben diversa da quella oggi in vigore, comportando la necessità di una curvatura delle traiettorie espansive indotta dall’esistenza del limite, condizione di curvatura che d’altra parte è un portato della relatività generale, nell’ambito della quale la condizione sferica dell’Universo era stata già ipotizzata da Einstein [4], [5].
La coincidenza del risultato mostra però, nella diversità delle linee di pensiero che lo hanno determinato, che è possibile immaginare, seguendo la linea di pensiero di Leibniz che sia la curvatura a determinare la gravità, mentre, seguendo la linea di pensiero di Einstein avvenga il contrario, cioè sia la gravità a determinare la curvatura. Ed è possibile immaginare che le due linee di pensiero siano equivalenti e possano trovare una sintesi.
Quando si osservano altre galassie, poste ai confini dell’universo osservabile, non può trascurarsi che la considerazione di un centro di gravità in cui sarebbe concentrata l’attrazione gravitazionale è ragionevole nei confronti di aggregati ma non di ammassi posti ad immense distanze l’uno dall’altro, nel qual caso la considerazione di un centro di gravità comune è priva di senso. Anche qualora lo si volesse individuare occorrerebbe considerare che gli enormi movimenti e trasformazioni di masse che si verificano nell’universo determinerebbero corrispondenti movimenti del centro di gravità.
E’ possibile, data la relatività del moto, che il nostro sistema sia in decelerazione nei confronti di un certo centro di gravità e veda quindi in accelerazione sistemi che in realtà sono in moto uniforme rispetto ad un altro sistema di riferimento; è possibile, data la forma sferica dell’universo che movimenti accelerati di certe galassie lontane siano dovuti all’attrazione esercitata da masse che esistono al di là del nostro orizzonte

Le due linee di pensiero, quella di Leibniz.e quella di Einstein, si sfiorano ancora, ma senza identificarsi come era avvenuto sul piano della curvatura delo spazio, in conseguenza di quello che fu l’errore più grande di Leibniz. Secondo Leibniz, se le relazioni inframonadiche si svolgono al di fuori dello spazio e del tempo che sono solo dei mezzi di rappresentazione, le relazioni spazio-temporali, ed in particolare le relazioni meccaniche, non possono avere un contenuto reale, ma solo apparente.

Ciò comporta la considerazione della monade come una entità chiusa, che può modificarsi solo in virtù di un principio interno. Sulla base di tale concezione, osservando un maglio che schiaccia un lingotto, dovremmo ritenere che il lingotto si schiaccia in virtù di un principio interno, non in virtù dell’azione esercitata dal maglio. Ciò è già di per sé difficilmente credibile; quando poi la conseguente e ovvia questione sul come accada che lo schiacciamento del lingotto si verifichi proprio in corrispondenza dell’avvicinamento del maglio, su come cioè si verifichi una armonia fra le modificazioni delle monadi, trova risposta, da parte di Leibniz, nell’intervento di Dio, diviene comprensibile un giudizio severo, assai critico, sulla costruzione leibniziana.

Invero a molti critici, quali il Russell, la costruzione di Leibniz è apparsa come l’opera di un folle. Certamente la soluzione finale, per uscire in qualche modo dal ginepraio in cui lo aveva condotto la sua speculazione filosofica, non appare all’altezza dei livelli speculativi raggiunti nell’impostazione della monadologia, ma ciò non ci può consentire di ridimensionare questi ultimi.
E’ però da osservare, a tal proposito, che la relatività generale giunge ad alcuni risultati che richiamano in modo straordinario anche queste ultime proposizioni di Leibniz. Come è noto infatti, secondo il principio einsteiniano di equivalenza, la modificazione interna equivale all’azione esterna e i due fenomeni sono indistinguibili. Gli effetti dell’azione gravitazionale di un corpo su di un altro sono equivalenti agli effetti di un movimento rotatorio o accelerato di quest’ultimo.
Einstein quindi introduce una equivalenza delle due azioni, non una esclusività dell’azione interna e dobbiamo quindi domandarci se è giustificata la chiusura estrema della monade alle azioni meccaniche ipotizzata da Leibniz, domanda alla quale possiamo rispondere che essa è giustificata solo per la monade elementare ultima (che può essere associata al quanto), ma non certo per le monadi ottenute per associazione delle monadi elementari che costituiscono la sostanza della vita dell’universo.

Secondo Leibniz, lo spazio e il tempo costituiscono una struttura di “rappresentazione” delle interazioni inframonadiche nella forma di interazioni meccaniche. Ciò comporta che vi siano almeno due monadi interagenti, senza le quali la monade ha solo potenzialità, è priva di rappresentazione spazio-temporale. L’interazione delle due monadi crea quindi uno spazio-tempo interno all’insieme costituito dalle due monadi, nell’ambito del quale le interazioni inframonadiche appaiono come interazioni meccaniche e quindi, seppure non possono modificare la monade ultima, possono determinare l’aggregazione o la scissione delle rappresentazioni delle due monadi elementari. L’associazione delle monadi avviene quindi nella rappresentazione spazio-temporale che è tutto quanto noi percepiamo e dove esse sono soggette alle interazioni meccaniche.
Ovviamente, vi sono anche interazioni fra le monadi che sfuggono alla rappresentazione spazio-temporale, prima di tutte proprio quella che dà luogo alla formazione della struttura spazio temporale stessa e che quindi ne è fuori, esprime cioè una condizione di “entanglement” fra le monadi interagenti che è (almeno sul piano della logica) prodroma al loro coordinamento spazio temporale.
Inoltre è possibile che anche le interazioni che trovano la loro rappresentazione nello spazio tempo inducano degli effetti sul modo come le monadi stesse si presentano nello spazio tempo, possano cioè determinare le trasformazioni massa-energia e vice versa all’interno della monade elementare. E’ possibile che l’apparire come energia o come massa, richieda che le interazioni inframonadiche raggiungano un certo livello critico al di sotto del quale la monade mantiene un grado di libertà che gli consente di oscillare fra le forme di apparenza, di mantenere cioè un livello di indeterminazione (onda-corpuscolo).
E’ chiaro, in definitiva, che se la limitazione della impenetrabilità delle monadi viene limitata alle sole monadi elementari, costituenti ultime della realtà, la dicotomia fra le due teorie scompare insieme alle paradossali conseguenze che l’errore leibniziano aveva determinato.

Ma vi sono anche delle concordanze fra altri aspetti della monadologia e le conseguenze, in termini di fondamenti della teoria dell’organizzazione, che abbiamo tratto dalla considerazione delle trasformazioni relativistiche che si verificano nei sistemi isolati macroscopici ad alta energia. Secondo Leibniz, in corrispondenza di determinate caratteristiche delle interazioni le monadi possono associarsi e fondersi (ovviamente sempre nell’ambito delle rappresentazioni spazio temporali) in una nuova unità, in cui le caratteristiche delle monadi componenti non sono più rintracciabili, mentre compaiono qualità nuove.
Si tratta dunque di un processo creativo che trova precisi riscontri nella teoria dell’organizzazione, ove prende il nome di “incollamento”. La nuova monade complessa sarà allora la componente elementare di una certa stratificazione di realtà nell’ambito della quale essa non può più avere le caratteristiche della chiusura alle interazioni meccaniche e quindi della indistruttibilità.
Dunque la monade complessa non deve essere chiusa alle interazioni meccaniche anche se essa rimane un “contenitore” che delimita uno spazio interno determinato dalle interazioni fra le monadi interne ed uno spazio esterno determinato dalle interazioni con le altre monadi complesse. Il limite è dunque un filtro selettivo, che esercita l’azione di contenimento su una certa qualità del contenuto. E’ un concetto che ritroviamo come elemento estremamente importante nella teoria dell’ organizzazione a tutti i livelli di organizzazione. Anche, ad esempio, nell’organizzazione sociale, all’interno della quale si determina una struttura interna dei valori, una semantica, che non trova riscontro nell’ambiente esterno.

Vi sono alcuni tipi di interazione che seguono integralmente il concetto leibniziano, nel senso che esse danno luogo a delle trasformazioni che si verificano internamente alle monadi elementari, quali le trasformazioni massa-energia e queste trasformazioni si svolgono secondo il principio di equivalenza di Einstein. Il fatto che le interazioni che danno luogo a queste trasformazioni si svolgano secondo la variazione seconda delle coordinate getta una luce sul ruolo che le infinità di punti di diverso ordine che compongono il continuo spazio-temporale possono giocare nella trasmissione di vari tipi di interazione.
In primo luogo, poiché, seguendo la teoria Leibniziana, le interazioni inframonadiche non si limitano a creare la struttura di base spazio-temporale, ma danno un contenuto alla monade che comprende l’alternativa massa – energia nelle varie forme in cui questa può apparire, è possibile che ogni forma di energia sia supportata da un substrato infinito di diverso ordine del continuo spazio temporale in cui vibra. (Si noti le somiglianze con la teoria delle stringhe). La curvatura delle traiettorie determinata dalla presenza del limite, che agisce su tutte le monadi complesse, potrebbe allora essere selettiva nei confronti delle varie forme di energia; potrebbe cioè esistere una variabilità dell’azione di curvatura nei confronti delle varie forme di energia.
Ciò potrebbe condurre ad una molteplicità di linee di contenimento e quindi all’intrecciarsi delle strutture sistemiche nella monade complessa che assomiglierebbe ad una struttura reticolare.
In secondo luogo, nell’ambito dello studio del processo organizzativo sono state individuate due fasi fondamentali, di sinergia e di sintesi dialettica. La sinergia ha diverse gradualità di manifestazione, dalla semplice aggregazione dei componenti del sistema, per la quale abbiamo determinato la necessità di un parallelismo motorio, all’incollamento profondo che porta alla formazione di una nuova unità operativa e che corrisponde, in termini leibniziani alla formazione di una monade complessa.
Non sono però ben individuate le condizioni per il verificarsi dell’incollamento, a parte l’intervento di altri campi di forza e l’individuazione di una messa in sintonia di certe linee di flusso dell’energia che però non dovrebbe operare su componenti costituiti esclusivamente di massa. Se però si accettasse l’idea, che scaturisce dalle impostazioni leibniziane, che sia la curvatura a determinare la massa, questa potrebbe essere rappresentarsi come l’avvitarsi dell’energia su se stessa, come in un vortice. Si potrebbe forse allora comprendere come il parallelismo motorio possa favorire la fusione di due vortici, mentre la divergenza, possa portare alla repulsione, all’assunzione, da parte dell’energia cinetica, di una direzionalità antigravitazionale. Il binomio attrazione – rifiuto, che nell’ambito del campo elettromagnetico ha due soli valori, si e no, avrebbe nel campo gravitazionale una polarità graduata, secondo l’angolo di incidenza delle linee di azione dei due componenti e della entità della energia cinetica convogliata. Questo argomento è sviluppato, al di fuori di ogni considerazione relativistica, in un altro lavoro [6].

Anche Dio muore.

Dunque, l’idea Leibniziana dell’intervento demiurgico, di una “armonia prestabilita”, non fa che esprimere il concetto che le interazioni fra le monadi, che ne determinano la rappresentazione non sono manifestazione di una attività completamente libera, ma sono manifestazione di leggi generali, di vincoli posti all’attività creatrice delle monadi e ciò è indiscutibile, costituisce la tesi fondamentale che dà legittimazione all’esistenza di una teoria dell’organizzazione. L’elemento demiurgico non fa che esprimere il concetto di una unitarietà cui deve farsi risalire l’universalità di tali leggi, gli dà un contenuto immanente per cui le monadi sarebbero le cellule del Dio.

Certamente, si tratta di una visione che non soddisfa alcuna esigenza religiosa, alcuna esigenza esistenziale, alcun bisogno d’amore e non ti promette la vita eterna. Ti dice invece che, se la tua complessità ti porterà ad una pienezza di forma, sarai uno, ma sarai solo. Perché la forma piena ha variabilità infinita. Sarai un anelito inestinguibile ad un amore impossibile perché la solitudine dell’uno è la stessa solitudine del tutto, la stessa infinita solitudine di Dio.

Dio può rompere la sua solitudine solo vivendo nella vita delle sue cellule e quindi variandone l’interazione di cui tu sei un esemplare. Si può però anche pensare che un grande insieme o anche la totalità delle interazioni vengano spezzate al raggiungimento di una forma piena, perché le monadi elementari, rese vuote di contenuti, ma piene di desiderio, abbiano nuove possibilità di incontrarsi e scontrarsi e così dal caos produrre nuove splendide stelle.

E dunque la vita dell’Uno, del contenuto è fuori del tempo che è invece la coordinata del vuoto, del desiderio. E dunque Dio è uno fuori del tempo, ma è infinito nel tempo in cui nasce, ama, odia, ride, piange e muore.

Note e Riferimenti.

[1] – Firrao S.: Lo sviluppo di processi oscillatori nei sistemi isolati ad alta energia, riportato in questo blog
[2] – Firrao S.: La formazione dell’ordine nei sistemi isolati macroscopici, in questo blog,

[3] – Il paradosso di Russell si riferisce alla teoria degli insiemi e consiste nella domanda: “la classe di tutte le classi che non appartengono a se stesse appartiene o non appartiene a se stessa?” Sia che si risponda che appartiene, sia che si risponda che non appartiene, si da luogo ad una contraddizione. Fra gli assiomi degli elementi di Euclide è compresa la proposizione secondo cui il contenuto non può contenere il contenente. Cantor ha però mostrato come ciò non possa affermarsi riferendosi agli infiniti, cosa che per la verità aveva già affermato Galilei, ma Cantor ne fece un elemento importante della sua teoria degli insiemi, utilizzata quindi da Frege nella ricerca dei fondamenti ultimi della matematica, ricerca messa in crisi dal paradosso di Russell. Il punto fondamentale trascurato è costituito dal fatto che la classe di tutte le classi è un elemento discreto, finito, anche se le classi sono in numero infinito e quindi per essa vale l’assioma di Euclide per cui il contenente contiene il contenuto e non può verificarsi il contrario. Quindi la classe di tutte le classi che non appartengono a se stesse può contenere queste ultime senza che possa porsi il problema della sua appartenenza o meno ad una delle classi contenute.

[4] – Einstein A.: Relatività, Torino, Boringhieri, 1967
[5] – Einstein A.: Il significato della relatività, Torino, Boringhieri, 1980
[6] – Firrao S.: La formazione di equilibri dinamici nei sistemi in disequilibrio, riportato in questo blog

Formazione di equilibri dinamici nei sistemi in disequilibrio

L’azione esterna su di un insieme di molecole monoatomiche in equilibrio statistico induce una corrente lineare che viene deviata dalle forze gravitazionali del sistema che tende così a realizzare degli equilibri orbitali al suo interno. Gli elementi fondamentali per il raggiungimento di questo obiettivo sono costituiti, oltre che dalla capacità di aggregazione delle molecole e dai rapporti fra forza incidente, energia interna e forza gravitazionale, dall’angolo formato dalla direzione della forza esterna con la direzione della forza gravitazionale, dalla possibilità di scaricare all’esterno parte dell’energia assorbita e dall’assenza di limitazioni volumetriche. La presenza di un processo oscillatorio del volume occupato dal sistema può modificare ciclicamente la struttura delle forze permettendo il passaggio per condizioni che permettono lo stabilirsi dell’ordine su traiettorie curvilinee.

1 – Modificazione di un insieme gravitazionale per effetto di un’azione esterna.

L’intervento di una azione esterna è sempre necessario per provocare un processo organizzativo in un insieme non macroscopico. La permanenza dell’ordine che viene formato non può ipotizzarsi indefinitamente anche in presenza di una permanenza dell’azione esterna e ciò in conseguenza dell’aumento progressivo dell’energia interna dovuto all’azione esterna stessa. E’ quindi necessario, per mantenere in vita l’azione ordinatrice della azione esterna, che l’energia da essa fornita e non assorbita dai moti circolari, sia dissipata attraverso un flusso di energia uscente dall’insieme. Un tale insieme  costituisce una struttura dissipativa e ad essa si riferisce il presente studio [1].

Se noi ragionassimo sotto l’ipotesi di limitatezza del volume disponibile per il sistema, ipotesi che può essere rappresentata dalla presenza di pareti ideali che racchiudono il sistema, la completa scomparsa degli urti, che identifica la condizione di ordine, richiederebbe che tutti i movimenti si svolgano all’interno del contenitore senza mai toccarne le pareti, giacché l’urto con le pareti respingerebbe le molecole all’interno del sistema riaccendendo la catena degli urti. La condizione di limitatezza del volume disponibile va quindi accantonata o, quantomeno, va ritenuto che i limiti siano così ampi da poter ragionare come se essi non esistessero.

Per effetto dell’azione esterna, che supponiamo non diretta verso il baricentro del sistema, quindi avente una componente tangenziale ad una ideale circonferenza centrata sul baricentro, si formano due poli di concentrazione delle probabilità di occupazione dell’insieme, uno secondo la direzione dell’azione esterna e l’altro secondo la direzione della forza gravitazionale. Il sistema mostra quindi una certa quantità di movimenti interni di connessione dei due poli; tali movimenti si svolgono secondo linee curve, indotte dalla composizione degli effetti delle forze esterna e gravitazionale, con urti decrescenti con la polarizzazione dei movimenti su queste linee.

Supponiamo che la dimensione delle variabili in gioco permetta una penetrazione profonda della corrente ordinatrice nel sistema dissipativo dove subisce l’incurvamento dovuto alla composizione della forza esterna con la forza gravitazionale. La permanenza della prevalenza direzionale è dovuta alla persistenza dell’azione esterna (con un processo continuo di distruzione e ricostruzione) la cui cessazione determina il ripiombare del sistema nella condizione di equilibrio statistico. Dato l’effetto devastante che ha l’urto sull’ordine, per la permanenza dell’ordine una volta cessata l’azione esterna occorrerebbe o la completa scomparsa degli urti (che però da sola sarebbe una condizione estremamente instabile nei confronti di una qualsiasi minima azione esterna) o l’assunzione da parte delle traiettorie di una rigidità che le faccia resistere agli urti.

La “rigidità”, ossia la capacità di resistenza delle traiettorie sia agli urti che alla forze che tendano a modificarle viene determinata, prima di tutto, dall’irrigidimento dei corpi che viaggiano lungo tali traiettorie conseguente ai processi aggregativi resi possibili dal parallelismo direzionale. In secondo luogo, la rigidità delle traiettorie è determinata dallo sviluppo di equilibri dinamici fra la forze cui danno luogo l’energia cinetica e l’energia gravitazionale in corrispondenza di ogni allontanamento infinitesimo dalla traiettoria orbitale cui l’incurvamento della corrente abbia dato luogo

Se la direzione del moto della particella che fa parte della corrente entrante forma con la direzione della forza gravitazionale un angolo ottuso, la forza gravitazionale avrà una componente nella direzione opposta a quella dell’energia cinetica e una componente nella direzione ad essa ortogonale. La particella svilupperà per conseguenza una forza di reazione alla componente opposta e continuerà perciò nella sua corsa, ma subendo una riduzione graduale dell’energia cinetica per il lavoro effettuato contro la componente opposta della forza gravitazionale ed una rotazione per effetto della componente ortogonale assumendo infine la direzione della forza gravitazionale. Si noti che al diminuire dell’angolo diminuisce la componente frenante della attrazione gravitazionale. L’amplificazione dell’angolo di incidenza quindi equivale ad una riduzione dell’energia cinetica. Quando la divergenza fra la direzione della forza gravitazionale e la direzione dell’energia cinetica indotta dall’azione esterna raggiunge l’angolo retto e le dimensioni delle due grandezze fisiche sono in un certo rapporto, si forma una traiettoria orbitale; prendiamo in esame in particolare la traiettoria circolare.

Consideriamo dunque un generico punto della traiettoria circolare. La direzione della forza di attrazione gravitazionale che agisce su di esso è perpendicolare alla direzione dell’energia cinetica. Secondo gli attuali testi di  meccanica, il punto materiale tenderebbe a continuare per inerzia il suo moto nella direzione tangenziale, ma per effetto della attrazione gravitazionale su di esso esercitata subirebbe una continua accelerazione in direzione perpendicolare al moto tangenziale che manterrebbe il moto nella traiettoria circolare. Per conseguenza l’attrazione gravitazionale rimarrebbe sempre perpendicolare alla direzione del moto della particella. Osserviamo, però che la forza gravitazionale deve innescare un movimento di avvicinamento al baricentro già nella posizione orbitale e non solo dopo che sia iniziato il movimento di allontanamento in direzione tangenziale Si deve cioè realizzare una composizione fra il movimento tangenziale e quello ad esso ortogonale.

Mpto circolare

Come si  vede dalla figura, in cui A è la posizione iniziale e A’ la posizione successiva in cui la particella viene portata dalla composizione dei due moti nel tratto infinitesimo iniziale del suo moto e sono indicate in nero in A e in rosso in A’ le direzioni della forza gravitazionale e della energia cinetica, nella nuova posizione così assunta dalla molecola, l’energia cinetica formerà un angolo ottuso con l’attrazione gravitazionale e pertanto quest’ultima avrà una componente in direzione opposta all’energia cinetica e una componente ad essa ortogonale (indicate in verde in figura), . La particella proseguirà quindi nella direzione della energia cinetica, cioè di allontanamento, ma subendo una riduzione progressiva per effetto dell’azione frenante svolta dalla componente oppositiva della forza gravitazionale. e una rotazione per effetto della componente attrattiva ortogonale. La particella proseguirà cioè secondo una traiettoria curvilinea, che ha una componente nella direzione di allontanamento ed una componente nella direzione ad essa ortogonale. Man mano che questo movimento prosegue e la energia cinetica diminuisce, il movimento in direzione rotatoria che segue la particella acquisisce l’energia cinetica perduta dalla componente di allontanamento. . Se l’esaurimento della energia cinetica avviene quando il punto raggiunge  la distanza orbitale, tutta l’energia cinetica risulta trasferita nel moto rotatorio, ed il punto rientrato in orbita. Ciò significa che, per la conservazione dell’orbita  la forza di attrazione responsabile dell’avvicinamento deve essere eguale all’energia cinetica di allontanamento intesa come la forza complessiva che può esercitare riducendosi a zero.

Si potrebbe osservare che il punto in cui la particella viene portata dalla composizione dei due moti, tangenziale e radiale potrebbe essere  A” anziché A’, cosicché il processo potrebbe avvenire in maniera simile a quanto teorizzato dalla meccanica classica salvo il fatto che il ritorno in orbita sarebbe dovuto ad una componente oppositiva della forza gravitazionale ed alla rotazione indotta dalla componente ortogonale, ma ciò non è possibile. Abbiamo infatti visto che, perché la molecola rientri in orbita, la forza gravitazionale deve essere eguale all’energia cinetica e Newton ci ha anche mostrato che all’aumentare della distanza la forza gravitazionale tende a zero più rapidamente dell’energia cinetica. Quindi, se già in partenza la forza gravitazionale è uguale alla forza producibile dall’energia cinetica, nel punto A” in cui la distanza dal centro è aumentata, la forza gravitazionale non sarebbe più in grado di trattenere la molecola che si allontanerebbe seguendo la direzione di “fuga”,

La forza gravitazionale agisce dunque istantaneamente, cioè entro infinitesimi spazio-temporali di ordine superiore rispetto a quelli in cui si svolge il moto tangenziale.. Pertanto, nell’imboccare il percorso di allontanamento, la particella si trova già in una posizione più vicina al centro e tale direzione di allontanamento forma già nell’ambito di un intervallo infinitesimo del movimento un angolo ottuso con la direzione della forza gravitazionale. Il processo si svolge quindi completamente entro un infinitesimo della traiettoria circolare, senza che la molecola debordi dalla circonferenza che delimita tale  traiettoria.

E’ semplice a questo punto verificare che. se la particella subisce azioni di lieve entità che incrementino la sua penetrazione verso il centro, il processo sarà identico salvo il fatto che la quantità di energia cinetica sarà maggiore per l’apporto esterno e pertanto la particella potrà proseguire oltre la posizione orbitale prima di rientrare in orbita, ovviamente se la dimensione dell’energia cinetica non sia tale da portarla in fuga.

La traiettoria circolare costituisce pertanto l’inviluppo di oscillazioni sinusoidali che hanno una fase di avvicinamento e una fase di allontanamento. Lo schema solleva la ovvia obiezione che se la traiettoria circolare rappresenta l’ inviluppo di oscillazioni microscopiche, queste dovrebbero essere in talune condizioni osservabili. A questa obiezione è possibile rispondere che le oscillazioni microscopiche si sviluppano in intervalli infinitesimi di più alto ordine degli intervalli percettibili,

2 – Contributo di un processo oscillatorio del volume occupato dal sistema.

In generale, la variabilità configurale ottenuta per l’intervento di forze esterne tende a tornare alla condizione iniziale di equilibrio statistico a meno che non permanga il flusso di energia proveniente dall’esterno (ramo termodinamico del processo trasformazionale [1]). Ma se sussistono certe dimensioni e caratteristiche di rigidità degli aggregati e sono realizzate le condizioni, di cui ci siamo occupati nel precedente paragrafo, per la realizzazione degli equilibri dinamici, le configurazioni ottenute assumono, una capacità di permanenza anche al cessare del flusso energetico esterno (ramo cinetico del processo trasformazionale [1]). Nell’ordine così realizzato si manifesta il principio d’ordine nei sistemi aperti di Prigogine.

Come abbiamo già osservato il raggiungimento di una condizione di ortogonalità fra l’energia cinetica di un componente e la forza gravitazionale agente su di esso non è una condizione sufficiente perché si sviluppi un equilibrio di tipo rotatorio intorno al baricentro del sistema. Occorre che sussista una certa distanza che possa determinare, in relazione ai valori assunti dalla massa e dalla energia cinetica, i necessari rapporti delle forze agenti. Per di più è chiaramente necessario, una volta che si siano create delle traiettorie curvilinee, che le distanze intercorrenti fra i componenti del sistema siano tali da rendere impossibile l’intersezione fra le varie traiettorie.

Per questi motivi il raggiungimento di una condizione di ordine è legato al raggiungimento di una certa dimensione volumetrica del sistema, sia pur legata alla dimensione degli aggregati e a quella dell’energia cinetica del sistema. Se il sistema ha un volume che ne impedisce l’organizzazione, l’azione esterna dunque, oltre ad avere una certa intensità e una certa inclinazione rispetto alla direzione della forza gravitazionale, deve comporsi con un processo oscillatorio del volume, fra fasi di espansione e fasi di compressione, nell’ambito del quale il sistema possa ritrovare la condizione volumetrica necessaria all’instaurarsi dell’ordine.

Come abbiamo avuto modo di mostrare, l’azione esterna è essa stessa promotrice della fase espansiva attraverso l’azione delle reazioni cinetiche oppositive che si sviluppano quando la direzione dell’azione incidente ha una certa angolazione con la direzione della forza gravitazionale. Quando viene raggiunto un volume che consente la distribuzione delle masse, delle energie cinetiche e delle singole distanze che è necessaria per la realizzazione degli equilibri dinamici, la configurazione ordinata emerge selettivamente nell’ambito della variabilità configurale, perché priva di urti, cioè di elementi distruttivi, quindi dotata di sopravvivenza. In altre parole, la struttura dell’organizzazione delle masse, delle energie e delle distanze determina tali vincoli ai movimenti da costringere ad organizzarsi in termini di equilibrio orbitale (principio d’ordine nei sistemi chiusi di Boltzmann)

3 – Conclusioni.

I modi fondamentali di interazione dei sistemi sono tre: aggregazione, contrapposizione ed equilibrio. Sappiamo che negli insiemi in cui esiste una certa condizione di equilibrio statistico, quindi una certa quantità di moto, l’aggregazione può essere un fattore di organizzazione in quanto conferisca una potenzialità differenziale nei confronti degli altri componenti di un insieme, potenzialità che abbiamo indicato per semplicità come rigidità o resistenza agli urti che costituiscono il fattore elementare di contrapposizione. Sappiamo che l’utilizzazione per l’aggregazione delle stesse forze di campo che operano sugli altri componenti non determina alcuna potenzialità differenziale; è ben vero che alla massa corrisponde una maggiore potenzialità, ma l’assenza di una rigidità differenziale a livello elementare impedisce il raggiungimento di quel livello critico della massa cui corrisponde la necessaria potenzialità differenziale.

Il raggiungimento di una potenzialità differenziale richiede quindi l’intervento di altre variabili, che danno luogo a tutta una stratificazione di livelli di rigidità. In primo luogo la sovrapposizione di più campi di forza. Gli astronomi hanno chiamato incollamento la sovrapposizione, a livello dei componenti elementari di una nebulosa, dei campi gravitazionale ed elettromagnetico, dovuto al fatto che parte notevole delle particelle vi comparirebbero sotto forma di ioni, dando così luogo a nuclei di aggregazione.

Ma sul fenomeno dell’incollamento agisce un fenomeno ulteriore che può manifestarsi anche nell’ambito delle strutture di maggior massa cui l’iniziale intervento dell’attrazione elettrostatica abbia dato luogo, cioè l’incorporazione del moto all’interno dell’aggregato, elemento che determina elementi di coordinamento interno che portano non solo ad una maggiore potenzialità differenziale, ma strutturano una nuova unità, dotata di nuove qualità. E’ un fatto ancora misterioso, creativo, che Corning chiama la “magia della natura”[2].

Ora noi sappiamo da tempo, anche con un certo dettaglio da quando Bohr ha presentato la sua ricostruzione della struttura dell’atomo, come già in esso sia contenuta una enorme quantità di moto e sappiamo che anche nel processo di sintesi chimica, il processo di condivisione fra più atomi del moto degli elettroni si sovrappone alla attrazione elettrostatica. Sappiamo anche che nell’ambito della chimica organica e più in particolare delle interazioni in ambito biologico operano interazioni di forma, legate al disegno che la forma dei corpi induce nella forma dei campi di forza [3].

A me sembra che il presente studio, con la sua interpretazione del moto circolare, apporti un contributo alla spiegazione degli effetti della incorporazione del moto all’interno del sistema, in quanto mostra come dalla interazione del moto con le forze di campo seguano processi di sommatoria o frazionamento dovuti a mutamenti direzionali connessi a variazioni negli angoli di incidenza, processi che si svolgono parzialmente entro infinitesimi spazio-temporali di ordine superiore rispetto agli infinitesimi in cui si svolge la parte visibile. Ciò d’altra parte è implicito nella relatività generale, che impone di prevedere l’ esistenza, per ogni funzione fisica, di una derivata seconda alle coordinate spazio-temporali che deve quindi operare su una infinità di punti di ordine superiore rispetto a quella in cui opera la derivata prima.

La generalità, anzi l’universalità, che la considerazione dell’unità del mondo fisico assegna ai teoremi della teoria dell’organizzazione comporta, ad esempio, che nell’ambito delle relazioni interpersonali, la condizione di equilibrio dialettico sia sempre supportata dalle condizione di eguaglianza fra operazioni di dare e avere che si svolgono per infinitesimi di ordine superiore rispetto a quelli percepibili cioè, come direbbe Freud, a livello “subliminale”

Bibliografia

[1] – Prigogine L.: Self-organization in Non-equilibrium Systems, Wiley & Sons, New York, 1977.
[2]- Corning P.: Nature’s Magic, Synergy in evolution and the fate of humankind, Cambridge University Press, 2003
[3]-Firrao S.: Sulla teoria dell’evoluzione, in questo blog.

Sulla teoria dell’evoluzione

1- Le interazioni di forma.

Nell’ambito del processo di organizzazione dei sistemi macroscopici costituiti da atomi eguali e con alto valore dell’energia interna, l’elemento condizionante la sinergia fra elementi contigui è costituito dal possesso di un parallelismo motorio. Tale condizione, effetto dell’azione di una forza esterna che agisce con continuità sul sistema imponendo la prevalenza della sua direzione di moto, assume una frequenza di accadenza e di permanenza che, oltre un certo livello critico è capace di innescare il processo aggregativo. Tale processo è dovuto alla riduzione delle interazioni cinetiche , cioè delle forze sviluppate in corrispondenza degli urti, cui danno luogo le comuni condizioni di moto degli elementi contigui, riduzione che consente alle forze gravitazionali di svolgere la funzione aggregativa [1].
Il semplice accostamento, dovuto alle interazioni gravitazinali, non garantisce la resistenza alla disgregazione per effetto degli urti con le particelle aventi una diversa direzione di moto. Per tal motivo nelle ipotesi che si fanno circa i processi di formazione delle stelle partendo dalle nebulose si ipotizza che fra gli elementi contigui si sviluppino più forti interazioni di campo, non solo in vista del fatto che la forza esercitata dal campo gravitazionale è fortemente crescente al ridursi della distanza, ma sopratutto perché possono essere sollecitati altri campi di forza quale l’elettromagnetico che, nell’ambito delle distanze microscopiche è più intenso del campo gravitazionale. Si ipotizza quindi che una certa quota delle particelle siano nella forma di ioni che possono così dar luogo, nelle condizioni di accostamento e di parallelismo motorio, quindi ad un basso livello delle interazioni cinetiche, alla formazione di aggregati dotati di una maggiore rigidità di quelli formati per la sola azione del campo gravitazionale, aggregati che divengono poi nuclei di un più ampio processo di accrescimento per effetto dell’incremento delle forze gravitazionali dovuto alla crescita della massa. Occorre dunque distinguere il semplice accostamento o anche la semplice aggregazione superficiale dalla compenetrazione più profonda che nell’ambito degli studi astronomici è stata denominata “incollamento”.termine che anche noi adotteremo in questo studio.

E’ chiaro che questo processo di incollamento costituisce una fase fondamentale del processo organizzativo in tutte le stratificazioni in cui si articola la realtà anche se prende diversi nomi nelle corrispondenti stratificazioni della scienza. Nell’ambito della chimica le reazioni sono sempre processi di aggregazione o disgregazione e successiva aggregazione, svolte a livello di incollamento. Si tratta del fondamentale processo creativo di nuove entità reali anche se la legge di conservazione della somma massa+energia non viene violata. Ciò che infatti viene creata è una nuova “qualità” non esistente nei componenti. E’ quella che Corning definisce la “magia della natura”[2]. Dalla fusione fra ossigeno ed idrogeno nasce l’acqua che ha caratteristiche, qualità, non rintracciabili in alcun modo nei componenti.
Nell’ambito dei contesti ambientali in cui si è sviluppata la vita, i livelli della interazione cinetica fra i componenti elementari, molecole organiche complesse, costituite cioè da una molteplicità di atomi, sono tali da permettere l’accostamento senza che occorrano particolari condizioni di parallelismo motorio e sussistono anche interazioni aggregative che possono portare all’incollamento. Non intendiamo riferirci ai legami di tipo ionico o di covalenza che si sviluppano nell’ambito delle reazioni chimiche, ma a forze assai più deboli che le molecole esercitano nel loro intorno e che possono essere potenziate, quando non addirittura prodotte, da un certo tipo di penetrazione, fino al punto di determinare l’incollamento. Fra queste forze dobbiamo quindi comprendere principalmente le forze elettrostatiche generate dagli squilibri di elettronegatività degli atomi componenti la molecola ma anche altre, sia pure ancora più deboli, come le forze elettroniche di Van der Waals. La produzione di queste forze si sviluppa particolarmente nell’ambito dei composti organici del carbonio anche se una, di estrema importanza, il legame idrogeno, si forma fra le molecole dell’acqua. Come è noto, le due eliche del DNA sono tenute insieme da legami idrogeno ed alcuni di tali legami possono essere rotti, determinando la separazione di tratti della doppia elica, per effetto di forze elettrostatiche opposte generate da altre strutture molecolari.
E’ però nell’ambito dei composti organici del carbonio che si sviluppa il processo di penetrazione cui abbiamo accennato. Esso è dovuto ad un elemento inesistente nei processi di aggregazione fra componenti elementari, ma fondamentale nei processi di aggregazione fra sistemi complessi, costituito dalla forma, cioè da come si dispongono nello spazio i componenti elementari delle strutture complesse.
La forma governa lo sviluppo di forze da parte dei campi di forza interagenti fra sistemi complessi (che contengono sempre componenti rigide e componenti flessibili, sono cioè strutture stratificate) in modo così articolato da rendere praticamente infinito il panorama delle interazioni possibili fra gli elementi della realtà. Si tratta del fatto che certe strutture sono accompagnate da campi di forza prodotti dai componenti e la forma, vale a dire la particolare distribuzione spaziale dei componenti, determina una corrispondente distribuzione delle forze esercitate all’intorno delle strutture, condizione che supporta l’azione dei catalizzatori nonché dei processi di riproduzione. Quando si incontrano forme complementari, cioè forme che permettono una penetrazione reciproca di una particolare profondità, le forze di aggregazione prodotte sono pertanto anch’esse di particolare intensità.
Come è noto, l’intensità delle forze esercitate dal campo elettrostatico è direttamente proporzionale al prodotto delle cariche ed inversamente proporzionale al quadrato della distanza che separa gli elementi tra cui tale campo agisce (legge di Coulomb). Quindi, l’intensità dell’azione esercitata da un sistema su un sistema esterno è pari alla somma dell’attrazione esercitata da tutte le combinazioni binarie costituite dagli elementi dei due sistemi ciascuna proporzionale al prodotto delle cariche e inversamente proporzionale al quadrato della distanza. Naturalmente forze significative ai fini dello sviluppo di processi di aggregazione e incollamento si realizzano per distanze fra gli elementi corrispondenti dei due sistemi piccolissime, dello stesso ordine delle distanze intramolecolari, poiché aumentando la distanza fra gli elementi interagenti, l’effetto della forma scompare e i due sistemi cessano allora di interagire come sistemi complessi.
Quindi lo sviluppo della interazione di forma fino ad una dimensione critica che abbiamo definito di incollamento richiede una “compenetrazione”, ossia l’accostamento dei componenti dei sistemi interagenti non limitata a pochi componenti, ma che si estenda fino a raggiungere la detta dimensione critica. Per raggiungerla, gli elementi dei due sistemi devono avere dimensione similare e i sistemi devono avere forme “complementari”, ossia ad una preminenza dell’uno deve corrispondere una cavità dell’altro e viceversa. Ciò implica che lo sviluppo delle interazioni di forma non è una caratteristica di un singolo sistema, per quanto complesso, ma è una caratteristica di una specifica coppia di sistemi, una interazione selettiva, legata al riconoscimento di una informazione specifica.
Torniamo adesso alla considerazione che certi componenti elementari delle macromolecole biologiche sono accompagnate da campi di forza elettrostatici il che implica che l’attrazione esercitata su cariche di segno opposto non si sviluppa in un’unica direzione, ma agisce con egual forza in tutte le direzioni con simmetria sferica. L’interazione di forma che si raggiunge al livello dell’incollamento è caratterizzata dunque dal fatto che ogni componente interagisce con tutti gli altri componenti. Ciò comporta che l’interazione può essere modulata mediante opportuni spostamenti dei componenti e ciò comporta che ne viene variata non solo la forza complessiva di aggregazione ma anche il tipo di oggetto che può essere aggregato che deve avere la forma complementare alla forma definitiva raggiunta dalla struttura modulata.
La forma del sistema influenza non solo la dimensione della forza di aggregazione complessiva, ma anche la distribuzione della capacità di interazione di ogni componente con gli altri componenti. E’ ovvio infatti che se tutti i componenti di un sistema sono disposti lungo una linea retta, i componenti posti all’estremità del segmento avranno una interazione reciproca rapidamente decrescente con l’aumento della reciproca distanza e quindi assai minore di quella che si verificherà fra componenti posti nelle zone centrali. Se invece i componenti sono disposti lungo una circonferenza, la più equa distribuzione dell’interazione reciproca, naturalmente a parità dei campi di forza associati ad ogni componente, risulta di immediata evidenza
In definitiva, noi possiamo considerare il campo di forza associato ad un oggetto come rappresentazione dell’esistenza di un “collegamento” fra l’oggetto ed ogni punto del campo e la interazione che si sviluppa fra due oggetti lungo la congiungente come conseguenza della sovrapposizione dei due campi associati.
La interazione fra i componenti di un sistema dà quindi luogo in ognuno di essi ad un processo di composizione delle forze che agiscono su di esso e per conseguenza all’emissione di forze nelle linee di connessione che avranno in genere una distribuzione dimensionale diversa da quella delle forze entranti. Ogni variazione prodotta da una forza esterna nel processo di composizione che si svolge in un componente si riflette in una variazione indotta in tutti gli altri e si innesca per conseguenza una variabilità “configurale” ossia della forma dell’intero sistema che tende, in assenza di nuove azioni provenienti dall’esterno e per il principio della tendenza all’omeostasi, ad una forma cui corrisponde un assetto definitivo di equilibrio dell’intero sistema.
E’ allora chiaro che anche il più piccolo spostamento di un componente del sistema, con la conseguente variazione dell’intensità dell’interazione, si rifletterà sugli equilibri indotti in ogni componente e quindi sull’assetto globale. Naturalmente, in sistemi complessi costituiti da un numero estremamente grande di componenti, la variazione di un solo componente avrà un effetto infinitesimo e quindi trascurabile, ma quando la somma di più variazioni raggiunge un certo valore critico, la variazione globale del sistema diviene visibile.
Quindi, nella condizione da noi esaminata, la disposizione dei componenti determina la forma del campo di forza somma dei campi di forza associati a ciascun componente e ciascun componente interagisce con tutti gli altri dando luogo ad una rete complessa di interazioni i cui punti nodali sono costituiti dai componenti del sistema. Si determina così ovviamente in essa anche una forma interna, costituita dalle variazioni di “forza aggregativa”, che possiamo anche chiamare rigidità, dovute alla diversità di sovrapposizione dei campi e quindi delle interazioni nelle varie zone del sistema.
Tale condizione dà luogo alla formazione di una unità organizzativa che è caratterizzata non solo dal fatto che tutti i componenti sono interconnessi, ma anche che, per effetto della stratificazione di rigidità interna, sussistono vincoli ai movimenti individuali che permettono di definire un’attività funzionale del sistema.
Essa non è che l’espressione paradigmatica di una più ampia classe di interazioni di forma, resa possibile dalla complessità della struttura, ossia dalla sua natura di “composto” di una molteplicità di componenti. Anche le interazioni fra sistemi complessi non microscopici sono sempre influenzate dalla forma dei sistemi, sia esterna che interna, (che comprende struttura di rigidità e quindi capacità di sviluppare forze) e la modifica del disegno porta ad una modifica della struttura delle interazioni. La differenza con le interazioni che si verificano fra sistemi microscopici sta nel fatto che nei sistemi non microscopici il disegno è generalmente separato dallo sviluppo dell’energia che avviene esclusivamente in particolari nodi o gruppo di nodi della rete delle interazioni.
Il trasporto dell’informazione in input, cioè del disegno iniziale, può avvenire infatti attraverso mezzi che richiedono un supporto minimo di energia, quali le onde elettromagnetiche, le onde acustiche, i conduttori elettrici ecc, mentre lo sviluppo di energia “effettrice”, cioè la “conversione” dell’energia informativa in energia effettrice, avviene in particolari nodi della rete e ciò porta ad un enorme allargamento del campo delle interazioni di forma che possono esercitarsi anche fra elementi posti a grandi distanze.
Naturalmente, a noi interessano particolarmente le interazioni in cui l’azione effettrice finale viene esercitata da organi biologici. Un esempio importante nel campo psicologico è costituito dai richiami, cioè dallo sviluppo di energia (sollecitazione di un impulso) in corrispondenza di specifiche informazioni sensorie, quali sono i richiami infantili, sessuali e sociali. In questo modo si sviluppano campi di forza di tipo “specialistico” cioè limitati ad una certa categoria di oggetti che posseggono determinati elementi di forma che ne costituiscono la password, come è evidente negli impulsi cui abbiamo accennato, ma che vale per tutti gli impulsi umani. Tale password può svolgere la sua funzione anche se gli elementi di decrittazione sono posseduti in numero parziale , ma gli effetti saranno di minore intensità, come avviene nella capacità di attrazione (e di repulsione) sessuale che varia molto da un individuo all’altro.
Nelle interazioni di forma di grande distanza, la modulazione della interazione (la “commutazione”) può avvenire anche durante il trasporto. Ad esempio nel trasporto tramite un flusso di energia elettrica che percorre dei conduttori è sufficiente inserire nel percorso degli interruttori che consentono di deviare la direzione dl flusso di energia, come avviene nelle reti telematiche.
La differenza rispetto alla modulazione che avviene fra le molecole organiche è costituita dal fatto che gli interruttori inseriti nelle reti telematiche sono di tipo binario, consentono cioè solo due alternative di percorso che equivale alla connessioine con solo due punti successivi mentre ogni componente di una interazione di forma che si svolga a livello microscopico fra molecole organiche può in potenza stabilire la connessione con tutti i punti del campo, costituisce cioè un interruttore con infinite alternative direzionali. Considerando inoltre che può spostarsi e che ad ogni spostamento corrisponde una modulazione anche della dimensione del flusso, è facile comprendere che alla interazione di forma a livello molecolare corrisponde una enorme capacità di commutazione non confrontabile anche con le più avanzate applicazioni computazionali odierne. L’argomento è ripreso in un altro mio lavoro [4].
La forma non riguarda esclusivamente la disposizione nello spazio,il disegno, seguito dai componenti, ma anche la disposizione nel tempo, la successione con cui si susseguono le interazioni. Anche l’intelligenza non fa che ricercare forme diverse, fino a ritrovare quella che sviluppa la richiesta interazione. Come infatti la forma di un oggetto complesso è determinata dal modo come gli oggetti elementari che lo compongono sono disposti, così il ragionamento è costituito dal modo con cui le connessioni logiche elementari, di origine istintuale (legate a contiguità spazio-temporali memorizzate) sono disposte in successione [4].

2 – La commutazione evolutiva.

E’ visione comune in ambito scientifico che il processo di nascita della vita abbia comportato la concentrazione in adatte località di molecole organiche che non abbiano raggiunto una condizione di equilibrio stabile ma si mantengano invece in una continua condizione di trasformazione con lo svolgimento di una infinità di fusioni, scissioni e riaggregazioni, condizione a cui è stato dato il nome di “caos molecolare del brodo primordiale”. Tale condizione è dovuta alla debolezza dei legami, al fatto che tale debolezza si presenta con una gerarchia di valori, che la gerarchia è sconvolta dall’intervento di una molteplicità di variabili, alcune delle quali hanno un andamento oscillatorio, così determinando un mutamento ciclico delle condizioni di sopravvivenza delle strutture con i legami più deboli che costituiscono parti essenziali degli organismi viventi. La permanenza delle condizioni di sopravvivenza di queste strutture è legata alla realizzazione di situazioni particolari, come l’annidamento in uno spazio protetto da pareti costituite da sostanze a legami forti o la formazione di strutture complesse in cui gli elementi protettivi facciano parte della propria organizzazione.
Per determinare lo sviluppo della vita occorrono quindi innanzi tutto una serie di condizioni che permettano la formazione delle strutture a legami deboli quali un’agitazione termica in un mezzo liquido che porti a modificare la posizione relativa delle molecole e quindi a variazioni dei contatti che comportano reazioni di aggregazione e successivamente mezzi di protezione per evitare la strage dovuta non solo alla predominanza dei legami più forti, quindi con più forte potere di sostituzione nell’abbraccio molecolare, ma anche alla mancata resistenza di molti legami deboli all’escursione termica. Occorre inoltre la presenza degli elementi necessari a realizzare tutta la serie di trasformazioni da cui si è sviluppata la vita, carbonio, idrogeno, azoto, ossigeno, fosforo, zolfo, nonché di adeguate forme di energia.
Non è nostro interesse , né sarebbe possibile allo stato delle conoscenze scientifiche sull’argomento, entrare nei dettagli dell’evoluzione subita dal brodo primordiale. Noi possiamo partire, nella prosecuzione del nostro discorso, dalla semplice ed incontrovertibile constatazione che dal caos primordiale sono emerse gradualmente strutture in cui si verifica una grande sopravvivenza e addirittura sviluppo dei componenti con i legami più deboli, suscettibili di interazione di forma, in quanto protette da barriere esterne più rigide, cioè le cellule.Da queste ultime poi, per successivo incollamento, sono nate le strutture pluricellulare degli animali in cui le barriere difensive raggiungono il massimo livello.
Noi possiamo immaginare che, nel processo di replicazione che ha strutturato una specie, nel genoma di ogni individuo ottenuto sia inserita l’amplificazione delle dimensioni o delle capacità funzionali di un organo. Poiché la funzionalità del sistema richiede una condizione di precisi rapporti fra gli organi, condizione che definiamo di equilibrio, lo sviluppo delle dimensioni e delle capacità funzionali di una molteplicità o addirittura della totalità degli organi sarebbe impedito dallo sviluppo di forze antagoniste volte a mantenere l’equilibrio delle componenti e la dimensione dell’insieme ai valori che ne hanno determinato la sopravvivenza. Noi dunque supporremo che le funzionalità del sistema specie tolleri una certa variabilità dimensionale di una frazione assai limitata degli organi di ogni singolo individuo. Tale tolleranza può essere distribuita fra i vari organi e funzioni nei vari esemplari della specie, così che in definitiva nella specie vi siano per ogni funzione individui che possono svolgerla meglio degli altri e possono quindi rispondere meglio degli altri a una determinata azione selettiva.
Ora, noi abbiamo visto che fra gli esseri unani sono possibili interazioni di forma mediate , oltre che dal diretto contatto, da diversi mezzi di trasporto. Non sono però possibili interazioni che involvano il DNA, in cui sono contenute le informazioni strutturali del sistema.
La completa assenza di interdipendenza nei confronti delle interazioni di forma genetiche fra i componenti di una specie animale urta però contro i meccanismi accertati dell’evoluzione, anzi addirittura dei processi organizzativi più generali dei sistemi complessi. Infatti, se le varietà che realizzano una diversità di risposta alla selezione nell’ambito di una specie fossero indipendenti, costituissero cioè un semplice insieme, le varietà resistenti ad una certa azione selettiva potrebbero occupare lo spazio reso libero dalla selezione, ma non potrebbero dar luogo ad alcun meccanismo di trasformazione quale è il processo evolutivo. Perché si verifichi una evoluzione le varietà devono costituire un sistema, deve cioè sussistere fra di esse una interdipendenza.
Qualsiasi mutamento del disegno costruttivo contenuto nel DNA non può che avvenire in sede di replica; è pertanto solo sede di relazione generazionale che si verifica la interdipendenza sistemica. Se in un locus protetto da disturbi esterni si concentrano le sostanze necessarie a realizzare la replica e in esso pervengono gli elementi genomici di due individui differenti in esso si realizza la fusione dei due genomi e le caratteristiche dell’individuo risultante saranno l’espressione della interazione fra i due patrimoni genetici delle cellule genitrici.
La sopravvivenza alla selezione implica dunque l’esistenza di un “potenziale antiselettivo” posseduto dai sopravvissuti che costituisce un elemento di potenziale sinergia fra di loro, per la cui esplicazione, che comporterebbe l’aumento della capacità di resistenza all’azione selettiva, occorrerebbe la fusione dei relativi genomi, condizione che, come abbiamo già visto, può essere realizzata solo in fase di costruzione di un nuovo individuo, ove tale costruzione comporti l’incontro di due diversi individui portatori dello stesso potenziale antiselettivo.
Il rafforzamento del potenziale antiselettivo che si realizza nel figlio permette di rafforzare la condizione di sopravvivenza che può essere inizialmente assai fragile e di mantenerla anche qualora le condizioni ambientali non rimangano stazionarie ma si determini invece un aumento di forza dell’azione selettiva, purché ciò avvenga con una velocità uguale o inferiore a quella del processo di rafforzamento della resistenza.
Tuttavia, all’attività dei potenziali che permettono la sopravvivenza ad una azione selettiva non corrispondono a livello fenotipico forze che determinino l’incontro degli individui portatori, necessario per portare l’interazione a livello del DNA della cellula figlia. Le specie che si sono sviluppate maggiormente sono perciò quelle in cui l’incontro fra gli individui si realizza comunque, indipendentemente dall’esistenza di una azione selettiva, dando luogo ad un individuo in cui si realizza la fusione del DNA, cioè le specie in cui la riproduzione avviene per via sessuale.
E’ chiaro che ove l’attività selettiva non sussista l’incontro di due componenti portatori di una eguale potenziale darebbe luogo ad un rafforzamento non necessario. Il semplice incontro non deve quindi dar luogo ad alcun rafforzamento (o dà luogo ad un rafforzamento infinitesimo, quindi trascurabile). Se invece l’attività selettiva sussiste, l’incontro di due componenti dotati del comune potenziale antiselettivo diviene più frequente e quindi più frequente anche la ripetizione della coincidenza nei successivi processi riproduttivi nella linea di discendenza. Il rafforzamento avviene dunque quando la frequenza di ripetizione raggiunge un certo valore critico che rende minima la probabilità di casualità nella comunione del potenziale (valore raggiunto anch’esso per via selettiva)[5].
Ovviamente ciò comporta che nel genoma debba sussistere un meccanismo che memorizza le ripetizioni, ma tale meccanismo è insito nelle interazioni di forma che, come avviene nel DNA, si svolgono fra sistemi costituiti da una grande quantità di componenti, quindi estremamente complessi. In seguito alla realizzazione della coincidenza di un potenziale questi sistemi subiscono variazioni infinitesime della posizione di uno o più componenti, variazioni quindi singolarmente trascurabili, sia per quanto riguarda l’effetto della variazione della forza sviluppata dal singolo componente sull’assetto complessivo del sistema, sia per quanto riguarda la variazione stessa della forza sviluppata dal singolo componente in seguito alla variazione di posizione nel campo di forza elettrostatico generatore delle forze deboli. Queste variazioni, tuttavia, sono permanenti e ciò rende sommabili le successive mutazioni fintanto che il numero delle mutazioni elementari non raggiunga un certo livello critico che porta ad un importante variazione dell’assetto. Il processo, che possiamo chiamare di sommatoria di informazioni non riconoscitive fino al raggiungimento del livello di riconoscimento è simile a quello che ho mostrato per il meccanismo di discernimento del cervello attraverso l’accumulo di informazioni non riconoscitive nelle sinapsi fino al raggiungimento del livello di riconoscimento [4].
E’ chiaro a questo punto che questo meccanismo comporta la morte dei genitori o almeno la perdita ad una certa età della capacità generatrice. Infatti, ai fini del raggiiungimento del livello critico di riconoscimento, l’incontro fra individui generati in seguito a diversi cicli riproduttivi ha una valenza maggiore di quello fra individui generati in seguito mad un minor numero di cicli riproduttivi, cosicché la permanenza nella attività riproduttiva per più generazioni rende più lento e meno efficace il processo evolutivo [5 ].
Come tutti i sistemi complessi anche il genoma deve avere una struttura a strati di diversa rigidità, cioè che sviluppano una diversa forza di resistenza alle modificazioni. Gli strati più rigidi richiedono un più alto livello critico di riconoscimento e per conseguenza un tempo più lungo per raggiungerlo, cioé una maggiore gradualità di realizzazione.
Il sistema di interdipendenze interne ad una specie è idealmente rappresentabile, nella sua forma più complessa come una rete “stratificata” nei cui nodi, costituiti dai genomi individuali, si realizza la regolazione di un flusso informativo in entrata trasmesso dalle cellule generatrici al momento della fecondazione ed il risultato trasmesso in uscita ad un nodo successivo al momento dell’accoppiamento. Lo schema è similare a quello del cervello se consideriamo che quest’ultimo coordina le componenti della risposta agli stimoli esterni eseguibile a livello ontologico ed il genoma quelle realizzabili a livello genetico [6].
La similarità del processo nei due casi permette di mostrare come, nell’ambito dei diversi circuiti della rete, si possono memorizzare esperienze elementari evolutive (nella forma di energie potenziali non giunte al livello critico di scarico) che possono confluire in un unico nodo di scarico dando luogo a risultati evolutivi che sembrano contraddire il principiodi continuità del processo evolutivo e che riuniscono linee evolutive apparentemente prive di una aprioristica sinergia [4]. Da notare che l’intelligenza della rete genetica è assai superiore a quella dell’individuo perché quest’ultima è basata su interruttori con un numero finito di alternative, mentre quella della rete genetica è basata su interruttori a numero infinito di alternative.
L’innesco del processo di modificazione della struttura viene dunque indotto e guidato dalle interazioni di forma a livello genetico, ma anche lo sbocco può essere la crescita della potenzialità di produrre certe interazioni di forma all’interno della struttura prodotta.Ad esempio la capacità di produrre ragionamenti più lunghi, cioè contenenti un maggior numero di passaggi elementari, condizione che richiede il rafforzamento della permanenza dei passaggi, cioè della loro memoria e che può dar luogo ad una più efficiente interazione di forma con un oggetto.

3-Evoluzione lineare ed evoluzione non lineare.

Abbiamo esaminato un processo evolutivo in cui l’elemento selettivo, pur cambiando di dimensioni, mantenga la sua direzione ed in cui inoltre la velocità di aumento della sua forza non sia superiore alla velocità di modificazione del’assetto genico, che si svolge su più generazioni. Se sono verificate queste condizioni ci si trova di fronte ad un processo evolutivo lineare. Si possono però anche verificare processi evolutivi non lineari, caratterizzati dal fatto che la forza selettiva cambia decisamente di direzione, ponendo in opposizione i nuovi ed i vecchi potenziali antiselettivi del sistema e rendendo obsolete precedenti strutture del sistema cui i vecchi potenziali avevano dato luogo.
In questi casi gli esiti del processo di adattamento alle nuove condizioni possono essere i più diversi; possono mancare gli adeguati potenziali antiselettivi e può essere insufficiene la velocità del loro rafforzamento così che in definitiva il tasso di sopravvivenza si deteriora e ne può risultare l’estinzione della specie. Naturalmente è impossibile modificare le strutture più rigide del sistema che realizzano elementi fondamentali di difesa aspecifica, frutto di milioni di anni di processo evolutivo, ma vi sono stratificazioni di rigidità intermedia che possono subire degli aggiustamenti. Ovviamente, trattandosi di modificare strutture aventi un certo livello di rigidità, occorrono più ripetizioni e quindi più tempo per la modificazione dell’assetto del sistema e ciò quindi richiede che la velocità di incremento della forza del nuovo elemento selettivo sia ancora più basso.
Il risultato è la perdita o la riduzione di alcune capacità e l’acquisizione o il potenziamento di altre. E’ in questo modo che il nostro progenitore australopiteco ha perso a capacità di fare quei grandi salti, veri e propri voli, da una cima all’altra dei grandi alberi della foresta, dove viveva sicuro, irraggiungibile dai predatori, ha perso la disponibilità della coda prensile che gli permetteva di dormire appeso ai rami, ha perso la disponibilità del cibo che la natura gli offriva gratuitamente nei frutti degli alberi. E’ stato invece schiacciato al suolo dove muoversi strisciando come un verme, dove è diventato cibo dei grandi predatori della savana, condannato a vivere nella poaura divenuta una componente fondamentale e continua dell’esistenza e a procurarsi il cibo con fatica, a nutrirsi del sangue degli altri animali.
Considerato da un certo punto di vista questi cambiamenti potrebbero essere considerati una perdita di qualità della vita, ma l’evoluzione non riconosce valore alle qualità se non come fattori di sopravvivenza; la bellezza , in cui si esprime la qualità desiderabile, è un prodotto dell’evoluzione, una spinta verso più alti valori della qualità che ha determinato la sopravvivenza , cos’ che per l’animale coprofilo la cosa più bella del mondo è la merda. Come recita un antico detto popolare napoletano “ogni scarafone è bello a mamma soia”.

3- La Bellezza

La bellezza non esiste nelle cose del mondo.
E’ una fragile creazione dell’anima
E’ la misura, nata dal dolore,
dell’amabilità delle cose che permisero,
in un tempo lontano,
il fluire della vita.
E’ il desiderio che le cose si muovano
verso la lontana spiaggia
di una irraggiungibile sicurezza dove,
come salmone alla fonte
l’anima possa riposarsi
e morire.
E’ bisogno d’amore,
una fame antica che non può essere saziata
dalle cose immobili, né dagli uomini fermi,
tutti in attesa dell’amore altrui.
Tributo di morte alla vita della nostra specie,
gran fuoco di mezza estate
dove la bellezza è nella fiamma ardente
e noi siamo i tizzoni e veniamo consunti
da quest’ansia assurda
che ci alberga nel cuore.

Riferimenti bibliografici

[1]- Firrao S.: La formazione dell’ordine nei sistemi isolati macroscopici, Studi sui sistemi complessi, ISBN: 978-1-4476-9406-5 Initial Formation of Order in Isolated Macroscopic Systems, Cybernetica, XXXIII, 2, 1990
[2]- Firrao S.: L’associazione stimolo-risposta nelle reti stratificate, Studi sui sistemi complessi, op.citata Il processo di associazione stimolo-risposta nelle reti stratificate, V Meeting di Neuroriabilitazione, Clinica Neurologica della II facoltà di Medicina, Napoli, 6-7 ottobre 1989, Europa Medicophysica, XXV, 4, 1989
[3]-Firrao S.: Controllo statistico della qualità, Cap. 1, Politecnico di Milano, Corso di perfezionamento in industrie tessili, 1968
[4]-Firrao S.: La fisica dell’amore, permalink:
http://www.complexsystems.it/index.php/2012/10/la-fisica-dellamore-2/
[5]-Firrao S.:Interpretazione cibernetica del pensiero, Quaderni di Cibernetica, 7, 1990.
[6]- Firrao S.: La formazione di equilibri dinamici in sistemi in disequilibrio. Studi sui sistemi complessi, op.citata Dynamic Equilibria Generation in Non-Equilibrium Systems, Cybernetics and Systems,, 22, 25-40, 1991
[7]–Jaynes E.T.: Where do we Stand on Maximum Entropy? In The Maximum Entropy Formalism, R.D.Levine and M. Tribus eds., MIT Press, Cambridge, Massachusetts, 1979
[8]- Prigogine I., Nicolis G.:Self-Organization in Non-equilibrium Systems, Wiley, New York, 1982
[9]-Firrao S.: Stratification of Feedbacks Circuits in Evolution Structures, Quaderni di Cibernetica, 8, 1991
[10] -Dover G.A: The Spread and Success of Non-Darwinian Novelties, in Evolution
[11] – Haken H.: Information and Self-Organization (Series in Synergetics, vol. 40) Springer Verlag, New York, 1988
[12]-Prigogine I., Stenger I.: Order Out of Chaos: Man’s New Dialogue with Nature, Bantam Books, New York, 1984
[13]-Firrao S.: On the applicability in Biology of the Theory of Self-organization of the Systems, Cybernetica, XXXV,1, 1992

La formazione dell’ordine nei sistemi isolati macroscopici.

 

In uno studio precedente [1] ho mostrato come l’ipotesi ergodica di Boltzmann, di una possibilità di variazione dello stato complessivo di un sistema isolato, sia inammissibile perché essa comporterebbe la variazione della frequenza degli stati elementari, cioè una condizione di indipendenza statistica di questi ultimi che è invece di interdipendenza statistica, cioè dovuta ad azioni di scambio all’interno del sistema che lasciano inalterate le frequenze complessive di ogni stato elementare.Tale dimostrazione, condotta attraverso i metodi della matematica statistica, urta però contro una opposta dimostrazione condotta attraverso i metodi della meccanica razionale, costituita dal teorema di Liouville, cui si appoggiano coloro che sostengono l’opposta tesi [2].

L’obiettivo di questo studio è dunque quello di mostrare gli errori contenuti nella dimostrazione data da Liouville del teorema che porta il suo nome, risultato che, insieme a quello contenuto nello studio precedente, dovrebbe chiudere la questione.Verrà poi elaborata l’ipotesi relativistica che apre la strada alla soluzione del problema della formazione dell’ordine nei sistemi isolati macroscopici da cui in cascata può seguire la formazione dell’ordine in sottosistemi sempre più piccoli.

1 – Il teorema di Liouville

Consideriamo lo stato del sistema descritto da un punto nello spazio detto delle fasi o anche, a mio parere più correttamente, delle configurazioni, cioè in uno spazio a 2s coordinate, dove s è il numero dei componenti del sistema e dove per ogni componente si hanno due coordinate, una di posizione p e una di impulso q. L’insieme dei diversi stati attraversati in un intervallo di tempo sufficientemente lungo dal sistema sarà allora rappresentato da punti distribuiti nello spazio delle fasi con una densità proporzionale al valore della funzione di distribuzione µ(p,q) (per semplicità indichiamo, nell’argomento di µ con p e q le successioni dei valori delle coordinate di posizione pi e d’ impulso qi dei vari componenti).

Ora, i punti così ottenuti possono essere considerati, anziché la rappresentazione degli stati del sistema in diversi istanti, la rappresentazione di sistemi identici nello stesso istante (insieme statistico). Anche tale rappresentazione deve infatti rispettare la legge di distribuzione µ(p,q).Seguiamo allora l’ulteriore movimento dei punti dello spazio delle fasi che rappresentano gli stati dell’insieme durante un certo intervallo di tempo. E’ evidente che in tutti i successivi istanti t questi punti devono essere sempre distribuiti secondo la distribuzione µ(p,q), cioè i punti di fase si spostano in modo che la densità di distribuzione resti invariante nello spazio delle fasi.

Si può allora considerare, in modo del tutto formale, lo spostamento dei punti di fase come corrente stazionaria di gas nello spazio delle fasi a 2s dimensioni ed applicarvi l’equazione di continuità che esprime l’invarianza del numero totale dei componenti. Vale a dire:

i ∂(µvi)/∂xi = 0 (i = 1……..2s)                   (1)

dove in un gas µ sarebbe la densità e vi la velocità in direzione della coordinata xi.Nel nostro caso le coordinate xi corrispondono alle coordinate pi e qi dello spazio delle fasi e le velocità alle rispettive derivate rispetto al tempo pi e qi.

Quindi sostituendo nella (1):

i[∂(µq i)/∂qi + ∂(µpi)/∂pi] = 0      (i = 1…….s)           (2)

e, calcolando le derivate:

i[qi∂µ/∂qi + pi∂µ/∂pi]+ µ∑i[∂qi/∂qi + ∂pi/∂pi] = 0    (i=1…….s)     (3)

Scrivendo le equazioni della meccanica nella forma di Hamilton:

qi=∂H/∂pi, pi= -∂H/∂qi

dove H=H(p,q) è l’Hamiltoniana del sistema in esame, si vede che:

qi/∂qi = ∂2H/∂qi∂pi = – ∂pi/∂pi

e quindi il secondo termine al primo membro della (3) si annulla. Il primo termine è invece la derivata totale rispetto al tempo della funzione di distribuzione. Si ha quindi in definitiva:

dµ/dt = ∑i(∂µ/∂qi qi + ∂µ/∂pi pi) = 0                  (4)

dove l’eguaglianza fre il primo e l’ultimo membro della (4) esprime ancora la condizione iniziale di partenza che l’insieme si sposta lungo traiettorie dello spazio delle fasi che lascino costante la distribuzione di probabilità. La relazione (4) implica però in più che la funzione di distribuzione deve esprimersi con combinazioni delle variabili p,q che rimangano costanti durante il movimento del sistema nello spazio delle fasi, cioè attraverso invarianti meccanici o integrali primi delle equazioni del moto, cosicché è essa stessa un integrale primo delle equazioni del moto.

Tenendo presente che la distribuzione µ12per l’insiemedi due sottosistemi è pari al prodotto delle funzioni di distribuzione µ12 dei sottosistemi presi separatamente e che pertanto si ha:

lnµ12 = lnµ1 + lnµ2                           (5)

se ne deduce che il logaritmo della funzione di distribuzione è una grandezza additiva. Il logaritmo della funzione di distribuzione deve essere quindi non solo un integrale primo, ma anche un integrale primo additivo delle equazioni del moto.

Come è noto dalla meccanica, esistono tre integrali primi additivi indipendenti del moto: energia, impulso e momento angolare. Considerando il sistema nel suo insieme privo di moto di traslazione o di rotazione, l’integrale si riduce ad uno solo: l’energia. Pertanto, con riferimento ad un qualsiasi sottosistema a, la funzione di distribuzione deve essere del tipo:

lnµa = αa + βEa(p,q)                   (6)

dove αaè la costante di normalizzazione e β una costante che può essere determinata dal valore costante dell’integrale primo additivo dell’energia di tutto il sistema.

Ciò permette di ricavare una funzione di distribuzione semplice che soddisfa il teorema di Liouville per tutto il sistema isolato. Una tale distribuzione è µ = costante per tutti i punti dello spazio delle fasi corrispondenti ad un valore costante dell’energia del sistema e µ = 0 per tutti gli altri punti. Per conseguenza la funzione di distribuzione per l’intero sistema sarebbe del tipo:

µ = cδEo                            (7)

dove c è una costante e δ è una funzione che assicura l’annullamento di µ in tutti i punti dello spazio delle fasi in cui la grandezza E non sia eguale al suo valore assegnato Eo . Una simile distribuzione, che viene detta microcanonica, è il punto di partenza per il successivo sviluppo della distribuzione di Gibbs [3]. Considerando che certi punti dello spazio delle fasi rappresentano configurazioni complessive del sistema non distinguibili, cioè modalità differenti di ottenimento di una stessa configurazione del sistema, si ottiene in definitiva una distribuzione che rispecchia quella di Boltzmann.

Vi è però una importante differenza: la considerazione della necessità di un movimento, di una traiettoria percorsa nello spazio delle fasi fra gli stati espressi dalla (7) implica che la traiettoria nello spazio delle fasi del punto rappresentativo dello stato di un sistema isolato in un intervallo di tempo sufficientemente lungo debba necessariamente passare per ogni punto che abbia il dato valore costante di µ .

Il movimento del sistema nello spazio delle fasi avrebbe quindi un andamento approssimativamente ciclico, ripetitivo, oscillatorio, che implicherebbe il necessario passaggio per certi stati che avrebbero la capacità di innescare una evoluzione verso l’ordine.

2 -Critica del teorema

La critica che può effettuarsi poggia su tre piani: sul piano epistemologico, sul piano della matematica statistica e sul piano della fisica statistica.

Sul piano epistemologico rilevo che la metodologia scientifica richiede che ove all’impostazione di una ipotesi faccia seguito lo sviluppo di una teoria, i risultati ottenuti debbano essere controllati dall’esperienza e, se non confermati, l’ipotesi debba venire respinta. Se invece i dati di partenza costituiscono una realtà già acquisita, gli ulteriori risultati ottenuti mediante processi matematici rigorosi, acquisiscono lo stesso livello di verità dei dati di partenza, ma questo non è il caso del teorema di Liouville.

Nel suo ragionamento Liouville parte dalla considerazione dell’esistenza di una molteplicità di stati complessivi attraversati dal sistema, dando quindi per scontata la presenza sia di tali stati alternativi che del moto di passaggio dall’uno all’altro, laddove la loro esistenza costituisce solo una ipotesi, anzi addirittura la materia del contendere. Le conclusioni ottenute andrebbero quindi confrontate con la realtà, ma tutti i risultati finora ottenuti in fisica statistica dallo studio di particolari sistemi non hanno confermato la validità dell’ipotesi ergodica nei sistemi isolati in equilibrio statistico; citiamo fra gli altri i lavori di Poincaré e di Fermi [4]. E ciò malgrado le configurazioni alternative distinguibili dovrebbero presentarsi, secondo le conclusioni della teorema, con una frequenza abbastanza elevata.

 Sul piano della matematica statistica, la presenza di configurazioni alternative comporta che le particelle elmentari abbiano un qualche grado di libertà nella determinazione del loro stato, cioè che siano statisticamente indipendenti, cosa che ho dimostrato non esistere nel mio citato lavoro.

Infine, per quanto riguarda la fisica statistica consideriamo la relazione (4) della dimostrazione di Liouville, che qui riportiamo:

dµ/dt = ∑i(∂µ/∂qi qi + ∂µ/∂pi pi) = 0                  (4)

Perché si abbia una variazione della configurazione del sistema occorre che si abbia un variazione della struttura delle forze agenti. In un sistema isolato costituito da un gas perfetto gli unici eventi che possono indurre una modificazione della struttura delle forze sono costituiti dagli urti. Poiché gli urti coinvolgono almeno due punti materiali, ai fini della valutazione degli effetti sul sistema occorre considerare quale mutamento comporta la somma dei mutamenti intervenuti in ambedue i punti che costituiscono a tal fine un unico evento che si produce simultaneamente in entrambi. Potremo quindi considerare la somma degli effetti di tutti gli urti che avvengono in un determinato intervallo temporale nel sistema

Applichiamo allora la (4) alle coppie di punti in collisione che indicheremo con i pedici i e i+1. In ognuno dei due punti, per il principio della conservazione della quantità di moto, si verifica una variazione eguale e contraria della quantità di moto, cosicché la variazione complessiva della quantità di moto relativa alla coppia, cioé l’impulso qi +qi+1dovuto all’urto, è nullo e per conseguenza lo è anche la sua derivata. Il primo termine al secondo membro della (4) è quindi nullo e sono per conseguenza possibili solo i movimenti consentiti dalle forze agenti che implicano lo scambio di quantità di moto e quindi di posizione, cioè quelle che vengono indicate come permutazioni e che se i punti materiali componenti il sistema sono indistinguibili, non determinano la modificazione della configurazione. Esiste quindi una ed una sola configurazione possibile del sistema, quella di massima entropia e quindi la funzione di densità delle configurazioni µ introdotta da Liouvllle non può esistere, richiedendo l’esistenza di una molteplictà di configurazioni.

Nei gas reali esiste però ancora un altro potenziale, cioè un serbatoio di energia, che può produrre delle forze che potrebbero modificare il quadro delle interazioni fra i componenti del sistema. Esso è costituito dall’attrazione gravitazione verso il baricentro del sistema.

Estrapolando ai sistemi complessi lo schema di interazione fra due gravi di Newton, possiamo già dire intuitivamente che la variabile che così introduciamo determina una accelerazione dei punti materiali diretti verso il baricentro (direzione centripeta) e una corrispondente decelerazione dei punti materiali che si allontanano dal baricentro (direzione centrifuga) e che i due effetti sono equivalenti. Il problema è stato studiato nei suoi dettagli matematici da Maxwell e Boltzmann che hanno mostrato che le velocità si distribuiscono secondo la legge di Gauss, distribuzione che è simmetrica, cosicché nell’ambito dei valori delle grandezze fisiche che si incontrano nella realtà l’effetto differenziale svolto dall’attrazione gravitazionale è trascurabile. Non può istituirsi una corrente oscillatoria che procede dai valori più alti ai valori più bassi delle velocità e viceversa, attivata dall’attrazione gravitazionale come accade nello schema di Newton, perché, data la frequenza degli urti, ogni traiettoria che nasce da un urto viene quasi immediatamente spezzata dall’urto successivo. Il trasferimento avviene quindi attraverso una catena di collisioni e pertanto le differenze di velocità assumono un certo grado di ripartizione omogenea nel sistema.

3 – La soluzione relativistica

L’impossibilità della formazione dell’ordine in un sistema isolato in equilibrio statistico viene in definitiva fatta risalire alla presenza di quelli che Prigogine ha chiamato “vincoli di simmetria”, dovuti agli urti, da cui consegue l’ assenza di “gradi di libertà configurale del sistema” [5].

Per la formazione dell’ordine in un sistema isolato si richiede quindi, come è ovvio, che il sistema non sia in equilibrio statistico ma che la condizione oscillatoria fra fasi di espansione e di compressione, dovuta al gioco dell’alternanza delle due forme dell’energia, cinetica e potenziale, che abbiamo visto esistere già in nuce nella distribuzione delle velocità di Maxwell e Boltzmann, assuma un maggior rilievo.

Nei sistemi isolati, comunque, se l’energia cinetica massima del sistema è inferiore ad un certo valore, detto di “fuga” all’ aumentare dell’ espansione, che comporta un allontanamento dei componenti del sistema dal centro di gravità, si verifica una diminuzione dell’energia cinetica dei componenti per effetto dell’azione frenante svolta dall’attrazione gravitazionale e per conseguenza si raggiunge un punto in cui l’energia cinetica centrifuga si esaurisce e rinasce nuovamente come energia cinetica centripeta per effetto dell’attrazione graviazionale; il movimento cioè si inverte da espansione a compressione.

Senza entrare in particolari dettagli per i quali rimando ad un altro lavoro [6], durante l’espansione non di fuga, l’interazione attrattiva fra i componenti posti ad eguale distanza dal baricentro decresce per effetto dell’aumento della reciproca distanza più di quanto decresca l’attrazione verso il baricentro. La struttura direzionale dell’energia assume quindi gradualmente una direzionalità esclusivamente centripeta, condizione che impedisce la formazione della complessa struttura di interdipendenza delle variabili agenti che costituisce l’ordine.

D’altra parte, un sistema che, nella condizione di espansione, abbia un valore massimo dell’ energia cinetica superiore al valore di fuga, in cui cioè l’attrazione gravitazionale diviene trascurabile quando l’energia cinetica ha ancora valori finiti, si trasformerebbe, in assenza di trasformazioni relativistiche, in un sistema in espansione in cui i componenti, procedendo inerzialmente, si allontanerebbero l’uno dall’altro senza che di questo processo potrebbe intravedersi la fine.

Secondo la teoria della relatività invece, durante l’espansione di qualsiasi sistema, si ha la trasformazione dell’energia cinetica in massa che ha natura accumulativa e che alla lunga determina il suo esaurimento e l’avvio di un processo di contrazione, tale processo si verifica anche nel caso dell’espansione di fuga, sia pure raggiungendo il punto di inversione a distanze enormemente più grandi. E’ chiaro che, nel caso della espansione di fuga, sia la dimensione della energia cinetica richiesta che la dimensione spazio-temporale in cui si realizza la trasformazione dell’energia, limitano le possibilità di tale processo oscillatorio ai soli sistemi macroscopici, astronomici, in cui si determini una esplosione iniziale di enorme potenza.

Secondo gli schemi teorici generalmente accettati, prima che venga raggiunta una configurazione ordinata ogni galassia può essere considerata come un sistema termodinamico, ossia come un sistema composto da un gran numero di componenti elementari in moto disordinato lungo tutte le direzioni possibili e in cui vi sia conseguentemente un’alta frequenza di urti. Essa può essere quindi considerata un sistema isolato macroscopico in cui può realizzarsi il processo oscillatorio comprendente l’espansione di fuga.

Si può allora mostrare che, durante la fase espansiva di questo processo oscillatorio si realizza una amplissima variabilità configurale. È infatti evidente che, per l’aumento della distanza dei componenti dal baricentro che porta ad una riduzione dell’attrazione gravitazionale verso di esso e ad una diminuzione della frequenza degli urti, per l’aumento della interazione gravitazionale fra i componenti del sistema dovuta alla trasformazione dell’energia cinetica in massa, si realizza una tale continua modificazione della struttura delle forze agenti da giustificare la più ampia variabilità delle configurazioni.

Con ciò non si intende affatto affermare che la formazione dell’ordine sia una conseguenza immediata della realizzazione di una variabilità configurale. Ciò che può verosimilmente attendersi è la realizzazione di un caos deterministico dovuto al mutamento continuo delle condizioni di interazione e in cui comincino a mostrarsi certe regolarità che possono, in adatte condizioni e luoghi particolari evolvere verso la stazionarità.

Certamente, il campo di indagine che così si apre alla ricerca è enorme e non desidero in questa sede procedere ad alcun approfondimento, ma solo sottolineare alcuni aspetti che mi sembrano di particolare interesse ai fini dello sviluppo dello studio dei sistemi complessi.

L’espansione è accompagnata da una variabilità configurale che mostra una prevalenza della componente espansiva della direzione del movimento dei componenti. Essa implica che una parte notevole delle particelle assumano gradualmente una comune direzione di moto, assumano cioè un certo grado di parallelismo motorio. Come è noto dal principio di relatività, l’energia cinetica relativa ad una velocità comune è come inesistente ai fini delle interazioni fra i componenti, non fa cioè parte dell’energia interna del sottosistema composto da tali componenti. Essa non può pertanto ostacolare l’accostamento dei componenti che si muovono parallelamente dovuto alle interazioni gravitazionali fra di loro progressivamente crescenti per l’aumento della massa e per l’intervento dell’attrazione elettromagnetica che tale accostamento rende possibile, permettendo così la formazione di aggregati.

È infatti ormai riconosciuto che i processi di aggregazione che si svolgono nelle grandi strutture astronomiche richiede di non considerare perfettamente rigide le particelle che le costituiscono e che vi sia una grande presenza di ioni, così da essere soggette al fenomeno dell’”incollamento” che comporta l’acquisizione di caratteristiche di resistenza agli urti da parte degli aggregati elementari. Chiaramente, man mano che aumenta la dimensione degli aggregati, il successivo accrescimento diviene più facile in vista della maggiore forza attrattiva nei confronti delle particelle connessa all’aumento della massa.

Durante la fase di espansione, tale processo di aggregazione e incollamneto, esaltato dalla trasformazione dell’energia dei componenti in massa, con il conseguente aumento delle relative interazioni gravitazionali, porta necessariamente i sistemi macroscopici quali le nebulose a raggiungere quel rapporto critico fra massa ed energia che porta al collasso gravitazionale, dando così luogo al ripetersi dell’esplosione.

La variabilità configurale del sistema permette alle particelle di trovare poli di aggregazione alternativi nelle traiettorie circolari o ellittiche attorno agli aggregati principali, cioè formati per aggregazione nella direzione espansiva, in vista del fatto che in tali traiettorie si realizza l’equilibrio fra le forze di attrazione e di rifiuto nei confronti degli aggregati principali, condizione che ne determina una maggiore stabilità e quindi ancora una emersione selettiva. Vi sono diverse teorie su come si realizza la formazione di questi moti orbitali ed io stesso mi sono cimentato su questo argomento [7]; qui segnalo solo l’importanza di questo problema, che possiamo definire di formazione degli equilibri dinamici perché esso è paradigmatico nei confronti di molte situazioni che si incontrano nello studio dei sistemi complessi.

4 – Generalizzazione dei risultati.

Lo schema organizzativo esposto per l’evoluzione delle galassie rappresenta uno schema basilare di interazione che opera in tutti i processi organizzativi, quindi anche in quelli in cui la variabilità configuale è indotta da un’azione proveniente dall’esterno. Tale schema vede la sovrapposizione di due tipi di energia, attrattiva e repulsiva, che si manifestano sia nel campo gravitazionale che in quello elettromagnetico.

Newton, come è noto, non ha introdotto esplicitamente un campo repulsivo contrapposto al campo gravitazionale. Alieno ad introdurre ipotesi che non avessero un immediato riscontro con la realtà, così da apparire quasi delle semplici constatazioni (hypotheses non fingo), si limitò ad introdurre un corpo ideale, perfettamente rigido, per il quale enunciò il terzo principio della dinamica, secondo cui ad ogni azione corrisponde una reazione eguale e contraria. Ai fini dello sviluppo di una teoria generale dell’organizzazione è invece opportuno interpretare tale reazione come dovuta ad un campo repulsivo immaginabile come una molla che si carica di energia potenziale in corrispondenza dell’urto, per restituirla immediatamente come energia di allontanamento.

Lo studio che abbiamo fatto permette di sottolineare l’importanza di tre processi che appaiono essere fondamentali in tutti i processi di organizzazione cui dà luogo la sovrapposizione dei campi di forza; sono i processi selettivo, aggregativo e di formazione di equilibri dinamici.

L’azione selettiva è fondamentale perché si tratta dell’azione svolta dalla forza esterna che abbiamo visto essere necessaria perché si innesti la variabilità configurale. Il flusso di energia proveniente dall’esterno impone la sua direzione di flusso ad un certo numero di componenti del sistema ed in tal maniera rompe gli equilibri esistenti creando così un disequilibrio e quindi una variabilità configurale che tende, secondo il postulato di Carnot, verso una nuova condizione di equilibrio.

Tale azione rende più probabile l’accostamento di elementi dotati delle caratteristiche selezionate e lo sviluppo di interazioni fra di essi che nel caso preso in esame abbiamo definito, a seconda dell’intensità delle forze aggregative, di aggregazione e di incollamento. Questo processo è creatore di una realtà nuova in cui gli effetti della selezione sono amplificati (sinergia) e resi autonomi dall’azione iniziale.

Si formano infatti oggetti viaggianti nella direzione inizialmente indotta dalla selezione e che, per effetto sia della maggiore rigidità dovuta all’incollamento che della dimensione della massa complessiva, resistono agli urti con i componenti dotati di moto contrario ed anzi impongono la loro direzione di moto così da determinare, se raggiungono una certa dimensione e rigidità (principio di organizzazione di Prigogine) la persistenza della prevalenza direzionale indotta dall’azione selettiva anche quando questa cessa.

L’importanza della selezione, della sinergia e della dialettica nella creazione della realtà è estrema. Questi strumenti organizzativi, che agiscono iterativamente sovrapponendosi in fasi successive del processo hanno effetti creativi straordinari in quanto produttori di nuove entità ove gli elementi costituenti non sono più riconoscibili. Nuove entità, con qualità assolutamente nuove, scaturiscono ovviamente dalla estensione dei concetti di sinergia e di sintesi ai processi chimici, alle interazioni di forma, in tutti i tipi di interazione che l’accostamento e la codirezionalità o la complementarietà rendono possibili. È quella che Corning chiama la “magia della natura” [8].

Bibliografia

[1]- Firrao S.: Sull’entropia statistica di Boltzmann; Cybernetics and systems,5,20, set. 89

[2]- Lifsits E.M., Landau L.D.:Fisica Statistica it. Ed. Editori Riuniti, Bologna, 1978, pag,23

[3]– Gibbs J.W.:Principles of Statistical Mechanics;, New Haven, 1948

[4]– Toda M, Kubo R., Saito N.:Statistical Physics 1, Springer Verlag, Berlin, 1983, pag. 204

[5]– Prigogine I., Nicolis G.: Self-Organization in Non equilibrium Systems Wiley, New York, 1977

[6]- Firrao S: Development of oscillatory processes in isolated high energy systems, Cybernetica, vol. XXXI, n.4, 1988

[7]- Firrao S. Dynamic equilibria generation in Nonequilibrium systems Cybernetics and Systems, 22, 1991,

[8]-Corning P.:Nature’s magic, synergy in evolution and the fate of humankind,  Cambridge, Univesity Press, 2003 

.

Lo sviluppo di processi oscillatori nei sistemi isolati ad alta energia

Secondo la meccanica classica se, in assenza di limitazioni volumetriche, in un sistema isolato costituito da un gas con le caratteristiche dello schema di Boltzmann, (cioè costituito da molecole monoatomiche soggette esclusivamente a forze cinetiche e gravitazionali) l’energia cinetica supera un certo valore, ossia il cosiddetto “valore di fuga”, il campo gravitazionale non può più trattenere le molecole che si muovono in direzione centrifuga, che pertanto continuano inerzialmente il loro moto. Chiameremo sistemi “ad alta energia” i sistemi in cui si verifica tale condizione. 

Se la nostra conoscenza della fisica fosse ancora al livello prerelativistico, la conoscenza della possibilità di esistenza di una espansione di fuga del sistema isolato non sarebbe dunque molto utile per lo sviluppo della teoria dell’organizzazione. I concetti introdotti dalla teoria della relatività [2], [3] permettono invece di dimostrare che durante l’espansione di fuga e sulle grandi distanze si verificano trasformazioni di energia in massa che trasformano l’espansione in un processo oscillatorio. Per tale via è possibile identificare meccanismi che portano alla formazione di semplici forme di ordine organizzativo in certi sottosistemi e ad associati flussi di energia ordinata tra tali sottosistemi, flussi che innescano processi che portano alla formazione di ordine complesso nei sottosistemi che li ricevono [4], [5], [6].

Prima dell’enunciazione della teoria della relatività, lo spazio ed il tempo erano considerati entità assolute, i cui valori dovevano essere covarianti (che implica l’ invarianza degli intervalli spazio-temporali) rispetto a sistemi di coordinate in moto relativo uniforme. La trasformazione di coordinate che riflette questo principio è la trasformazione di Galileo.

Il primo risultato scientifico che generò dubbi sulla validità dell’approccio di Galileo fu ottenuto nel campo dei fenomeni elettromagnetici. Nell’ambito di tali fenomeni, governati dalle equazioni dell’elettromagnetismo di Maxwell e Lorenz, il principio di relatività galileiano non viene infatti rispettato.

L’applicazione del principio galileiano comporta che la velocità di un raggio di luce muoventesi parallelamente al moto della terra dovrebbe risultare modificata dal moto della terra nei confronti di un osservatore posto sulla terra. L’esperimento di Michelson e Morley mostrò invece che la velocità della luce non è influenzata dal moto di traslazione della terra, così confermando il risultato di inapplicabilità della trasformazione di Galileo in un certo ambito di fenomeni.

La teoria della relatività ristretta tenne conto di questi risultati traendone la ovvia conclusione che, non essendo gli intervalli spazio-temporali sempre invarianti nei confronti di sistemi inerziali in moto relativo come previsto dalla trasformazione di Galileo, lo spazio ed il tempo non sono assoluti. Tuttavia, le differenze nei valori delle variabili fisiche che portano all’invalidazione della trasformazione di Galileo scompaiono se viene usata la trasformazione di Lorenz (ottenuta assumendo la velocità della luce come invariante trasformazionale) invece della trasformazione di Galileo. Per mezzo di questa trasformazione le leggi della fisica possono essere trasferite da un sistema inerziale all’altro, senza più le limitazioni che scaturivano dalla utilizzazione della trasformazione di Galileo.

Secondo la teoria della relatività ristretta, le leggi della fisica sono quindi invarianti rispetto alla trasformazione di Lorenz e ciò dà ai sistemi inerziali una speciale caratteristica di privilegio, allo stesso modo in cui l’invarianza rispetto alla trasformazione di Galileo aveva attribuito una natura privilegiata al sistema assoluto di riferimento nella fisica prerelativistica. Come Einstein ha sottolineato [2] e come è in ogni caso evidente, ciò comporta il trasferimento della natura di assolutezza dallo spazio e dal tempo presi singolarmente al continuo spazio-temporale.

Una volta che l’ipotesi di spazio e tempo assoluti era stata invalidata, il risultato fu portato alle sue estreme conseguenze, negando la caratteristica di assolutezza anche al continuo spazio-temporale, operazione eseguita da Einstein nella teoria generale della relatività [3]. Secondo questo modo di vedere, come l’invarianza delle leggi della fisica nei confronti della trasformazione di Galileo rappresenta una prima approssimazione che cade quando certe condizioni limite di moto relativo uniforme dei sistemi di riferimento vengono raggiunte, così l’invarianza delle leggi della fisica nei confronti della trasformazione di Lorentz rappresenta una prima approssimazione che cade in condizioni di moto relativo accelerato dei sistemi di riferimento.

Così come l’invarianza della velocità della luce permise di formulare la trasformazione di Lorentz, così la formulazione di una trasformazione generale fra sistemi di coordinate in moto relativo non uniforme comporta che vengano identificati gli elementi di invarianza per mezzo dei quali sia possibile tale formulazione. Il problema può essere posto nei seguenti termini: data una certa figura geometrica definita in un sistema di coordinate spazio temporali (spazio quadridimensionale di Minkoski) quale sarà la nuova figura se le coordinate variano? Einstein trasse gli elementi di invarianza, attraverso cui ottenere la trasformazione, dal principio di continuità secondo il quale le variazioni fra i sistemi devono aver luogo al livello della seconda derivata rispetto alle coordinate. La risposta alla domanda divenne così un problema geometrico già risolto dalla geometria non euclidea di Riemann, sviluppata nel calcolo dei tensori di Ricci e Levi-Civita.

Questo tipo di matematica permette di determinare gli elementi di invarianza in un tensore, di cui occorre fornire le relazioni fra i componenti che costituiscono gli elementi di variabilità. Per quanto riguarda il campo gravitazionale, queste relazioni furono fornite dal principio di equivalenza secondo il quale nel passare da un sistema di coordinate all’altro, l’accelerazione e l’attrazione gravitazionale devono essere considerate equivalenti. Questa equivalenza implica condizioni di simmetria fra i componenti del tensore.

I risultati ottenuti modificano dunque le conclusioni della meccanica classica in merito alla espansione di fuga. L’individuazione degli elementi di variabilità nell’equivalenza fra attrazione gravitazionale e accelerazione implica che nella trasformazione di un sistema ad una decelerazione deve corrispondere un aumento della attrazione gravitazionale e quindi della massa, implica cioè il principio di conservazione della somma massa+energia che sostituisce i due separati principi di conservazione dell’energia e della massa della meccanica tradizionale. Ciò implica che durante l’espansione di fuga si verifica una trasformazione continua di energia in massa che alla lunga arresta l’espansione e avvia una fase di compressione, trasforma cioè l’espansione in un processo oscillatorio.

Riesaminiamo allora l’analisi di Newton del moto oscillatorio di due masse m1 e m2 soggette esclusivamente alla attrazione gravitazionale reciproca. Questo moto è caratterizzato in ogni istante dai valori della velocità relativa delle due masse e quindi dell’energia cinetica E, della forza di attrazione gravitazionale F e della distanza fra le due masse s. Nella trattazione di Newton si assume che un gradiente dell’energia cinetica determini una forza capace di controbilanciare la forza gravitazionale. Newton cioè scrisse la famosa relazione:

dE/ds = – F                         (1)

che implica lo sviluppo di una variazione di energia cinetica, eguagliante la forza gravitazionale, in corrispondenza di ogni valore della distanza.

La funzione dell’energia cinetica è ottenuta, nella trattazione Newtoniana, integrando la (1), da:

E = -k m1m2 /s + C                 (2)

Quindi, secondo la trattazione classica, se l’energia cinetica ha un valore iniziale sufficientemente alto (il valore di fuga) vi è nel processo di espansione un punto a partire dal quale l’attrazione gravitazionale decresce più rapidamente dell’energia cinetica cosicché il moto di allontanamento diviene irreversibile.

Questa conclusione fu dovuta al fatto che Newton considerava due separati principi di conservazione dell’energia e della massa, considerava quindi invariabili le masse. Secondo la teoria della relatività, invece, durante il processo di espansione si verifica una trasformazione di energia cinetica in massa che implica un aumento dell’attrazione gravitazionale, in quantità equivalenti, cosicché è sempre raggiunto un punto di inversione, quale che sia il valore iniziale dell’energia.

Anche Newton incontrò l’ostacolo del principio di conservazione nella formulazione della sua teoria. Egli infatti postulò, appunto per rispettare il principio di conservazione dell’energia, che durante il processo di espansione l’energia cinetica si trasformasse in una energia potenziale, che non modificava per nulla l’attrazione gravitazionale, invenzione debole che solo al pregiudizio dovuto al grande prestigio di Newton deve la sua sopravvivenza.

I sistemi isolati ad alta energia, in conclusione, non assumono, in assenza di vincoli volumetrici, una condizione di espansione permanente come vuole la trattazione classica. Assumono una condizione oscillatoria di lungo periodo.

La conclusione è anche traibile al livello di relatività ristretta. Citiamo direttamente Einstein [2]: “se un corpo, che si muove con la velocità v, assorbe una quantità di energia Eo in forma di radiazione, senza che questo processo ne alteri la velocità, esso subisce di conseguenza un incremento della propria energia uguale a:

Eo / √ (1-v2/ c2)                              (3)

e l’energia cinetica del corpo risulta essere:

(m+Eo/c2)c2 / √ (1 – v2/ c2)                 (4)

Il corpo ha così la stessa energia di un corpo di massa m+Eo/c2 che si muove con la velocità v. Possiamo dunque dire: se un corpo assorbe una quantità di energia Eo, allora la sua massa inerziale cresce di una quantità Eo/c2; la massa inerziale di un corpo non è una costante, ma varia a seconda del mutamento di energia del corpo stesso. Il principio di conservazione della massa di un sistema diventa identico al principio di conservazione dell’energia ed è valido solo in quanto il sistema non assorba né emetta energia.” Naturalmente, in questo caso Einstein ha preso in esame un sistema un moto uniforme, ma le conclusioni possono essere estese facilmente al caso nostro, in cui il corpo subisce una decelerazione in conseguenza dell’attrazione gravitazionale. Supponiamo infatti che, subita la decelerazione, il corpo assuma un moto uniforme con velocità v. Per il principio di conservazione dell’energia il corpo deve avere assorbito la quantità di energia corrispondente alla decelerazione che diciamo Eo; vale quindi ancora la (4). Il risultato non può cambiare se, subita la decelerazione il corpo ,invece di riprendere il moto uniforme, subisce una ulteriore decelerazione. Ad ogni decelerazione corrisponderà un aumento della massa.

Einstein stesso spiega il motivo perché queste trasformazioni siano sfuggite nell’ambito della meccanica classica: “Un confronto diretto con l’esperimento non è possibile al giorno d’oggi, perché i mutamenti dell’energia Eo a cui possiamo sottoporre un sistema non sono grandi abbastanza da rendersi percettibili come mutamento della massa inerziale del sistema. Eo/c2 risulta troppo piccola in confronto alla massa m che era presente prima dell’alterazione energetica. E’ grazie a questa circostanza che è stato possibile stabilire con successo un principio di conservazione della massa come legge avente validità autonoma.”[2]

Dunque in questo studio non ho fatto altro che riesporre elementi fondamentali della teoria della relatività, perché la trasformazione da energia a massa (e viceversa) nell’ambito dei sistemi non inerziali (o, come abbiamo visto, anche nei sistemi inerziali, se la variazione di energia non determina un mutamento della velocità) non è una conclusione marginale della teoria, ma il cardine stesso della teoria che non dovrebbe pertanto poter essere ignorato.

Riferimenti

[1] -Firrao S.: Development of oscillatory processes in isolated high energy systems, Cybernetica, XXXI, 4, 1988

[2] -Einstein A.:Uber die Spezielle und Allgemeine Relativitats-theorie, Lipsia, 1916

[3] -Einstein A.: Vier Vorlesungen uber Relativitats-theorie Vieweg & Sohn, Braunschweig, 1992 (Course of lectures held at the Princeton in 1921)

[4] -Bertalanffy L.:Science, III, 1960, 23

[5] -Brillouin L.: J. Appl. Phys., 24, 9, 1152, Septem. 1953

[6] -Prigogine I., Nicolis G.:SeSelf-Organization in Non-equilibrium Systems, Wiley, New York, 1977