rss
email
twitter
facebook
Visualizzazione post con etichetta emergenza. Mostra tutti i post
Visualizzazione post con etichetta emergenza. Mostra tutti i post

sabato 1 ottobre 2011

Cosmologia quantistica: intervista a Ignazio Licata sull'universo arcaico

Quando si parla di cosmologia in genere siamo abituati a pensare la “narrazione” che abbiamo appreso pochi o tanti anni fa a scuola e che sovente viene ripetuta nelle riviste di divulgazione scientifica anche se in chiave sempre più “raffinata”: sto parlando del “big bang”, ossia di quell’ “istante zero” a partire dal quale sarebbe letteralmente esploso l’universo che conosciamo e osserviamo.

Da quell’istante sarebbe iniziato “tutto” e da quel “punto di singolarità” iniziale si sarebbe costituito ed espanso  il nostro universo, che come sappiamo continua ad espandersi addirittura accelerando la sua velocità.
E’ evidente che questo modello lascia insoluti diversi problemi, che possiamo riassumere con le seguenti domande: cosa c’era “prima” del big bang? Perché c’è stato il big bang? Perché c’è stato un solo big bang? In sintesi, sono i concetti di spazio e di tempo che, intesi già solo in base al senso comune, non ci convincono fino in fondo e che ci lasciano insoddisfatti della teoria del big bang, che ad una analisi meramente formale sembra, in fondo, una genesi “quasi teologica” corretta con argomentazioni scientifiche.
Già tempo fa avevo fatto una intervista ad Ignazio Licata sul suo modello di cosmologia quantistica, elaborato insieme a Leonardo Chiatti, che è a mio parere una teoria estremamente interessante perché non solo cerca di fornire una risposta a quel “prima del big bang” e a quel “perché il big bang”, ma ci dà anche la  possibilità di riflettere in maniera nuova ed originale su concetti sui quali la filosofia e la scienza stessa si dibattono da sempre e oggi con ulteriori aporie generate dalle ormai “famose” materia ed  energia oscura: parliamo dei concetti di tempo, spazio, materia, energia.
In questo modello, Ignazio Licata ci stimola ad immaginare una “realtà atemporale” di forma ipersferica pentadimensionale (ci spiegherà lui perché), che è il vuoto quantistico arcaico, dal quale è emerso non solo il nostro universo, ma da cui è possibile che continuamente si generino nuovi universi all’interno di quello che possiamo chiamare con un nome, ormai noto, il multiverso.
Questo modello ha una duplice fecondità: innanzittutto e ovviamente scientifica in quanto, come vedremo, si propone di risolvere diversi problemi come quello di coniugare la teoria della relatività con la meccanica quantistica con conseguenze molto interessanti ad esempio sull’interpretazione delle citate materia ed energia oscura, ma anche – a mio parere – filosofica perché offre una prospettiva davvero innovativa su come il “divenire eracliteo” e l’“essere parmenideo” possano essere, per così dire, “intrecciati” dall’eternità.
Nel ringraziare Ignazio Licata, sempre disponibile alle mie richieste di approfondimento, vi invito a leggere e, se volete, a commentare questa interessante intervista sull’“universo arcaico”.


1. Cosa è la relatività proiettiva e perché la hai usata per il tuo modello?

La relatività proiettiva è una tecnica per studiare la relatività di De Sitter, che ingloba ed estende la relatività ristretta su scala cosmica. Suggerita dallo stesso De Sitter, e poi studiata da Kaluza e da Castelnuovo, fu indagata a fondo dal matematico italiano Luigi Fantappiè nel 1954. Viene poi ripresa negli anni '60 e '70 da teorici del calibro di Bacry e Levy-Leblond e Freeman Dyson, che la annoverava tra le grandi "missed opportunities" della fisica in un celebre articolo del 1972.
Fu Fantappiè a dimostrare che è l'unica estensione possibile del gruppo di Lorentz-Poincaré se si vogliono mantenere l'isotropia e l'omogeneità dello spazio-tempo e le 4 dimensioni.
Pensiamo che in futuro questo approccio potrà dire qualcosa anche ai vincoli cui deve sottostare una teoria multidimensionale, come è quella delle stringhe/brane, per dar luogo all'universo che osserviamo.

2. Ci puoi spiegare cosa è lo spaziotempo di De Sitter-Castelnuovo e quello di Cayley-Klein che citi nel tuo lavoro?

Lo spazio-tempo di De Sitter è un'ipersfera a 5 dimensioni (la quinta dimensione può essere considerata un artificio formale per definire le simmetrie dell'ipersfera tramite uno spazio in cui è "immersa") che ha massima simmetria, nessuna singolarità e dove spazio e tempo sono curvati ed intrecciati indissolubilmente assieme (motivo per cui il tempo è descritto da numeri immaginari ed è indistinguibile dallo spazio).
Era stato trovato come soluzione delle equazioni di Einstein con costante cosmologica e vuoto di materia e scartato perchè "poco realistico". Un osservatore fisico è un punto su un circolo massimo dell' ipersfera (che è un modo alquanto complicato di dire che sta in un volume tridimensionale dinamico!), e vede dunque tutto in rappresentazione proiettiva utilizzando le tecniche di Castelnuovo e di Cayley - Klein. Solo così può distinguere l'etichetta "tempo" dall'etichetta "spazio".


3. Perchè il vuoto ha (o dovrebbe avere) la forma di una ipersfera pentadimensionale? Che cosa è e che dimensioni ha questa ipersfera? Lo spazio ipersferico è reale? In che modo si modifica, se si modifica, lo spazio ipersferico a seguito delle nucleazioni quantistiche?

La proposta cosmologica dell' universo arcaico inizia proprio con l'assunzione che l'ipersfera di De Sitter, che è lo spazio-tempo che viene immediatamente "dopo" quello di Lorentz-Minkowki, sia anche il "tessuto quantistico" che rende lo spazio e il tempo qualcosa di più che una mera struttura di relazione!
Ricordiamo che non applichiamo la fisica quantistica all'universo perchè agli inizi "era molto piccolo", ma perchè è la trama quantistica che dà un senso fisico allo spazio, al tempo ed alla materia.
Fatta questa assunzione, abbiamo ricavato subito la condizione di Hartle-Hawking che era proposta come condizione geometrica per la funzione d'onda d'universo e che incorporava inflazione ed effetto tunnel.
Ottenevamo tutto questo con semplici considerazioni geometriche di simmetria, senza alcun riferimento alla gravità, e questo ci ha fatto capire di essere sulla buona strada per la costruzione di una cosmologia quantistica.
Per comprendere il ruolo dell'ipersfera bisogna chiarire la differenza tra fisica e matematica.
Inizierei con il ricordare che nessuno di noi ha mai visto una legge fisica, ma soltanto classi di eventi, ossia le manifestazioni che quella legge descrive.
Anche in relatività le dilatazioni dei tempi e la contrazione delle lunghezze sono effetti "prospettici" dovuti al moto relativo uniforme degli osservatori inerziali.
Ciò che conta è che il gruppo di simmetria metta d'accordo tutti gli osservatori su quali sono le leggi fisiche "buone". Matematicamente le assunzioni fatte sull'universo di De Sitter significano che le leggi vanno scritte lì, cioè che è quella la simmetria più generale possibile per gli osservatori.
Questo vuol dire che le leggi (meccanica, elettromagnetismo, gravità) vanno scritte in forma pentadimensionale, in modo da essere invarianti (cioè "buone") rispetto al gruppo di De Sitter. E proprio come avviene nella relatività ristretta, dobbiamo essere pronti a vedere "effetti relativistici" su scala cosmica e per di più descritti proiettivamente.
Curiosamente, e molto opportunamente, la fisica quantistica è quella più a suo agio dentro questa bellissima geometria. Adesso è facile (forse, solo più facile...) capire perchè l'ipersfera non si modifica mai, come le leggi, perchè è "solo" il luogo matematico dove sono scritte le leggi fisiche, che osserviamo "qui", nel nostro universo di sempre.
Proprio come in relatività ristretta, non vediamo lo spazio-tempo di Minkowski ma misuriamo dilatazioni dei tempi e contrazioni delle lunghezze. Il raggio, che fissa in modo univoco la costante cosmologica (e per essere in accordo con essa), è di circa 10 alla 28 cm.

Fonte: Scientific American
4. Che cosa rappresentano nel tuo modello il tempo cosmico τ (tau), la costante temporale t con zero e l'iperpiano x con zero che tu chiami anche "parametro evolutivo" e "precursore del tempo" e descrivi come una variabile "arcaica"? Cosa rappresenta la variabile teta con zero legata alla transizione di fase del big bang?

Nel modello ci sono i parametri che descrivono le grandezze fisiche nell'ipersfera e la loro proiezione osservabile. Questo, lo ripeto perchè è un punto importante, non deve far pensare che viviamo in una sorta di grotta platonica.  Questo è l'universo a tempo reale che osserviamo. Se vogliamo descriverlo attraverso leggi che siano insieme coerenti con la fisica di Einstein e quella quantistica dobbiamo scriverle sull'ipersfera, che è il "codice matematico" di ciò che osserviamo. Se restiamo nell'ipersfera abbiamo visto che spazio e tempo sono inscindibili, curvi ed intrecciati per l'eternità.
Esiste una coordinata che idealmente può percorrersi fino ad arrivare ad un cartello che dice "attenzione"! Qui finiscono i processi virtuali ed iniziano quelli “reali”.
Questo è il precursore arcaico del tempo: quando passiamo a tempo reale, quel punto è l'istante in cui avviene il big bang.
Il tempo emerge. Non è del resto l'unica teoria a spostare il tempo da un ruolo fondamentale ad uno emergente. Ricordiamo qui i loops di Rovelli, dove il tempo non ha posto in una descrizione fondamentale ed emerge solo macroscopicamente.
A questo punto la gente mostra sempre un pò di delusione e aggiunge che si aspettava di sapere "perchè" avviene il big- bang.
Sono doverose dunque alcune considerazioni. E' piuttosto sorprendente che semplici considerazioni di simmetria fissino una topologia e forniscano il terreno per un'unificazione della relatività e della teoria quantistica su scala cosmologica e che ci liberino inoltre dalle singolarità, che geometricamente sono legate all'orizzonte degli eventi degli osservatori, che a tempo reale vedono la fase di altissima coerenza iniziale "come" una singolarità. Ma c'è di più: il vuoto quantistico è in continua attività dinamica, dunque il big bang avviene "sempre" o "continuamente", come direbbero i sostenitori del multiverso.
Forse il punto di forza, e la difficoltà della teoria, è proprio l'aver introdotto una struttura logica globale atemporale, mentre noi siamo abituati a collocare ogni cosa nel tempo e con il tempo.
Ma l'universo è un evento piuttosto "singolare" ed è dunque naturale aspettarsi che per spiegare il tempo bisogna alla fine ricorrere ad un pre-tempo o un "tempo prima del tempo". In effetti, è questa una possibile formulazione del famoso teorema della singolarità di Hawking-Penrose.

5. Quando si verifica la transizione di fase che chiamiamo "big bang"? Perché esso ha origine dall'equatore dell'ipersfera?

Ha origine nell'equatore perchè è lì che è situato l'osservatore, l'unico punto in cui può separare spazio e tempo. Si può anche dire "all'inverso": perchè gli osservatori siano correlati dal gruppo di simmetria di De Sitter essi devono essere matematicamente pensati su un punto di circolo massimo. Ma questa è matematica. Passiamo alla fisica.
Il gruppo ci dice in modo molto chiaro che all'origine non c'è una singolarità ma uno stato non-locale di alta coerenza. Questa simmetria si rompe ed il vuoto nuclea l'universo osservato. Dal punto di vista matematico nulla cambia nell'ipersfera, dove sono scritte le leggi fisiche!
Ma a tempo reale questo accadde circa 13 miliardi di anni fa. In questo senso parliamo di cosmologia arcaica. Qui "archè" non va inteso in senso cronologico, ma logico. L' ipersfera non viene "prima" del big-bang, non c'è tempo nell'ipersfera, ma contiene le informazioni che veicolano e vincolano l'evento chiamato "big- bang".
La cosa che può stupire è che l'espansione entra a far parte degli effetti relativistici come la contrazione delle lunghezze e la dilatazione dei tempi. Essa è l'effetto combinato della curvatura del tempo e della gravità descritta non più dalle equazioni di Einstein ma dalle equazioni della relatività generale proiettiva.
Però sarebbe sbagliato pensare che è un effetto "apparente"; noi lo osserviamo davvero e questo è l'unico universo che possiamo osservare. Piuttosto è un'interpretazione che va oltre il vecchio "palloncino" termodinamico di Gamow e Lemaitre, perchè in questo caso l'espansione non è una "strana" condizione iniziale, inosservabile perchè occultata dentro una singolarità, ma piuttosto una conseguenza delle leggi fisiche nella relatività di De Sitter.
Forse una metafora corretta potrebbe essere quella del DVD: esso contiene tutte le informazioni del film, ma acquista un senso per l'osservatore quando lo si proietta (in tempo reale!). E' possibile connettere l'informazione del DVD con gli ordinari principi di conservazione materia-energia attraverso una relazione di Bekenstein (ideata inizialmente per i buchi neri). Insomma, la cosmologia arcaica è la cosmologia che descrive l'informazione del DVD cosmico.

6. Il tuo modello mi sembra di capire che consideri l'espansione del nostro universo come un fenomeno geometrico locale dovuto alle nucleazioni quantistiche dal vuoto arcaico, è corretto? Di conseguenza, non c'è una reale espansione? Come viene considerata la costante cosmologica? Come sono interpretati dal tuo modello i fenomeni conosciuti come materia ed energia oscura?

L'espansione è reale nel senso che il fenomeno che descriviamo è a tempo reale, va con i nostri orologi. Il suo significato però è da ricercarsi nella fisica definita sull'ipersfera. Entrambi sono reali: i fenomeni osservati sono di questo tipo perchè dipendono da un certo tipo di leggi e viceversa le leggi sono di un certo tipo perchè devono descrivere l'universo osservato.
Anche la costante cosmologica è "reale" e nel modello può essere considerata a fini pratici come una forza repulsiva, in realtà è un effetto geometrico proiettivo dovuto ad una cosa chiamata retrograduazione degli orologi cosmici degli osservatori.
In altre parole dipende dall'orizzonte degli eventi degli osservatori de sitteriani. Ed è la conseguenza relativistica del rapporto tra la geometria dell'ipersfera e quella sul piano proiettivo, dove noi osserviamo gli eventi.
L'energia oscura è in genere identificata con la costante cosmologica, che nel modello è essenzialmente un effetto geometrico.
La materia oscura fu ipotizzata da F. Zwicky per spiegare alcune anomalie nel moto della materia visibile attraverso della materia non luminosa. Anche qui l'universo arcaico ha qualcosa da dire, perchè compare un'accelerazione di riferimento che non può essere superata che spiega facilmente il fenomeno, ancora una volta ricorrendo alle caratteristiche generali dell'universo di De Sitter e del suo caratteristico orizzonte degli eventi.
Per semplificare, anche la "piattezza" delle sezione spaziale dell'universo osservato trova una spiegazione nella relatività proiettiva ed il modello promette previsioni accurate anche sulle anisotropie della radiazione cosmica di fondo e sulle onde gravitazionali, perchè grazie ai vincoli geometrici le equazioni della relatività generale proiettiva possono essere risolte esattamente.



7. Nel vuoto arcaico il tempo è immaginario: ci spieghi che significa da un punto di vista fisico?

I numeri complessi sono inscindibilmente legati alle caratteristiche ondulatorie, ed ho già avuto modo di ricordare come la meccanica quantistica sta a suo agio scritta sull'ipersfera di De Sitter. Di fatto, la cosmologia arcaica è una teoria dei campi invariante per il gruppo di De Sitter.
Fisicamente vuol dire che è direttamente inosservabile, come l'informazione quantistica.

8. Il vuoto arcaico continua a nucleare materia-energia e quindi a generare sempre nuovi universi? In sostanza, dal vuoto emerge un multiverso composto da infiniti universi? Ogni universo è indipendente da ogni altro o ci sono possibili "intersezioni"?

Questa ipotesi non è da escludere. Proprio come ogni vuoto quantistico ci sono continue fluttuazioni. Ad esempio quando una coppia di particella-antiparticella salta fuori dal vuoto, viene ad esistere anche nel tempo!
In modo analogo si può pensare che anche il vuoto arcaico produca continuamente nuovi universi, proprio come nella teoria dell'inflazione caotica di A. Linde, però in questo caso c'è un vincolo molto forte sul "tipo" di universi che vengono creati: sono tutti "proiezioni" di De Sitter, dunque non c'è motivo di pensare a quella che Max Tegmark chiama la classe 4 del multiverso, quella in cui ogni universo si differenzia dagli altri per valore delle costanti fisiche e forma delle leggi. La nostra è una cosmologia "economica"!


9. Nel modello il tempo reale è quantizzato (chronon), perché?

L'idea del cronone è molto antica, e attraversa quasi tutta la fisica quantistica. E' stato studiato a fondo, ad esempio, da P. Caldirola ed E. Recami. Deriva direttamente dal principio di indeterminazione di Heisenberg, ed è un "tempo minimo", ossia un intervallo di tempo al di sotto del quale una transazione quantistica non è neppure definibile, e si entra nel territorio, ancora largamente sconosciuto, della gravità quantistica.
La sua introduzione ci ha permesso alcune semplificazioni tecniche che riguardano l'applicazione della teoria quantistica dei campi definita sull'ipersfera.

Fonte: International Journal of Theoretical Physics


10. Universi reali e vuoto arcaico coesistono da sempre e per sempre? Se ciò è corretto, ci spieghi cosa significa? Ci sono legami con l'implicate e l'esplicate order di D. Bohm?

C'è in effetti una stretta parentela tra l'olomovimento e la rotazioni di Wick da noi usate. Entrambe sono operazioni che permettono di passare da un livello di descrizione ad un altro.
Nella teoria di Bohm si tratta della struttura quantistica del mondo non-locale alle sue manifestazioni osservabili e locali. Nel nostro c'è in più un vincolo geometrico e una doppia scala dei tempi. In entrambi si passa da una descrizione sincronica ("eterna") del mondo fisico ad una diacronica, nello spazio e nel tempo osservabili.
I pregi di una teoria si vedono dal numero di cose che riesce ad unificare. L'universo arcaico è la prima teoria cosmologica ad introdurre la non-località ab initio, ed in modo piuttosto naturale, come ingrediente fondamentale del mondo fisico.
Vorrei concludere dicendo che si tratta anche di una teoria unificata pentadimensionale e dunque ci aspettiamo che pur nella sua grande economia di ipotesi, mostri una certa fecondità. Però voglio anche ricordare che il marcato delle teorie cosmologiche è quasi ampio come quello delle teorie della coscienza, e dunque mi sembra un buon correttivo alle troppe aspettative la frase di J. A. Wheeler: "Never run after a bus, a woman, or a cosmological theory. There will always be another one in a few minutes".

Questa teoria cosmologica dell’amico Ignazio Licata, come dicevo in premessa, mi offre l’opportunità di riflettere filosoficamente sui concetti classici di essere e divenire e, più in generale, sul rapporto fra metafisica e scienza.
Ne parleremo nei prossimi post.

-------------------------------------------------------
Riferimenti per la lettura:

Pubblicati su International Journal of Theoretical Physics:

http://www.springerlink.com/content/f2676tm805h34102/

http://www.springerlink.com/content/v647kwt65725812t/


Liberamente consultabili su arXiv:
Euclidean 5-sphere archaic universe, Ignazio Licata, Leonardo Chiatti

The Archaic Universe: Big Bang, Cosmological Term and the Quantum Origin of Time in Projective Cosmology, Ignazio Licata, Leonardo Chiatti


sabato 30 aprile 2011

La coscienza del Quantum Brain (2ª Parte)

La descrizione del modello Vitiello-Freeman del "quantum brain" che vi propongo sarà necessariamente discorsiva e cercherò di estrapolarne gli elementi che ritengo essenziali per una sua comprensione intuitiva poggiante comunque su una base di concetti della fisica quantistica e in parte della biologia.

Innanzitutto, come ho già detto nel precedente post, questa teoria ipotizza una coesistenza e interazione fisica reale fra processi quantistici e processi biologici, laddove la realtà classica biologica e neurale emergerebbe "naturalmente" da quella quantistica e i relativi processi neurali nel cervello sarebbero direttamente "implementati" da quest'ultima (ad es. la rapida sincronizzazione dei pattern neurali) oltre cha da fenomeni tipicamente biochimici e quindi "classici" (dunque, come detto, quantistico e classico coesisterebbero).
In particolare, nel nostro cervello e in generale in tutto il corpo - dove il sistema nervoso è "immerso" in un "milieu di biomolecole", tra cui quella più diffusa è l'acqua - si verificherebbero dei processi quantistici spontanei (rotture spontanee di simmetria dei dipoli elettrici delle biomolecole) dovuti alla continua interazione con l'ambiente ed alla natura stessa dei legami elettromagnetici delle predette biomolecole.
In buona sostanza, nel cervello (e in tutto il corpo per logica estensione) esisterebbe già "a monte" un campo quantistico, con caratteristiche che vedremo, entro il quale avverrebbero i predetti fenomeni di rottura spontanea di simmetria e dal quale emergerebbero naturalmente i processi della realtà classica biologica, che nel nostro caso specifico è fatta, semplificando, da biomolecole e neuroni nel cervello (e poi, ovviamente, da sinapsi, assoni, dendriti, cellule gliali ecc.; nel modello di Vitiello-Freeman la "sorgente" dei pattern rilevati e all'origine della formulazione della teoria riguarda il cosiddetto "neuropil" della neocorteccia).

Il modello di Vitiello-Freeman si basa sull'utilizzo della teoria quantistica dei campi a molti corpi , che si è rivelata ottimale per descrivere i fenomeni di emergenza dal livello quantistico a quello classico e per spiegare alcuni importanti dati sperimentali derivanti dagli elettroencefalogrammi (EEG) e dagli elettrocorticogrammi (ECoG), che altrimenti non sarebbero spiegabili attraverso i processi classici di tipo meramente elettrochimico.
Come abbiamo detto la teoria quantistica dei campi è detta anche "seconda quantizzazione" (Licata, 2008) e fondamentalmente si distingue dalla meccanica quantistica ("prima quantizzazione") per la modifica sostanziale del concetto di spazio-tempo vuoto (il "vuoto quantistico" e le sue fluttuazioni di "punto zero") e, in particolare, quella "a molti corpi" descrive in maniera efficace l'emergenza di comportamenti coerenti collettivi a partire da una molteplicità di "particelle elementari" ed è comunemente usata ad esempio nella fisica della materia condensata (fenomeni della superfluidità, superconduttività ecc.).
Un punto di partenza dell'analisi quantistica di Vitiello-Freeman la possiamo far risalire al famoso dilemma di Lashley risalente alla prima metà del secolo scorso (1942) : "Here is the dilemma. Nerve impulses are transmitted ... from cell to cell through definite intercellular connections. Yet, all behavior seems to be determined by masses of excitation...within general fields of activity, without regard to particular nerve cells... What sort of nervous organization might be capable of responding to a pattern of excitation without limited specialized path of conduction? The problem is almost universal in the activity of the nervous system".
La ricerca di Vitiello-Freeman, dunque, si basa sulla definizione di questi "pattern di conduzione non specializzati" del sistema nervoso (cerebrale) in risposta ai "pattern di eccitazione" nel ciclo di azione-percezione ed interazione dell'organismo con l'ambiente.

In sostanza, il problema è capire come si generano comportamenti collettivi neurali coerenti e sincronizzati a velocità difficilmente spiegabili con la semplice trasmissione elettrochimica.

Fonte: Vitiello, Freeman, 2008 "The sharp spikes (gray, De(t)) show the rate 
of change in spatial AM patterns. The lower  curve (black, the inverse of Re(t), 
a measure of synchrony)  shows that the re-synchronization precedes the emergence
of spatial order  and also the increase in power in each frame."




Come dicono in questo articolo gli stessi autori: " Observations and data analysis carried on in the past decades (Freeman, 1975-2006) have shown that the brains of animal and human subjects engaged with their environments exhibit coordinated oscillations of populations of neurons, changing rapidly with the evolution of the relationships between the subject and its environment, established and maintained by the action-perception cycle. Our analysis of electroencephalographic (EEG) and electrocorticographic (ECoG) activity has shown that cortical activity during each perceptual action creates multiple spatial patterns in sequences that resemble cinematographic frames on multiple screens. In this paper we will briefly review some of the features of the dissipative model of brain which has been formulated in recent years (Vitiello, 1995, 2001; 2004; Freeman & Vitiello, 2006- 2010)."


Questi pattern rilevati da EEG e ECoG sono detti "spatial amplitude modulated patterns" (AM) e Vitiello-Freeman ne hanno identificato la sorgente nel "neuropil neocorticale", ossia "the dense felt-work of axons, dendrites, cell bodies, glia and capillaries forming a continuous sheet 1 to 3 mm in thickness over the entire extent of each cerebral hemisphere in mammals" e le relative onde di trasporto sono state identificate come strette bande di oscillazione di circa 3-5 Hz all'interno delle frequenze cerebrali beta (12-30 Hz) e gamma (30-80 Hz), che "form during the active state and dissolve as the cortex returns to its receiving state after transmission" (Vitiello-Freeman, 2008).

Questa oscillazione di frequenza fra "active state" e "receiving state" della neocorteccia secondo i  nostri autori comporterebbe che: "The change in the dynamical state of the brain with each new frame resembles a collective neuronal process of phase transition requiring rapid, long-distance communication among neurons for almost instantaneous re-synchronization of vast numbers of neurons".


Dunque, i pattern AM rilevati dagli strumenti (EEG e ECoG) e le relative onde di trasporto ad essi associati nella forma di leggere variazioni (3-5 Hz) delle onde cerebrali beta e gamma possono essere riferibili a processi neuronali coerenti e collettivi conseguenti a transizioni di fase, che richiedono rapide comunicazioni a lunga distanza fra neuroni e che determinano una ri-sincronizzazione pressocché istantanea di un vasto numero di neuroni.

Secondo Vitiello-Freeman la rapidità di questo processo di ri-sincronizzazione neuronale a lunga distanza non è compatibile "with the mechanisms of long-range diffusion and the extracellular dendritic currents of the ECoG, which are much too weak. The length of most axons in cortex is a small fraction of the observed distances of long-range correlation, which cannot easily be explained even by the presence of relatively few very long axons creating small world effects [Barabásí, 2002]".


Cioè, i meccanismi di diffusione a lunga distanza, ossia le correnti elettriche dendritiche extra-cellulari e le trasmissioni di tipo chimico, non sono idonee secondo VF (abbrevierò così Vitiello-Freeman a partire da qui) a spiegare i pattern AM osservati e la velocità del processo neuronale da essi implicato ("Thus, neither the chemical diffusion, which is much too slow, nor the electric field of the extracellular dendritic current nor the magnetic fields inside the dendritic shafts, which are much too weak, are the agency of the collective neuronal activity. Lashley’s dilemma remains, thus, still to be explained" [2008]).

A questo punto, l'ipotesi di VF  è quella di spiegare questo processo osservato dei pattern AM e dei processi quasi-istantanei di ri-sincronizzazione neuronale ad esso riferibili come un processo quantistico reale e quindi di ipotizzare che il cervello sia un sistema quantistico macroscopico reale ("namely a system whose macroscopic behaviour cannot be explained without recourse to the microscopic dynamics of its elementary components" [Vitiello, Freeman, 2011]) in cui i neuroni e le biomolecole restano enti biologici classici, ma i relativi processi sono emergenti dal campo quantistico bosonico sottostante che è descritto dalla citata teoria quantistica dei campi a molti corpi.
Tale campo quantistico bosonico sarebbe interessato da continui processi di rottura spontanea della simmetria rotazionale del dipolo delle biomolecole, che sono ionizzate e dipolari (Licata, 2008), che da' origine - in base alla teoria a molti corpi - ai bosoni di Nambu-Goldstone  (dipole wave quanta, DWQ),  che sono particelle o modi del campo a massa nulla o estremamente piccola (Higgs-Kimble mechanism) e che "possono condensare a temperature biologicamente rilevanti producendo stati coerenti (evanescent photons) attraverso una peculiare filamentazione del campo elettrico che si dirama su ampie zone cerebrali" (Licata, 2008).

Fonte: http://www.leigharnold.com/
Il modello VF rappresenta una evoluzione di quello di Hiroomi Umezawa e Luigi M. Ricciardi (RU Model, 1967 e successive modifiche), che era un modello sviluppato per lo studio della materia condensata e prevedeva "la variazione di alcuni parametri d'ordine che innescano dei processi SSB (spontaneous simmetry breakdown) grazie ai quali si manifestano nel "cervello" un gran numero di modi vibrazionali di tipo bosonico" (Licata, 2008). Tale modello, però, prevedeva un "quantum brain" solo "formale", ossia considerava la teoria quantistica un modo strumentale ed efficace per descrivere i processi cerebrali (una sorta di "quantum like semantics"), ma non ipotizzava il cervello come un sistema quantistico macroscopico reale come invece fa il modello VF.

Inoltre, il modello Umezawa-Ricciardi non era di tipo dissipativo come invece quello Vitiello-Freeman, che prende il nome di dissipative quantum brain,  e quindi non considerava gli aspetti termodinamici dovuti all'interazione con l'ambiente ed al relativo scambio di energia ed informazione con il sistema cerebrale e l'intero organismo come fa invece il modello VF "che porta all'immagine di una mente che vive tramite una serie continua di transizioni di fase e dunque di nuovi livelli emergenti" (Licata, cit.).
Infine, il modello Ricciardi-Umezawa era troppo statico in quanto sostanzialmente "chiuso" (bassa apertura logica) e ciò comportava un grosso problema nella modellizzazione dei processi di memoria che si "sovrapponevano" l'uno sull'altro dando come risultato una sorta di incapacità strutturale del cervello a dimenticare, ovviamente non accettabile.
Questo problema viene risolto dal dissipative quantum brain proprio grazie al meccanismo quantistico di tipo bosonico che si svolge in un campo quantistico a stati di vuoto multiplo (cd. "vuoto degenere") all'interno dei quali i bosoni possono continuamente condensarsi dando luogo a "possibili infiniti stati coesistenti e non distruttivi per codificare l'informazione; l'arrivo di nuova informazione non produce necessariamente la distruzione di quella precedentemente immagazzinata, ma piuttosto, com'è naturale aspettarsi da un sistema dissipativo, un continuo processo di assemblaggio tra vecchia e nuova informazione. I numeri quantici associati ai vari comportamenti collettivi non sono fissi, ma variano nel tempo in co-evoluzione con gli stimoli ambientali. L'introduzione di un flusso complementare di informazione e dissipazione introduce in modo naturale una freccia del tempo legata alla descrizione dei processi cognitivi" (Licata, cit.).

Dunque, nel modello VF acquisisce fondamentale importanza il ruolo degli stati multipli di vuoto quantistico non equivalenti fra loro ("inequivalent ground state") e della continua rottura spontanea di simmetria dei dipoli rotazionali delle biomolecole, che da' origine alle transizioni di fase con "eccitazioni bosoniche" e la relativa densità di condensazione sempre diversa e in continua riorganizzazione all'interno degli stati di vuoto multiplo, che consente quella continua riconfigurazione del codice dell'informazione associabile alla memoria ed all'apprendimento.
In tale contesto, la densità di condensazione bosonica (e la sua variazione) è associata al parametro d'ordine del processo collettivo ("In our model we conceive the order parameter as the density of the synaptic interactions at every point in the cortical neuropil, and we interpret the ECoG recorded at each point as an experimentally observable correlate of the neural order parameter") e alle correlazioni neuronali a lunga distanza e quindi alla relativa coerenza del sistema (uno stato coerente è caratterizzato da bosoni NG che condividono la stessa fase).
Inoltre, in base alla teoria gli stati di vuoto multiplo sono reciprocamente esclusivi fra loro e quindi impediscono che ci siano sovrapposizioni di stato (che hanno reso famoso il gatto di Schroedinger, come visto nel post precedente).
Come scrivono i nostri: "In the dissipative model, under the influence of an external stimulus, the brain inner dynamics selects one of the possible (inequivalent) ground states, each of them thus being associated to a different memory. Infinitely many memories may thus be stored and, due to the unitarily inequivalence of the (vacuum) states, they are protected from reciprocal interference. In the dissipative model we regard the NG condensate as an expression of a transiently retrieved memory (thought, percept, recollection) that has been accessed by a phase transition."

La cosa interessante che emerge per necessità matematica della teoria è che trattandosi di un sistema dissipativo termodinamico occorre duplicare i gradi di libertà per rendere conto dell'interazione con l'ambiente e ciò porta alla "nascita" del Double del sistema - che chiameremo ∼Ak (tilde-A con k gradi di libertà del campo quantistico) - , mentre il sistema-cervello lo chiameremo Ak (non-tilde A, con k gradi di libertà), dove ∼Ak (l' "universo tilde") "può essere considerato il time-reversed mirror image" (Licata, cit.) dell' "universo non tilde", ossia Ak (il sistema cervello).

A tal proposito, i nostri scrivono: "The possibility to exploit the whole variety of unitarily inequivalent vacua arises as a consequence of the mathematical necessity in quantum dissipation to "double" the system degrees of freedom so as to include the environment in which the brain is embedded. That reflective fraction of the environment is thus described as the Double of the system, which turns out to be the system time- reversed copy. The entanglement between the brain and its environment is thus described as a permanent coupling, or dynamic dialog between the two, which may be related to consciousness mechanisms. Consciousness thus appears as a highly dynamic process rooted in the dissipative character of the brain dynamics, which, ultimately, is grounded into the non-equilibrium thermodynamics of its metabolic activity."


La coscienza emergerebbe in tale modello dal dialogo (il "between") tra le "modalità tilde" e quelle "non-tilde" del campo quantistico, quindi tra il sistema ed il suo Doppio o Sosia, e dunque si potrebbe "spiegare i processi coscienti come una speciale proprietà di auto-interazione del sistema con sé stesso. E' possibile dire in accordo con Maturana e Varela, che l'attività mentale è una continua produzione del mondo che origina dalla natura irreversibile e dissipativa delle nostre interazioni con l'ambiente" (Licata, 2008).

Dobbiamo, quindi, immaginare la coscienza come una capacità emergente dal dialogo continuo fra il sistema Ak ed il suo Doppio ∼Ak, in cui i processi bosonici dovuti alla rottura di simmetria ed alle transizioni di fase sono alla base della formazione ed evoluzione della memoria (sia a breve che a lungo termine), dell'apprendimento e in generale del ciclo percezione-azione.
E' importante ribadire che tali processi quantistici implementano, ma non sostituiscono quelli classici di tipo elettrochimico, costituendone per così dire "la matrice fisica informazionale profonda" su cui si fonda la coerenza del sistema.

Al livello classico, inoltre, dicono i  nostri autori che ci sono fenomeni di non linearità e di caos deterministico :"In recent years, the dissipative model has been developed also considering the available experimental observations and data analysis (Freeman & Vitiello, 2006-2010). The reader can find in the quoted literature a list of properties and predictions of the model, as compared to observations, which here for brevity we do not report. The data analysis shows that one can depict the brain non-linear dynamics in terms of attractor landscapes. Each attractor is based in a nerve cell assembly of cortical neurons that have been pair-wise co-activated in prior Hebbian association and sculpted by habituation and normalization (Kozma & Freeman, 2001). Its basin of attraction is determined by the total subset of receptors that has been accessed during learning. Convergence in the basin to the attractor gives the process of abstraction and generalization to the category of the stimulus. The memory store is based in a rich hierarchy of landscapes of increasingly abstract generalizations (Freeman, 2005; 2006). The continually expanding knowledge base is expressed in attractor landscapes in each of the cortices."

Pertanto, il dissipative quantum brain  abbina la teoria quantistica dei campi, la termodinamica, la complessità (caos deterministico e non linearità) e neurobiologia in un approccio interdisciplinare davvero pregevole, che dovrà essere perfezionato come dicono gli autori stessi per rendere conto meglio delle relazioni con i processi biochimici neuronali e delle funzioni mentali più elevate ("Moreover, the dissipative model describes the brain, not mental states. Also in this respect this model differs from those approaches where brain and mind are treated as if they were a priori identical (...) "There are many open questions which remain to be answered. For example, the analysis of the interaction between the boson condensate and the details of electrochemical neural activity, or the problems of extending the dissipative many-body model to account for higher cognitive functions of the brain need much further work"[2008]).

Ci tornerò nel prossimo post, dove cercherò di delineare alcune implicazioni filosofiche di questo modello quantistico del cervello.

domenica 23 gennaio 2011

Hofstadter, il carambio e gli anelli nella mente (1ª Parte)

Eravamo arrivati alla descrizione delle principali correnti filosofiche rispetto al problema della sovradeterminazione causale della mente parlando di Douglas Hofstadter e del suo emergentismo.
Il libro a cui farò riferimento è "Anelli dell'Io. Cosa c'è al cuore della coscienza?" (2007) in cui Hofstadter ha espresso direi più che compiutamente la sua concezione del sistema cervello-mente con il ricorso originale e frequente alla metafora ed all'analogia, che consente anche ad un lettore non esperto di poter comprendere il suo modello della coscienza.

Copertina del libro "Anelli nell'Io" (2007) di Douglas Hofstadter
Una domanda cruciale che Hofstadter si pone all'inizio del libro e che si riallaccia al fondamentale problema della causalità mentale riprende l'interrogativo del neuroscienziato americano Roger Sperry (anche lui emergentista e del quale Hofstadter si dichiara da subito un grande estimatore) che nel saggio "Mind, Brain and Humanist Values" (1965) dice:
"Nel mio ipotetico modello di cervello, la consapevolezza cosciente stessa viene rappresentata come un agente causale molto reale e merita un posto importante nella sequenza causale e nella catena di controllo degli eventi cerebrali, nei quali si manifesta come una forza attiva, operante... Per dirla in modo molto più semplice, tutto si riduce alla questione di chi è che comanda chi di qua e di là nella popolazione di forze causali che occupano il cranio. Si tratta, in altre parole, di mettere in chiaro l'ordine gerarchico nel gruppo dei vari agenti di controllo intracraniali. Esiste all'interno del cranio un intero mondo di diverse forze causali; il fatto poi è che ci sono forze all'interno di forze all'interno di forze, come non si verifica in nessun altro decimetro cubico dell'universo che conosciamo...(...)
L'uomo, rispetto allo scimpanzé, ha più idee e più ideali. Nel modello qui proposto, il potere causale di un'idea, o di un ideale, diviene tanto reale quanto quello di una molecola, di una cellula o di un impulso nervoso. Le idee causano altre idee e promuovono l'evolversi di nuove idee. Esse interagiscono tra di loro e con altre forze mentali nel medesimo cervello, in cervelli vicini e, grazie alla comunicazione globale, in cervelli molto distanti di altri  Paesi. Ed esse interagiscono anche con l'ambiente esterno, sì da produrre, complessivamente, un avanzamento esplosivo nell'evoluzione che è molto al di là di tutto ciò che ha calcato finora la scena evolutiva, compreso l'emergere della prima cellula vivente".


In questo passo di Roger Sperry devo dire che c'è praticamente tutto ciò che è veramente rilevante per il nostro discorso:
1. Il problema della causalità del mentale;
2. La visione emergentista ed il suo approccio gerarchico dei livelli di auto-organizzazione;
3. La specificazione che la mente è "embodied" e che al tempo stesso interagisce con un ambiente esterno facendone al tempo stesso parte;
4. L'aspetto evolutivo e quindi neurobiologico;
5. La previsione di quella che poi sarà chiamata la "mente collettiva", una sorta di architettura emergente dall'utilizzo delle nuove tecnologie globali della comunicazione.

A tal proposito Hofstadter asserisce che:
"L'interrogativo di Sperry sull'ordine gerarchico all'interno del cervello identifica quello che vorremmo sapere di noi stessi - o, più miratamente, dei nostri sé. Che cosa stava davvero succedendo quel bel giorno in quel bel cervello quando, a quanto pare, qualcosa che chiama sé stesso 'io' ha fatto qualcosa che è chiamato 'decidere', dopo il quale un'appendice articolata si è mossa in maniera fluida e un libro si è ritrovato dove era stato solo pochi secondi prima? C'era davvero qualcosa a cui è possibile riferirsi come 'io' che stava 'mandando di qua e di là' qualcosa in diverse strutture fisiche del cervello, con il risultato di inviare lungo le fibre nervose messaggi accuratamente coordinati e di far muovere di conseguenza spalla, gomito, polso e dita in un certo pattern complesso che ha rimesso a posto il libro dov'era in origine - o, al contrario, c'erano soltanto miriadi di processi fisici microscopici (collisioni quantomeccaniche fra elettroni, fotoni, gluoni, quark, e così via) che stavano accadendo in quella circoscritta regione del continuum spazio-temporale che il poeta Edson ha chiamato un 'bulbo vacillante'? Possono sogni e sospiri, speranze e sofferenze, idee e convinzioni, interessi ed incertezze, infatuazioni ed invidie, ricordi ed ambizioni, attacchi di nostalgia e ondate di empatia, fitte di rimorso e scintille di genio avere un qualche ruolo nel mondo degli oggetti fisici? Hanno queste pure astrazioni dei poteri causali? Possono mandare di qua e di là cose che possiedono una massa, o sono soltanto finzioni senza potere? Può un indistinto, intangibile io dettar legge a oggetti fisici concreti come elettroni e muscoli?"


La domanda è cruciale perchè implica direttamente un'altra domanda, ossia "L'essere umano è un automa biologico completamente determinato da leggi fisiche?" da cui conseguirebbe che la coscienza e quello che chiamiamo "Io" non è altro che una illusione dovuta molto probabilmente a meccanismi di sopravvivenza evolutiva, ma senza alcuna realtà fisica e bio-chimica.
Faccio notare, intanto, che nella visione di Roger Sperry le "idee" hanno un vero e proprio potere causale all'interno del mondo mentale, ossia le idee causano altre idee ed interagiscono con altre idee di altre persone grazie alla comunicazione globale, e in questo processo si evolvono causando ulteriori processi causali (possiamo pensare ad esempio al concetto di meme di Richard Dawkins [1976] o di "carattere culturale" di Luigi Cavalli Sforza [2007]).


La questione dell' "automa biologico" è poi direttamente correlata al problema del riduzionismo e del determinismo, in particolare se il nostro sistema cervello-mente è interamente riducibile al comportamento delle sue componenti microscopiche attraverso la descrizione delle relative leggi e quindi ha un comportamento interamente determinato da tali processi.
Inoltre, il determinismo è direttamente correlato alla prevedibilità di un fenomeno nell'ipotesi che se un fenomeno è determinato da leggi note di tipo matematico allora esso è interamente prevedibile nel suo sviluppo temporale.
Un esempio frequente di cosa si intenda per determinismo è quello del cosiddetto "demone di Laplace" che vi ripropongo di seguito:
"Dobbiamo pertanto considerare lo stato attuale dell'universo come l'effetto del suo passato e la causa del suo futuro. Un' Intelligenza che ad un determinato istante dovesse conoscere tutte le forze che mettono in moto la natura, e tutte le posizioni di tutti gli oggetti di cui la natura è composta, se questo intelletto fosse inoltre sufficientemente ampio da sottoporre questi dati ad analisi, esso racchiuderebbe in un'unica formula i movimenti dei corpi più grandi dell'universo e quelli degli atomi più piccoli; per un tale intelletto nulla sarebbe incerto ed il futuro proprio come il passato sarebbe evidente davanti ai suoi occhi ." (Laplace, 1814)


In realtà, questa visione del determinismo è ampiamente, come vedremo, tramontata e secondo alcuni (Zanghì, 2007) traviserebbe la stessa visione di Laplace perché "secondo Laplace le nostre inferenze su ciò che accadrà o è accaduto, essendo la nostra informazione sullo stato del mondo scarsa e limitata, dovranno essere necessariamente di tipo probabilistico. In altre parole, Laplace, a differenza di molti suoi moderni detrattori, ha ben chiara la distinzione fra determinismo e predicibilità. La moderna teoria della complessità ha chiarificato la distinzione tra queste due nozioni, mostrando che un sistema fisico governato da leggi deterministiche può esibire un comportamento totalmente impredicibile e caotico. Secondo la moderna teoria dei sistemi dinamici il caos non è altro che dipendenza sensibile dalle condizioni iniziali di un sistema deterministico. L'emergenza del caos e della complessità risultano quindi spiegati dal determinismo delle equazioni differenziali". (cit.)

Tornando ad Hofstadter, nel paragrafo "Termodinamica e meccanica statistica" (pag. 50, cit.), abbozza quella che sarà in sostanza la sua posizione di tipo emergentista:
"Sono cresciuto con un padre che era un fisico e per me era naturale vedere la fisica come fondamento di ogni singola cosa che accadeva nell'universo. (...) ... arrivai a vedere la biologia molecolare come risultato delle leggi della fisica in azione su molecole complesse. In breve, sono cresciuto con una visione delle cose che non lasciava alcuno spazio per 'altre' forze nell'universo, in aggiunta alle quattro forze fondamentali che i fisici avevano identificato (gravità, elettromagnetismo, forza nucleare debole e forza nucleare forte)".
Per conciliare questa visione "fisica" con quella che per il momento chiameremo "mentale", Hofstadter afferma che:
"Queste forze causali macroscopiche (quelle "mentali", nda) così ben comprensibili sembravano radicalmente differenti dalle quattro ineffabili forze della fisica che io ero sicuro causassero tutti gli eventi dell'universo. La risposta è semplice (per conciliare le "due realtà", nda): concepivo queste 'forze macroscopiche' come puri e semplici modi di descrivere dei pattern complessi che erano generati da forze fisiche fondamentali, proprio come i fisici erano arrivati a rendersi conto che fenomeni macroscopici quali attrito, viscosità, traslucidità, pressione e temperatura potevano essere intesi come regolarità altamente predicibili determinate dalla statistica di un numero astronomico di loro invisibili costituenti microscopici, carambolanti di qua e di là nello spazio-tempo, il tutto dettato dalle sole quattro forze fondamentali della fisica. Mi rendevo anche conto che questo tipo di passaggio fra livelli di descrizione risultava in qualcosa che era estremamente prezioso per gli esseri viventi : la comprensibilità".

In questo passo è dunque fondamentale il riferimento al fatto che noi esseri umani descriviamo per forza di cose e per renderci comprensibili diversi livelli di organizzazione del mondo fisico e che pertanto il mondo macroscopico nel quale viviamo ed interagiamo viene descritto ad un livello simbolico e linguistico che non necessita di specificare la realtà microscopica sottostante dalla quale emerge e dalla quale certamente ha, in prima approssimazione, una relazione di dipendenza ontologica.
L'analogia con la termodinamica e la meccanica statistica è alquanto pregnante: infatti per descrivere il comportamento di un gas non ci interessa sapere cosa fanno i miliardi di molecole al suo interno, ma solo il suo comportamento macroscopico, che viene descritto in termini statistico-probabilistici.
Come dice lo stesso Hofstadter, quando un ingegnere meccanico progetta un motore non pensa a cosa fanno al suo interno le singole molecole, ma al loro comportamento collettivo idoneo a generare energia e movimento.
La distinzione, dunque, fra livello microscopico e macroscopico emergente è fondamentale per poterci avventurare nel prossimo post negli strani anelli dell'Io di Hofstadter, in cui come vedremo sarà fondamentale anche il concetto di feedback ricorsivo.

Bookmark and Share


mercoledì 19 maggio 2010

Processi emergenti e creatività, intervista ad Ignazio Licata

A cavallo dell'evento RIZOM@, al quale ha partecipato con una brillante esposizione, avevo concordato con Ignazio Licata una breve intervista in cui fornire dei piccoli "flash" su concetti che ormai fanno parte integrante del linguaggio sia delle scienze cosiddette "dure" sia di quelle umanistiche: mi riferisco a concetti come quello di "emergenza", "complessità", "auto-organizzazione", "sistemi viventi".
Inoltre, in un'ottica di connessione interdisciplinare che ha come collante il processo creativo umano, ho chiesto ad Ignazio di esporre il suo punto di vista sulle connessioni fra Scienza, Arte e Spiritualità.
Ne è scaturita la presente intervista che fornisce degli utili spunti di riflessione e di approfondimento.
Buona lettura :-)



1. Quali sono a tuo parere le connessioni fra scienza ed arte nella descrizione del mondo?

Ogni rappresentazione del mondo si colloca all'interno di un gioco di sintassi e semantiche condivise su uno sfondo di esperienze storicizzate. Su queste premesse culturali si sviluppano le  proposte individuali. Senza la consapevolezza storica  dei percorsi battuti non c'è nè arte nè scienza, ma solo pretestuose imitazioni dei loro aspetti esteriori, come accade con il "grammelot" rispetto ad una lingua autentica. Anche le connessioni possibili vanno ricercate nell'analogia e nella risonanza e non in temi o tecniche specifiche. Carmelo Bene si definiva "attor quantico" in modo molto pertinente: infatti la phonè faceva esplodere la sfera  "newtoniana" dei significati del testo in infinite direzioni pronte a "collassare" diversamente durante la performance. Questo è un esempio di connessione analogica profonda.

2. Si sente sempre più spesso parlare di complessità ed emergenza, sia in ambito scientifico che in quello umanistico: ci potresti brevemente dire di cosa si tratta?

La maggior parte dei sistemi che ci circondano non sono spiegabili facendo riferimento soltanto  alle unità costituenti. Come recita il titolo del famoso articolo- manifesto di P. Anderson ( Nobel per la Fisica) , "More Is Different"! Le transizioni di fase, i mercati finanziari, i sistemi biologici e la mente umana sono ottimi esempi di sistemi che manifestano proprietà globali emergenti spesso imprevedibili, pur essendo ben noti  i loro costituenti.L'intera evoluzione biologica potrebbe essere descritta come un'infinita variazione su pochi temi di base.
Per comprendere i sistemi complessi è necessario dunque utilizzare in modo complementare due approcci: il riduzionismo ci dice di cosa è fatto un sistema, l'approccio globale emergentista cosa fanno i comportamenti collettivi.

Foto: R. Denti“Le vibrazioni ondulatorie della natura: la memoria dell’acqua” (2008) 


3. Come possiamo interpretare la vita biologica utilizzando i concetti di complessità ed emergenza?


Il concetto di "vita" implica la possibilità di far fonte ad un ambiente ricco di input e cambiamenti. Un sistema vivente dev'essere dunque sufficientemente articolato per adattarsi. Questo implica una forte capacità di mantenere una struttura organizzativa complessa (il processo che Maturana e Varela chiamavano "autopoiesi") ma anche essere in grado, all'interno di questa autonomia, di sviluppare "novità" per re-agire efficacemente nel mondo.  Queste sono propriamente emergenze, e vanno dai processi evolutivi ( compreso quel bricolage di strategie di rapporti tra struttura e funzioni che S. J. Gould ha definito "exaptation") fino al "farsi venire una buona idea" per risolvere un problema.



4. Cosa è il rumore nell'ambito dei sistemi biologici?

Una risorsa preziosa. Diversamente dai dispositivi artificiali - dove in genere il concetto di rumore è associato alla nozione di disturbo-, nei sistemi naturali il rumore è una continua sorgente di possibilità informative. Un certo grado di casualità garantisce l'innesco di processi emergenti e la produzione di novità. In genere un sistema complesso riesce ad utilizzare selettivamente il rumore per traformarlo "virtuosamente" in nuova organizzazione.

Il processo del "folding protein"


5. Cosa è e come si spiega l'auto-organizzazione che è alla base dei sistemi biologici?

Tutti i sistemi complessi hanno in comune una caratteristica essenziale dal punto di vista fisico-matematico: la non-linearità.  Abbiamo già ricordato che un sistema complesso non è riducibile ai suoi elementi costituenti. Questo perchè il modo di "legarsi" tra loro produce qualcosa di nuovo, l'effetto emergente non è semplicemente la somma delle sue "cause". E la non -linearità permette l'innesco di "mattoni organizzativi" che si auto-mantengono in accoppiamento selettivo con l'ambiente tramite  lo scambio di  materia-energia-informazione.



6. La coscienza umana è un "caso" o una tappa evolutiva in qualche modo intrinseca ai processi di emergenza ed auto-organizzazione dei sistemi biologici?

La domanda rischia di portarci in terreni lontani, ed è dunque utile una sua ricontestualizzazione epistemologica. I sistemi complessi non sono prevedibili secondo il vecchio schema deterministico della fisica classica. Studiamo più che altro dei vincoli ed il gioco delle possibilità compatibili con questi vincoli. Sicuramente la coscienza è radicata nella nostra natura biologica, ma nulla ci indica una qualche necessità della sua comparsa. La stessa cosa può dirsi del linguaggio. Possiamo dire che è stato un bel colpo di fortuna!
Infatti  la possibilità di stati di soggettività radicale  è una bussola cognitiva che ci rende piuttosto differenti dalle macchine di Turing, e garantisce ad ognuno di noi un approccio diverso di volta in volta ai fatti del mondo.



7. Quali sono le connessioni "inattese",  se ci sono, fra scienza e spiritualità (religiosità, misticismo, ecc.) oppure sono due mondi completamente diversi e spesso anche in contrasto?

Diceva Heisenberg, uno dei più grandi teorici della storia, figlio spirituale del suo amato Goethe, che dietro le risposte "utili" della scienza "c'è ancora un immediato intendimento della natura, il quale consiste nell'accogliere inconsapevolmente queste strutture matematiche riproducendole nello spirito, ed è aperto a tutti gli uomini che sono suscettibili d'una più intima e ricettiva relazione con la natura stessa". E ancora " Non siamo più nella felice posizione di Keplero, per il quale la legge che governa l'universo era la volontà del suo Creatore e che, per essere pervenuto alla conoscenza dell'armonia delle sfere, credeva di essere già prossimo alla comprensione del Suo piano creativo. Ma l'intuizione di una grande legge, nella quale possiamo penetrare sempre più addentro col nostro pensiero, resta anche per noi la forza che ci spinge all'indagine scientifica".
Ritengo che nulla si può aggiungere a queste considerazioni profonde e sottili di Heisenberg , senza il rischio di cadere nella trappola della dicotomia scienza/fede. Al suo posto c'è per ogni studioso la possibilità di trasformare la propria visione scientifica in  un'esperienza interiore, le cui caratteristiche non stanno nelle teorie, ma nella risonanza spirituale di queste dentro il proprio sentire.
Più concretamente, la scienza praticata è una forma di artigianato che non pretende di dire nulla sui massimi sistemi, il cui scopo è un dialogo mirato con alcuni aspetti del mondo naturale utilizzando "sensate esperienze e necessarie dimostrazioni" ( G. Galilei). Dunque è un profondo tradimento della natura dell'attività scientifica cercare di "tirarla per la giacchetta" a sostegno o contro le forme di conoscenza religiosa, che si collocano su altri piani. In genere, quando il dibattito prende questa forma è sempre animato da tensioni ideologiche o economiche che in sè non sono oggetti di scienza. Oggi il problema centrale non è quello di appoggiare una visione della scienza come ancella della teologia naturale e neppure come braccio armato  di certo scientismo, ma la trasparenza e l'etica della comunità davanti ad ogni uso strumentale della scienza  in quel grande circo che M. Cini ha definito il "Supermarket di Prometeo".


--------------------

Consigli di lettura:
Ilya Prigogine, La fine delle certezze, Bollati Boringhieri, Torino 1997.
F. Tito Arecchi, Coerenza, Complessità, Creatività, Di Renzo, Roma, 2007
I . Licata, La Logica Aperta della Mente, Codice Edizioni, Torino, 2008
S. J. Gould, Exaptation. Il bricolage dell'evoluzione, Bollati-Boringhieri, Torino, 2008
Link a "More is Different" di P. Anderson: http://www.sccs.swarthmore.edu/users/08/bblonder/phys120/docs/anderson.pdf
W. Heisenberg, "Mutamenti nella basi della scienza" , Bollati-Boringhieri, Torino, 1978
I . Licata, "Dio , Linguaggio e Logica" , Andromeda Bologna, 1993, link: http://samgha.wordpress.com/2010/04/09/dio-linguaggio-e-logica-ignazio-licata-1993/
I. Licata, "Comunicazione, Emergenze, Apertura Logica – parte I e II "
http://samgha.wordpress.com/2010/05/19/comunicazione-emergenze-apertura-logica-parte-i-ignazio-licata-2007/  e
http://samgha.wordpress.com/2010/05/20/comunicazione-emergenza-apertura-logica-parte-ii-ignazio-licata-2007/
G. Galilei, Scienza e religione. Scritti copernicani, Donzelli, 2009
M. Cini, Il supermarket di Prometeo. La scienza nell'era dell'economia della conoscenza, Codice EDizioni, Torino, 2006.



Ignazio Licata è un fisico teorico, direttore scientifico dell'ISEM,
Institute for Scientific Methodology for Interdisciplinary Studies di
Palermo.
I suoi campi di ricerca sono i Fondamenti della Fisica, la Cosmologia
Quantistica, i Modelli di Processi Cognitvi, e la Teoria della computazione
nei processi fisici e biologici.Tra i suoi libri recenti : "Osservando La
Sfinge" ( Di Renzo, Roma, 3 ed., 2009), "La Logica Aperta della
Mente"(Codice, 2008, Premio Veneri per la Scienza, 2008),  "Physics of
Emergence and Organization" (World Scientific, 2008), "Crossing in
Complexity" ( Nova Science, 2010),"Piccoli Preludi sulla Scienza"(Effatà,
2010),  "Fisica dell'Emergenza. Introduzione ai Sistemi Complessi"( Aracne,
2010).



Bookmark and Share