Zenone, Olbers e l’energia oscura (terza parte)

Nei precedenti articoli ho cercato di spiegare che il nostro Universo è in realtà freddo e buio fatto perlopiù di vuoto in perenne espansione. È impossibile che il peso di tutto il suo contenuto possa infine provocarne il collasso, non c’è abbastanza materia e energia (anche l’energia ha la sua importanza: ricordate il rapporto di equivalenza tra massa ed energia E=mc2?) per farlo chiudere su sé stesso. Ma se l’idea di un Big Crunch finale, ossia una fine dell’Universo governata da pressioni e temperature inimmaginabili tanto da far impallidire l’Inferno dantesco certamente non è piacevole, l’idea che tutta la già poca materia esistente finisca disgregata in una manciata di fotoni solitari nel nulla del vuoto che corre ancora più veloce della luce è spaventoso; inimmaginabile. Ma tranquillizzatevi, questo accadrà forse fra migliaia di eoni ma intanto il fenomeno che condanna a morte l’Universo potrebbe essere lo stesso che permette oggi la nostra esistenza.

La Hubble Ultra Deep Field (HUDF) è stata ripresa tra il 24 settembre 2003 e il 16 gennaio successivo mostra che stelle e galassie già dominavano l'Universo 13 miliardi di ani fa. Questo campo è circa un decimo della luna piena ma contiene qualcosa come dieci mila galassie! Credit: NASA

La Hubble Ultra Deep Field (HUDF) è stata ripresa tra il 24 settembre 2003 e il 16 gennaio successivo mostra che stelle e galassie già dominavano l’Universo 13 miliardi di ani fa. Questo campo è circa un decimo della luna piena ma contiene qualcosa come dieci mila galassie! Credit: NASA

Cercare di immaginare  la vastità dell’Universo è quasi impossibile e descriverlo senza ricorrere agli artifici matematici lo è ancora di più.
La naturale percezione umana è troppo limitata per descriverlo; essa già fallisce quando cerca di dimostrare la piattezza della Terra che è una sfera 7 milioni di volte più grande di un uomo.
Quindi quando sentiamo parlare di “universo in espansione” è spontaneo chiedersi anche “Entro cosa?“. In realtà non c’è un dentro e un fuori, così come non può esserci un punto di partenza e uno di arrivo in una circonferenza. Idealmente il tessuto dell’Universo, lo spazio-tempo, lo si può far coincidere con l’espansione dello stato di falso vuoto provocato dal decadimento del campo inflatone che chiamiamo Big Bang. Una metafora che uso spesso è quella del panettone che lievita: i canditi sono in quiete fra loro, proprio come lo sono le galassie; è il panettone che gonfiandosi fa crescere la loro distanza relativa.  L’Universo fa altrettanto e come non può esserci panettone fuori dal panettone, non può esserci spazio fuori dallo spazio.

Nel 1917 ancora si dava per scontato che l’Universo nel suo insieme fosse statico e immutabile ma le equazioni di campo derivate dalla Relatività Generale asserivano il contrario. Einstein stesso cercò di conciliare le sue equazioni di campo ad un modello statico di universo introducendo una costante, indicata con la lettera greca Λ, capace di contrastare il collasso gravitazionale del contenuto dell’universo assegnandole quindi una natura repulsiva. L’aspetto matematico di questa costante è quello di una densità energetica del vuoto  (ρΛ=Λc48πG) espresse in unità di energia per unità di volume (J/m3). Essendo essa il prodotto di altre costanti fisiche, π, c e G,  una volta indicato il suo valore numerico, esso non varia col tempo, con la dimensione di scala o altre condizioni fisiche: è costante comunque.
In seguito la scoperta dell’espansione dell’universo fece decadere l’ipotesi di una costante repulsiva capace di contrastare il collasso dell’Universo, ma nel 1998 due studi indipendenti, Supernova Cosmology Project [cite]https://arxiv.org/abs/0907.3526[/cite] e il High-Z Supernova Search Team [cite]http://arxiv.org/abs/astro-ph/9805200[/cite], dimostrarono che in realtà l’espansione dell’Universo stava accelerando.
La scoperta ovviamente giungeva inaspettata. L’Universo appariva sì in espansione, frutto del residuo della spinta iniziale dell’era inflazionaria; era anche chiaro come i modelli  cosmologici indicassero – come si è visto – che non c’è abbastanza materia ed energia perché il processo di spinta espansiva potesse infine arrestarsi e invertirsi verso un futuro Big Crunch, ma al più ci si poteva aspettare un minimo cenno di rallentamento nel ritmo verso una espansione illimitata, invece una accelerazione era proprio inattesa. E così che il concetto di una una proprietà repulsiva del vuoto, la famosa costante Lambda introdotta da Einstein ma poi quasi dimenticata perché  ritenuta inutile, tornò alla ribalta.

Ipotesi cosmologica dell’Energia Oscura, il modello della Costante Cosmologica Λ

Dovessimo descrivere il tessuto dello spaziotempo come un fluido, che non è materia o energia ma come più volte detto esiste energeticamente come uno stato di falso vuoto,  allora la densità energetica descritta da ρΛ attribuibile ad esso appare invariante rispetto a qualsiasi stato di materia e di energia che occupa lo spazio. In questo modello ρΛ è costante, così come lo era nei microsecondi successivi al Big Bang e lo sarà anche in un incalcolabile futuro.

Uno stato di falso vuoto in un campo scalare \(\varphi\). Si noti che l'energia E è più grande di quella dello stato fondamentale o vero vuoto. Una barriera energetica impedisce il campo di decadere verso lo stato di vero vuoto.L'effetto più immediato di questa barriera è la continua creazione di particelle virtuali tramite fenomeni di tunneling quantistico .

Uno stato di falso vuoto (il pallino) in un campo scalare φ. Si noti che l’energia E è più grande di quella dello stato fondamentale o vero vuoto. Una barriera energetica impedisce il campo di decadere verso lo stato di vero vuoto. L’effetto più immediato di questa barriera è la continua creazione di particelle virtuali tramite fenomeni di tunneling quantistico .

È il Principio di Indeterminazione di Heisenberg che permette all’energia del falso vuoto di manifestarsi tramite la perpetua produzione spontanea di particelle virtuali:. ΔxΔp2
Dove Δx indica il grado di indeterminazione della posizione e Δp quello dell’energia posseduta da una particella p rispetto alla Costante di Planck ridotta . La stessa relazione lega l’energia E e il tempo t: ΔEΔt2
Questo significa che per un periodo di tempo brevissimo (questo è strettamente legato all’energia della particella) è possibile violare la ferrea regola della conservazione dell’energia, permettendo così  la formazione di coppie di particelle e antiparticelle virtuali che esistono solo per questo brevissimo lasso di tempo prima di annichilirsi a vicenda 1.
Non solo: i gluoni responsabili dell’Interazione Forte che legano insieme i quark sono particelle virtuali, i bosoni delle interazioni deboli sono virtuali e anche i fotoni che si scambiano gli elettroni all’interno degli atomi sono solo virtuali.
Comprendere come questa energia faccia espandere l’Universo è un attimino più complicato.
Immaginatevi di strizzare un palloncino. L’aria, o il gas, al suo interno si concentrerà così in un volume minore e premerà di conseguenza sulle pareti di gomma con una forza maggiore. L’intensità della pressione è ovviamente data dal numero delle particelle per unità di volume per l’energia cinetica delle particelle stesse ed è chiamata appunto densità energetica. Quando rilasciamo il palloncino, il volume di questo aumenta e le particelle d’aria che facevano pressione su un volume minore si ridistribuiscono allentando così la pressione; si ha così un calo della densità energetica.
Ma se la densità energetica dovesse essere una costante come lo è la densità energetica relativa al falso vuoto, ecco che a maggior volume corrisponderebbe una maggiore pressione sulle pareti del palloncino ideale e, più questo si espande, sempre maggiore sarebbe la spinta espansiva.
Questo è ciò che accade all’Universo: dopo un momento inflattivo iniziale provocato dal collasso del campo inflatone verso uno stato di falso vuoto che ha reso omogeneo (Ω=1) l’Universo, la densità energetica residua ha continuato il processo di espansione dell’Universo sino alle dimensioni attuali. All’inizio della sua storia, finché l’Universo era più piccolo e giovane, la densità della materia ρ è stata abbastanza vicina al valore di densità critica ρc, permettendo così che l’azione gravitazionale della materia contrastasse in parte la spinta espansiva; ma abbiamo visto che comunque a maggiore volume corrisponde una maggiore spinta espansiva, e è per questo che la materia ha perso la partita a braccio di ferro con l’energia di falso vuoto fino a ridurre la densità media dell’Universo ai valori attuali. In cambio però tutti i complessi meccanismi che regolano ogni forma di materia e di energia non potrebbero esistere in assenza dell’energia del falso vuoto dell’Universo.
Se il destino ultimo dell’Universo è davvero quello del Big Rip, però è anche quello che oggi permette la nostra esistenza, e di questo dovremmo esserne grati.

Qui ho provato a descrivere l’ipotesi più semplice che cerca di spiegare l’Energia Oscura. Ci sono altre teorie che vanno da una revisione della Gravità su scala cosmologica fino all’introduzione di altre forze assolutamente repulsive come nel caso della Quintessenza (un tipo di energia del vuoto che cambia nel tempo al contrario della Λ). Si sono ipotizzate anche bolle repulsive locali piuttosto che un’unica espansione accelerata universale; un po’ di tutto e forse anche di più, solo il tempo speso nella ricerca può dire quale di questi modelli sia vero.
Però spesso nella vita reale e nella scienza in particolare, vale il Principio del Rasoio di Occam, giusto per tornare dalle parti di dove eravamo partiti in questo lungo cammino. Spesso la spiegazione più semplice è anche la più corretta e in questo caso l’ipotesi della Costante Cosmologica è in assoluto quella che lo è di più.
Cieli Sereni

Zenone, Olbers e l’energia oscura (seconda parte)

Nella prima parte di quest’articolo credo di aver dimostrato come nella risposta al paradosso di Olbers si nasconda la prova principe dell’Universo in espansione. Tale affermazione ci svela l’Universo per quello che veramente è. L’Energia Oscura per ora lasciamola per un attimo in disparte e diamo uno sguardo all’aspetto reale dell’Universo prima di approfondire questa voce.

La geometria locale dell'universo è determinato dal fatto che l'Ω densità relativa è inferiore, uguale o maggiore di 1. Dall'alto in basso: un sferica universo con maggiore densità critica (Ω> 1, k> 0); un iperbolica , universo underdense (Ω <1, k <0); e un universo piatto con esattamente la densità critica (Ω = 1, k = 0). L'universo, a differenza dei diagrammi, è tridimensionale.

La geometria locale dell’universo è determinata dalla sua densità. media come indicato nell’articolo.  Dall’alto in basso: un universo è sferico se il rapporto di densità media supera il valore critico 1 (Ω> 1, k> 0) e in questo caso si ha il suo successivo collasso (Big Crunch); un universo iperbolico nel caso di un rapporto di densità media inferiore a 1 (Ω <1, k <0) e quindi destinato all’espansione perpetua (Big Rip); e un universo piatto possiede esattamente il rapporto di densità critico (Ω = 1, k = 0). L’universo, a differenza dei diagrammi, è tridimensionale.

È nella natura dell’uomo tentare di decifrare l’Universo.  Le tante cosmogonie concepite nel passato lo dimostrano.  Un Uovo  Cosmico,  il Caos, la guerra tra forze divine contrapposte, sono stati tutti tentativi di comprendere qualcosa che è immensamente più grande. Ma solo per merito degli strumenti matematici e tecnologici che sono stati sviluppati negli ultimi 400 anni possiamo affermare oggi che si è appena scalfito l’enorme complessità del  Creato.
Fino a neanche cento anni fa l’idea che il cosmo fosse così enormemente vasto non era neppure contemplata: si pensava che le altre galassie lontane fossero soltanto delle nebulose indistinte appartenenti alla Via Lattea [cite]https://it.wikipedia.org/wiki/Grande_Dibattito[/cite].
Il dilemma nel descrivere matematicamente l’Universo apparve ancora più evidente con l’applicazione delle equazioni di campo della Relatività Generale [cite]https://it.wikipedia.org/wiki/Equazione_di_campo_di_Einstein[/cite] in questo contesto. Emergeva così però un quadro ben diverso rispetto a quanto supposto. Fino ad allora era sembrato ragionevole descrivere l’universo ipotizzando che le diverse relazioni tra le diverse quantità fisiche fossero invarianti col variare dell’unità di misura e del sistema di riferimento. In pratica si ipotizzava un universo statico, isotropo sia nello spazio che nel tempo. Un universo così semplificato senza tener conto del suo contenuto di materia ed energia potremmo descriverlo geometricamente piatto (Ω=1 che indica il rapporto tra la densità rilevata e la densità critica ρ/ρc), dove la somma degli angoli di un triangolo arbitrariamente grande e idealmente infinito restituisce sempre i 180° come abbiamo imparato a scuola [cite]https://it.wikipedia.org/wiki/Universo_di_de_Sitter[/cite]. Il problema è che l’Universo non è vuoto; contiene materia, quindi massa, e energia. In questo caso le equazioni di campo usate nei modelli di Friedmann propongono due soluzioni molto diverse tra loro. Infatti se il rapporto di densità media della materia, indicata dalla lettera greca Ω, dell’universo fosse minore o uguale rispetto a un certo valore critico (Ω1), allora l’universo risulterebbe destinato a essere spazialmente infinito. Oppure, se il rapporto di densità media dell’universo fosse più alto (Ω>1) allora il campo gravitazionale prodotto da tutta la materia (non importa quanto distante) finirebbe per far collassare di nuovo l’universo su se stesso in un Big Crunch. Comunque, in entrambi i casi queste soluzioni implicano che ci fosse stato nel passato un inizio di tutto: spazio, tempo, materia ed energia, da un punto geometricamente ideale, il Big Bang [1. Chiedersi cosa ci fosse spazialmente al di fuori dell’Universo o prima della sua nascita a questo punto diventa solo speculazione metafisica, il tempo e lo spazio come li intendiamo noi sono una peculiarità intrinseca a questo Universo.].

Were the succession of stars endless, then the background of the sky would present us an uniform luminosity, like that displayed by the Galaxy – since there could be absolutely no point, in all that background, at which would not exist a star. The only mode, therefore, in which, under such a state of affairs, we could comprehend the voids which our telescopes find in innumerable directions, would be by supposing the distance of the invisible background so immense that no ray from it has yet been able to reach us at all.
Se la successione delle stelle fosse senza fine, allora il fondo del cielo si presenterebbe come una luminosità uniforme, come quella mostrata dalla Galassia, dato che non ci sarebbe assolutamente alcun punto, in tutto il cielo, nel quale non esisterebbe una stella. La sola maniera, perciò, con la quale, in questo stato di cose, potremmo comprendere i vuoti che i nostri telescopi trovano in innumerevoli direzioni, sarebbe supporre che la distanza del fondo invisibile sia così immensa che nessun raggio proveniente da esso ha potuto finora raggiungerci”

Tornando un passo indietro al famoso Paradosso di Olbers. Una soluzione alquanto intelligente venne proposta dal poeta americano Edgard Allan Poe in un saggio intitolato Eureka: A Prose Poem [cite]http://www.eapoe.org/works/editions/eurekac.htm[/cite], tratto da una conferenza precedente da lui presentata a New York. Vi cito il brano nel riquadro qui accanto (perdonate per la traduzione forse raffazzonata).  Sarebbe bastato indagare un po’ di più sui limiti imposti dalla fisica per capire che la soluzione fino ad allora proposta, ossia che una moltitudine di nebulose oscure avrebbero oscurato la radiazione stellare più distante, non era quella giusta. Invece un universo dinamico in espansione e  che avesse avuto un inizio certo in un momento passato lo sarebbe stato, più o meno come suggerito da H. A. Poe. Con la scoperta della recessione delle galassie grazie agli studi di Edwin Hubble tra il 1920 e il 1923 divenne evidente che l’Universo era in realtà un universo dinamico in espansione come le soluzioni proposte da Lemaitre e Friedmann usando le equazioni di campo di Albert Einstein suggerivano.

La teoria cosmologica del Big Bang, il modello inflazionario

Il quadro che finalmente emergeva dalle equazioni di Friedman e che come ho descritto la volta scorsa tiene conto dell’espansione metrica del tessuto spazio-tempo, dalla recessione delle galassie al paradosso da me citato più volte, indica un inizio temporale dell’Universo nel passato insieme a tutta la materia e l’energia che oggi osserviamo. Per spiegare la piattezza (Ω=1) dell’Universo attuale nel 1979 il fisico americano Alan Guth – e indipendentemente da altri cosmologi come il russo Andrej Linde – suggerì che l’Universo subito dopo la sua formazione (da 10-35 secondi a 10-32 secondi) si sia gonfiato così rapidamente da provocare un superaffreddamento della sua energia, da 1027 K fino a 1022 K.  In questa fase tutto l’Universo sarebbe passato dalle dimensioni di 10-26 metri (un centimiliardesimo delle dimensioni di un protone) a 10 metri di diametro, ben 27 ordini di grandezza in una infinitesima frazione di secondo. Durante quest’era chiamata inflattiva, un sussulto nell’energia, un po’ come una campana che risuona dopo esser stata colpita da un battacchio, avrebbe avviato un processo di ridistribuzione dell’energia verso uno stato di equilibro contrastando così il superrafreddamento causato dall’espansione. Questo processo avrebbe finito per far decadere il campo inflativo, chiamato appunto Campo Inflatone e responsabile dell’inflazione iniziale, verso uno stato abbastanza stabile chiamato falso vuoto e provocando una transizione di fase dello stesso campo che ha quindi dato origine a tutta la materia, compresa ovviamente quella oscura, e tutta l’energia che oggi osserviamo nell’Universo.

Permettetemi un breve digressione: Quando accendiamo una candela, facciamo esplodere qualcosa, che sia un esplosivo al plastico oppure del granturco per fare il pop corn, o più semplicemente sentiamo sulla pelle il calore del sole che ha origine nelle reazioni termonucleari al centro della nostra stella, quella è ancora l’energia, riprocessata in migliaia di modi diversi, che scaturì col Big Bang.

Fu appunto quest’era inflattiva, dominata dal campo inflatone a dilatare così tanto l’Universo da fargli assumere l’aspetto così sorprendentemente piatto che oggi conosciamo, una curvatura così ampia da sembrate piatta 1, così vicina al canonico valore di Ω=1.

L’espansione post inflazionistica: il problema della densità

Se volete dilettarvi sulla transizione di fase, provate a gettare una tazzina d’acqua bollente nell’aria fredda abbondantemente sotto zero. Più o meno è lo stesso processo accaduto al campo inflatone: un campo energetico (l’ acqua calda nella tazzina) che viene liberata nell’aria super fredda (universo inflazionato). Il nevischio sono le particelle scaturite dalla transizione di fase dell’acqua.

Con il suo decadimento, la spinta del campo inflatone cessa di essere il motore dell’espansione dell’Universo ma la spinta continua per inerzia, con una piccola differenza: la presenza della materia.
Ormai il campo inflatone è decaduto  attraverso un cambiamento di fase che ha dato origine a tutta la materia che osserviamo direttamente e indirettamente oggi nel cosmo. Piccole fluttuazioni quantistiche in questa fase possono essere state le responsabili della formazione di buchi neri primordiali [cite]http://ilpoliedrico.com/2016/06/materia-oscura-e-se-fossero-anche-dei-buchi-neri.html[/cite]. Ma al di là di quale natura la materia essa sia, materia ordinaria, materia oscura, antimateria, essa esercita una debolissima forza di natura esclusivamente attrattiva su tutto il resto; la forza gravitazionale. 
Quindi, come previsto dalle succitate equazioni di Friedmann, è la naturale attrazione gravitazionale prodotta dalla materia a ridurre quasi ai ritmi oggi registrati per l’espansione.
Ma tutta la materia presente nell’Universo comunque non pare sufficiente a frenare e fermare l’espansione.
La densità critica teorica dell’Universo ρc è possibile calcolarla partendo proprio dal valore dell’espansione metrica del cosmo espressa come Costante di Hubble H0 [cite]http://arxiv.org/abs/1604.01424[/cite] secondo le più recenti stime:
ρc=3H028πG 
Assumendo che H0 valga 73,24 km/Mpc allora si ha un valore metrico di H0=(73,24×1000)3,086×1022=2,3733×1018m
Quindi 3×2,3733×101828×π×6,6725911=1,0076126kg/m3
Conoscendo il peso di un singolo protone (1,67 x 10-24 grammi) o al noto Numero di Avogadro che stabilisce il numero di atomi per una data massa, si ottiene che 1,00761×1026×10001,67×1024=6,003che sono appena 6 atomi di idrogeno neutro per metro cubo di spazio (ovviamente per valori H0 diversi anche il valore assunto come densità critica ρc cambia e di conseguenza anche il numero di atomi per  volume di spazio).
Ora se volessimo vedere quanta materia c’è nell’Universo potremmo avere qualche problema di scala. Assumendo una distanza media tra le galassie di 2 megaparsec e usando la massa della nostra galassia a confronto, 2 x 1042 chilogrammi, otterremo all’incirca il valore ρ quasi corrispondente a quello critico (5 atomi per metro cubo di spazio). Eppure, se usassimo come paragone l’intero Gruppo Locale (La Via Lattea, la Galassia di Andromeda, più un’altra settantina di galassie più piccole) che si estende per una decina di Mpc di diametro per una massa complessiva di appena 8,4 x 1042 kg [cite]http://arxiv.org/abs/1312.2587[/cite], otteniamo un valore meno di cento volte inferiore (0,04 atomi per metro cubo di spazio). E su scala maggiore la cosa non migliora, anzi.
L’Universo appare per quel che è oggi, un luogo freddo e desolatamente vuoto, riscaldato solo dalla lontana eco di quello che fu fino a 380 mila anni dopo il suo inizio.
(fine seconda parte)

Zenone , Olbers e l’energia oscura (prima parte)

Mi pareva di aver già trattato in passato lo spinoso problema dell’Energia Oscura. Questo è un dilemma abbastanza nuovo della cosmologia (1998 se non erro) e sin oggi il più incompreso e discusso (spesso a sproposito). Proverò a parlarne partendo da lontano …

[video_lightbox_youtube video_id=”HRoJW2Fu6D4&rel=false” auto_thumb=”1″ width=”800″ height=”450″ auto_thumb=”1″]Alvy: «L’universo si sta dilatando»
Madre: «L’universo si sta dilatando?»
Alvy: «Beh, l’universo è tutto e si sta dilatando: questo significa che un bel giorno scoppierà, e allora quel giorno sarà la fine di tutto»
Madre: «Ma sono affari tuoi, questi?»
(Io e Annie, Woody Allen 1997)

Attorno al V secolo a.C. visse un filosofo che soleva esprimersi per paradossi. Si chiamava Zenone di Elea e sicuramente il suo più celebre fu quello di “Achille e la tartaruga“.
In questo nonsense Zenone affermava che il corridore Achille non avrebbe mai potuto raggiungere e superare una tartaruga se questa in un’ipotetica sfida fosse partita in vantaggio indipendentemente dalle doti del corridore; questo perché nel tempo in cui Achille avesse raggiunto il punto di partenza della tartaruga, quest’ultima sarebbe intanto andata avanti e così via percorrendo sì spazi sempre più corti rispetto ad Achille ma comunque infiniti impedendo così al corridore di raggiungere mai l’animale. Si narra anche che un altro filosofo,  Diogene di Sinope, a questo punto del racconto si fosse alzato e camminato, dimostrando l’infondatezza di quel teorema.
È abbastanza evidente l’infondatezza empirica di quel paradosso, nella sua soluzione Aristotele parlava di spazio e di tempo divisibili all’infinito in potenza ma non di fatto, una nozione oggi cara che si riscopre nella Meccanica Quantistica con i concetti di spazio e di tempo di Planck, ma ragionare su questo ora non è il caso.
Piuttosto, immaginiamoci cosa succederebbe se lo spazio tra A (la linea di partenza di Achille) e B (la tartaruga) nel tempo t che impiega Achille a percorrerlo si fosse dilatato. Chiamiamo D la distanza iniziale e v la velocità costante con cui Achille si muove: nella fisica classica diremmo che D è dato da t×v, ovvio. Ma se nel tempo t/2 la D è cresciuta di una lunghezza che chiameremo d, alla fine quando Achille coprirà la distanza D, il punto B sarà diventato D+2d e la tartaruga non sarebbe stata raggiunta nel tempo finito t neppure se fosse rimasta ferma.

Animazione artistica del Paradosso di Olbers.

Animazione artistica del Paradosso di Olbers.

Se sostituissimo ad Achille un quanto di luce, un fotone come ad esempio il buon vecchio Phòs, e alla pista della sfida il nostro Universo, avremmo allora ricreato esattamente il medesimo quadro fisico. Nel 1826 un medico e astrofilo tedesco, Heinrich Wilhelm Olbers, si chiese perché mai osservando il cielo di notte questo fosse nero. Supponendo che l’universo fosse esistito da sempre, fosse infinito e isotropo (oggi sappiamo che non è vera quasi nessuna di queste condizioni e l’Universo è isotropo solo su grande scala, ma facciamo per un attimo finta che lo siano), allora verso qualsiasi punto noi volgessimo lo sguardo dovremmo vedere superfici stellari senza soluzione di continuità. Questa domanda in realtà se l’erano posta anche Keplero, Isaac Newton e Edmund Halley prima di lui ma non sembrava allora forse una questione importante come invece lo è.
138 anni dopo, nel 1964, due ricercatori della Bell Telephone Company che stavano sperimentando un nuovo tipo di antenna a microonde, Arno Penzias e Robert Wilson [cite]http://ilpoliedrico.com/2014/03/echi-da-un-lontano-passato-la-storia.html[/cite] scoprirono uno strano tipo di radiazione che pareva provenire con la stessa intensità da ogni punto del cielo. Era la Radiazione Cosmica di Fondo a Microonde (Cosmic Microwave Background Radiation) che l’astrofisico rosso naturalizzato statunitense George Gamow negli anni ’40 aveva previsto 1 [cite]https://arxiv.org/abs/1411.0172[/cite] sulle soluzioni di Alexander Friedmann che descrivono un universo non statico come era stato dimostrato dal precedente lavoro di Hubble e Humason sulla recessione delle galassie. Questa intuizione è oggi alla base delle attuali teorie cosmologiche che mostrano come i primi istanti dell’Universo siano stati in realtà dominati dall’energia piuttosto che la materia, e che anche l’Universo stesso ha avuto un’inizio temporalmente ben definito – anzi il tempo ha avuto inizio con esso – circa 13,7 miliardi di anni fa, giorno più giorno meno. Il dominio dell’energia nell’Universo durò fino all’epoca della Ricombinazione, cioè fin quando il protoni e gli elettroni smisero di essere un plasma caldissimo e opaco alla radiazione elettromagnetica e si combinarono in atomi di idrogeno. In quel momento tutto l’Universo era caldissimo (4000 K, quasi come la superficie di una nana rossa). E qui che rientra in gioco il Paradosso di Olbers: perché oggi osserviamo che lo spazio fra le stelle e le galassie è freddo e buio permeato però da un fondo costante di microonde? Per lo stesso motivo per cui in un tempo finito t Achille non può raggiungere la linea di partenza della tartaruga, lo spazio si dilata.
Electromagneticwave3DI fotoni, i quanti dell’energia elettromagnetica come Phòs, si muovono a una velocità molto grande che comunque è finita, 299792,458 chilometri al secondo nel vuoto, convenzionalmente indicata con c. Queste particelle, che appartengono alla famiglia dei bosoni, sono i mediatori dei campi elettromagnetici. La frequenza di oscillazione di questi campi in un periodo di tempo t ben definito (si usa in genere per questo il secondo: f=1/t) determina la natura del fotone e è indicata con f: più è bassa la frequenza e maggiore la lunghezza d’onda: frequenze molto basse sono quelle delle onde radio (onde lunghe e medie, che in genere corrispondono alle bande LF e  AM della vostra radio, anche se AM sarebbe un termine improprio 2), poi ci sono le frequenze ben più alte per le trasmissioni FM 3, VHF, UHF, microonde, infrarossi, luce visibile, ultravioletti, raggi X e Gamma, in quest’ordine. Tutte queste sono espressioni del campo elettromagnetico si muovono nello spazio alla medesima velocità c, quello che cambia è solo la frequenza: f=cλ
Ma è anche vero che una velocità è l’espressione di una distanza D per unità di tempo (D=t×v), pertanto nel caso della luce potremmo anche scrivere che D=t×c. Ma se D cambia mentre c è costante, allora è anche t a dover cambiare. Per questo ogni variazione delle dimensioni dello spazio si ripercuote automaticamente nella natura dei campi associati ai fotoni: un aumento di D significa anche un aumento della lunghezza d’onda, quello che in cosmologia si chiama redshift cosmologico. Potremmo vederla anche come l’aumento della distanza tra diversi punti di un’onda con i medesimi valori del campo elettromagnetico (creste o valli) ma è esattamente la stessa cosa.
Per questo percepiamo buio il cielo: la natura finita e immutabile della velocità della luce trasla verso frequenze più basse la natura della luce stessa, tant’è che quello che noi oggi percepiamo la radiazione cosmica di fondo a microonde con una temperatura di appena 2,7 kelvin è la medesima radiazione caldissima che permeava l’intero Universo  380000 anni dopo che si era formato.
La migliore stima dell’attuale ritmo di espansione dell’Universo è di 73,2 chilometri per megaparsec per secondo, un valore enormemente piccolo, appena un decimo di millimetro al secondo su una distanza paragonabile a quella che c’è tra il Sole e la stella più vicina. Eppure l’Universo è così vasto che questo è sufficiente per traslare verso lunghezze d’onda maggiori tutto quello che viene osservato su scala cosmologica, dalla luce proveniente da altre galassie agli eventi parossistici che le coinvolgono. Questo perché l’effetto di stiramento è cumulativo, al raddoppiare della distanza l’espansione raddoppia, sulla distanza di due megaparsec lo spazio si dilata per 146,4 chilometri e così via, e questo vale anche per il tempo considerato, in due secondi la dilatazione raddoppia.
Le implicazioni cosmologiche sono enormi, molto più dell’arrossamento della luce cosmologico fin qui discusso. Anche le dimensioni dello stesso Universo sono molto diverse da quello che ci è dato vedere. Noi percepiamo solo una parte dell’Universo, ciò che viene giustamente chiamato Universo Osservabile che è poi è la distanza che può aver percorso il nostro Phòs nel tempo che ci separa dal Big Bang, 13,7 miliardi di anni luce.

Ora dovrei parlare del perché l’Universo si espande e del ruolo dell’Energia Oscura in tutto questo, ma preferisco discuterne in una seconda puntata. Abbiate pazienza ancora un po’.
Cieli sereni.

Materia oscura: e se fossero anche dei buchi neri?

Rotationcurve_3 Sappiamo che la materia oscura esiste nelle galassie, perché la curva di rotazione è piatta anche a grandi distanze dal centro della galassia. La "curva di rotazione" non è altro che un grafico di quanto velocemente le stelle di una galassia ruotano in funzione della loro distanza dal centro. La gravità predice che \(V = \sqrt (GM / R)\). La "M" indica tutta la massa che è racchiusa all'interno del raggio R. Una curva di rotazione è piatta quando la velocità è costante, cioè che in qualche modo \(M / R\) è costante. Quindi questo significa che come andiamo sempre più in una galassia, la massa è in crescita anche se pare che le stelle finiscano. La naturale conseguenza se le le leggi di gravitazione sono corrette è che allora deve esserci una qualche forma di materia che non vediamo. Anche altre osservazioni cosmologiche indicano l'esistenza della materia oscura e, sorprendentemente, predicono all'incirca la stessa quantità!

Sappiamo che la materia oscura esiste nelle galassie, perché la curva di rotazione è piatta anche a grandi distanze dal centro della galassia. La “curva di rotazione” non è altro che un grafico di quanto velocemente le stelle di una galassia ruotano in funzione della loro distanza dal centro. La gravità predice che V=(GM/R). La “M” indica tutta la massa che è racchiusa all’interno del raggio R. Una curva di rotazione è piatta quando la velocità è costante, cioè che in qualche modo M/R è costante. Quindi questo significa che come andiamo sempre più in una galassia, la massa è in crescita anche se pare che le stelle finiscano. La naturale conseguenza se le le leggi di gravitazione sono corrette è che allora deve esserci una qualche forma di materia che non vediamo. Anche altre osservazioni cosmologiche indicano l’esistenza della materia oscura e, sorprendentemente, predicono all’incirca la stessa quantità!

Finora – e credo che non lo sarà ancora per diverso tempo – la reale natura della materia oscura non è stata chiarita. Non sto ancora a ripetermi nello spiegare per filo e per segno come si sia arrivati a concludere che molta materia che percepiamo è in realtà una frazione di quella che gli effetti gravitazionali (curve di rotazione delle galassie) mostrano.
Se avete letto il mio articolo su quante stelle ci sono nella nostra galassia [cite]http://ilpoliedrico.com/2015/12/quante-stelle-ci-sono-nella-via-lattea.html[/cite] lì spiego che a concorrere alla massa totale di una galassia ci sono tante componenti barioniche (cioè composte da protoni e neutroni) più gli elettroni che non sono solo stelle. Ci sono anche corpi di taglia substellare, pianeti erranti, stelle degeneri e buchi neri di origine stellare, il risultato cioè della fine di enormi stelle  che dopo essere esplose come supernova hanno lasciato sul campo nuclei con una massa compresa tra le 3 e le 30 masse solari, tra i 9 e i 90 km di raggio. Questi oggetti non sono direttamente osservabili perché non emettono una radiazione rilevabile, ma i cui effetti gravitazionali sono ben visibili quando si studiano le quantità di moto di galassie e ammassi di queste rispetto al centro di gravità comune.
Obbiettivamente stimare la massa barionica non visibile di una galassia è molto difficile ma se prendiamo come esempio  il Sistema Solare il 99,8% dell’intera sua massa è nel Sole, una stella. Anche decidendo di considerare che la materia barionica non direttamente osservabile fosse un fattore dieci o venti volte più grande di quella presente nel Sistema Solare ed escludendo a spanne tutta la materia stellare degenere (nane bianche, stelle di neutroni e buchi neri) non più visibile presente in una tipica galassia come la nostra, in numeri ancora non tornano.
Più o meno tutte le galassie pare siano immerse in una tenue bolla di gas caldissimo grande circa cinque o sei volte la galassia stessa, probabilmente frutto del vento stellare galattico e dei processi parossistici dei nuclei galattici. Queste bolle sono impalpabili e caldissime a tal punto che solo da poco ne è stata avvertita la presenza [cite]http://hubblesite.org/newscenter/archive/releases/2011/37/[/cite], capaci quanto basta però per contenere una massa pari alla parte visibile; questo significa che finora la massa barionica di una galassia è stata finora sottostimata di un fattore 2.
Ma tutto questo ancora non basta. Anche se volessimo comunque raddoppiare o perfino triplicare le stime precedenti della massa barionica, verrebbe fuori che comunque una frazione ancora piuttosto cospicua di massa manca all’appello: almeno tra i due terzi e la metà mancherebbero comunque all’appello.
grafico universoE sulla natura di questa materia oscura (oscura appunto perché non visibile direttamente o indirettamente tranne che per la sua presenza come massa) che si sono avanzate le più disparate ipotesi.
Una di queste prevede che se, come molti esperimenti mostrano [cite]http://ilpoliedrico.com/2013/02/la-stupefacente-realta-del-neutrino.html[/cite], che i neutrini hanno una massa non nulla, allora questi potrebbero essere i responsabili della massa mancante. Questa si chiama Teoria WIMP (Weakly Interacting Massive Particle) Calda, cioè particelle debolmente interagenti dotate di massa che si muovono a velocità relativistiche. Particelle così sono note da sessant’anni, sono i neutrini che, grazie alla loro ridotta sezione d’urto e alla loro incapacità di  interagire con la forza nucleare forte (quella che cioè tiene uniti i quark e il nucleo degli atomi) e l’interazione elettromagnetica – però interagiscono bene con la forza nucleare debole (quella responsabile del decadimento radioattivo) e la forza gravitazionale – sono esattamente elusivi quanto si chiede alla materia oscura. Purtroppo se la materia oscura si identificasse unicamente nei neutrini avremmo un grande problema: forse non esisteremmo! Tutte le strutture di scala fine, le galassie e quindi le stelle, non avrebbero avuto modo di formarsi, disperse dai neutrini e dall’assenza di zone di più alta densità verso cui concentrarsi. Pertanto la Hot Dark Matter –  Materia Oscura Calda – non può essere stata rilevante alla formazione dell’Universo [cite]https://arxiv.org/abs/1210.0544[/cite].
Quindi se la materia oscura non può avere una rilevante componente calda, cioè che si muove a velocità relativistiche come i neutrini, deve essere prevalentemente fredda, cioè che, come la materia ordinaria, è statica. Una possibile spiegazione al mistero della materia oscura fa ricorso a oggetti barionici oscuri, che cioè non emettono una radiazione percettibile ai nostri strumenti, i cosiddetti MACHO (Massive Astrophysical Compact Halo Object) ossia oggetti compatti di alone. Questi MACHO sono composti da resti di stelle ormai morte come nane bianche e stelle di neutroni ormai freddi, buchi neri, stelle mancate e pianeti erranti. Certamente oggetti simili esistono e sono una componente importante della massa di qualsiasi galassia e più queste invecchiano più la componente degenere che contengono aumenta. L’indice di colore delle galassie associato alla loro massa viriale lo dimostra. Ma tutta la componente barionica dell’Universo può essere calcolata anche usando il rapporto tra gli isotopi dell’elio 4He e litio  7Li usciti dalla nucleosintesi cosmica iniziale come descritto dai modelli ΛCDM e questo pone un serio limite alla quantità di materia barionica degenere possibile [cite]http://xxx.lanl.gov/abs/astro-ph/0607207[/cite]. Pertanto risolvere il dilemma della materia oscura ricorrendo ai MACHO è impossibile.
Le uniche altre vie percorribili paiono essere quelle che fanno ricorso a particelle non barioniche (come i neutrini) ma che siano statiche come la materia barionica ordinaria: le cosiddette Cold WIMP, ovvero particelle debolmente interagenti dotate di massa non dotate di moto proprio è appunto una di queste. Particelle simili non sono ancora state osservate direttamente ma la cui esistenza può anch’essa essere dimostrata indirettamente confrontando le abbondanze isotopiche accennate prima [cite]http://arxiv.org/abs/astro-ph/9504082[/cite] con le equazioni di Friedmann.

Il pannello di destra è un'immagine ottenuta dallo Spitzer Space Telescope di stelle e galassie nella costellazione dell'Orsa Maggiore. L'immagine ad infrarossi copre una regione di spazio di 100 milioni di anni luce Il pannello di sinistra è la stessa immagine dopo che le stelle, le galassie e le altre fonti sono state mascherate. La luce di fondo rimasta risale al0 tempo in cui l'universo aveva meno di un miliardo di anni, e molto probabilmente è originata dai primissimi gruppi di oggetti dell'Universo-  grandi stelle o buchi neri attivi. Le tonalità più scure nell'immagine a sinistra corrispondono a parti più vuote dello spazio, mentre il giallo e bianco le zone più attive.

Il pannello di destra è un’immagine ottenuta dallo Spitzer Space Telescope di stelle e galassie nella costellazione dell’Orsa Maggiore. L’immagine ad infrarossi copre una regione di spazio di 100 milioni di anni luce Il pannello di sinistra è la stessa immagine dopo che le stelle, le galassie e le altre fonti sono state mascherate. La luce di fondo rimasta risale al0 tempo in cui l’universo aveva meno di un miliardo di anni, e molto probabilmente è originata dai primissimi gruppi di oggetti dell’Universo-  grandi stelle o buchi neri attivi. Le tonalità più scure nell’immagine a sinistra corrispondono a parti più vuote dello spazio, mentre il giallo e bianco le zone più attive.

Ora appare una ricerca [cite]https://arxiv.org/abs/1605.04023[/cite] che suggerisce che buona parte della parte della massa mancante sia collassata in buchi neri subito dopo il Big Bang. A riprova di questo studio viene portata la scoperta di numerose anisotropie nella radiazione cosmica infrarossa (CIB) rilevate nel corso di una survey del cielo a partire dal 2005 dal telescopio infrarosso Spitzer della NASA .
L’autore di questo studio (Kashlinsky) suggerisce che nei  primissimi istanti di vita dell’Universo (Era QCD da Quantum ChromoDynamics o Era dei Quark, tra i 10-12 secondi e i 10-6 secondi dopo il Big Bang) si siano verificate delle fluttuazioni quantistiche di densità che hanno dato origine ai buchi neri primordiali. Il meccanismo, per la verità non nuovo, è quello descritto anche da Jedamzik [cite]http://arxiv.org/abs/astro-ph/9605152[/cite] nel 1996 sui buchi neri primordiali creatisi nell’Era dei Quark. Nella sua opera Jedamskin prevede anche che a causa dell’espansione iniziale dell’Universo i buchi neri primordiali si possono essere formati solo per un ristretto intervallo di massa. Un aspetto importante che mi sento di sottolineare è che questi buchi neri primordiali non sono il prodotto del collasso gravitazionale di materia barionica come il nucleo di una stella, ma bensì il collasso di una fluttuazione di densità nel brodo di  quark e gluoni che in quell’istante stava emergendo; quindi prima della Leptogenesi e della Nucleosintesi Iniziale dell’Universo. Ma coerentemente con la fisica dei buchi neri la natura della sostanza che li ha creati  non ha alcuna importanza: che fossero orsetti gommosi o  il collasso di un nucleo stellare il risultato è il medesimo.
Finalmente Kashlinsky pare essere riuscito a trovare una prova visiva di quello che in pratica ha da sempre sostenuto, e che cioè almeno una buona parte della materia oscura possa essere spiegata da questi oggetti primordiali. Una conferma interessante a questa tesi potrebbe essere rappresentata dalla scoperta dei segnali dell’evaporazione  dei buchi neri più piccoli (1015 g) che dovrebbero essere stati generati durante l’Era dei Quark come proposto nel 2004 da BJ Carr [cite]http://arxiv.org/abs/astro-ph/0504034[/cite].
L’idea in sé quindi che buona parte della materia oscura possa essere interpretata come buchi neri primordiali non è affatto nuova. Va riconosciuto a Kashlinsky il merito di averci creduto e di aver trovato prove abbastanza convincenti per dimostrarlo. Certo il dilemma della materia oscura rimane a dispetto dei tanti annunci apparsi in questi giorni e ci vorranno ancora anni di indagine per svelarlo. Io penso che sia un ragionevole mix di tutte le idee qui proposte, anche perché l’attuale modello ΛCDM pone – come abbiamo visto – dei limiti piuttosto stringenti per l’attuale densità barionica che di fatto esclude le forme di materia convenzionale (vedi MACHO) oltre quelle già note. Anche il ruolo dei neutrini primordiali nella definizione delle strutture di scala fine dell’Universo merita attenzione, Alla fine forse scopriremo che la materia oscura è esistita fin quando non abbiamo cercato di comprenderne la sua natura.

Segnali di Materia Oscura nei pressi del nucleo galattico

[latexpage]

Una coppia di neutralini si annichila e decade in una pioggia di normali particelle elementari. Credit: Il Poliedrico

Una coppia di neutralini si annichila e decade in una pioggia di normali particelle elementari.
Credit: Il Poliedrico

All’interno del Modello Cosmologico Standard,  la Teoria della Nucleosintesi Primordiale descrive esattamente la composizione [cite]http://www.einstein-online.info/spotlights/BBN[/cite] della materia presente nell’Universo e indica che  l’84,54% di questa è di natura non barionica, cioè non è composta da leptoni e quark ma da una forma di materia totalmente sconosciuta che non possiede alcuna carica elettromagnetica o di colore chiamata WIMP (Weakly  Interacting  Massive  Particle). Questa è una classe di nuove e ipotetiche particelle con una massa compresa tra poche decine e un migliaio di $GeV/c^2$ (un $GeV/c^2$ è circa la massa di un atomo di idrogeno). L’esistenza di queste particelle è stata proposta per risolvere il problema della materia oscura teorizzata dal Modello Cosmologico Standard. L’esistenza delle WIMP non è stata ancora provata con certezza, però alcune delle caratteristiche fondamentali che queste particelle dovrebbero possedere indicano in quale direzione cercare.
L’esistenza stessa delle strutture a piccola scala come le galassie e gli ammassi di galassie esclude che da una fase inizialmente isotropa come quella descritta dalla radiazione cosmica di fondo queste si siano potute evolvere; la presenza di massicce quantità di materia oscura calda ($v >95\%  c$) avrebbe finito invece per dissolverle. Per questo, non escludendone a priori l’esistenza 1, l’esistenza di una sola forma di materia oscura calda è dubbia. A questo punto non resta che ipotizzare una forma di materia oscura che si muove a velocità non relativistiche, fino all’1 per cento di quella della luce.
Il problema nasce con il Modello Standard che non prevede altre forme di materia se non quelle finora conosciute. Per ovviare a questo inconveniente e ad altri problemi irrisolti dal Modello Standard 2 sono state elaborate dozzine di teorie alternative dette Beyond the Standard Model (BSM, ovvero oltre il Modello Standard) che propongono soluzioni – almeno in parte – i problemi menzionati nella nota e a quello oggetto di questo articolo.

[table id=49 /]

Un po’ tutte le BSM introducono nuove particelle, una di queste è la Supersimmetria. La Supersimmetria introduce una nuova classe di particelle chiamate superpartner all’interno del classico Modello Standard. Nonostante che il tentativo di identificare questi nuovi partner supersimmetrici – sparticelle – sia per ora fallito, le BSM riescono agevolmente a risolvere i problemi che il Modello Standard non è mai riuscito a superare.
Secondo queste teorie, i fermioni, che costituiscono la materia, hanno come superpartner altrettanti bosoni che trasmettono le forze, mentre i bosoni conosciuti hanno i loro fermioni superpartner. Poiché le particelle e le loro superpartner sono di tipo opposto, il loro contributo energetico al campo di Higgs si annulla.

Dalla tabella qui accanto si nota come per ogni bosone di gauge si ha un superpartner detto gaugino, mentre per il gravitone esiste il gravitino. Il problema essenziale è nella massa di questi superpartner che, almeno in teoria, dovrebbe essere la stessa delle altre particelle normali corrispondenti. In realtà non pare così. Finora nessuno di questi partner supersimmmetrici è stato ancora mai rilevato, tant’è che è stato supposto che anche per le superparticelle sia accaduto un fenomeno di rottura di simmetria, portando di fatto ad avere dei partner supersimmetrici molto più massicci dei loro corrispondenti di quanto ci si aspettasse, oltre il migliaio di $GeV$.
I più promettenti candidati della materia oscura fredda  sono quindi i più leggeri superpartners indicati dalle BSM. Escludendo i superpartners degli elettroni e dei quark che anch’essi dispongono di carica elettrica e di colore, rimangono disponibili lo zino (il superpartner fermionico del bosone Z), il fotino e l’higgsino, tutti altrettanti fermioni 3. Queste sparticelle in sé non sono rilevabili, interagiscono solo con l’interazione debole e la gravità ma possono legarsi tra loro formando una particella esotica molto particolare: il neutralino. In quanto miscela quantistica di diverse altre sparticelle, ne possono esistere fino a 4 tipi diversi di neutralini, tutti fermioni di Majorana e senza alcun tipo di carica, il più leggero dei quali è in genere ritenuto stabile. Il fatto che i neutralini  siano fermioni di Majorana è molto importante, perché dà in qualche modo la chiave per rilevarli, se esistono. Essendo sia particelle che antiparticelle di loro stessi, esiste la possibilità che due diversi neutralini dello stesso tipo si scontrino e si annichilino di conseguenza. Il risultato è una pioggia di radiazione gamma e di altre particelle elementari come sottoprodotti, esattamente come avviene per le particelle conosciute quando si scontrano  con le loro rispettive antiparticelle [cite]http://arxiv.org/abs/0806.2214[/cite].

 Le mappe a raggi gamma prima (a sinistra) e le mappe a cui è stato sottratto il piano galattico (a destra), in unità di photons/cm2 / s / sr.I telai destra contengono chiaramente significativo eccesso centrale e spazialmente esteso, con un picco a ~ 1-3 GeV. I risultati sono mostrati in coordinate galattiche, e tutte le mappe sono state levigate da una gaussiana 0,25

Le mappe a raggi gamma prima (a sinistra) e le mappe a cui è stato sottratto il piano galattico (a destra), in unità di fotoni/cm2/s/sr.
Le immagini sulla destra mostrano un significativo eccesso centrale e spazialmente esteso, con un picco a ~ 1-3 GeV. I risultati sono mostrati in coordinate galattiche, e tutte le mappe sono state levigate da una gaussiana di 0,25°.

E dove cercare la materia oscura, questi neutralini che ne sono soltanto un aspetto di un panorama ben più ampio? Se la materia oscura è davvero sensibile alla gravità, perché non cercarla dove la gravità è più accentuata, ovvero nei pressi dei nuclei galattici e nelle stelle? Nei pressi dei buchi neri centrali i neutralini sarebbero costretti a muoversi piuttosto rapidamente sotto l’influenza gravitazionale, e quindi anche a collidere e annichilirsi con una certa facilità. Il risultato delle annichilazioni e del loro decadimento successivo dovrebbe essere così rilevabile.
Appunto questo è stato fatto, studiando i dati che in  5 anni di attività il Fermi Gamma-ray Space Telescope   ha prodotto. Un gruppo di scienziati coordinato da Dan Hooper ed altri, ha esaminando i dati forniti dal satellite riguardanti il centro della nostra galassia e creato una mappa ad alta risoluzione che si estende per 5000 anni luce dal centro della galassia nel regno dei raggi gamma [cite]http://arxiv.org/abs/1402.6703[/cite]  [cite]http://arxiv.org/abs/0910.2998[/cite].
Una volta eliminato il segnale spurio prodotto da altri fenomeni naturali conosciuti, come ad esempio le pulsar millisecondo nei pressi del centro galattico, il risultato (visibile nei riquadri di destra dell’immagine qui accanto) è interessante. Qui risalta un segnale attorno ai  31-40 $GeV$ che gli autori dello studio attribuiscono all’annichilazione di materia oscura e dei suoi sottoprocessi di decadimento per una densità di materia oscura nei pressi del centro galattico stimata attorno ai 0,3 $GeV/cm^3$.
Le dimensioni di questa bolla di materia oscura non sono note, i dati di questo studio dimostrano che fino a 5000 anni luce la distribuzione angolare della materia oscura è sferica e centrata sul centro dinamico della Via Lattea (entro ~ 0,05° da Sgr A*), senza mostrare alcun andamento preferenziale rispetto al piano galattico o la sua perpendicolare.
Questo dato non è poi lontano da quello estrapolato da Lisa Randall e Matthew Reece dell’Università di Harvard, che sostengono di aver calcolato le dimensioni e la densità di un disco di materia oscura che permea la Via Lattea [cite]http://arxiv.org/abs/1403.0576[/cite] attraverso lo studio delle periodiche estinzioni di massa avvenute sulla Terra e le tracce di impatto di meteoriti di grandi dimensioni sul nostro pianeta 4. Questo disco avrebbe un raggio di circa 10000 anni luce e una densità di una massa solare per anno luce cubico.
A questo punto potrà essere il satellite Gaia, che mappando il campo gravitazionale della Galassia, potrà accertare o meno l’esistenza di questo o di un altro disco che permea la Via Lattea.

Il lavoro del gruppo di Hooper, che per ora è solo un pre-print, è piuttosto incoraggiante nella sua tesi. Se venisse confermato, o nei dati o da altre osservazioni su altre galassie, potrebbe essere la conferma dell’esistenza della materia oscura non barionica fredda che da anni è stata ipotizzata e finora mai confermata. Intanto, altri lavori [cite]http://arxiv.org/abs/1402.2301[/cite] indicano una debole emissione nei raggi X in altre galassie proprio dove ci si aspetta di trovare le traccie dovute al decadimento del neutrino sterile, un’altra ipotetica particella non prevista dal Modello Standard.
La fine di questo modello? Non credo, semmai sarebbe più corretto parlare di un suo superamento da parte delle BSM. Così come la Meccanica Newtoniana si dimostra comunque valida fino a velocità non relativistiche, e nessuno penserebbe di sostituirla con la Relatività Generale per calcolare ad esempio l’orbita di una cometa, Il Modello Standard rimarrà valido fino a quando non sarà stata scritta una Teoria del Tutto elegante e altrettanto funzionante.


Note:

L’oscura origine della Luna (II parte)

Dee pianeti che condividevano la stessa orbita finirono per scontrarsi 50 milioni di anni dopo la loro formazione, Dando origine così al sistema Terra-Luna.

Due pianeti che condividevano la stessa orbita finirono per scontrarsi 50 milioni di anni dopo la loro formazione, Dando origine così al sistema Terra-Luna.

È chiaro a chiunque che la Terra e la Luna siano diverse, non solo nelle dimensioni.
Il nucleo della Terra è composto soprattutto di ferro e occupa circa il 30% della sua massa, mentre quello della Luna è proporzionalmente molto più piccolo: appena un decimo della massa del satellite è costituito dal ferro e il suo nucleo rappresenta solo il 20% circa delle sue dimensioni. Inoltre la scarsità di elementi piuttosto volatili come il potassio nella composizione chimica indicano che probabilmente la Luna si è formata in un ambiente piuttosto caldo dove questi siano evaporati.
Eppure i campioni di suolo riportati dalle missioni Apollo mostrano che i silicati terrestri e lunari sono virtualmente identici: i rapporti isotopici di elementi come l’ossigeno [cite]http://www.ncbi.nlm.nih.gov/pubmed/11598294[/cite], il cromo e il silicio sono gli stessi, indicando pertanto una origine comune per la crosta e il mantello superiore della Terra con la Luna [cite]http://www.ncbi.nlm.nih.gov/pubmed/18097403[/cite] [cite]http://dx.doi.org/10.1038/ngeo1429[/cite].
Di pari passo, lo studio del campo gravitazionale della Luna per merito della misssione Gravity Recovery and Interior Laboratory (GRAIL) della NASA, combinato con i dati topografici prodotti dal Lunar Reconnaissance Orbiter sempre della NASA, hanno ridimensionato lo spessore della crosta della Luna e la sua percentuale relativa di alluminio. Anche questi dati suggeriscono che la percentuale di metalli con alte temperature di condensazione  sia la stessa su entrambi i corpi celesti.
Tutti questi dati fisici mostrano che la Luna e il mantello superiore terrestre si siano originati insieme, quindi o la Luna si è staccata dal mantello terrestre ancora fluido oppure l’opposto, il mantello e la Luna si sono generati con lo stesso materiale in un ambiente estremamente caldo che, nel caso della Luna,  ha conservato solo i materiali più refrattari e fatto evaporare gli altri.

Una giornata memorabile

Ormai si vedeva a occhio nudo quando si apriva uno squarcio nella giusta direzione tra le perenni nubi di vapore e metano che uscivano copiose dalla roccia. Dapprima era come una macchiolina nel cielo, tanti giorni fa, e adesso, dopo essere stata grande come una moneta occupava minacciosa più di metà del cielo a occidente. Toglieva  il respiro, sembrava quasi che cascasse dal cielo. E così fu. Nel giro di appena un’ora almeno metà del globo fuse e venne scagliato a 25000 chilometri di quota mentre il nucleo di ferro rovente del piccolo mondo era rimbalzato nell’urto e stava per crollare di nuovo. Dopo cinque ore tutta la crosta e il mantello del mondo era fuso, mentre tutta l’atmosfera venne spazzata via. Un quarto del piccolo mondo si vaporizzò nell’impatto mentre questo pianeta iniziò a ruotare su sé stesso all’impazzata: un giro in appena 5 ore! Dopo poche altre ore il materiale  che non era ancora ricaduto sulla nuova Terra formò un anello instabile di detriti  in orbita  che nell’arco di un centinaio d’anni avrebbe poi generato la Luna.

Nel 1975 William K. Hartmann e Donald R. Davis proposero la teoria dell’Impatto Gigante riprendendo l’idea originale del geologo canadese Reginald Aldworth Daly proposta nel 1946.
Questa teoria riesce abbastanza bene a tener conto di molte delle similitudini che ho elencato qui sopra, del momento angolare totale del sistema Terra – Luna, e anche delle divergenze più importanti, come l’estrema scarsità degli elementi chimici più volatili della Luna rispetto alla Terra.
Ma solo recentemente è stato potuto studiarla in dettaglio grazie alle simulazioni computerizzate [cite]http://www.nature.com/nature/journal/v412/n6848/abs/412708a0.html[/cite].
Gli scenari che portano alla formazione della Luna richiedono la presenza di due pianeti formatisi sui punti lagrangiani di  una stessa orbita, uno con una massa simile a quella attuale del nostro pianeta, la proto-Terra, e un altro più piccolo, grande più o meno come Marte come dimensioni e massa, che gli scienziati hanno battezzato Theia.
Il gigante Giove destabilizza l’orbita dei due pianeti che nell’arco di 50 milioni di anni finiscono per scontrarsi con un angolo di 45 gradi rispetto alla proto-Terra a una velocità relativa piuttosto bassa, inferiore a 4 km/s. 1. Il risultato dello scontro è che fino a un quarto di Theia si vaporizza nell’impatto e la primordiale atmosfera della proto-Terra viene dispersa, mentre almeno il 20% della massa dei due pianeti si disperde in un anello incandescente attorno ai 4 raggi terrestri, poco fuori al limite di Roche.
La maggior parte del materiale eiettato e il nucleo ferroso di Theia ricade sulla proto-Terra nelle ore successive all’impatto, invece una minuscola frazione della massa del disco originale, il 6%, rimane in orbita, e nel giro di un secolo dà origine a più corpi distinti che poi si uniranno per creare la Luna 2.

I meriti di questa teoria sono molti. In primis riesce a spiegare tutte le similitudini isotopiche riscontrate tra le rocce terrestri e lunari:  l’anello successivo all’impatto ha mescolato il materiale di Theia e della proto-Terra rendendo di fatto indistinguibile ogni differenza. Il calore sprigionato nell’impatto e trasferito all’anello ha alterato di poco la composizione chimica di questo nelle poche ore prima che ricadesse sulla Terra, mentre quello rimasto in orbita ha avuto più tempo per perdere gli elementi più volatili, forse anche grazie all’azione del vento solare e al bombardamento dei raggi cosmici che ne hanno in parte modificato la composizione chimica [cite]http://www.ncbi.nlm.nih.gov/pubmed/18097403 [/cite].
Infine, riesce a spiegare il notevole momento angolare complessivo del sistema Terra-Luna, parametro che ogni modello deve riuscire a spiegare.

Una delle obiezioni principali a questo modello è che la composizione di Theia porta con sé percentuali isotopiche diverse da quelle della Terra 3, e tracce di questa differenza dovrebbero essere ancora visibili.
Secondo me no, sia la proto-Terra che Theia si formarono alla stessa distanza dal Sole, quindi la differenza isotopica dei vari elementi deve essere stata nulla o quasi, tanto da non essere oggi significativamente rilevabile.
In seguito, il degassamento tardivo del mantello e della crosta ha ricreato una primitiva atmosfera, forse un po’ più sottile rispetto alla prima, mentre il bombardamento cometario proveniente dalla fascia di Kuiper [cite]http://ilpoliedrico.com/2011/10/oceani-di-comete.html[/cite] avrebbe portato acqua e sostanze organiche che poi si sarebbero evolute in esseri viventi [cite]http://tuttidentro.wordpress.com/2013/12/17/come-gli-impatti-meteoritici-e-cometari-hanno-portato-la-vita-sulla-terra[/cite] sulla nuova Terra..
L’azione mareale del nuovo satellite combinata a quella del Sole avrebbe poi rallentato la Terra fino alle attuali 24 ore, mentre l’orbita della Luna sarebbe passata da 30000 chilometri a 384000 nei successivi 4,5 miliardi di anni.,

 

L’oscura origine della Luna

Se visto dallo spazio il sistema Terra-Luna pare decisamente un pianeta doppio. Credit: Illustration by AOES Medialab, ESA 2002

Se visto dallo spazio il sistema Terra-Luna pare decisamente un pianeta doppio.
Credit: Illustration by AOES Medialab, ESA 2002

Vedere la Luna nel cielo fa tornare alla mente immagini legate alle nostre emozioni; tantissima letteratura e musica è stata dedicata alla sorella più piccola della Terra. Alcuni di noi magari rivivranno per un attimo le eroiche gesta dei primi passi umani su un altro mondo frutto delle missioni Apollo, mentre i più pratici penseranno alle maree o ai tempi improcrastinabili dell’orto.

Ben pochi pensano però che alla Luna dobbiamo molto di più, forse l’esistenza della vita stessa, o almeno quella come noi la conosciamo. Questa infatti governa le condizioni ambientali del nostro pianeta.

Al contrario di Phobos e Deimos, i due satelliti naturali di Marte, l’unico altro pianeta roccioso del Sistema Solare ad avere compagni, la Luna è molto più grande e massiccia 1, abbastanza da stabilizzare il moto di rotazione della Terra attorno al suo asse in modo che esso sia quasi 2 perpendicolare all’eclittica. Senza la Luna l’asse terrestre varierebbe caoticamente di diverse decine di gradi, con conseguenze davvero estreme in fatto di abitabilità del pianeta .
Escursioni stagionali terribili, importanti porzioni di un emisfero sarebbero in ombra per metà anno mentre l’altra metà arrostisce letteralmente in estati senza notti. Sicuramente la vita come oggi conosciamo sul nostro pianeta sarebbe ben diversa nel Mondo senza la Luna.

Per questo oggi chiedersi come si sia formata la Luna e come mai l’unico posto del Sistema Solare abitato da una specie senziente sia anche quello con il satellite così grande rispetto al pianeta, sono due delle domande più urgenti a cui la scienza deve dare risposta.
La più grande sfida che un modello sulle origini del sistema Terra-Luna deve superare è  paradossalmente l’enorme mole di dati che si hanno su di questo.
Le analisi chimiche e isotopiche sui campioni che le missioni Apollo hanno restituito, le ricognizioni dallo spazio delle altre missioni che ci hanno mostrato la forte disomogeneità tra l’emisfero visibile e quello opposto, e così via, ma occorre tener sempre tenere conto del dato più importante di tutti: il momento angolare totale del sistema 3.
La composizione chimica della Luna è molto simile a quella del mantello terrestre, tanto da far pensare un’origine comune per entrambi, e spiegare questa similitudine non è affatto facile.
Ma ci sono anche alcune differenze che devono essere prese in considerazione. Non importa quanto queste possano sembrare insignificanti, ognuna di loro può essere la chiave per comprendere ciò che veramente accadde 4,5 miliardi di anni fa.

(continua …)


Note:

La materia oscura? Forse solo una bolla?

 Nota: il titolo non è corretto ma per ovvi motivi di indicizzazione ormai non può più essere cambiato. In verità non mi è mai neanche piaciuto anche se ormai è così e basta. Il titolo più corretto sarebbe 

La massa mancante? E se fosse in una bolla?

ringrazio chi mi ha fatto notare l’incongruenza del titolo rispetto al breve articolo. non me ne vogliate per questo. Errare humanum est …

La bolla che avvolge la Via Lattea. Bolle simili avvolgono anche le altre galassie.
Credit: NASA / CXC / M.Weiss; NASA / CXC / Ohio State / A Gupta et al

Una enorme  bolla caldissima, tra 1 e 2,5 milioni di kelvin, con un raggio di almeno 300.000 anni luce avvolge la Via Lattea. La massa di questa bolla è paragonabile da sola a tutta la massa della Galassia.
Questo è il risultato di un recente studio sui dati ripresi dal Chandra X-Ray Observatory della NASA, dell’XMM-Newton dell’ESA e il giapponese Suzaku.

Chandra ha osservato otto sorgenti extragalattiche di raggi X distanti centinaia di anni luce misurando l’assorbimento dell’ossigeno in prossimità del disco galattico, consentendo così di stimarne anche la temperatura di questa bolla.

Studi simili hanno dimostrato che bolle simili circondano anche le altre galassie con temperature che vanno tra i 100.000 e 1 milione di kelvin.
Se questi studi verranno confermarti anche da altre ricerche, l’annoso problema della massa mancante potrebbe avviarsi verso una soluzione, ma ancora ancora non basta.


Riferimenti:
http://chandra.harvard.edu/photo/2012/halo/
A huge reservoir of ionized gas around the Milky Way: Accounting for the Missing Mass? ArXiv 16 agosto 2012

Energia oscura e anisotropia nella radiazione cosmica di fondo

Sono passati almeno 15 anni da  quando è stato scoperto che il nostro Universo subisce una spinta repulsiva che lo sta accelerando, ossia che le sue dimensioni, contrariamente a quanto si era finora supposto, crescono più di quanto la spinta iniziale del Big Bang e al contrario la reciproca attrazione della materia che lo frena possano spiegare.

le varie ipotesi evolutive dell’Universo.
Credit: Il Poliedrico

Nel giugno scorso parlai di un tema particolarmente scottante in cosmologia 1: l’accelerazione dell’espansione dell’universo.
Questo è un fenomeno inflattivo che fu scoperto alla fine del XX secolo e che finora è stato spiegato soprattutto facendo ricorso a una misteriosa energia oscura spiegata prevalentemente in vari modi:
come costante cosmologica, quindi integrata nella natura stessa del tessuto dell’Universo e indicata con la lettera lambda Λ e valore repulsivo fisso wq = −1, o come quintessenza, ovvero una quinta forza fondamentale della natura 2 che può assumere una natura attrattiva o repulsiva a seconda del rapporto tra energia cinetica ed energia potenziale nell’universo.

[table id=14 /]
Tabella 1

Stando alle teorie della quintessenza, questa divenne repulsiva – ossia cambiò stato come l’acqua diviene ghiaccio a 0° C. – circa 10 miliardi di anni fa a seguito dell’espansione iniziale dell’Universo.
Qui i valore repulsivo della quintessenza varia col variare delle condizioni locali nell’universo, ovvero questa avrà valori diversi tra i super ammassi di galassie dove la materia è concentrata e gli spazi di vuoto che li separano, come una ragnatela e soprattutto, come è ovvio, il suo valore cambia nel tempo.

Un team di astronomi dell’università di Portsmouth – R. CrittendenR. NicholA. J. Ross  –  e dell’università Ludwig Maximilians di Monaco di Baviera – T. Giannantonio – ha riproposto uno studio del 2008 3 4 sui dati del satellite Wilkinson Microwave Anisotropy Probe (WMAP) riguardante l’effetto Sachs-Wolfe integrato 5.
Questo nuovo studio 6 tiene conto di nuovi dati e nuovi metodi di indagine per venire incontro alle obiezioni sollevate dagli altri cosmologi 7 che sostanzialmente però non mutano il quadro emerso dalla precedente ricerca che conferma un valore specifico per il modello Lambda-CDM pari a w = −1 per redshift superiori  a 1.

L’effettto Sachs-Wolfe integrato.
Credit: Istituto di astronomia dell’Università delle Hawaii

Fu proprio R. Crittenden insieme a  Neil Turok nel 1996 a proporre di cercare nell’anisotropia secondaria della radiazione cosmica di fondo le prove della presenza di energia oscura nell’Universo 8 9.
I fotoni della CMB inizialmente isotropi avrebbre risentito dell’influenza gravitazionale delle grandi concentrazioni di materia diventando ovviamente leggermente più freddi per effetto della curvatura dello spazio locale ma avrebbero acquistato più energia (effetto blueshift) riscaldati dalla stessa materia autrice della curvatura. Questi due effetti in assenza di energia oscura si controbilancerebbero quasi esattamente – si devono comunque  tener conto anche di altri effetti come la focalizzazione gravitazionale, l’effetto Sunyaev-Zel’dovich etc. – ma l’energia oscura che dilata lo spazio consentirebbe alla CMB rilevata di avere un’impronta energetica leggermente più alta là dove le concentrazioni di massa l’hanno riscaldata.
Quindi la presenza di energia oscura si potrebbe rilevare confrontando le concentrazioni di materia conosciute nell’universo locale con le impronte delle fluttuazioni della CMB.
E in effetti importanti correlazioni pare che ci siano, tanto che il team di Portsmouth e Monaco parla che il  99,996% di queste sia da imputarsi all’energia oscura.

Comunque sia, il capitolo Energia Oscura non è affatto finito.  Il team di Crittenden si dice sicuro dei risultati ma manca la verifica di altri gruppi di ricerca e l’immancabile controrisposta dei cosmologi scettici. Ma soprattutto com’è fatta questa Energia Oscura?


Altri riferimenti:
http://www.ras.org.uk/news-and-press/219-news-2012/2167-dark-energy-is-real-say-portsmouth-astronomers

http://www.ifa.hawaii.edu/cosmowave/supervoids/