L’ampiezza di una zona Goldilocks

Questo articolo nasce in seno alla preparazione del materiale di studio per lo stage per i finalisti delle Olimpiadi di Astronomia 2016 presso l’INAF-Osservatorio Astrofisico di Asiago due lezioni, tra le tante, dedicate interamente ai pianeti extrasolari. Sabrina Masiero e il sottoscritto hanno studiato e rivisto i calcoli, più volte, perciò fidatevi!

goldilocksOgni volta che sentiamo parlare della scoperta di qualche nuovo pianeta in orbita attorno a qualche stella, viene spontaneo chiederci se esso può ospitare una qualche forma di vita. La vita come la conosciamo ha bisogno di acqua allo stato liquido per poter esistere, e poter stabilire i limiti dove questo è possibile è di notevole importanza. Questa zona è chiamata Goldilocks o Riccioli d’Oro 1 perché ricorda la bambina della favola, Goldilocks appunto, quando deve scegliere tra le tre ciotole di zuppa, quella che non sia né troppo calda né troppo fredda, giusta.
Calcolare le dimensioni e ‘estensione della fascia di abitabilità di una stella ci permette di capire quanto debba essere grande l’orbita di un pianeta per essere potenzialmente in grado di sostenere la vita.
Per comodità di calcolo verranno qui usati i parametri del nostro Sistema Solare ma conoscendo il flusso energetico (ossia la temperatura superficiale) di una qualsiasi stella e il suo raggio, allora sarà possibile usare questi nei calcoli che qui presentiamo purché si usino le stesse unità di misura.

  • Temperatura superficiale del Sole T 5778 Kelvin
  • Raggio del Sole in unità astronomiche R 6,96×1005km1,496×1008km=4,652×1003AU
  • Distanza dal Sole in unità astronomiche a
  • Albedo del pianeta A (nel caso della Terra è 0,36)
Credit: Il Poliedrico

Credit: Il Poliedrico

Come spiegato anche nell’illustrazione qui accanto il flusso luminoso, e quindi ovviamente anche la temperatura, obbedisce alla semplice legge geometrica dell’inverso del quadrato della distanza.
La luminosità di una stella non è altro che la quantità di energia emessa per unità di tempo e considerando una stella come un corpo nero perfetto, si trova che L=4πR2σT4, dove σ è la costante di Stefan-Boltzmann.
Pertanto un pianeta di raggio Rp in orbita alla distanza a dalla sua stella di raggio R riceve una certa quantità di energia che riemette nello spazio come un corpo nero e raggiungendo perciò un equilibrio termico con il flusso di energia ricevuto. πRp24πa2=(Rp2a)2
Il pianeta offre solo metà di tutta la sua superficie alla stella (2πRp2), per questo si è usato questa forma, perché il flusso intercettato è pari alla sezione trasversale del pianeta (πRp2), non tutta la sua superficie, mentre invece tutta la superficie del pianeta, quindi anche la parte in ombra, è coinvolta nella riemissione di energia (4πRp2).
Una parte del’energia ricevuta dal pianeta viene riflessa comunque nello spazio in base al suo indice di riflessione (fosse idealmente bianco la rifletterebbe tutta così come se fosse idealmente nero l’assorbirebbe tutta); questo indice si chiama albedo A e varia di conseguenza tra 1 e 0. La forma “1A” consente di stabilire quanta energia è quindi assorbita da un pianeta: (1A)×4πR2σT2×(Rp2a)2

Semplificando il tutto e eliminando per un attimo anche la superficie della sezione trasversale del pianeta, quasi insignificante come contributo al calcolo, si raggiunge questo risultato: Teq4=(1A)T4(R2a)2 Teq=(1A)1/4T(R2a)
Se usassimo questi valori per la Terra usando come è stato detto le lunghezze espresse in unità astronomiche otterremo: Teq=(10,36)1/45778(4,625×100321)=249K

Purtroppo non è dato sapere a priori l’albedo di un qualsiasi pianeta, esso varia infatti col tipo e composizione chimica dell’atmosfera e del suolo di un pianeta, per questo può risultare conveniente omettere il computo dell’albedo nel caso di un calcolo generale senza per questo inficiarne nella bontà, un po’ come è stato fatto anche per la superficie del pianeta prima. Così la formula può essere riscritta più semplicemente come Teq=T(R2a)
Se ora volessimo calcolare entro quale intervallo di distanza dalla stella vogliamo trovare un certo intervallo di temperatura potremmo semplicemente fare l’inverso per aver il risultato espresso in unità astronomiche:a=12(TTeq)2R

Diagramma di fase dell'acqua. La possibilità dell'acqua di rimanere allo stato liquido a pressioni molto elevate le consente di svolgere il ruolo di lubrificante delle placche continentali. Fonte dell'immagine: Wikipedia.

Diagramma di fase dell’acqua in ordine alla temperatura e pressione.
Fonte dell’immagine: Wikipedia.

Per trovare un intervallo di temperature compreso tra 240 K e 340 K nel Sistema Solare dovremmo andare tra i 1,35 e 0,67 AU.
Perché ho usato questo strano intervallo di temperature pur sapendo che alla pressione canonica di 1 atmosfera l’acqua esiste allo stato liquido tra i 273 e i 373 K?
Semplice 2! Ogni pianeta possiede una sua atmosfera (ce l’ha anche la Luna anche se questa è del tutto insignificante) che è in grado di assorbire e trattenere calore, è quello che viene chiamato effetto serra. L’atmosfera della Terra ad esempio garantisce a seconda dei modelli presi come riferimento da 15 a 30 e più gradi centigradi di temperatura in più rispetto alla temperatura di equilibrio planetario, consentendo così all’acqua di essere liquida pur restando ai margini superiori della zona Goldilocks del Sole.

Aggiornamento

Non riporterò questo aggiornamento di stato nel sito Tutti Dentro dove questo articolo è uscito in contemporanea a qui. Questa aggiunta è mia e me ne assumo ogni responsabilità verso i lettori per quello che sto per scrivere.

[table id=70 /]

Forse non è stato compreso bene che nonostante il ruolo dell’albedo sia importantissimo nel calcolo esatto per stabilire se una precisa orbita cade all’interno di una zona Goldilocks, esso purtroppo è un dato che non è possibile stabilire per adesso nel caso dei pianeti extrasolari. Si possono considerare un ampio spettro di possibilità, diciamo tra un albedo di 0,99 e 0,01, indicare un valore medio tra questi due oppure scegliere tra uno de valori che sono suggeriti in questa tabella o oppure ancora si può scegliere di non usare affatto l’indice albedo in questa fase di calcolo, come ho fatto deliberatamente io in questa fase. Dopotutto si deve stabilire un discreto intervallo di possibili orbite di un pianeta di massa non bene definita su un ampio intervallo di possibili temperature di equilibrio attorno ad una stella lontana.
Prendiamo ad esempio il Sistema Solare visto da una manciata di parsec e si supponga fosse stato possibile identificare sia Venere che la Terra, di conoscere la loro distanza e il loro  albedo.
Applicando l’equazione sprovvista del computo dell’albedo qui sopra (12(TTeq)2R) , essa restituisce una temperatura di equilibrio, che per Venere sappiamo essere di  253 kelvin, di 327  K, ma che corretta per l’albedo, ossia: a=12(TTeq)2R1A dà esattamente il valore corretto. Un errore del 29% in più ma che per albedo inferiori tende quasi ad annullarsi.
Un altro metodo che era stato proposto e fatto passare come l’unico valido a=1A2R(TTeq)2 sembra esattamente equivalente allo stesso metodo corretto per l’albedo qui suggerito (12(TTeq)2R1A), ma si dimostra essere del tutto fallace se usato senza tenere conto dell’albedo; con lo stesso esempio precedente si arriva a definire la temperatura di equilibrio di Venere a 462 K, l’83% in più.

Sono piccolezze, è vero, e di solito non amo polemizzare – anche se qualcuno potrebbe pensare il contrario – e ammetto che non sono un gran genio nella matematica, di solito faccio dei casini enormi nelle semplificazioni (ma non in questo caso). Ma amo sperimentare, rifare i calcoli decine di volte prima di scriverli e pubblicarli, per cui quando lo faccio so che sono corretti e testati decine di volte come in questo caso.
Ho scelto di offrire il mio modesto aiuto a una cara amica per questo appuntamento e scoprire che presuntuosamente veniva affermato che questo lavoro era sostanzialmente errato non l’ho proprio digerito. Con questo  stupido esempio ho voluto mostrare la bontà di questo lavoro  che consente a scapito di un lieve margine di errore di poter essere usato anche senza tener conto dell’albedo di un pianeta; ho scelto Venere perché avendo l’albedo più elevata era quello che più avrebbe messo in difficoltà il procedimento descritto in questo articolo (se avessi usato la Terra avrei avuto un 12% a fronte di 58%).
Quindi il mio invito è quello di non raccattare formule a caso qua e là sulle pubblicazioni più disparate e spacciarle per buone senza averle prima provate, smembrate e ricomposte; qui l’errore è evidente, non serve molto per vederlo. Potreste dire poi delle castronerie che prima o poi si rivelano per quel che sono: ciarpame.

Zenone, Olbers e l’energia oscura (seconda parte)

Nella prima parte di quest’articolo credo di aver dimostrato come nella risposta al paradosso di Olbers si nasconda la prova principe dell’Universo in espansione. Tale affermazione ci svela l’Universo per quello che veramente è. L’Energia Oscura per ora lasciamola per un attimo in disparte e diamo uno sguardo all’aspetto reale dell’Universo prima di approfondire questa voce.

La geometria locale dell'universo è determinato dal fatto che l'Ω densità relativa è inferiore, uguale o maggiore di 1. Dall'alto in basso: un sferica universo con maggiore densità critica (Ω> 1, k> 0); un iperbolica , universo underdense (Ω <1, k <0); e un universo piatto con esattamente la densità critica (Ω = 1, k = 0). L'universo, a differenza dei diagrammi, è tridimensionale.

La geometria locale dell’universo è determinata dalla sua densità. media come indicato nell’articolo.  Dall’alto in basso: un universo è sferico se il rapporto di densità media supera il valore critico 1 (Ω> 1, k> 0) e in questo caso si ha il suo successivo collasso (Big Crunch); un universo iperbolico nel caso di un rapporto di densità media inferiore a 1 (Ω <1, k <0) e quindi destinato all’espansione perpetua (Big Rip); e un universo piatto possiede esattamente il rapporto di densità critico (Ω = 1, k = 0). L’universo, a differenza dei diagrammi, è tridimensionale.

È nella natura dell’uomo tentare di decifrare l’Universo.  Le tante cosmogonie concepite nel passato lo dimostrano.  Un Uovo  Cosmico,  il Caos, la guerra tra forze divine contrapposte, sono stati tutti tentativi di comprendere qualcosa che è immensamente più grande. Ma solo per merito degli strumenti matematici e tecnologici che sono stati sviluppati negli ultimi 400 anni possiamo affermare oggi che si è appena scalfito l’enorme complessità del  Creato.
Fino a neanche cento anni fa l’idea che il cosmo fosse così enormemente vasto non era neppure contemplata: si pensava che le altre galassie lontane fossero soltanto delle nebulose indistinte appartenenti alla Via Lattea [cite]https://it.wikipedia.org/wiki/Grande_Dibattito[/cite].
Il dilemma nel descrivere matematicamente l’Universo apparve ancora più evidente con l’applicazione delle equazioni di campo della Relatività Generale [cite]https://it.wikipedia.org/wiki/Equazione_di_campo_di_Einstein[/cite] in questo contesto. Emergeva così però un quadro ben diverso rispetto a quanto supposto. Fino ad allora era sembrato ragionevole descrivere l’universo ipotizzando che le diverse relazioni tra le diverse quantità fisiche fossero invarianti col variare dell’unità di misura e del sistema di riferimento. In pratica si ipotizzava un universo statico, isotropo sia nello spazio che nel tempo. Un universo così semplificato senza tener conto del suo contenuto di materia ed energia potremmo descriverlo geometricamente piatto (Ω=1 che indica il rapporto tra la densità rilevata e la densità critica ρ/ρc), dove la somma degli angoli di un triangolo arbitrariamente grande e idealmente infinito restituisce sempre i 180° come abbiamo imparato a scuola [cite]https://it.wikipedia.org/wiki/Universo_di_de_Sitter[/cite]. Il problema è che l’Universo non è vuoto; contiene materia, quindi massa, e energia. In questo caso le equazioni di campo usate nei modelli di Friedmann propongono due soluzioni molto diverse tra loro. Infatti se il rapporto di densità media della materia, indicata dalla lettera greca Ω, dell’universo fosse minore o uguale rispetto a un certo valore critico (Ω1), allora l’universo risulterebbe destinato a essere spazialmente infinito. Oppure, se il rapporto di densità media dell’universo fosse più alto (Ω>1) allora il campo gravitazionale prodotto da tutta la materia (non importa quanto distante) finirebbe per far collassare di nuovo l’universo su se stesso in un Big Crunch. Comunque, in entrambi i casi queste soluzioni implicano che ci fosse stato nel passato un inizio di tutto: spazio, tempo, materia ed energia, da un punto geometricamente ideale, il Big Bang [1. Chiedersi cosa ci fosse spazialmente al di fuori dell’Universo o prima della sua nascita a questo punto diventa solo speculazione metafisica, il tempo e lo spazio come li intendiamo noi sono una peculiarità intrinseca a questo Universo.].

Were the succession of stars endless, then the background of the sky would present us an uniform luminosity, like that displayed by the Galaxy – since there could be absolutely no point, in all that background, at which would not exist a star. The only mode, therefore, in which, under such a state of affairs, we could comprehend the voids which our telescopes find in innumerable directions, would be by supposing the distance of the invisible background so immense that no ray from it has yet been able to reach us at all.
Se la successione delle stelle fosse senza fine, allora il fondo del cielo si presenterebbe come una luminosità uniforme, come quella mostrata dalla Galassia, dato che non ci sarebbe assolutamente alcun punto, in tutto il cielo, nel quale non esisterebbe una stella. La sola maniera, perciò, con la quale, in questo stato di cose, potremmo comprendere i vuoti che i nostri telescopi trovano in innumerevoli direzioni, sarebbe supporre che la distanza del fondo invisibile sia così immensa che nessun raggio proveniente da esso ha potuto finora raggiungerci”

Tornando un passo indietro al famoso Paradosso di Olbers. Una soluzione alquanto intelligente venne proposta dal poeta americano Edgard Allan Poe in un saggio intitolato Eureka: A Prose Poem [cite]http://www.eapoe.org/works/editions/eurekac.htm[/cite], tratto da una conferenza precedente da lui presentata a New York. Vi cito il brano nel riquadro qui accanto (perdonate per la traduzione forse raffazzonata).  Sarebbe bastato indagare un po’ di più sui limiti imposti dalla fisica per capire che la soluzione fino ad allora proposta, ossia che una moltitudine di nebulose oscure avrebbero oscurato la radiazione stellare più distante, non era quella giusta. Invece un universo dinamico in espansione e  che avesse avuto un inizio certo in un momento passato lo sarebbe stato, più o meno come suggerito da H. A. Poe. Con la scoperta della recessione delle galassie grazie agli studi di Edwin Hubble tra il 1920 e il 1923 divenne evidente che l’Universo era in realtà un universo dinamico in espansione come le soluzioni proposte da Lemaitre e Friedmann usando le equazioni di campo di Albert Einstein suggerivano.

La teoria cosmologica del Big Bang, il modello inflazionario

Il quadro che finalmente emergeva dalle equazioni di Friedman e che come ho descritto la volta scorsa tiene conto dell’espansione metrica del tessuto spazio-tempo, dalla recessione delle galassie al paradosso da me citato più volte, indica un inizio temporale dell’Universo nel passato insieme a tutta la materia e l’energia che oggi osserviamo. Per spiegare la piattezza (Ω=1) dell’Universo attuale nel 1979 il fisico americano Alan Guth – e indipendentemente da altri cosmologi come il russo Andrej Linde – suggerì che l’Universo subito dopo la sua formazione (da 10-35 secondi a 10-32 secondi) si sia gonfiato così rapidamente da provocare un superaffreddamento della sua energia, da 1027 K fino a 1022 K.  In questa fase tutto l’Universo sarebbe passato dalle dimensioni di 10-26 metri (un centimiliardesimo delle dimensioni di un protone) a 10 metri di diametro, ben 27 ordini di grandezza in una infinitesima frazione di secondo. Durante quest’era chiamata inflattiva, un sussulto nell’energia, un po’ come una campana che risuona dopo esser stata colpita da un battacchio, avrebbe avviato un processo di ridistribuzione dell’energia verso uno stato di equilibro contrastando così il superrafreddamento causato dall’espansione. Questo processo avrebbe finito per far decadere il campo inflativo, chiamato appunto Campo Inflatone e responsabile dell’inflazione iniziale, verso uno stato abbastanza stabile chiamato falso vuoto e provocando una transizione di fase dello stesso campo che ha quindi dato origine a tutta la materia, compresa ovviamente quella oscura, e tutta l’energia che oggi osserviamo nell’Universo.

Permettetemi un breve digressione: Quando accendiamo una candela, facciamo esplodere qualcosa, che sia un esplosivo al plastico oppure del granturco per fare il pop corn, o più semplicemente sentiamo sulla pelle il calore del sole che ha origine nelle reazioni termonucleari al centro della nostra stella, quella è ancora l’energia, riprocessata in migliaia di modi diversi, che scaturì col Big Bang.

Fu appunto quest’era inflattiva, dominata dal campo inflatone a dilatare così tanto l’Universo da fargli assumere l’aspetto così sorprendentemente piatto che oggi conosciamo, una curvatura così ampia da sembrate piatta 1, così vicina al canonico valore di Ω=1.

L’espansione post inflazionistica: il problema della densità

Se volete dilettarvi sulla transizione di fase, provate a gettare una tazzina d’acqua bollente nell’aria fredda abbondantemente sotto zero. Più o meno è lo stesso processo accaduto al campo inflatone: un campo energetico (l’ acqua calda nella tazzina) che viene liberata nell’aria super fredda (universo inflazionato). Il nevischio sono le particelle scaturite dalla transizione di fase dell’acqua.

Con il suo decadimento, la spinta del campo inflatone cessa di essere il motore dell’espansione dell’Universo ma la spinta continua per inerzia, con una piccola differenza: la presenza della materia.
Ormai il campo inflatone è decaduto  attraverso un cambiamento di fase che ha dato origine a tutta la materia che osserviamo direttamente e indirettamente oggi nel cosmo. Piccole fluttuazioni quantistiche in questa fase possono essere state le responsabili della formazione di buchi neri primordiali [cite]http://ilpoliedrico.com/2016/06/materia-oscura-e-se-fossero-anche-dei-buchi-neri.html[/cite]. Ma al di là di quale natura la materia essa sia, materia ordinaria, materia oscura, antimateria, essa esercita una debolissima forza di natura esclusivamente attrattiva su tutto il resto; la forza gravitazionale. 
Quindi, come previsto dalle succitate equazioni di Friedmann, è la naturale attrazione gravitazionale prodotta dalla materia a ridurre quasi ai ritmi oggi registrati per l’espansione.
Ma tutta la materia presente nell’Universo comunque non pare sufficiente a frenare e fermare l’espansione.
La densità critica teorica dell’Universo ρc è possibile calcolarla partendo proprio dal valore dell’espansione metrica del cosmo espressa come Costante di Hubble H0 [cite]http://arxiv.org/abs/1604.01424[/cite] secondo le più recenti stime:
ρc=3H028πG 
Assumendo che H0 valga 73,24 km/Mpc allora si ha un valore metrico di H0=(73,24×1000)3,086×1022=2,3733×1018m
Quindi 3×2,3733×101828×π×6,6725911=1,0076126kg/m3
Conoscendo il peso di un singolo protone (1,67 x 10-24 grammi) o al noto Numero di Avogadro che stabilisce il numero di atomi per una data massa, si ottiene che 1,00761×1026×10001,67×1024=6,003che sono appena 6 atomi di idrogeno neutro per metro cubo di spazio (ovviamente per valori H0 diversi anche il valore assunto come densità critica ρc cambia e di conseguenza anche il numero di atomi per  volume di spazio).
Ora se volessimo vedere quanta materia c’è nell’Universo potremmo avere qualche problema di scala. Assumendo una distanza media tra le galassie di 2 megaparsec e usando la massa della nostra galassia a confronto, 2 x 1042 chilogrammi, otterremo all’incirca il valore ρ quasi corrispondente a quello critico (5 atomi per metro cubo di spazio). Eppure, se usassimo come paragone l’intero Gruppo Locale (La Via Lattea, la Galassia di Andromeda, più un’altra settantina di galassie più piccole) che si estende per una decina di Mpc di diametro per una massa complessiva di appena 8,4 x 1042 kg [cite]http://arxiv.org/abs/1312.2587[/cite], otteniamo un valore meno di cento volte inferiore (0,04 atomi per metro cubo di spazio). E su scala maggiore la cosa non migliora, anzi.
L’Universo appare per quel che è oggi, un luogo freddo e desolatamente vuoto, riscaldato solo dalla lontana eco di quello che fu fino a 380 mila anni dopo il suo inizio.
(fine seconda parte)

Zenone , Olbers e l’energia oscura (prima parte)

Mi pareva di aver già trattato in passato lo spinoso problema dell’Energia Oscura. Questo è un dilemma abbastanza nuovo della cosmologia (1998 se non erro) e sin oggi il più incompreso e discusso (spesso a sproposito). Proverò a parlarne partendo da lontano …

[video_lightbox_youtube video_id=”HRoJW2Fu6D4&rel=false” auto_thumb=”1″ width=”800″ height=”450″ auto_thumb=”1″]Alvy: «L’universo si sta dilatando»
Madre: «L’universo si sta dilatando?»
Alvy: «Beh, l’universo è tutto e si sta dilatando: questo significa che un bel giorno scoppierà, e allora quel giorno sarà la fine di tutto»
Madre: «Ma sono affari tuoi, questi?»
(Io e Annie, Woody Allen 1997)

Attorno al V secolo a.C. visse un filosofo che soleva esprimersi per paradossi. Si chiamava Zenone di Elea e sicuramente il suo più celebre fu quello di “Achille e la tartaruga“.
In questo nonsense Zenone affermava che il corridore Achille non avrebbe mai potuto raggiungere e superare una tartaruga se questa in un’ipotetica sfida fosse partita in vantaggio indipendentemente dalle doti del corridore; questo perché nel tempo in cui Achille avesse raggiunto il punto di partenza della tartaruga, quest’ultima sarebbe intanto andata avanti e così via percorrendo sì spazi sempre più corti rispetto ad Achille ma comunque infiniti impedendo così al corridore di raggiungere mai l’animale. Si narra anche che un altro filosofo,  Diogene di Sinope, a questo punto del racconto si fosse alzato e camminato, dimostrando l’infondatezza di quel teorema.
È abbastanza evidente l’infondatezza empirica di quel paradosso, nella sua soluzione Aristotele parlava di spazio e di tempo divisibili all’infinito in potenza ma non di fatto, una nozione oggi cara che si riscopre nella Meccanica Quantistica con i concetti di spazio e di tempo di Planck, ma ragionare su questo ora non è il caso.
Piuttosto, immaginiamoci cosa succederebbe se lo spazio tra A (la linea di partenza di Achille) e B (la tartaruga) nel tempo t che impiega Achille a percorrerlo si fosse dilatato. Chiamiamo D la distanza iniziale e v la velocità costante con cui Achille si muove: nella fisica classica diremmo che D è dato da t×v, ovvio. Ma se nel tempo t/2 la D è cresciuta di una lunghezza che chiameremo d, alla fine quando Achille coprirà la distanza D, il punto B sarà diventato D+2d e la tartaruga non sarebbe stata raggiunta nel tempo finito t neppure se fosse rimasta ferma.

Animazione artistica del Paradosso di Olbers.

Animazione artistica del Paradosso di Olbers.

Se sostituissimo ad Achille un quanto di luce, un fotone come ad esempio il buon vecchio Phòs, e alla pista della sfida il nostro Universo, avremmo allora ricreato esattamente il medesimo quadro fisico. Nel 1826 un medico e astrofilo tedesco, Heinrich Wilhelm Olbers, si chiese perché mai osservando il cielo di notte questo fosse nero. Supponendo che l’universo fosse esistito da sempre, fosse infinito e isotropo (oggi sappiamo che non è vera quasi nessuna di queste condizioni e l’Universo è isotropo solo su grande scala, ma facciamo per un attimo finta che lo siano), allora verso qualsiasi punto noi volgessimo lo sguardo dovremmo vedere superfici stellari senza soluzione di continuità. Questa domanda in realtà se l’erano posta anche Keplero, Isaac Newton e Edmund Halley prima di lui ma non sembrava allora forse una questione importante come invece lo è.
138 anni dopo, nel 1964, due ricercatori della Bell Telephone Company che stavano sperimentando un nuovo tipo di antenna a microonde, Arno Penzias e Robert Wilson [cite]http://ilpoliedrico.com/2014/03/echi-da-un-lontano-passato-la-storia.html[/cite] scoprirono uno strano tipo di radiazione che pareva provenire con la stessa intensità da ogni punto del cielo. Era la Radiazione Cosmica di Fondo a Microonde (Cosmic Microwave Background Radiation) che l’astrofisico rosso naturalizzato statunitense George Gamow negli anni ’40 aveva previsto 1 [cite]https://arxiv.org/abs/1411.0172[/cite] sulle soluzioni di Alexander Friedmann che descrivono un universo non statico come era stato dimostrato dal precedente lavoro di Hubble e Humason sulla recessione delle galassie. Questa intuizione è oggi alla base delle attuali teorie cosmologiche che mostrano come i primi istanti dell’Universo siano stati in realtà dominati dall’energia piuttosto che la materia, e che anche l’Universo stesso ha avuto un’inizio temporalmente ben definito – anzi il tempo ha avuto inizio con esso – circa 13,7 miliardi di anni fa, giorno più giorno meno. Il dominio dell’energia nell’Universo durò fino all’epoca della Ricombinazione, cioè fin quando il protoni e gli elettroni smisero di essere un plasma caldissimo e opaco alla radiazione elettromagnetica e si combinarono in atomi di idrogeno. In quel momento tutto l’Universo era caldissimo (4000 K, quasi come la superficie di una nana rossa). E qui che rientra in gioco il Paradosso di Olbers: perché oggi osserviamo che lo spazio fra le stelle e le galassie è freddo e buio permeato però da un fondo costante di microonde? Per lo stesso motivo per cui in un tempo finito t Achille non può raggiungere la linea di partenza della tartaruga, lo spazio si dilata.
Electromagneticwave3DI fotoni, i quanti dell’energia elettromagnetica come Phòs, si muovono a una velocità molto grande che comunque è finita, 299792,458 chilometri al secondo nel vuoto, convenzionalmente indicata con c. Queste particelle, che appartengono alla famiglia dei bosoni, sono i mediatori dei campi elettromagnetici. La frequenza di oscillazione di questi campi in un periodo di tempo t ben definito (si usa in genere per questo il secondo: f=1/t) determina la natura del fotone e è indicata con f: più è bassa la frequenza e maggiore la lunghezza d’onda: frequenze molto basse sono quelle delle onde radio (onde lunghe e medie, che in genere corrispondono alle bande LF e  AM della vostra radio, anche se AM sarebbe un termine improprio 2), poi ci sono le frequenze ben più alte per le trasmissioni FM 3, VHF, UHF, microonde, infrarossi, luce visibile, ultravioletti, raggi X e Gamma, in quest’ordine. Tutte queste sono espressioni del campo elettromagnetico si muovono nello spazio alla medesima velocità c, quello che cambia è solo la frequenza: f=cλ
Ma è anche vero che una velocità è l’espressione di una distanza D per unità di tempo (D=t×v), pertanto nel caso della luce potremmo anche scrivere che D=t×c. Ma se D cambia mentre c è costante, allora è anche t a dover cambiare. Per questo ogni variazione delle dimensioni dello spazio si ripercuote automaticamente nella natura dei campi associati ai fotoni: un aumento di D significa anche un aumento della lunghezza d’onda, quello che in cosmologia si chiama redshift cosmologico. Potremmo vederla anche come l’aumento della distanza tra diversi punti di un’onda con i medesimi valori del campo elettromagnetico (creste o valli) ma è esattamente la stessa cosa.
Per questo percepiamo buio il cielo: la natura finita e immutabile della velocità della luce trasla verso frequenze più basse la natura della luce stessa, tant’è che quello che noi oggi percepiamo la radiazione cosmica di fondo a microonde con una temperatura di appena 2,7 kelvin è la medesima radiazione caldissima che permeava l’intero Universo  380000 anni dopo che si era formato.
La migliore stima dell’attuale ritmo di espansione dell’Universo è di 73,2 chilometri per megaparsec per secondo, un valore enormemente piccolo, appena un decimo di millimetro al secondo su una distanza paragonabile a quella che c’è tra il Sole e la stella più vicina. Eppure l’Universo è così vasto che questo è sufficiente per traslare verso lunghezze d’onda maggiori tutto quello che viene osservato su scala cosmologica, dalla luce proveniente da altre galassie agli eventi parossistici che le coinvolgono. Questo perché l’effetto di stiramento è cumulativo, al raddoppiare della distanza l’espansione raddoppia, sulla distanza di due megaparsec lo spazio si dilata per 146,4 chilometri e così via, e questo vale anche per il tempo considerato, in due secondi la dilatazione raddoppia.
Le implicazioni cosmologiche sono enormi, molto più dell’arrossamento della luce cosmologico fin qui discusso. Anche le dimensioni dello stesso Universo sono molto diverse da quello che ci è dato vedere. Noi percepiamo solo una parte dell’Universo, ciò che viene giustamente chiamato Universo Osservabile che è poi è la distanza che può aver percorso il nostro Phòs nel tempo che ci separa dal Big Bang, 13,7 miliardi di anni luce.

Ora dovrei parlare del perché l’Universo si espande e del ruolo dell’Energia Oscura in tutto questo, ma preferisco discuterne in una seconda puntata. Abbiate pazienza ancora un po’.
Cieli sereni.

Materia oscura: e se fossero anche dei buchi neri?

Rotationcurve_3 Sappiamo che la materia oscura esiste nelle galassie, perché la curva di rotazione è piatta anche a grandi distanze dal centro della galassia. La "curva di rotazione" non è altro che un grafico di quanto velocemente le stelle di una galassia ruotano in funzione della loro distanza dal centro. La gravità predice che \(V = \sqrt (GM / R)\). La "M" indica tutta la massa che è racchiusa all'interno del raggio R. Una curva di rotazione è piatta quando la velocità è costante, cioè che in qualche modo \(M / R\) è costante. Quindi questo significa che come andiamo sempre più in una galassia, la massa è in crescita anche se pare che le stelle finiscano. La naturale conseguenza se le le leggi di gravitazione sono corrette è che allora deve esserci una qualche forma di materia che non vediamo. Anche altre osservazioni cosmologiche indicano l'esistenza della materia oscura e, sorprendentemente, predicono all'incirca la stessa quantità!

Sappiamo che la materia oscura esiste nelle galassie, perché la curva di rotazione è piatta anche a grandi distanze dal centro della galassia. La “curva di rotazione” non è altro che un grafico di quanto velocemente le stelle di una galassia ruotano in funzione della loro distanza dal centro. La gravità predice che V=(GM/R). La “M” indica tutta la massa che è racchiusa all’interno del raggio R. Una curva di rotazione è piatta quando la velocità è costante, cioè che in qualche modo M/R è costante. Quindi questo significa che come andiamo sempre più in una galassia, la massa è in crescita anche se pare che le stelle finiscano. La naturale conseguenza se le le leggi di gravitazione sono corrette è che allora deve esserci una qualche forma di materia che non vediamo. Anche altre osservazioni cosmologiche indicano l’esistenza della materia oscura e, sorprendentemente, predicono all’incirca la stessa quantità!

Finora – e credo che non lo sarà ancora per diverso tempo – la reale natura della materia oscura non è stata chiarita. Non sto ancora a ripetermi nello spiegare per filo e per segno come si sia arrivati a concludere che molta materia che percepiamo è in realtà una frazione di quella che gli effetti gravitazionali (curve di rotazione delle galassie) mostrano.
Se avete letto il mio articolo su quante stelle ci sono nella nostra galassia [cite]http://ilpoliedrico.com/2015/12/quante-stelle-ci-sono-nella-via-lattea.html[/cite] lì spiego che a concorrere alla massa totale di una galassia ci sono tante componenti barioniche (cioè composte da protoni e neutroni) più gli elettroni che non sono solo stelle. Ci sono anche corpi di taglia substellare, pianeti erranti, stelle degeneri e buchi neri di origine stellare, il risultato cioè della fine di enormi stelle  che dopo essere esplose come supernova hanno lasciato sul campo nuclei con una massa compresa tra le 3 e le 30 masse solari, tra i 9 e i 90 km di raggio. Questi oggetti non sono direttamente osservabili perché non emettono una radiazione rilevabile, ma i cui effetti gravitazionali sono ben visibili quando si studiano le quantità di moto di galassie e ammassi di queste rispetto al centro di gravità comune.
Obbiettivamente stimare la massa barionica non visibile di una galassia è molto difficile ma se prendiamo come esempio  il Sistema Solare il 99,8% dell’intera sua massa è nel Sole, una stella. Anche decidendo di considerare che la materia barionica non direttamente osservabile fosse un fattore dieci o venti volte più grande di quella presente nel Sistema Solare ed escludendo a spanne tutta la materia stellare degenere (nane bianche, stelle di neutroni e buchi neri) non più visibile presente in una tipica galassia come la nostra, in numeri ancora non tornano.
Più o meno tutte le galassie pare siano immerse in una tenue bolla di gas caldissimo grande circa cinque o sei volte la galassia stessa, probabilmente frutto del vento stellare galattico e dei processi parossistici dei nuclei galattici. Queste bolle sono impalpabili e caldissime a tal punto che solo da poco ne è stata avvertita la presenza [cite]http://hubblesite.org/newscenter/archive/releases/2011/37/[/cite], capaci quanto basta però per contenere una massa pari alla parte visibile; questo significa che finora la massa barionica di una galassia è stata finora sottostimata di un fattore 2.
Ma tutto questo ancora non basta. Anche se volessimo comunque raddoppiare o perfino triplicare le stime precedenti della massa barionica, verrebbe fuori che comunque una frazione ancora piuttosto cospicua di massa manca all’appello: almeno tra i due terzi e la metà mancherebbero comunque all’appello.
grafico universoE sulla natura di questa materia oscura (oscura appunto perché non visibile direttamente o indirettamente tranne che per la sua presenza come massa) che si sono avanzate le più disparate ipotesi.
Una di queste prevede che se, come molti esperimenti mostrano [cite]http://ilpoliedrico.com/2013/02/la-stupefacente-realta-del-neutrino.html[/cite], che i neutrini hanno una massa non nulla, allora questi potrebbero essere i responsabili della massa mancante. Questa si chiama Teoria WIMP (Weakly Interacting Massive Particle) Calda, cioè particelle debolmente interagenti dotate di massa che si muovono a velocità relativistiche. Particelle così sono note da sessant’anni, sono i neutrini che, grazie alla loro ridotta sezione d’urto e alla loro incapacità di  interagire con la forza nucleare forte (quella che cioè tiene uniti i quark e il nucleo degli atomi) e l’interazione elettromagnetica – però interagiscono bene con la forza nucleare debole (quella responsabile del decadimento radioattivo) e la forza gravitazionale – sono esattamente elusivi quanto si chiede alla materia oscura. Purtroppo se la materia oscura si identificasse unicamente nei neutrini avremmo un grande problema: forse non esisteremmo! Tutte le strutture di scala fine, le galassie e quindi le stelle, non avrebbero avuto modo di formarsi, disperse dai neutrini e dall’assenza di zone di più alta densità verso cui concentrarsi. Pertanto la Hot Dark Matter –  Materia Oscura Calda – non può essere stata rilevante alla formazione dell’Universo [cite]https://arxiv.org/abs/1210.0544[/cite].
Quindi se la materia oscura non può avere una rilevante componente calda, cioè che si muove a velocità relativistiche come i neutrini, deve essere prevalentemente fredda, cioè che, come la materia ordinaria, è statica. Una possibile spiegazione al mistero della materia oscura fa ricorso a oggetti barionici oscuri, che cioè non emettono una radiazione percettibile ai nostri strumenti, i cosiddetti MACHO (Massive Astrophysical Compact Halo Object) ossia oggetti compatti di alone. Questi MACHO sono composti da resti di stelle ormai morte come nane bianche e stelle di neutroni ormai freddi, buchi neri, stelle mancate e pianeti erranti. Certamente oggetti simili esistono e sono una componente importante della massa di qualsiasi galassia e più queste invecchiano più la componente degenere che contengono aumenta. L’indice di colore delle galassie associato alla loro massa viriale lo dimostra. Ma tutta la componente barionica dell’Universo può essere calcolata anche usando il rapporto tra gli isotopi dell’elio 4He e litio  7Li usciti dalla nucleosintesi cosmica iniziale come descritto dai modelli ΛCDM e questo pone un serio limite alla quantità di materia barionica degenere possibile [cite]http://xxx.lanl.gov/abs/astro-ph/0607207[/cite]. Pertanto risolvere il dilemma della materia oscura ricorrendo ai MACHO è impossibile.
Le uniche altre vie percorribili paiono essere quelle che fanno ricorso a particelle non barioniche (come i neutrini) ma che siano statiche come la materia barionica ordinaria: le cosiddette Cold WIMP, ovvero particelle debolmente interagenti dotate di massa non dotate di moto proprio è appunto una di queste. Particelle simili non sono ancora state osservate direttamente ma la cui esistenza può anch’essa essere dimostrata indirettamente confrontando le abbondanze isotopiche accennate prima [cite]http://arxiv.org/abs/astro-ph/9504082[/cite] con le equazioni di Friedmann.

Il pannello di destra è un'immagine ottenuta dallo Spitzer Space Telescope di stelle e galassie nella costellazione dell'Orsa Maggiore. L'immagine ad infrarossi copre una regione di spazio di 100 milioni di anni luce Il pannello di sinistra è la stessa immagine dopo che le stelle, le galassie e le altre fonti sono state mascherate. La luce di fondo rimasta risale al0 tempo in cui l'universo aveva meno di un miliardo di anni, e molto probabilmente è originata dai primissimi gruppi di oggetti dell'Universo-  grandi stelle o buchi neri attivi. Le tonalità più scure nell'immagine a sinistra corrispondono a parti più vuote dello spazio, mentre il giallo e bianco le zone più attive.

Il pannello di destra è un’immagine ottenuta dallo Spitzer Space Telescope di stelle e galassie nella costellazione dell’Orsa Maggiore. L’immagine ad infrarossi copre una regione di spazio di 100 milioni di anni luce Il pannello di sinistra è la stessa immagine dopo che le stelle, le galassie e le altre fonti sono state mascherate. La luce di fondo rimasta risale al0 tempo in cui l’universo aveva meno di un miliardo di anni, e molto probabilmente è originata dai primissimi gruppi di oggetti dell’Universo-  grandi stelle o buchi neri attivi. Le tonalità più scure nell’immagine a sinistra corrispondono a parti più vuote dello spazio, mentre il giallo e bianco le zone più attive.

Ora appare una ricerca [cite]https://arxiv.org/abs/1605.04023[/cite] che suggerisce che buona parte della parte della massa mancante sia collassata in buchi neri subito dopo il Big Bang. A riprova di questo studio viene portata la scoperta di numerose anisotropie nella radiazione cosmica infrarossa (CIB) rilevate nel corso di una survey del cielo a partire dal 2005 dal telescopio infrarosso Spitzer della NASA .
L’autore di questo studio (Kashlinsky) suggerisce che nei  primissimi istanti di vita dell’Universo (Era QCD da Quantum ChromoDynamics o Era dei Quark, tra i 10-12 secondi e i 10-6 secondi dopo il Big Bang) si siano verificate delle fluttuazioni quantistiche di densità che hanno dato origine ai buchi neri primordiali. Il meccanismo, per la verità non nuovo, è quello descritto anche da Jedamzik [cite]http://arxiv.org/abs/astro-ph/9605152[/cite] nel 1996 sui buchi neri primordiali creatisi nell’Era dei Quark. Nella sua opera Jedamskin prevede anche che a causa dell’espansione iniziale dell’Universo i buchi neri primordiali si possono essere formati solo per un ristretto intervallo di massa. Un aspetto importante che mi sento di sottolineare è che questi buchi neri primordiali non sono il prodotto del collasso gravitazionale di materia barionica come il nucleo di una stella, ma bensì il collasso di una fluttuazione di densità nel brodo di  quark e gluoni che in quell’istante stava emergendo; quindi prima della Leptogenesi e della Nucleosintesi Iniziale dell’Universo. Ma coerentemente con la fisica dei buchi neri la natura della sostanza che li ha creati  non ha alcuna importanza: che fossero orsetti gommosi o  il collasso di un nucleo stellare il risultato è il medesimo.
Finalmente Kashlinsky pare essere riuscito a trovare una prova visiva di quello che in pratica ha da sempre sostenuto, e che cioè almeno una buona parte della materia oscura possa essere spiegata da questi oggetti primordiali. Una conferma interessante a questa tesi potrebbe essere rappresentata dalla scoperta dei segnali dell’evaporazione  dei buchi neri più piccoli (1015 g) che dovrebbero essere stati generati durante l’Era dei Quark come proposto nel 2004 da BJ Carr [cite]http://arxiv.org/abs/astro-ph/0504034[/cite].
L’idea in sé quindi che buona parte della materia oscura possa essere interpretata come buchi neri primordiali non è affatto nuova. Va riconosciuto a Kashlinsky il merito di averci creduto e di aver trovato prove abbastanza convincenti per dimostrarlo. Certo il dilemma della materia oscura rimane a dispetto dei tanti annunci apparsi in questi giorni e ci vorranno ancora anni di indagine per svelarlo. Io penso che sia un ragionevole mix di tutte le idee qui proposte, anche perché l’attuale modello ΛCDM pone – come abbiamo visto – dei limiti piuttosto stringenti per l’attuale densità barionica che di fatto esclude le forme di materia convenzionale (vedi MACHO) oltre quelle già note. Anche il ruolo dei neutrini primordiali nella definizione delle strutture di scala fine dell’Universo merita attenzione, Alla fine forse scopriremo che la materia oscura è esistita fin quando non abbiamo cercato di comprenderne la sua natura.

L’importanza della divulgazione scientifica.

La scorsa settimana ho partecipato a una conferenza presso la Facoltà di Fisica dell’Università di Siena sui pianeti extrasolari tenuto dalla mia carissima amica – e collaboratrice di questo blog – Sabrina Masiero. Non sto a raccontare la cronaca dell’incontro, spero che presto sia disponibile l’intero filmato dell’evento, ora voglio parlare di qualcos’altro.
Sabrina è rimasta ospite qui a Siena per l’intero fine settimana, così che abbiamo avuto modo di parlare a lungo. È emerso come purtroppo spesso il ruolo di divulgazione sia considerato marginale rispetto all’altrettanto importante ruolo di ricercatore. Ovvio, fare ricerca significa accedere a fondi economici importanti, accedere a strutture all’avanguardia e progettarne di nuove; scrivere pubblicazioni, fare nuove scoperte e perché no, aspirare ad incarichi e vincere premi prestigiosi.
Vero, indubbiamente vero se si guardano le soddisfazioni personali, fare ricerca scientifica è indubbiamente gratificante, ma quella è solo la punta dell’iceberg di cosa è la scienza.
La ricerca fine a sé stessa finisce per essere autoreferenziale, oserei dire quasi inutile.  È  come scoprire un immenso tesoro e non poterlo portar via al sicuro; come scoprire un metodo banale per produrre diamanti in casa ma non poterlo usare perché altrimenti il loro valore di mercato crollerebbe a zero. La ricerca deve sempre essere accompagnata da una efficace opera di divulgazione, altrimenti non ha senso.
cosmos_saganQualche volta vengono portati alla mia attenzione opere d’ingegno di persone che – in buona fede – credono che la fisica in qualche punto è fallata e che  vada riscritta, o che, secondo loro, dovremmo aspettarci un certo risultato piuttosto che un altro in un particolare esperimento. Qualche volta trovo le loro domande legittime e degne di attenzione e altre volte, ben più spesso, mi accorgo che sono ragionamenti senza capo né coda, dove spesso si confonde la causa con l’effetto, si usano concetti assolutamente diversi ed estranei al loro contesto (un po’ come spiegare il Teorema di Pitagora con le leggi del moto lineare) e così via. Questi episodi, lungi da me causare ilarità o qualche risentimento, mi dicono invece la desolante realtà per quel che è. Mostrano che esistono persone dotate di senso critico e di passione ma che purtroppo non hanno le basi per poter giungere a qualcosa di coerente. A loro sono venute a mancare le fondamenta su cui si regge la scienza, la comunicazione e l’apprendimento. In parte accuso il sistema scolastico che qui, a parte poche eccezioni, pare schiacciato più sull’apprendimento mnemonico alla vecchia maniera che pensato per sviluppare un pensiero scientifico critico, finendo per scoraggiare tanti giovani studenti. Ma condanno senza appello anche il cortocircuito provocato di chi si balocca con l’autoreferenzialità delle sue posizioni, del “io so’ io e voi non sapete un …” di tanti soloni di cui ho accennato anche in un altro precedente pensiero [cite]http://ilpoliedrico.com/2016/04/la-fusione-dei-ghiacciai-campanilismo-antiscientifico.html[/cite].
È qui che il ruolo di divulgatore scientifico – come il mio con questo modesto blog e quello di Sabrina per conto dell’INAF –  entra in gioco. Saper parlare di scienza ad un pubblico non specialistico è fondamentale. Vuol dire creare quell’anello di congiunzione tra la ricerca scientifica più avanzata e il pubblico. Significa saper capire il linguaggio spesso criptico dei ricercatori e di adattarlo senza stravolgimenti in qualcosa di comprensibile alle persone comuni. l’astronomo americano Carl Sagan e uno dei fondatori del Progetto SETI, divenne noto presso il grande pubblico per il suo libro Cosmos che era la trascrizione letterale di una serie televisiva di documentari per la PBS da lui condotta. Egli era un valente divulgatore, grazie al suo impegno valenti scienziati come Neil deGrasse Tyson sono venuti fuori e tanti altri meno noti hanno intrapreso una carriera scientifica arricchendo così tutta l’umanità.
Saper parlare e decidere di parlare di scienza è essenziale perché la scienza non sia percepita come il male e gli scienziati non siano visti come sciamani. Parlare di scienza significa dare alle persone la capacità di ammutolire gli stolti che oggi predicano contro i vaccini o che vendono acqua zuccherata a peso d’oro con la forza della ragione ma anche gli strumenti per comprendere quello che è vero dal falso, come le bischerate delle scie chimiche rilasciate dagli aerei. Significa trasmettere il testimone della curiosità scientifica alle nuove generazioni, nuovi ricercatori e divulgatori di domani, come il Direttore dell’Osservatorio Astronomico di Siena Alessandro Marchini sta facendo con i ragazzi delle scuole superiori di qui.
Quindi non penso che essere divulgatori sia un ruolo secondario nella scienza, anzi è vero il contrario, e del compito  che mi sono ritagliato ne sono fiero.

Alla ricerca delle origini della vita

Il bacino del Sudbury in Canada è uno degli ultimi resti dei grandi bombardamenti cometari subiti dalla Terra nella sua infanzia di cui sia rimasta qualche traccia.  Il suo studio è quindi molto importante per capire cosa è davvero successo in quell’epoca così remota e come sia arrivato il nostro pianeta ad ospitare la Vita.

[showmap name=’Sudbury_basin’]
Credit: NASA & MNDM

Credit: NASA & MNDM

Nella regione dell’Ontario (Canada) esiste un cratere, ormai quasi del tutto eroso dal tempo, vecchio di 1,8 miliardi di anni. Fu una cometa di circa dieci o quindici chilometri a provocarlo, più o meno quanto si pensa che fosse stato il terribile asteroide che si suppone pose fine al dominio dei dinosauri su questo pianeta 65 milioni di anni fa. Perché vi possiate rendere conto delle dimensioni, immaginatelo grande quanto Firenze o Deimos, una luna di Marte.
Un impatto di un corpo simile oggi contro la Terra è molto più remoto che in passato, se dovesse comunque accadere esso segnerebbe la fine della nostra civiltà e probabilmente anche della nostra specie. Ma impatti simili nei primi 500 milioni di anni della Terra quasi sicuramente hanno portato gli ingredienti necessari alla vita e creato le condizioni ambientali adatte perché questa potesse formarsi e prosperare.
La comparsa della vita sulla Terra avvenne circa 3,8 – 3,4 miliardi di anni fa, ossia appena 700 milioni – un miliardo di anni dopo la sua formazione, circa alla fine del periodo conosciuto come Intenso Bombardamento Tardivo. Un periodo forse fin troppo breve per spiegare la formazione di molecole complesse come la glicina, la β-alanina, gli acidi amminobutirrici etc. che si suppone siano state i precursori della vita sul nostro pianeta. Diversi studi [cite]http://www.acs.org/content/acs/en/pressroom/newsreleases/2012/march/new-evidence-that-comets-deposited-building-blocks-of-life-on-primordial-earth.html[/cite] svolti in passato mostrano come le molecole organiche più semplici che comunemente vengono osservate nelle nubi interstellari possono essere arrivate qui sulla Terra cavalcando le comete senza distruggersi nell’impatto ma altresì trovare in questo l’energia sufficiente per formare strutture organiche , peptidi, ancora più complesse [cite]http://ilpoliedrico.com/2012/05/aminoacidi-astrostoppisti.html[/cite].

sudbury-impact1Da diverso tempo si sono sostituite le scariche elettriche dei fulmini e delle radiazioni ultraviolette delle teorie di Haldane e di Oparin con fonti energetiche più dolci e continue come le bocche idrotermali oceaniche. Lì metalli come ferro, zinco, zolfo disciolti in un ambiente acquatico ricco di energia non ionizzante, avrebbero avuto modo da fungere da catalizzatori per la creazione di molecole organiche complesse prebiotiche e, in seguito, per la vita. Le ricerche di laboratorio però mostrano che anche i luoghi di impatto cometario possono essere stati luoghi altrettanto interessanti.
Il bacino di Sudbury è ideale per verificare questa ipotesi: l’impatto cometario ha deformato la crosta fino a una profondità di ben sedici chilometri, permettendo così ai minerali di nichel, ferro e zinco di risalire dal mantello. Il cratere, inizialmente inondato dal mare subito dopo l’impatto, è poi rimasto isolato abbastanza a lungo da permettere la formazione di un sedimento spesso un chilometro e mezzo. Per i ricercatori che attualmente stanno studiando questo complesso [cite]http://www.sciencedirect.com/science/article/pii/S0016703716301661[/cite] l’acqua raccolta nel cratere avrebbe quindi promosso i processi idrotermali non dissimili a quelli che vengono attualmente osservati nelle dorsali oceaniche.

Qui gli ingredienti per la creazione della vita ci sono tutti: molecole organiche semplici che vengono portate sulla Terra da una cometa e che si pensa che possano sopravvivere all’olocausto dell’impatto e trasformarsi in molecole anche più complesse; l’acqua trasportata dalla stessa cometa e dal mantello fessurato; energia prodotta dall’attività idrotermale indotta dall’impatto; metalli e solfuri pronti per fungere da catalizzatori per i processi organici immediatamente disponibili …
Insomma, un mix di condizioni ideali all’abiogenesi iniziale possono essersi create già nei primissimi milioni di anni di vita della Terra.

Alla ricerca di forme di vita evolute: i limiti del Principio di Mediocrità

La vita è poi così comune nell’Universo? Oppure l’Uomo – inteso come forma di vita evoluta – è veramente una rarità nel’infinito cosmo? Forse le risposte a queste domande sono entrambe vere.

16042016-2D68D8DD00000578-0-image-a-23_1459508636554Finora il Principio di Mediocrità scaturito dal pensiero copernicano ci ha aiutati a capire molto del cosmo che ci circonda. L’antico concetto che pone l’Uomo al centro dell’Universo – Principio Antropocentrico – ci ha fatto credere per molti secoli in cosmogonie completamente errate, dalla Terra piatta all’idea di essere al centro dell’Universo, dall’interpretazione del moto dei pianeti alla posizione del sistema solare nella Galassia (quest’ultimo ha resistito fino alla scoperta di Hubble sull’espansione dell’Universo).
Per questo è comprensibile e del tutto legittimo estendere il Principio di Mediocrità anche alla ricerca della vita extraterrestre. Dopotutto nulla vieta che al presentarsi di condizioni naturali favorevoli il fenomeno Vita possa ripetersi anche altrove: dalla chiralità molecolare [cite]http://ilpoliedrico.com/2014/10/omochiralita-quantistica-biologica-e-universalita-della-vita.html[/cite] ai meccanismi che regolano il  funzionamento cellulare sono governate da leggi fisiche che sappiamo essere universali.
Una delle principali premesse che ci si attende da un pianeta capace di sostenere la vita è quello che la sua orbita sia entro i confini della zona Goldilocks, un guscio sferico che circonda una stella (in genere è rappresentato come fascia ma è un concetto improprio) la cui temperatura di equilibrio di radiazione rientri tra il punto di ebollizione e quello di congelamento dell’acqua (273 – 373 Kelvin)  intorno ai 100 kiloPascal di pressione atmosferica; un semplice esempio lo si può trovare anche su questo sito [cite]http://ilpoliedrico.com/2012/12/la-zona-circumstellare-abitabile-del-sole.html[/cite]. Ci sono anche altri vincoli [cite]http://ilpoliedrico.com/?s=+goldilocks[/cite] ma la presenza di acqua liquida pare essere fondamentale 1.
Anche se pur con tutti questi limiti il Principio di Mediocrità suggerisce che la biologia a base carbonio è estremamente diffusa nell’Universo, e questo non stento a crederlo. Stando alle migliori ipotesi le stelle che possono ospitare una qualche forma di sistema planetario potenzialmente adatto alla vita solo in questa galassia sono almeno 10 miliardi. Sembra un numero considerevole ma non dimentichiamo che la Via Lattea ospita circa 200 miliardi di stelle. quindi si tratta solo una stella su venti.
orologio geologicoMa se questa stima vi fa immaginare che là fuori ci sia una galassia affollata di specie senzienti alla Star Trek probabilmente siete nel torto: la vita per attecchire su un pianeta richiede tempo, molto tempo.
Sulla Terra occorsero almeno un miliardo e mezzo di anni prima che comparissero le prime forme di vita fotosintetiche e le prime forme di vita con nucleo cellulare differenziato dette eukaryoti – la base di quasi tutte le forme di vita più complessa conosciute – apparvero solo due miliardi di anni fa. Per trovare finalmente le forme di vita più complesse e una biodiversità simile all’attuale  sul pianeta Terra bisogna risalire a solo 542 milioni di anni fa, ben poca cosa se paragonati all’età della Terra e del Sistema Solare!

Però, probabilmente, il Principio di Mediocrità finisce qui. La Terra ha una cosa che è ben in evidenza in ogni momento e, forse proprio per questo, la sua importanza è spesso ignorata: la Luna.
Secondo recenti studi [cite]http://goo.gl/JWkxl1[/cite] la Luna è il motore della dinamo naturale che genera il campo magnetico terrestre. L’idea in realtà non è nuova, ha almeno cinquant’anni, però aiuta a comprendere il perché tra i pianeti rocciosi del Sistema Solare la Terra sia l’unico grande pianeta roccioso 2 ad avere un campo magnetico abbastanza potente da deflettere le particelle elettricamente cariche del vento solare e dei raggi cosmici. Questo piccolo particolare ha in realtà una grande influenza sulle condizioni di abitabilità sulla crosta perché ha consentito alla vita di uscire dall’acqua dove sarebbe stata più protetta dalle radiazioni ionizzanti, ha permesso che la crosta stessa fosse abbastanza sottile e fragile da permettere l’esistenza di zolle continentali in movimento – il che consente un efficace meccanismo di rimozione del carbonio dall’atmosfera [cite]http://ilpoliedrico.com/2013/12/la-caratterizzazione-delle-super-terre-il-ciclo-geologico-del-carbonio.html[/cite][cite]http://ilpoliedrico.com/2013/07/venere-e-terra-gemelli-diversi.html[/cite] – e la stabilizzazione dell’asse terrestre.
In pratica la componente Terra Luna si comporta come Saturno con Encelado e, in misura forse minore, Giove con Europa.
Il gradiente gravitazionale prodotto dai due pianeti deforma i satelliti che così si riscaldano direttamente all’interno. Per questo Encelado mostra un vulcanismo attivo e Europa ha un oceano liquido al suo interno in cui si suppone possa esserci le condizioni ideali per supportare una qualche forma di vita. Nel nostro caso è l’importante massa della Luna che deforma e mantiene fuso il nucleo terrestre tanto da stabilizzare l’asse del pianeta, fargli generare un importante campo magnetico e possedere una tettonica attiva [cite]http://ilpoliedrico.com/2010/11/limportanza-di-un-nucleo-fuso.html[/cite].

Ora, se le nostre teorie sulla genesi lunare sono corrette 3, questo significa che una biologia così varia e complessa come quella sulla Terra è il prodotto di tutta una serie di eventi che inizia con la formazione del Sistema Solare e arriva fino all’Homo Sapiens passando attraverso la formazione del nostro curioso – e prezioso – satellite e le varie estinzioni di massa. Tutto questo la rende molto più rara di quanto suggerisca il Principio di Mediocrità. Beninteso, la Vita in sé è sicuramente un fenomeno abbastanza comune nell’Universo ma una vita biologicamente complessa da dare origine a una specie senziente capace di produrre una civiltà tecnologicamente attiva è probabilmente una vera rarità nel panorama cosmico.

Le quattro fasi che avrebbero portato la Terra ad avere un grande campo magnetico (MFI Moon-forming impact, Impatto che dette origine alla Luna)

Le quattro fasi che avrebbero portato la Terra ad avere un grande campo magnetico (MFI Moon-forming impact, Impatto che dette origine alla Luna)

Analizziamo per un attimo più da vicino il sistema Terra-Luna.
La distanza media tra il centro della Luna e il centro della Terra è di circa 384390 chilometri. Questo varia tra l’apogeo e il perigeo dell’orbita ma sostanzialmente questa è una cosa che non inficia il nostro conto.
Questo significa che nello stesso momento la parte più vicina alla Luna è distante 1,66% in meno della distanza Terra-Luna mentre la sua parte opposta lo è della stessa misura in più; tradotto in numeri la parte rivolta direttamente alla Luna dista dal suo centro 378032 km  mentre la parte più lontana 390774 km. Il 3,32% di discrepanza tra le due facce non pare poi molto, ma significa che se stabiliamo che la forza esercitata gravitazionale dal satellite sulla faccia più vicina fosse pari a 100, la forza esercitata sul lato opposto sarebbe solo del 96,74%. Il risultato è che la faccia rivolta verso la Luna è attratta da questa di più del centro del pianeta e la faccia più lontana ancora di meno, col risultato di deformare la Terra ad ogni rotazione..
Ma anche la Terra esercita la sua influenza sul suo satellite allo stesso modo. Ma essendo la Luna più piccola, anche la caduta gravitazionale tra le due facce è molto più piccola, circa 1,8%. Essendo solo un quarto della Terra ma anche 81 volte meno massiccia la forza di marea esercitata dalla Terra sulla Luna è circa 22 volte dell’opposto.
Mentre la Terra ruota si deforma di circa mezzo metro, la frizione interna spinge la crosta nel sollevarsi e ricadere e, per lo stesso meccanismo si ha produzione di calore nel nocciolo e nel mantello e il più evidente fenomeno di marea sulle grandi masse d’acqua del pianeta. Ma l’effetto mareale combinato con la rotazione terrestre fa in modo che la distribuzione delle masse sia leggermente in avanti rispetto all’asse ideale Terra-Luna. Questo anticipo disperde parte del momento angolare in cambio di un aumento della distanza media tra Terra e Luna. La durata del giorno aumenta così – attualmente – di 1,7 secondi ogni 100 000 anni mentre pian piano la Luna si allontana al ritmo di 3,8 centimetri ogni anno [cite]http://goo.gl/ALyU92[/cite], mentre la frizione mareale indotta restituisce parte del calore che sia il mantello che il nucleo disperdono naturalmente. Questo calore mantiene il nucleo ancora allo stato fuso dopo ben 4,5 miliardi di anni, permettendogli di generare ancora il campo magnetico che protegge la vita sulla superficie.
Ecco perché l’idea dell’unicità della Terra non è poi del tutto così peregrina. Non è un istinto puramente antropocentrico, quanto semmai la necessità di comprendere che la Terra e la Luna sono da studiarsi come parti di un unico un sistema che ha permesso che su questo pianeta emergessero tutte quelle condizioni favorevoli allo sviluppo di vita che poi si è concretizzata in una specie senziente. Queste condizioni avrebbero potuto crearsi altrove – e forse questo è anche avvenuto – invece che qui e allora noi non saremmo ora a parlarne. Ma è questo è quel che è successo e se questa ipotesi fosse vera farebbe di noi come specie senziente una rarità nel panorama cosmico.
Come ebbi a dire in passato, anche se il concetto non è del tutto nuovo, Noi siamo l’Universo che in questo angolo di cosmo ha preso coscienza di sé e che si interroga sulla sua esistenza. Forse questo angolo è più vasto di quanto si voglia pensare; il che ci rende ancora più unici.


Note:

La fusione dei ghiacciai e il campanilismo antiscientifico

Questa immagine aerea della Groenlandia mostra i fiumi d'acqua causati dal disgelo e le aree di ghiaccio più scuro descritte dall'articolo. la superficie della Groenlandia sta assorbendo più radiazione solare e i processdi di fusione sono proporzionali alle dimensioni dei grani di ghiaccio e alle impurità liberate. Credit: Marco Tedesco / Lamont-Doherty Earth Observatory

Questa immagine aerea della Groenlandia mostra i fiumi d’acqua causati dal disgelo e le aree di ghiaccio più scuro descritte dall’articolo. la superficie della Groenlandia sta assorbendo più radiazione solare e i processdi di fusione sono proporzionali alle dimensioni dei grani di ghiaccio e alle impurità liberate.
Credit: Marco Tedesco / Lamont-Doherty Earth Observatory

La scienza  aborre i campanilismi. Ogni campanilismo.
Solo 120 anni fa la Legge di Gravitazione di Newton pareva spiegare tutto: dalla caduta di un frutto dall’albero all’orbita della Luna e dei pianeti; eccetto uno. Un pianetino poco più di un terzo più grande della nostra Luna, Mercurio, ha un moto orbitale che non può essere spiegato con le leggi di Keplero, di cui la legge di Gravitazione Universale è l’espressione matematica. Occorse attendere la Relatività Generale di Einstein per capire perché quel sassolino nello spazio, così vicino al Sole, avesse quell’orbita. Per questo affermo che la scienza aborre ogni forma di campanilismo, ogni teoria è valida finché qualche fenomeno fino ad allora inspiegabile trova una nuova spiegazione universalmente valida.

E la climatologia è una scienza.  Può non sembrare esatta perché è estremamente complessa, ma è una scienza e come tale anche lei aborrisce i campanilismi.
Giusto stamani una mia carissima amica è stata oggetto di deploro per aver condiviso un articolo che nel titolo manifesta perplessità sulla responsabilità del Riscaldamento Globale sullo scioglimento dei ghiacciai della Groenlandia [cite]http://goo.gl/5WBgoS[/cite] [cite]http://goo.gl/xJ70qp[/cite]. Bastava leggere l’articolo senza soffermarsi al titolo per capire che esso descrive un fatto reale e che questa forma di campanilismo è quanto di più becero e lontano che ci possa essere dalla scienza.
Pur esprimendo conclusioni che io considero opinabili, l’articolo di cui offro il link più sotto, il primo, mette in evidenza un fenomeno forse poco conosciuto dai più ma che invece ha una grande importanza sugli effetti del clima: la neve sporca.
In pratica diversi studi del ricercatore Marco Tedesco del Lamont-Doherty Earth Observatory della Columbia University, indicano che è in atto da almeno un paio di decadi un meccanismo di feedback positivo causato dalla maggiore capacità dei ghiacciai di assorbire la radiazione solare che provoca la loro fusione. La causa sono le polveri presenti nell’atmosfera e che la neve raccoglie a scatenare questo meccanismo. Durante la stagione più calda la neve che man mano si scioglie aumenta per ogni unità di superficie il tasso di impurità presente e che fino ad allora era intrappolata nel manto nevoso. Queste impurità aumentano la capacità di trattenere ancora più energia e questo provoca ancora altro discioglimento. I vari cicli di fusione diurna e congelamento notturno favoriscono la creazione di cristalli di ghiaccio ancora più grandi e meno riflettenti col risultato di abbassare ancora di più l’albedo – il rapporto tra la radiazione solare riflessa e quella in arrivo – dei ghiacciai, ossia un aumento del tasso di scioglimento di questi.
Dove sia la contraddizione tra questa notizia e il Global Warming in atto non lo capisco. Il clima globale è il risultato di tanti piccoli eventi e fenomeni che presi singolarmente alcuni di essi paiono in contrasto o che sembrano slegati fra loro.
IMG_0427Qui la componente comune col Riscaldamento Globale è da ricercarsi  nelle polveri. Non è affatto un mistero che già in passato siano state rivelate tracce di polveri inquinanti di origine antropica nelle carote di ghiaccio prelevate in Antartide [cite]http://www.nature.com/articles/srep05848[/cite] e in Groenlandia [cite]http://pubs.acs.org/doi/abs/10.1021/es970038k[/cite], dove addirittura furono trovate tracce dell’inquinamento Romano e Cartaginese. Nell’aria il pulviscolo atmosferico (quella polvere che vedete sospesa nei raggi di luce che attraversano una stanza buia e che si accumula sotto i letti e sui mobili) è in perenne movimento; ogni volta che respirate fate entrare alcune particelle prodotte giorni e mesi fa in Cina, altre in India o in Perù o in Canada. Queste possono essere di origine biologica, minerale, il prodotto di processi industriali oppure un miscuglio di tutti questi. Le precipitazioni atmosferiche intrappolano e trasportano al suolo queste polveri e nel caso delle nevi possono rimanere intrappolate anche per anni e secoli; dipende dal clima locale.
Nel caso dei ghiacciai groenlandesi questo fenomeno di rilascio sta avvenendo ora. Non è necessario vedere la neve più sporca ad occhio nudo, al meccanismo di retroazione che ho descritto più sopra non serve; avviene.  E tutti i meccanismi di retroazione positiva, come questo, sono molto difficili da controllare e bloccare. l’unica cosa veramente efficace è quella di prenderne atto e di bloccarli alla fonte. Ovviamente non si possono fermare i fenomeni naturali come le polveri provenienti dai deserti – vi è mai capitato di scoprire che dopo una pioggia il vostro balcone o la vostra auto fosse ricoperta di una patina rossastra? quella è spesso la polvere del Sahara – o le eruzioni vulcaniche o il pulviscolo biologico. Ma molte polveri originate dalle attività umane sì. Abbattitori industriali che catturano le polveri delle ciminiere, conversione degli impianti di riscaldamento a olio combustibile a forme meno inquinanti e più efficienti (i frequenti allarmi dell’inquinamento metropolitano sono causati molto più dai sistemi di riscaldamento domestico che dal traffico automobilistico, solo che fermare le auto è più facile) abbandonare la tecnologia dei combustibili fossili là dove è fisicamente possibile.

Quindi non c’è contraddizione tra Global Warming e la fusione dei ghiacciai groenlandesi, alpini e del Tibet, così come non c’è con la morte della Grande Barriera Corallina australiana. Sono tutti fenomeni in gran parte riconducibili all’inquinamento umano che ha innescato diversi meccanismi che si autoalimentano e che sono quasi impossibili da controllare.
Qui ha ragione il Presidente Barak Obama quando afferma che noi siamo l’ultima generazione che può fare qualcosa per fermare tutto questo.  Non voglio che questa generazione sia ricordata come quella che poteva ma che non fece.

Barn door tracker o derotatore equatoriale?

Sono ormai molti giorni che non aggiorno queste pagine. Ho anche trascurato in parte anche la stesura del mio libro, anche se ogni giorno mi riprometto di scrivere qualcosa. Il fatto è che ultimamente mi sono dedicato – forse troppo – alla realizzazione di quell’astroinseguitore di cui ho tanto parlato. Eccovi gli ultimi aggiornamenti.

NGC 869 e NGC 884 Ammasso doppio di Perseo

NGC 869 e NGC 884 Ammasso doppio di Perseo Somma di 5 fotogrammi ripresi con una focale di 200 mm e 3 secondi di esposizione. senza alcuna montatura di inseguimento (dicembre 2013). Credit: Il Poliedrico.

L’idea originale era quella di riuscire a fotografare le stelle prevedendo il loro moto apparente per evitare il famoso effetto scia. Le strade per fare questo sono diverse ma con troppe limitazioni, soprattutto a grandi focali. Un metodo piuttosto economico ma molto difficile da mettere in pratica con buoni risultati è quello dell’esposizione multipla: si fanno più (molte) esposizioni del singolo oggetto o scena, cercando di rimanere entro la benedetta regola del 500 (vedi riquadro sotto) per evitare il mosso e poi si sommano i singoli fotogrammi usando software di elaborazione come il buon Deep Sky Stacker (che per giunta è anche gratuito).
Una grave limitazione di questo sistema è la rotazione di campo ai bordi delle immagini a largo campo: mentre presso il polo celeste, quindi a basse declinazioni, è possibile spingere anche di molto sui tempi di esposizione, nei pressi dell’equatore celeste la rotazione si fa sentire, eccome!
Come potete osservare dallo stesso riquadro, nei pressi dell’equatore galattico si può tralasciare di calcolare il coseno della declinazione (cos(0)=1) e così rendere giustizia alla ben nota formula empirica semplificata k/f dove appunto k è 500 e f  è la focale usata, tanto usata dai fotografi del cielo stellato. Volendo osare, si possono usare tempi di esposizione molto più lunghi avvicinandosi ai poli celesti,  sempre a patto che  si stia entro l’esposizione prevista per le declinazioni più basse visibili nel campo inquadrato. Il grave aspetto negativo di questo metodo è che se usiamo sommare troppe immagini di uno stesso campo riprese in un periodo troppo lungo, la rotazione di campo risultante sarà comunque troppo ampia per essere corretta via software, col risultato che solo una piccola porzione dell’immagine finale sarà abbastanza  buona  essere conservata.
La soluzione a tutti questi problemi è quella di usare un sistema meccanico che  potesse compensare il moto apparente della volta celeste facendo ruotare la fotocamera in asse con l’asse terrestre ma in direzione opposta.
12651064_1163021377043095_6710097951710270984_nUna montatura equatoriale è l’ideale per questo scopo. Concettualmente è anche la soluzione più economica, peccato però che le montature equatoriali in commercio siano pensate per essere usate con i telescopi, dove le esigenze meccaniche (in termini di peso supportato) e di precisione di puntamento siano molto al di sopra delle più blande esigenze richieste nell’astrofotografia a largo campo (f. fino a 200 -300 mm). Una soluzione piuttosto semplice ed economica poteva essere la costruzione di una tavoletta equatoriale (vedi post precedenti sull’argomento), ma le tolleranze di costruzione e gli errori di tangente indotti da una vite che amplia una corda d’arco che segue l’opposto della rotazione terrestre ne limitano l’uso tra pochi minuti fino a qualche decina nel caso di un sistema a quattro bracci prima che vengano in bella evidenza i limiti costruttivi.  Ci sono casi di tavolette equatoriali mosse a mano seguendo a mano i secondi di un quadrante d’orologio, di quelle azionate col meccanismo dei girarrosto a molla, perfino. Ci sono anche tavolette costruite con leghe di alluminio aeronautico e controllate da un PC che si occupa di correggere gli errori tangenziali. La fantasia degli astrofotografi è infinita.
All’inizio l’idea di costruire anch’io una tavoletta equatoriale mi aveva allettato assai: un sistema a quattro bracci per minimizzare gli errori di tangente, costruita in alluminio e pilotata da un Arduino Mega 2650; avevo buttato giù anche una buona parte del codice per il microcontrollore [cite]https://github.com/UmbyWanKenobi/Astroinseguitore[/cite].

credit: Il Poliedrico

La regola del 500 completa per un uso esclusivamente astrofotografico.Credit: Il Poliedrico

Ma si sa, l’appetito vien mangiando. Secondo le mie intenzioni Arduino avrebbe dovuto anche occuparsi dello scatto remoto della fotocamera inserendo il tempo di esposizione previsto nelle impostazioni di avvio; avrebbe avuto un sistema di ausilio alla calibrazione e puntamento verso il Nord per un più facile stazionamento tramite una bussola elettronica, e una compensazione degli errori di tangente attraverso la modulazione della velocità del motore  passo-passo. Erano previsti perfino un led rosso ad alta luminosità per illuminare il terreno intorno alla stazione e un cicalino sonoro al termine della sessione di ripresa!
Però fatti due conti sulle difficoltà costruttive (ho il raro dono di avere le dita a prosciutto!) a fronte di una manciata di minuti buoni per l’inseguimento,  ho deciso di passare ad un approccio molto più semplice, compatto e forse perfino meno costoso, un semplice derotatore di campo equatoriale.
Oggi la tecnologia di lavorazione dei materiali permette di avere un motore passo-passo demoltiplicato fino a 0,018° (o 64.8” d’arco se preferite) per step, equivalenti a 20 000 step per un singolo giro ad un costo veramente basso. questo si traduce in uno step ogni 4,308 secondi: TempoSiderale/(StepGiro)=86164.0419/20000=4.308
Sfruttando poi le peculiarità di alcuni circuiti pilota per i motori passo-passo come i Pololu DRV8825 che permettono di suddividere i singoli passi in micropassi più piccoli (il DRV8825 consente fino a 32 micropassi per step!) si ottengono veramente dei risultati incredibili: fino alla risoluzione teorica di inseguimento di ben 2 secondi d’arco 1 !
Un sistema siffatto basta che abbia l’asse di rotazione correttamente allineato col Polo Celeste, esattamente come si impone a qualsiasi altro sistema di inseguimento equatoriale, mentre ogni sbilanciamento di peso può essere compensato con un peso equivalente opposto come si usa nelle analoghe montature. In pratica è lo stesso identico schema di una qualsiasi montatura equatoriale, dove si richiede di compensare il moto terrestre con una rotazione opposta, solo che qui non sono necessarie le stesse doti di precisione e stabilità previste per le montature equatoriali professionali che sono sottoposte a carichi maggiori .
Tutto questo si traduce in una minore complessità geometrica, un notevole risparmio nella potenza di calcolo e di conseguenza una maggiore disponibilità di questo per altre operazioni, come la registrazione dei dati meteo e dei dati di scatto per scopi scientifici e così via.
Anche impostare tempi diversi come il tempo sinodico lunare, il tempo solare e così via è molto più facile ed immediato rispetto alle tavolette equatoriali che sono espressamente progettate in funzione di un’unico tempo, in genere quello siderale. In queste modificare la velocità di inseguimento può introdurre errori agli errori già sottolineati in precedenza.
Questo mio nuovo approccio 2 aumenta la flessibilità di inseguimento, come ad esempio quella richiesta per le eclissi, i transiti 3 e così via.

Insomma: se continua così, ce sarà pure da divertisse (come usiamo dire noi romani)!
Cieli sereni.


Note:

Osservate per la prima volta le onde gravitazionali con LIGO

A_long_time_ago

… c’era una coppia di buchi neri, uno di circa 36 volte la massa del Sole mentre l’altro era un po’ più piccolo, di sole 29 masse solari. Questi due pesantissimi oggetti, attratti l’uno dall’altro in una mortale danza a spirale hanno finito per fondersi insieme, come una coppia di ballerini sul ghiaccio che si abbraccia in un vorticoso balletto. Il risultato però è un po’ diverso: qui ne è uscito un oggetto un po’ più piccolo della semplice somma algebrica delle masse: 62 masse solari soltanto.
Il resto è energia dispersa, non molta per la verità date le masse in gioco, pressappoco come quanta energia potrebbe emettere il Sole nell’arco di tutta la sua esistenza. Solo che questa è stata rilasciata in un singolo istante come “onde gravitazionali“.

Ma cos’è un’onda gravitazionale?

spacetime-02La visione dello spazio che da sempre conosciamo è composta da tre uniche dimensioni, larghezza, altezza e profondità; o x, y e z, se preferite. Il tempo, un fenomeno comunque misterioso, fino agli inizi del XX secolo era considerato a sé. Una visione – poi confermata dagli esperimenti di ogni tipo – fornitaci dalla Relatività Generale è che il tempo è in realtà una  dimensione anch’essa del tessuto dello spazio; una quarta dimensione. insieme alle altre tre 1. Fino alla Relatività Generale di Einstein si era convinti che una medesima forza, la gravità, fosse responsabile sia della caduta della celebre mela apocrifa di Newton, che quella di costringere la Luna nella sua orbita attorno alla Terra e i pianeti nelle loro orbite attorno al Sole. Nella nuova interpretazione relativistica questa forza è invece vista come una manifestazione della deformazione di  uno spazio a quattro dimensioni, lo spazio-tempo, causata dalla massa degli oggetti. Così quando la mela cade, nella Meccanica Classica (essa è comunque ancora valida, cambia solo l’interpretazione dei fenomeni) la gravità esercitata dalla Terra attrae la mela verso di essa mentre allo stesso modo – e praticamente impercettibile – la Terra si muove verso la mela, nella Meccanica Relativistica è la mela che cade verso il centro di massa del pianeta esattamente come una bilia che rotola lungo un pendio e la Terra cade verso il centro di massa della mela nella stessa misura prevista dai calcoli newtoniani.
La conseguenza più diretta di questa nuova visione dello spazio-tempo unificato, è che esso è, per usare una metafora comune alla nostra esperienza, elastico; ossia si può deformare, stirare e comprimere. E un qualsiasi oggetto dotato di massa, se accelerato, può increspare lo spazio-tempo. Una piccola difficoltà: queste increspature dello spazio-tempo, o onde gravitazionali, sono molto piccole e deboli – la gravità è di gran lunga la più debole tra le forze fondamentali della natura –  tant’è che finora la sensibilità strumentale era troppo bassa per rivelarle. Se volessimo cercare un’analogia con l’esperienza comune, potremmo immaginare lo spazio quadrimensionale come la superficie di un laghetto a due dimensioni, mentre la quarta dimensione, il tempo, è dato dall’altezza in cui si muovono le increspature dell’acqua. Qualora buttassimo un sassolino l’altezza della increspatura sarebbe piccola, ma man mano se scagliassimo pietre con maggior forza e sempre più grosse, le creste sarebbero sempre più alte. Però vedremmo anche che a distanze sempre più crescenti dall’impatto, queste onde scemerebbero di altezza e di energia, disperse dall’inerzia delle molecole d’acqua 2; alcune potrebbero perdersi nel giro di pochi centimetri dall’evento che le ha  provocate, altre qualche metro e così via. Alcune, poche,  potrebbero giungere alla riva ed essere viste come una variazione di ampiezza nell’altezza del livello dell’acqua del laghetto e sarebbero quelle generate dagli eventi più potenti che avevamo prodotto in precedenza. Queste nello spazio quadrimensionale sono le onde gravitazionali e esse, siccome non coinvolgono mezzi dotati di una massa propria per trasmettersi come ad esempio il suono che è solo un movimento meccanico di onde trasmesse attraverso un mezzo materiale,  possono muoversi alla velocità più alta consentita dalla fisica relativistica:c, detta anche velocità della luce nel vuoto.

Il grande protagonista: LIGO

E’ stato LIGO-Laser Interferometer Gravitational-Wave Observatory (in italiano, Osservatorio Interferometro laser per onde gravitazionali) il protagonista di questa straordinaria scoperta: uno strumento formato da due strumenti gemelli, uno a Livingston (Louisiana) e l’altro a Hanford (Washington), a 3000 chilometri di distanza dal primo. Sono due gli interferometri, perché i dati possono venir confrontati e confermati: se entrambi gli strumenti rilevano lo stesso disturbo, allora è improbabile che sia legato ad un terremoto oppure a dei rumori di attività umana. Il primo segnale che conferma l’esistenza delle onde gravitazionali è stato rilevato dallo strumento americano Ligo il 14 settembre 2015 alle 10, 50 minuti 45 secondi (ora italiana), all’interno di una finestra di appena 10 millisecondi.

 David Reitze del progetto LIGO ha annunciato al mondo la scoperta delle onde gravitazionali: “We have detected gravitational waves. We did it!”. Crediti: LIGO

David Reitze del progetto LIGO ha annunciato al mondo la scoperta delle onde gravitazionali: “We have detected gravitational waves. We did it!”.
Crediti: LIGO

Ed eccole qui, in questo diagramma: l’onda azzurra, captata da LIGO di Livingston e l’onda arancio, captata da LIGO di Hanford. Sono sovrapponibili, il che ci dice che sono la stessa onda captata dai due strumenti gemelli. E’ la firma della fusione dei due buchi neri supermassicci con la conseguente produzione di onde gravitazionali. In altre parole, questa è la firma del nuovo buco nero che si è formato dai due precedenti e, come è accennato anche più sopra, le tre masse solari che mancano dalla somma delle due masse che si sono fuse assieme dando vita al nuovo buco nero di 62 masse solari si sono convertite in onde gravitazionali.
Volete udire il suono di un’onda gravitazionale? Sì, certo che è possibile…. E’ straordinario pensare che queste onde rappresentano la fusione di due buchi neri in uno nuovo e proviene da distanze incredibilmente grandi, in un’epoca altrettanto remota: un miliardo e mezzo di anni  fa.

Le prove indirette

Il decadimento orbitale delle due stelle di neutroni PSR J0737-3039 (qui evidenziato dalle croci rosse) corrisponde esattamente con la previsione matematica sulla produzione di onde gravitazionali.

Il decadimento orbitale delle due stelle di neutroni PSR J0737-3039 (qui evidenziato dalle croci rosse) corrisponde esattamente con la previsione matematica sulla produzione di onde gravitazionali.

La prima prova indiretta dell’esistenza delle onde gravitazionali si ebbe però nel 1974. In quell’estate, usando il radio telescopio di Arecibo, Portorico, Russel Hulse e Joseph Taylor scoprirono una pulsar che generava un segnale periodico di 59 ms, denominata PSR 1913+16. In realtà, la periodicità non era stabile e il sistema manifestava cambiamenti 3 dell’ordine di 80 microsecondi al giorno, a volte dell’ordine di 8 microsecondi in 5 minuti.
Questi cambiamenti furono interpretati come dovuti al moto orbitale della pulsar  4 attorno ad una stella compagna, come previsto dalla Teoria della Relatività Generale. Di conseguenza, due pulsar, in rotazione reciproca una attorno all’altra, emettono onde gravitazionali, in perfetta linea con la Relatività Generale. Per questi calcoli e considerazioni, Hulse e Taylor ricevettero nel 1993 il Premio Nobel per la fisica.

La presenza di una qualsivoglia stella compagna introduce delle variazioni periodiche facilmente rivelabili nel segnale pulsato della stella che i radioastronomi sono in grado di misurare con precisione inferiore ai 100 microsecondi. Giusto per farsi un’idea, immaginiamo di prendere il Sole e di farlo diventare una pulsar. Dal suo segnale pulsato, gli astronomi sarebbero in grado di rilevare la presenza di tutti i pianeti che orbitano attorno a questo Sole-pulsar, grazie al fatto che ogni pianeta causa uno spostamento del centro di massa del Sole di un certo valore espresso in microsecondi. La Terra per esempio, che si muove lungo la sua orbita ellittica, produce uno spostamento del centro di massa del Sole di ben 1500 microsecondi! 5


Per saperne di più:

La prima pulsar doppia” articolo di Andrea Possenti dell’INAF-Osservatorio Astronomico di Cagliari, pubblicato sul numero di Le Stelle, marzo 2004.

La notizia, pubblicata sul Physical Review Letters, porta i nomi di B. P. Abbott e della collaborazione scientifica di LIGO e VIRGO[cite]http://journals.aps.org/prl/abstract/10.1103/PhysRevLett.116.061102[/cite].

 


Note: