Quante stelle ci sono nella Via Lattea?

In questo periodo sto portando avanti un altro progetto, per questo non aggiorno più spesso di quanto vorrei queste pagine. Essendo comunque questa l’era dei social network, su Facebook c’è una bellissima pagina che comunque io tengo aggiornata con articoli e notizie a cui potete far riferimento.
Tornando allo sviluppo dell’altro progetto, mi sono impantanato su un annoso problema che spesso i professionisti evitano come la peste, mentre i profani insistono a chiederlo: quante stelle ci sono nella Via Lattea?

The Milky Way

Il cuore della Via Lattea. Credit: Il Poliedrico

Guardando il cielo stellato da una località – sostanzialmente – priva di inquinamento luminoso in una notte di novilunio si riescono a scorgere tantissime stelle e una strana fascia un po’ più luminosa che da sempre chiamiamo Via Lattea. Questa è la nostra galassia, un agglomerato di miliardi di stelle (tra cui il nostro Sole) a forma di spirale e che a noi è concesso di vedere solo dalla sua periferia, di taglio e per giunta dall’interno. Già comprenderne la forma è stato un difficilissimo esercizio, un po’ come se dalla cima della cupola di S. Pietro cercassimo di capire la pianta della città di Roma e magari anche quanti abitanti abbia la città, nel caso volessimo rispondere alla domanda del titolo.
Ora, nessun censore con un po’ di sale in zucca si cimenterebbe in una impresa così ardua, ci sono sistemi molto più comodi, pratici e funzionali piuttosto che arrampicarsi in cima al Cupolone per capire com’è fatta Roma. Purtroppo gli astronomi non posseggono altri mezzi migliori per comprendere la nostra galassia se non quello di scrutare il cielo dalla Terra o dai sui immediati dintorni. Studiando i  moti delle stelle e degli ammassi globulari più lontani dal centro galattico si è potuta fare una stima dell’intera massa della Galassia in base alla Legge di Gravitazione Universale. A questo punto, studiando le altre galassie a noi più vicine e cercando quelle più simili come massa e luminosità si è potuto comprendere la morfologia della Via Lattea. Guardando solo da dentro non sarebbe stato possibile farlo.

Conoscere la massa totale della Via Lattea può fornirci una stima di massima delle stelle che raccoglie. Ma la massa di una qualsiasi galassia non è equamente distribuita nelle stelle e la nostra non fa eccezione.
Si parla di massa viriale 1 per una certa massa racchiusa entro un certo volume. Però a concorrere a questo parametro partecipa un po’ di tutto: stelle ormai morte da eoni, nubi di gas interstellare, piccoli corpi che non hanno potuto accendere le reazioni nucleari di fusione al loro interno e così via fino all’immancabile e sconosciuta materia oscura che permea ogni cosa in grado di produrre un campo gravitazionale.
In realtà il metodo comunque è semplice, possiamo testarlo con i parametri orbitali del Sole che dista dal centro galattico 8,33 kpc (un chiloparsec equivale a 3263 anni luce) [cite]http://arxiv.org/abs/0810.4674[/cite] e vi ruota attorno ad una velocità di 220 km/sec. e applicando le semplice Legge di Keplero \(M={d_o}^3/{p_o}^2\).  Esprimendo la distanza \(d_o\) in unità astronomiche ( \(1,72\times 10^9\)) e  il periodo orbitale in anni(\(2,33\times 10^8\)) si hanno: $$\frac{{1,72\times 10^9}^3}{{2,33\times 10^8}^2} \rightarrow 9,36\times 10^{10}$$ masse solari. Ciò significa che nel volume racchiuso dall’orbita del Sole ci sono qualcosa come ben 93 miliardi di masse solari. Va da sé che queste cifre sono approssimative, l’orbita del Sole non è proprio circolare e anche una minuscola differenza nei valori dei parametri da me usati qui sopra comporta stime di massa molto diverse.
In più la Via Lattea è molto più grande dell’orbita del Sole che si ritiene essere circa a metà strada tra il centro galattico e il limite stellare visibile che è approssimativamente intorno ai 17 kpc dal centro. Un calcolo più accurato richiederebbe che siano considerati anche gli effetti gravitazionali dovuti alla massa della Galassia esterna all’orbita del Sole, che poi non è poi così poca come si potrebbe essere portati a credere. Infatti misurando la velocità relativa delle galassie satellite della Via Lattea è stato calcolato che la maggior parte della massa della Galassia non è concentrata nei suoi confini visibili ma pare che sia diffusa in uno stato di gas caldissimo che si estende per almeno altri 100 kpc [cite]http://arxiv.org/abs/1205.5037[/cite].

NGC 7331 (qui in alto) è spesso citata come una galassia gemella della Via Lattea. In basso invece la forma dedotta da William Herschel nel 1785. All'epoca si credeva che il Sole fosse nei pressi del centro.

NGC 7331 (qui in alto) è spesso citata come una galassia gemella della Via Lattea. In basso invece la forma dedotta da William Herschel nel 1785. All’epoca si credeva che il Sole fosse nei pressi del centro.

Questo è ben evidente nelle altre galassie, dove la stima della massa viriale è ben diversa (tra dieci e le cento volte tanto) da quella che appare invece dalla sola massa stellare visibile che si può calcolare usando il metodo che si rifà alla ben nota correlazione tra massa e luminosità (\(M/L\)) che vale in linea di massima per le singole stelle, ma che in questo caso si può usare con una buona approssimazione anche per le galassie, tenendo ben presente però che a questa scala di distanze solo le stelle più luminose contribuiscono alla luce galattica.

Così si hanno ben due stime molto diverse della massa di una galassia, una viriale che tiene conto di tutta la materia (barionica e non barionica) presente e quindi stelle, gas e polveri, pianeti e corpi substellari, oggetti ormai degeneri e buchi neri, e così via, che è diretta funzione del volume studiato; e quella bolometrica, legata cioè alla luminosità complessiva della galassia ma che, per le galassie più vicine, offre forse un quadro più preciso della massa esclusivamente stellare, a patto di conoscere con buona approssimazione il grado di estinzione della luce delle sorgenti più deboli e  una ragionevole stima della percentuale delle stelle più visibili rispetto al totale delle altre.
Questi valori sono dipendenti dal tasso di formazione stellare, le quantità di gas e polveri coinvolte nel fenomeno dell’estinzione della luce, l’età della galassia e così via, ma che per fortuna possiamo vedere e calcolare, essendo noi stessi abitanti di questa Galassia. Un ottimo strumento del genere si chiama IMF (Initial Mass Function) o funzione di massa iniziale 2, una funzione empirica (basata cioè principalmente sulle osservazioni) che descrive la distribuzione delle masse in un gruppo di stelle. Infatti tutte le proprietà principali (energia irradiata o luminosità, volume, massa, raggio etc) e l’evoluzione di una stella sono strettamente legate alla sua massa e questo rende l’IMF un eccellente strumento nello studio di grandi quantità di stelle [cite]http://adsabs.harvard.edu/doi/10.1086/145971[/cite].
Nel corso degli anni il lavoro originale di Salpeter ha subito modifiche, sono state aggiunte delle sostanziali migliorie ma il concetto è rimasto lo stesso: partite da una stima accurata della luminosità galattica nei dintorni del Sole legata ad una coerente funzione di massa e da lì estrapolare il numero delle stelle presenti nella Via Lattea.

[table id=69 responsive=scroll/]

Grafico ricavato dalla tabella qui sopra.

Grafico ricavato dalla tabella qui sopra.

Far coincidere ora tutti questi dati grezzi e apparentemente incoerenti può contribuire a risolvere il rebus iniziale ma non dà una risposta definitiva che può essere significativamente diversa a seconda dei valori espressi dalle diverse campagne osservative.
Il modello qui preso in considerazione indica che tra il 30 e il 40% dell’intera massa della Via Lattea entro i 2 kpc dal centro sia racchiusa nel suo rigonfiamento centrale (bulge in inglese), mentre la massa dell’alone sia almeno un ordine di grandezza più piccola rispetto a questo. Il peso del Buco Nero Centrale e del gas del suo alone sono inclusi nella massa viriale totale (\(1,26\times^{12}\)), come tutti gli altri oggetti che emettono poca o nulla radiazione elettromagnetica, come le stelle ormai morte e la materia non barionica che rappresenta circa \(4\times 10^{08}M_{\odot}\) (McMillan, 2011 [cite]http://arxiv.org/abs/1102.4340[/cite]).
Una serie di calcoli basata sulla distribuzione delle masse stellari nei pressi del Sole e applicata alle componenti principali della Galassia (zona centrale, disco e alone), restituiscono grossomodo i valori comunemente accettati per la Via Lattea: \(1,88\times 10^{11}\) non lontano quindi dai \(2\times 10^{11}\)  (200 miliardi) comunemente accettati in letteratura.
Ovviamente questi numeri sono il risultato di semplificazioni e ipotesi che comunque potrebbero non essere del tutto corrette, come assumere che la IFM sia ovunque la stessa quando invece potrebbe essere diversa tra le varie regioni della Galassia e le Popolazioni Stellari dominanti (l’alone e buona parte del nucleo centrale sono composti da stelle di Popolazione II, il disco sottile è dominato dalle stelle di Popolazione I mentre la parte più esterna del disco, conosciuta come disco spesso, è più eterogeneo).

Contare quante stelle ci sono nella Via Lattea anche se è un lavoraccio comunque si può, e qualcuno deve pur farlo. Ma il rischio di perdere il conto è molto alto, ci vuole molta pazienza: 1 … 2 … 3 …


Note:

La curiosa storia della curva di luce di KIC8462852, Alieni? Non credo

Immagine artistica della pulsar PSR B1257+12 con i pianeti. Credit: Wikipedia

Immagine artistica della pulsar PSR B1257+12 con i pianeti. Credit: Wikipedia

Come avevo scritto nel mese scorso e poi successivamente su un mio post sulla piattaforma di giornalismo sociale Medium.com, che peraltro vi invito a seguire, la storia di  KIC 8462852 (intanto soprannominata  Tabby’s Star (Stella di Tabby), in onore all’astronoma Tabetha Boyajian che per prima si era impegnata in questa ricerca) rappresenta un’autentica sfida per gli astronomi e gli appassionati.
Nei giorni scorsi non si sono fatti attendere i risultati della campagna di ascolto del SETI Institute, che aveva impegnato l’Allen Telescope Array per studiare la stella alla ricerca di eventuali radiosegnali extraterrestri [cite]http://goo.gl/2fhrze[/cite] emessi da un’ipotetica struttura artificiale supposta dall’astronomo Jason Wright per spiegare le anomalie nella curva di luce dell Stella di Tabby.
Dopotutto una civiltà avvastanza evoluta da considerare di costruire uno sciame di Dyson avrebbe accesso a un livello di \(1\times 10^{27}\) watt di energia. Anche supponendo che una piccolissima frazione fosse dedicata alle trasmissioni omnidirezionali (come ad esempio dai radiofari), questi dovrebbero comunque essere rivelabili. Purtroppo l’analisi dei dati dimostrano che tra le frequenze di 1 e 10 Ghz che dal sistema della stella non proviene alcun segnale rilevabile. Questo automaticamente non può escludere a priori l’ipotesi di Wright, in fondo la struttura potrebbe essere stata abbandonata millenni fa oppure i Costruttori usano una tecnologia diversa dalle onde elettromagnetiche per comunicare o anche più semplicemente abbiamo ascoltato le frequenze sbagliate.
Ma come l’astronomo del SETI Seth Shostak ha fatto notare, “La storia dell’astronomia ci dice che ogni volta che abbiamo pensato di aver trovato un fenomeno dovuto alle attività di extraterrestri (la storia dei Little Green Man rivelatesi poi un fenomeno assolutamente naturale – le pulsar – ne è un esempio n.d.a.), ci sbagliavamo. Ma anche se è molto probabile che lo strano comportamento di questa stella sia dovuto alla natura piuttosto che agli alieni, la prudenza chiede di controllare anche queste ipotesi.

Simulazione della rapida rotazione della stella Altair ottenuta con lo strumento MIRC del C.H.A.R.A. di Mt. Wilson. qui sono evidenti gli effetti del teorema di von Ziepel sulla relazione fra gravità superficiale e flusso radiativo di una stella.

 

rotatorMa forse il comportamento della Stella di Tabby potrebbe essere ancora più banale di quanto non si sia pensato. L’idea l’ha suggerita James Galasyn sul suo blog Desdemonadespair.net e ripresa da Paul Gilster sul suo Centauri-Dreams.
L”ipotesi, a mio avviso molto interessante, si rifà ad una serie di documenti [cite]http://goo.gl/tMTRre[/cite] [cite]http://goo.gl/82ewqR[/cite] riguardo a PTFO 8-8695b, un ipotetico pianeta supposto orbitare attorno ad una stella di pre-sequenza principale particolarmente schiacciata ai poli dalla sua alta velocità di rotazione 1. Ora la conferma di questo pianeta non sembra ancora confermata ma gli studi sulle flessioni di luce indotte hanno prodotto dei risultati molto interessanti.
Quando una stella è dotata di un moto rotatorio importante (come mostra il filmato qui sopra e l’immagine qui a fianco) la stella subisce un aumento delle dimensioni in direzione del suo equatore e uno schiacciamento dei poli dovuto alla forza centrifuga.  Dal punto di vista fisico questo comporta che in prossimità dei poli la stella appaia più luminosa che all’equatore tanto più è basso il suo periodo di rotazione; questo fenomeno si chiama Oscuramento Gravitazionale.
Senza dilungarmi troppo su questo curioso fenomeno una tipica curva di luce di un transito ha la classica forma a U più o meno pronunciata dalla distanza del piano dell’osservatore rispetto al piano dell’orbita 
e più o meno profonda dovuta alle dimensioni del pianeta rispetto alla stella [cite]http://goo.gl/RDWPKB[/cite].

Geometria della precessione nel caso di una stella oblata (in rosso) con un singolo pianeta in orbita (blu).  Le frecce indicano la direzione precessione di precessione "positivo" nella matematica. In realtà la precessione è negativo, cioè, retrograda, o in senso orario come visto da sopra il polo nord stellare.

Geometria della precessione nel caso di una stella oblata (in rosso) con un singolo pianeta in orbita (blu).  Le frecce indicano la direzione precessione di precessione “positivo” nella matematica. In realtà la precessione è negativo, cioè, retrograda, o in senso orario come visto da sopra il polo nord stellare.

Ma KIC 8462852 possiede un periodo di rotazione bassissimo, appena 21 ore, sufficienti però a distorcere significativamente la forma della stella e rendere importanti gli effetti previsti dall’oscuramento gravitazionale. Noi ancora non conosciamo la direzione dell’asse di rotazione della stella e se magari possiede un pianeta in orbita abbastanza stretta e con sufficiente massa da provocare un effetto di precessione, e né se giaccia su un piano orbitale molto diverso dalla linea dell’osservatore 2. Magari la stella possiede anche un campo magnetico piuttosto inclinato rispetto al suo asse di rotazione da provocare aperiodici episodi di hotspot o di macchie stellari persistenti lungo la linea dell’osservatore. Una combinazione di questi fattori potrebbe spiegare le irregolarità e con qualche sforzo anche l’ampiezza dei picchi negativi di luminosità come quelli registrati.

Le curve di luce estrapolate da Jason Barnes e il suo gruppo per il caso PTFO 8-8695.

Le curve di luce estrapolate da Jason Barnes e il suo gruppo per il caso PTFO 8-8695.

Anche se attorno a PTFO 8-8695 non è stato – forse ancora – rivelato alcun pianeta, i metodi di indagine e di studio del prof. Barnes possono rivelarsi preziose per risolvere il mistero delle stravaganti curve di luce della Stella di Tabby.


Note:

 

KIC 8462852, una stella piuttosto bizzarra

Può suonare strano ma i primi a sperare che si trovino tracce di vita aliena non sono solo gli ufologi (alcuni di loro sono davvero in gamba e fanno un’opera di disinganno davvero notevole) ma gli astronomi. Significherebbe il compimento di quel pensiero che da Anassagora, (V secolo a.C.) attraversando 2500 anni di storia è giunto fino a noi ancora irrisolto: “siamo davvero soli nell’Universo?”.

Credit Gianluca Masi - VirtualTelescope

Credit Gianluca Masi – VirtualTelescope

Nel 1967 l’allora studentessa Jocelyn Bell e il suo relatore Antony Hewish scoprirono uno strano segnale pulsato nel cielo che non sembrava essere prodotto da alcuna interferenza di origine terrestre, ma che piuttosto appariva provenire da un punto preciso del cielo.
Quella sorgente, ora nota col poco esotico nome di PSR B1919+21, fu chiamata LGM-1 dall’acronimo di Little Green Men (Piccoli Omini Verdi). All’inizio infatti Bell e Hewish non riuscivano a spiegarsi quella strana pulsazione di 1,33 secondi e specularono sulla natura artificiale del fenomeno, attribuendola appunto a ipotetici Piccoli Omini Verdi. In seguito venne compreso che quello che sembrava un radiofaro extraterrestre era in realtà un fenomeno prettamente naturale abbastanza comune nell’Universo. Oggi se ne conoscono tantissime, le chiamiamo pulsar, e sappiamo che sono prodotte dall’interazione del campo magnetico delle stelle di neutroni (oggetti super compatti, residuo di supernovae di tipo II, aventi la massa del Sole ridotta in uno spazio di pochi chilometri) con la loro rotazione.


[table id=67 /]

In questi giorni sta accadendo un po’ lo stesso. Tutto parte dal telescopio spaziale Kepler, che per oltre quattro anni ha misurato la luminosità di oltre 150 mila stelle in uno spazio di appena 100 gradi quadrati di cielo in direzione della costellazione del Cigno. Tra queste c’è una stella, TYC 3162-665-1, ribattezzata nella nomenclatura di Kepler come KIC 8462852 [cite]http://goo.gl/h5G4Dr[/cite].
La cosa curiosa di questa stella è la sua bizzarra curva di luce che mai ci si aspetterebbe da una stella di sequenza pincipale così comune (circa il 22% della popolazione galattica è di tipo F).

[gview file=”https://ilpoliedrico.com/wp-content/uploads/2015/10/curva-di-luce.pdf” height=”600px” width=”99%”]/span>

Come si vede dalla tabella qui a fianco KIC 8462852 è una stella in sequenza principale, un po’ più  massiccia e calda del Sole. Una stella come molte altre, se non fosse che, secondo Kepler, è soggetta a aperiodici cali di luce molto intensi, che vanno dal 15 fino al 22%, come dimostrato qui sopra (i dati sono comunque pubblici e sono disponibili qui [cite]http://goo.gl/ywDlLc[/cite]).
Nei miei precedenti articoli [cite]http://goo.gl/738Z1p[/cite] ho descritto come calcolare le dimensioni di un esopianeta partendo dal calo di luce registrato. In questo caso specifico per giustificare un calo di circa il 20% come quelli talvolta registrati occorre un oggetto grande circa sette decimi del Sole: circa 492 mila chilometri di raggio. Una cosa enorme!
Inoltre, se avreste la costanza di guardare la mole dei dati pubblici di Kepler su questa stella di cui ho fornito il link, vedreste che ci sono diverse decine di questi misteriosi e potenti cali e che non sembrano affatto periodici.  In più, se fossero causate da uno o più oggettti sferici, ci si aspetterebbe che la forma di questi affievolimenti fosse regolare. Invece no, la forma che Kepler rivela che questi sono irregolari anche come forma.
Eliminata l’ipotesi di guasto strumentale, dopotutto solo KIC 8462852 ha restituito questi straordinari solo per questa stella, non resta che cercare altre spiegazioni all’interno di quel sistema stellare.
Come si evince dal documento PDF qui sopra, è evidente il segnale seghettato dovuto alla veloce rotazione della stella, solo 21 ore per compierne una; l’irregolarità presente in questo segnale forse è dovuta alla presenza di macchie stellari anche se questo non giustifica tutto il resto.
Un altro aspetto da non sottovalutare è che KIC 8462852 è stella di classe F3, non è quindi longeva quanto il Sole, può restare nella Sequenza Principale meno di 3 miliardi di anni circa.

Ipotesi naturali

La prima ipotesi che viene in mente è che la stella sia una variabile irregolare, ma la sua presenza nella sequenza principale cozza con tutto ciò che sappiamo sulle stelle variabili. Le variabili intrinseche (cioè non dovute alla presenza di altri compagni stellari come Algol) sono quelle stelle in cui le variazioni di splendore sono dovute a variazioni nelle condizioni fisiche come la temperatura, la densità o il volume.  In genere queste condizioni si verificano quando la stella sta per abbandonare – o lo ha già fatto – il ramo principale del diagramma di Hertzsprung-Russell, ma non sembra che questo sia il caso di KIC 8462852. Ipotesi scartata.
Al momento della loro nascita tutte le stelle sono circondate dai resti della nebulosa protostellare, il che potrebbe  spiegare benissimo gli improvvisi e irregolari sbalzi di luce registrati. Però  in tal caso dovrebbe essere presente anche un eccesso nella radiazione infrarossa dovuto alla presenza di queste polveri, cosa che le immagini riprese nell’infrarosso escludono (vedi il documento). Anche questa ipotesi è scartata.
La presenza di giganteschi pianeti che tutti insieme riescono a coprire almeno il 40% della superficie del disco è improponibile, e comunque il segnale prodotto sarebbe completamente diverso da quello registrato e una analisi armonica avrebbe rivelato la loro presenza. Altra ipotesi scartata.

Un incontro ravvicinato

Allora cosa provoca quegli strani picchi di luce? Semplicemente non lo sappiamo, potrebbero essere il risultato di una collisione planetaria che ha sparso i detriti in orbita alla stella, ma anche in questo caso la luce della stella dovrebbe riscaldare queste polveri tanto da restituire un eccesso di radiazione infrarossa, ma così appunto non è, nessun eccesso IR è stato finora registrato.
Un’altra idea potrebbe essere che la sua nube di Oort, o parte di esssa, stia in qualche modo collassando verso la stella e che miriadi di comete stiano precipitando verso di essa. Molte comete sublimerebbero ancor prima di raggiungere il periastro e verrebbero spazzate via come gas e polvere dal vento stellare, dando origine all’irregolarità dei picchi. Così si spiegherebbero le strane irregolarità nel flusso luminoso e forse anche la non presenza di una emissione IR in eccesso, ma per giustificare così i cali di luce della stella occorrono tante, ma tante comete in caduta contemporaneamente.
Una analisi della stella nell’infrarosso effettuata con l’United Kingdom Infrared Telescope (UKIRT) alle Hawaii mostra una lieve protuberanza che da altre analisi effettute con l’ottica adattiva all’infrarosso del telescopio Keck (banda H a 1,65 micron) si mostra essere una debole stellina  di classe M2V, grande cioè appena 4 decimi del Sole. Supponendo che essa sia alla stessa distanza di KIC 8462852 allora la distanza tra i due astri risulta essere di sole 885 UA, circa 132 miliardi di chilometri. Ancora non esistono dati sufficienti per stabilire se le due stelle siano legate gravitazionalmente o meno; ammettendo comunque che non lo fossero e che la nana rossa viaggiasse a 10 chilometri al secondo attraverso il sistema solare principale, le occorrerebbero 400 anni per attraversarlo tutto, un tempo quindi abbastanza lungo per portare scompiglio alla nube di Oort di KIC 8462852 fino forse farla collassare almeno in parte verso la stella principale, giustificando così la sua bizarra curva di luce .

Ipotesi artificiale

Jason Wright, un astronomo della Penn State University ha invece una teoria ancora più bizzarra: megastrutture artificiali in orbita alla stella capaci di catturarne parte dell’energia per renderla disponibile ad una civiltà aliena che si attesterebbe intorno al II grado della scala di Kardashev, capace cioè di manipolare l’energia di un’intera stella [cite]http://goo.gl/Egh6aU[/cite].
Non necessariamente, come da molti siti indicato a sproposito, questa o questte strutture dovrebbero dar luogo a una Sfera di Dyson, una struttura sferica che avvolge tutta la stella per raccoglierne tutta l’energia: primo, è assai improbabile trovare all’interno dei sistemi stellari tutta la materia necessaria per avvolgere completamente la stella ad una distanza utile da comprendere una ecosfera abitabile, e anche se fosse, molto probabilmente questo sarebbe un guscio troppo sottile per essere funzionale (almeno per i nostri standard tecnologici). Poi c’è l’eterno inconveniente delle leggi della termodinamica che spesso troppi tendono a dimenticare: affinché ci sia un lavoro deve esserci una differenza di potenziale, il che significa che tutta l’energia deve essere reirradiata nello spazio esterno nella sua forma più degradata 1, cosa che sicuramente non sarebbe passata inosservata alle diverse survey nell’infrarosso o ai radiotelescopi nelle lunghezze d’onda maggiori [cite]http://goo.gl/tMH1yF[/cite].
Strutture ad anello o specchi sparsi nelle varie orbite sarebbero strutture molto più facili da costruire e più funzionali rispetto a una Sfera di Dyson e, se complessivamente fossero abbastanza grandi, in questo caso almeno 7,60 x 1011  km2, ovvero 760 miliardi di chilometri quadrati, potrebbero giustificare questi cali di luce, ma lo stesso dovrebbe essere presente un picco IR per giustificare la radiazione degradata riemessa nello spazio.
Infine c’è l’età della stella, che per una stella grande 1,6 volte il Sole è comunque ridotta a un terzo. Anche ammettendo l’esistenza di un pianeta adeguato alla vita in un’orbita simile a quella di Marte (ricordo che la stella è più calda del Sole e quindi anche l’ecosfera è un po’  più grande della nostra) e con due terzi di vita della stella alle spalle (2 miliardi di anni), esso è probabilmente ancora troppo giovane perché possa ospitare forme di vita intelligenti da dar luogo ad una civiltà così evoluta da costruire gigantesche strutture artificiali in orbita alla loro stella. Si potrebbe obbiettare che questi costruttori potrebbero provenire da qualche altra parte, ma anche questa è solo una giustificazione che finisce per complicare quella precedente.

Conclusioni

Jason Wright ha fatto bene a pubblicare su ArXiv le sue speculazioni [cite]http://goo.gl/rSQ26H[/cite] e anche a citare il caso di KIC 8462852 tra i casi che richiedono più attenzione. È comunque sempre giusto prendere scientificamente in considerazione ogni ipotesi, nessuna esclusa.
Ma qui sempre di ipotesi si tratta, non di certezze come purtroppo in questo momento molti altri siti e media – anche autorevoli – stanno facendo. Anche se l’ipotesi del collasso della nube di Oort della stella appare piuttosto striminzita, per ora è la migliore che si possa fare. Far passare per vera l’esistenza di gigantesche strutture artificiali intorno alla stella solo sulla base che le altre ipotesi finora postulate sono deboli, non è fare scienza. Fin quando l’ipotesi di Wright rimane solo un’altra ipotesi, spacciarla per vera è un insulto all’intelligenza.
Solo il tempo, e altri dati, potrannno darci una risposta sensata; le speculazioni fatte a caso giusto per scroccare un click o un like sui social network no.

NASA Confirms Evidence That Liquid Water Flows on Today’s Mars | NASA

Le evidenze c’erano, e molte. Ma ancora era mancata la prova definitiva, la pistola fumante, come amano dire gli americani.
La sporadica presenza di metano nell’atmosfera richiamava processi abiotici di serpentinizzazione che necessariamente richiedono la presenza di acqua per accadere; gli studi di Catherine Weitz del Planetary Science Institute che identificò i segni della possibile presenza d’acqua allo stato liquido nel lontano passato di Marte all’interno di un gruppo di canyon chiamato Noctis Labyrintus 1 2;  La stessa presenza di perossido di idrogeno e vapore acqueo nell’atmosfera richiedono che l’acqua sia in qualche modo presente sul pianeta 3. Lo stesso rover Curiosity aveva mostrato conglomerati di ciottoli arrotondati come se fossero stati levigati dall’acqua [cite]http://goo.gl/FK8rx8[/cite] ma dove questa fosse finita, se dispersa nello spazio per fotodissociazione, congelata nel permafrost nei pressi dei poli o nel sottosuolo, non era possibile, fino ad ora, saperlo. L’unica cosa certa era, ed è ancora, che Marte è un luogo freddo e molto secco.

Ma adesso abbiamo la prima prova che dell’acqua liquida appare sporadicamente durante i mesi estivi marziani. Nell’attesa di poterne sapere di più vi rimando alla pagina della stessa NASA.

New findings from NASA’s Mars Reconnaissance Orbiter (MRO) provide the strongest evidence yet that liquid water flows intermittently on present-day Mars.

Sorgente: NASA Confirms Evidence That Liquid Water Flows on Today’s Mars | NASA

Stephen Hawking: “La razza umana per sopravvivere dovrà abbandonare la Terra” 

Come dar torto al nobile scienziato? Tutti gli indicatori economici ci dicono che superiamo già ora, con il 40% della popolazione mondiale vive con meno di cinque dollari al giorno, la produzione delle risorse di almeno due pianeti come la Terra.1
Al di là della mia – e credo anche vostra – condanna morale a quel ‘1% che detiene oltre 98% della ricchezza del pianeta, l’anno scorso la spesa militare mondiale ha raggiunto i 1776 miliardi di dollari,2 mentre ne basterebbero appena 30-50 per eradicare la fame nel mondo.[1. Le ondate migratorie che in questi giorni stanno interessando l’Europa mostrano tutta l’ipocrisia dei programmi di sostegno dei paesi occidentali.  Praticamente tutti gli aiuti agroalimentari vengono riconvertiti in armi a sostegno di governi corrotti foraggiando in questo modo le multinazionali delle armi piuttosto che sfamare le popolazioni più povere, e anche i fondi stanziati dalle Organizzazioni non Governative raggiungono queste solamente per il 20%.]
Con un budget di quasi 2000 miliardi di dollari all’anno, nel giro di soli 20 anni sarebbe possibile avviare la colonizzazione permanete dello spazio vicino, creare fabbriche, fattorie orbitali e habitat completamente autonomi che potrebbero fornire spazio per ridurre la pressione demografica su questo pianeta. Potremmo sfruttare le risorse della fascia interna degli asteroidi, della Luna e così via.
Un altro grande tema affrontato con intelligenza da Hawking riguarda gli sviluppi dell’intelligenza artificiale. Come anche lui suggerisce, è necessario che gli interessi di quella artificiale coincidano con i nostri, altrimenti potremmo essere sopraffatti dal frutto del nostro stesso ingegno.  Se invece fosse correttamente guidata, l’intelligenza artificiale potrebbe essere una preziosa alleata dell’umanità, soprattutto nella colonizzazione spaziale e nella tutela di questo nostro vecchio mondo, che potrebbe tornare ad essere un paradiso.
Leggetevi l’interessante articolo al link qui sotto.

“Sento il dovere di informare la gente riguardo alla scienza”. Stephen Hawking, 73 anni, nonostante la malattia degenerativa che lo ha reso paralitico è più lucido che mai. “

Sorgente: Stephen Hawking: “La razza umana per sopravvivere dovrà abbandonare la Terra” (FOTO)

Notte europea dei ricercatori 2015, ci siamo!

visualSempre più spesso sentiamo parlare nei notiziari di disastri naturali o addirittura ci è capitato di vivere quei tristi momenti in prima persona. Spesso questi tristi eventi mietono vittime tra la popolazione e sono causa di ingenti danni economici. Purtroppo fenomeni come il Global Warming e la depauperazione delle risorse e del territorio possono trasformare anche  un banale forte acquazzone agostano in una catastrofe (come di recente è capitato in Toscana e in buona parte del Sud Italia).
Per risolvere questi problemi non basta parlarne ma occorrono soluzioni concrete. Non basta riempirsi la bocca di decrescita felice o proporre il ritorno alla bucolica vita preindustriale come spesso si vede inneggiare sui social network e nei convegni New Age.
Non è pensabile una regressione agli schemi di vita preindustriale, e in un mondo sempre più interconnesso parlare di localismo non è proprio il caso. La risposta sta nella ricerca, anche in quella più lontana dalle ricadute pratiche immediate che cade nell’abusato termine di ricerca di base. Chi chiede oggi a cosa serve cercare acqua su Marte, scoprire quanto pesa il bosone di Higgs, la natura dei neutrini solari, lo fa con lo stesso spirito di chi criticava Alessandro Volta che faceva sgambettare le zampette di rane dissezionate, di chi dava del pazzo – invitandolo ad andare magari alla Longara – a Guglielmo Marconi 1 con i sui esperimenti con i rocchetti di filo, a chi pensava che fosse inutile lo studio dei fenomeni fotoelettrici di Einstein.
Se oggi abbiamo le telecomunicazioni a lunga distanza, se possiamo programmare le sonde ai confini del Sistema Solare, la telemedicina e tantissime altre scoperte ed invenzioni che hanno arricchito questo mondo lo dobbiamo a quei veri Indagatori del Mistero del passato, molti dei quali non hanno nemmeno una targa che li ricordi. E se vogliamo che ci sia ancora un domani, che quelle che ancora ci sembrano sfide impossibili come contrastare le tempeste, sconfiggere malattie per ora incurabili, resistere alla forza dei terremoti e così via, dobbiamo avere fiducia nella scienza e nella ricerca. Le basi per uno Sviluppo Sostenibile partono proprio da qui.
banner-700x300E proprio per vedere lo stato dell’arte della ricerca scientifica italiana, il prossimo 25 settembre ci sarà la Notte Europea dei Ricercatori, un appuntamento [cite]http://goo.gl/T1KYMD[/cite] annuale giunto alla sua decima edizione, un importante progetto promosso e finanziato dalla Commissione Europea nell’ambito del programma europeo Horizon 2020. che chiuderà la Settimana della Scienza, una kermesse di 7 giorni di eventi e dibattiti scientifici organizzate da molte università italiane. Unica coordinatrice della serata per l’Italia è l’Associazione Frascati Scienza.
Gli eventi previsti in tutta Italia sono tantissimi, è praticamente impossibile raccoglierli e descriverli tutti, qui potrete trovare solo un elenco di alcuni di questi previsti per il 25 settembre [cite]http://goo.gl/3f2y2U[/cite], oppure provate a chiedere il programma presso le segreterie della vostra università più vicina e, nel caso fosse una di quelle che ancora non partecipano, beh chiedete di farlo nelle prossime edizioni 🙂


Note:

BRIGHT 2015

Questo simpatico spot per la Notte Europea dei Ricercatori anno 2015 è stato realizzato dall’università di Pisa, coordinatrice per la Toscana dell’importante evento promosso e finanziato dalla Commissione Europea nell’ambito del programma europeo Horizon 2020 e coordinato per l’Italia  dall’Associazione Frascati Scienza.
Il 25 settembre prossimo, ossia il quarto venerdì del mese, saranno proposti al pubblico incontri, dibattiti e dimostrazioni dalle diverse università europee con lo scopo di promuovere il mondo della ricerca, oggi più che mai impegnato per risolvere le sfide future: dalla sostenibilità (il tema principale di questa manifestazione), fino alle emergenze climatiche in atto, solo per citarne un paio. A questo appuntamento internazionale, che ha raggiunto quest’anno la sua decima edizione, si sono aggiunte dal 2012 le Università toscane.
Il  titolo scelto per la notte toscana è lo stesso dello scorso anno, BRIGHT, un aggettivo inglese che indica l’atto di splendere, di luccicare, giusto per sottolineare il tenace lavoro dei ricercatori di questa regione nel cercare di comprendere tutto quello che ancora è inspiegato e sconosciuto1. Con questa scelta si è anche voluto rendere omaggio all‘Anno Internazionale della Luce, proclamato dall’Assemblea Generale dell’ONU  (International Year of Light and Light-based Technologies o IYL) [cite]http://www.light2015.org/Home.html[/cite].
BRIGHT 2015 prevede attività in ben sette città toscane: Firenze, Pisa, Siena, Arezzo, Cascina, Lucca, Prato.

Molti altri sono gli atenei italiani impegnati nella Notte Europea dei Ricercatori, come è possibile consultare dalla pagina interattiva dedicata [cite]http://ec.europa.eu/research/researchersnight/events_it.htm[/cite]. Il programma completo per l’Università di Siena-Arezzo è disponibile qui [cite]http://www.unisi.it/bright2015[/cite], mentre per le altre università impegnate nello stesso evento potrete rivolgervi ai loro rispettivi siti o alle loro segreterie universitarie.

Notte Europea dei Ricercatori 2015

manifesto webSettembre.

A settembre per molti giovani riprende l’anno scolastico, molti di loro saranno scolari, termine che deriva dal latino schola, derivato a sua volta dal termine dell’antico greco σχολεῖον (scholèion), da σχολή (scholḗ). Il termine greco indicava il tempo libero, ma anche l’azione di fermarsi e confrontarsi. Era il luogo dove la figura del Maestro (dal latino magister, cioè sommo, dotto) intratteneva i nuovi allievi e gli studenti (dal latino studere, sforzarsi di fare). Non era per forza un luogo al chiuso, anzi. Era ovunque ce ne fosse bisogno: davanti a una bottega, in un parco, in piazza o in un teatro. Quello era lo spirito che alimentava il sapere e la conoscenza.
È in questo modo che i maestri dell’antichità come Aristotele, Pitagora, Platone e su fino a Newton, Galilei e poi Heisenberg, Einstein e Hawking intrapresero il loro cammino nella conoscenza, prima scolari, poi studenti ed infine ricercatori (cercare con insistenza). Quella conoscenze che poi arricchite dalle loro esperienze e il loro pensiero viene ancora oggi trasmesso alle generazioni successive.
Più o meno lo stesso percorso verrà riproposto l’ultimo venerdì di settembre con la Notte Europea dei Ricercatori, anno 2015. Un appuntamento annuale giunto alla sua decima edizione, un importante progetto promosso e finanziato dalla Commissione Europea nell’ambito del programma europeo Horizon 2020 e coordinato per l’Italia  dall’Associazione Frascati Scienza. Questo appuntamento sarà la conclusione della serie di eventi della Settimana della Scienza che Frascati Scienza offre al pubblico a partire dal 20 settembre (qui è possibile consultare l’intero programma)
Oltre alle naturali sedi storiche di Roma e Frascati, la Notte Europea dei Ricercatori 2015 vede  impegnate anche altre realtà universitarie di altre regioni, come è possibile consultare dalla pagina interattiva dedicata [cite]http://ec.europa.eu/research/researchersnight/events_it.htm[/cite]. Qui i ricercatori italiani torneranno un po’ alle origini dell’agorà e racconteranno al pubblico che vorrà ascoltarle le loro esperienze, i loro progetti e il futuro che sapranno donarci. Medicina, agricoltura, telecomunicazioni, fisica ma anche economia, sociologia, musica e così via; 4tutte materie che comunque avranno come tema di fondo la Sostenibilità, lo stesso argomento dello scorso anno, ma che si è dimostrato essere talmente vasto che è stato impossibile raccontarlo in una volta sola.

L’eterno Paradosso di Fermi (III parte)

Mentre nella prima puntata mi sono concentrato sul percorso che parte dalla vita e arriva fino allo sviluppo – almeno sulla Terra – di  una civiltà tecnologicamente avanzata, nella seconda credo di aver ampiamente dimostrato che un realistico piano di colonizzazione galattica non è poi di così difficile attuazione per una società abbastanza avanzata e motivata. Ma allora come rispondere alla domanda di Fermi “Dove sono gli altri?”?
La risposta quasi sicuramente è racchiusa nell’ultima incognita dell’Equazione di Drake: il fattore \(L\) che si occupa di stabilire quanto possa durare una civiltà tecnologicamente evoluta (qualcuno suggerì almeno 10 mila anni). Finora si è sostenuto che essa sottintendesse la capacità di una società tecnologicamente avanzata ad evitare l’autodistruzione per disastri ambientali estremi, guerre nucleari, etc.,  ma dobbiamo prendere in considerazione che possono esserci anche molti altri ostacoli, di certo meno violenti, che comunque portano al collasso di una civiltà in tempi molto più brevi.

Schemi ripetitivi nelle società umane

Le rovine di Tadmor (Palmira), che in aramaico significa Palma. Era conosciuta anche come La sposa del deserto, dove Oriente e Occidente si incontravano sulla Via della Seta.

Le rovine di Tadmor (Palmira), che in aramaico significa palma. Era conosciuta anche come La sposa del deserto, dove Oriente e Occidente si incontravano sulla Via della Seta. Qui sono fiorite e poi estinte molte civiltà  del passato.

Continuando a ipotizzare che il percorso evolutivo della Terra sia tipico anche per il resto dell’Universo, si può ritenere che dall’analisi delle diverse esperienze sociali umane sia possibile estrapolare modelli plausibili che possono poi essere utili a dare una risposta al dilemma di Fermi.
Il caso del drammatico crollo dell’Impero Romano (seguito da molti secoli di declino della popolazione, deterioramento economico  e regressione intellettuale) è ben noto, ma non era che uno dei tanti cicli di  ascesa e crollo delle civiltà europee. Prima della civiltà greco-romana, erano fiorite altre civiltà (come quella minoica e quella micenea) che erano risorte da crolli precedenti e avevano raggiunto livelli molto avanzati di civiltà prima del crollo definitivo. La storia della Mesopotamia è in realtà la somma di varie civiltà sorte e crollate in quei luoghi come Sumer,  l’Impero Akkad, Assiria, Babilonia, etc. [cite]http://goo.gl/i43lrZ[/cite]. Lo stesso può dirsi dell’Antico Egitto, delle diverse civiltà anatoliche (come gli Ittiti), in India (imperi Maurya e Gupta) e nel sud-est asiatico (Impero Khmer). Ci sono inoltre evidenti analogie tra le diverse dinastie dell’Antico Egitto e le varie dinastie imperiali cinesi, dove periodi di splendore si alternavano a periodi di crollo politico e socio-economico.
Anche il Nuovo Mondo non era immune a questi cicli storici. Le civiltà Maya, Inca e Atzeca traevano origine da altre culture precedenti, ma il loro collasso definitivo avvenne col contatto con la civiltà europea che si stava espandendo nel nuovo continente. Le culture nord americane della valle del Mississippi (Cahokia), del sud-ovest americano (Anasazi, Hohokam e Pueblo) e la complessa civiltà polinesiana [1.

Il Triangolo Polinesiano

TongatopTra il 3000 e il 1000 a.C. popolazioni di lingua austronesiana si diffusero in tutte le isole del Sud-Est asiatico. Probabilmente il loro ceppo comune è da cercarsi negli  aborigeni dell’isola di Taiwan (la popolazione attuale dell’isola è di origine cinese perché questa fu al centro di una migrazione su larga scala nel corso del 1600). Le più antiche testimonianze archeologiche mostrano l’esistenza di questa cultura – chiamata Lapita – già 3500 anni fa e che sia apparsa nell’Arcipelago Bismarck , a nord-ovest della Melanesia. Si sostiene che questa cultura sia stata sviluppata là o più probabilmente, di essersi diffusa dall’isola di Taiwan. Il sito più orientale per i resti archeologici Lapita recuperati finora si trovano nelle isole di Mulifanua e Upolu. Il sito Mulifanua ha un’ età di circa 3.000 anni stabilita con la datazione C14.
Nel giro di soli tre o quattro secoli circa tra il 1300 e il 900 a.C., la cultura Lapita – che includeva anche la ceramica, si diffuse 6.000 km più a est dell’arcipelago di Bismarck, fino a raggiungere le Figi, Tonga e Samoa. Intorno al 300 a.C. questo nuovo popolo polinesiano si diffuse da est delle Figi, Samoa, Tonga fino alle Isole Cook, Tahiti, le Tuamotu e le Isole Marchesi.
Tra il 300 e il 1200 d.C. (la data è incerta), i polinesiani scoprirono e si installarono nell’Isola di Pasqua. Questo è supportato da evidenze archeologiche, nonché dall’introduzione di flora e fauna coerente con la cultura polinesiana e le caratteristiche climatiche di quest’isola. Intorno al 500 d.C., anche le Hawaii vennero colonizzate dai polinesiani mentre solo intorno all’anno 1000, quest’ultimi colonizzarono infine la Nuova Zelanda.] si estinsero da sé dopo secoli di dominio culturale.
Tutto questo dimostra che l’evoluzione dei gruppi sociali segue da sempre dei cicli di crescita e declino, come dimostrano anche altri studi sulle società neolitiche [cite]http://goo.gl/Qg0dcC[/cite]. Di solito questi cicli di espansione e declino (della durata media di 300-500 anni) non sono frutto di eventi eccezionali come epidemie o cataclismi naturali, ma sono il frutto di una rapida crescita della popolazione unito allo sfruttamento naturale oltre i livelli sostenibili.

I modelli sociali

Uno serio studio sugli schemi evolutivi dei gruppi sociali è stato fatto nel 2012 da Safa Motesharrei e Eugenia Kalnay dell’Università del Maryland e Jorge Rivas dell’Università del Minnesota [cite]http://goo.gl/Em99bt[/cite]. Gli autori hanno ridotto gli schemi sociali a poche macrovariabili capaci comunque di descrivere abbastanza fedelmente le dinamiche che governano una società:

  • Popolazione (elite e popolo)
  • Risorse (esauribili e rinnovabili)
  • Ricchezza (risorse redistribuite)
[virtual_slide_box id=”4″]

Il modello adottato per questo studio è anche quello che più si ritrova in natura: il Modello Predatore vs Preda; per questo è anche quello che probabilmente può descrivere di più una possibile società extraterrestre. Infatti il modello predatore-preda – in questo caso gli esseri umani e la natura – è piuttosto comune presso anche molte altre specie animali.

In sintesi, i risultati ottenuti indicano che i crolli sociali storici (come l’eccessivo sfruttamento delle risorse naturali e/o una forte disparità economica tra le diverse classi sociali) possono essere causa di un crollo completo delle civiltà, come è avvenuto per l’Impero Romano, i Maya e la società Lapita.

L’unicità che contraddistingue la specie umana dagli altri animali è la sua capacità di accumulare grandi eccedenze (cioè ricchezza) per tamponare in parte o del tutto i periodi di scarsità di risorse quando esse non possono più soddisfare le esigenze abituali di consumo. Questa è la stessa capacità che ha permesso alla specie umana di creare strutture sociali più complesse del semplice branco e l’evolversi dell’intelligenza.
Queste strutture di solito prevedono che sia una elìte a controllare la quantità di eccedenze  prodotte e a redistribuire il minimo utile al resto del gruppo. Questa stratificazione sociale è importante per la dinamica del ciclo di evoluzione del gruppo sociale. Senza entrare nel dettaglio delle simulazioni, che comunque consiglio a chiunque fosse interessato di leggere, gli scenari presi in considerazione sono diversi e ognuno di loro presenta delle criticità evidenti che comunque convergono tutte verso uno scenario di crollo quando le sfruttamento delle risorse pro capite (ricchezza distribuita) supera il tasso di risorse  (pro capite) disponibile;  in fondo questo è quel che succede a tutti gli organismi viventi in natura quando le risorse diventano troppo scarse. Proverò a riassumere i quattro quadri che a mio giudizio sono i più indicativi:

  1. Modello sociale diseguale
    Una qualsiasi redistribuzione ineguale di ricchezza porta alla stratificazione sociale, dove l’elìte può permettersi di sopravvivere ai periodi di carestia a scapito del resto del gruppo che è invece destinato al declino dopo aver esaurito la sua parte di ricchezza. Il risultato è un crollo sociale, spesso accompagnato da episodi violenti e rifiuto di ciò che è stato, un po’ come avvenne con la Rivoluzione Francese. Un modo per invertire la tendenza verso il collasso richiede scelte politiche importanti come il controllo della crescita della popolazione e la riduzione delle diseguaglianze sociali.
  2. Modello sociale egalitario
    Anche una redistribuzione equa comunque non è affatto esente dal crollo sociale se la produzione di ricchezza supera la quantità di risorse disponibili; magari non è altrettanto brusca e violenta quanto la prima ipotesi ma lo scenario finale è comunque lo stesso: calo demografico e regressione culturale. Anche qui l’unica soluzione è che in qualche modo sia raggiunto un equilibrio tra risorse naturali consumate e quelle redistribuite.
  3. Modello sociale equilibrato
    Una qualsiasi società che impari a bilanciare la ricchezza prodotta con le risorse disponibili (non importa se il modello redistributivo sia equo o ineguale) non è esente da fenomeni di declino sociale, ma magari subisce oscillazioni più o meno ampie attorno ai valori che non le consentono affatto di evolversi (stagnazione sociale). In questo caso la destinazione di parte della ricchezza per progetti diversi alla semplice sopravvivenza del gruppo sociale potrebbe portare al suo crollo definitivo.
  4. Modello sociale espansionismo egalitario
    L’unico scenario che resta possibile è quello dell’espansione continua. Lungi da me giustificare scientificamente l’imperialismo europeo, resta comunque il dato che se l’Europa post-rinascimentale non avesse cercato altre vie per attingere risorse, non sarebbe sopravvissuta alle guerre al suo interno, mentre L’impero Romano segnò il suo destino quando decise di interrompere le sue conquiste, le risorse furono distratte per fronteggiare il malcontento interno e le elìte erano impegnate più a badare alle proprie ricchezze che alla cura dell’Impero.
    Quindi una società equa che si ponesse l’obbiettivo di espandere la sua area di sfruttamento delle risorse naturali disponibili è lo scenario a lungo termine preferibile, perché allontanerebbe da sé ogni rischio di conflitto sociale causato dalla stratificazione economica e dall’esaurimento delle ricchezze che potrebbero portare ad un crollo della civiltà, e sarebbe immune alla quasi altrettanto triste ipotesi della stagnazione del modello sociale equilibrato.

Ma quello che è più evidente è che se una qualsiasi civiltà inizia a erodere le risorse ambientali del proprio mondo troppo in fretta rispetto al naturale tasso di ricostituzione (come accade adesso per il caso terrestre) tende quasi inevitabilmente al collasso prima che possa acquisire la capacità di poter sfruttare l’inesauribile riserva di risorse posta al di fuori del suo pianeta.

Conclusioni

Dopo aver quindi ripercorso la vicenda terrestre, possiamo tentare di imporre qualche limite alle ipotesi di risposta alla domanda di Fermi.

  • Le attuali conoscenze scientifiche umane affermano che niente è più veloce della luce nel vuoto e che esplorare la galassia sarebbe certamente possibile ma unicamente a senso unico; anche le comunicazioni interstellari sarebbero comunque troppo lente per poter intavolare qualsiasi forma di dialogo con altre civiltà. Alla luce dell’importanza delle risorse naturali necessarie allo sviluppo di una civiltà planetaria è anche lecito supporre che una civiltà extraterrestre potrebbe considerare solo una grande perdita di tempo e spreco di risorse tentare intenzionalmente una qualsiasi forma di comunicazione con mezzi tradizionali (onde radio, laser etc).
  • Le condizioni per poter ospitare un pianeta di tipo terrestre nella nostra galassia esistono da almeno 8 miliardi di anni, anche se questo non significa necessariamente che ci siano pianeti  che ospitino o meno alcuna forma di vita.
  • Per la Terra sono occorsi 4 miliardi di anni prima che le più semplici forme di vita si evolvessero in organismi ben più complessi. Estrapolando questi dati verso altri mondi si può ragionevolmente ipotizzare che, se non avvengono fenomeni parossistici capaci di sterilizzare un pianeta come una supernova o un GRB vicino, oppure una improvvisa instabilità stellare o del sistema planetario, occorrono dai 4 ai 6 miliardi di anni per avere forme di vita complesse capaci di adattarsi – e adattare – l’ambiente circostante e sviluppare una qualche primitiva forma di consapevolezza.
  • Continuando ad usare lo stesso metro terrestre come paragone si ottiene che una qualche forma di intelligenza e tecnologia potrebbe essersi sviluppata su altri mondi tra gli 800 milioni e 5 miliardi di anni fa. Una civiltà così evoluta o potrebbe nel frattempo essersi estinta come illustrato in questo studio o aver trovato il modo  di prevenire il suo collasso imparando a gestire le sue risorse disponibili..

Anche se non è detto che il percorso vita – consapevolezza – intelligenza – tecnologia avvenga sempre e comunque su tutti i pianeti potenzialmente adatti, ognuna di queste condizioni deve superare delle criticità che possono compromettere uno qualsiasi degli stadi successivi. A fronte di qualche decina di milioni di pianeti potenzialmente disponibili forse in questo momento la Galassia può contare di ospitare una decina o forse meno di Civiltà tecnologicamente evolute tanto da dedicarsi all’esplorazione dello spazio e dotate di capacità di ascolto, ma questo porta a supporre che esse possono anche essere troppo lontane fra loro perché possa avvenire un qualsiasi contatto.


Note:

Global Warming: non è il Sole

Figura 1 - "Lo sport su un fiume ghiacciato" di Aert van der Neer Durante il Minimo di Maunder, diventò alquanto popolare pattinare sui fiumi gelati, come in questo dipinto. Il fiume è il Tamigi.  (Credit:l Metropolitan Museum of Art)

Figura 1 – “Lo sport su un fiume ghiacciato” di Aert van der Neer Durante il Minimo di Maunder, diventò alquanto popolare pattinare sui fiumi gelati, come in questo dipinto. Il fiume è il Tamigi. (Credit:l Metropolitan Museum of Art)

Esiste una certa correlazione tra il numero di macchie solari e la temperatura media del pianeta.
Il Sole è la fonte di energia che fa muovere l’intera atmosfera e  che quindi è in grado di determinare sia il tempo a breve termine (vedi le stagioni) che il clima nel lungo periodo. Pertanto è ovvio che qualsiasi cambiamento  nel tasso di energia emessa dal Sole e ricevuta dalla Terra è in grado di modificare il clima. Esiste un equilibrio dell’energia emessa dal Sole alla distanza della Terra, è la temperatura di equilibrio è di soli 255 kelvin, pari a -18° centigradi; questa sarebbe la temperatura se il pianeta non avesse una atmosfera in grado di trattenere il calore, cosa che invece per nostra fortuna ha. Infatti la temperatura media della Terra è ben più alta perché una parte della radiazione solare è trattenuta dai gas che compongono l’atmosfera, mentre complessivamente il pianeta riemette nello spazio una radiazione che corrisponde alla sua temperatura media.
Ma sappiamo anche che la temperatura media del globo non è affatto costante: variazioni nell’albedo (percentuale tra energia ricevuta e riflessa nello spazio), nell’inclinazione dell’asse di rotazione rispetto all’eclittica, variazioni nella composizione atmosferica, vulcanismo etc. per la Terra, mutazioni sulla quantità di energia irradiata dal Sole, come flares, macchie solari, vento solare etc. possono alterare il bilancio energetico terrestre e con questo la sua temperatura media.
Tra il 1614 e il 1715 il Sole manifestò un singolare periodo di quasi totale assenza di macchie solari (quiescenza). Questo coincise con un altrettanto singolare periodo di freddo in Europa e nel Nord America, gli unici luoghi dove i dati di temperatura erano presi con una certa continuità. Nel resto del mondo invece i dati di quel periodo erano ancora troppo discontinui per avere una certa validità scientifica. Quel periodo oggi è indicato come Minimo di Maunder.

Figura 2- ricostruita la media decennale del numero di macchie solari per il periodo 1150 BC-1950 AD (linea nera). L'intervallo di confidenza al 95% è indicato dallo sfondo grigio e il numero di macchie solari misurate direttamente sono mostrate in rosso. Le linee tratteggiate orizzontali delimitano i confini delle tre modalità suggerite (Grandi Minimi, regolari, e Grandi massimi) come definito da Usoskin et al.

Figura 2- ricostruita la media decennale del numero di macchie solari per il periodo 1150 BC-1950 AD (linea nera). L’intervallo di confidenza al 95% è indicato dallo sfondo grigio e il numero di macchie solari misurate direttamente sono mostrate in rosso. Le linee tratteggiate orizzontali delimitano i confini delle tre modalità suggerite (Grandi Minimi, regolari, e Grandi massimi) come definito da Usoskin et al.

A partire dalla fine del Minimo di Maunder, la presenza di macchie solari durante il ciclo undecennale del Sole è tornato a crescere, fino a registrare un picco, chiamato il Grande Massimo Moderno, tra il 1950 e il 2009.
Per registrare la presenza delle macchie solari gli astronomi si avvalgono di due metodi di indagine diversi: il Wolf Sunspot Number (WSN), messo a punto da Rudolf Wolf nel 1856 che combina il numero delle macchie solari col numero dei gruppi di macchie presenti sulla superficie del Sole, e il Group Sunspot Number (GSN), un metodo di calcolo che si basa unicamente sul numero di gruppi di macchie solari visibili, pensato per essere meno influenzato dalle singole interpretazioni dell’osservatore (meno rumore) rispetto alla precedente numerazione di Wolf e che permette di utilizzare anche le osservazioni più antiche fatte attraverso uno strumento ottico (prima metà del XVII secolo).
Questi due diversi metodi di calcolo producono risultati assai diversi. Ad esempio il GNS suggerisce che negli ultimi 300 anni il numero dei gruppi di macchie solari è in continua crescita fino al presunto Grande Massimo Moderno, in netto contrasto con i dati elaborati col metodo di calcolo di Wolf.
Questo andamento di continua crescita dell’attività solare evidenziato dal metodo GNS viene spesso indicato come l’unico responsabile del riscaldamento climatico da parte dei negazionisti del Global Warming perché andrebbe a modificare proprio il bilancio energetico ricevuto dalla Terra dal Sole.
Un gruppo di scienziati guidato da Frédéric Clette, dell’Osservatorio Reale del Belgio, Edward Cliver del National Solar Observatory e Leif Svalgaard dell’Università di Stanford hanno cercato di capire perché i due metodi apparivano così incongruenti dopo una certa data e hanno scoperto che le discrepanze tra la WSN e GSN erano provocate da un grave errore di calibrazione nel sistema GSN.
La soluzione di questo problema, il Sunspot Number Version 2.0 1, è stata presentata alla XXIX Assemblea Generale dell’Unione Astronomica Internazionale a Honolulu (3-14 agosto 2015) e corregge tutte le discrepanze tra i due metodi, mostrando che non c’è stato nessun reale aumento progressivo nel numero dei gruppi di macchie solari dal XVIII secolo in poi [cite]http://www.sidc.be/silso/datafiles[/cite]. Questo significa che dalla fine della quiescenza che corrispose al Minimo di Maunder, il flusso energetico solare è rimasto costante. Questo fa decadere l’ipotesi che il Global Warming sia dipeso dall’attività solare in aumento, ma allora cos’è che lo provoca?

Le analisi delle bolle d'aria intrappolate in antichi ghiacciai svelano la quantità di \1(CO_2\) presente nell'atmosfera nel passato. Durante le glaciazioni era tra i 180-200 ppm mentre durante le interglaciazioni non superava i 280 ppm. Questo valore è stato superato intorno al 1950 e ancora non si è arrestato raggiungendo i 400 ppm intorno al 2014. Credit: National Oceanic and Atmospheric Administration.

Le analisi delle bolle d’aria intrappolate in antichi ghiacciai svelano la quantità di \(CO_2\) presente nell’atmosfera nel passato. Durante le glaciazioni era tra i 180-200 ppm mentre durante le interglaciazioni non superava i 280 ppm.
Questo valore è stato superato intorno al 1950 e ancora non si è arrestato raggiungendo i 400 ppm intorno al 2014.
Credit: National Oceanic and Atmospheric Administration.

Come ho detto prima, il bilancio energetico della Terra può che essere alterato da due parti: dal lato Sole con l’energia irradiata, e dal lato Terra con l’energia trattenuta. I vulcani espellono quantità incredibili di aerosol e polveri nell’alta atmosfera col risultato di raffreddare temporaneamente il pianeta. L’albedo modifica la quantità di energia riflessa dal pianeta ma ad un aumento medio di temperatura corrisponderebbe in aumento del tasso di evaporazione degli oceani e quindi della copertura nuvolosa (effetto di feedback). Resta un solo altro indiziato primario: la composizione chimica dell’atmosfera; in particolare un gas: l’anidride carbonica, passata da meno di 280 ppm dell’era pre-industriale ai 400 ppm di oggi. L’anidride carbonica è in grado di trattenere la luce solare e di riemetterla a lunghezze d’onda maggiori, dove l’atmosfera è opaca.
Ecco spiegato qual’è la causa del Riscaldamento Globale, ma anche cosa la provoca: le emissioni antropiche di \(CO_2\) nell’aria che sono aumentate da quando l’umanità ha imparato ad usare le fonti di energia fossile. Più o meno le stesse quantità di anidride carbonica che gli alberi avevano sottratto dall’aria nell’arco di milioni di anni sono state liberate in appena due secoli di utilizzo dei combustibili fossili.

Il nuovo Sunspot Number Version 2.0 ha già saputo mostrarci che riguardo alle mutazioni climatiche in atto stavamo prendendo una sonora cantonata, mentre adesso si renderà necessaria una rilettura dei cicli climatici registrati nelle carote di ghiaccio e negli anelli degli alberi. Questo permetterà agli scienziati di estrapolare la storia dei cambiamenti climatici su scale temporali ben più lunghe e precise di quelle attuali, tutti strumenti necessari per lo sviluppo di nuovi e più congrui modelli climatici necessari per curare la febbre del Pianeta.


Note: