Poliedriche previsioni

il cielo il 5 marzo 2012 - Credit: Il Poliedrico

Tutti in questo periodo si abbandonano alle previsioni. Oroscopi, previsioni sportive, meteorologiche o di mercato 1 e, per quest’anno, ci si mettono pure i Maya con il loro calendario a termine il 23 dicembre prossimo venturo come una mozzarella a lunga conservazione!
Nell’attesa di assaggiare il prossimo panettone di Natale mi lancio anch’io per una volta nella moda delle previsioni e siccome più che sapere di essere un cattivo veggente sono soprattutto pigro nello scrivere, mi fermerò ad aprile (almeno la S. Pasqua i Maya ci permettono di festeggiarla):
Premesso che per quest’anno se rimarrete in Italia scordatevi le eclissi come abbiamo avuto quest’anno che sta per terminare, vediamo cosa ci offre il cielo nel 2012 e nel mese di

Gennaio:

Intanto informo i più temerari (l‘ho già detto: io sono pigro e freddoloso come tutti i vecchietti di questo mondo, quindi me ne starò a letto) che la prima metà del mese sarà dominata dallo sciame delle Quadrantidi, anche se la Luna Piena il giorno 7 disturberà non poco l’osservazione di questo ricco sciame; se vedrete una stella cadente in questo periodo mandate un pensierino agli jettatori della fine del mondo.
Il 2 del mese offrirà una bella congiunzione di Giove-Luna (poco dopo il 1° quarto) la cui distanza apparente sarà inferiore ai 5 gradi; non sarà poi molto, ma è pur sempre un bel colpo d’occhio.

Febbraio:

Il mese  non offrirà spunti particolarmente significativi, tranne forse che la Luna passerà vicino ad Aldebaran il giorno 2 e incontrerà Spica il 12 del mese in linea con Saturno.

Marzo:

Il 5 Mercurio sarà alla sua massima elongazione est – sarà visibile quindi al tramonto – in fila assieme a Giove (in alto) e Venere (nel mezzo). Una danza quella dei pianeti più luminosi che culminerà nella congiunzione del giorno 14, mentre il 24, cielo permettendo, al tramonto ritroveremo Venere e Giove e una sottilissima falce di Luna; questo sì che che sarà bello ammirare.

Intanto si preparano le condizioni per l’evento clou di questo primo quarto di anno: il 27 marzo Venere sarà alla massima elongazione est. Questo significa che sta per avvicinarsi alla Terra e, nonostante la sua falce illuminata rivolta verso di noi si stia assottigliando, per il breve periodo di circa un mese sarà estremamente luminosa: -4,5 / -4,7 di magnitudine!
Infatti ad aprile Venere sarà particolarmente luminosa, specie nei giorni attorno il 20 -25 aprile. Il 21 sarà Luna Nuova e il 22 sarà all’apogeo.
Quindi quali condizioni migliori per sperare di riuscire a vedere e fotografare l’Ombra di Venere 2?

Il Poliedrico augura Buone Feste

Tutto iniziò quasi per gioco. A distanza di due anni dall’avvio non avrei mai creduto di avere qualche lettore a cui potessero importare i miei pensieri, leggere quello che scrivo.
L’inizio è stato un po’ confuso, i primi post erano scritti con stile malfermo, insicuro. Ma grazie a Voi tutto è cambiato: Il Poliedrico è tra i primi 50 blog scientifici di questo paese secondo le classifiche di Wikio.it e la pagina dei fans su Facebook è in continua crescita da quando è nata oltre un anno fa.
E poi la collaborazione saltuaria con TuttiDentro e Gruppo Locale che hanno ospitato alcuni miei articoli come io ho ospitato alcuni dei loro, il dominio Il Poliedrico registrato, etc.
Per il futuro ci sono progetti per la crescita del Il Poliedrico interessanti: come lo studio dell’Equazione di Drake alla luce delle più recenti scoperte scientifiche ed altri di cui per ora ho solo il pensiero.
Per essere uno tanti blog non c’è male.

Auguri a Tutti, Buone Feste 🙂

 

Nuovi studi sul surriscaldamento del permafrost artico

Mentre i segnali di una catastrofe ambientale di enorme portata sta allarmando seriamente  gli scienziati, il  massimo interesse della politica mondiale pare concentrata su “escortate” come il mantenimento in vita dell’attuale modello di sviluppo economico piuttosto che il benessere del pianeta e la democrazia dei popoli. L’ideologia che è alla base del disastro planetario lungi dall’essere messa pubblicamente sotto accusa 1 viene ancora strenuamente difesa da ottusi ottuagenari  e i loro poco più giovani lacché, tant’è che tutte le conferenze internazionali sul clima sono miseramente fallite – l’ultima è quella di Durbans in Sud Africa – per miopi interessi di bottega.

Il dipartimento americano per l’energia (DOE) ha iniziato un programma di ricerca per indagare gli effetti sul clima se i 1500 miliardi di tonnellate di carbonio organico congelati nel permafrost della fascia artica (Siberia, Canada, Alaska, Nord Europa) dovessero essere scongelati dal riscaldamento globale 2.
Questo programma – dal costo di 100 milioni di dollari – si chiama Next-Generation Ecosystem Experiments (Ngee) e serve per sviluppare un raffinato modello di simulazione di come microbi del suolo, piante e acque sotterranee possono reagire e controllare l’immensa quantità di carbonio 3 immagazzinato nella tundra artica. Il modello climatico che uscirà da questo esperimento verrà incluso nei modelli previsionali dell’andamento climatico terrestre per i prossimi 50-100 anni.
Il programma cercherà di analizzare gli effetti del cambiamento climatico dalla più piccola scala molecolare fino alle dimensioni delle cellule climatiche ambientali che misurano dai  30 ai 100 km di lato.
Altre ricerche precedenti avevano stimato che un riscaldamento di 2,5 ° C nell’Artico entro il 2040 potrebbe causare il rilascio tra i 30 e i  63 miliardi di tonnellate di carbonio 4. Le attuali emissioni globali di CO2 derivate dalla combustione di combustibili fossili, la deforestazione e le altre attività umane sono stimate complessivamente di oltre 10 miliardi di tonnellate l’anno.
I ricercatori sono particolarmente preoccupati per il fatto che che il disgelo del permafrost rilascerà il carbonio nell’atmosfera principalmente sotto forma di metano 5, un gas serra molto più potente del biossido di carbonio, che potrebbe accelerare il riscaldamento globale con conseguenze difficilmente immaginabili 6.
La squadra di progetto Ngee coinvolgerà circa 50 ricercatori ed è una collaborazione tra i laboratori del dipartimento di energia nazionale e l’Università dell’Alaska Fairbanks.
Il programma Ngee probabilmente verrà esteso anche ad altri ricercatori internazionali che vorranno includere altre zone artiche fuori dall’Alaska.

Fonti:
http://www.nature.com/news/permafrost-science-heats-up-in-the-united-states-1.9681

Un cielo da favola: Hierbas Buenas © Stéphane Guisard

 Hierbas Buenas” Valley Petroglyphs (Night Time Lapse Movie)©  Stéphane Guisard

Oggi voglio condividere questo splendido time-lapse realizzato da Stephane Guisard e trasmesso nei mesi scorsi da blogs ben più importanti di questo, come ad esempio Bad Astronomy  di Phil Plait.

Questo è stato realizzato in Cile, al campo di petroglifi di ‘Yerbas Buenas‘ nella Valle Arcobaleno, vicino a San Pedro de Atacama.
Alcune di queste sculture – sono oltre il migiaio e antecedono l’Impero Incas – illuminate dalla Luna in  uno dei cieli più tersi e luminosi che abbia mai visto, sono visibili nel film. Provate a riconoscere alcuni oggetti celesti che vedete e  scrivetelo; intanto godetevi lo spettacolo!

Oltre il Modello Standard e il Bosone di Higgs

Francamente ancora non sappiamo se esista o meno il Bosone di Higgs, il famoso bosone portatore di massa delle particelle, quello che nel titolo di un suo libro 1 il fisico Leon Max Lederman aveva chiamato “maledetta particella”  (goddnam particle) e che un editore un po’ troppo moralista trovandola sconveniente la cambiò in “Particella di Dio”. Adesso un paio di recenti esperimenti pongono limiti alla sua esistenza.  Un po’ come dire “ non lo abbiamo ancora beccato, ma ci sono indizi che ci fanno credere che sia rinchiuso in quella stanza”.

In una conferenza stampa il 13 dicembre i ricercatori del CERN di Ginevra hanno annunciato che due diversi esperimenti 2  in corso presso il più grande acceleratore di particelle del mondo, il Large Hadron Collider (LHC) hanno posto limiti ben ristretti alle finestre energetiche in cui può essere verificata l’esistenza del bosone di Higgs.

Ma che cosa sarebbe esattamente il bosone di Higgs 3 ?
Il Modello Standard – che è l’evoluzione estrema della Meccanica Quantistica – descrive le basi di come le particelle elementari (fermioni e leptoni) interagiscono fra loro tramite bosoni di gauge, ovvero particelle che mediano, trasportano tre delle quattro forze fondamentali della natura:

  • la forza elettromagnetica (luce, magnetismo, elettricità) è mediata dai fotoni;
  • la forza nucleare forte (la forza che tiene uniti i quark per formare gli adroni – protoni e neutroni) è mediata dai gluoni;
  • la forza nucleare debole (responsabile del decadimento radioattivo  beta – decadimento del neutrone in protone) mediata dai bosoni W, Z e appunto il famoso bosone di Higgs.

La particolare natura della forza debole di interagire 4  sia con i leptoni che con i fermioni, sia con particelle cariche che particelle neutre, richiede appunto tre bosoni distinti per agire: uno per le interazioni cariche (W), uno per le interazioni neutre (Z) e uno (Higgs) per dare la massa a tutte le altre particelle, tranne i fotoni e i gluoni.
L’unica forza fondamentale che per ora rimane esclusa dal Modello Standard è la forza di gravità che verrebbe mediata a sua volta dal suo bosone: il gravitone.

Come funzionerebbe il bosone di Higgs?

Il bosone di Higgs fu teorizzato attorno al 1960 dal fisico Peter Higgs, ed altri,  per spiegare il modo in cui le particelle elementari acquistano massa a riposo.
Non è facile spiegare come questo avvenga senza ricorrere alla matematica, ma un fisico dell’University College di Londra, David Miller raccolse la sfida del ministro britannico della scienza, William Waldegrave che aveva indetto in proposito un concorso, in palio una bottiglia di champagne.
L’immagine suggerita da David Miller 5 è quella di un salone (lo spazio) pieno di persone (il campo di Higgs) che sono distribuite in maniera uniforme e impegnate a conversare ciascuna con il proprio vicino. All’improvviso questa festa viene animata dall’arrivo di un personaggio famoso (una particella) che attraversa la stanza. Tutte le persone vicine sono attratte da lui (la rottura di simmetria) e vi si affollano intorno. Man mano che il personaggio famoso si muove nella sala attrae altre  persone a lui più vicine mentre quelle che lascia alle sue spalle tornano nella loro posizione originale. A causa di questo affollamento aumenta la resistenza al movimento, in altre parole il personaggio famoso-particella  acquista la sua massa.

Il Large Hadron Collider - Credit:: Maximilien Brice

Per spiegare invece il concetto di bosone di Higgs, sempre Miller suggerisce di immaginare che all’improvviso, nello stesso salone pieno di gente, qualcuno faccia circolare una voce. Le persone più vicine la ascoltano per primi e si riuniscono per apprendere qualche dettaglio in più, quindi si voltano e si avvicinano alle altre persone nei paraggi per riferire quanto ascoltato. In questo modo la stanza viene attraversata da un’ondata di capannelli che si formano man mano e che a loro volta, come il precedente personaggio famoso, acquisiscono massa. Il bosone di Higgs sarebbe appunto questa rottura di simmetria nel campo di Higgs.
Nelle tre dimensioni, e con tutte le complicazioni relativistiche del caso, questo è in pratica il meccanismo postulato da Higgs. Al fine di dare alle particelle una massa, il vuoto si distorce a livello locale ogni volta che una particella si muove attraverso di esso provocando una rottura di simmetria. La distorsione – il raggruppamento del campo di Higgs intorno alla particella – genera la massa.
L’idea arriva direttamente dalla fisica dei solidi. Invece di un campo diffuso in tutto lo spazio, un solido contiene un reticolo cristallino di atomi con carica positiva. Quando un elettrone si muove attraverso il reticolo attrae gli atomi, causando un aumento di massa effettiva dell’elettrone fino a 40 volte più grande della massa di un elettrone libero.
A questo punto Il campo di Higgs postulato è una sorta di reticolo ipotetico nel vuoto che riempie il nostro Universo. Così si può spiegare perché le particelle Z e W che trasportano le interazioni deboli sono così pesanti, mentre il fotone che trasporta le forze elettromagnetiche sia senza massa. Ed è grazie a questa rottura di simmetria del vuoto che le particelle cominciano a interagire fra loro, acquisiscono massa e non possono viaggiare più veloci della luce.
Ma le analogie con la fisica dei solidi non finiscono qui: in un reticolo cristallino ci possono essere alterazioni locali che si muovono al suo interno senza il bisogno del transito di un elettrone che attrae gli atomi. Queste onde possono comportarsi esattamente come se fossero particelle. Queste sono chiamati fononi e anche loro sono bosoni.

Tuttavia, il Modello Standard può spiegare solo il 4% della materia e dell’energia contenute nell’universo.
Si presume che il resto sia fatto di materia oscura (23%) e l’energia oscura (73%). Questo significa che gli atomi costituiscono solo una netta minoranza di questo universo mentre il 96% ancora non è compreso nel Modello Standard, come non lo è del resto la gravitazione, la forza più diffusa nell’universo.
Nonostante i suoi successi predittivi, l’attuale Modello Standard è  una delle più brutte teorie proposte dalla fisica moderna.
Ha più di 19 parametri liberi, 3 serie di particelle ridondanti, 36 diversi tipi di quark e anti-quark, e una variegata collezione di gluoni, leptoni, bosoni, particelle di Higgs, particelle di Yang-Mills, etc.
Questo indica – e sono anche i suoi ideatori ad ammetterlo – che il Modello Standard non è certamente la teoria finale.
Al momento, l’unica teoria matematicamente auto-consistente in grado di fornire un quadro realmente unificato dell’universo è la teoria delle stringhe.
Questa Super Teoria del Tutto  non è ancora stata verificata, ma il Large Hadron Collider può finalmente trovare prove convincenti a favore di questa promettente teoria.
Il prossimo obiettivo per l’LHC potrebbe essere quindi individuare la materia oscura, quella sostanza invisibile che impedisce alle galassie di dissolversi.

Al di là delle origini del Sistema Solare

La scienza ha sempre cercato di rispondere alle più incredibili curiosità umane usando poche ma solide basi da cui partire. Adesso grazie al pensiero scientifico possiamo affermare di aver compreso a grandi linee la nascita e perfino la morte futura dell’Universo, la nascita del Sistema Solare, fino a quando il Sole si spegnerà in una piccola nana bianca tra circa 5 miliardi di anni 1.
Grazie agli studi paleontologici, biologici, chimici e fisici, siamo riusciti a ricostruire tutta la cronistoria della Terra, da quando era un polveroso sasso senza vita fino al meraviglioso mondo che è oggi.
Eppure gli scienziati non sono ancora sazi di sapere – d’altronde è bene che non lo siano mai, ci sono quelli che si domandano cosa c’era prima del Big Bang
2 o se possono esistere universi paralleli e come questi potrebbero essere.
Gary R. Huss invece si domanda più prosaicamente: quale tipo di stella ha dato origine alla nebulosa che ha creato il nostro sistema solare?
Questa può sembrare una domanda irrisolvibile ma invece la soluzione è molto più banale di quanto si pensi.

La zona centrale della Nebulosa dell’Aquila,

Analizzando le rocce terrestri, marziane, lunari e meteoriche è stato possibile per gli scienziati di farsi un’idea abbastanza precisa sull’abbondanza di certi elementi chimici piuttosto che altri nel sistema solare.

Senza scendere nel tedioso particolare sulle analisi dei rapporti tra i vari isotopi e radionuclidi 3 4 sparsi nei più vari campioni analizzati e conoscendo abbastanza bene i meccanismi della fusione nucleare che alimentano le stelle e che producono gli atomi più complessi di cui siamo composti, si possono calcolare quali tipi di reazione nucleare possono dar luogo a certe abbondanze.

L’immagine composita del resto di supernova G299.2-2.9. L’ampiezza della struttura è di circa 114 anni luce (Crediti: X-ray: NASA/CXC/U.Texas/S.Park et al, ROSAT; Infrared: 2MASS/UMass/IPAC-Caltech/NASA/NSF).

L’immagine composita del resto di supernova G299.2-2.9. L’ampiezza della struttura è di circa 114 anni luce (Crediti: X-ray: NASA/CXC/U.Texas/S.Park et al, ROSAT; Infrared: 2MASS/UMass/IPAC-Caltech/NASA/NSF).

Appunto studiando quali radionuclidi a vita breve  5 presenti all’inizio della storia del Sistema Solare 6 e la loro abbondanza relativa rispetto ai radionuclidi a vita lunga come l’uranio 238, il torio 232, il potassio 40 e così via, si può tentare di ricostruire la composizione chimica della nebulosa che dette origine al nostro sistema solare, primo e fondamentale passo per sapere cosa ci sia stato prima, ovvero quali potrebbero essere state le caratteristiche della stella – o stelle – che ha prodotto tutti gli elementi chimici più pesanti dell’idrogeno di cui tutti noi siamo costituiti.
Studiando i vari tipi di sintesi nucleare nei diversi casi di evoluzione stellare che arrivano a produrre i radionuclidi cercati, si è potuto stabilire che la massa limite va da 1 a 120 masse solari, un po’ vago come limite ma è già qualcosa.

Ma è possibile per una singola stella produrre i radionuclidi a vita breve scoperti nel sistema solare?
È poco probabile che una stella con una massa compresa tra le 20 e le 60 masse solari o una stella di massa intermedia del ramo asintotico delle giganti (AGB 7) sia la responsabile dei radionuclidi osservati.

La nebulosa “Occhio di Gatto” generata da una stella gigante tipo AGB.

Piccole stelle AGB non possono produrre abbastanza ferro 60. Una supernova di tipo II originata da una stella con una massa iniziale superiore a 20 masse solari produrrebbe troppo ferro 60 e troppo magnesio 53. Altre fonti come potrebbero essere novae, supernovae di tipo Ia, o il collasso del nucleo di una supernova O-Ne-Mg 8 o nane bianche non sembrano in grado di produrre radionuclidi a vita breve come quelli osservati nelle giuste proporzioni.
A questo punto la conclusione più probabile è che non sia stata una singola stella a generare la materia nebulare primordiale nelle proporzioni isotopiche rilevate, ma almeno due: una supernova di tipo II di massa inferiore o uguale a 11 masse solari e un’altra – probabilmente una stella di massa compresa tra 12 e 25 masse solari – che insieme hanno fornito gli elementi osservati all’incirca nelle proporzioni osservate.

Gary R. Huss. Ricercatore e direttore del laboratorio di chimica cosmica  WM Keck – Credit: Istituto  di Geofisica e Planetologia delle Hawaii.

Il traguardo che si è dato Gary Huss non è affatto semplice: ci possono essere stati molti processi che hanno potuto alterare in seguito il rapporto degli isotopi osservati nel sistema solare: la fase di preaccenzione del nostro Sole ha generato flussi di raggi X in grado di alterare molti rapporti isotopici, l’influenza dei raggi cosmici, e mille altri processi radiativi possono aver scombussolato il quadro originario della nebulosa primordiale.
Il suo sarà un lavoro terribilmente difficile ma che potrà dare immense soddisfazioni.

Comunque sarà bello scoprire che anche il Sole ha avuto due genitori.


Note:

 

 

Il rilancio del Progetto Seti passa da Kepler

l'Allen Telescope Array

Era l’ottobre di quest’anno che con una lettera ai partecipanti 1 al Progetto SETI che Eric Korpela, annunciava la riattivazione dell’Allen Telescope Array e spiegava quali ambiziosi obiettivi erano al centro del rilancio del progetto. Come già anticipato anche su questo sito, il desiderio di Jill Tarter era quello di studiare con l’ATA in quella precisa zona di cielo, quelle specifiche stelle che i risultati di Kepler hanno mostrato possedere pianeti comparabili come massa e dimensioni simili alla Terra dentro la zona Goldilocks 2, 3.

Adesso è confermato: l’Allen Telescope Array sta di nuovo cercando segnali radio come testimonianza di intelligenze extraterrestri scandagliando le stelle con un sistema planetario che Kepler ha scoperto.

Il direttore del Progetto SETI Jill Tarter. Credit: Sven Klinge.

Il telescopio spaziale Kepler con le sue scoperte ha potenzialmente rimodellando la nostra visione dell’universo. Questa è una eccezionale opportunità per le osservazioni SETI,” ha dichiarato Jill Tarter, direttore del programma SETI  “Per la prima volta possiamo puntare i nostri telescopi verso stelle che ospitano sistemi planetari – di cui almeno uno è simile alla Terra e che orbita nella zona abitabile attorno alla sua stella ospite. Questo è il tipo di mondo che potrebbe essere sede di una civiltà capace di costruire trasmettitori radio.

L’ATA era stato messo in stand-by lo scorso aprile col ritiro della ex partner del SETI Institute, lUniversità della California Berkeley,  per problemi di bilancio.

Berkeley è proprietaria del Hat Creek, nel nord della California in cui si trova l’ATA. Con i nuovi fondi recentemente acquisiti attraverso una massiccia campagna promozionale via Web e non solo, l’ATA ha potuto riprendere le osservazioni SETI là dove si era interrotta: esaminando le migliaia di nuovi candidati pianeti trovati da Kepler.

Massima priorità sarà data alla manciata di mondi scoperti finora che si trovano nella zona abitabile la loro stella, ovvero quella fascia orbitale dove le temperature sulla superficie di un pianeta consentono all’acqua di esistere allo stato liquido.

Ma Jill Tarter tiene a precisare che la Goldilocks non deve essere considerata invalicabile:

In SETI, come per tutte le ricerche, nozioni preconcette come le zone abitabili potrebbero essere degli ostacoli alla scoperta”, aggiunge Tarter “Così, quando avremo sufficienti  finanziamenti futuri dai nostri donatori, è nostra intenzione esaminare tutti i sistemi planetari trovati da Kepler“.

Le osservazioni dei prossimi due anni consentiranno l’esplorazione sistematica dei pianeti scoperti di Kepler nella finestra delle microonde da 1-10 GHz. L’ATA è l’unico radiotelescopio che può fornire l’accesso immediato a decine di milioni di canali in qualsiasi momento e ovunque in questa fascia di ben 9 miliardi di canali (ogni canale è largo appena un  1 Hz!).

Fino a poco tempo fa molte ricerche SETI erano focalizzate su limitate gamme di frequenza, tra cui un piccolo numero di osservazioni attorno alle frequenze  di transizione dello ione 3He+  a 8,67 Ghz, proposte nel 1993 dal team di Bob Rood (University of Virginia) e Tom Bania (Boston University) 4.

La ricerca iniziale dell’ATA sugli obbiettivi individuati da Kepler si concentrerà intorno alla banda 8,67 GHz, prima di passare ad esaminare gli altri miliardi di canali disponibili per l’osservazione.

Il successo della missione Kepler ha creato una straordinaria opportunità per concentrare la ricerca SETI. Mentre la scoperta dei nuovi esopianeti attraverso Kepler è sostenuta con i soldi del governo americano, la ricerca di intelligenze extraterrestri  in questi mondi può  essere svolta a casa da ciascuno di noi. E la nostra esplorazione SETI dipende interamente da donazioni private, per la quale siamo profondamente grati ai nostri donatori “, osserva Tarter.

Credo che adesso che l’Allen Telescope Array è tornato a lavorare come era stato promesso, altre donazioni non tarderanno ad arrivare, io l’ho fatto presso il sito SetiStars.

Il mistero delle supernovae Ia

La Supernova 1572 (la Nova di Tycho), una supernova di tipo Ia osservata nel 1572 dall'astronomo danese Tycho Brahe. (credit: NASA/CXC/JPL-Caltech/Calar Alto O. Krause et al.)

Tutto quello che sappiamo del nostro Universo lo abbiamo scoperto grazie all’analisi delle onde elettromagnetiche (luce visibile, onde radio, raggi X e gamma) che ci giungono dallo spazio, da altre stelle, galassie e nebulose lontanissime.
Ad esempio per sapere le dimensioni del cosmo si usano – superato il limite parallattico, attualmente circa 100 anni luce – le candele standard, ossia quegli oggetti di cui sono note le luminosità assolute a cui si applica poi la semplice legge dell’inverso del quadrato della distanza 1.
Per le zone di questa galassia e per poche altre galassie vicine si usa un tipo particolare di stelle variabili chiamate Cefeidi. Le Cefeidi sono stelle giganti che hanno una particolarità di inestimabile valore per un astronomo: il loro ciclo di variabilità è strettamente connesso alla loro luminosità: per cui analizzando la curva di luce di questo tipo di variabili si conosce automaticamente anche la luminosità assoluta, esattamente quello che occorre per essere una candela standard.
Il meccanismo fisico che è alla base della variabilità di una Cefeide è ben noto, ma lo stesso non può dirsi dell’altra candela standard usata in cosmologia: le Supernovae di Tipo Ia, usate dove non è possibile individuare una Cefeide.

Gli scenari possibili per la formazione di una supernova di tipo Ia

Le supernovae sono stelle che esplodono al termine del loro ciclo vitale generando una luminosità migliaia di volte più grande della galassia a cui appartengono, e quelle del tipo Ia – lo si desume anche in questo caso dalla curva di luce e dallo spettro elettromagnetico che emettono – hanno la particolarità di essere tutte molto simili come luminosità assoluta (magnitudune circa -19,3 per tutte), il che le rende ottime candele standard per le distanze cosmologiche, ossia al di fuori del nostro Gruppo Locale.
Per certo di questa classe di supernovae sappiamo che sono il risultato di un processo fisico in cui alcune nane bianche o stelle di neutroni 2 per qualche meccanismo finora poco chiaro,superano il limite di Chandrasekhar – che è quasi 1,4 masse solari. Questo è il limite oltre al quale una stella degenere non può andare in quanto gli stessi atomi (sarebbe più corretto dire elettroni) non possono reggere il  peso della stella senza il contributo della pressione radiativa generata dalle reazioni di fusione nucleare. Quando questo limite viene superato, i nuclei atomici ipercompressi riprendono a fondersi ad un ritmo impressionante liberando enormi quantità di energia che in pochi minuti portano alla deflagrazione della stella, indipendentemente dalla sua composizione chimica o dimensione di partenza. L’unico elemento costante è il limite della massa di Chandrasekhar che rende tutte queste supernovae uguali nelle esplosioni e nella luminosità.
Quello che appunto non è del tutto chiaro è come una stella degenere come una nana bianca o una stella di neutroni possa riacquistare abbastanza massa da deflagrare in supernova.
La tesi più comune finora accettata è quella del sistema binario stretto: la stella degenere strappa letteralmente la materia alla sua compagna gigante rossa (praticamente lo stesso meccanismo delle novae) fino a superare la massa limite.
Ma questo meccanismo però richiede che il trasferimento di materia tra la stella cannibalizzata e la stella degenere sia sufficientemente rapido da superare la massa critica prima che si sviluppi una nova 3, ma non troppo veloce da consentire alla stella degenere di rigenerarsi in una gigante rossa.
Il risultato di questo modello richiede quindi una serie di parametri da rispettare (velocità orbitale, eccentricità, distanza etc.) da risultare complicato avverarsi.
Inoltre ci si dovrebbe attendere di trovare almeno i resti della stella compagna della supernova, ma invece questi finora non sono mai stati ritrovati.
Lo scenario rimanente per spiegare le supernovae Ia è quello che chiama in causa due nane bianche in orbita reciproca che decade. L’orbita stretta sottrae energia al sistema doppio sotto forma di onde gravitazionali fino a che le stelle entrano in contatto e si fondono in un unico corpo che è destinato subito dopo a esplodere.
O no?
Anche questo scenario comporta altri diversi problemi mentre cerca di risolvere le lacune del primo.
Innanzitutto il problema della massa finale, che probabilmente dopo la fusione delle due nane bianche potrebbe superare il limite di Chandrasekhar di 1,4 masse solari dando luogo anche a una più massiccia deflagrazione, ma potrebbe anche generare un oggetto massiccio noto come le pulsar-millisecondo, dove la stella di neutroni degenere finale ha una rotazione abbastanza elevata da contrastare la compressione gravitazionale che innseca le reazioni di fusione nucleare 4. Tutte le pulsar perdono energia con la radiazione di dipolo magnetico, in questo caso accade che la rotazione diviene insufficiente a resistere al peso della stella degenere che così esplode.
Con questo meccanismo infatti rimane insoluto un grave problema: come riuscire a spiegare come esplosioni di stelle degeneri di diversa massa -anche se simile –  possano generare tutte la medesima luminosità assoluta, oppure si dovrebbe considerare che questa misura fosse in qualche modo male interpretata.

Certo che il mistero delle supernovae di tipo Ia rimane irrisolto, anche se studi in questo senso sono stati portati avanti  da due ricercatori, Dan Maoz 5 e Filippo Mannucci 6, che dimostrano come lo scenario più probabile per spiegare questa classe di supernovae è quasi sicuramente il modello della fusione di due nane bianche.
la loro analisi in sostanza parte dai problemi degli attuali modelli teorici e il tasso di supernovae Ia scoperte in relazione all’età e al tipo di popolazione stellare ospite. Quello che ne è emerso è che il secondo scenario, cioè quello della fusione di due nane bianche,  è il più probabile per spiegare il numero delle supernovae scoperte senza negare che anche il primo scenario, quello della cattura di materia da una compagna, può aiutare a spiegare il meccanismo di produzione  delle supernovae Ia, aprendo così la strada ad ancora altri problemi.
Per i particolari del loro studio vi rimando all’articolo su Arxiv 7, che saprà senz’altro illustrarvi meglio i risultati delle loro indagini.

Come impacchettare un rover e mandarlo su Marte!

Credit: NASA/JPL

Razzo Atlas V - Credit: United Launch Alliance (ULA)

Volete vedere come si spedisce un rover su Marte?
Si impacchetta il rover in questione (in questo caso Curiosity), dopo aver verificato che tutto, ma proprio tutto, funzioni a dovere, nel suo bel guscio che somiglia tanto a certe sorpresine dell’Uovo di Pasqua che lo proteggerà fino alla sua destinazione su Marte. Poi si infila il tutto nell’ogiva di un razzo Atlas V.
Intanto si monta il razzo: prima il primo, poi il secondo stadio, poi i serbatoi di carburante etc. proprio come si dovesse costruire un razzo orbitale.
Infine, quando tutto è pronto, in cima al razzo ci si mette l’ogiva, che contiene il guscio della sorpresina che poi è il rover di prima.
E poi …. countdown! 😆

ESI: Earth Similarity Index

Grazie alle più che positive scoperte di Kepler e ai nuovi metodi di indagine per la ricerca di esopianeti, si è reso necessario sviluppare anche nuovi strumenti matematici che aiutino nella classificazione di questi in base alla loro somiglianza con la Terra 1.

 L’Earth Similarity Index (ESI), è un indice che esprime il grado di similitudine tra un qualsiasi pianeta extrasolare e la Terra compreso tra zero (nessuna similarità) e uno (identico alla Terra). L’ESI può essere utilizzato per dare priorità nelle osservazioni, effettuare valutazioni statistiche e sviluppare le classifiche planetarie. L’espressione di base per l’indice  ESI è
dove xi fa riferimento a una delle quattro proprietà planetarie (ex. la temperatura superficiale), xio è il corrispondente valore di riferimento terrestre (in questo caso 288 K), wi è l’indice di importanza della proprietà planetaria, n è il numero di proprietà planetaria, ed ESI ovviamente è l’indice di similarità. Gli esponenti dell’equazione sono usati per regolare la sensibilità della scala e pareggiare il suo significato tra le diverse proprietà.

l’ipotetico pianeta Gliese 581g

I pianeti simili alla Terra possono essere definiti come un qualsiasi organismo planetario con una composizione simile a quella terrestre e un’atmosfera temperata. Come regola generale, qualsiasi corpo planetario con un valore di oltre lo 0,8 ESI può essere considerato un pianeta simile alla Terra.
Ciò significa che il pianeta è roccioso in composizione (silicati) e ha un clima adatto per la maggior parte della vegetazione terrestre, compresa la vita complessa. Pianeti con valori ESI nel range 0,6-0,8 (cioè come Marte) potrebbe essere ancora abitabili, ma solo per forme di vita estremofile, in quanto sono o troppo freddi o troppo caldi, per i parametri di vita come li conosciamo.
I parametri per l’elaborazione dell’equazione ESI per raggio medio, densità, velocità di fuga, e la temperatura superficiale sono riportati nella tabella 1.
I calcoli per i pianeti solari ed extrasolari sono illustrati nella Figura 1. Esse sono divise per comodità per ascisse in base al raggio medio e la densità della massa, e per ordinata in base alla velocità di fuga e la temperatura superficiale. Questi valori sono poi combinati in un ESI globale. I valori in ordinata possono essere considerati un indice di abitabilità a causa della sua  definizione che vede la Terra come punto di arrivo (Tabella 1). Tuttavia, una formulazione simile può essere costruita per altri corpi planetari con valori di riferimento diversi (ad esempio oceano come pianeti).
Una delle applicazioni più pratiche della ESI è negli studi sulla distribuzione e la diversità di pianeti simili alla Terra (Figura 2).
I valori di ESI per  i pianeti candidati scoperti dalla Missione Kepler è mostrato in Figura 3.

Proprietà pianeta Valore di riferimento
Indice di importanza planetaria
Raggio medio  1.0 T  0.57
Densità  1.0 T  1.07
Velocità di fuga  1.0 T  0.70
Temperatura superficiale  288 K  5.58
Tabella 1. Valori di riferimento per le quattro proprietà planetarie usate per definire l’indice ESI. La scala è molto più sensibile alla temperatura superficiale rispetto alle altre proprietà planetarie.
Nota: T =Terra

Figura 1. ESI per 47 corpi del Sistema Solare con raggio maggiore di 100 km (arancione) e 258 pianeti extrasolari conosciuti (blu). Solo alcuni dei corpi più importanti sono etichettati. La scala ESI opera una distinzione tra quelli rocciosi (area rossa) e la superficie temperata (area azzurra) dei  pianeti. Solo i pianeti all’interno di queste due categorie possono essere considerati simili alla Terra (area verde). Le linee tratteggiate rappresentano i valori costanti di ESI. Se confermato, solo Gliese 581 g può finora considerarsi simile alla Terra e essere nello stesso insieme.

Figura 2. Distribuzione dei valori di ESI sulla base di una previsione teorica statistica (giallo), per 47 corpi del Sistema Solare con raggio maggiore di 100 km (arancione), e 258 pianeti extrasolari conosciuti (blu). Il nostro Sistema Solare coincide con le previsioni, ma le sbarre per i pianeti extrasolari conosciuti mostrano il limite delle attuali tecniche di osservazione che consentono di scoprire grandi corpi planetari (ESI valori tra 0,2 e 0,4). Questo tipo di analisi l’ESI può essere usata per predire il numero atteso di pianeti simili alla Terra in un campione di stelle.

Figura 3. Indice ESI per 47 corpi del Sistema Solare con raggio maggiore di 100 km (arancione), 258 i pianeti extrasolari conosciuti (blu) e i 1235 pianeti candidati scoperti da Kepler (verde). La massa per il calcolo dell’indice ESI è stata stimata utilizzando un rapporto generico di massa-raggio per le relazioni gas, oceano nei pianeti rocciosi prendendo come riferimento il Sistema Solare (non era indicata la massa nel set di dati). Il risultato sorprendente nell’estrapolazione dei dati di Kepler è l’abbondanza potenziale di corpi rocciosi e la presenza di due candidati pianeti simili alla Terra, oltre che a un paio molto vicini a questa categoria. Le informazioni contenute in questa candidati planetaria è molto limitata e saranno necessarie altre osservazioni su questi candidati per confermarne l’esistenza..