Il principio olografico dei buchi neri – L’orizzonte olografico

I buchi neri sono un argomento molto complesso. Per descriverli compiutamente e raccontare del loro impatto sugli studi del cosmo non basterebbe una enciclopedia, figuriamoci le poche pagine di un blog. Parafrasando la celebre frase — forse apocrifa anch’essa come la celebre mela di Newton — del grande Galileo: “Eppur ci provo” …

[vrview img=”https://ilpoliedrico.com/wp-content/uploads/2017/03/p02rz7hw.png” stereo=”false”]
Volete fare un viaggio in prossimità dell’orizzonte degli eventi? Ecco una plausibile simulazione. Cliccate sulla figurina in basso a destra.

Senza ombra di dubbio i buchi neri sono tra gli oggetti astrofisici più noti e studiati nel dettaglio. Nessuno ha mai realmente visto un buco nero, ma grazie alla Relatività Generale se ne conoscono talmente bene gli effetti che esso ha sul tessuto dello spazio-tempo circostante che oggi è possibile cercare nel Cosmo i segni della loro presenza e descriverli graficamente.
Dai nuclei delle galassie AGN fino ai resti di stelle massicce collassate e ancora più giù fino agli ipotetici micro buchi neri formatisi col Big Bang, si può dire che non c’è quasi limite alle dimensioni che questi oggetti possono raggiungere [cite]https://arxiv.org/abs/astro-ph/9605152[/cite].

Il Principio Olografico


L’entropia (misura dell’informazione nascosta) di un buco nero, misurata in bit, è proporzionale all’area del suo orizzonte degli eventi misurata in unità di Planck
Jacob Bekenstein

Per comprendere l’interpretazione olografica dell’orizzonte degli eventi di un buco nero, occorre prima ripetere ciò che avevo accennato nella scorsa puntata, ossia se un buco nero distrugga o meno l’informazione riguardante tutto ciò che finisce oltre il suo orizzonte degli eventi — ricordo che questo è più un concetto matematico più che un oggetto tangibile.
Secondo Shannon i concetti di entropia e di informazione si equivalgono e, come anche Leonard Susskind ha ribadito, l’entropia non è altro che la misura delle informazioni nascoste, cioè quelle che a noi non sono note. Se infatti le conoscessimo potremmo ricostruire l’evento che le ha generate, come ad esempio possiamo risalire alla massa, traiettoria ed energia di una particella coinvolta in una collisione in una camera a bolle semplicemente ripercorrendo a ritroso la storia degli eventi che essa ha scatenato.

Il teorema della complementarietà dei buchi neri fu proposto da Susskind (anche questo concetto è mutuato da altre teorie, in questo caso dalla meccanica quantistica) per risolvere il paradosso dell'informazione perduta dentro un buco nero. Qui per l'osservatore A l'astronauta varcherebbe l'orizzonte degli eventi di un buco nero ma verrebbe distrutto mentre tutta la sua informazione verrebbe distribuita su tutta la superficie dell'orizzonte degli eventi. Invece per l'osservatore B oltre l'orizzonte o per lo stesso astronauta l'attraversamento dell'orizzonte avverrebbe senza particolari fenomeni di soglia, come già descritto nel primo articolo.

Il teorema della complementarietà dei buchi neri fu proposto da Susskind (anche questo concetto è mutuato da altre teorie, in questo caso dalla meccanica quantistica) per risolvere il paradosso dell’informazione perduta dentro un buco nero. Qui per l’osservatore A l’astronauta varcherebbe l’orizzonte degli eventi di un buco nero ma verrebbe distrutto mentre tutta la sua informazione verrebbe distribuita su tutta la superficie dell’orizzonte degli eventi. Invece per l’osservatore B oltre l’orizzonte o per lo stesso astronauta l’attraversamento dell’orizzonte avverrebbe senza particolari fenomeni di soglia, come già descritto nel primo articolo.

Come ho cercato di spiegare nelle precedenti puntate tutta l’entropia — o informazione nascosta equivalente — di un buco nero può solo risiedere sulla superficie degli eventi come microstati — o bit — grandi quanto il quadrato della più piccola unità di misura naturale, ossia la lunghezza di Plank 1. Questo significa che tutta l’informazione di tutto ciò che è, od è finito, oltre l’orizzonte degli eventi, è nascosta nella trama dell’orizzonte degli eventi stesso. Potessimo interpretare compiutamente questa informazione, idealmente potremmo risalire alla sua natura.
In base a questa interpretazione tutto ciò che è contenuto in una data regione di spazio può essere descritto dall’informazione confinata sul limite della stessa, così come la mia mano è descritta da ciò che di essa percepisco dalla superficie dello spazio che occupa.
In pratica quindi l’informazione tridimensionale di un qualsiasi oggetto è contenuta su una superficie bidimensionale, che nel caso dei buchi neri, è rappresentata dall’orizzonte degli eventi 2.
L’analogia col fenomeno a noi più familiare è quella dell’ologramma, dove tutte le informazioni spaziali riguardanti un oggetto tridimensionale qualsiasi sono impresse su una superficie bidimensionale. Osservando l’ologramma noi effettivamente percepiamo le tre dimensioni spaziali, possiamo ruotare l’immagine, osservarla da ogni sua parte etc., ma essa comunque trae origine dalle informazioni impresse su una superficie bidimensionale; la terza dimensione percepita emerge 3 dalla combinazione di tutte le informazioni lì racchiuse.

Conclusioni

Il Principio Olografico è questo: un modello matematico che tenta di conciliare la Termodinamica e la meccanica della Relatività Generale dei buchi neri, due leggi che finora si sono dimostrate universalmente esatte e che nel caso specifico dei buchi neri sembrano violarsi.
Questo modello è reso ancora più intrigante per le sue particolari previsioni teoriche: dalla validità della Teoria delle Stringhe alla Super Gravità Quantistica passando per le teorie MOND (Modified Newtonian Dynamics) che potrebbero addirittura dimostrare l’inesistenza della materia e dell’energia oscure.
Addirittura il Principio Olografico potrebbe essere usato per suggerire che l’intero nostro Universo è in realtà un buco nero provocato dal collasso di una stella di un superiore universo a cinque dimensioni, ci sono studi al riguardo [cite]https://www.scientificamerican.com/article/information-in-the-holographic-univ/[/cite] [cite]https://arxiv.org/abs/1309.1487[/cite].
Cercherò in futuro di trattare questi argomenti, sono molto intriganti.

Il principio olografico dei buchi neri – La termodinamica

Può suonare strano a dirsi, ma tutta l’energia che vediamo e che muove l’Universo, dalla rotazione delle galassie ai quasar, dalle stelle alle cellule di tutti gli esseri viventi e perfino quella immagazzinata nelle pile del vostro gadget elettronico preferito è nato col Big Bang. È solo questione di diluizioni, concentrazioni e trasformazioni di energia. Sì, trasformazioni; l’energia può essere trasformata da una forma all’altra con estrema facilità. La scienza che studia tali trasformazioni è la termodinamica. Per trasformarsi l’energia ha bisogno di differenza di potenziale, ossia una maggior concentrazione contrapposta a una minore concentrazione nella stessa forma. L’entropia non è altro che la misura della capacità che ha l’energia di decadere compiendo un lavoro fino a raggiungere di uno stato di equilibrio.

[virtual_slide_box id=”11″]
L’entropia statistica si fonda sulle probabilità delle posizioni delle molecole in uno spazio chiuso. Il II Principio della Termodinamica deriva dal fatto che le configurazioni ad alta entropia sono più probabili di quelle a bassa entropia.
L’esempio dei vasi comunicanti è un classico. Quando fra i due contenitori viene rimosso il tappo (blu), le molecole di un gas (rosse) saranno libere e si distribuiranno uniformemente in entrambi i contenitori compiendo un lavoro (il transito).
Quando la distribuzione sarà uniforme non potrà più esserci lavoro (equilibrio).

Nella termodinamica l’entropia è la misura delle capacità di un sistema fisico in grado di essere sede di trasformazioni spontanee. In altre parole essa indica la perdita di capacità a compiere un lavoro quando tali trasformazioni avvengono. Il valore dell’entropia cresce quando il sistema considerato man mano perde la capacità di compiere lavoro ed è massimo quando tutto il sistema è in condizioni di equilibrio.
La meccanica statistica ha poi reso lo stesso concetto, originariamente legato agli stati di non equilibrio di un sistema fisico chiuso, ancora più generale, associandolo anche alle probabilità degli stati — microstati 1 — in cui può trovarsi lo stesso sistema; da qui in poi si parla di grado di disordine di un sistema quale misura di indeterminazione, degrado o disordine di questo. Il classico esempio dei vasi comunicanti aiuta senz’altro a capire questo poi banale concetto. Ne potete vedere un esempio illustrato qui accanto.
Il legame fra l’entropia statistica e la teoria dell’informazione lo si deve a  Claude Shannon (il padre del termine bit e dell’uso della matematica binaria nei calcolatori) intorno agli anni quaranta del ‘900. Shannon notò che non c’era differenza tra il calcolo del livello di imprevedibilità di una sorgente di informazione e il calcolo dell’entropia di un sistema termodinamico.
Per esempio, una sequenza come ‘sssss‘ possiede uno stato altamente ordinato, di bassa entropia termodinamica. Una sequenza come ‘sasso‘ ha un grado di complessità superiore e e trasporta più informazioni ma ha anche un po’ di entropia in più, mentre ‘slurp‘ dimostra un ancora più alto grado di complessità, di informazione e di entropia perché contiene tutte lettere diseguali; noi le diamo un significato, è vero, ma se dovessimo basarci solo sulla frequenza con cui appaiono le singole lettere in una parola composta da cinque di esse, questa possiede la stessa entropia di “srplu“, che per noi non ha senso e diremmo che essa è una parola disordinata o degradata.
Nell’informazione l’entropia definisce la quantità minima delle componenti fondamentali (bit) necessarie a descriverla, esattamente come i gradi di libertà descrivono lo stato di un sistema fisico. In altre parole essa indica la misura del grado di complessità di una informazione: una singola nota, un suono monotonale, possiede pochissima informazione, mentre la IX Sinfonia di Beethoven ne contiene molta di più. Però attenzione: il suono ricavato da mille radioline sintonizzate ognuna su una diversa stazione è sostanzialmente inintelligibile ma nel suo complesso contiene molta più informazione di quanta ne abbia mai scritta il celebre compositore in tutta la sua vita. Per poter ascoltare la IX Sinfonia trasmessa da una sola radio dovremmo spegnere tutti gli altri ricevitori o alzare il volume di quella radiolina fino a sovrastare il rumore proveniente dalle altre, ossia compiere un lavoro o iniettare energia dall’esterno.

La termodinamica dei buchi neri


Le tre leggi della termodinamica dei buchi neri

Come per la termodinamica classica anche quella dei buchi neri ha le sue leggi non meno importanti. L’analogia tra i due insiemi di assiomi indica anche la strada da seguire per comprendere il bizzarro fenomeno.
Legge zero della  termodinamica dei buchi neri
Per  un buco nero stazionario la gravità all’orizzonte degli eventi è costante.
Questo sembra un concetto banale ma non lo è. Per qualsiasi corpo in rotazione su un asse anche se di forma perfettamente sferica la gravità non è costante alla sua superficie: ce ne sarà un po’ di più ai poli e un po’ meno al suo equatore. Questo principio ricorda che l’orizzonte degli eventi invece è un limite matematico dettato esclusivamente dall’equilibrio tra la gravità e la velocità della luce.
Prima legge della  termodinamica dei buchi neri
Nei buchi neri stazionari ogni variazione o apporto di energia comporta una modifica della sua area: dM=κ8πdAOE+ΩdJ+ΦdQ
I buchi neri sono descritti da solo tre parametri: la massa M , la carica elettrica Q e momento angolare J . Come nell’esempio nell’articolo è quindi possibile calcolare quanto varia l’area di un buco nero in cui una quantità di materia/energia diversa da zero cade oltre l’orizzonte degli eventi.
Tralasciando le note costanti naturali G e c, κ indica la gravità superficiale all’orizzonte degli eventi, AOE l’area di questo, mentre Ω la velocità angolare, J il momento angolare, Φ il potenziale elettrostatico, Q la carica elettrica sono propri del buco nero all’orizzonte degli eventi.
Questo complesso schema matematico è molto simile alla descrizione del Primo Principio Termodinamico dove si scopre che il differenziale energetico E è correlato alla temperatura T, all’entropia S e alla capacità di svolgere un lavoro W in un sistema chiuso: dE=TdS+dW
Seconda legge della  termodinamica dei buchi neri
La somma dell’entropia ordinaria esterna al buco nero con l’entropia totale di un buco nero aumenta nel tempo come conseguenza delle trasformazioni generiche di questo: ΔSo+ΔSBN0
Il Secondo Principio Termodinamico richiede che l’entropia di un sistema chiuso debba sempre aumentare come conseguenza di trasformazioni generiche. Se un sistema ordinario cade in un buco nero, la sua’entropia So diventa invisibile ad un osservatore esterno ma con questa interpretazione si esige che l’aumento dell’entropia del buco nero SBN compensi la scomparsa di entropia ordinaria dal resto dell’universo. Con la scoperta della radiazione di Hawking è anche evidente il decremento della massa di un buco nero che essa comporta. Di conseguenza ci si dovrebbe aspettare che anche l’entropia connessa alla sua area diminuisca. Con questa interpretazione (Bekenstein, 1973) si tiene conto anche del fenomeno di evaporazione.
Terza legge della  termodinamica dei buchi neri
È impossibile annullare la gravità dell’orizzonte degli eventi con qualsiasi processo fisico.
Il Terzo Principio Termodinamico afferma che è fisicamente impossibile raggiungere una temperatura nulla tramite qualsiasi processo fisico.
Applicato ai buchi neri questa legge mostra come sia impossibile raggiungere una gravità nulla all’orizzonte degli eventi di un buco nero. In linea di principio aumentando la carica elettrica di un buco nero, sarebbe possibile cancellare l’orizzonte degli eventi e mostrare così finalmente la singolarità nuda. Tuttavia, l’energia che dovremmo iniettare nel buco nero sotto forma di particelle cariche sarebbe sempre più grande tanto più ci si avvicinasse al risultato senza mai poterlo raggiungere.

Un buco nero è causato dal collasso della materia o, per l’equivalenza tra materia ed energia, dalla radiazione, entrambi i quali possiedono un certo grado di entropia. Tuttavia, l’interno del buco nero e il suo contenuto non sono visibili ad un osservatore esterno. Questo significa che non è possibile misurare l’entropia dell’interno del buco nero.
Nell’articolo precedente [cite]https://ilpoliedrico.com/2017/03/il-principio-olografico-dei-buchi-neri-lorizzonte-degli-eventi.html[/cite] ho detto che un buco nero stazionario è parametrizzato unicamente dalla sua massa, carica elettrica e momento angolare. Secondo il No Hair Theorem tutto ciò che scompare oltre l’orizzonte degli eventi viene totalmente sottratto all’universo. Quello che potremmo percepire di un buco nero sono la sua massa, carica elettrica e momento angolare; pertanto le medesime proprietà possedute da un oggetto inghiottito da un buco nero verrebbero a sommarsi con le precedenti, contribuendo così alla loro espressione complessiva. In soldoni — trascurando per un attimo la sua carica elettrica e il momento angolare — un oggetto di massa m andrebbe a sommarsi a MBN del buco nero, cosi che MBN finirebbe per essere m+MBN facendo crescere anche la dimensione dell’orizzonte degli eventi.
Ma secondo questa interpretazione, null’altro rimarrebbe dell’oggetto finito oltre l’orizzonte degli eventi, la sua entropia andrebbe perduta per sempre. Questa interpretazione — come fece notare per primo Bekenstein — cozza però col Secondo Principio della Termodinamica che afferma che il grado di disordine – entropia – di un sistema chiuso — l’Universo è un sistema chiuso — può solo aumentare. Quindi qualsiasi cosa, materia o energia, che finisse oltre l’orizzonte degli eventi di un buco nero finirebbe per sottrarre entropia all’universo, e questo è inaccettabile.
L’unico modo per non contraddire questa legge fondamentale 2 è assumere che anche i buchi neri abbiano un’entropia.
Questa come si è visto dipende dalla massa/energia che cade in un buco nero e che va a sommarsi alla precedente, e, visto che per l’interpretazione classica niente può uscire da un buco nero, non può che aumentare col tempo. Ma anche le altre due proprietà, carica elettrica e momento angolare, contribuiscono nella loro misura a descrivere compiutamente un buco nero. Per ogni combinazione di questi tre parametri si possono perciò teorizzare altrettanti stati diversi riguardo ad esso; quello che ne esce è un concetto molto simile all’entropia legata ai possibili microstati della termodinamica statistica. L’entropia, ossia l’informazione di questi microstati, è pertanto distribuita sull’unica parte accessibile all’universo, la superficie dell’area dell’orizzonte degli eventi.
In natura la più piccola unità dimensionale di superficie è l’Area di Planck, quindi è naturale esprimere l’entropia di un buco nero in questa scala. Per descrivere matematicamente l’entropia S 3  di un buco nero di Schwarzschild partendo dall’area dell’orizzonte degli eventi AOE, allora dovremmo scrivere Sbuconero=AOE4L2P=c3AOE4G dove LP è la lunghezza di Plank, G è la Costante di Gravitazione Universale, la costante di Plank ridotta e c ovviamente la velocità della luce, sapendo che la suddetta area è condizionata unicamente dalla massa del buco nero AOE=16πG2M2BNc4.
Facciamo ad esempio l’ipotesi, che poi servirà in futuro per illustrare il Principio Olografico e che si rifà anche direttamente alla Prima Legge della Termodinamica dei Buchi Neri (vedi box qui accanto), di un fotone avente una lunghezza d’onda λ — la lunghezza d’onda di un fotone è inversamente proporzionale alla sua energia — che cade in un buco nero di massa MBN e di conseguenza di raggio rS da una direzione indeterminata.
Avvicinandosi all’orizzonte degli eventi suddetto fotone finirà per decadere fino ad avere una lunghezza d’onda paragonabile alla dimensione del raggio di Schwartzschild: λπrS.
L’energia rilasciata dal fotone nel buco nero quindi è dE=hcλ=2πcrS
Per l’equivalenza tra massa ed energia — la stranota e=mc2 della Relatività Generale — la massa del buco nero finisce per cresceredMBN=dEc2=2πcrS
Di conseguenza un aumento della massa, per quanto piccola, del buco nero finisce per far aumentare anche le dimensioni dello stesso nella misura drS=2Gc2dMBN=4πGc3rS
e anche l’area: dAOE=4πdr2S=8πrSdrS=32π2Gc3

Anche se questo genere molto semplificato di buchi neri è solo teorico, permette però di esplorare la complessità del problema e di farsi un’idea delle dimensioni dell’entropia di un buco nero 4.

Il principio olografico dei buchi neri – L’orizzonte degli eventi

Prima di scrivere questo pezzo ho fatto una scorsa dei risultati che restituiscono i motori di ricerca sul Principio Olografico, giusto per curiosità. Ne è uscito un quadro desolante; da chi suggerisce che siamo tutti ologrammi alla medicina quantistica (roba di ciarlatani creata per i beoti). Ben pochi hanno descritto il modello e ancora meno (forse un paio sparsi nella profondità suggerita dal ranking SEO) hanno scritto che si tratta solo di un modello descrittivo. Cercherò ora di aggiungere il mio sussurro al loro, giusto per farli sentire un po’ meno soli.

Essenzialmente il mezzo più immediato e naturale che usiamo per descrivere il mondo che circonda è dato dalla vista. Essa però restituisce unicamente un’immagine bidimensionale della realtà, esattamente come fanno anche una fotografia o un quadro. Ci viene in soccorso la percezione della profondità spaziale, dove la terza dimensione emerge grazie all’effetto prospettico che fa apparire più piccole e distorte le immagini sullo sfondo rispetto a quelle in primo piano. L’unico mezzo veramente efficace che abbiamo per cercare di rappresentare correttamente la realtà è la matematica, anche se essa appare spesso controintuitiva.

Ripetendo in parte ciò che ho detto in altre occasioni, l’Uomo ha sempre cercato di dare una spiegazione convincente a tutto quello che lo circonda, che per brevità di termine chiamiamo realtà. Ad esempio, la scoperta delle stagioni, il costante ripetersi ogni anno delle diverse levate eliache e i cicli lunari sono culminati nell’invenzione del calendario, che nelle sue varie interpretazioni e definizioni, ha sempre accompagnato l’umanità. Eppure esso in astratto non è che un modello, grossolano quanto si vuole, ma che consente di prevedere quando sarà la prossima luna nuova o l’astro Sirio allo zenit a mezzanotte.
Anticamente anche le religioni erano modelli più o meno astratti che avevano il compito di spiegare ad esempio, i fulmini, le esondazioni, le maree, il giorno e la notte, etc.
Oggi sappiamo che i fulmini sono una scarica elettrica, che il giorno e la notte sono la conseguenza della rotazione terrestre e che le esondazioni avvengono perché da qualche altra parte piove.
Abbiamo teorizzato per secoli una cosmologia geocentrica e solo più tardi quella eliocentrica, quando abbiamo capito che la prima era sbagliata. Abbiamo accarezzato per un breve periodo l’idea galattocentrica prima di apprendere che le galassie erano più di una e il Sole era solo una comune stellina grossomodo a metà strada fra il centro e la periferia della Via Lattea, e abbiamo anche creduto ad un universo statico prima di scoprire che l’Universo si espandeva in dimensioni.
Anche tutti questi erano modelli e modelli pensati su altri modelli dati per sicuri finché non venivano dimostrati sbagliati. E questo vale anche per i modelli attuali e le teorie fino ad oggi considerate certe.

L’orizzonte degli eventi.

raggioSchwarzschild=(2GMc2)
Il raggio dell’orizzonte degli eventi di un buco nero è restituito da questa formula matematica che stabilisce l’equilibrio tra gravità e velocità della luce.  Esso esiste solo teoricamente perché si suppone che l’oggetto che ha dato origine al buco nero abbia avuto con sé un certo momento angolare che poi si è conservato.
Infatti, per descrivere matematicamente un buco nero reale si usa una metrica leggermente diversa che tiene conto anche del campo elettromagnetico e del momento angolare: quella di Kerr-Newman.

Già alla fine del 1700 si teorizzava di una stella tanto densa e massiccia da ripiegare la luce con la sua gravità. John Michell e Pierre-Simon de Laplace la chiamavano stella oscura. Ma fu solo dopo il 1915, con la Relatività Generale, che Karl Schwarzschild trovò le equazioni che descrivevano il campo gravitazionale di un oggetto capace di ripiegare la luce su di sé. Così fu evidente che esiste un limite, un orizzonte oltre il quale neppure la luce può sfuggire. Non è un limite solido, tangibile come quello di una stella o di un pianeta come talvolta qualcuno è portato a immaginare, ma è un limite matematico ben preciso definito dall’equilibrio tra la gravità e la velocità della luce, che è una costante fisica assoluta 1.
La relatività insegna che niente è più veloce della luce. Pertanto, basandosi solo su questo assioma, è ragionevole pensare che qualsiasi cosa oltrepassi l’orizzonte degli eventi di un buco nero sia definitivamente persa e scollegata dal resto dell’universo. Questa interpretazione, chiamata teorema dei buchi neri che non hanno capelli o No Hair Theorem, niente, più nessuna informazione potrebbe uscire una volta oltrepassato quel limite. Infatti se descrivessimo matematicamente un buco nero usando la metrica di Kerr-Newman – è una soluzione delle equazioni di Einstein-Maxwell della Relatività Generale che descrive la geometria dello spazio-tempo nei pressi di una massa carica in rotazione – viene fuori che un buco nero può essere descritto unicamente dalla sua massa, il momento angolare e la sua carica elettrica [1].

Cercare di spiegare la complessità dello spazio-tempo in prossimità degli eventi senza ricorrere alla matematica è un compito assai arduo.
L’oggetto che descrive Shwartzschild è solo il contorno osservabile di un buco nero. Ciò che vi finisce oltre scompare all’osservatore esterno in un tempo infinito. Egli vedrebbe che il tempo sul bordo degli eventi si ferma mentre la lunghezza d’onda della luce gli apparirebbe sempre più stirata 2 in rapporto alla sua metrica temporale, man mano che essa proviene da zone ad esso sempre più prossime fino a diventare infinita.
Invece, volendo fare un gedankenexperiment [cite]https://it.wikipedia.org/wiki/Esperimento_mentale[/cite] come avrebbe detto Einstein, per colui che cercasse di oltrepassare l’orizzonte degli eventi – ammesso che sopravviva tanto da raccontarlo – il tempo risulterebbe essere assolutamente normale e tramite misure locali non noterebbe alcuna curvatura infinita dello spaziotempo e finirebbe per oltrepassare l’orizzonte degli eventi in un tempo finito.
Appare controintuitivo ma è così. Se dovessimo assistere come osservatore privilegiato alla formazione di un buco nero dal collasso di una stella [cite]https://ilpoliedrico.com/2017/02/supernova.html[/cite], non vedremmo mai il nocciolo stellare oltrepassare l’orizzonte degli eventi. Noteremmo solo che la luce proveniente da esso diventa sempre più fioca: vedremmo che i raggi gamma più duri emessi dal nocciolo diventare raggi X, poi luce visibile, infrarosso e radio  e poi più nulla; nessuna radiazione, più nessuna informazione proveniente dal nocciolo stellare potrebbe più raggiungerci.
Quello che c’è oltre lo chiamiamo singolarità. Le leggi fisiche a noi note non possono più descrivere cosa succede oltre l’orizzonte degli eventi e tutto ciò che lo oltrepassa non può più comunicare il suo stato all’esterno.

È difficile descrivere ciò che non si può osservare.

Antropocentrismo culturale e il principio di mediocrità

È indubbio che oggi la specie umana sia l’unica che attualmente abbia sviluppato una tecnologia avanzata. La famiglia Hominidae ha avuto origine nell’area del Rift Africano tra i 5 e i 6 milioni di anni fa. Essa appartiene all’ordine dei Primati, lo stesso delle scimmie che illustro qui sotto, un gruppo che si è evoluto circa una sessantina di milioni di anni fa ed è composto da circa 500 specie che vanno dall’Homo Sapiens fino ai lemuri che oggi rappresenta all’incirca il 5 per cento di tutti i mammiferi. Finora i termini cultura, tecnologia e civiltà sono limitati all’esperienza umana ma alla luce di alcune sorprendenti scoperte forse è il caso di rivedere il nostro antropocentrismo.

primates

Credit: Il Poliedrico

Uno studio apparso a luglio su Current Biology [cite]http://dx.doi.org/10.1016/j.cub.2016.05.046[/cite] mostra che una specie delle scimmie cappuccino, i Sapajus libidinosus (conosciuti anche come Cebus libidinosus (cebo striato)) fanno uso di strumenti litici, da loro prodotti, da almeno ben 700 anni.
Questa specie, che vive nel nordest brasiliano, è nota per organizzare zone di lavoro dedicate all’apertura dei frutti di anacardio, di cui è ghiotto, nei pressi degli stessi alberi 1. Queste scimmie cappuccino, o cebi (scimmie dalla coda lunga), hanno inventato una tecnica particolarmente efficace per estrarre l’endocarpio degli anacardi: esse usano due pietre ben distinte a questo scopo. Una, più dura, più grande e piatta come incudine e l’altra, più piccola, come martello. Partendo da questa sorprendente intuizione delle scimmie, i ricercatori si sono chiesti se questo procedimento era usato anche nel passato e scavando il terreno dei siti di lavorazione hanno scoperto molti altri strumenti simili a dimostrazione che la stessa tecnica di oggi era usata anche nel passato. Studi stratigrafici dimostrano che questa tecnica è usata da almeno 700 anni.

[video_lightbox_youtube video_id=”FA3LN4vqtlM&rel=false” auto_thumb=”1″ width=”800″ height=”450″ auto_thumb=”1″]

 Dopo aver escluso ogni possibile traccia di contaminazione umana i ricercatori hanno concluso di aver trovato il sito archeologico non umano più antico esistente fuori dall’Africa.
Altre osservazioni suggeriscono che questi cebi sappiano estrarre le pietre a loro utili [cite]http://www.nature.com/news/one-sharp-edge-does-not-a-tool-make-1.20824[/cite]. Ora se tutto questo è voluto o è solo accidentale rimane un mistero ma è un fatto. Altri studi potranno chiarire se questa comunità di scimmie di Sierra Capivara stanno muovendo i loro primi passi verso una tecnologia litica o meno.

Infatti ricerche precedenti hanno dimostrato che una primitiva forma di tecnologia litica era usata anche dagli scimpanzé in Costa d’Avorio circa 4300 anni fa [cite]http://www.pnas.org/content/104/9/3043[/cite], nonché che l’uso di strumenti e di capacità verbali primitive che consentono una trasmissione orale intergenerazionale è presente in tante altre comunità di primati superiori finora studiate.

[video_lightbox_youtube video_id=”GC25X6d2dds&rel=false” auto_thumb=”1″ width=”800″ height=”450″ auto_thumb=”1″]
Altri studi documentano la capacità degli scimpanzé di saper creare ed usare alcuni strumenti per catturare piccoli insetti [cite]http://ngm.nationalgeographic.com/2008/04/chimps-with-spears/mary-roach-text[/cite].

Verso la fine del XX secolo la scoperta dell’Australopithecus Garhi [cite]https://www.ncbi.nlm.nih.gov/pubmed/10213683[/cite] [cite]https://www.ncbi.nlm.nih.gov/pubmed/10213682[/cite] (“garhi” significa “sorpresa” nella lingua Afar) restituì forse l’anello mancante che univa il grande genere degli australopitechi all’uomo. Rinvenuto nel nord del Rift Africano, esso era un ominide probabilmente antenato dell’Homo Habilis  2 o di uno dei tanti rami evolutivi ormai scomparsi del genere Australopithecus comunque di quel periodo. Comunque, qualunque sia stato il suo ruolo nell’evoluzione della famiglia Hominidae, resta il fatto che negli stessi strati del rinvenimento dell’Au. Garhi furono scoperti anche utensili in pietra e strumenti da taglio appartenenti alla tradizione Oldowan, la più antica forma di tecnologia litica conosciuta, e ossa animali che ne testimoniano l’uso. Questo indica che la macellazione e la dieta a base di carne erano presenti nella cultura degli Au. Garhi.
Questo è un passaggio importante per lo sviluppo delle prime comunità ominidi: non dover dipendere da una dieta vegetale strettamente legata ad un particolare habitat destinato comunque a cambiare o a scomparire, la necessità di fare branco per la caccia (organizzazione sociale) 3 e inseguire le prede (spostamenti e migrazione geografica) hanno senz’altro favorito l’evoluzione da scimmie stanziali a culture proto-umane.

« La cultura, o civiltà, intesa nel suo senso etnografico più ampio, è quell’insieme complesso che include le conoscenze, le credenze, l’arte, la morale, il diritto, il costume e qualsiasi altra capacità e abitudine acquisita dall’uomo in quanto membro della società. »
(Tylor, 1871)

Definire cosa sia una cultura può non essere così facile come sembra. Una buona definizione, riportata nel riquadro qui accanto, la dette nel 1871 l’antropologo inglese Edward Burnett Tylor.
La definizione di Taylor è squisitamente pensata a misura umana ma semplificando potremmo definire la cultura come quell’insieme di regole sociali e conoscenze che possono essere tramandate attraverso le generazioni all’interno di una comunità. In questo modo diventa possibile provare a cercare quell’insieme di regole, tradizioni ed esperienze, che non possono essere – per il principio di mediocrità – prerogativa esclusiva della specie umana, anche in seno ad altre specie animali.
La perpetuazione delle conoscenze e delle regole sociali non richiede necessariamente una proprietà linguistica evoluta o una qualche forma di scrittura, ma soltanto la capacità di osservazione e di replica. Queste facoltà si possono individuare anche in molte specie animali non primati. Però è anche altrettanto chiaro che una cultura per rendersi manifesta deve poter lasciare qualche traccia visibile come ad esempio la capacità di manipolare l’habitat in maniera utilitaristica.

[video_lightbox_youtube video_id=”WXv9409bvEo&rel=false” auto_thumb=”1″ width=”800″ height=”450″ auto_thumb=”1″]
Una scimmia cappuccino intenta a spaccare pietre. Sorprendente è il gesto chiaramente intenzionale. L’atto di leccare le pietre frantumate suggerisce che sia parte di una dieta che richiede integratori minerali (ex. sale) o muschi interstiziali [cite]http://dx.doi.org/10.1038/nature20112[/cite].

Le uniche specie attualmente dotate di un cervello abbastanza sviluppato e che hanno saputo mostrarsi capaci di manipolare scientemente l’ambiente appartengono quasi tutte all’ordine dei primati 4. Un indubbio vantaggio dei primati in questa attività è quasi sicuramente riconducibile alla presenza del pollice opponibile 5 che dà un grande vantaggio nell’afferrare e manipolare gli oggetti.  Per esempio qui sulla Terra esistono altre specie animali dotate di un cervello importante e che sono capaci di comunicare verbalmente tra loro, i delfini e le megattere sono alcune di queste; esse potrebbero aver sviluppato o essere potenzialmente capaci di sviluppare una cultura verbale, una civiltà di filosofi pensatori o di poeti ma che comunque sarebbe limitata dalla loro incapacità di manipolare l’ambiente e studiare l’ambiente. Però noi non potremmo mai scoprirla almeno finché non saremmo in grado di interpretare e capire il loro linguaggio perché questo tipo di civiltà non può fisicamente lasciare tracce tangibili e analizzabili.
Tutto questi esempi cozzano col nostro comune concetto di cultura. Comunità pre e proto umane che già almeno tre milioni di anni fa [cite]http://www.nature.com/uidfinder/10.1038/nature14464[/cite] avevano appreso le stesse tecniche che scopriamo oggi nei cebi e negli scimpanzé ci indicano che la cultura non è una prerogativa unica dell’Homo Sapiens e che dovremmo aspettarci di scoprire culture completamente dissimili dalla nostra esperienza ma altrettanto preziose.
Le diverse culture umane si sono evolute in un lunghissimo arco di tempo e attraverso infinite generazioni. Tentativi, sbagli e regressioni hanno spinto la presenza umana in ogni angolo del Globo. Le necessità di adattarsi alle diverse nicchie ecologiche hanno reso la specie umana unica. Solo 50 mila anni fa la nostra specie condivideva il pianeta con altri ominidi strettamente imparentati come l’uomo di Neanderthal, l’uomo di Denisova e altre specie arcaiche. Eppure, dopo appena 30 mila anni più tardi dei nostri cugini non ce n’era più traccia nonostante che ad esempio i Neanderthal sapessero usare e controllare il fuoco e le fibre vegetali altrettanto bene. Incroci interspecie resi possibili dalle tante affinità genetiche [cite]http://www.nature.com/nature/journal/v530/n7591/full/nature16544.html[/cite] hanno prodotto un’unica specie finale, l’Homo Sapiens moderno.
E insieme agli incroci sessuali con ogni probabilità vi furono anche fusioni culturali e di tecnologia. Questo significa che se anche ora l’accezione del termine cultura fa riferimento alle capacità di trasmettere conoscenze e regole sociali tra le diverse generazioni umane, sia giunto il momento che questa debba mutare per venire incontro ad esigenze descrittive e sensibilità più ampie.

L’antropocentrismo scientifico cadde con la Rivoluzione Copernicana e le successive scoperte mostrarono la reale dimensione umana svelandoci un universo immensamente più vasto e complesso di quanto avessimo mai immaginato. Ora però è giunto il momento che cada anche l’antropocentrismo culturale che, ahimè, ancora ci nasconde altrettante meraviglie.

Alla ricerca di forme di vita evolute: i limiti del Principio di Mediocrità

La vita è poi così comune nell’Universo? Oppure l’Uomo – inteso come forma di vita evoluta – è veramente una rarità nel’infinito cosmo? Forse le risposte a queste domande sono entrambe vere.

16042016-2D68D8DD00000578-0-image-a-23_1459508636554Finora il Principio di Mediocrità scaturito dal pensiero copernicano ci ha aiutati a capire molto del cosmo che ci circonda. L’antico concetto che pone l’Uomo al centro dell’Universo – Principio Antropocentrico – ci ha fatto credere per molti secoli in cosmogonie completamente errate, dalla Terra piatta all’idea di essere al centro dell’Universo, dall’interpretazione del moto dei pianeti alla posizione del sistema solare nella Galassia (quest’ultimo ha resistito fino alla scoperta di Hubble sull’espansione dell’Universo).
Per questo è comprensibile e del tutto legittimo estendere il Principio di Mediocrità anche alla ricerca della vita extraterrestre. Dopotutto nulla vieta che al presentarsi di condizioni naturali favorevoli il fenomeno Vita possa ripetersi anche altrove: dalla chiralità molecolare [cite]http://ilpoliedrico.com/2014/10/omochiralita-quantistica-biologica-e-universalita-della-vita.html[/cite] ai meccanismi che regolano il  funzionamento cellulare sono governate da leggi fisiche che sappiamo essere universali.
Una delle principali premesse che ci si attende da un pianeta capace di sostenere la vita è quello che la sua orbita sia entro i confini della zona Goldilocks, un guscio sferico che circonda una stella (in genere è rappresentato come fascia ma è un concetto improprio) la cui temperatura di equilibrio di radiazione rientri tra il punto di ebollizione e quello di congelamento dell’acqua (273 – 373 Kelvin)  intorno ai 100 kiloPascal di pressione atmosferica; un semplice esempio lo si può trovare anche su questo sito [cite]http://ilpoliedrico.com/2012/12/la-zona-circumstellare-abitabile-del-sole.html[/cite]. Ci sono anche altri vincoli [cite]http://ilpoliedrico.com/?s=+goldilocks[/cite] ma la presenza di acqua liquida pare essere fondamentale 1.
Anche se pur con tutti questi limiti il Principio di Mediocrità suggerisce che la biologia a base carbonio è estremamente diffusa nell’Universo, e questo non stento a crederlo. Stando alle migliori ipotesi le stelle che possono ospitare una qualche forma di sistema planetario potenzialmente adatto alla vita solo in questa galassia sono almeno 10 miliardi. Sembra un numero considerevole ma non dimentichiamo che la Via Lattea ospita circa 200 miliardi di stelle. quindi si tratta solo una stella su venti.
orologio geologicoMa se questa stima vi fa immaginare che là fuori ci sia una galassia affollata di specie senzienti alla Star Trek probabilmente siete nel torto: la vita per attecchire su un pianeta richiede tempo, molto tempo.
Sulla Terra occorsero almeno un miliardo e mezzo di anni prima che comparissero le prime forme di vita fotosintetiche e le prime forme di vita con nucleo cellulare differenziato dette eukaryoti – la base di quasi tutte le forme di vita più complessa conosciute – apparvero solo due miliardi di anni fa. Per trovare finalmente le forme di vita più complesse e una biodiversità simile all’attuale  sul pianeta Terra bisogna risalire a solo 542 milioni di anni fa, ben poca cosa se paragonati all’età della Terra e del Sistema Solare!

Però, probabilmente, il Principio di Mediocrità finisce qui. La Terra ha una cosa che è ben in evidenza in ogni momento e, forse proprio per questo, la sua importanza è spesso ignorata: la Luna.
Secondo recenti studi [cite]http://goo.gl/JWkxl1[/cite] la Luna è il motore della dinamo naturale che genera il campo magnetico terrestre. L’idea in realtà non è nuova, ha almeno cinquant’anni, però aiuta a comprendere il perché tra i pianeti rocciosi del Sistema Solare la Terra sia l’unico grande pianeta roccioso 2 ad avere un campo magnetico abbastanza potente da deflettere le particelle elettricamente cariche del vento solare e dei raggi cosmici. Questo piccolo particolare ha in realtà una grande influenza sulle condizioni di abitabilità sulla crosta perché ha consentito alla vita di uscire dall’acqua dove sarebbe stata più protetta dalle radiazioni ionizzanti, ha permesso che la crosta stessa fosse abbastanza sottile e fragile da permettere l’esistenza di zolle continentali in movimento – il che consente un efficace meccanismo di rimozione del carbonio dall’atmosfera [cite]http://ilpoliedrico.com/2013/12/la-caratterizzazione-delle-super-terre-il-ciclo-geologico-del-carbonio.html[/cite][cite]http://ilpoliedrico.com/2013/07/venere-e-terra-gemelli-diversi.html[/cite] – e la stabilizzazione dell’asse terrestre.
In pratica la componente Terra Luna si comporta come Saturno con Encelado e, in misura forse minore, Giove con Europa.
Il gradiente gravitazionale prodotto dai due pianeti deforma i satelliti che così si riscaldano direttamente all’interno. Per questo Encelado mostra un vulcanismo attivo e Europa ha un oceano liquido al suo interno in cui si suppone possa esserci le condizioni ideali per supportare una qualche forma di vita. Nel nostro caso è l’importante massa della Luna che deforma e mantiene fuso il nucleo terrestre tanto da stabilizzare l’asse del pianeta, fargli generare un importante campo magnetico e possedere una tettonica attiva [cite]http://ilpoliedrico.com/2010/11/limportanza-di-un-nucleo-fuso.html[/cite].

Ora, se le nostre teorie sulla genesi lunare sono corrette 3, questo significa che una biologia così varia e complessa come quella sulla Terra è il prodotto di tutta una serie di eventi che inizia con la formazione del Sistema Solare e arriva fino all’Homo Sapiens passando attraverso la formazione del nostro curioso – e prezioso – satellite e le varie estinzioni di massa. Tutto questo la rende molto più rara di quanto suggerisca il Principio di Mediocrità. Beninteso, la Vita in sé è sicuramente un fenomeno abbastanza comune nell’Universo ma una vita biologicamente complessa da dare origine a una specie senziente capace di produrre una civiltà tecnologicamente attiva è probabilmente una vera rarità nel panorama cosmico.

Le quattro fasi che avrebbero portato la Terra ad avere un grande campo magnetico (MFI Moon-forming impact, Impatto che dette origine alla Luna)

Le quattro fasi che avrebbero portato la Terra ad avere un grande campo magnetico (MFI Moon-forming impact, Impatto che dette origine alla Luna)

Analizziamo per un attimo più da vicino il sistema Terra-Luna.
La distanza media tra il centro della Luna e il centro della Terra è di circa 384390 chilometri. Questo varia tra l’apogeo e il perigeo dell’orbita ma sostanzialmente questa è una cosa che non inficia il nostro conto.
Questo significa che nello stesso momento la parte più vicina alla Luna è distante 1,66% in meno della distanza Terra-Luna mentre la sua parte opposta lo è della stessa misura in più; tradotto in numeri la parte rivolta direttamente alla Luna dista dal suo centro 378032 km  mentre la parte più lontana 390774 km. Il 3,32% di discrepanza tra le due facce non pare poi molto, ma significa che se stabiliamo che la forza esercitata gravitazionale dal satellite sulla faccia più vicina fosse pari a 100, la forza esercitata sul lato opposto sarebbe solo del 96,74%. Il risultato è che la faccia rivolta verso la Luna è attratta da questa di più del centro del pianeta e la faccia più lontana ancora di meno, col risultato di deformare la Terra ad ogni rotazione..
Ma anche la Terra esercita la sua influenza sul suo satellite allo stesso modo. Ma essendo la Luna più piccola, anche la caduta gravitazionale tra le due facce è molto più piccola, circa 1,8%. Essendo solo un quarto della Terra ma anche 81 volte meno massiccia la forza di marea esercitata dalla Terra sulla Luna è circa 22 volte dell’opposto.
Mentre la Terra ruota si deforma di circa mezzo metro, la frizione interna spinge la crosta nel sollevarsi e ricadere e, per lo stesso meccanismo si ha produzione di calore nel nocciolo e nel mantello e il più evidente fenomeno di marea sulle grandi masse d’acqua del pianeta. Ma l’effetto mareale combinato con la rotazione terrestre fa in modo che la distribuzione delle masse sia leggermente in avanti rispetto all’asse ideale Terra-Luna. Questo anticipo disperde parte del momento angolare in cambio di un aumento della distanza media tra Terra e Luna. La durata del giorno aumenta così – attualmente – di 1,7 secondi ogni 100 000 anni mentre pian piano la Luna si allontana al ritmo di 3,8 centimetri ogni anno [cite]http://goo.gl/ALyU92[/cite], mentre la frizione mareale indotta restituisce parte del calore che sia il mantello che il nucleo disperdono naturalmente. Questo calore mantiene il nucleo ancora allo stato fuso dopo ben 4,5 miliardi di anni, permettendogli di generare ancora il campo magnetico che protegge la vita sulla superficie.
Ecco perché l’idea dell’unicità della Terra non è poi del tutto così peregrina. Non è un istinto puramente antropocentrico, quanto semmai la necessità di comprendere che la Terra e la Luna sono da studiarsi come parti di un unico un sistema che ha permesso che su questo pianeta emergessero tutte quelle condizioni favorevoli allo sviluppo di vita che poi si è concretizzata in una specie senziente. Queste condizioni avrebbero potuto crearsi altrove – e forse questo è anche avvenuto – invece che qui e allora noi non saremmo ora a parlarne. Ma è questo è quel che è successo e se questa ipotesi fosse vera farebbe di noi come specie senziente una rarità nel panorama cosmico.
Come ebbi a dire in passato, anche se il concetto non è del tutto nuovo, Noi siamo l’Universo che in questo angolo di cosmo ha preso coscienza di sé e che si interroga sulla sua esistenza. Forse questo angolo è più vasto di quanto si voglia pensare; il che ci rende ancora più unici.


Note:

Studi sulla possibile violazione del principio di esclusione di Pauli: intervista a Catalina Curceanu

Il Principio di Esclusione di Pauli afferma che i fermioni (particelle fondamentali dotate di spin semi-intero: quark e leptoni) possono occupare solo uno stato quantico alla volta e non condividerlo con nessun’altra particella uguale. Solo 2 elettroni possono condividere lo stesso orbitale: uno di spin -1/2 e l’altro di spin opposto +1/2 (il segno dello spin indica l’orientamento nello spazio rispetto all’orbitale uno dritto e uno capovolto ↑↓ ).
Per questa semplice regolina la materia è solida, la sedia non cede sotto il nostro peso, non possiamo attraversare le pareti e se urtiamo un mignolo del piede contro uno spigolo questo ci fa un male boia (Effetto Pauli 1)

 

Sorgente: Stiamo studiando la possibile violazione del principio di esclusione di Pauli: intervista a Catalina Curceanu | Frascati Scienza


Note:

Gliese 581g e il principio deduttivo

Gliese 581g (come me lo immagino)

Non avevo ancora posato la penna dopo aver parlato della Legge di Moore dei pianeti (così era stato ribattezzato lo studio statistico sulla scoperta di un pianeta abitabile entro il 2011) e della regione Riccioli d’oro (in inglese Goldilocks zone) [1], che il team di astronomi guidato da Steven Vogt annunciava al mondo di aver scoperto un pianeta all’interno della fascia Riccioli d’oro della stella Gliese 581 usando lo spettrometro HIRES all’osservatorio Keck (Hawaii).

Stella
Gliese 581
Costellazione Bilancia
Ascenzione retta
( α ) 15 h 19 m 26 s
Declinazione
( δ ) −07° 43′ 20″
Magnitudine apparente
( m V ) 10.55
Distanza 20.3 ± 0.3 anni luce
(6.2 ± 0.1 parsec )
tipo spettrale M3V
Massa ( M) 0.31 masse solari
Raggio (R) 0.29 raggio solare
Temperatura ( T ) 3480 ± 48 Kelvin
Metallicità [Fe/H] -0.33 ± 0.12
Età 7 -11 miliardi di anni

I pianeti scoperti in realtà sono due, portando il totale dei pianeti del sistema stellare Gliese 581 a ben sei pianeti di cui quattro già noti. Uno ha una massa sette volte quella terrestre con un periodo di 433 giorni è il più esterno, con un’orbita il cui semiasse maggiore è di 0,758 unità astronomiche (113 milioni di chilometri dalla stella) chiamato per definizione Gliese 581f, e l’altro, quello che più ha destato scalpore, è stato chiamato Gliese 581g.
Gliese 581g invece ha un’orbita molto più vicina al suo sole, solo 0,146 unità astronomiche (21 -22 milioni di chilometri), che però per Gliese 581 rappresentano più o meno la zona Riccioli d’oro.
Infatti la stella è molto più piccola del nostro Sole e molto più debole: è una nana rossa la cui luminosità nello spettro visibile rappresenta appena lo 0,2% di quella del Sole. Ma Gliese 581 irradia principalmente nel vicino infrarosso, con il picco emissione alla lunghezza d’onda di circa 830 nanometri, per cui applicando le dovute correzioni bolometriche, si scopre che la stella emette l’1,3% del Sole. Per questo infatti la zona Riccioli d’oro è così vicina alla stella – e rende Gliese 581g un posto molto buio per noi terrestri.
Gliese 581g ha un periodo orbitale di 36,6 giorni [2], percorrendo la sua orbita a circa 43 km/sec. Questo comporta che quasi sicuramente (anche se su questo non v’è certezza, ndr) la sua rotazione (il suo giorno) sia sincrono con la sua orbita, avendo così un emisfero perennemente rivolto alla stella e l’altro perennemente al buio. Se così fosse, la sua eventuale atmosfera potrebbe dare origine a violente tempeste lungo il terminatore del pianeta, ma anche qui siamo sul campo di mere speculazioni scientifiche.
Sì, perché a parte l’orbita e la massa (con un certo grado di incertezza) del pianeta e della sua composizione, atmosfera, periodo di rotazione, non sappiamo assolutamente niente.
Si suppone che Gliese 581g abbia una massa che parte da 3,1 a 4,3 volte quella della Terra e un raggio che va da 1,3 a 1,5 volte la Terra, se fosse un pianeta prevalentemente roccioso, 1,7-2,0 volte la Terra, se fosse prevalentemente composto da acqua ghiacciata; ossia abbiamo un grado di incertezza che porta a stimare il raggio del pianeta da 1,3 a 2,0 volte quello della Terra.
Questo porta a ritenere che la gravità superficiale del pianeta oscilli tra 1,1 e 1,7 volte della Terra, in grado perciò di trattenere un’atmosfera, magari più densa di quella terrestre.
Ma queste, ripeto, sono solo ipotesi, ricavate unicamente dai parametri orbitali, quindi supporre che abbia una atmosfera, ospiti o possa mai ospitare forme di vita aliena, semplicemente ancora non lo sappiamo, forse lo scopriremo con la prossima generazione di telescopi o forse no.
Finché non avremo la possibilità di osservarne lo spettro direttamente e magari fotografarlo sarà difficile dare una risposta: comunque io me lo immagino come nel disegno, molto scuro, un bel marrone scuro, perché se davvero ospitasse la Vita, questa avrebbe la necessità di catturare tutta l’energia emessa dalla sua fredda stella.

 

Crediti: The Lick-Carnegie Exoplanet Survey: A 3.1 M_Earth Planet in the Habitable Zone of the Nearby M3V Star Gliese 581
di Steven S. Vogt, R. Paul Butler, Eugenio J. Rivera, Nader Haghighipour, Gregory W. Henry, Michael H. Williamson
fonte: http://arxiv.org/abs/1009.5733


[1] A quando il Primo Contatto?

[2] così io ad esempio avrei circa 438 anni gliesani