Alla ricerca di forme di vita evolute: i limiti del Principio di Mediocrità

La vita è poi così comune nell’Universo? Oppure l’Uomo – inteso come forma di vita evoluta – è veramente una rarità nel’infinito cosmo? Forse le risposte a queste domande sono entrambe vere.

16042016-2D68D8DD00000578-0-image-a-23_1459508636554Finora il Principio di Mediocrità scaturito dal pensiero copernicano ci ha aiutati a capire molto del cosmo che ci circonda. L’antico concetto che pone l’Uomo al centro dell’Universo – Principio Antropocentrico – ci ha fatto credere per molti secoli in cosmogonie completamente errate, dalla Terra piatta all’idea di essere al centro dell’Universo, dall’interpretazione del moto dei pianeti alla posizione del sistema solare nella Galassia (quest’ultimo ha resistito fino alla scoperta di Hubble sull’espansione dell’Universo).
Per questo è comprensibile e del tutto legittimo estendere il Principio di Mediocrità anche alla ricerca della vita extraterrestre. Dopotutto nulla vieta che al presentarsi di condizioni naturali favorevoli il fenomeno Vita possa ripetersi anche altrove: dalla chiralità molecolare [cite]http://ilpoliedrico.com/2014/10/omochiralita-quantistica-biologica-e-universalita-della-vita.html[/cite] ai meccanismi che regolano il  funzionamento cellulare sono governate da leggi fisiche che sappiamo essere universali.
Una delle principali premesse che ci si attende da un pianeta capace di sostenere la vita è quello che la sua orbita sia entro i confini della zona Goldilocks, un guscio sferico che circonda una stella (in genere è rappresentato come fascia ma è un concetto improprio) la cui temperatura di equilibrio di radiazione rientri tra il punto di ebollizione e quello di congelamento dell’acqua (273 – 373 Kelvin)  intorno ai 100 kiloPascal di pressione atmosferica; un semplice esempio lo si può trovare anche su questo sito [cite]http://ilpoliedrico.com/2012/12/la-zona-circumstellare-abitabile-del-sole.html[/cite]. Ci sono anche altri vincoli [cite]http://ilpoliedrico.com/?s=+goldilocks[/cite] ma la presenza di acqua liquida pare essere fondamentale 1.
Anche se pur con tutti questi limiti il Principio di Mediocrità suggerisce che la biologia a base carbonio è estremamente diffusa nell’Universo, e questo non stento a crederlo. Stando alle migliori ipotesi le stelle che possono ospitare una qualche forma di sistema planetario potenzialmente adatto alla vita solo in questa galassia sono almeno 10 miliardi. Sembra un numero considerevole ma non dimentichiamo che la Via Lattea ospita circa 200 miliardi di stelle. quindi si tratta solo una stella su venti.
orologio geologicoMa se questa stima vi fa immaginare che là fuori ci sia una galassia affollata di specie senzienti alla Star Trek probabilmente siete nel torto: la vita per attecchire su un pianeta richiede tempo, molto tempo.
Sulla Terra occorsero almeno un miliardo e mezzo di anni prima che comparissero le prime forme di vita fotosintetiche e le prime forme di vita con nucleo cellulare differenziato dette eukaryoti – la base di quasi tutte le forme di vita più complessa conosciute – apparvero solo due miliardi di anni fa. Per trovare finalmente le forme di vita più complesse e una biodiversità simile all’attuale  sul pianeta Terra bisogna risalire a solo 542 milioni di anni fa, ben poca cosa se paragonati all’età della Terra e del Sistema Solare!

Però, probabilmente, il Principio di Mediocrità finisce qui. La Terra ha una cosa che è ben in evidenza in ogni momento e, forse proprio per questo, la sua importanza è spesso ignorata: la Luna.
Secondo recenti studi [cite]http://goo.gl/JWkxl1[/cite] la Luna è il motore della dinamo naturale che genera il campo magnetico terrestre. L’idea in realtà non è nuova, ha almeno cinquant’anni, però aiuta a comprendere il perché tra i pianeti rocciosi del Sistema Solare la Terra sia l’unico grande pianeta roccioso 2 ad avere un campo magnetico abbastanza potente da deflettere le particelle elettricamente cariche del vento solare e dei raggi cosmici. Questo piccolo particolare ha in realtà una grande influenza sulle condizioni di abitabilità sulla crosta perché ha consentito alla vita di uscire dall’acqua dove sarebbe stata più protetta dalle radiazioni ionizzanti, ha permesso che la crosta stessa fosse abbastanza sottile e fragile da permettere l’esistenza di zolle continentali in movimento – il che consente un efficace meccanismo di rimozione del carbonio dall’atmosfera [cite]http://ilpoliedrico.com/2013/12/la-caratterizzazione-delle-super-terre-il-ciclo-geologico-del-carbonio.html[/cite][cite]http://ilpoliedrico.com/2013/07/venere-e-terra-gemelli-diversi.html[/cite] – e la stabilizzazione dell’asse terrestre.
In pratica la componente Terra Luna si comporta come Saturno con Encelado e, in misura forse minore, Giove con Europa.
Il gradiente gravitazionale prodotto dai due pianeti deforma i satelliti che così si riscaldano direttamente all’interno. Per questo Encelado mostra un vulcanismo attivo e Europa ha un oceano liquido al suo interno in cui si suppone possa esserci le condizioni ideali per supportare una qualche forma di vita. Nel nostro caso è l’importante massa della Luna che deforma e mantiene fuso il nucleo terrestre tanto da stabilizzare l’asse del pianeta, fargli generare un importante campo magnetico e possedere una tettonica attiva [cite]http://ilpoliedrico.com/2010/11/limportanza-di-un-nucleo-fuso.html[/cite].

Ora, se le nostre teorie sulla genesi lunare sono corrette 3, questo significa che una biologia così varia e complessa come quella sulla Terra è il prodotto di tutta una serie di eventi che inizia con la formazione del Sistema Solare e arriva fino all’Homo Sapiens passando attraverso la formazione del nostro curioso – e prezioso – satellite e le varie estinzioni di massa. Tutto questo la rende molto più rara di quanto suggerisca il Principio di Mediocrità. Beninteso, la Vita in sé è sicuramente un fenomeno abbastanza comune nell’Universo ma una vita biologicamente complessa da dare origine a una specie senziente capace di produrre una civiltà tecnologicamente attiva è probabilmente una vera rarità nel panorama cosmico.

Le quattro fasi che avrebbero portato la Terra ad avere un grande campo magnetico (MFI Moon-forming impact, Impatto che dette origine alla Luna)

Le quattro fasi che avrebbero portato la Terra ad avere un grande campo magnetico (MFI Moon-forming impact, Impatto che dette origine alla Luna)

Analizziamo per un attimo più da vicino il sistema Terra-Luna.
La distanza media tra il centro della Luna e il centro della Terra è di circa 384390 chilometri. Questo varia tra l’apogeo e il perigeo dell’orbita ma sostanzialmente questa è una cosa che non inficia il nostro conto.
Questo significa che nello stesso momento la parte più vicina alla Luna è distante 1,66% in meno della distanza Terra-Luna mentre la sua parte opposta lo è della stessa misura in più; tradotto in numeri la parte rivolta direttamente alla Luna dista dal suo centro 378032 km  mentre la parte più lontana 390774 km. Il 3,32% di discrepanza tra le due facce non pare poi molto, ma significa che se stabiliamo che la forza esercitata gravitazionale dal satellite sulla faccia più vicina fosse pari a 100, la forza esercitata sul lato opposto sarebbe solo del 96,74%. Il risultato è che la faccia rivolta verso la Luna è attratta da questa di più del centro del pianeta e la faccia più lontana ancora di meno, col risultato di deformare la Terra ad ogni rotazione..
Ma anche la Terra esercita la sua influenza sul suo satellite allo stesso modo. Ma essendo la Luna più piccola, anche la caduta gravitazionale tra le due facce è molto più piccola, circa 1,8%. Essendo solo un quarto della Terra ma anche 81 volte meno massiccia la forza di marea esercitata dalla Terra sulla Luna è circa 22 volte dell’opposto.
Mentre la Terra ruota si deforma di circa mezzo metro, la frizione interna spinge la crosta nel sollevarsi e ricadere e, per lo stesso meccanismo si ha produzione di calore nel nocciolo e nel mantello e il più evidente fenomeno di marea sulle grandi masse d’acqua del pianeta. Ma l’effetto mareale combinato con la rotazione terrestre fa in modo che la distribuzione delle masse sia leggermente in avanti rispetto all’asse ideale Terra-Luna. Questo anticipo disperde parte del momento angolare in cambio di un aumento della distanza media tra Terra e Luna. La durata del giorno aumenta così – attualmente – di 1,7 secondi ogni 100 000 anni mentre pian piano la Luna si allontana al ritmo di 3,8 centimetri ogni anno [cite]http://goo.gl/ALyU92[/cite], mentre la frizione mareale indotta restituisce parte del calore che sia il mantello che il nucleo disperdono naturalmente. Questo calore mantiene il nucleo ancora allo stato fuso dopo ben 4,5 miliardi di anni, permettendogli di generare ancora il campo magnetico che protegge la vita sulla superficie.
Ecco perché l’idea dell’unicità della Terra non è poi del tutto così peregrina. Non è un istinto puramente antropocentrico, quanto semmai la necessità di comprendere che la Terra e la Luna sono da studiarsi come parti di un unico un sistema che ha permesso che su questo pianeta emergessero tutte quelle condizioni favorevoli allo sviluppo di vita che poi si è concretizzata in una specie senziente. Queste condizioni avrebbero potuto crearsi altrove – e forse questo è anche avvenuto – invece che qui e allora noi non saremmo ora a parlarne. Ma è questo è quel che è successo e se questa ipotesi fosse vera farebbe di noi come specie senziente una rarità nel panorama cosmico.
Come ebbi a dire in passato, anche se il concetto non è del tutto nuovo, Noi siamo l’Universo che in questo angolo di cosmo ha preso coscienza di sé e che si interroga sulla sua esistenza. Forse questo angolo è più vasto di quanto si voglia pensare; il che ci rende ancora più unici.


Note:

NASA Confirms Evidence That Liquid Water Flows on Today’s Mars | NASA

Le evidenze c’erano, e molte. Ma ancora era mancata la prova definitiva, la pistola fumante, come amano dire gli americani.
La sporadica presenza di metano nell’atmosfera richiamava processi abiotici di serpentinizzazione che necessariamente richiedono la presenza di acqua per accadere; gli studi di Catherine Weitz del Planetary Science Institute che identificò i segni della possibile presenza d’acqua allo stato liquido nel lontano passato di Marte all’interno di un gruppo di canyon chiamato Noctis Labyrintus 1 2;  La stessa presenza di perossido di idrogeno e vapore acqueo nell’atmosfera richiedono che l’acqua sia in qualche modo presente sul pianeta 3. Lo stesso rover Curiosity aveva mostrato conglomerati di ciottoli arrotondati come se fossero stati levigati dall’acqua [cite]http://goo.gl/FK8rx8[/cite] ma dove questa fosse finita, se dispersa nello spazio per fotodissociazione, congelata nel permafrost nei pressi dei poli o nel sottosuolo, non era possibile, fino ad ora, saperlo. L’unica cosa certa era, ed è ancora, che Marte è un luogo freddo e molto secco.

Ma adesso abbiamo la prima prova che dell’acqua liquida appare sporadicamente durante i mesi estivi marziani. Nell’attesa di poterne sapere di più vi rimando alla pagina della stessa NASA.

New findings from NASA’s Mars Reconnaissance Orbiter (MRO) provide the strongest evidence yet that liquid water flows intermittently on present-day Mars.

Sorgente: NASA Confirms Evidence That Liquid Water Flows on Today’s Mars | NASA

L’eterno Paradosso di Fermi (III parte)

Mentre nella prima puntata mi sono concentrato sul percorso che parte dalla vita e arriva fino allo sviluppo – almeno sulla Terra – di  una civiltà tecnologicamente avanzata, nella seconda credo di aver ampiamente dimostrato che un realistico piano di colonizzazione galattica non è poi di così difficile attuazione per una società abbastanza avanzata e motivata. Ma allora come rispondere alla domanda di Fermi “Dove sono gli altri?”?
La risposta quasi sicuramente è racchiusa nell’ultima incognita dell’Equazione di Drake: il fattore L che si occupa di stabilire quanto possa durare una civiltà tecnologicamente evoluta (qualcuno suggerì almeno 10 mila anni). Finora si è sostenuto che essa sottintendesse la capacità di una società tecnologicamente avanzata ad evitare l’autodistruzione per disastri ambientali estremi, guerre nucleari, etc.,  ma dobbiamo prendere in considerazione che possono esserci anche molti altri ostacoli, di certo meno violenti, che comunque portano al collasso di una civiltà in tempi molto più brevi.

Schemi ripetitivi nelle società umane

Le rovine di Tadmor (Palmira), che in aramaico significa Palma. Era conosciuta anche come La sposa del deserto, dove Oriente e Occidente si incontravano sulla Via della Seta.

Le rovine di Tadmor (Palmira), che in aramaico significa palma. Era conosciuta anche come La sposa del deserto, dove Oriente e Occidente si incontravano sulla Via della Seta. Qui sono fiorite e poi estinte molte civiltà  del passato.

Continuando a ipotizzare che il percorso evolutivo della Terra sia tipico anche per il resto dell’Universo, si può ritenere che dall’analisi delle diverse esperienze sociali umane sia possibile estrapolare modelli plausibili che possono poi essere utili a dare una risposta al dilemma di Fermi.
Il caso del drammatico crollo dell’Impero Romano (seguito da molti secoli di declino della popolazione, deterioramento economico  e regressione intellettuale) è ben noto, ma non era che uno dei tanti cicli di  ascesa e crollo delle civiltà europee. Prima della civiltà greco-romana, erano fiorite altre civiltà (come quella minoica e quella micenea) che erano risorte da crolli precedenti e avevano raggiunto livelli molto avanzati di civiltà prima del crollo definitivo. La storia della Mesopotamia è in realtà la somma di varie civiltà sorte e crollate in quei luoghi come Sumer,  l’Impero Akkad, Assiria, Babilonia, etc. [cite]http://goo.gl/i43lrZ[/cite]. Lo stesso può dirsi dell’Antico Egitto, delle diverse civiltà anatoliche (come gli Ittiti), in India (imperi Maurya e Gupta) e nel sud-est asiatico (Impero Khmer). Ci sono inoltre evidenti analogie tra le diverse dinastie dell’Antico Egitto e le varie dinastie imperiali cinesi, dove periodi di splendore si alternavano a periodi di crollo politico e socio-economico.
Anche il Nuovo Mondo non era immune a questi cicli storici. Le civiltà Maya, Inca e Atzeca traevano origine da altre culture precedenti, ma il loro collasso definitivo avvenne col contatto con la civiltà europea che si stava espandendo nel nuovo continente. Le culture nord americane della valle del Mississippi (Cahokia), del sud-ovest americano (Anasazi, Hohokam e Pueblo) e la complessa civiltà polinesiana [1.

Il Triangolo Polinesiano

TongatopTra il 3000 e il 1000 a.C. popolazioni di lingua austronesiana si diffusero in tutte le isole del Sud-Est asiatico. Probabilmente il loro ceppo comune è da cercarsi negli  aborigeni dell’isola di Taiwan (la popolazione attuale dell’isola è di origine cinese perché questa fu al centro di una migrazione su larga scala nel corso del 1600). Le più antiche testimonianze archeologiche mostrano l’esistenza di questa cultura – chiamata Lapita – già 3500 anni fa e che sia apparsa nell’Arcipelago Bismarck , a nord-ovest della Melanesia. Si sostiene che questa cultura sia stata sviluppata là o più probabilmente, di essersi diffusa dall’isola di Taiwan. Il sito più orientale per i resti archeologici Lapita recuperati finora si trovano nelle isole di Mulifanua e Upolu. Il sito Mulifanua ha un’ età di circa 3.000 anni stabilita con la datazione C14.
Nel giro di soli tre o quattro secoli circa tra il 1300 e il 900 a.C., la cultura Lapita – che includeva anche la ceramica, si diffuse 6.000 km più a est dell’arcipelago di Bismarck, fino a raggiungere le Figi, Tonga e Samoa. Intorno al 300 a.C. questo nuovo popolo polinesiano si diffuse da est delle Figi, Samoa, Tonga fino alle Isole Cook, Tahiti, le Tuamotu e le Isole Marchesi.
Tra il 300 e il 1200 d.C. (la data è incerta), i polinesiani scoprirono e si installarono nell’Isola di Pasqua. Questo è supportato da evidenze archeologiche, nonché dall’introduzione di flora e fauna coerente con la cultura polinesiana e le caratteristiche climatiche di quest’isola. Intorno al 500 d.C., anche le Hawaii vennero colonizzate dai polinesiani mentre solo intorno all’anno 1000, quest’ultimi colonizzarono infine la Nuova Zelanda.] si estinsero da sé dopo secoli di dominio culturale.
Tutto questo dimostra che l’evoluzione dei gruppi sociali segue da sempre dei cicli di crescita e declino, come dimostrano anche altri studi sulle società neolitiche [cite]http://goo.gl/Qg0dcC[/cite]. Di solito questi cicli di espansione e declino (della durata media di 300-500 anni) non sono frutto di eventi eccezionali come epidemie o cataclismi naturali, ma sono il frutto di una rapida crescita della popolazione unito allo sfruttamento naturale oltre i livelli sostenibili.

I modelli sociali

Uno serio studio sugli schemi evolutivi dei gruppi sociali è stato fatto nel 2012 da Safa Motesharrei e Eugenia Kalnay dell’Università del Maryland e Jorge Rivas dell’Università del Minnesota [cite]http://goo.gl/Em99bt[/cite]. Gli autori hanno ridotto gli schemi sociali a poche macrovariabili capaci comunque di descrivere abbastanza fedelmente le dinamiche che governano una società:

  • Popolazione (elite e popolo)
  • Risorse (esauribili e rinnovabili)
  • Ricchezza (risorse redistribuite)
[virtual_slide_box id=”4″]

Il modello adottato per questo studio è anche quello che più si ritrova in natura: il Modello Predatore vs Preda; per questo è anche quello che probabilmente può descrivere di più una possibile società extraterrestre. Infatti il modello predatore-preda – in questo caso gli esseri umani e la natura – è piuttosto comune presso anche molte altre specie animali.

In sintesi, i risultati ottenuti indicano che i crolli sociali storici (come l’eccessivo sfruttamento delle risorse naturali e/o una forte disparità economica tra le diverse classi sociali) possono essere causa di un crollo completo delle civiltà, come è avvenuto per l’Impero Romano, i Maya e la società Lapita.

L’unicità che contraddistingue la specie umana dagli altri animali è la sua capacità di accumulare grandi eccedenze (cioè ricchezza) per tamponare in parte o del tutto i periodi di scarsità di risorse quando esse non possono più soddisfare le esigenze abituali di consumo. Questa è la stessa capacità che ha permesso alla specie umana di creare strutture sociali più complesse del semplice branco e l’evolversi dell’intelligenza.
Queste strutture di solito prevedono che sia una elìte a controllare la quantità di eccedenze  prodotte e a redistribuire il minimo utile al resto del gruppo. Questa stratificazione sociale è importante per la dinamica del ciclo di evoluzione del gruppo sociale. Senza entrare nel dettaglio delle simulazioni, che comunque consiglio a chiunque fosse interessato di leggere, gli scenari presi in considerazione sono diversi e ognuno di loro presenta delle criticità evidenti che comunque convergono tutte verso uno scenario di crollo quando le sfruttamento delle risorse pro capite (ricchezza distribuita) supera il tasso di risorse  (pro capite) disponibile;  in fondo questo è quel che succede a tutti gli organismi viventi in natura quando le risorse diventano troppo scarse. Proverò a riassumere i quattro quadri che a mio giudizio sono i più indicativi:

  1. Modello sociale diseguale
    Una qualsiasi redistribuzione ineguale di ricchezza porta alla stratificazione sociale, dove l’elìte può permettersi di sopravvivere ai periodi di carestia a scapito del resto del gruppo che è invece destinato al declino dopo aver esaurito la sua parte di ricchezza. Il risultato è un crollo sociale, spesso accompagnato da episodi violenti e rifiuto di ciò che è stato, un po’ come avvenne con la Rivoluzione Francese. Un modo per invertire la tendenza verso il collasso richiede scelte politiche importanti come il controllo della crescita della popolazione e la riduzione delle diseguaglianze sociali.
  2. Modello sociale egalitario
    Anche una redistribuzione equa comunque non è affatto esente dal crollo sociale se la produzione di ricchezza supera la quantità di risorse disponibili; magari non è altrettanto brusca e violenta quanto la prima ipotesi ma lo scenario finale è comunque lo stesso: calo demografico e regressione culturale. Anche qui l’unica soluzione è che in qualche modo sia raggiunto un equilibrio tra risorse naturali consumate e quelle redistribuite.
  3. Modello sociale equilibrato
    Una qualsiasi società che impari a bilanciare la ricchezza prodotta con le risorse disponibili (non importa se il modello redistributivo sia equo o ineguale) non è esente da fenomeni di declino sociale, ma magari subisce oscillazioni più o meno ampie attorno ai valori che non le consentono affatto di evolversi (stagnazione sociale). In questo caso la destinazione di parte della ricchezza per progetti diversi alla semplice sopravvivenza del gruppo sociale potrebbe portare al suo crollo definitivo.
  4. Modello sociale espansionismo egalitario
    L’unico scenario che resta possibile è quello dell’espansione continua. Lungi da me giustificare scientificamente l’imperialismo europeo, resta comunque il dato che se l’Europa post-rinascimentale non avesse cercato altre vie per attingere risorse, non sarebbe sopravvissuta alle guerre al suo interno, mentre L’impero Romano segnò il suo destino quando decise di interrompere le sue conquiste, le risorse furono distratte per fronteggiare il malcontento interno e le elìte erano impegnate più a badare alle proprie ricchezze che alla cura dell’Impero.
    Quindi una società equa che si ponesse l’obbiettivo di espandere la sua area di sfruttamento delle risorse naturali disponibili è lo scenario a lungo termine preferibile, perché allontanerebbe da sé ogni rischio di conflitto sociale causato dalla stratificazione economica e dall’esaurimento delle ricchezze che potrebbero portare ad un crollo della civiltà, e sarebbe immune alla quasi altrettanto triste ipotesi della stagnazione del modello sociale equilibrato.

Ma quello che è più evidente è che se una qualsiasi civiltà inizia a erodere le risorse ambientali del proprio mondo troppo in fretta rispetto al naturale tasso di ricostituzione (come accade adesso per il caso terrestre) tende quasi inevitabilmente al collasso prima che possa acquisire la capacità di poter sfruttare l’inesauribile riserva di risorse posta al di fuori del suo pianeta.

Conclusioni

Dopo aver quindi ripercorso la vicenda terrestre, possiamo tentare di imporre qualche limite alle ipotesi di risposta alla domanda di Fermi.

  • Le attuali conoscenze scientifiche umane affermano che niente è più veloce della luce nel vuoto e che esplorare la galassia sarebbe certamente possibile ma unicamente a senso unico; anche le comunicazioni interstellari sarebbero comunque troppo lente per poter intavolare qualsiasi forma di dialogo con altre civiltà. Alla luce dell’importanza delle risorse naturali necessarie allo sviluppo di una civiltà planetaria è anche lecito supporre che una civiltà extraterrestre potrebbe considerare solo una grande perdita di tempo e spreco di risorse tentare intenzionalmente una qualsiasi forma di comunicazione con mezzi tradizionali (onde radio, laser etc).
  • Le condizioni per poter ospitare un pianeta di tipo terrestre nella nostra galassia esistono da almeno 8 miliardi di anni, anche se questo non significa necessariamente che ci siano pianeti  che ospitino o meno alcuna forma di vita.
  • Per la Terra sono occorsi 4 miliardi di anni prima che le più semplici forme di vita si evolvessero in organismi ben più complessi. Estrapolando questi dati verso altri mondi si può ragionevolmente ipotizzare che, se non avvengono fenomeni parossistici capaci di sterilizzare un pianeta come una supernova o un GRB vicino, oppure una improvvisa instabilità stellare o del sistema planetario, occorrono dai 4 ai 6 miliardi di anni per avere forme di vita complesse capaci di adattarsi – e adattare – l’ambiente circostante e sviluppare una qualche primitiva forma di consapevolezza.
  • Continuando ad usare lo stesso metro terrestre come paragone si ottiene che una qualche forma di intelligenza e tecnologia potrebbe essersi sviluppata su altri mondi tra gli 800 milioni e 5 miliardi di anni fa. Una civiltà così evoluta o potrebbe nel frattempo essersi estinta come illustrato in questo studio o aver trovato il modo  di prevenire il suo collasso imparando a gestire le sue risorse disponibili..

Anche se non è detto che il percorso vita – consapevolezza – intelligenza – tecnologia avvenga sempre e comunque su tutti i pianeti potenzialmente adatti, ognuna di queste condizioni deve superare delle criticità che possono compromettere uno qualsiasi degli stadi successivi. A fronte di qualche decina di milioni di pianeti potenzialmente disponibili forse in questo momento la Galassia può contare di ospitare una decina o forse meno di Civiltà tecnologicamente evolute tanto da dedicarsi all’esplorazione dello spazio e dotate di capacità di ascolto, ma questo porta a supporre che esse possono anche essere troppo lontane fra loro perché possa avvenire un qualsiasi contatto.


Note:

L’eterno paradosso di Fermi (parte I)

Se il dialogo da cui scaturì il celebre Paradosso di Fermi [cite] http://www.fas.org/sgp/othergov/doe/lanl/la-10311-ms.pdf[/cite] abbia mai avuto luogo o meno non sta a me accertarlo, ma ormai esso è talmente entrato nell’immaginario collettivo che è diventato come la celebre Mela di Newton. Apocrifa o meno, comunque è una leggenda a cui merita dare una risposta. Una risposta che per certi versi è come tentare di risolvere l’Equazione di Drake o almeno l’ultima e più grande incognita dell’Equazione: il fattore L 1. A differenza di altri studi passati, qui si è cercato di basare questo studio sull’ipotesi (altrettanto opinabile quanto supporre l’esistenza certa di altre forme di vita intelligenti nell’universo basandosi sul fatto che Noi esistiamo) che l’esperienza umana sia tipica anche per il resto dell’universo. Partendo da questa ipotesi si è infine tentato di applicare le stesse spinte sociali umane per tentare una risposta a questa domanda.

“Ammesso che la vita sia un fenomeno abbastanza comune nell’Universo, allora dove sono gli altri?”

ienLa domanda precisa di Fermi pare che fosse posta in termini diversi, ma il succo non cambia. Anche se per ora conosciamo  soltanto un luogo dell’Universo dominato dalla Vita, molte attuali scoperte e conoscenze portano a credere che essa sia un fenomeno abbastanza comune nel cosmo. Sono state infatti trovate traccie di molecole organiche 2 complesse nelle comete, nei meteoriti e nelle nubi interstellari [cite]http://www.cv.nrao.edu/~awootten/allmols.html[/cite], scoperte influenze quantistiche nei meccanismi biomolecolari [cite]http://goo.gl/6Gq7SQ[/cite], nella trascrizione del DNA [cite]http://goo.gl/U5G9TN[/cite] e anche le stesse leggi fisiche fondamentali che governano la materia inanimata pare che svolgano un ruolo essenziale nella formazione delle ben più complesse strutture necessarie allo sviluppo della vita stessa [cite]http://goo.gl/fexb02[/cite].  Le molecole organiche complesse sono un fondamentale passo per lo sviluppo successivo di catene proteiche ancora più complesse necessarie alla nascita della Vita 3.
Per questi motivi è lecito pensare che lo sviluppo della Vita non ponga poi dei paletti molto stringenti; fondamentalmente le serve solo abbastanza tempo per attecchire sui mondi dove sia presente un flusso abbastanza stabile nel tempo di energia da sfruttare per sé.
Un altro aspetto spesso trascurato ma fondamentale per la Vita è l’ambiente cosmico in cui essa può attecchire. La Terra è in una posizione piuttosto periferica della Via Lattea, circa 7,62 kpc (più o meno 26 000 anni luce) dal centro galattico. Questa è una zona piuttosto tranquilla dalle turbolenze gravitazionali – e non solo – del nucleo galattico. Può sembrare una cosa di poco conto ma anche la posizione nella galassia invece è rilevante [cite]http://goo.gl/RGVZSB[/cite] per stabilire in linea di massima quali possibilità ha ogni pianeta di supportare la Vita.
Con un ambiente sostanzialmente privo di pericoli, una fonte di energia costante destinata a durare qualche miliardo di anni (come quelle fornite da stelle medio-piccole nella loro sequenza principale [cite]http://goo.gl/7waC7J[/cite]), si può altrettanto ragionevolmente supporre che anche le più semplici forme di vita procariotiche possono evolversi prima o poi in strutture multicellulari molto più efficienti e diversificate.
Ora rimane la domanda più difficile: anche ammesso che la Vita sia abbastanza comune nell’Universo, per contro quanto può esserlo l’intelligenza?
orologio-geologicoNon avendo altri metri di paragone, guardiamo un attimo a ritroso la storia della Vita sulla Terra, ammettendo per un attimo che essa sia tipica nell’Universo. Dal diagramma qui accanto si nota che le prime forme di vita procariotiche si svilupparono sulla Terra 3,8 – 3,4 miliardi di anni fa. Eppure, forme di vita moderne, complesse quasi quanto quelle attuali, sono comparse solo 541 milioni di anni fa con quella che è stata chiamata Esplosione Cambriana. I motivi di quell’improvviso sviluppo di forme di vita – tanto che in passato questo aveva addirittura messo in crisi l’ipotesi dell’evoluzione darwiniana ma che probabilmente poi tanto repentino non fu  – non sono ancora del tutto noti 4 ed esulano dall’argomento di questo studio, ma tutto questo significa che le forme di vita superiori sono presenti su questo pianeta per un periodo che rappresenta appena il 12% della sua storia.
Recentemente si è iniziato a comprendere che alcune caratteristiche neurali – come la consapevolezza e la capacità di elaborazione  – finora considerate  tipiche dei primati e dei mammiferi e ritenute residenti nella neocorteccia in realtà siano molto più primitive e antiche, tanto da far supporre che esse si siano sviluppate ed evolute insieme alla vita animale [cite]http://goo.gl/Iw0GkJ[/cite]. Questo ovviamente suggerisce che dato un tempo abbastanza lungo, è inevitabile che prima o poi si sviluppi una specie con capacità senzienti [cite]http://goo.gl/OQPIFM[/cite] [1. Molti scienziati suggeriscono al contrario che i dinosauri – che non erano senzienti neppure lontanamente di quanto lo fosse il più lontano primate –  se non si fossero estinti 65 milioni di anni fa adesso la Terra sarebbe ancora dominata da quegli stupidi bestioni che erano esistiti per 165 milioni di anni. Eppure è anche lecito supporre che prima o poi una crisi alimentare o climatica abbastanza seria – come accadde ai primati nostri antenati quando dovettero adattarsi alla savana – avrebbe potuto selezionare una forma rettile più adatta e magari più capace di altri di manipolare consapevolmente l’ambiente circostante; questo purtroppo non ci è dato saperlo.].

Dalla vita alla tecnologia – l’esperienza sulla Terra

Gli esseri viventi che si mostrano capaci di manipolare l’ambiente circostante non necessariamente posseggono una qualche intelligenza evoluta; più o meno un po’ tutte le specie animate lo fanno: dalle stuoie microbiche dei coralli marini che seguono le correnti oceaniche fino agli uccelli coi loro nidi, ai castori con le loro dighe fino ai primati più evoluti. E anche inventarsi nuove strategie di sopravvivenza borderline come hanno imparato certi corvi [cite]http://goo.gl/9aFBMc[/cite] o sapersi adattare alle mutate condizioni ambientali come fanno le piante non indica necessariamente una qualche forma di raziocinio.

L'albero dell'evoluzione umana

L’albero dell’evoluzione umana

Definire cosa sia l’intelligenza ci porterebbe troppo fuori dal seminato ma si può supporre che la sopravvivenza in un contesto inospitale come lo era la savana africana 5 qualche milione di anni fa e la perenne competizione con altri predatori naturali molto più abili, abbiano selezionato tra gli ominidi che più erano capaci di elaborare convenienti strategie di sopravvivenza 6. Non appena la raccolta di risorse necessarie alla sopravvivenza quotidiana superò stabilmente il loro consumo, quella stessa capacità di elaborazione prima indirizzata a garantire la continuità del gruppo e dell’individuo ecco che diventa linguaggio, pensiero astratto e logica; in altre parole, intelligenza.
I primi ominidi si svilupparono da precedenti primati circa 6 milioni di anni fa ma l’uomo moderno risale ad appena 45 mila anni fa, questo per dire quanto  comunque lunga e difficile sia stata la strada che ha portato dai primati consapevoli all’Homo Sapiens dotato di intelligenza.
Ma analizzando più da vicino questi ultimi 45 mila anni vediamo che solo una civiltà, la nostra, si è evoluta abbastanza da sviluppare l’esplorazione spaziale. Il livello tecnologico che oggi abbiamo è frutto della globalizzazione delle idee e delle conoscenze che 500 anni di esplorazioni e di egemonia economico-politica europea hanno esportato nel mondo. A sua volta la civiltà europea ha radici che affondano nella cultura greca e più giù fino a alle estinte civiltà mesopotamiche. Adesso non possiamo ovviamente sapere se qualcuna delle altre civiltà esistite nell’arco della storia umana avrebbe potuto sviluppare un qualche interesse per lo spazio e le comunicazioni interstellari.
Fino al XVII secolo la Cina è stata per molti versi la nazione tecnologicamente  più evoluta del globo. Essi conoscevano la polvere pirica, i razzi e la stampa ben prima degli europei, già nel XI secolo avevano conoscenze matematiche che in Europa si sarebbero viste soltanto nel XVI secolo [cite]http://goo.gl/xqxbMc[/cite] ed erano eccellenti osservatori del cielo. Però nonostante tutto era una società tradizionalista, e anche se padroneggiavano benissimo l’ingegneria navale 7 non furono mai degli esploratori come gli europei che, nonostante le continue guerre che martoriavano il continente politicamente frammentato, erano sempre in cerca di nuove risorse da sfruttare 8.
Altre realtà sociali raccontano una ben altra storia. Moltissime altre culture isolate o comunque refrattarie all’integrazione verso la nostra cultura tecnologica (Indios dell’Amazzonia, Aborigeni australiani, molte società tribali africane etc.) si sono limitate ad usare le risorse ambientali disponibili e a fermarsi lì. Alcune non hanno mai sviluppato interesse allo sfruttamento intensivo del territorio e al commercio (magari sostituito dal baratto o dalla semplice appropriazione), e preferito la stagnazione culturale adottando un modello di società tribale che a noi appare primitivo. In molti casi l’inospitalità ambientale ha costretto loro alla continua lotta per la semplice sopravvivenza del gruppo (Aborigeni australiani), mentre in altri casi (Indios dell’Amazzonia)  è accaduto l’esatto contrario: le fin troppe risorse di base disponibili hanno paradossalmente limitato la necessità e l’interesse nel cercare altri contatti culturali e la stagnazione sociale ha preso il sopravvento.

Apertura dei Giochi Olimpici di Berlino 1936.

Ma torniamo all’unica civiltà tecnologicamente evoluta capace di poter ascoltare messaggi interstellari e inviare sonde automatiche nello spazio: la nostra.
Questa tecnologia è apparsa solo nell’ultimo secolo, conseguenza delle scoperte scientifiche sull’elettricità e l’elettromagnetismo, della meccanica relativistica e quantistica. Il primo segnale elettromagnetico di una certa rilevanza emesso dall’uomo fu nel 1936 per l’occasione delle Olimpiadi di Berlino 9.
Più o meno lo stesso discorso vale per l’esplorazione spaziale. Anche se esistono leggende su maldestri tentativi di sperimentazione del volo umano tramite razzi 10, solo nel XX secolo la nostra tecnologia ha raggiunto la capacità di raggiungere l’intero Sistema Solare. Ma, sarebbe ipocrita non ammetterlo, molta di questa tecnologia è stata sviluppata all’inizio per un uso bellico. Le celebri conquiste spaziali, da Gagarin fino all’allunaggio dell’Apollo 11, furono in realtà il frutto di una competizione militare tra due superpotenze politiche.
Senz’altro la naturale evoluzione tecnologica avrebbe prima o poi portato agli stessi successi, ma questi si sarebbero avuti sicuramente in tempi molto più lunghi.

(fine  prima parte)

Note:

 

La Zona Galattica Abitabile

La quasi quotidiana scoperta di pianeti extrasolari pone il problena di dove guardare per trovarne di simili alla Terra [cite]http://goo.gl/kgCavI[/cite] potenzialmente in grado di sostenere la vita. Per i sistemi planetari si parla di Zona Goldilocks o Circumstellar Habitable Zone  (CHZ) [cite]http://goo.gl/gnyLKr[/cite] ma è da supporre che analoghe considerazioni valgano anche le galassie.

 

lifeFondamentalmente lo sviluppo della Vita complessa richiede che almeno tre punti siano soddisfatti:

 

  1. La presenza di una fonte di energia costante per tempi cosmologici (oltre il miliardo di anni (1 Gyr).
  2. Elementi pesanti necessari a formare pianeti di tipo terrestre [cite]http://goo.gl/dYFao2[/cite].
  3. Ambiente sufficientemente al riparo dalle radiazioni più nocive che potrebbe mettere a rischio ogni forma di vita e la sua formazione.

 

In base a questi vincoli si deduce che il confine interno di una Galactic Habitable Zone (GHZ) è delimitato dalle perturbazioni gravitazionali e radiativi del nucleo galattico che sono di ostacolo alle biosfere planetarie stabili, mentre il limite esterno è fissato dall’indice minimo di metallicità  1 necessario alla formazione dei pianeti [cite]http://goo.gl/dYFao2[/cite]. Pertanto è evidente di come la GHZ sia vincolata dalla morfologia, evoluzione chimica ed età delle popolazioni stellari della galassia.

Una fonte di energia costante: le stelle

img_9186Una fonte costante e continua di energia sono le stelle durante la loro permanenza nella Sequenza Principale. Ma non tutte le stelle possono considerarsi adatte a sostenere la vita come la conosciamo. Le stelle più massicce hanno un ciclo vitale molto breve: dai 200 mila anni di una Wolf-Rayet con una massa superiore alle 20 M fino ai 3 Gy per le F0 (1,6 M).
Ma non è solo una questione di ciclo evolutivo: certi studi ampiamente discussi sul sito gemello [cite]http://goo.gl/7waC7J[/cite] indicano una certa correlazione tra la massa stellare e la possibilità di possedere un sistema planetario. In pratica le stelle migliori ad ospitare un sistema sono stelle di massa inferiore a 1,5 -1,6 M. Queste sono stelle di taglia medio-piccola e piccola che possono garantire almeno 4 Gy e oltre di permanenza nella Sequenza Principale e rappresentano almeno i 70 -75% delle stelle in una galassia alla stesso stadio evolutivo della nostra.

Il ruolo della metallicità delle stelle

La nebulosa “Occhio di Gatto” generata da una stella gigante tipo AGB.

La nebulosa “Occhio di Gatto” generata da una stella gigante tipo AGB.

La vita come la conosciamo è basata sull’esistenza di tanti elementi chimici più complessi dell’idrogeno ed elio, che gli astronomi chiamano per semplicità metalli, che vengono creati all’interno di stelle di grande massa e che vengono rilasciati nello spazio alla morte di queste con immani esplosioni di supernova e ipernova.  Senza questi metalli non possono formarsi i pianeti rocciosi, le atmosfere complesse, l’acqua e così via. Per comprendere meglio il ruolo dei metalli nella delimitazione di una GHZ è necessario partire dall’inizio della storia evolutiva delle galassie.
Tralasciando l’importante ruolo della materia non barionica 2 nella formazione delle galassie, dal collasso delle imponenti nubi di gas primordiale protogalattico composto unicamente da idrogeno e deuterio si formò una prima generazione di stelle: quelle più massicce si stabilirono presso il centro gravitazionale, mentre quelle più piccole (classe K e M [cite]http://goo.gl/ccspTg[/cite]) andarono a creare quello che oggi chiamiamo alone, una regione pressappoco sferica di stelle a bassa metallicità (Popolazione II e III) che circonda le galassie [cite]http://goo.gl/EnxEGT[/cite].
Nel giro di appena un miliardo di anni invece, le stelle più massicce del centro galattico  si sarebbero convertite in supernovae espellendo i loro metalli che avrebbero arricchito il mezzo interstellare esterno al nucleo. Le onde d’urto avrebbero poi innescato una seconda ondata di formazione stellare; stelle un po’ più piccole ma ricche di metalli che avrebbero poi potuto possedere anche dei pianeti rocciosi (Popolazione I). Di fatto, questo meccanismo implica che la GHZ migri nel tempo da posizioni relativamente più vicine al nucleo a porzioni sempre più esterne del disco man mano che la disponibilità di metalli aumenta verso la periferia galattica [cite]http://goo.gl/yMLtCS[/cite] 3.
Comunque, anche se è vero che un certo tenore di metallicità indica la presenza di elementi chimici complessi necessari alla formazione dei pianeti rocciosi, alcuni studi statistici sui pianeti extrasolari scoperti mostrano che esiste una pericolosa correlazione tra la presenza di grandi pianeti massicci in orbita stretta e l’alto tasso di metallicità riscontrato nella loro stella ospite [cite]http://goo.gl/Zg9L6A[/cite] [cite]http://goo.gl/Xmwa8O[/cite].  Questo curioso aspetto potrebbe escludere la presenza di pianeti più simili alla Terra che si trovano all’interno della loro CHZ e di fatto escludere dalla GHZ anche i pianeti in orbita a stelle con una metallicità elevata.
Pertanto già basandosi solo sull’indice di metallicità stellare si può abbozzare una prima stima dimensionale di una GHZ; un valore eccessivo potrebbe impedire la formazione di pianeti di taglia terrestre nella zona Goldilocks della stella ospite quanto una scarsa metallicità potrebbe impedirne proprio l’esistenza!

L’inabitabilità del nucleo galattico

Lo sconvolgente panorama del cielo visto su un pianeta immerso nel nucleo galattico.

Lo sconvolgente panorama del cielo visto su un pianeta immerso nel nucleo galattico.

Deve esserci una vista magnifica verso il Centro Galattico. Mille e mille stelle di ogni colore e taglia renderebbero un qualsiasi pianeta perennemente immerso in un perenne crepuscolo senza fine, intervallato da una fonte di luce più accecante proveniente dalla sua stella. Peccato che un pianeta simile possa essere tanto ostile alla vita umana e, probabilmente, ad ogni altra.
Sulla Terra il campo geomagnetico contro i raggi cosmici prima, e l’efficace scudo di ozono contro i raggi ultravioletti poi, hanno permesso alle primitive forme di vita acquatiche di  ergersi sulla terraferma.

O3+XXO+ O2 (dove X sta per O, NO, OH, Br e Cl)

L’ozono è una molecola triatomica dell’ossigeno altamente instabile perché cede facilmente il suo terzo atomo ad altri atomi come azoto, idrogeno, bromo e cloro. Alcuni di questi elementi sono già presenti nella stratosfera (azoto,ossigeno e idrogeno) o rilasciati dai vulcani, dal vapore acqueo e dagli oceani. La fotodissociazione indotta dalle radiazioni nell’alta atmosferica  scinde le molecole dei gas in singoli atomi molte volte più reattivi

  • N 2 -> 2N
  • O 2 -> 2O
  • CO 2 -> C + 2O
  • H 2 O -> 2H + O
  • 2NH 3 -> 3H 2 + N 2

finendo per  produrre:

  • NO 2 (consuma fino a 400 molecole di ozono)
  • CH 2
  • CH 4
  • CO 2

Ma un pianeta immerso nel nucleo galattico subirebbe un bombardamento di raggi cosmici che neanche l’azione combinata dell’eliosfera della sua stella e del campo magnetico planetario potrebbero fermare. Un tasso di radiazione appena 100 volte superiore a quello che mediamente investe la Terra [1.  Il flusso di raggi cosmici che normalmente investe la Terra è di 9×104 ergscm2yr1.] è sufficiente affinché la produzione naturale di monossido di azoto nella troposfera impedisca la formazione di uno strato di ozono stabile.
Il monossido di azoto quindi reagisce con altri atomi di ossigeno liberi trasformandosi nel micidiale diossido di azoto, un micidiale gas rossastro che tende a depositarsi al suolo. Qui il diossido di azoto è libero di convertirsi in acido nitrico e altri nitrati rendendo inospitali alla vita sia la superficie solida del pianeta che gli eventuali oceani [cite]http://goo.gl/3uHfS8[/cite].
Un flusso altrettanto simile di radiazioni può essere provocato dalle esplosioni di supernova di tipo II [cite]http://goo.gl/Fuu07j[/cite] entro un raggio di 10 pc dal pianeta [cite]http://goo.gl/1yGBu8[/cite], che presso i nuclei galattici sono statisticamente superiori che nel resto della galassia. Per questo nello stabilire una GHZ coerente occorre tener conto del rischio che eventuali esplosioni di supernova e RGB possano sterilizzare un pianeta che giace entro un raggio ben più grande del nucleo galattico.

Finora non sappiamo se la vita ha origine da materiali e reazioni chimiche che avvengono sul pianeta o sono frutto di una sequenza molto più antica che inizia già nello spazio interstellare (molte recenti scoperte spingono verso questa seconda ipotesi [cite]http://goo.gl/paIV6U[/cite]). Ma le stesse radiazioni ionizzanti che possono sterilizzare un pianeta possono benissimo distruggere i composti organici nelle comete e non solo.
Studiando le orbite dei resti della formazione stellare 4 (che per il Sole chiamiamo Nube di Oort) appare subito evidente che tanto più un sistema planetario si avvicina al nucleo galattico tanto più il pozzo gravitazionale di questo influenza e distorce le orbite dei resti cometari fino a disperderli o a farli precipitare verso il sistema planetario interno [cite]http://goo.gl/a4OajM[/cite]. Anche in questo caso i pianeti interni sarebbero continuamente sterilizzati dall’incessante bombardamento cometario a cui sono costretti.

Conclusioni

Naturalmente il concetto di GHZ fin qui espresso non è da considerarsi assoluto; possono esserci altre condizioni astrofisiche che qui non sono state prese in considerazione in grado di espandere o contrarre la zona galattica abitabile. Magari altre forme di vita potrebbero essere abbastanza tenaci da svilupparsi e prosperare anche in ambienti a noi ostili o comunque dove non ce lo aspetteremmo. Poi anche qui, nella periferia galattica esistono piccole stelle con un basso tenore di metalli e magari senza pianeti interessanti accanto a supergiganti capaci un giorno di sterilizzare altri mondi nel raggio di diversi parsec. Detta così quindi la GHZ può essere molto più frastagliata e meno definita della più nota Circumstellar Habitable Zone ma non per questo è meno intessante studiarla.

 

Curiosity conferma le emissioni sporadiche di metano su Marte

Mille indizi non fanno una prova. In giurisprudenza questo è vero, in fondo è meglio un colpevole libero che un innocente in galera. Ma a vedere i dati che che le sonde automatiche su Marte restituiscono ogni giorno fanno credere che forse una prova definitiva sulla presenza o meno di forme di vita sul pianeta non è tanto lontana da essere scoperta.

 

Le misure del metano atmosferico di Marte rilevate dallo spettrografo del Curiosity.

Le misure del metano atmosferico di Marte rilevate dallo spettrometro TLS del Curiosity.

È notizia del dicembre scorso che lo strumento Tunable Laser Spectrometer (TLS) (che fa parte della schiera del laboratorio automatico Sample Analysis at Mars (SAM)) a bordo della Mars Science Laboratory Rover (Curiosity) [1. Il Tunable Laser Spectrometer è  stato progettato per  misurare gli isotopi del carbonio nell’anidride carbonica (CO2) e nel metano (CH4) dell’atmosfera marziana.] ha mostrato nell’arco di 605 sol (i giorni marziani) corrispondenti a quasi un anno marziano, segnali di almeno un importante cambiamento episodico nella concentrazione di metano atmosferico [cite]http://www.jpl.nasa.gov/news/news.php?release=2014-432[/cite] che è passato da 0,7 ppbv a circa 7 ppbv per un periodo di circa 60 sol per poi ridiscendere ai valori precedenti.
L’origine di questo improvviso aumento di metano, ma soprattutto la sua repentina discesa, non è semplice da spiegare; come del resto la quasi costante presenza di metano sul Pianeta Rosso.

[table id=20 /]

Come dimostra la tabella qui a fianco, su Marte c’è pochissimo metano persistente nell’atmosfera ma c’è. Le radiazioni solari ultraviolette che arrivano fino al suolo marziano indisturbate, dissociano queste molecole [cite]http://goo.gl/7OD3x8[/cite] in tempi piuttosto brevi, circa 300 – 350 anni o giù di lì. Questo significa che comunque una o più fonti rilasciano più o meno continuamente metano nell’atmosfera marziana [cite]http://ilpoliedrico.com/2012/07/le-misteriose-origini-del-metano-marziano.html[/cite] contribuendo a mantenere la debolissima ma costante presenza di questo gas.
Finora i risultati dei satelliti come il Mars Express e il Mars Global Surveyor e le osservazioni da Terra 1 avevano mostrato risultati abbastanza contraddittori che potevano essere scambiati come cattiva interpretazione dei dati, tant’è che lo stesso Curiosity fino al 2013 non aveva mai mostrato che tenui tracce del discusso gas [cite]http://goo.gl/NOgZba[/cite] facendo così pensare che su Marte non vi fosse alcuna attività metanogena importante in atto.
Ora però i nuovi dati, che sono stati oggetto di studio anche di un team guidato da Francisco Javier Martín-Torres, dell’Istituto andaluso di Scienze della Terra (CSIC-UGR) [cite]http://goo.gl/tD3Z1X[/cite], mostrano che invece una qualche attività sporadica metanogenica su Marte esiste.
Adesso che l’esistenza di questi pennacchi è stata confermata da strumenti presenti sulla superficie, ora resta da capirne le origini. Il confronto con i dati meteorologici raccolti dallo stesso Curiosity nello stesso arco di tempo potrà far luce se si tratta di fenomeni stagionali o meno; un altro passettino in avanti per carpire i misteri del Pianeta Rosso.


Note:

 

Sedimenti naturali e strutture fossili

Se vogliamo cercare testimonianze di vita passata sulla Terra non c’è che l’imbarazzo di dover scegliere dove guardare. Fossili di animali preistorici, piante e di più semplici forme di vita sono state trovate ovunque si sia guardato; dopotutto questo è un pianeta che la vita ha modellato a suo piacimento per almeno tre miliardi e mezzo di anni. È questo, un vastissimo spazio che sta al confine tra la geologia e la biologia, difficile da interpretare ma anche ricco di sorprese.

img_6764_a

Figura 1:
La Scala dei Turchi in comune di Realmonte (AG) in Sicilia. La bizzarra struttura naturale è composta da marna, una roccia sedimentaria di natura calcarea e argillosa, avente un caratteristico colore bianco puro. Credit: Il Poliedrico

Sezione trasversale di una roccia che mostra i sedimenti organici fossili al suo interno. Crfedit: : Nora Noffke, Daniel Christian, David Wacey, and Robert M. Hazen/Astrobiology

Figura 2:
Sezione trasversale di una roccia mostra i sedimenti organici fossili al suo interno.
Credit: : Nora Noffke, Daniel Christian, David Wacey, and Robert M. Hazen/Astrobiology

La vita nell’Archeano

Se voi avreste visitato la Terra durante l’Archeano, avreste trovato la Terra dominata da innumerevoli vulcani attivi. Il cielo vi sarebbe apparso di colore arancione a causa dell’alta concentrazione di metano nell’atmosfera mentre le acque degli oceani poco profondi che coprivano gran parte della superficie del pianeta avrebbero avuto una leggera sfumatura verde per i microrganismi che avevano appena imparato a vivere sui litorali, e che poi sarebbero diventati le stromatoliti e le tromboliti che vediamo oggi.
La Luna vi sarebbe apparsa molto più grande e le sue maree gigantesche, perché il satellite era allora molto più vicino. Il Sole era invece un po’ più piccolo e fresco, ma a riscaldare l’ambiente c’avrebbero pensato i vulcani e l’effetto serra…

All’inizio della storia sulla Terra era presente solo roccia magmatica, quella che costituisce ancora oggi almeno il 65% della crosta del pianeta. Adesso invece, almeno il 75% della superficie del pianeta è rivestito da uno strato sottilissimo di roccia di tipo sedimentario, cioè originato da sedimenti. Questi sedimenti sono prodotti dalla rimodellazione continua della crosta terrestre da parte dell’atmosfera e dell’idrosfera (processi abiotici), e dalla biosfera.
Esempi tipici di roccia sedimentaria sono le arenarie, le brecce e i conglomerati. La loro genesi è dovuta a processi di erosione, deposito e successivo  compattamento di frammenti più o meno grandi di altre rocce preesistenti.
Altri esempi di processi di sedimentazione sono quei sedimenti prodotti da soluzioni (tipicamente acqua) sature di minerali di carbonato (CO 3 2- ) come la calcite, l’aragonite e la dolomite.
Va da sé che i processi biologici dominanti sul nostro pianeta hanno lasciato ben poche strutture sedimentarie ancora non contaminate dalla loro presenza.

Le strutture sedimentarie legate alla biosfera sono prodotte da colonie di microrganismi che interagiscono con i sedimenti di origine naturale (abiotici) come quelli descritti prima. Queste colonie, molto spesso bentoniche 1, che possono essere composte da batteri, alghe, protozoi, archaea etc.,  si dispongono lungo il piano orizzontale 2 dando luogo a film microbici e altre sostanze polimeriche extracellulari (EPS) 3. Queste strutture poi danno origine alle microbialiti. L’ammassarsi di queste stuoie microbiche in presenza di carbonato produce quelle strutture sedimentarie note come stromatoliti [cite]http://www.geosociety.org/gsatoday/archive/23/9/abstract/i1052-5173-23-9-4.htm[/cite]  4  5.

Invece, con l’assenza della precipitazione dei carbonati o di altri minerali e la stratificazione delle stuoie microbiche si hanno quelle che gli anglofoni chiamano MISS (Microbially induced sedimentary structures), in italiano Strutture Sedimentarie Indotte Microbiologicamente (figura 2) [cite]http://www.ncbi.nlm.nih.gov/pubmed/24205812[/cite] 6.

Sebbene entrambe le strutture principali dei sedimenti fossili (stromatoliti e MISS) abbiano come origine i tappeti microbici, le MISS sono generalmente associate a fenomeni di superficie e la sostanziale assenza di strati sovrapposti.
Le stromatoliti – e le tromboliti – invece hanno una terza dimensione pronunciata, dovuta alla precipitazione minerale e alla cementazione di stuoie microbiche impilate una sull’altra. Queste si sviluppano principalmente in ambienti ricchi di calcio e di bicarbonato, di solito in ambienti marini soprattutto alle basse latitudini.
le MISS si verificano  piuttosto in ambienti – sia marini che terrestri –  evaporitici 7 e poveri di carbonati che sono più frequenti alle latitudini più elevate,.
Sia le MISS che le  stromatoliti sono quindi tra le più antiche testimonianze della vita sulla Terra. La loro distribuzione temporale va dal primo Archeano fino ai giorni nostri  ed interessa un po’ tutti i processi sedimentari presenti nelle piane di marea, lagune, spiagge fluviali, laghi, etc.. Le stromatoliti rinvenute mostrano anche che vi fu un grande incremento nelle diversità morfologiche durante il Proterozoico, soprattutto verso la fine del Mesoproterozoico (1,3 miliardi di anni fa). Queste diversità probabilmente riflettono interazioni tra le stuoie microbiche e organismi non microbici più evoluti.

La regione Pilbara, nell’Australia Occidentale, a destra una MISS di 3,5 Gyr fa rinvenuta nello stesso sito da Nora Noffke. 
[showmap name=’Pilbara’] 1113-fossil-rock

I resti più antichi risalgono fino a 3,2 miliardi di anni fa, mentre il più antico deposito sedimentario biologico è stato rinvenuto nella regione di Pilbara, in Australia, e fatto risalire al primo Archeano (circa 3,48 miliardi di anni fa).  Questo dimostra che già in quel periodo la vita procariotica era capace di organizzarsi in strutture evolute 8 [cite]http://www.ncbi.nlm.nih.gov/pubmed/9535661[/cite].

Purtroppo, i fenomeni di mineralizzazione inorganica intorno ai modelli microbici tendono a degradare e pian piano sostituire le strutture biologiche preesistenti. Anche le strutture EPS vengono degradate e sostituite da minerali argillosi. Dopo che i materiali microbici sono scomparsi, il carbonio e il calcio rimasti creano microcristalli di aragonite all’interno delle strutture che un tempo erano corpi viventi , fino a sostituire del tutto  le caratteristiche impronte biogene.
A questo punto resta da spiegare come è possibile  riconoscere un deposito sedimentario naturale da uno di origine biologica quando ormai dopo miliardi di anni ogni molecola biologica stata estratta e degradata dall’ambiente. Semplicemente dalla complessità della struttura minerale rimasta.
Una formazione naturale per quanto complessa essa sia, è pur sempre dominata da una totale casualità nelle forme, dimensioni e struttura. Al contrario, una struttura di origine biotica, anche se completamente mineralizzata e alterata da condizioni ambientali avverse, manterrà comunque molti degli schemi e delle complessità proprie della struttura biologica originaria.

 


Note:

Possibili tracce di strutture biologiche fossili fotografate dai Mars Exploration Rover

Già nel lontano 2004 la missione più longeva su Marte, Opportunity, fotografò delle microsferule di ematite, soprannominate mirtilli, una delle prime prove concrete che su Marte in un tempo molto lontano deve essere esistita acqua allo stato liquido.
Poi nel corso degli anni, il quadro che disegnava Maven dall’orbita, prima Opportunity e Curiosity poi direttamente dal suolo marziano è passato da poco più che una probabilità a una  una certezza: c’era stato un momento nel passato lontano che Marte aveva posseduto dell’acqua liquida sulla sua superficie. Nel corso degli anni si sono accumulate centinaia di prove: corsi essiccati di fiumi, minerali e depositi argillosi che solo la presenza non occasionale di acqua liquida può aver generato sul Pianeta Rosso. 

Terra vs. Marte: Ecco una delle immagini presenti sul Lavoro pubblicato su IJASS, 2014. La somiglianza delle strutture evidenziate sulla Terra (microbialiti:colonie di microrganismi unicellulari) e su Marte (fotografate da Opportunity sul pianeta rosso) è davvero notevole (vedi i contorni automatici ottenuti dal sistema computerizzato, sulla destra) . La successiva analisi automatica di immagine ha confermato con alta significatività statistica l'identità delle immagini.

Terra vs. Marte:
Ecco una delle immagini presenti sul Lavoro pubblicato su IJASS, 2014. La somiglianza delle strutture evidenziate sulla Terra (microbialiti:colonie di microrganismi unicellulari) e su Marte (fotografate da Opportunity sul pianeta rosso) è davvero notevole (vedi i contorni automatici ottenuti dal sistema computerizzato, sulla destra) . La successiva analisi automatica di immagine ha confermato con alta significatività statistica l’identità delle immagini.

Nel 2004 il Mars Exploration Rover Opportunity stava esplorando il Meridiani Planum quando in un costone di roccia chiamato Guadalupe, si imbatté in una delle prime e più evidenti prove che nel lontano passato Marte aveva posseduto acqua liquida [cite]http://mars.nasa.gov/mer/newsroom/pressreleases/20040302a.html[/cite].
Non che la cosa fosse del tutto inaspettata. Già la missione orbitale Mars Odyssey aveva segnalato la presenza di grandi quantità di idrogeno che facevano supporre la presenza di ghiaccio sotto la superficie di Marte, ma non si erano ancora trovate tracce così evidenti della passata presenza di acqua liquida sulla superficie; ma non solo…

Il Dott. Giorgio Bianciardi dell’Università di Siena, biologo e medico, ricercatore dell’Università di Siena, dove insegna Microbiologia e Astrobiologia, [cite]http://ijass.org/publishedpaper/year_abstract.asp?idx=132[/cite][cite]http://ilpoliedrico.com/2012/05/intervista-a-giorgio-bianciardi-sul-labeled-release-experiment.html[/cite], il Dott. Vincenzo Rizzo ex ricercatore del CNR presso l’Istituto di Ricerca per la Protezione Idrogeologica (CNR-IRPI) di Cosenza, geologo, e il Dott. Nicola Cantasano ricercatore CNR all’istituto di Foreste e Agricoltura del Mediterraneo di Cosenza, hanno comparato 30 immagini riprese dalle missioni  Mars Exploration Rover (Spirit e Opportunity) e confrontate con altrettante (45) immagini di stromatoliti terrestri 1 per un totale di 40 000 microstrutture esaminate, tenendo conto della forma, dimensioni, complessità e similitudini tra le immagini marziane e i campioni terrestri [cite]http://ijass.org/PublishedPaper/topic_abstract.asp?idx=474[/cite].

Questa immagine mostra una parte dello sperone di roccia a Meridiani Planum, Mars, soprannominato “Guadalupe.” Fu scattata dal Microscopic Imager (MI) di Opportunity,. Credit: NASA/JPL

Il team italiano evidenzia una similitudine statistica molto elevata tra le microstrutture rilevate dalle immagini riprese su Marte e le strutture microbiologiche (microbialiti 2 e stromatoliti) terrestri.
Tutte le immagini dei campioni sono state ricomposte sulle stesse proporzioni delle immagini trasmesse dai rover (sui metodi di trattamento e i software usati rimando all’articolo originale su ijass.org) e poi si è proceduto con una analisi di tipo frattale 3 [cite]http://ilpoliedrico.com/2012/04/caccia-ai-microrganismi-marziani-le-nuove-ricerche-sugli-esperimenti-labeled-release.html[/cite] (la stessa che Giorgio Bianciardi usa da anni nelle sue ricerche biomediche) sulle immagini prendendo in considerazione otto diversi indici frattali che indicano altrettanti dati riguardo la complessità e le dimensioni delle strutture esaminate.
I risultati a cui sono giunti mostrano una totale similitudine tra le immagini marziane e i campioni terrestri sostenendo che la probabilità di una casualità simile e pari a 1 su 2^8 (p < 0,004). In altre parole i ricercatori italiani sostengono che durante il periodo in cui sussistevano le condizioni per la presenza di acqua liquida su Marte, esistevano ampie colonie di microorganismi unicellulari molto simili a quelli che hanno dato origine alle stesse simili strutture qui sulla Terra.

soprannominata "Salsberry Peak." Sono evidenti i segni della presenza dell'acqua nel passato di Marte.  Credit: NASA/JPL/Caltech/MSSS. Composizione di Jason Major.

Questo mosaico di 28 immagini è stato ripreso il Sol 844 (21/12/2014) e mostra una parte del Gale Crater soprannominata “Salsberry Peak.” Sono evidenti i segni della presenza dell’acqua nel passato di Marte.
Credit: NASA/JPL/Caltech/MSSS. Composizione di Jason Major.


Note:

 

Omochiralità quantistica, biologica e universalità della Vita

Anche se in merito sono state fatte le diverse e più disparate ipotesi, dalla radiazione polarizzata di una supernova vicina nel periodo della nascita della vita sulla Terra fino alla radiazione di una pulsar ormai spersa e forse estinta che investiva il pianeta sempre in quei momenti, nessuna di queste è a mio avviso abbastanza libera da eventi dovuti al caso. Probabilmente l’origine dell’omochiralità levogira degli aminoacidi necessari alla vita è dovuta a fattori più fondamentali e universali. 

[latexpage]

stereochemTutti gli aminoacidi e molte altre molecole – isomeri – hanno un aspetto diverso se invertite spazialmente. Tutta la vita che conosciamo è capace di utilizzare solo una delle due immagini; in genere la versione levogira per quanto riguarda gli aminoacidi e la versione destrogira per i glucidi. Queste molecole complesse esistono in due forme speculari e non sovrapponibili dette enantiomeri  che, in base alla disposizione spaziale in tre dimensioni degli atomi, vengono definite destro o levogire per la loro capacità di ruotare il piano della luce polarizzata 1. A parte questa apparente sottigliezza, entrambi gli enantiomeri hanno sostanzialmente le stesse proprietà fisiche 2. Però, in certe reazioni o strutture, è utilizzabile solo l’una o l’altra forma. La principale funzione di particolari proteine (macromolecole biologiche formate da sequenze di aminoacidi legate tra loro) dette enzimi, è quella di catalizzare le reazioni biomolecolari, tra cui la sintesi delle altre proteine. La capacità catalitica degli enzimi dipende criticamente dalla loro struttura tridimensionale, la quale a sua volta dipende dalla direzione della sequenza degli aminoacidi. Catene sintetiche di amminoacidi formate sia da enantiomeri levogiri sia da enantiomeri destrorsi in una miscela 1:1, detta racemo, non si avvolgono nel giusto modo per produrre un’efficace attività catalitica; esse sono incapaci di formare una regolare struttura elicoidale.  Il DNA, ad esempio, è composto da basi azotate, glucidi e fosfati racchiusi in strutture chiamate nucleotidi le quali compongono la celebre doppia elica: che qui è sempre destrorsa. 
Ogni produzione spontanea 3 di aminoacidi ottenuta in laboratorio da luogo sempre a una soluzione racemica mentre le catene proteiche degli esseri viventi che conosciamo utilizzano esclusivamente forme levogire. 
Il problema dell’omichiralità degli  isomeri necessari alla vita non è mai stata risolta del tutto. Alcuni ritengono che questa sia frutto della selezione entropica naturale [cite]http://dx.doi.org/10.2174/187231308784220536[/cite] che pare favorisca la selezione delle migliori soluzioni di trasduzione dell’energia disponibili. In questo una soluzione enantiopura è decisamente migliore di una racemica, come dimostrano altri studi [cite]http://pubs.acs.org/doi/abs/10.1021/jp046478x[/cite], ma tutti questi studi pur dimostrando la necessità della vita di scegliere per l’omochiralità non spiegano perché per gli aminoacidi sia stato scelto il modello levogiro e destrogiro per gli zuccheri.
Una plausibile spiegazione viene dalle riflessioni di Frederic Vester e Tilo L. V. Ulbricht del 1957, i quali sospettarono la appena scoperta Violazione della Parità prodotta dall’Interazione Debole negli atomi [cite]10.1016/S0040-4020(01)92714-0[/cite] di essere responsabile dell’omochiralità a ogni scala. o quasi..

La simmetria P

L'interazione debole di un antineutrino elettronico con un neutrone all'interno di un nucleo atomico può spingerlo a decadere in un protone e un elettrone. Credit Il Poliedrico.

L’interazione debole di un antineutrino elettronico con un neutrone all’interno di un nucleo atomico può spingerlo a decadere in un protone e un elettrone. Credit Il Poliedrico.

In fisica si chiama Simmetria P, simmetria di trasformazione di parità 4. Quasi tutte le leggi fisiche fondamentali rispettano questa regola. L’elettromagnetismo, la forza di gravità e l’interazione nucleare forte rispettano tale simmetria, ossia sono invarianti rispetto all’inversione delle coordinate spaziali (potremmo immaginare lo stesso fenomeno come visto riflesso allo specchio procedere verso il medesimo risultato che nel mondo reale, solo che è appunto invertito spazialmente). La più debole delle quattro interazioni, l’interazione debole, invece no. Anzi è proprio lei la causa della violazione della Simmetria P.
Come dice il suo nome, l’interazione debole è veramente debole: circa 1000 volte meno intensa della forza elettromagnetica e 100 000 volte meno intensa della forza nucleare forte. L’interazione debole è responsabile sia per la fusione nucleare delle particelle subatomiche che per l’emissione di raggi beta durante il decadimento radioattivo. I raggi beta sono in realtà elettroni o positroni ad alta energia espulsi da un nucleo atomico durante il decadimento beta ($\beta$). Queste particelle hanno uno spin intrinseco e quindi, quando si muovono lungo il loro asse di spin, si possono classificare come sinistrorsi o destrorsi. La violazione della parità indica che le particelle beta emesse dai nuclei radioattivi mostrano segni evidenti di una asimmetria chirale: le particelle sinistrorse emesse durante il decadimento superano di gran lunga quelli destrorse.
Durante il decadimento beta vengono emesse anche altre particelle elettricamente neutre – il neutrino e l’antineutrino – che si propagano quasi alla velocità della luce. Come l’elettrone, l’antineutrino emesso dalla materia radioattiva ha uno spin ma, diversamente dall’elettrone, esiste solo nella forma destrorsa. Pare che nell’universo non esistano neutrini destrorsi e antineutrini sinistrorsi.

Chiralità Quantistica

wzIl Modello Standard delle particelle elementari, unisce le leggi dell’eletttromagnetismo di Maxwell e l’interazione debole in un’unica forza, l’Interazione Elettrodebole e introduce il concetto di correnti deboli cariche e le correnti deboli neutre mediate dai bosoni $W^\pm$ e $Z^0$. L’opera di queste correnti , o forze,  tra due particelle elementari dipende dalla distanza tra le particelle, dalla loro carica elettrica e dalla direzione del loro spin. L’elettrone ha una carica elettrica negativa e la forza elettrica tra due elettroni qualsiasi è sempre repulsiva. Invece, la carica debole $W$ è non nulla per un elettrone sinistrorso e nulla per uno destrorso. Quindi, un elettrone destrorso si limita semplicemente a non percepire la forza $W$. La corrente debole neutra $Z$ invece agisce sullo spin, elettroni sinistrorsi e destrorsi hanno cariche $Z$ di segno opposto e di intensità circa uguale. La differenza di segno provoca l’attrazione degli elettroni destrorsi verso il nucleo da parte della corrente $Z$ e la repulsione di quelli sinistrorsi 5 6. È per questo che il decadimento nucleare beta, dominato dalle correnti deboli, produce un eccesso di elettroni sinistrorsi. Se non fosse violata la parità, in un mondo visto allo specchio il decadimento beta produrrebbe elettroni destrorsi e la corrente debole neutra $Z$ attirerebbe verso il nucleo anche gli elettroni sinistrorsi. Questi processi non si osservano però nel mondo reale, il che è un altro modo per affermare che la forza debole è chiralmente asimmetrica e che la parità non viene conservata.

Chiralità molecolare

life

Pozze di fango, comete e sacche di polvere interstellare. Ecco dove possono nascere i mattoni della Vita. Credit: Il Poliedrico

Come conseguenza dell’interazione debole, gli atomi, finora pensati achirali, mostrano invece di possedere una distinzione tra destra e sinistra. Questa distinzione se è presente su scala atomica, potrebbe riflettersi su scale di ordine superiore? C’è da aspettarsi che anche le strutture molecolari più complesse, come ad esempio gli aminoacidi, mostrino proprietà fisiche differenti in base alla loro chiralità. L’asimmetria chirale a livello subatomico ha origine a livello fondamentale con la violazione della parità. Su scala superiore la corrente debole neutra $Z$ fa sì che che una molecola chirale abbia stati energetici diversi tra i due isomeri.
Per comprendere meglio questo meccanismo, immaginiamo una molecola chirale come un’elica o una vite e supponiamo che la corrente $Z$ non esista. Un elettrone con spin $\uparrow$ che si muove nello stesso senso dell’elica $\uparrow$ è destrorso,  mentre è sinistrorso se si muove nel senso contrario. Dal punto di vista probabilistico però dovremmo comunque aspettarci che la chiralità media degli elettroni sia nulla; però le correnti elettromagnetiche presenti nell’atomo tendono a far allineare l’asse orbitale dell’elettrone nel senso opposto al suo spin. Questo fenomeno, noto come accoppiamento spin-orbita, tende a far allineare l’elettrone nel moto opposto al suo spin in una molecola chirale destrorsa, per cui in questo caso gli elettroni tendono ad essere sinistrorsi. Invece negli enantiomeri levogiri sono gli elettroni destrorsi a prevalere. Ora tornando a prendere in considerazione anche la corrente debole neutra $Z$, che interagisce con gli elettroni  in modi dipendenti dalla loro chiralità, viene fuori che essa provoca una diversità energetica tra due enantiomeri opposti [cite]http://pubs.rsc.org/en/content/articlelanding/1983/c3/c39830000117#!divAbstract[/cite].
Come è facile intuire, l’enantiomero levogiro degli aminoacidi- che è quello biologicamente più dominante – è anche quello che possiede l’energia molecolare più bassa (gli elettroni dominanti sono destrorsi), mentre al contrario è l’enantiomero destrorso il più energetico.
Tutto questo è sostanzialmente in accordo con i principi della statistica e della termodinamica che in caso di sostanziale equilibrio è la forma con l’energia più bassa a prevalere; è stato calcolato che la discrepanza nella produzione spontanea dei due isomeri è così minuscola da passare inosservata: una parte su 10^17.
Un’altra fonte dell’omochiralità è il decadimento $\beta$. Nell’ipotesi Vester-Ulbricht si sostiene che durante il decadimento spontaneo viene emessa una debole traccia elettromagnetica, un Effetto Bremsstrahlung 7 interno all’atomo [cite]10.1016/S0031-8914(36)80008-1[/cite]. Questa emissione ha la stessa polarizzazione della particella che la emette. Per gli effetti dell’interazione elettrodebole che abbiamo visto più sopra, la maggior parte, circa l’80%, degli elettroni emessi durante il decadimento sono sinistorsi, e così è anche per la radiazione. Gli effetti della radiazione polarizzata è che essa tende a distruggere le molecole chirali dello stesso ordine, così una polarizzazione sinistrorsa tende a distruggere le molecole sinistrorse, ma il contributo della radiazione Bremsstrahlung interna è veramente molto piccolo; si calcola invece che l’interazione diretta della radiazione $\beta$ (elettroni e positroni) sui due isomeri sia comunque solo di una parte su 10^11. Un importante sostegno a questa teoria viene dai risultati di un recente studio che mostra un legame significativo  tra l’energia degli elettroni diversamente polarizzati e l’evoluzione chirale della bromocanfora [cite]http://dx.doi.org/10.1103/PhysRevLett.113.118103[/cite].
Ecco quindi sostanzialmente spiegato come mai ogni produzione spontanea di aminoacidi in laboratorio (ex. gli esperimenti di Stanley e Urey) porta sempre a una sostanziale soluzione racemica.
Ma una scappatoia al racemo c’è. Come insegna la termodinamica, un sistema chiuso tende sempre ad evolversi verso uno stato di equilibrio di minima energia, dove le concentrazioni molecolari sono definite dalla loro energia ed entropia. Trascurando la diversità energetica tra i due enantiomeri dovuta dalle correnti nucleari deboli, differenza reale ma comunque piccolissima, un sistema chiuso quindi può solo evolversi verso un sistema chiralmente simmetrico dove gli isomeri levogiri e destrorsi sono presenti in uguale proporzione. In un sistema aperto all’ingresso di nuova materia ed energia invece non è raggiungibile un equilibrio termodinamico; al suo posto accade un fenomeno chiamato rottura di simmetria, che porta alla predominanza spontanea di uno dei due enantiomeri sull’altro. Anche in questo caso gli gli stessi principi statistici e termodinamici suggeriscono che siano gli enantiomeri levogiri degli aminoacidi a prevalere.
E come la mano sinistra si intreccia meglio con la destra, anche i glucidi di conseguenza hanno subito la loro selezione: per adattarsi meglio agli aminoacidi levogiri i glucidi hanno subito un’evoluzione complementare fino a produrre strutture elicoidali destrorse, precursori del DNA.

Conclusioni

L’idea che l’omochiralità delle forme più complesse possa trarre origine dalle leggi più fondamentali della natura è veramente attraente. 
Non occorrerebbe più attendere – o dimostrare – che un sorgente di radiazioni polarizzata illumini un mondo promettente per ottenere la scintilla omochirale. Elettroni sinistrorsi prodotti dal decadimento $\beta$ di isotopi prodotti dalle supernovae sono senza dubbio un fonte universale  di radiazione polarizzata capace di condizionare gli isomeri ovunque: dagli asteroidi alle comete ghiacciate nelle nubi di Oort di di ogni sistema stellare; dai fondali di oceani alieni a pozze di fango su mondi appena formati fino ad arrivare anche alle nubi interstellari e ai globuli di Bok.
Se l’ipotesi che le radici dell’omochiralità sono nell’Interazione Elettrodebole fosse corretta, dimostrerebbe che le fondamenta della Vita sono più legate alla struttura fondamentale dell’Universo di quanto finora si pensi. Una gran bella idea!


Note:

Come ti calcolo le proprietà di un esopianeta (prima parte)

[latexpage]

La scoperta di un enorme numero dei pianeti extrasolari in questi ultimi vent’anni ha sicuramente rivoluzionato l’idea di Cosmo. A giugno di quest’anno erano oltre 1100 i pianeti extrasolari scoperti e accertati nel catalogo di exoplanet.eu, facendo stimare, con le opportune cautele dovute a ogni dato statistico, a circa 60 miliardi di pianeti potenzialmente compatibili con la vita. Questo impressionante numero però non deve far credere immediatamente che 60 miliardi di mondi siano abitabili; Venere, che dimensionalmente è molto simile alla Terra, è totalmente incompatibile con la vita terrestre che, probabilmente, si troverebbe più a suo agio su Marte nonostante questo sia totalmente ricoperto da perossidi, continuamente esposto agli ultravioletti del Sole e molto più piccolo del nostro globo.

In concreto come si fa a calcolare i parametri fisici di un pianeta extrasolare? Prendiamo l’esempio più facile, quello dei transiti. Questo è il metodo usato dal satellite della NASA Kepler, che però soffre dell’handicap geometrico del piano planetario che deve giacere sulla stessa linea di vista della stella,o quasi. Ipotizziamo di stare osservando una debole stellina di 11a magnitudine, che però lo spettro indica come una K7:

 [table id=57 /]

diagramma di luce

La distanza

La tabella di Morgan-Keenan suggerisce per questo tipo di stella una massa di 0,6 masse solari,  una temperatura superficiale di appena 4000 K. e un raggio pari a 0,72 volte quello del Sole. Analizzando invece questo ipotetico diagramma del flusso di luce 1 proveniente dalla stella, appare evidente  la periodicità dell’affievolimento (qui esagerato) della sua luce.
Un periodo pari a 76,86 giorni terrestri, un classico evento tipico anche di una semplice binaria ad eclisse per esempio, solo molto più veloce. Un semplice calcolo consente di trasformare il periodo espresso qui in giorni in anni (o frazioni di esso). Pertanto il suo periodo rispetto agli anni terrestri è $76,86/365,25= 0,2104$. A questo punto è sufficiente applicare la terza Legge di Keplero per ottenere la distanza del pianeta dalla sua stella espresso in unità astronomiche:

D3UA=P2yM=30,210420,.6=0,2983 Quindi l’esopianeta scoperto ha un periodo orbitale di soli 76,86 giorni e orbita a una distanza media di sole 0,2368 unità astronomiche dalla stella, ossia a poco più di 44.6 milioni di chilometri dalla stella. Una volta scoperto quanto dista il pianeta dalla stella è facile anche calcolare la temperatura di equilibrio del pianeta, per vedere se esso può – in linea di massima – essere in grado di sostenere l’acqua allo stato liquido.

La temperatura di equilibrio

πR2p4πd2=(Rp2d)2 L’energia intercettata da un pianeta di raggio $R_p$ in orbita alla sua stella  a una distanza $d$

Per comodità di calcolo possiamo considerare una stella come un perfetto corpo nero ideale. La sua luminosità è perciò dettata dall’equazione: $L_{\bigstar}=4\pi R_{\bigstar}^2\sigma T_{\bigstar}^4$, dove $\sigma$ è la  costante di Stefan-Boltzmann che vale  $5,67 \cdot{10^{-8}} W/m^2 K^4$). Qualsiasi pianeta di raggio $R_p$ che orbiti a distanza $d$ dalla stella cattura soltanto  l’energia intercettata pari alla sua sezione trasversale $\pi R_p^2$ per unità di tempo e  divisa per l’area della sfera alla distanza $d$ dalla sorgente. Pertanto si può stabilire che l’energia intercettata per unità di tempo dal pianeta è descritta dall’equazione: 4πR2σT4×(Rp2d)2

Ovviamente questo potrebbe essere vero se il pianeta assorbisse tutta l’energia incidente, cosa che per fortuna così non è, e riflette nello spazio parte di questa energia. Questa frazione si chiama albedo ed è generalmente indicata con la lettera $A$. Quindi la precedente formula va corretta così: (1A)×4πR2σT4×(Rp2d)2

Il pianeta (se questo fosse privo idealmente di una qualsiasi atmosfera) si trova così in uno stato di sostanziale equilibrio termico tra l’energia ricevuta, quella riflessa dall’albedo e la sua temperatura. L’energia espressa dal pianeta si può descrivere matematicamente così: $L_{p}= 4\pi R_{p}^2\sigma T_{p}^4$ e, anche qui per comodità  di calcolo, si può considerare questa emissione come quella di un qualsiasi corpo nero alla temperatura $T_p$. Pertanto la temperatura di equilibrio è: \begin{equation}

4\pi R_{p}^2\sigma T_{p}^4 =\left ( 1-A \right ) \times 4\pi R_{\bigstar}^2\sigma T_{\bigstar}^4\times \left ( \frac{R_p}{2d}\right )^2 \end{equation}

Ora, semplificando quest’equazione si ottiene: T4p=(1A)T4(R2d)2Tp=T(1A)1/4R2d

Con i dati ottenuti in precedenza è quindi possibile stabilire la temperatura di equilibrio dell’ipotetico esopianeta ipotizzando un albedo di o,4: \begin{equation}

T_{p}=4000 \enskip K \cdot 0,6 ^{1/4}\sqrt { \frac{500 000 \enskip km}{2\cdot 4,46\cdot 10^7\enskip km}} =263,47 \enskip K.

\end{equation}

Risultato: l’esopianeta pare in equilibrio termico a -9,68 °C, a cui va aggiunto alla superficie l’effetto serra causato dall’atmosfera. Ma in fondo, anche le dimensioni contano …

Il raggio

1353958553795

Il calo della luminosità indica le dimensioni dell’oggetto in transito: $r^2/R^2$

Nel momento del transito, si registra un calo della luminosità della stella.  L’ampiezza di questo calo rispetto alla luminosità standard della stella fornisce una stima della misura del raggio del pianeta. Il calo non è immediato, ma segue un andamento proporzionale alla superficie del pianeta occultante, uguale sia in ingresso che in  uscita. In base a queste osservazioni si possono ricavare i flussi di energia luminosa (indicati appunto dalla lettera $F$) provenienti nei momenti del transito. $F_{\bigstar}$ è la quantità di energia luminosa osservata nella fase di non transito, normalmente normalizzato a 1, mentre l’altra $F_{transito}$ rappresenta il flusso intercettato nel momento di massimo transito:. la differenza tra i due flussi ( $\frac{\Delta F}{F}=\frac{F_{\bigstar}-F_{transito}}{F_{\bigstar}}$) è uguale alla differenza tra i raggi della stella e del pianeta.

Rp=RΔFF

Il diagramma (ipotetico) a destra nell’immagine qui sopra mostra che il punto più basso della luminosità è il 99,3% della luminosità totale. Risolvendo questa equazione per questo dato si ha: RpR=ΔFF=ΔF=10,993=0,007=0,08366

Conoscendo il raggio della stella, 500000 km, risulta che l’esopianeta ha un raggio di quasi 42 mila chilometri,  quasi il doppio di Nettuno!

Seconda Parte

 

 Errata corrige

Un banale errore di calcolo successiva all’equazione (1) ha parzialmente compromesso il risultato finale dell’equazione (7) e del risultato della ricerca. Il valore della distanza del pianeta dalla sua stella è di 44,6 milioni di chilometri invece dei 35,4 milioni indicati in precedenza. Ci scusiamo con i lettori per questo spiacevole inconveniente prontamente risolto.


Note: