Analfabetismo funzionale e senso critico

Qualcuno una volta disse che la scienza non può essere democratica ma si sbagliava. La storia invece dimostra che l’evoluzione dello spirito umano e quello scientifico sono indissolubilmente legati tra loro e il loro grado di condivisione e diffusione nella società.

Il 22 febbraio scorso, una conferenza stampa organizzata dalla NASA illustrava la scoperta di quattro pianeti in orbita a una debole stellina lontana soli 39 anni luce, un tiro di sasso su scala cosmica. Per chi segue ormai da anni la nuova frontiera dell’esoplanetologia sa che notizie abbastanza simili sono ormai quasi la quotidianità. Grazie agli strumenti di ultima generazione e l’affinarsi delle tecniche di indagine negli ultimi vent’anni sono stati confermati (dal 6 ottobre 1995, il primo esopianeta riconosciuto, 51 Pegasi-b) ben 3609 — al momento in cui scrivo — pianeti per 2703 sistemi planetari di cui ben 610 di questi sono sistemi con più di un pianeta riconosciuto [1]; una media di un nuovo pianeta ogni due giorni e poco più!
Coloro che hanno sin qui seguito questo blog, senz’altro hanno avuto modo di apprendere come da una debolissima curva di luce sia possibile ricavare tantissime informazioni, non certo assolute come taluni credono — ci sono tante variabili in gioco su cui si gioca tutto, come la distanza assoluta e il grado di estinzione della luce della stella per effetto del mezzo interstellare — ma comunque ragionevolmente accettabili quel tanto che basta per produrre stime all’interno di un certo margine di tolleranza.

[fancybox url=”https://www.youtube.com/watch?v=iITe3pIwfIE” caption=”Il lancio e l’atterraggio verticale del Falcon9 dopo aver inviato la capsula Dragon con i rifornimenti alla Stazione Spaziale Internazionale.”][/fancybox]

Tutti i video spettacolari, le immagini e le slide che si sono viste in quei giorni, ma anche le altrettanto meravigliose conquiste scientifiche e tecnologiche come i razzi recuperabili Falcon9 che possiamo vedere all’opera qui accanto, sono il frutto dell’ingegno umano incarnato in migliaia di anonimi scienziati e ricercatori di tutto il mondo che operano per il benessere di tutta l’umanità.
Questo benessere è tangibile sotto quasi ogni cosa che usiamo ogni giorno, i telefoni cellulari non sarebbero così piccoli e potenti senza lo sviluppo delle tecnologie di miniaturizzazione sviluppate per le missioni spaziali; Internet nacque per esigenze di comunicazione militare e scientifica, furono gli scienziati del CERN di Ginevra che inventarono il WEB, lo stesso mezzo spesso usato per sproloquiare bischerate sulla perniciosità della ricerca scientifica e l’inutilità di essa.

Avrebbero dovuto intitolare questo virgolettato « L’Idiozia, l’apoteosi del qualunquismo »

La cosa più triste è che ormai ogni giorno tra gli innumerevoli detrattori della ricerca scientifica scopro politici, giornalisti e opinionisti senza distinzione di censo, cultura o religione. Tutte persone invece il cui compito è proprio quello di guidare le coscienze 1.
A questo punto, viene da chiedersi perché questo accanimento antiscientifico che parte dalla negazione dei fatti, come ad esempio la negazione dello sbarco sulla Luna, fino al rifiuto delle più sicure tecniche di profilassi come le vaccinazioni.
Non esiste una risposta univoca a tale domanda e nemmeno motivi che possano giustificare questa linea di pensiero. Eppure a leggere i commenti di qualche prezzolato opinionista che criticava – credo il giorno dopo – la meravigliosa scoperta di quel piccolo e affollato sistema planetario sembra che esista un cortocircuito tra la scienza e quello che la gente percepisce.
Anche a costo di apparire riduttivo, scorgo che in questo mondo — vedi per es. Internet — in cui la densità delle informazioni mediamente disponibili su un qualsiasi argomento è la più alta mai avuta in tutta la storia umana, al comune cittadino quello che paradossalmente manca è proprio la capacità di intelligere tali informazioni.
Un esempio — stupido quanto volete — che mi viene ora in mente è che fa notizia una batteria di un laptop o di uno smartphone quando esplode, ma nonostante questo il mercato pretende dispositivi sempre più piccoli, economici e veloci. Dietro a questi incidenti ci sono inevitabili processi fisici e i desiderata dei consumatori che cozzano con quegli accorgimenti necessari che potrebbero evitare questi problemi, come batterie più voluminose e involucri più pesanti. Pochi però si rendono conto della mole di ricerca necessaria per ottenere dispositivi di accumulo di energia ancora più piccoli e meno rischiosi mentre tutti pretendono di goderne i frutti.


Penso che i ‘lieni siano idioti.
Viaggiare per anni luce per venire a fare cerchi nel grano sulla Terra è come se volassi in Australia a suonare i campanelli e poi tornassi indietro per non farmi scoprire.

Il problema del discernimento non inizia e non si ferma certo qui. A monte c’è anche la tremenda analfabetizzazione di ritorno, un deprimente effetto collaterale che credo sia dovuto in buona parte ad un pigro metodo scolastico dove viene preferita la mnemonica alla spiegazione, l’indottrinamento piuttosto che la promozione dello spirito critico. Penso che un sistema scolastico sostanzialmente incapace di  sostenere una qualche forma di dibattito e confronto costruttivo tra insegnanti e allievi, è in tutta onestà incapace di formare individui pienamente consapevoli. E lo dimostrano tutte le statistiche riguardanti il grado culturale di chi ha finito o cessato in anticipo il percorso scolastico: a fronte di una minoranza di persone capaci di comprendere un testo, molti di più sono coloro che non sono in grado di farlo e, di conseguenza, incapaci di compiere scelte responsabili che possono andare dall’accettare o meno tesi discutibili o errate fino al voto democratico.
Questo deve far riflettere sull’importanza di un processo di scolarizzazione perenne dell’individuo: non ci si può solo limitare a dire che due più due fa quattro perché è così e basta, va illustrato anche perché ciò accade. Con un percorso di istruzione e di confronto limitati nel tempo poi non può esserci spazio per l’elasticità di pensiero e lo spirito critico dell’individuo ormai necessari per affrontare la sempre più imponente mole di informazioni a cui può accedere. È  proprio la mancanza di questi strumenti che porta poi le persone ad abbracciare le tesi più assurde: da quelle parascientifiche fino a quelle antiscientifiche e la loro strumentalizzazione.

Io non ho la soluzione a questo grave problema, sarei un presuntuoso se dicessi di averla. Di fatto mi limito a denunciare le storture che quotidianamente scorgo e che fanno attualmente parte del dibattito attuale, come per esempio le fake news.


« Considerate la vostra semenza:
fatti non foste a viver come bruti,
ma per seguir virtute e canoscenza. »
(Ulisse, Inferno Canto XXVI vv. 118-120 Dante Alighieri)

Lo spirito critico, che in troppi usano per giustificare anche le tesi più bacate, serve quando è costruttivo, quando cioè porta ad un miglioramento delle proprie e delle altrui condizioni. Ad esempio, rifiutare la profilassi dei vaccini contro agenti patogeni potenzialmente letali significa esporre al rischio di contrarre le malattie anche coloro che per per problemi diversi non possono vaccinarsi. Allo stesso tempo però chiedere che i controlli sui farmaci siano il più possibile terzi e trasparenti, rientra nello spirito critico di cui tutti noi dovremmo poter disporre.
I media svolgono un ruolo fondamentale nel’evoluzione culturale dell’individuo. Se viene continuamente trasmesso il messaggio che basta indovinare un pacco, grattare una schedina di cartone o tirare una leva di una slot machine virtuale per diventare milionari, che la cultura non fa mangiare e che nel mondo reale la strada del successo non passa necessariamente dal merito, allora è ancor più evidente quanto sia importante, ma anche difficile, un reale cambio di passo.
L’unico suggerimento che mi sento di dare al lettore è quello di usare almeno il buon senso. Non esistono cure miracolose o trucchi nascosti, i soldi non crescono sugli alberi e il successo deve essere conquistato mostrando il proprio valore. Non ci sono complotti segreti mondiali, progetti per il controllo di massa di interi popoli o altre castronerie simili, solo sprovveduti convinti che queste cose esistano e pochi che sfruttano tali convinzioni per arricchirsi.
Tutti vorremmo un mondo migliore, senza guerre, carestie e povertà; ma siamo qui, ora, in una situazione dove ancora una volta c’è chi pretende di risolvere asti mai dimenticati con l’uso delle armi, col Riscaldamento Globale e i Migranti che fuggono da guerre che paradossalmente consentono il nostro tenore di vita, dal petrolio e il gas naturale al coltan per i condensatori al tantalio dei nostri telefonini.
Ripeto, non ho una soluzione a tutto questo, solo gli stolti credono di averla in tasca. Ma credo nella condivisione delle idee, la più alta delle espressioni della democrazia.

Il principio olografico dei buchi neri – L’orizzonte olografico

I buchi neri sono un argomento molto complesso. Per descriverli compiutamente e raccontare del loro impatto sugli studi del cosmo non basterebbe una enciclopedia, figuriamoci le poche pagine di un blog. Parafrasando la celebre frase — forse apocrifa anch’essa come la celebre mela di Newton — del grande Galileo: “Eppur ci provo” …

[vrview img=”https://ilpoliedrico.com/wp-content/uploads/2017/03/p02rz7hw.png” stereo=”false”]
Volete fare un viaggio in prossimità dell’orizzonte degli eventi? Ecco una plausibile simulazione. Cliccate sulla figurina in basso a destra.

Senza ombra di dubbio i buchi neri sono tra gli oggetti astrofisici più noti e studiati nel dettaglio. Nessuno ha mai realmente visto un buco nero, ma grazie alla Relatività Generale se ne conoscono talmente bene gli effetti che esso ha sul tessuto dello spazio-tempo circostante che oggi è possibile cercare nel Cosmo i segni della loro presenza e descriverli graficamente.
Dai nuclei delle galassie AGN fino ai resti di stelle massicce collassate e ancora più giù fino agli ipotetici micro buchi neri formatisi col Big Bang, si può dire che non c’è quasi limite alle dimensioni che questi oggetti possono raggiungere [cite]https://arxiv.org/abs/astro-ph/9605152[/cite].

Il Principio Olografico


L’entropia (misura dell’informazione nascosta) di un buco nero, misurata in bit, è proporzionale all’area del suo orizzonte degli eventi misurata in unità di Planck
Jacob Bekenstein

Per comprendere l’interpretazione olografica dell’orizzonte degli eventi di un buco nero, occorre prima ripetere ciò che avevo accennato nella scorsa puntata, ossia se un buco nero distrugga o meno l’informazione riguardante tutto ciò che finisce oltre il suo orizzonte degli eventi — ricordo che questo è più un concetto matematico più che un oggetto tangibile.
Secondo Shannon i concetti di entropia e di informazione si equivalgono e, come anche Leonard Susskind ha ribadito, l’entropia non è altro che la misura delle informazioni nascoste, cioè quelle che a noi non sono note. Se infatti le conoscessimo potremmo ricostruire l’evento che le ha generate, come ad esempio possiamo risalire alla massa, traiettoria ed energia di una particella coinvolta in una collisione in una camera a bolle semplicemente ripercorrendo a ritroso la storia degli eventi che essa ha scatenato.

Il teorema della complementarietà dei buchi neri fu proposto da Susskind (anche questo concetto è mutuato da altre teorie, in questo caso dalla meccanica quantistica) per risolvere il paradosso dell'informazione perduta dentro un buco nero. Qui per l'osservatore A l'astronauta varcherebbe l'orizzonte degli eventi di un buco nero ma verrebbe distrutto mentre tutta la sua informazione verrebbe distribuita su tutta la superficie dell'orizzonte degli eventi. Invece per l'osservatore B oltre l'orizzonte o per lo stesso astronauta l'attraversamento dell'orizzonte avverrebbe senza particolari fenomeni di soglia, come già descritto nel primo articolo.

Il teorema della complementarietà dei buchi neri fu proposto da Susskind (anche questo concetto è mutuato da altre teorie, in questo caso dalla meccanica quantistica) per risolvere il paradosso dell’informazione perduta dentro un buco nero. Qui per l’osservatore A l’astronauta varcherebbe l’orizzonte degli eventi di un buco nero ma verrebbe distrutto mentre tutta la sua informazione verrebbe distribuita su tutta la superficie dell’orizzonte degli eventi. Invece per l’osservatore B oltre l’orizzonte o per lo stesso astronauta l’attraversamento dell’orizzonte avverrebbe senza particolari fenomeni di soglia, come già descritto nel primo articolo.

Come ho cercato di spiegare nelle precedenti puntate tutta l’entropia — o informazione nascosta equivalente — di un buco nero può solo risiedere sulla superficie degli eventi come microstati — o bit — grandi quanto il quadrato della più piccola unità di misura naturale, ossia la lunghezza di Plank 1. Questo significa che tutta l’informazione di tutto ciò che è, od è finito, oltre l’orizzonte degli eventi, è nascosta nella trama dell’orizzonte degli eventi stesso. Potessimo interpretare compiutamente questa informazione, idealmente potremmo risalire alla sua natura.
In base a questa interpretazione tutto ciò che è contenuto in una data regione di spazio può essere descritto dall’informazione confinata sul limite della stessa, così come la mia mano è descritta da ciò che di essa percepisco dalla superficie dello spazio che occupa.
In pratica quindi l’informazione tridimensionale di un qualsiasi oggetto è contenuta su una superficie bidimensionale, che nel caso dei buchi neri, è rappresentata dall’orizzonte degli eventi 2.
L’analogia col fenomeno a noi più familiare è quella dell’ologramma, dove tutte le informazioni spaziali riguardanti un oggetto tridimensionale qualsiasi sono impresse su una superficie bidimensionale. Osservando l’ologramma noi effettivamente percepiamo le tre dimensioni spaziali, possiamo ruotare l’immagine, osservarla da ogni sua parte etc., ma essa comunque trae origine dalle informazioni impresse su una superficie bidimensionale; la terza dimensione percepita emerge 3 dalla combinazione di tutte le informazioni lì racchiuse.

Conclusioni

Il Principio Olografico è questo: un modello matematico che tenta di conciliare la Termodinamica e la meccanica della Relatività Generale dei buchi neri, due leggi che finora si sono dimostrate universalmente esatte e che nel caso specifico dei buchi neri sembrano violarsi.
Questo modello è reso ancora più intrigante per le sue particolari previsioni teoriche: dalla validità della Teoria delle Stringhe alla Super Gravità Quantistica passando per le teorie MOND (Modified Newtonian Dynamics) che potrebbero addirittura dimostrare l’inesistenza della materia e dell’energia oscure.
Addirittura il Principio Olografico potrebbe essere usato per suggerire che l’intero nostro Universo è in realtà un buco nero provocato dal collasso di una stella di un superiore universo a cinque dimensioni, ci sono studi al riguardo [cite]https://www.scientificamerican.com/article/information-in-the-holographic-univ/[/cite] [cite]https://arxiv.org/abs/1309.1487[/cite].
Cercherò in futuro di trattare questi argomenti, sono molto intriganti.

Materiale organico interplanetario

Vi è piaciuto il mio Pesce d’Aprile? Non è tropo difficile imbastire una storia verosimile partendo da dati assolutamente corretti e congetture assai plausibili. Nel mondo della fantascienza (quella più seria) accade spesso.
Per questo poi rimaniamo stupiti quando vediamo che molte idee provenienti da quel genere di letteratura vengono effettivamente realizzate: da una parte ci sono scrittori e sceneggiatori che pescano a piene mani nella letteratura scientifica (lo hanno fatto per esempio nelle storie narrate nell’universo Star Trek) e dall’altra ci sono scienziati e ingegneri che da quel mondo traggono la loro ispirazione.

Ma un conto è la celia come la mia e un conto è la patologia di chi immagina e diffonde complotti fatti di scie chimiche, bave militari (semplici ragnatele) e trame aliene varie. Come ho sempre sostenuto,  la scienza sa essere più meravigliosa e impressionante della più sfrenata immaginazione e non chiede di credere semplicemente in essa — non è e non vuol diventare un culto — ma essa semplicemente è.

In alto a destra i dati dello strumento ROSINA della sonda ROSETTA riguardanti la rilevazione della glicina (un aminoacido), in basso a destra il grafico relativo alla concentrazione del fosforo. A sinistra in alto uno schema della sonda e in basso l’orbita di Rosetta attorno alla cometa. Al centro l’immagine raccolta il 25 marzo 2015 della cometa 67P/Churyumov-Gerasimenko.
Credit: sonda ESA/ATG medialab; cometa: ESA/Rosetta/NavCam – CC BY-SA IGO 3.0; dati: Altwegg et al. (2016)

Coloro che non l’avessero ancora letto, li invito a prendere visione del precedente articolo [cite]https://ilpoliedrico.com/2017/03/animaletti-interplanetari.html[/cite] e aspettare almeno 2 minuti.
L’idea di fondo è che tra i pianeti del Sistema Solare — questa idea dovrebbe essere altrettanto valida anche per tutti gli altri sistemi planetari — ci possa essere uno scambio continuo di materiale organico (ricordo che per materiale organico s’intendono tutti i composti chimici del carbonio quindi anche quelli che non sono di origine biologica) e presumibilmente anche biologico.

Panspermia interplanetaria

Questa si basa su solide basi scientifiche come la scoperta di aminoacidi nelle rocce lunari riportate dalle missioni Apollo [cite]https://www.nasa.gov/feature/goddard/new-nasa-study-reveals-origin-of-organic-matter-in-apollo-lunar-samples[/cite], il ritrovamento di composti organici complessi e aminoacidi in alcune meteoriti [cite]https://ilpoliedrico.com/2011/01/amminoacidi-levogiri-nelle-condriti.html[/cite][cite]https://ilpoliedrico.com/?s=Materia+pre-biotica+nelle+meteoriti+[/cite], le scoperte delle sonde Rosetta e Philae [cite]http://www.esa.int/Our_Activities/Space_Science/Rosetta/Rosetta_s_comet_contains_ingredients_for_life[/cite], etc.
Grazie alle analisi isotopiche dell’aria e del suolo di Marte compiuto dalle sonde Viking [cite]http://onlinelibrary.wiley.com/doi/10.1029/JS082i028p04635/abstract[/cite] è stato scoperto che uno scambio di materiale planetario sotto forma di materiale meteorico è possibile.

Aminoacidi sulla Luna

L’astronauta Alan L. Bean, pilota della missione dell’Apollo 12 mentre mostra un contenitore dei campioni di suolo lunare. Credit: NASA

Questo suggerisce che il meccanismo di contaminazione del suolo lunare e quello che ha portato il materiale marziano sulla Terra è quasi sicuramente lo stesso.
Marte è circa la metà della Terra e leggermente meno denso; per questo ha una gravità — e di conseguenza una velocità di fuga —più basse di quella terrestre [cite]https://ilpoliedrico.com/utility/i-pianeti-del-sistema-solare[/cite].
Statisticamente parlando, ogni tanto può capitare che un asteroide o una cometa discretamente grande intercetti un pianeta qualsiasi. Su Marte basta che l’impatto provochi una eiezione di materiale superiore ai 5 km/sec. perché questo sfugga all’attrazione gravitazionale del pianeta per perdersi nello spazio.
Dopo alcune migliaia di anni e l’importante contributo del pozzo gravitazionale del Sole, ecco che può capitare che questi frammenti di suolo marziano, cadano sulla Terra come materiale meteorico.
Così se i meteoriti di origine marziana avessero contenuto materiale organico o biologico [cite]https://ilpoliedrico.com/2014/03/un-altro-caso-marziano-yamato-000593.html[/cite] (ricordo che non sono la stessa cosa) ecco spiegato come questo avrebbe potuto arrivare qui da Marte.
E gli aminoacidi sulla Luna? 65 milioni di anni fa lo stesso asteroide che pose termine all’era dei dinosauri produsse abbastanza energia per eiettare un po’ di crosta terrestre nello spazio. Materiale, soprattutto polvere, che la Luna avrebbe poi raccolto. La Luna non ha atmosfera, quindi tutto quello che poteva raccogliere è stato poi raccolto e conservato.

Conclusioni

Il concetto di panspermia interplanetaria è senza dubbio affascinante  e probabilmente esatto. Esso non pone un limite certo su dove, come e quando si è sviluppata la Vita.
E questo è forse anche il suo più grave difetto, rimanda cioè la domanda principe per cui è stato concepito, in pratica spiega tutto senza spiegare niente; come l’atavica domanda: è nato prima l’uovo o la gallina?

Animaletti interplanetari

[fancybox_open delay=”120″ url=”https://ilpoliedrico.com/wp-content/uploads/2017/03/Extraterrestrial-hypothesis-for-the-origin-of-tardigrades.pdf”][/fancybox_open]

La scienza spesso è descritta come incredibilmente noiosa e rigida. Invece  è ben più potente e bella di qualsiasi magia. Questa è la storia di un curioso animaletto.

Se foste invitati a citare l’animale più straordinario che ammirate potreste indicare il leone, noto per la sua regale fama, oppure la tigre per la sua bellezza, o gli squali, i puma, i delfini etc.
A nessuno verrebbe certo in mente di rammentare il tardigrado, uno dei più curiosi e diffusi animali del pianeta. Dimensionalmente il tardigrado è piccolissimo, meno di un millimetro anche se occasionalmente sono stati catalogati animaletti lunghi fino a 1,5 millimetri. A differenza di tante altre forme di vita terrestre, eccezion fatta dei mesozoi, il numero delle cellule di un T. è costante per tutta la sua esistenza; non c’è mitosi, esse crescono semplicemente in dimensione.
Sono stati trovati T. in vetta all’Everest, in Antartide, nel deserto di Atacama e in ogni altro luogo del pianeta. Esso può sopravvivere nel vuoto dello spazio [cite]https://www.ncbi.nlm.nih.gov/pubmed/19663764[/cite], come a massicce dosi di radiazioni dell’ordine di centinaia di sievert (6 sievert uccidono un uomo), a pressioni di 6000 (seimila) atmosfere.
Le bizzarre peculiarità di questo bizzarro animaletto derivano da una classe di proteine, le Intrinsically Disordered Proteins (IDP) [cite]https://phys.org/news/2017-03-tardigrades-unique-protein-desiccation.html[/cite], che bloccano il degrado delle strutture cellulari quando viene a mancare loro l’acqua fissandosi e diventando inerti. In pratica i T. si vetrificano quando l’acqua delle loro cellule viene a mancare o cambia stato 1.

La Stazione Spaziale Internazionale è un enorme laboratorio spaziale. Lì vengono svolti continuamente tantissimi esperimenti che vanno dalla fisica dei raggi cosmici alla medicina, dalla fisica dei plasmi all’agricoltura a gravità zero.
Uno di questi esperimenti riguarda il pulviscolo cosmico e micrometeoriti, che possono essere un pericolo concreto per  le missioni extraveicolari 2.
Questo esperimento dura ormai da diversi anni e consiste in trappole di gel di silicone esposto al vuoto dello spazio capace di trattenere le microparticelle che periodicamente vengono esaminate col microscopio elettronico per studiarne la forma e le dimensioni.

Qui sono riportate le posizioni di Venere e Terra pochi giorni prima che le trappole di gel fossero aperte.
Credit: Il Poliedrico

Nel finire dell’agosto del 2015 in alcune trappole poste sul lato superiore dello scafo della stazione gli scienziati trovarono … alcuni tardigradi inerti! Subito si pensò a una contaminazione delle gelatine, ma trappole dello stesso lotto poste sulla parte inferiore dello scafo (quella rivolta alla Terra) non mostrarono niente di anomalo; alcune di loro erano addirittura intonse come ci si sarebbe aspettato.
Nei mesi successivi alcuni ricercatori giapponesi del Koushiryoku Kenkyuujo sotto la guida del prof. Yumi[2], studiarono i curiosi risultati delle trappole e scoprirono che eventi simili si erano già verificati negli anni precedenti ma che questi erano stati sbrigativamente classificati come campioni contaminati da materiale biologico terrestre.
È stata la curiosa coincidenza con le congiunzioni inferiori di Venere, cioè quando la Terra e Venere sono nel punto più vicino della loro orbita (ogni 584 giorni, ossi un anno e 7 mesi circa) che ha insospettito i ricercatori giapponesi. E puntualmente — come previsto dalle loro ricerche — il 19 marzo di quest’anno le trappole di gel dell’ISS hanno catturato altri tardigradi.
L’ipotesi che la vita potesse annidarsi nella parte superiore dell’atmosfera venusiana non è affatto nuova [cite]http://online.liebertpub.com/doi/abs/10.1089/153110704773600203[/cite]. Mentre sulla superficie del pianeta regnano temperature intorno ai 740 kelvin e pressioni di 92 atmosfere — quelle cioè che si sperimentano sulla Terra oltre i 900 metri di profondità negli oceani,  la sommità dell’atmosfera di Venere, tra i 50 e i 65 chilometri dalla superficie del pianeta, offre condizioni di temperatura e pressione molto simili a quelle della Terra.
Se è evidente come i T. possano sopravvivere tranquillamente al vuoto dello spazio, occorre capire come questi arrivino fino alla Terra. Il meccanismo di trasporto invece lo si spiega benissimo: Il vento solare.
Venere non ha una magnetosfera come la Terra, quindi il vento solare riesce a raggiungere l’atmosfera superiore riscardala e disperderla nello spazio come se fosse la coda di una cometa [cite]http://www.esa.int/Our_Activities/Space_Science/When_a_planet_behaves_like_a_comet[/cite].
La distanza tra Venere e la Terra nel momenti di congiunzione inferiore varia tra i 40 e i 42 milioni di chilometri, cioè appena un centinaio di volte la distanza Terra-Luna circa. Alla velocità media di 300 km/sec., tipica del vento solare, occorre appena un giorno e mezzo per coprire tale distanza.

Questa scoperta risolverebbe anche il dilemma avanzato dal Paradosso del Sole Freddo [cite]http://science.sciencemag.org/content/177/4043/52.long[/cite], che sostiene che il Sole 4 miliardi di anni fa era troppo debole per sostenere una temperatura adatta alla vita sulla Terra, mentre Venere probabilmente aveva oceani e mari più caldi ed adatti allo sviluppo della vita. Successivamente le condizioni alla superficie si sarebbero fatte troppo proibitive e la vita venusiana sarebbe migrata negli strati più alti dell’atmosfera dove da lì potrebbe essere stata poi trasportata sugli altri mondi dal vento solare.
Forse siamo tutti venusiani dopotutto.

Specie interplanetaria

[fancybox url=”https://vimeo.com/108650530″ caption=””]

Wanderers – a short film by Erik Wernquist

[/fancybox]

Questo post era nato come aggiornamento di stato su Facebook. Poi però ho pensato che il mio estemporaneo sfogo valesse qualcosa di più. 

L’intera storia è costellata di bivi e di spartiacque da cui non è possibile tornare indietro. No, non sto parlando ora di freccia entropica e direzione univoca della freccia del tempo; parlo di scelte e svolte che condizionano la storia umana.
A volte sono i singoli uomini a scegliere e quasi mai — per nostra fortuna — i politici e i condottieri.
Pensate a Galileo, Copernico, Alessandro Volta, Marie Curie, Guglielmo Marconi e tutti gli altri che non cito non certo per dimenticanza o per far loro torto.
Inventando l’home computer in un garage due ragazzi hanno stravolto il genere umano ben più di quanto abbia saputo fare Alessandro il Grande col suo effimero impero. Oppure pensate a quell’umile garzone di fabbro che verso il 1200 inventò la staffa per le selle usate poi dai cavalieri mongoli di Gengis Khan per conquistare il suo impero.
Visionari, magari presi per sciocchi, che giocavano coi dischi di cartone e le zampette di rana o con cilindri di ghisa e stantuffo. Eppure è così che sono nate le pile elettriche e i motori a combustione interna, da persone quasi dimenticate oggi 1 ma che hanno scritto la storia del genere umano più di tutti i condottieri e duci esistiti.
La storia è fatta dalle persone e dai popoli. Essa è guidata dalle intuizioni e forgiata dalle svolte sociali. E ora ne abbiamo di fronte uno, altrettanto importante di quello che spinse quattrocentomila anni fa alcuni nostri antenati a lasciare l’Africa: la conquista del cosmo.
No, non si tratta di viaggiare verso le altre stelle, cosa che forse in un futuro lontano forse faremo, ma di esplorare e colonizzare permanentemente il Sistema Solare; diventare finalmente una specie interplanetaria.
Un mondo di 7 miliardi di persone non può permettersi di trascurare questa occasione. La ricchezza e il benessere che da questa opportunità derivano potrà porre fine alle sofferenze di tutto il genere umano al di là di qualsiasi promessa di impero terreno di qualsiasi nuovo duce.
La tecnologia per questo epocale salto c’è già o potrà essere sviluppata entro i prossimi cinquant’anni se solo ci fosse la volontà politica di farlo. E questa voglia occorre alimentarla come un fuoco che cova sopito.
Come coscienza individuale forse non ci sarò più. Ma i miei figli vedranno quasi sicuramente l’umanità diventare finalmente una specie interplanetaria. Questo sogno mi ripaga di ogni sacrificio.

Il principio olografico dei buchi neri – La termodinamica

Può suonare strano a dirsi, ma tutta l’energia che vediamo e che muove l’Universo, dalla rotazione delle galassie ai quasar, dalle stelle alle cellule di tutti gli esseri viventi e perfino quella immagazzinata nelle pile del vostro gadget elettronico preferito è nato col Big Bang. È solo questione di diluizioni, concentrazioni e trasformazioni di energia. Sì, trasformazioni; l’energia può essere trasformata da una forma all’altra con estrema facilità. La scienza che studia tali trasformazioni è la termodinamica. Per trasformarsi l’energia ha bisogno di differenza di potenziale, ossia una maggior concentrazione contrapposta a una minore concentrazione nella stessa forma. L’entropia non è altro che la misura della capacità che ha l’energia di decadere compiendo un lavoro fino a raggiungere di uno stato di equilibrio.

[virtual_slide_box id=”11″]
L’entropia statistica si fonda sulle probabilità delle posizioni delle molecole in uno spazio chiuso. Il II Principio della Termodinamica deriva dal fatto che le configurazioni ad alta entropia sono più probabili di quelle a bassa entropia.
L’esempio dei vasi comunicanti è un classico. Quando fra i due contenitori viene rimosso il tappo (blu), le molecole di un gas (rosse) saranno libere e si distribuiranno uniformemente in entrambi i contenitori compiendo un lavoro (il transito).
Quando la distribuzione sarà uniforme non potrà più esserci lavoro (equilibrio).

Nella termodinamica l’entropia è la misura delle capacità di un sistema fisico in grado di essere sede di trasformazioni spontanee. In altre parole essa indica la perdita di capacità a compiere un lavoro quando tali trasformazioni avvengono. Il valore dell’entropia cresce quando il sistema considerato man mano perde la capacità di compiere lavoro ed è massimo quando tutto il sistema è in condizioni di equilibrio.
La meccanica statistica ha poi reso lo stesso concetto, originariamente legato agli stati di non equilibrio di un sistema fisico chiuso, ancora più generale, associandolo anche alle probabilità degli stati — microstati 1 — in cui può trovarsi lo stesso sistema; da qui in poi si parla di grado di disordine di un sistema quale misura di indeterminazione, degrado o disordine di questo. Il classico esempio dei vasi comunicanti aiuta senz’altro a capire questo poi banale concetto. Ne potete vedere un esempio illustrato qui accanto.
Il legame fra l’entropia statistica e la teoria dell’informazione lo si deve a  Claude Shannon (il padre del termine bit e dell’uso della matematica binaria nei calcolatori) intorno agli anni quaranta del ‘900. Shannon notò che non c’era differenza tra il calcolo del livello di imprevedibilità di una sorgente di informazione e il calcolo dell’entropia di un sistema termodinamico.
Per esempio, una sequenza come ‘sssss‘ possiede uno stato altamente ordinato, di bassa entropia termodinamica. Una sequenza come ‘sasso‘ ha un grado di complessità superiore e e trasporta più informazioni ma ha anche un po’ di entropia in più, mentre ‘slurp‘ dimostra un ancora più alto grado di complessità, di informazione e di entropia perché contiene tutte lettere diseguali; noi le diamo un significato, è vero, ma se dovessimo basarci solo sulla frequenza con cui appaiono le singole lettere in una parola composta da cinque di esse, questa possiede la stessa entropia di “srplu“, che per noi non ha senso e diremmo che essa è una parola disordinata o degradata.
Nell’informazione l’entropia definisce la quantità minima delle componenti fondamentali (bit) necessarie a descriverla, esattamente come i gradi di libertà descrivono lo stato di un sistema fisico. In altre parole essa indica la misura del grado di complessità di una informazione: una singola nota, un suono monotonale, possiede pochissima informazione, mentre la IX Sinfonia di Beethoven ne contiene molta di più. Però attenzione: il suono ricavato da mille radioline sintonizzate ognuna su una diversa stazione è sostanzialmente inintelligibile ma nel suo complesso contiene molta più informazione di quanta ne abbia mai scritta il celebre compositore in tutta la sua vita. Per poter ascoltare la IX Sinfonia trasmessa da una sola radio dovremmo spegnere tutti gli altri ricevitori o alzare il volume di quella radiolina fino a sovrastare il rumore proveniente dalle altre, ossia compiere un lavoro o iniettare energia dall’esterno.

La termodinamica dei buchi neri


Le tre leggi della termodinamica dei buchi neri

Come per la termodinamica classica anche quella dei buchi neri ha le sue leggi non meno importanti. L’analogia tra i due insiemi di assiomi indica anche la strada da seguire per comprendere il bizzarro fenomeno.
Legge zero della  termodinamica dei buchi neri
Per  un buco nero stazionario la gravità all’orizzonte degli eventi è costante.
Questo sembra un concetto banale ma non lo è. Per qualsiasi corpo in rotazione su un asse anche se di forma perfettamente sferica la gravità non è costante alla sua superficie: ce ne sarà un po’ di più ai poli e un po’ meno al suo equatore. Questo principio ricorda che l’orizzonte degli eventi invece è un limite matematico dettato esclusivamente dall’equilibrio tra la gravità e la velocità della luce.
Prima legge della  termodinamica dei buchi neri
Nei buchi neri stazionari ogni variazione o apporto di energia comporta una modifica della sua area: $$d M={\frac{\kappa}{8\pi}}\,d A_{OE}\,+\,\Omega d J\,+\,\Phi d Q\,$$
I buchi neri sono descritti da solo tre parametri: la massa \(M\) , la carica elettrica \(Q\) e momento angolare \(J\) . Come nell’esempio nell’articolo è quindi possibile calcolare quanto varia l’area di un buco nero in cui una quantità di materia/energia diversa da zero cade oltre l’orizzonte degli eventi.
Tralasciando le note costanti naturali \(G\) e \(c\), \(\kappa\) indica la gravità superficiale all’orizzonte degli eventi, \(A_{OE}\) l’area di questo, mentre \(\Omega\) la velocità angolare, \(J\) il momento angolare, \(\Phi\) il potenziale elettrostatico, \(Q\) la carica elettrica sono propri del buco nero all’orizzonte degli eventi.
Questo complesso schema matematico è molto simile alla descrizione del Primo Principio Termodinamico dove si scopre che il differenziale energetico \(E\) è correlato alla temperatura \(T\), all’entropia \(S\) e alla capacità di svolgere un lavoro \(W\) in un sistema chiuso: $$dE=TdS\,+\,dW$$
Seconda legge della  termodinamica dei buchi neri
La somma dell’entropia ordinaria esterna al buco nero con l’entropia totale di un buco nero aumenta nel tempo come conseguenza delle trasformazioni generiche di questo: $$\Delta S_{o}\,+\,\Delta S_{BN}\,\geq\,0$$
Il Secondo Principio Termodinamico richiede che l’entropia di un sistema chiuso debba sempre aumentare come conseguenza di trasformazioni generiche. Se un sistema ordinario cade in un buco nero, la sua’entropia \(S_{o}\) diventa invisibile ad un osservatore esterno ma con questa interpretazione si esige che l’aumento dell’entropia del buco nero \(S_{BN}\) compensi la scomparsa di entropia ordinaria dal resto dell’universo. Con la scoperta della radiazione di Hawking è anche evidente il decremento della massa di un buco nero che essa comporta. Di conseguenza ci si dovrebbe aspettare che anche l’entropia connessa alla sua area diminuisca. Con questa interpretazione (Bekenstein, 1973) si tiene conto anche del fenomeno di evaporazione.
Terza legge della  termodinamica dei buchi neri
È impossibile annullare la gravità dell’orizzonte degli eventi con qualsiasi processo fisico.
Il Terzo Principio Termodinamico afferma che è fisicamente impossibile raggiungere una temperatura nulla tramite qualsiasi processo fisico.
Applicato ai buchi neri questa legge mostra come sia impossibile raggiungere una gravità nulla all’orizzonte degli eventi di un buco nero. In linea di principio aumentando la carica elettrica di un buco nero, sarebbe possibile cancellare l’orizzonte degli eventi e mostrare così finalmente la singolarità nuda. Tuttavia, l’energia che dovremmo iniettare nel buco nero sotto forma di particelle cariche sarebbe sempre più grande tanto più ci si avvicinasse al risultato senza mai poterlo raggiungere.

Un buco nero è causato dal collasso della materia o, per l’equivalenza tra materia ed energia, dalla radiazione, entrambi i quali possiedono un certo grado di entropia. Tuttavia, l’interno del buco nero e il suo contenuto non sono visibili ad un osservatore esterno. Questo significa che non è possibile misurare l’entropia dell’interno del buco nero.
Nell’articolo precedente [cite]https://ilpoliedrico.com/2017/03/il-principio-olografico-dei-buchi-neri-lorizzonte-degli-eventi.html[/cite] ho detto che un buco nero stazionario è parametrizzato unicamente dalla sua massa, carica elettrica e momento angolare. Secondo il No Hair Theorem tutto ciò che scompare oltre l’orizzonte degli eventi viene totalmente sottratto all’universo. Quello che potremmo percepire di un buco nero sono la sua massa, carica elettrica e momento angolare; pertanto le medesime proprietà possedute da un oggetto inghiottito da un buco nero verrebbero a sommarsi con le precedenti, contribuendo così alla loro espressione complessiva. In soldoni — trascurando per un attimo la sua carica elettrica e il momento angolare — un oggetto di massa \(m\) andrebbe a sommarsi a \(M_{BN}\) del buco nero, cosi che \(M_{BN}’\) finirebbe per essere \(m+M_{BN}\) facendo crescere anche la dimensione dell’orizzonte degli eventi.
Ma secondo questa interpretazione, null’altro rimarrebbe dell’oggetto finito oltre l’orizzonte degli eventi, la sua entropia andrebbe perduta per sempre. Questa interpretazione — come fece notare per primo Bekenstein — cozza però col Secondo Principio della Termodinamica che afferma che il grado di disordine – entropia – di un sistema chiuso — l’Universo è un sistema chiuso — può solo aumentare. Quindi qualsiasi cosa, materia o energia, che finisse oltre l’orizzonte degli eventi di un buco nero finirebbe per sottrarre entropia all’universo, e questo è inaccettabile.
L’unico modo per non contraddire questa legge fondamentale 2 è assumere che anche i buchi neri abbiano un’entropia.
Questa come si è visto dipende dalla massa/energia che cade in un buco nero e che va a sommarsi alla precedente, e, visto che per l’interpretazione classica niente può uscire da un buco nero, non può che aumentare col tempo. Ma anche le altre due proprietà, carica elettrica e momento angolare, contribuiscono nella loro misura a descrivere compiutamente un buco nero. Per ogni combinazione di questi tre parametri si possono perciò teorizzare altrettanti stati diversi riguardo ad esso; quello che ne esce è un concetto molto simile all’entropia legata ai possibili microstati della termodinamica statistica. L’entropia, ossia l’informazione di questi microstati, è pertanto distribuita sull’unica parte accessibile all’universo, la superficie dell’area dell’orizzonte degli eventi.
In natura la più piccola unità dimensionale di superficie è l’Area di Planck, quindi è naturale esprimere l’entropia di un buco nero in questa scala. Per descrivere matematicamente l’entropia \(S\) 3  di un buco nero di Schwarzschild partendo dall’area dell’orizzonte degli eventi \(A_{O E}\), allora dovremmo scrivere $$\tag{1}S_{buco nero}={A_{O E}\over 4 L_{P}^2}={c^3 A_{O E}\over 4 G \hbar}$$ dove \(L_{P}\) è la lunghezza di Plank, \(G\) è la Costante di Gravitazione Universale, \(\hbar\) la costante di Plank ridotta e \(c\) ovviamente la velocità della luce, sapendo che la suddetta area è condizionata unicamente dalla massa del buco nero $$\tag{2}A_{O E}=16\pi \frac{G^2M_{BN}^2}{c^4}$$.
Facciamo ad esempio l’ipotesi, che poi servirà in futuro per illustrare il Principio Olografico e che si rifà anche direttamente alla Prima Legge della Termodinamica dei Buchi Neri (vedi box qui accanto), di un fotone avente una lunghezza d’onda \(\lambda\) — la lunghezza d’onda di un fotone è inversamente proporzionale alla sua energia — che cade in un buco nero di massa \(M_{BN}\) e di conseguenza di raggio \(r_{S}\) da una direzione indeterminata.
Avvicinandosi all’orizzonte degli eventi suddetto fotone finirà per decadere fino ad avere una lunghezza d’onda paragonabile alla dimensione del raggio di Schwartzschild: \(\lambda\sim\pi r_{S}\).
L’energia rilasciata dal fotone nel buco nero quindi è $$\tag{3}d E = \frac{hc}{\lambda} = \frac{2\pi \hbar c}{r_{S}}$$
Per l’equivalenza tra massa ed energia — la stranota \(e=mc^2\) della Relatività Generale — la massa del buco nero finisce per crescere$$\tag{4}d M_{BN}=\frac{d E}{c^2} = \frac{2\pi \hbar}{c r_{S}}$$
Di conseguenza un aumento della massa, per quanto piccola, del buco nero finisce per far aumentare anche le dimensioni dello stesso nella misura $$\tag{5}d r_{S}=\frac{2G}{c^2} d M_{BN}=\frac{4\pi\hbar G}{c^3 r_{S}}$$
e anche l’area: $$\tag{6}d A_{OE}=4\pi d r_{S}^2 = 8\pi r_{S}d r_{S}=32\pi^2\frac{\hbar G}{c^3}$$

Anche se questo genere molto semplificato di buchi neri è solo teorico, permette però di esplorare la complessità del problema e di farsi un’idea delle dimensioni dell’entropia di un buco nero 4.

Il principio olografico dei buchi neri – L’orizzonte degli eventi

Prima di scrivere questo pezzo ho fatto una scorsa dei risultati che restituiscono i motori di ricerca sul Principio Olografico, giusto per curiosità. Ne è uscito un quadro desolante; da chi suggerisce che siamo tutti ologrammi alla medicina quantistica (roba di ciarlatani creata per i beoti). Ben pochi hanno descritto il modello e ancora meno (forse un paio sparsi nella profondità suggerita dal ranking SEO) hanno scritto che si tratta solo di un modello descrittivo. Cercherò ora di aggiungere il mio sussurro al loro, giusto per farli sentire un po’ meno soli.

Essenzialmente il mezzo più immediato e naturale che usiamo per descrivere il mondo che circonda è dato dalla vista. Essa però restituisce unicamente un’immagine bidimensionale della realtà, esattamente come fanno anche una fotografia o un quadro. Ci viene in soccorso la percezione della profondità spaziale, dove la terza dimensione emerge grazie all’effetto prospettico che fa apparire più piccole e distorte le immagini sullo sfondo rispetto a quelle in primo piano. L’unico mezzo veramente efficace che abbiamo per cercare di rappresentare correttamente la realtà è la matematica, anche se essa appare spesso controintuitiva.

Ripetendo in parte ciò che ho detto in altre occasioni, l’Uomo ha sempre cercato di dare una spiegazione convincente a tutto quello che lo circonda, che per brevità di termine chiamiamo realtà. Ad esempio, la scoperta delle stagioni, il costante ripetersi ogni anno delle diverse levate eliache e i cicli lunari sono culminati nell’invenzione del calendario, che nelle sue varie interpretazioni e definizioni, ha sempre accompagnato l’umanità. Eppure esso in astratto non è che un modello, grossolano quanto si vuole, ma che consente di prevedere quando sarà la prossima luna nuova o l’astro Sirio allo zenit a mezzanotte.
Anticamente anche le religioni erano modelli più o meno astratti che avevano il compito di spiegare ad esempio, i fulmini, le esondazioni, le maree, il giorno e la notte, etc.
Oggi sappiamo che i fulmini sono una scarica elettrica, che il giorno e la notte sono la conseguenza della rotazione terrestre e che le esondazioni avvengono perché da qualche altra parte piove.
Abbiamo teorizzato per secoli una cosmologia geocentrica e solo più tardi quella eliocentrica, quando abbiamo capito che la prima era sbagliata. Abbiamo accarezzato per un breve periodo l’idea galattocentrica prima di apprendere che le galassie erano più di una e il Sole era solo una comune stellina grossomodo a metà strada fra il centro e la periferia della Via Lattea, e abbiamo anche creduto ad un universo statico prima di scoprire che l’Universo si espandeva in dimensioni.
Anche tutti questi erano modelli e modelli pensati su altri modelli dati per sicuri finché non venivano dimostrati sbagliati. E questo vale anche per i modelli attuali e le teorie fino ad oggi considerate certe.

L’orizzonte degli eventi.

\(raggio_{Schwarzschild}=\left (\frac{2GM}{c^2}  \right )\)
Il raggio dell’orizzonte degli eventi di un buco nero è restituito da questa formula matematica che stabilisce l’equilibrio tra gravità e velocità della luce.  Esso esiste solo teoricamente perché si suppone che l’oggetto che ha dato origine al buco nero abbia avuto con sé un certo momento angolare che poi si è conservato.
Infatti, per descrivere matematicamente un buco nero reale si usa una metrica leggermente diversa che tiene conto anche del campo elettromagnetico e del momento angolare: quella di Kerr-Newman.

Già alla fine del 1700 si teorizzava di una stella tanto densa e massiccia da ripiegare la luce con la sua gravità. John Michell e Pierre-Simon de Laplace la chiamavano stella oscura. Ma fu solo dopo il 1915, con la Relatività Generale, che Karl Schwarzschild trovò le equazioni che descrivevano il campo gravitazionale di un oggetto capace di ripiegare la luce su di sé. Così fu evidente che esiste un limite, un orizzonte oltre il quale neppure la luce può sfuggire. Non è un limite solido, tangibile come quello di una stella o di un pianeta come talvolta qualcuno è portato a immaginare, ma è un limite matematico ben preciso definito dall’equilibrio tra la gravità e la velocità della luce, che è una costante fisica assoluta 1.
La relatività insegna che niente è più veloce della luce. Pertanto, basandosi solo su questo assioma, è ragionevole pensare che qualsiasi cosa oltrepassi l’orizzonte degli eventi di un buco nero sia definitivamente persa e scollegata dal resto dell’universo. Questa interpretazione, chiamata teorema dei buchi neri che non hanno capelli o No Hair Theorem, niente, più nessuna informazione potrebbe uscire una volta oltrepassato quel limite. Infatti se descrivessimo matematicamente un buco nero usando la metrica di Kerr-Newman – è una soluzione delle equazioni di Einstein-Maxwell della Relatività Generale che descrive la geometria dello spazio-tempo nei pressi di una massa carica in rotazione – viene fuori che un buco nero può essere descritto unicamente dalla sua massa, il momento angolare e la sua carica elettrica [3].

Cercare di spiegare la complessità dello spazio-tempo in prossimità degli eventi senza ricorrere alla matematica è un compito assai arduo.
L’oggetto che descrive Shwartzschild è solo il contorno osservabile di un buco nero. Ciò che vi finisce oltre scompare all’osservatore esterno in un tempo infinito. Egli vedrebbe che il tempo sul bordo degli eventi si ferma mentre la lunghezza d’onda della luce gli apparirebbe sempre più stirata 2 in rapporto alla sua metrica temporale, man mano che essa proviene da zone ad esso sempre più prossime fino a diventare infinita.
Invece, volendo fare un gedankenexperiment [cite]https://it.wikipedia.org/wiki/Esperimento_mentale[/cite] come avrebbe detto Einstein, per colui che cercasse di oltrepassare l’orizzonte degli eventi – ammesso che sopravviva tanto da raccontarlo – il tempo risulterebbe essere assolutamente normale e tramite misure locali non noterebbe alcuna curvatura infinita dello spaziotempo e finirebbe per oltrepassare l’orizzonte degli eventi in un tempo finito.
Appare controintuitivo ma è così. Se dovessimo assistere come osservatore privilegiato alla formazione di un buco nero dal collasso di una stella [cite]https://ilpoliedrico.com/2017/02/supernova.html[/cite], non vedremmo mai il nocciolo stellare oltrepassare l’orizzonte degli eventi. Noteremmo solo che la luce proveniente da esso diventa sempre più fioca: vedremmo che i raggi gamma più duri emessi dal nocciolo diventare raggi X, poi luce visibile, infrarosso e radio  e poi più nulla; nessuna radiazione, più nessuna informazione proveniente dal nocciolo stellare potrebbe più raggiungerci.
Quello che c’è oltre lo chiamiamo singolarità. Le leggi fisiche a noi note non possono più descrivere cosa succede oltre l’orizzonte degli eventi e tutto ciò che lo oltrepassa non può più comunicare il suo stato all’esterno.

È difficile descrivere ciò che non si può osservare.

Platone, le ombre e la scienza moderna.

Quando il luglio scorso terminai di illustrare per sommi capi l’energia oscura prevista nel modello \(\Lambda CDM\) accennai che anche altre teorie erano state suggerite per rimediare all’espansione accelerata dell’Universo e sull’esistenza dell’invisibile materia oscura. Mi riferisco alle teorie MOND (Modified Newtonian Dynamics), una classe di teorie che  propongono alcune modifiche della legge di Newton per spiegare le curve di rotazione osservate nelle galassie. Ma prima di parlare di questa relativamente nuova classe di teorie che propone prospettive alquanto interessanti, voglio farvi parte di una mia riflessione sul  significato della scienza che magari troverete stimolante.

Illustrazione del Mito della caverna in un’incisione del 1604 di Jan Saenredam.
Credit: Wikipedia

2400 anni fa il filosofo greco Platone scriveva la sua opera  Politéia, tradotto in italiano La Repubblica. In questa raccolta vi è l’allegoria del Mito della Caverna, una novella ricca di simbolismi che hanno a che fare più con la psiche umana che la scienza. Ma credo che almeno in questo caso l’interpretazione del messaggio sia altrettanto interessante,
Noi oggi esploriamo la realtà con una miriade di strumenti; misuriamo, cataloghiamo, cerchiamo nessi e proviamo a comporre puzzle assai distanti tra loro come il microcosmo e il macrocosmo. Ma l’atto ultimo, cioè quello di descrivere compiutamente quel che ci circonda, è esclusivamente compito del pensiero umano. E in questo noi siamo esattamente come quei prigionieri descritti da Platone, possiamo afferrare la realtà solamente per come la osserviamo, con gli strumenti che costruiamo per misurarla e niente più.

… pensa di vedere degli uomini che vi stiano dentro fin da fanciulli … incapaci … di volgere attorno il capo. Alta e lontana brilli alle loro spalle la luce d’un fuoco e tra il fuoco e i prigionieri corra rialzata una strada. Lungo questa pensa di vedere costruito un muricciolo, come quegli schermi che i burattinai pongono davanti alle persone per mostrare al di sopra di essi i burattini. Immagina di vedere uomini che portano lungo il muricciolo oggetti di ogni sorta sporgenti dal margine, e statue e altre figure di pietra e di legno, in qualunque modo lavorate … Se [essi] potessero conversare tra loro, non credi che penserebbero di chiamare oggetti reali le loro visioni? E se la prigione avesse pure un’eco dalla parete di fronte? Ogni volta che uno dei passanti facesse sentire la sua voce, credi che la giudicherebbero diversa da quella dell’ombra che passa?

Sappiamo creare teoremi, elaboriamo nuovi concetti che crediamo possano avvicinarsi il più possibile a descrivere la realtà. Ma questa è incurante di tutti i nostri sforzi e ancora qualcosa ci sfugge.
Il Cosmo è fondamentalmente indifferente alle vicende umane: esso esisteva 13 miliardi e rotti anni prima del genere umano e continuerà ad esistere ancora per eoni dopo che l’ultimo discendente dell’Uomo sarà scomparso.
Eppure lo stesso cerchiamo di dare un significato alle ombre, pensiamo che quella che vediamo e percepiamo sia la realtà. Ma sono convinto, credo che prima di tutto dovremmo imparare che non può esserci una realtà assoluta che potremmo mai comprendere.
Ogni teoria scientifica costruita dall’Uomo per descrivere quello che lo circonda, che sia la Λ CDM, il Principio Olografico, la Teoria delle Stringhe o il Modello Standard, tutte concezioni perfettibili e più o meno integrabili fra loro, descrivono qualcosa che le altre non fanno, tutto dipende da cosa e come si osserva e dall’osservatore.
In fondo è quello che ci insegna il principio ultimo della Relatività: tutto è relativo e non può esserci un osservatore più privilegiato di altri. L’atavico concetto antropocentrico su cui sono basate tante certezze assolute  tipicamente umane messo di fronte a ciò che è si dimostra ancora una volta errato fin dalle sue fondamenta: l’Universo, il Cosmo, il Creato, chiamatelo come volete, aborre due cose: gli assoluti e gli infiniti.
A ben pensarci il messaggio che però ne viene fuori è bellissimo, un bagno di umiltà per tutto il genere umano. Non può esserci un teorema, un principio filosofico o religioso migliore degli altri. La scienza si è evoluta abbastanza nell’interpretare più o meno compiutamente la realtà, il Cosmo che ci circonda, lasciando alle religioni l’arduo fardello di cercare di rispondere al perché esiste l’Uomo e alle regole che esso sa imporsi. Guai a voler forzare queste due dottrine in un calderone unico o a escluderne una di loro d’imperio: esse sono egualmente e mutualmente necessarie per la comprensione del Cosmo.
In altre parole, volendo seguire la traccia indicata da Platone col Mito della Caverna, alla scienza spetta il compito di capire le ombre e alla religione il perché le vediamo.

Supernova

[video_lightbox_vimeo5 video_id=”189562895″ width=”90%” height=”100%”  anchor=”https://ilpoliedrico.com/wp-content/uploads/2016/12/novae.png”]

La struttura interna di una stella massiccia al momento del collasso. In effetti somiglia a una cipolla. Gli strati non sono in scala ma servono a rendere l’idea.

Credit: Wikipedia.

Essenzialmente le stelle sono il prodotto di equilibrio tra la spinta  del collasso gravitazionale di una nube di idrogeno e la pressione di radiazione fornita dalle fusioni nucleari di tale elemento che contrasta la spinta. Fino a circa 8 masse solari le stelle termineranno la loro vita con lenti e misurati sbuffi nello spazio arricchendo il cosmo di tutti quegli elementi così tanto preziosi alla vita: carbonio, azoto, ossigeno e tanto elio. Quelle più grandi invece saranno le protagoniste dei più possenti fuochi d’artificio cosmici che potreste immaginare. Immani esplosioni, chiamati supernova, sono capaci di rendere sterili i pianeti di sistemi stellari distanti decine di anni luce e ferendo gli altri per centinaia [cite]https://arxiv.org/abs/1605.04926[/cite] [cite]https://arxiv.org/abs/astro-ph/0309415[/cite]. Solo meno del 8% delle stelle della Via Lattea possiede una così grande massa e di queste solo una minuscola frazione possiede una massa sopra le 25 masse solari [cite]https://ilpoliedrico.com/popolazioni-stellari-della-via-lattea[/cite]. Come si formino stelle massicce anche 100-120 volte la massa del Sole è rimasto e rimane un rebus difficile da comprendere e spiegare. Idealmente la nube stellare che collassa dovrebbe venir soffiata via subito dopo che la stella si sia accesa al suo centro e invece questo non sempre accade. Una combinazione di opacità della nube alla radiazione della protostella, magnetismo, composizione – le stelle meno ricche di metalli tendono ad essere più massicce – e momento angolare possono suggerire come si formino questi giganti del cosmo.
I tipi di supernova si dividono essenzialmente in due grandi categorie perché i meccanismi di innesco sono due e profondamente diversi tra di loro. Il modo più semplice ed immediato per distinguerle è osservare se nello spettro dell’esplosione è presente dell’idrogeno o meno. Se questo non è presente, allora stiamo osservando una supernova di tipo I, altrimenti siamo di fronte a un episodio di tipo II 1.
Non è una distinzione da poco, questa differenza indica che le origini della supernova sono totalmente dissimili; anche se l’evento parossistico è simile. Nel primo caso la causa scatenante è dovuta all’accrezione di una stella degenere (nana bianca o stella di neutroni)  a scapito della sua compagna in un sistema stellare doppio o multiplo: quando la massa della prima raggiunge il limite di Chandrasekhar (1,4 M, nella realtà l’evento supernova si scatena un attimo prima a causa della rotazione della stella degenere) 2 avviene l’esplosione, Per questo le righe dell’idrogeno della serie di Balmer non appaiono. Nel secondo caso, il più frequente ma il meno narrato nel dettaglio, è dovuto al collasso gravitazionale di una stella massiccia almeno 8 volte il Sole.
Essendo pur sempre fenomeni spettacolari, le supernovae tra le 8 e le 25 masse solari danno origine a esplosioni relativamente più deboli, mentre superata la soglia delle 25 M l’esplosione è qualcosa di veramente impressionante [cite]http://dx.doi.org/10.1016/S0375-9474(97)00289-3[/cite] [cite]https://arxiv.org/abs/astro-ph/9701131[/cite] [4] [ [5]. Cercherò ora di raccontarla.

  • – 5 830 000 anni  – Sequenza principale – \(\left ( H \rightarrow He \right )\)

Si accende la stella. La sua composizione chimica è assai simile a quella del Sole; solo la massa è 25 volte più grande. Il nucleo è enorme, quasi 13 masse solari sono coinvolte nella fusione dell’idrogeno. Il processo di fusione principale è la catena CNO. Nelle stelle sopra le 15 masse solari il nucleo è interamente convettivo, questo spiega perché almeno metà della massa della stella è coinvolta attivamente nel processo di fusione nucleare.  La temperatura nel nucleo raggiunge i 58 milioni di kelvin per una densità di soli 5 grammi per centimetro cubico. Non molti, quasi quanto quello della Terra. Nella sua breve permanenza nella sequenza principale la stella cresce in luminosità e dimensioni. Quando la percentuale di idrogeno nel nucleo diventa infinitesimale (meno di 6 atomi di idrogeno su 100 mila atomi di elio) la fusione principale si sposta sempre più verso un guscio più esterno raggiungendo la sua massima estensione in appena diecimila anni. Il nucleo di elio è 7 volte più grande del Sole mentre la massa interessata delle reazioni nucleari dell’idrogeno è di ben 14,5 masse solari. Intanto il vento stellare soffia via circa  5  miliardesimi di massa solare all’anno, aumentando di dieci volte di intensità verso la fine del periodo.

  • – 677 000 anni  – Supergigante blu – \(\left ( He \rightarrow C O \right )\)

Negli ultimi diecimila anni di vita nella sequenza principale la pressione radiativa esercitata dalla sola fusione dell’idrogeno non basta più a contrastare il peso della stella e la forza gravitazionale la contrae verso il suo centro. La stella abbandona così la sequenza principale. Il suo nucleo di elio raggiunge  232 milioni di gradi per una densità di 700 gr/cm3 sovrastato da uno strato dove ancora si fonde idrogeno. Sotto la nuova spinta radiativa la stella si espande di nuovo e diventa una supergigante. Parte del suo strato più esterno viene disperso nello spazio e soffiato via, mentre il vento stellare si fa via via più poderoso. Inizia così il bruciamento dell’elio nel nucleo. Il prodotto finale è un nucleo di carbonio (12C) e ossigeno (16O) di poco più di 5 masse solari e l’inizio della degenerazione degli elettroni, il che per poco aiuta a sostenere il peso della stella. Ma non basta.

  • – 1000 anni – Supergigante – \(\left ( C \rightarrow Ne O \right )\)

Anche l’elio del nucleo è infine esaurito. Ne rimane un tenue strato in fusione sopra un nocciolo convettivo di carbonio e ossigeno. negli ultimi 200 anni di bruciamento dell’elio riprende la contrazione della stella finché la temperatura della fucina stellare arriva a 930 milioni di gradi  per 200 kg/cm3 di densità.  La natura convettiva dell’interno della stella fa sì che tutto sia continuamente mescolato; è così che parte degli atomi più pesanti prodotti nel nucleo raggiungono la superficie per essere poi persi nello spazio in un altro sbuffo di materia. Mentre l’intensità del vento stellare aumenta ancora, il processo di perdita importante di materia si ripeterà ogni volta che si riavvia il poderoso braccio di ferro tra gravità e pressione energetica rilasciata dalle reazioni termonucleari.

  • – 200 anni – Supergigante – \(\left ( Ne \rightarrow  O \right)\)

Negli ultimi 80 anni del ciclo precedente tutto sembra ripetersi sempre più furiosamente, contrazione, perdita di altra massa stellare e così via. La temperatura nel sempre più piccolo nucleo di neon e ossigeno grande una volta e mezza il Sole sale fino a 1.75 miliardi di gradi per 4 tonnellate per centimetro cubico. Intanto, gusci concentrici al nucleo continuano a bruciare carbonio e elio, ma sono ormai quasi esausti.

  • -9 mesi – Supergigante gialla – \(\left ( O \rightarrow S Si Ar \right )\)

Un nuovo parossismo scuote il centro della stella. Nei suoi ultimi mesi di vita la temperatura del nucleo arriva a 2.32 miliardi di gradi per 10 t/cm3 riuscendo a fondere l’ossigeno in un nocciolo di zolfo, silicio e argon mentre il vento stellare continua furiosamente ad espellere massa al feroce ritmo di 5 decimillesimi di masse solari all’anno, quasi 170 volte la massa di Giove.

  •  -1 giorno – Supergigante gialla – \(\left ( Si \rightarrow Fe \right )\)

Ormai le temperature e pressioni al centro della stella sono del tutto fuori controllo. 4 miliardi di gradi per 30 tonnellate per centimetro cubico fondono anche il nocciolo di silicio grande 1.1 volte il Sole.
Dal bruciamento del silicio hanno origine gli isotopi del silicio  (30Si – 0.187 M), dello zolfo (34S – 0.162 M) e del cromo  (52Cr – 0.113 M). Ma soprattutto tanto ferro (56Fe – 0.547 M) e cromo (52Cr – 0.251 M).  A 100 milioni di tonnellate/cm3 anche i neutroni degenerano. Il nocciolo ha ormai raggiunto quasi 7 miliardi di gradi e 3000 tonnellate per centimetro cubico di densità. è in realtà un nucleo di materia ormai degenere.
Negli ultimi 40 minuti solo un tenue guscio di silicio e la resistenza alla compressione degli elettroni degeneri trattiene la stella dall’inevitabile catastrofe.

  • – 0,25 secondi – Il collasso finale

Finalmente la gravità pare vincere sulle reazioni termonucleari che hanno sostenuto la stella per quasi 6 milioni di anni. La stella collassa su sé stessa alla tremenda velocità di 50 mila chilometri al secondo, un sesto della velocità della luce. Sotto questa immane pressione, 100 milioni di tonnellate per centimetro cubico e  quasi 35 miliardi di gradi, i nuclei dell’elemento ferro interagiscono con gli elettroni degeneri: i protoni si fondono con gli elettroni convertendosi in neutroni generando anche una cascata di neutrini. Il nucleo ormai è in immenso neutrone di appena 40 chilometri di diametro. Ne consegue che la materia che cade sul nucleo di neutroni anelastico rimbalza via praticamente alla stessa velocità del collasso scontrandosi con la parte della materia ancora in caduta libera. Lo shock provoca processi di disintegrazione e rifusione per cattura neutronica di elementi più pesanti del ferro che assorbono energia. L’energia così dissipata è paragonabile a quella emessa dalla stella nei suoi quasi 6 milioni di anni di vita. Dietro lo shock i protoni tornano a legarsi con gli elettroni producendo un flusso di neutrini energetici, i quali rappresentano una grande percentuale dell’energia rilasciata nel crollo della stella.
Intanto il nucleo in collasso diventa opaco ai neutrini che possono diffondersi così solo per scattering, analogamente ai fotoni emessi dalla stella fino a pochi attimi prima. Come per una stella esiste la fotosfera, cioè dove la stella diventa trasparente alla radiazione elettromagnetica, così si può parlare di neutrinosfera dove la densità del nucleo di neutroni diventa abbastanza bassa da consentire la fuga dei neutrini. L’onda d’urto che si infrange sul nucleo è causa di una convezione instabile che converte l’energia termica intrappolata nel nucleo in energia cinetica trasportata dai neutrini intrappolati. Questo processo raffredda il nucleo di neutroni fino a poche decine di milioni di gradi in pochi secondi mentre parte dell’energia cinetica dei neutrini (circa lo 0,3% sembra niente ma è pur sempre una quantità spaventosa di energia) viene assorbita e dispersa dagli strati coinvolti nello shock di rimbalzo contribuendo anch’essa all’esplosione finale.

  •  I resti

Relazione di massa iniziale e finale per le stelle di composizione solare. La linea blu indica la massa stellare dopo il bruciamento del nucleo di elio. Per M ~ > 30 M⊙ il nucleo di elio è esposto come una stella WR, la linea tratteggiata offre due diversi scenari dipendenti dall’incertezza dei tassi di perdita di massa WR. La linea rossa indica la massa del residuo stellare compatto, risultante dalla perdita di massa AGB per le stelle di massa intermedia, e l’espulsione dell’ involucro nel casa del collasso del nucleo per le supernova delle stelle più massicce. Le aree verdi indicano la quantità di massa espulsa che è stata processata dalla combustione dell’elio e dalla combustione nucleare più avanzata. (Figura da Woosley et al. 2002).

Quel che resta del nucleo dipende dalla sua massa finale dopo lo shock [6]. E questo è funzione della metalliticità iniziale della stella e della massa finale del nucleo. Il caso delle 25 M per una stella di composizione simile al Sole è un caso limite fra un residuo di neutroni e un buco nero anche se qui il primo caso è da preferirsi.
Se l’inviluppo di idrogeno è ancora importante la sua ricombinazione dallo stato ionizzato fornisce altra energia che diventa sempre più visibile man mano che nel processo di espansione diventa più sottile e freddo. Comunque la ricombinazione ovviamente interessa anche gli elementi più pesanti quando vengono raggiunte temperature e densità adeguate dalla materia espulsa dalla supernova. È questo fronte di ricombinazione che produce il plateau nella curva di luce che verrà osservata nei mesi successivi all’esplosione.
Nella fase finale la curva di luce della supernova è dominata dai processi di decadimento radioattivo degli isotopi prodotti dall’esplosione, soprattutto il nichel (56Ni  + e56Co + ν + γ   τ½ = 6.1 giorni) e il cobalto (56Co + e56Fe + ν + γ   τ½ = 77 giorni) verso il ferro. Anche il decadimento di altri isotopi meno diffusi e con tempi di decadimento diversi contribuisce a suo modo alla curva di luce.

Per alcuni mesi, il bagliore incandescente dei resti della supernova è quanto quello di un centinaio di miliardi di stelle come il Sole, più o meno quanto quello della galassia ospite. Poi, pian piano, il bagliore scema, ma può comunque essere ancora un centinaio di milioni più intenso della nostra stella. Dopo l’esplosione il nucleo di neutroni è quel che rimane della grande stella. La sua massa supera di poco quella del Sole compressa in uno spazio di una ventina di chilometri di diametro che ruota su sé stesso almeno dieci volte al secondo: una stella di neutroni. Anche il momento magnetico dell’antica stella è compresso nel piccolo nocciolo dando origine a un campo magnetico 100 miliardi di volte più intenso di quello terrestre. Nella pratica il resto si comporta come un’enorme dinamo celeste che cattura gli elettroni rimasti ancora liberi e li accelera fino quasi alla velocità della luce. Questo produce luce. Luce che illumina i resti della supernova in espansione come le comuni stelle illuminano le nebulose planetarie. Lo spettacolo non dura molto perché sottrae energia cinetica alla stella di neutroni che rallenta; ci vogliono circa 25 mila anni ma anche questo infine ha termine.

Mentre ho volutamente tralasciato da questa cronaca alcune cose che ritengo essere di secondo interesse per il lettore, altre magari mi sono senz’altro sfuggite per mia disattenzione.
Le cifre che ho riportato sono frutto di calcoli basati sui modelli attuali e pertanto sono da considerarsi solamente indicative della scala dei reali valori in gioco per una stella di 25 M.
Non ho altro da aggiungere se non … cieli sereni!

Sangue blu

Chi ama Star Trek non può non sapere che alcune razze aliene (Vulcaniani, Andoriani e Boliani) descritte nella saga  posseggono un ciclo dell’eme basato sul rame piuttosto che il ferro. Ma quella che sembra una semplice trovata narrativa tipica della fantascienza, è molto più vicina alla realtà di quanto si pensi.

 

Un polpo di profondità della specie Gradeledone Boreopacifica. Questa specie vive a 2000 metri di profondità e la sua ‘emolinfa è a base di rame (emocianina).

Quasi tutta la vita animale terrestre fa uso dell’ossigeno per compiere i suoi processi metabolici. Negli organismi più piccoli e semplici le molecole d’ossigeno sono direttamente assorbite dalle cellule dal mezzo circostante, come l’aria, attraverso un intricato sistema capillare di condotti, chiamato sistema tracheale. Questo sistema di trasporto dell’ossigeno lo si trova ancora in uso nella stragrande maggioranza degli insetti, ossia in tutti quelli che ancora possiedono spiracoli tracheali (stigmi).
Finché l’organismo è abbastanza semplice e piccolo il sistema respiratorio basato sul trasporto diretto delle molecole di ossigeno funziona benissimo, ma appena questo si fa più complesso o le complessità dell’habitat rendono il sistema tracheale inefficiente, ecco che in natura appare un sistema respiratorio più complesso ed efficace basato su un sistema di trasporto capillare di proteine respiratorie conosciuto come emolinfa.

Le origini dell’emocianina

[fancybox url=”https://www.youtube.com/watch?v=6gydJh6rP50″] [/fancybox]
Questo curioso animale (Limulus polyphemus) è stretto parente di ragni e zecche ed è apparso sulla Terra circa 20 milioni di anni fa. L’emolinfa dei lemuli è praticamente incolore ma assume un colore azzurrognolo a contatto con l’aria dovuto all’ossidazione dell’emocianina. l’emolinfa è preziosa per la medicina: essa contiene una proteina che è grado di riconoscere efficacemente i lipopolisaccaridi presenti sulla parete dei batteri Gram negativi ed eliminare questi ultimi racchiudendoli in un coagulo. Questa capacità ha portato allo sviluppo del test in vitro LAL (saggio del lisato di amebociti di limulus).

Le emolinfe sono l’analogo del sangue dei vertebrati. La principale differenza sta negli emociti che sono basati su un tipo diverso di proteina fissatore di ossigeno, molto spesso l’emocianina, basata sul rame. Questa è una metalloproteina contenente due atomi di rame che sono in grado di legare reversibilmente una molecola di O2, al posto della più nota emoglobina usata dai vertebrati e che usa il ferro per legare l’ossigeno.
In genere sono le specie che vivono in ambienti particolarmente freddi e con una bassa pressione di ossigeno ad utilizzare questo meccanismo di trasporto nell’organismo. In queste circostanze l’emoglobina sarebbe meno efficiente dell’emocianina. L’emocianina presenta però anche una bassa affinità di legame col monossido di carbonio rispetto all’emoglobina, il che la penalizza nel trasporto degli scarti della respirazione cellulare.
L’attuale granchio a ferro di cavallo, o lemule, fa uso di emocianina quale proteina respiratoria e può essere considerato un fossile vivente perché nei 20 milioni di anni dalla sua comparsa non si è mai evoluto. I suoi predecessori quasi sicuramente erano le trilobiti (appartengono allo stesso phylum) vissute tra il Cambriano e il Permiano (520-250 milioni di anni fa), quando ancora la Terra non possedeva un’atmosfera ricca di ossigeno (<50% del livello attuale) come oggi [cite]https://www.ncbi.nlm.nih.gov/pmc/articles/PMC1578726/[/cite]. Ed è proprio in un ambiente relativamente povero di ossigeno che l’emocianina può essersi sviluppata circa 740 milioni di anni fa [cite]http://dx.doi.org/10.1016/j.bbapap.2013.02.020[/cite] poco dopo la comparsa delle prime forme di vita animali 750-760 milioni di anni fa [cite]http://sajs.co.za/first-animals-ca-760-million-year-old-sponge-fossils-namibia/brain-c-prave-anthony-hoffmann-karl-heinz-fallick-anthony-botha-andre-herd-donald-sturrock-craig[/cite]. In quel periodo va ricordato che l’ossigeno rappresentava appena il 5% del volume atmosferico e stava cominciando appena a formarsi lo scudo di ozono; la terraferma era ancora potenzialmente letale se non si era qualche temerario batterio estremofilo.

Le peculiarità dell’emocianina

Ricostruzione a 9 Å ottenuta grazie a un crio-microscopio elettronico della struttura dell’emocianina della Megathura crenulata.

L’emocianina è la seconda catena proteica respiratoria biologicamente più diffusa dopo l’emoglobina. La stragrande maggioranza dei molluschi come i bivalvi e i cefalopodi  e anche alcuni gasteropodi, come i granchi, gli astici e i gamberi, usano l’emocianina come vettore biologico dell’ossigeno. Anche alcuni artropodi terrestri, come i centopiedi e i millepiedi, e qualche altro insetto usano l’emocianina [cite]https://dx.doi.org/10.1073/pnas.0305872101[/cite].
Come già accennato prima, l’emocianina usa gli atomi di rame per legare e trasportare ossigeno. Essa è composta da diverse sotto-unità proteiche individuali in cui ciascuna di esse possiede due atomi di rame (Cu-A e Cu-B) in grado di legarsi con una molecola di ossigeno (O2). Dette sub-unità poi tendono ad aggregarsi tra loro, per questo il peso dell’emocianina è generalmente alto; infatti la struttura molecolare dell’emocianina tende ad essere molto diversa tra gli artropodi (più grande in questi) e i molluschi [cite]http://www.nyu.edu/projects/fitch/resources/student_papers/nigam.pdf[/cite].
In ogni caso le emocianine nel loro complesso sono molto più grandi dell’emoglobina dei vertebrati e in numero nettamente maggiore per unità di volume. Queste catene proteiche possono trasportare dalle 5 alle 180 molecole di ossigeno ciascuna (dipende dalla quantità di sub-sezioni aggregate in una singola proteina) e circolare liberamente nell’emolinfa senza danneggiare l’organismo – l’emoglobina è molto più piccola e necessita di una cellula  per non creare disagio – e per questo nel loro complesso paiono più efficienti. Ma le loro dimensioni e concentrazione aumentano la viscosità dell’emolinfa, il che comporta di conseguenza anche un maggior dispendio di energia per essere distribuita. 

Conclusioni

A questo punto è plausibile pensare che la percentuale dell’ossigeno biochimicamente disponibile abbia pesantemente influenzato l’evoluzione della vita sulla Terra. L’aumento dei livelli di ossigeno molecolare disponibile alla respirazione fu reso possibile dalla comparsa di un’altra proteina, stavolta nel regno vegetale che da poco aveva iniziato a colonizzare anche la terraferma: la lignina (450 Myr) [cite]http://onlinelibrary.wiley.com/doi/10.1111/j.1469-8137.2010.03327.x/full[/cite]. Questo deve aver reso l’esperienza dell’emocianina nel suo complesso inadatta ai più agili e veloci organismi vertebrati che sarebbero apparsi dopo.
L’emocianina e l’emoglobina sono due esperienze di convergenza evolutiva, due proteine con struttura e morfologia completamente dissimili che però svolgono nel complesso lo stesso compito.
Spesso la realtà è nettamente superiore e stupefacente della miglior fantascienza.