martedì 28 febbraio 2012

I terremoti del 2011 in due interessanti animazioni


Fra qualche giorno, ad un anno dal grande terremoto di Tohoku, saremo subissati sulla stampa generalista da articoli e servizi. Non oso pensare alle idiozie che verranno scritte sia sul terremoto che sullo tsunami che su Fukushima.
Nel mentre che nel Paese del sol Levante aumenta il timore per un forte terremoto nella zona immediatamente a sud del segmento interessato alla rottura nel 2011, voglio presentare due video su youtube, in cui sono graficamente riportati, accompagnati da un suono, che è – correttamente – maggiore all'aumentare della Magnitudo e non dell'intensità nella scala Mercalli che dipende dalla risposta locale.


Il primo filmato è a scala mondiale e il secondo a scala giapponese.

Sono molto interessanti, specialmente il primo, quello a scala globale, perchè ci fa vedere l'importanza sismica della zona che va dal Giappone, alle Filippine, all'Indonesia a Nuova Zelanda, quella dove si concentra la maggior parte della sismicità mondiale (e ti credo: a 8 centimetri all'anno di movimenti delle zolle....)

Andando nei dettagli e avvisando che non sono considerate nel filmato le scosse con M inferiore a 4.5 (e questo taglia praticamente tutta la sismicità mediterranea o quasi, tanto per dare un'idea di quanto poco sia sismica l'area in cui noi viviamo rispetto ad altre), vediamo alcuni eventi particolari.



L'anno inizia subito a tambur battente: il 1 gennaio c'è un 7.0 in Argentina che essendo a oltre 500 km di profondità non è statto praticamente avvertito e poche ore dopo altro evento sulla costa cilena. Poi puntate l'occhio a est della Nuova Guinea e dintorni e vedrete (e ascolterete!) il terremoto del 13 gennaio alle Loyalty Island e le sue numerose repliche. L'11 febbraio è di nuovo alla ribalta la costa cilena, dove bene o male continua ancora la sequenza sismica inziata con il terribile evento del 27 febbraio 2010.
Ed ecco una cosa davvero molto istruttiva: il terremoto di Christchurch del 21 febbraio praticamente rimane confuso nella massa, nonostante che senza il grande terremoto giapponese sarebbe stato, per le conseguenze sulla città, il più ricordato dell'anno, ancora più ricordato di quello di Van, in Turchia che come vedremo a ottobre si distingue bene non solo per la sua magnitudo maggiore (7.1 anziché 6.1) ma anche perchè non è capitato come quello neozelandese in un'area così sismicamente attiva.

E ora siamo, finalmente, alla sequenza giapponese che inizia il 9 marzo con il terremoto di M 7.9. Guardate come ancora non si spegne l'eco di questa scossa che parte quella dell'11 marzo: il rumore del filmato diventa altissimo perchè, oltre alla normale attività mondiale, nella costa nordorientale di Honshu le repliche forti si contano a decine.
È interessantissimo notare la curva grafica che parte dall'angolo in basso a destra, che descrive il numero degli eventi registrati: praticamente costante fino all'11 marzo, si impenna violentemente per un mese: dai 1270 eventi registrati tra il 1 gennaio e il 10 marzo si passa a oltre 2500 il 15 marzo (1300 eventi con M superiore a 4.5 in 6 giorni!!!!), quando la curva comincia a perdere pendenza. Quella tipica ante11 marzo verrà riacquistata solo ai primi di aprile (resterà, comunque, impercettibilmente superiore a causa dell'anomalia di frequenza nel nord del Giappone dove – appunto – continua intensa l'attività).
Il 10 maggio altra scossa forte alle Loyality, a Est della Nuova Guinea, a cui seguono numerose repliche. È interessante vedere come il sisma del 24 giugno alle Aleutine, che pur essendo più forte ha dato molte meno repliche.
Un secondo incremento significativo e temporaneo di questa curva lo si nota per una settimana al seguito del terremoto delle Kermadec del 6 luglio, poco a nord della Nuova Zelanda, a cui segue una “coppiola” notevole il 20 agosto, con due eventi superiori a 7 ma profondi oltre 200 il primo, oltre 500 kilometi il secondo.
Il 23 ottobre l'evento di Van, in Turchia, produce un significativo rumore. Poi la parte finale dell'anno non presenterà eventi particolarmente significativi.

Invito di nuovo a guardare il filmato soffermandosi prima sulle coste Pacifiche fra Giappone e Nuova Zelanda e poi sull'area mediterranea per capire veramente dove i terremoti sono più forti e numerosi. Anche la costa pacifica del Sudamerica è attiva, ma lo è di meno rispetto all'altro lato dell'oceano.
Per chi volesse c'è poi lo stesso filmato a scala giapponese:

venerdì 17 febbraio 2012

La genetica dei Nordafricani: una popolazione dalle origini antichissime a cui si è sovrapposta una serie di immigrazioni posteriori

Il deserto del Sahara rappresenta una importante barriera per la civiltà umana, con evidenti conseguenze nella cultura, nella lingua e nella genetica. L'Africa Settentrionale è un caso molto particolare e poco studiato da un punto di vista genetico, nonostante i 160 milioni di persone che vi abitano: ad un complesso genetico autoctono si affiancano componenti europee, mediorientali e sub-sahariane. L'espansione araba dall'VIII secolo DC in poi ha provocato un certo flusso genico con un gradiente molto spiccato, massimo a Est e che diminuisce progressivamente andando verso ovest. Di segno opposto a quello della invasione araba, massimo a ovest e che diminuisce progressivamente verso est, c'è una componente genetica che pare molto antica, ben oltre i 12.000 anni fa.
Restavano aperte parecchie soluzioni: i nordafricani discendono dalle prime popolazioni di Homo Sapiens stabilitesi in zona circa 50.000 anni fa? Oppure discendono dai primi pastori neolitici? Quanto hanno pesato le vicende storiche successive da un punto di vista genetico?

Un recente studio pubblicato su PlosGenetics ha cercato di chiarire questi dubbi. Ci sono alcune cose che saltano all'occhio: innanzitutto non ci sono differenze particolari fra popolazioni di lingua araba e popolazioni di lingua berbera. Entrambe le lingue appartengono alla Famiglia Linguistica Afro-Asiatica, ma a gruppi diversi all'interno della famiglia (diciamo come l'Italiano e l'Inglese nelle lingue indoeuropee). Nonostante che l'Arabo sia la lingua ufficiale delle nazioni nordafricane, le lingue berbere sono ampiamente diffuse (anzi, in Marocco i berberofoni sono più numerosi degli arabofoni e in Algeria probabilmente il 30% della popolazione parla dialetti berberi). L'arabo è quindi una tipica sovraimposizione di una nuova lingua introdotta da un nuovo ceto dominante; invece le lingue berbere erano quelle parlate nel I millennio AC, da una popolazione autoctona molto ben strutturata con una propria impronta genetica, quella dei vari popoli che si sono validamente opposti alle invasioni di Romani, Greci e Fenici (Cartaginesi), fra i quali i più noti sono i Numidi.

Alcuni studi hanno puntualizzato delle differenze notevoli fra la distribuzione del DNA mitocondriale e quella del cromosoma Y: il DNA mitocondriale è fra i più “antichi” del mondo ed indica una migrazione nell'area molto antica, pre-olocenica: secondo alcuni Autori potrebbe essere il DNA mitocondriale delle prime femmine di Homo sapiens giunte nell'area circa 40.000 anni fa, quando si estinsero gli ultimi neandertaliani. Il cromosoma Y invece sembra più legato all'espansione neolitica dell'agricoltura del VI millennio AC. Quindi con i nuovi venuti c'è stata una massiccia sostituzione della linea diretta maschile della popolazione. Un esempio recente ce lo fornisce il Sudamerica, dove anche fra popolazioni in cui la componente nativa è preponderante c'è una presenza anomalmente alta di cromosoma Y di derivazione europea: in effetti per averlo basta avere in linea diretta uno e un solo antenato di origine europea negli ultimi 500 anni, il che è abbastanza facile che si sia verificato.

La cultura Capsiana ha dominato la parte occidentale del Nordafrica, specialmente nell'odierna Algeria tra il 10.000 e il 6.000 AC. i Capsiani si nutrivano di un uro leggermente diverso da quello europeo, di gazzelle, lepri e, cosa abbastanza caratteristica, di lumache (alcuni testi francofoni li chiamano "escargotières". All'epoca non erano ancora diffuse capre, pecore e i bovini attualmente comuni, che sono stati introdotti dall VI millennio AC dalle popolazioni provenienti dall'Anatolia che hanno diffuso l'agricoltura. Occorre anche ricordare che durante il periodo capsiano il Sahara era profondamente diverso da oggi, un ambiente simile alle attuali savane dell'Africa Orientale. I Capsiani avevano anche sviluppato una produzione di ceramica.
Immagino che la sostituzione della componente maschile della popolazione e la fine della cultura capsiana siano eventi correlati.

Quanto ai contributi genetici provenienti dall'altro lato del Sahara, specialmente nella zona occidentale presentano delle differenze di distribuzione tali da riconoscerne l'origine molto recente. Presentano un aspetto piuttosto particolare: nella zona orientale ci sonovarianti sia di tipo nilo-sahariano e bantù, mentre nella zona occidentale sono presenti solo le seconde.

La difficoltà metodologica maggiore nello studio della genetica nordafricana è la sovrapposizione di molte componenti distinte mentre i modelli attualmente disponibili fanno riferimento alla mescolanza fra due sole popolazioni. Pertanto gli Autori dell'articolo di PlosGenetics hanno dovuto ideare nuovi metodi statistici per considerare flussi genetici da 5 posizioni geografiche diverse: Africa Settentrionale, Europa, Medio Oriente, Africa Sub-Sahariana Occidentale ed Africa Sub-Sahariana Orientale. È bene ricordare che il flusso dall'Europa è stato abbastanza continuo (sia pure senza assumere proporzioni importanti) ed è finito prima della conquista araba, mentre quello mediorientale, a partire dalla colonizzazione fenicia, è sempre stato attivo e talvolta con numeri piuttosto importanti (e, a complicare le cose, gli europei mostrano molto spesso delle ascendenze mediorientali).

Nel resto del DNA si possono vedere dei gradienti piuttosto significativi. Il trend genetico denominato “maghrebino” ha un massimo di concentrazione in Marocco e diminuisce andando verso est, con un picco di diffusione fra gli abitanti di lingua berbera della Tunisia (unica significativa correlazione fra genetica e lingua parlata). Anche in questo caso, come per il DNA mitocondriale, si evidenzia una estrema antichità di questa componente genetica, che viene da ben oltre il limite pleistocene - olocene. C'è poi una componente mediorientale che invece si comporta esattamente all'opposto, molto “vivace” a oriente e gradatamente in calo progredendo verso occidente,

In questo diagramma si vedono i rapporti fra due componenti del genoma di varie popolazioni: in celeste i nordafricani (i puntini più scuri sono i tunisini berberofoni. Il colore violarappresenta europei (nella fattispece sono stati utilizzati dati su baschi e toscani), in alto a sinistra popolazioni kenyane (che si rapportano alla componente sub-sahariana visibile solo nell'Africa nordorientale) e in basso a sinistra popolazioni sub-sahariane della Mauritania, delle quali ci sono alcune testimonianze nel genoma in tutto il nordafrica.

Lo studio mette comunque in eccellente evidenza come la genetica delle popolazioni nordafricane abbia eccellenti assonanze con quella del resto dell'area mediterranea (anche nella componente tipicamente maghrebina) e sia molto più vicina a queste che a quelle con l'Africa Subsahariana. Il che evidenzia un “ritorno in Africa” da parte dei discendenti di quelle popolazioni che erano uscite dal continente originario dirigendosi verso Medio Oriente ed Asia Meridionale.

martedì 14 febbraio 2012

Il primo lancio dal poligono di Kourou del nuovo vettore VEGA, costruito in Italia


Quello di ieri è stato un giorno molto importante per la comunità scientifica e tecnologica italiana: è partito dalla base di Kourou il primo razzo vettore VEGA, concepito in Italia dove è stato costruito per il 65%. Con questo avvenimento, ideale conclusione del 150° anniversario della sua unificazione, il nostro Paese rientra fra le poche nazioni al mondo capaci di costruire una macchina del genere. Non è poco. Davvero.

L'Italia è un paese di letterati, dove nello spirito di Benedetto Croce e dei suoi epigoni la scienza e la tecnologia sono culture (con la c minuscola) di serie B, mentre la Vera Cultura sono la Storia, le Lettere e le Arti. I mass-media seguono questa tendenza, relegando di solito a pagine specifiche interne le questioni scientifiche o tecniche.
Comunque, nell'ombra dello sgabuzzino in cui i letterati e la politica degli incentivi alla produzione spicciola a bassa tecnologia (auto ed edilizia “brutale” su tutto) li hanno relegati, scienziati e tecnici italiani hanno costruito un grandissimo successo dell'industria aerospaziale italiana: il nuovo lanciatore europeo, partito ieri dalla base europea di Kourou, nella Guyana Francese, parla talmente italiano che Jean-Jacques Dordain. direttore generale dell'ESA, l'Agenzia Spaziale Europea, al momento che il razzo è finalmente partito, ha esclamato “fatto” nella nostra lingua, come segnalato dai media scientifici di tutto il mondo, USA compresi
Un grande successo per l'Italia che – pochi se ne ricordano – con il progetto San Marco, nel lontano 1964 è stata la terza nazione al mondo dopo URSS e USA, a lanciare un satellite nello spazio.
È l'ennesima dimostrazione che se avessimo avuto una politica più vicina all'alta tecnologia anziché a dare contributi per cambiare automobili o televisori e per un'edilizia povera di contenuti tecnologici avremmo avuto meno fughe di cervelli all'estero, meno disoccupazione e meno paura dei prodotti a basso costo provenienti dai Paesi emergenti.
Ma forse per farlo bisognava che Benedetto Croce non fosse mai nato e fossimo un popolo meno da bar sport e talk show televisivi.

Il lanciatore Vega prende il nome dalla famosa brillantissima stella, come auspicio per un futuro importante. Lungo 30 metri può lanciare diversi satelliti contemporaneamente (ieri erano 9). con un carico utile che va dai 300 kg alle 2 tonnellate, a seconda delle orbite che questi devono raggiungere (dai 300 ai 1500 km di quota)
È quindi un razzo “leggero”, per veicoli spaziali di piccole dimensioni, che completa la famiglia di lanciatori europei: un lanciatore per satelliti fino a 10 tonnellate per le missioni più varie come l’Ariane 5, ultima evoluzione del classico razzo europeo su cui, nelle varie versioni, l'ESA si è fatta un nome e i lanciatori Soyuz, frutto di un accordo fra l'Agenzia Spaziale Europea e quella russa che ha messo a disposizione i suoi progetti, che coprono satelliti di massa intermedia.

Con questo lanciatore l'ESA ha quindi a disposizione un mezzo economico dal sicuro grande spazio commerciale. E questo è il punto più importante della questione: i costi contenuti (sempre parlando di spazio, ovviamente) rendono finalmente accessibile lo spazio anche a soggetti che prima non avrebbero potuto affrontarne i costi, come Università e centri di ricerca.
Rientrano nella gamma interessante per Vega satelliti di peso fino a 1500 Kg da orbita bassa (700 km), le caratteristiche tipiche delle sonde ad uso scientifico, per osservazioni della Terra e monitoraggi ambientali. Sono apparecchi che in generale ruotano intorno alla Terra con un'orbita in sincronia con il Sole e quindi leggono sempre la superficie terrestre sottostante alla stessa ora.

L'azienda che ha realizzato, come prime contractor, il lanciatore e coordina 40 aziende di 12 paesi europei è la ELV, costituita a questo scopo nel 2000 dal Gruppo Avio con il 70% mentre il 30% è di proprietà dell'ASI, l'Agenzia spaziale Italiana.
Registriamo che purtroppo questa è la classica “buona azienda” italiana la cui proprietà è finita all'estero: la maggioranza delle azioni della AVIO appartengono infatti ad un fondo di investimento inglese. Comunque sempre meglio un fondo di investimento rispetto ad essere inglobati da un'azienda concorrente che alla fine dopo essersi appropria di macchinari, know-how e clientela, chiude la filiale italiana...

La produzione del vettore Vega è stata realizzata per il 65% nel nostro Paese, all’interno degli stabilimenti del Gruppo Avio a Colleferro (Roma). Grazie a questo l'Italia è rientrata, dopo le glorie del progetto San Marco,nel ristretto club dei Paesi in grado di realizzare un lanciatore completo (6 in tutto!).
Vega è un esempio dell’applicazione di tecnologie innovative che testimonia le capacità che abbiamo in Italia nella avionica del lanciatore.
Non resisto a mettere questa “velina” che mi è arrivata (azzz, come sono diventato importante.., pure le veline mi arrivano...): Con Vega l’Italia entra nel ristrettissimo club dei Paesi in grado di accedere allo spazio con proprie tecnologie - ha dichiarato Francesco Caio, Amministratore Delegato di Avio. - Negli ultimi otto anni, il gruppo ha sviluppato un lanciatore fortemente innovativo: il primo interamente in fibra di carbonio, con controlli digitali avanzati e una grande flessibilità di configurazione per mettere in orbita satelliti di diverse dimensioni e funzionalità”.

Con il lancio di ieri si chiude così con un pieno successo la prima fase di sviluppo e progettazione: i rischi erano teoricamente elevati perchè non si deve dimenticare, infatti, che il tasso di successo del primo volo di qualifica per nuovi lanciatori è del 60% circa. Quindi il “tutto OK” che si è potuto registrare è sicuramente già un bel successo. Ora si apre la fase in cui, come per ogni nuovo lanciatore, la messa a punto del vettore e dei sistemi di terra saranno completati grazie ai test delle prime missioni. 

Questo è il link al filmato del primo lancio di Vega:

giovedì 9 febbraio 2012

Una terribile disgrazia, i risultati della non consultazione dei geologi e una ridicola scusa

Il problema del dissesto idrogeologico si ripropone periodicamente ad ogni evento alluvionale per poi essere dimenticato dall'opinione pubblica quando un nuovo fatto si impone nelle cronache. Su questo vi voglio raccontare un episodio che dimostra l'ignoranza in fatto di Scienze della Terra anche da parte dei cosiddetti “decisori". Quando alla mancata prevenzione si aggiunge l'irresponsabilità di chi anziché chiedere scusa propone come causa una origine che neanche a Paperopoli ci avrebbero pensato, ci sarebbe da ridere. Se non fosse che per l'incuria e/o l'ignoranza è morta una persona.

Le cause che provocano dissesti sono da ricercare certamente nella fragilità del territorio, nella modifica talvolta totale degli equilibri idrogeologici lungo i corsi d’acqua e nella mancanza di interventi di manutenzione da parte dell’Uomo. Le aree acclivi montane, sono spesso lasciate al degrado per l’abbandono o peggio, per negligenza di chi, preposto al controllo, non fa il suo dovere o non ha le capacità tecniche per comprendere la pericolosità di certi luoghi. E questo che vi sto raccontando è un chiaro esempio di mancato controllo e/o mancata manutenzione.

Una strada a mezza costa è una ferita al pendio, ferita che necessita di essere curata di continuo con grande attenzione. Il giorno 16 settembre del 2006 è successo un fatto rappresentativo di tutto questo, lungo la strada statale n°12 dell’Abetone e del Brennero, in località Tistino, nel territorio del Comune di San Marcello Pistoiese. Nei giorni precedenti aveva piovuto parecchio e proprio le piogge sono state la causa di una frana: un masso di grandi dimensioni ha sfondato il parabrezza di una automobile che passava in quel momento. Per il guidatore purtroppo non c'è stato niente da fare.

Gli accertamenti che si svolsero nei giorni successivi attribuirono l’evento ad una imprevedibile e tragica fatalità. L'accertamento tecnico relativo alla causa ancora in corso, portò ad un anno dall'inizio del contenzioso, a chiamare in causa la figura del Geologo. Fu così che, dopo una serie di ricostruzioni sul punto probabile di distacco del masso e varie possibili distanze percorse dal masso che potevano chiamare in causa responsabilità diverse, al primo esame della pendice da parte dei geologi, fu subito chiaro che la piccola "valletta" da cui si era mosso il masso, altro non era che una vecchia nicchia di frana: la morfologia non lasciava dubbi ed era ovvio che questo fosse un caso classico di masso rotolato lungo il pendio di una zona in frana. 
E già qui c'è da fare una prima riflessione: c'è voluto un anno per rendersi conto che in un caso di caduta massi era necessario il contributo di un geologo e non bastavano più o meno veritiere modellizzazioni numeriche prodotte da ingegneri?

La frana era iniziata con un crollo, avvenuto sicuramente prima dell'inizio del XX secolo e nicchie similari sono riportate sull'antica cartografia IGM. Come non ci sono dubbi che i movimenti siano ancora attivi: le acque piovane e di ruscellamento con la loro azione erosiva provocano l’instabilità dei fianchi della frana, comportando tuttora evidenti rischi per chi transita lungo la sottostante strada statale, specialmente nei periodi piovosi. La notevole pendenza del versante e la presenza di ciottolami e detriti vari sulle sue pendici hanno contribuito in passato a causare numerosi crolli, di limitate dimensioni. E che quella zona sia soggetta a fenomeni del genere ce lo dice la toponomastica: il rilievo soprastante si chiama “Poggio delle Calanche”, sottolineando le caratteristiche erosive che contraddistinguono questa località.

Un'altra dimostrazione che questa frana era nota lo certificano le rimanenze di piccoli muretti a secco in pietrame che, sebbene ampiamente diroccati, sono ancora ben riconoscibili; questi muretti sostenevano terrazzamenti troppo stretti e bassi per essere stati costruiti per uso agricolo ed è quindi scontato che la loro funzione fosse quella di moderare la pendenza del fondo della nicchia.Si tratta di una vecchia opera di presidio ormai dimenticata e costruita secondo le disponibilità ed i criteri di un tempo seguendo comunque una stringente logica: se si modera la pendenza si attenua l'erosione e si evita il più possibile il rischio di caduta delle pietre più grosse contenute nella massa detritica.
Purtroppo oggi a causa dell'incuria questi muretti sono divenuti un rischio per chi transita dalla statale perchè, non curati, si stanno mobilizzando e sono essi stessi fonte di sassi che cadono verso la strada.

Una ventina di anni fa, l’ente gestore della strada statale, l’ANAS, mise in opera una rete parasassi sul tratto di versante che terminava proprio al limite con questa nicchia di frana, senza, evidentemente, accorgersi di questa particolare zona fragile e quindi procedere con la messa in sicurezza. Questa è stata una gravissima negligenza (o un tragico errore?) da parte dell'ANAS perchè questa serie di evidenze avrebbe dovuto consigliare attenzione. Siamo pertanto davanti a enormi responsabilità da parte dell'Ente gestore della strada che ha portato alla morte un ignaro automobilista di passaggio. Possibile che un Ente come l'ANAS, non abbia nel suo servizio Tecnici qualificati per diagnosticare queste problematiche territoriali? Ed è possibile che ancora oggi niente di tecnicamente corretto sia stato fatto per mitigare i rischi a distanza di cinque anni dal tragico evento ad eccezione di alcune modeste palizzate realizzate con tronchi di albero, limitate alla parte più vicina alla statale e di discutibile utilità?

La cosa diventa ancora più grave se si pensa che c'è in questo momento una causa in corso. Mi chiedo se sia possibile che l'ANAS non faccia niente perchè altrimenti qualcuno potrebbe concludere che facendo i lavori certifichino di essere in torto.
Però, volendo dimostrare a dispetto di ogni evidenza la propria innocenza, occorre per forza trovare un capro espiatorio a cui addossare la colpa della tragedia, e all'ANAS si arrampicano sugli specchi per trovarlo. Ebbene, di chi è la colpa della caduta del masso? Mah, direte, la frana, ovvio!
Eh, no... Per l'ANAS non è così: sostiene che il sasso si sia staccato per l'azione di un ungulato, probabilmente un cinghiale. 


Qui entra in gioco, tragicamente, la mancanza di cultura geologica, altrimenti una idiozia del genere non l'avrebbero neanche pensata. Chi credono di prendere in giro così? Non certo il sottoscritto, nè i geologi che hanno specificamente studiato il caso. È gravissimo che persone pagate con le tasse dei cittadini non facciano quello che devono fare per proteggerli, ma è semplicemente intollerabile da parte degli stessi prendere in giro a questa maniera la comunità e, soprattutto, una famiglia così gravemente colpita da un lutto dovuto semplicemente all'incuria, alla irresponsabilità o alla mancanza di conoscenze geologiche di chi ha diretto le opere di manutenzione.

La mancanza di Cultura Scientifica è normale in un Paese di letterati, dove nello spirito di Benedetto Croce la Scienza e la Tecnologia sono culture di serie B. Se eravamo un Paese più evoluto nessuno avrebbe osato tirare fuori una spiegazione del genere.

Attendendo in qualche rivista scientifica specialistica di etologia un articolo sul perchè i cinghiali si divertano a scagliare massi di 120 kg di sotto da un pendio, non ci resta che sperare nel Tribunale. Sarebbe troppo sperare nelle dimissioni di chi ha provocato questa tragedia, siamo in Italia, non in Gran Bretagna dove un ministro si dimette per una multa non pagata....

martedì 7 febbraio 2012

Le 4 fasi in cui si articola la storia dell'Etna: le ultime ricerche in proposito

Il 2011 è stato un anno molto impegnativo per l'Etna e per chi lo studia, data la frequente attività sia esplosiva che effusiva, che si è sviluppata con una serie di  piccoli eventi senza una singola eruzione importante. Ma se l'Etna è stato molto attivo lo sono stati anche i ricercatori: nell'ultimo volume dell'Italian journal of Geosciences (il vecchio “Bollettino della Società Geologica Italiana”) sono usciti 3 lavori molto importanti su questo vulcano che diventeranno sicuramente un caposaldo della ricerca in materia: uno presenta la nuova carta geologica dell'Etna, un altro dà conto di un dettagliato studio sulle età delle lave ricavate da datazioni effettuate con il metodo Argon / Argon e il terzo traccia una sintesi penso abbastanza definitiva sulla complessa storia di questo vulcano, che nel tempo ha cambiato la composizione del magma e quindi fasi ha attraversato fasi diverse con modalità di eruzione (e quindi la formazione degli apparati vulcanici) molto diverse. Ormai definita la storia eruttiva del vulcano gli unici dubbi ancora in piedi vertono sulla genesi dei magmi etnei (e di quelli degli Iblei): non vi è dubbio che si tratti di materiale di provenienza molto profonda, ma formazione e contesto geotettonico in cui avviene la risalita sono ancora controversi.

L'Etna è uno dei vulcani più attivi, più studiati e più famosi al mondo e già nel XIX secolo la sua complessa attività era stata tracciata per sommi capi.
Da un punto di vista morfologico, possiamo distinguere agilmente alcune strutture: in particolare la grande caldera dell'Ellittico, ben visibile in questa foto tratta da uno dei lavori di Branca et al. (2011) della rivista citata e il Cratere Centrale.
Le prime manifestazioni etnee iniziano circa 500 mila anni fa, 600 mila anni dopo l'ultima fase del vulcanismo ibleo, centrato un poco più a sud e che è stato attivo tra 7 e 1 milioni di anni fa (e che condivide con l'Etna il tipo di evoluzione magmatica). L'attività vulcanica dell'Etna è complessa e multiforme e non è neanche semplicissima da studiare: basti pensare che solo le colate degli ultimi 2000 anni ricoprono oltre il 30% della superficie ed è chiaro quindi che il continuo sovraimporsi di nuove colate e tufi sopra ai materiali preesistenti renda molto difficile capire la stratigrafia.

I ricercatori hanno diviso l'attività in 4 fasi diverse che corrispondono a 4 diverse posizioni del camino di risalita principale allineate una dietro l'altra in direzione NW. Una evoluzione petrologica simile ha caratterizzato il precedente vulcanismo ibleo.
Non affiora molto della prima fase in cui si sono deposti ingenti spessori di basalti tholeiitici, le cosiddette “tholeiiti basali”, abbondantemente ricoperte dalla attività successiva. Le troviamo essenzialmente nelle zone a SE e a S del vulcano e lungo la costa, perchè lo spostamento in direzione NW del centro eruttivo ha fatto sì che in queste aree si siano messi in posto pochi depositi delle fasi successive. Le lave più vecchie sono marine, poi si comincia a vedere colate impostate su lagune o in terraferma. In almeno un caso le lave si sono messe in posto in una zona lacustre.

Le Tholeiiti Basali, magmi molto fluidi perchè dalla elevata temperatura e del basso contenuto di silice, si producevano soprattutto da fratture lineari abbastanza lunghe che eruttavano sul fondo marino di un golfo poco profondo che occupava l'area prima della comparsa dell'Etna: i basalti a cuscini e i sedimenti intercalati alle colate lo dimostrano in maniera netta. Questa attività è durata all'incirca da 500 a 330 mila anni fa e probabilmente è stata piuttosto discontinua.
Tra la fine della prima fase e l'inizio della seconda l'intervallo di inattività è indicato tra 330 e 220 mila anni fa, ma è un dato di cui non c'è totale sicurezza: potrebbe essere minore se da qualche parte, sepolti, ci fossero materiali eruttati più recentemente di 330 mila anni fa

La seconda fase della vita del vulcano coincide con il primo “salto” del sistema del camino di risalita verso NW ed è detta “delle Timpe” perchè i depositi attualmente visibili sono per lo più concentrati lungo le Timpe, una serie di faglie che costituiscono l'estensione settentrionale subaerea di una delle maggiori strutture geologiche del Mediterraneo, limite già impostato all'inizio del Mesozoico fra la crosta continentale sicula e quella oceanica dello Jonio: la Scarpata Ibleo – Maltese.
I magmi sono risaliti lungo queste faglie distensive parallele fra loro. Nella fase delle Timpe, oltre alla zona di risalita, cambia una prima volta anche l'attività vulcanica: nasce il vulcano a scudo con una forma simile a quelli Hawaiiani, su cui si sono poi impiantati i grandi stratovulcani delle fasi successive. La somiglianza con le Hawaii riguarda il tipo di magma e la forma dell'edificio, ma non si può certo confrontare come dimensioni il vulcano a scudo etneo, lungo una ventina di km e alto un migliaio di metri, con quei giganti che si ergono per migliaia di metri sopra il mare, avendo la base sotto oltre 4000 metri di acqua.
Il vulcano a scudo si costruisce attraverso una rete di vari centri vulcanici che si sono alternati per almeno 90mila anni (da 220 a 130 mila anni fa) ottenendo una copertura completa del territorio. E probabilmente anche l'attività si era fatta molto più continua. A questo cambio netto corrisponde un cambio nel tipo di magma: sono sempre basalti, ma le tholeiiti sono sostituite da basalti alcalini.
Senza addentrarsi in particolari, la distinzione fra questi due tipi di magmi sta nella loro chimica: i prodotti tholeiitici hanno una quantità maggiore di ferro e magnesio rispetto ai magmi alcalini. I magmi etnei hanno un'origine molto profonda, nel mantello terrestre ed è importante notare che un magma tholeiitico non può – evolvendosi – diventare alcalino né può accadere il contrario: in generale nel Mantello si genera preferenzialmente un magma Tholeiitico rispetto ad un magma Alcalino all'aumentare della profondità e del grado di fusione parziale della roccia. È quindi probabile che il passaggio da un tipo di magma all'altro sia dovuto ad una minore fusione parziale del Mantello nella seconda fase rispetto alla prima.

Una nuova stasi nell'attività ci porta alla terza fase, detta “della Valle del Bove” perchè l'attività è proprio centrata in questa zona, a causa del secondo spostamento dell'asse di risalita dei magmi. Magmi che sono ancora un po' diversi dai precedenti: sempre alcalini ma da basalti i prodotti prevalenti diventano Hawaiiti e Benmoreiti, quindi lave con una viscosità maggiore e ancora una volta le differenze nella composizione dei magmi si riflettono sulla morfologia del vulcano: inizia una forte attività di emissione di ceneri e pertanto la costruzione dello stratovulcano, con pendenze molto più sensibili del vecchio vulcano a scudo ed altitudini nettamente superiori: già il primo cono che si forma, il Trifoglietto, arriverà alla rispettabile altezza di 2600 metri. Da 123 a 65.000 anni fa, si formano in successione di ben 7 coni diversi, ciascuno dei quali tende a sovrapporsi ai precedenti, dando vita ad una stratigrafia particolarmente complessa, ricca specialmente verso la fine del ciclo, di ceneri e non solo di colate laviche, segno di una certa attività esplosiva. Qui accanto la stratigrafia e i rapporti fra i vari coni secondo Branca et al (2011).

E finalmente, dopo il “solito” intervallo di quiescenza, 57.000 anni fa l'attività, riprende, centrata sull'attuale zona di risalita dei magmi. In questa ultima fase, la "fase dello stratovulcano"  si formano gli ultimi due coni, l'Ellittico e il Mongibello Recente. Secondo le ricostruzioni più attendibili l'Ellittico ha raggiunto i 3600 metri di altezza, prima della sua distruzione, provocata circa 15.000 anni fa, da almeno 4 fasi esplosive pliniane in tempi molto ravvicinati: il risultato è la gigantesca caldera che incombe pesantemente sul panorama del vulcano, che abbiamo visto nella foto iniziale.
Sulla caldera alla fine si è impiantata l'attività degli attuali cratere centrale e di nord-est.

La divisione in 4 fasi della storia vulcanica dell'Etna presentata in questi giorni è probabilmente quella definitiva, che necessiterà solo di aggiustamenti minori e dimostra una attività molto variegata. Ovviamente si spera, prima o poi, di capire anche perchè questo vulcano è proprio lì: i magmi etnei sono tipici magmi di zone lontane da limiti di zolla (o al limite di zone particolari lungo i margini di zolla divergenti), mentre il nostro è posto proprio su una zona in cui convergono due zolle.... È probabile che la presenza della scarpata ibleo – maltese sia una chiave importante per capirlo, ma resta la curiosità di un vulcano da un magma e da una attività che non ci si aspetterebbe di trovare in un ambiente geotettonico del genere. 

BIBLIOGRAFIA CONSULTATA:

Branca et al. (2011): Geological Map of Etna Volcano , 1:50.000 scale
De Beni et al. (2011): argon isotopic dating of Etna volcanic succession
Branca et al. (2011): geological evolution of a complex basaltic stratovolcano: Mt. Etna - Italy

Tutti e tre i lavori sono tratti da: Italian journal of Geosciences, vol.130 n.3 - ottobre 2011

giovedì 2 febbraio 2012

la precisione delle carte nautiche in Italia e nel mondo e il naufragio della Costa Concordia: lettera aperta del Prof. Surace, Presidente della ASITA



Il naufragio della Costa Concordia ha un aspetto sconosciuto al grande pubblico: la sicurezza delle carte nautiche. Spesso (anzi, quasi sempre) le carte nautiche in generale, indipendentemente dal fatto che lo scoglio nelle acque del Giglio contro cui si è squarciata la grande nave da crociera era ben segnalato dalla carta in uso, hanno una precisione minore di quella dei nuovi metodi di rilevamento basati sul GPS e ricavare una posizione su una carta a scala più grande rispetto a quella consentita dal metodo che si sta usando comporta dei problemi molto gravi: provate con un normale GPS a vedere dove siete su un atlante geografico: chiaramente non riuscirete ad essere precisi. Ma la questione ha un risvolto particolarmente sconcertante e drammatico: non c'è questa percezione nella maggior parte di coloro che per lavoro o per divertimento, frequentano i nostri mari con imbarcazioni più o meno grandi. Le soluzioni al problema possono essere varie: rifare tutte le carte con una precisione simile a quella fornita dagli strumenti GPS, inserire nelle carte il loro grado di affidabilità e, nel frattempo, istituire una formazione urgente rivolta agli addetti ai lavori per renderli consapevoli della affidabilità delle carte stanno utilizzando. Ne parlai subito dopo l'incidente con il Prof. Luciano Surace, che conosco da tanti anni e presento velocemente: sicuramente una “persona informata sui fatti”, essendo oggi Presidente della ASITA, la Federazione Italiana delle Associazioni Scientifiche per le Informazioni Territoriali e Ambientali, dopo aver ricoperto fino al 2010 la carica di Professore ordinario di Geodesia e Astronomia geodetica presso l’Istituto Idrografico della Marina; inoltre è stato fino al 2011 primo Vice-Presidente dell’International Board for Standard of Competence for Hydrographic Surveyors and Nautical Cartographers della “International Idrographic Organization”. Il prof. Surace su questo tema ha scritto una lettera aperta ai Ministri dell'Ambiente, della Difesa e della Ricerca Scientifica, che mi ha inviato per conoscenza e che quindi pubblico integralmente con grande piacere. 



LETTERA APERTA
Al Ministro dell’Ambiente, Tutela del Territorio e del Mare, Dott.Corrado Clini
Al Ministro della Difesa, Amm.Giampaolo Di Paola
Al Ministro dell’Istruzione, Università e Ricerca, Prof. Francesco Profumo

Onorevoli Ministri,

                          quando si saranno spenti i sinistri bagliori che illuminano, davanti agli increduli abitanti del pianeta, la tragedia della Costa Concordia, quando i media avranno allentato la morsa che sta calamitando l’attenzione del mondo sull’Isola del Giglio e, metaforicamente, sul naufragio del nostro sistema Paese, spero che, tra le tante, difficili e pesanti incombenze che dovete affrontare, vogliate intraprendere il cammino di una non emotiva valutazione di quanto accaduto. Una valutazione tesa non solo e non tanto ad individuare quali e quanti eroi buoni si possano contare e osannare, separandoli da quelli cattivi e inaffidabili e confinando così nella sfera delle responsabilità individuali colpe imprevedibili o quasi (così come imprevedibili o quasi sono i comportamenti dei singoli), ma tesa anche a ricercare eventuali responsabilità di sistema, sicuramente più curabili con strategie di lungo periodo e di maggiore affidabilità
Ove riteneste ciò degno di essere fatto, mi sembrerebbe utile e opportuno che ci interrogassimo tutti sulla qualità, l’efficienza e l’efficacia dei percorsi formativi di preparazione a carriere così delicate, sulla qualità, l’efficienza e l’efficacia dei metodi di selezione per l’accesso a quelle carriere, sulla qualità, l’efficienza e l’efficacia dei processi di controllo periodico delle capacità e delle competenze di chi opera, sulla qualità, l’efficienza e l’efficacia degli organismi deputati alla produzione e alla diffusione delle informazioni usate dai naviganti, e infine sulle risorse destinate a garantire qualità, efficienza ed efficacia al sistema

È da anni oggetto di approfonditi dibattiti scientifici a livello internazionale il fatto che molti utenti di carte nautiche non hanno alcuna idea sul grado di incertezza delle informazioni presenti sulle carte che usano. Questa carenza porta a inappropriate decisioni inerenti la condotta della navigazione, a collisioni e naufragi e, talvolta, a perdita di vite umane e a devastanti disastri per l’ecosistema, come recenti eventi hanno dimostrato in tante parti del mondo
Nel settembre 2003 la nave Gordon Reid, della Guardia Costiera canadese, naufragò usando una carta con informazioni incomplete sulla affidabilità dei dati. La carta non indicava che, per l’area dell’incidente, i dati si basavano su rilievi del 1923 condotti con sestante e scandaglio a filo con interdistanza tra le linee di scandagliamento pari a circa 400 m, quindi con rilevanti porzioni di fondo non esplorate. Un’indagine successiva scoprì altri 10 ostacoli non rilevati, di cui 3 a profondità minore di 10 m e quindi pericolosi per la navigazione di superficie.

Nei decenni passati i metodi di posizionamento usati per i rilievi idrografici erano molto più accurati dei mezzi a disposizione dei naviganti che usavano le carte. Dunque questi erano addestrati a stare in sicurezza tenendo conto dell’ampio margine di errore dovuto alla loro modesta capacità di auto-posizionamento; le imprecisioni intrinseche nelle carte nautiche potevano essere tranquillamente trascurate nella stima degli errori complessivi della navigazione.
Oggi, quasi tutti i naviganti usano il GPS, spesso con le correzioni differenziali che ne aumentano significativamente l’accuratezza. Tutto ciò consente una precisione nella definizione della rotta ben più elevata di quella disponibile al tempo dei rilievi idrografici realizzati per la costruzione di molte delle carte nautiche disponibili in giro per il mondo.

Il processo decisionale nella condotta della navigazione è stato profondamente alterato dall’elevata accuratezza del GPS. Alcuni naviganti sono portati superficialmente a pianificare rotte che evitano di stretta misura i pericoli segnalati sulle carte, perché ritengono che il GPS consentirà loro di seguire accuratamente la rotta pianificata. Questo approccio dei decisori non tiene in alcun conto le incertezze di localizzazione e di profondità degli ostacoli che essi hanno pianificato di evitare e abbatte i margini di sicurezza riducendo pericolosamente le distanze da quegli ostacoli.
Troppo spesso tale irresponsabile fiducia acritica nella tecnologia, unita alla superficiale presunzione che un’area è sicura anche in assenza di corrette informazioni, solo perché tante volte si è sperimentato un passaggio senza conseguenze, conduce a tragedie evitabili.

Gli idrografi non sono più protetti dalla storica superiorità dei loro strumenti di posizionamento rispetto a quelli dei naviganti. L’era digitale ha portato alla luce la carenza di adeguate informazioni e di risorse sufficienti per rispondere alle esigenze di più rigorosi metodi di controllo di qualità e di più chiare informazioni sull’attendibilità dei dati ricavabili dalle carte, sia tradizionali che elettroniche. Non pochi hanno argomentato che evidenziare le incertezze potrebbe condurre ad una impressione negativa e a un abbassamento della fiducia nelle istituzioni. È certo un’inaccettabile difesa corporativa!

Tre incertezze fondamentali costituiscono oggi il budget totale dei potenziali errori di navigazione: quelle nel posizionamento degli ostacoli sulle carte, quelle nei valori di profondità indicati e infine l’incompleta copertura (forse il caso più comune), ossia l’incertezza sull’esistenza o meno di un ostacolo non indicato: è stato il caso della nave canadese, divenuto un caso di scuola per chi si occupa di sicurezza della navigazione.

L’Organizzazione Idrografica Internazionale (IHO) ha definito differenti metodi per indicare l’attendibilità dell’informazione ricavabile da una carta nautica. Essi dovrebbero essere riportati sulle carte di carta e mostrare i limiti geografici di ciascun rilievo che ha generato la carta, descrivendone le caratteristiche. Alcuni indicano la data del rilievo (da cui si può ragionevolmente desumere il tipo di strumentazione adottata) e la scala dello stesso (da cui l’utente non sprovveduto può ragionevolmente desumere l’interdistanza tra le linee di scandagliamento e stimare l’ampiezza delle aree prive di informazioni). Altri indicatori offrono una valutazione dell’accuratezza e una guida alla scelta delle aree da preferire per una navigazione più sicura. Nelle carte elettroniche, l’incertezza dovrebbe essere invece indicata con un attributo che definisce le zone di differente affidabilità. Il parametro di classificazione definisce le aree di differente accuratezza e indica quali parti delle carte hanno totale copertura del fondo marino e riportano le profondità di tutti i particolari significativi (classe A1 e A2), quali carte o parti di esse hanno copertura incompleta del fondo e dunque sia da ipotizzare l’esistenza di ostacoli non cartografati (classe B), o anomalie di profondità piccole (classe C) o grandi (classe D) non indicate. Altrettanto chiari sono i criteri di classificazione delle incertezze di posizione e di profondità per ciascuna classe.

Purtroppo un’analisi a scala globale (così come globale è la navigazione) di tali indicazioni, evidenzia che molte carte elettroniche di prima generazione hanno ancora il parametro indicatore di affidabilità U (unknown=sconosciuto). Peggio, sembra esserci il timore che documentare semplicemente un’elevata incertezza delle carte potrebbe abbassare il valore legale del loro uso e quindi talvolta si possono incontrare (per fortuna non è il caso dell’Italia) carte in cui l’incertezza è stata prudentemente mascherata da discutibili informazioni sui rilievi generatori, alterandone l’apparenza per uniformarle ad altre ben migliori carte ufficiali.
La mia lunga esperienza professionale e didattica mi ha fatto purtroppo riscontrare una significativa inadeguatezza dei processi formativi rispetto alle radicali evoluzioni tecniche e scientifiche dei nostri tempi, una complessiva inadeguatezza dei processi di formazione permanente e certificata degli addetti ai lavori e una devastante carenza di risorse destinate alle strutture cui la comunità chiede servizi all’altezza delle sfide imposte dai tempi.

Con assoluta analogia tra il mondo della terraferma e quello del mare, si può documentare che il sistema delle informazioni territoriali e ambientali è profondamente malato. Il mondo del mare, che per la nostra Nazione è non poca cosa, sperimenta poi, a fronte dei rischi se possibile ancor più gravi rispetto al permanente gravissimo rischio idrogeologico che incombe sulla parte emersa della nostra bell’Italia, un’incredibile carenza di risorse.
A fronte del significativo numero di carte nautiche disponibili nel mondo ancora basate su rilievi a “filo” o con ecoscandaglio a singolo fascio, tutti sono convinti che una tale eredità dovrebbe essere sostituita da rilievi moderni di alta qualità, a copertura totale dei fondali e con impiego del GPS per il posizionamento, in luogo del sestante. La povertà di risorse finanziarie, umane e tecnologiche rende l’operazione non completabile, almeno a breve termine.
Una serena analisi dei tempi e dei costi su cui basare qualsiasi progetto, consentirebbe a chiunque di rendersi conto che lo sparuto manipolo di specialisti che la nostra nazione può mettere in campo per un rilievo moderno della fascia costiera (scusate se è poco!), se anche costoro fossero i più bravi del mondo (insostenibile presunzione), impiegherebbe oltre un secolo, a risorse vigenti e programmate, per conseguire lo scopo: il nulla sarebbe forse più dignitoso e più difendibile!

Per fortuna non è solo un problema italiano, altre nazioni con prestigiose tradizioni marinare (Regno Unito, Stati Uniti, Canada e Australia, ad esempio) se lo sono già posto e stanno lavorando a soluzioni percorribili, anche nel campo strategico della formazione, introducendo e potenziando l’educazione alla valutazione delle incertezze, basilare per i costruttori e per i fruitori di informazioni nautiche.

Grazie dell’attenzione
Prof. Luciano Surace

 

mercoledì 1 febbraio 2012

Nel minimo di attività solare la Terra si è riscaldata ancora di più: un'altra evidenza degli effetti del CO2 atmosferico

Non ci sono dubbi che in questo momento ci sia un riscaldamento globale in atto. Troppi segnali ce lo stanno dicendo: spessore dei ghiacci nell'Artico, crisi di molti ghiacciai non dovuta ad una mancanza di precipitazioni, spostamento verso latitudini più settentrionali della distribuzione di specie animali e vegetali, mutamenti nella quantità e nella distribuzione delle precipitazioni etc etc. Il dibattito sul clima è troppo ideologizzato mentre la cosa va affrontata solo ed esclusivamente in base ai dati scientifici. E gli ultimi dati della NASA confermano che la quantità di gas – serra è il fattore oggi più importante per la regolazione delle variazioni nelle temperature globali.

Negli ultimi 300 milioni di anni di storia della Terra l'unica costante da un punto di vista climatico è stata.... la variabilità dello stesso: ritmi e direzioni dei cambiamenti sono stati piuttosto irregolari, talvolta repentine, anche se dal Giurassico in poi in generale le temperature globali sono in diminuzione, pur con picchi nella direzione opposta, come al passaggio Paleocene – Eocene. Si potrebbe parlare a lungo di questo ma lo farò in futuro. Da queste osservazioni consegue l'ineluttabilità di tali cambiamenti, anche senza intervento umano e anche in tempi straordinariamente brevi: finalmente oggi anche gli storici stanno arrivando alla conclusione che la storia umana, persino negli ultimi secoli, sia stata parecchio influenzata dal clima. Capire cosa influenza il clima terrestre e come lo fa è fondamentale per capire cosa ci aspetta e soprattutto se e quanto le attività umane stiano modificando il clima.

Sul riscaldamento in atto c'è un dibattito fra chi sostiene che il fenomeno sia dovuto a cause naturali e quanto a cause antropiche e quali possano essere le sue conseguenze. Annoto che, statisticamente, i climatologi propendono praticamente tutti per la seconda ipotesi, mentre in generale la prima è sostenuta da un numero peraltro esiguo di scienziati che militano in vari campi, ma generalmente non sono di estrazione climatologica. Già questo farebbe pensare, ma il fatto è che il dibattito in materia è complicato dalla pesante impronta di una delle cose più deleterie per la Scienza, l'ideologia. Quando l'ideologia pretende di influenzare la Scienza cercando di dirigere i risultati in una certa direzione, riportando solo i dati favorevoli ad una ipotesi omettendo o dando poca importanza a quelli che la contraddicono, non viene mai nulla di buono e se c'è un dibattito ideologizzato è quello sul clima. 

Infatti quello che colpisce gli osservatori neutrali che vogliono solo informarsi leggendo i risultati delle ricerche è che spesso chi produce questi studi non li esegua in maniera rigorosa ma perchè a priori vuole dimostrare la sua tesi: i sostenitori della natura antropica del riscaldamento cercano conferma alla loro ipotesi, così come lo fanno in senso inverso i sostenitori della origine naturale di questo fenomeno. L'impronta dell'ideologia è tale che non c'è unanimità sulla questione solo per ragioni politico – economiche (gli interessi in campo petrolifero e settori vicini).
La celebre carota Vostok, prelevata nel ghiaccio antartico conferma la stretta connessione fra quantità di CO2 e Metano presenti in atmosfera con le temperature globali. Per l'appunto questi sono fra i gas che in maggior quantità le attività umane immettono in atmosfera; immissioni che purtroppo avvengono in un periodo della storia del nostro pianeta in cui la loro concentrazione naturale è straordinariamente bassa: se la stessa quantità fosse stata immessa 5 milioni di anni fa nel Pliocene, quando i valori di CO2 erano quadrupli di quelli attuali l'incidenza delle emissioni antropiche sarebbe stata inferiore: aggiungere 5 pere ad un cestino che ne contiene 10 significa aumentare il contenuto del cestino in una percentuale molto maggiore rispetto alla stessa aggiunta in un cestino che ne contiene 40.

Un fenomeno che influenza il clima sulla Terra è ovviamente la radiazione solare ed è riconosciuto che nella Piccola Era Glaciale avvenuta tra il XIV e il XIX secolo il Sole tra il 1300 e il 1830 sia stato un pochino più “pigro” di quanto lo sia dal 1830 ad oggi; ogni tanto c'è chi attribuisce ad eruzioni vulcaniche la causa dello scatenamento del fenomeno ed è possibile che siano state una concausa, ma sicuramente una concausa minore: l'astronomia solare evidenzia come il picco del freddo sia corrisposto ad un minimo di attività solare, noto come “minimo di Maunder” (vediamo qui a destre, tratto da wikipedia, il grafico del numero delle macchie solari, un segno qualificante dell'attività solare: più macchie ci sono, più forte è la radiazione emessa dalla stella.  Oggi il sole produce più energia di quanto abbia fatto fino a 200 anni fa e questo provoca un certo riscaldamento. Però è anche innegabile un apporto dei gas serra prodotti dall'attività umana

Diciamo che – quindi – ci sono oggi 2 trend, uno naturale ed uno antropico, dello stesso segno, ed è proprio per questo sia i sostenitori dell'origine antropica che quelli dell'origine naturale dei cambiamenti climatici riescono a trovare dati in loro favore. Allora, volendo a tutti i costi essere obbiettivi, bisogna capire in che percentuale si deve attribuire la situazione attuale a un l'uno o all'altro trend. È quindi urgente “deideologizzare” il dibattito sul clima in modo che si svolga in un sereno spirito di costruttività: la posta in gioco è il futuro dell'Umanità, anche perchè molti dei momenti difficili che il genere umano ha affrontato, hanno probabilmente una forte radice nei cambiamenti climatici. In questo quadro l'ultimo lavoro in proposito della NASA che non è certo né un'associazione ecologista né un cincirinella qualsiasi dimostra che i gas-serra sono una componente fondamentale del problema. Il tutto viene dimostrato attraverso lo studio del bilancio energetico terrestre generale.

Il bilancio energetico della Terra è il rapporto fra il calore che il pianeta riceve dal Sole e il calore che viene riflesso nello spazio: come è noto fa molto più freddo la mattina se la notte il cielo è stato sereno perchè non ci sono state nuvole che hanno riflesso di nuovo verso la superficie il calore assorbito durante il giorno grazie alla radiazione solare. Due componenti concorrono ad aumentare o diminuire il calore assorbito dalla Terra: la radiazione solare, che è la fonte primaria e la situazione atmosferica; i fattori che influenzano la radiazione in arrivo sono la quantità di calore solare e la eventuale copertura nuvolosa diurna che tende a assorbirla o a farla rimbalzare.
Nello studio del Goddard Institute for Space Studies (GISS) della NASA è stata calcolata la differenza fra l'energia assorbita dal pianeta e quella riflessa nello spazio. Nel ciclo solare undecennale il cui massimo è previsto fra circa un anno e sarà secondo le proiezioni uno dei più deboli degli ultimi secoli, gli anni fra il 2005 e il 2010 hanno corrisposto ad un minimo nelle emissioni di energia da parte della nostra stella, ma – e questa è la cosa teoricamente strana – la percentuale di radiazione trattenuta è aumentata: nonostante che l'irradianza solare totale, l'energia prodotta dal Sole che raggiunge la Terra diminuisce di circa un decimo (e non è poco!) durante i minimi solari, in quest'ultimo ciclo il calore assorbito dalla Terra, cioè non riflesso nello spazio, è aumentato. Cioè il sole ha scaldato meno ma la Terra ha trattenuto più calore. È come se una pentola si sia riscaldata di più tenendo il fornello più basso: ci si potrebbe riuscire, ma cambiando qualcosa nella pentola stessa.
Perchè succede tutto questo? Semplice, perchè c'è qualcosa che influisce sul bilancio energetico terrestre più delle variazioni nell'attività solare e l'unica spiegazione che oggi può venire in mente (ed è piuttosto logica...) è l'accumulo in atmosfera dei gas – serra, in particolare del CO2. 

Si calcola che la CO2 nel 1825 avesse una concentrazione atmosferica di 256 parti per milione (0,00256 %), salita a 265 PPM nel 1850, a 313 nel 1950 e a 330 nel 1978; nel 2000 eravamo a 350, oggi siamo a 392. Significa che dal 1825 ad oggi il CO2 atmosferico è aumentato di oltre il 50%. Non poco...
Questo studio dimostra che il riscaldamento globale è principalmente dovuto all'attività umana e James Hansen, direttore del Goddard Institute for Space Studies, conclude che bisogna ridurre a non più di 350 parti per milione la concentrazione di CO2 atmosferica. Evito di riportare le previsioni sulla dinamica delle temperature ma da questi dati si capisce già la gravità del problema.

Allora, ragazzi... che si fa? Qualche tempo fa ho scritto un post sul massimo termico all'intervallo Paleocene – Eocene, causato da una violenta immissione di CO2 in atmosfera. Non è che il precedente di 55 milioni di anni fa sia tranquillizzante, visto quello che successe....