giovedì 29 settembre 2011

La sonda Aquarius produce la prima mappa della distribuzione mondiale della salinità marina

Tre mesi fa avevo parlato del lancio della missione Aquarius perchè questo satellite si occuperà stabilmente di misurare la salinità dei mari, cosa che fino ad oggi non è mai stata fatta in maniera continua e sistematica, nonostante sia un aspetto fondamentale da tenere di conto in tutte le previsioni climatologiche a medio / lungo periodo. Il satellite, lanciato a metà giugno, è operativo dal 25 agosto e dopo appena 20 giorni ha fornito i primi risultati, che confermano le potenzialità della missione e quelle che più o meno erano le previsioni di massima sulla distribuzione della salinità marina, anche se non mancano alcune sorprese.


Allora, Aquarius sta davvero tenendo fede alle promesse. Dopo vari assestamenti dell'orbita e controlli di ogni ordine e grado il satellite lanciato a giugno è diventato operativo dal 25 agosto e sono bastati meno di 20 giorni per ottenere una istantanea della salinità marina alla fine dell'estate boreale (e dell'inverno australe), assolutamente improponibile da ottenersi in altro modo. C'è molta curiosità nell'ambiente scientifico per verificare se e cosa cambierà nei valori di questa grandezza al passare delle stagioni, cosa che potrebbe essere fondamentale per capire tante cose del clima.

Nella carta il colore viola corrisponde alle aree con la minore salinità e il rosso a quelle a maggiore salinità. I valori sono compresi fa un minimo del 3% e un massimo del 4% in peso rispetto al volume dell'acqua; ciò vuole dire che nell'Oceano Atlantico tra il Nordafrica ed i Caraibi c'è una salinità del 30% maggiore che lungo le coste pacifiche nordamericane o nel golfo del Bengala. La salinità è minore dove ci sono forti precipitazioni sia sul mare che sulla terraferma, nelle zone vicine ai ghiacci permanenti e dove si dirige l'acqua proveniente da fiumi molto grandi ed importanti ed è invece maggiore nelle zone dove prevale l'evaporazione.

È interessante notare come ci siano grosse differenze fra i vari oceani, in particolare come l'Atlantico sia caratterizzato da una salinità maggiore rispetto al Pacifico e all'Indiano. Un'altra caratteristica molto particolare la vediamo confrontando il Mare Arabico e il Golfo del Bengala: sono alla stessa latitudine, uno ad ovest e l'altro ad est dell'India ma la loro salinità è vistosamente differente. Le ragioni sono sia geografiche che climatologiche: nel golfo del Bengala, oltre alla presenza del Gange che scarica in acqua una quantità enorme di acqua dolce, anche le piogge monsoniche fanno la loro parte. L'immagine attuale è ricavata praticamente al culmine di 4 mesi di precipitazioni: come sarà la salinità a febbraio, dopo la stagione secca e con il Gange che non riceve ancora acqua prima del disgelo sulle pendici dell'Himalaya?
Nel Mare Arabico invece l'effetto dell'Indo è praticamente inesistente e l'intensa evaporazione fa il resto, conferendo valori di salinità molto più alti che ad Est del subcontinente indiano, nonostante le abbondanti piogge estive che caratterizzano la costa indiana occidentale.
Ne consegue che in questo momento il Mare Arabico mostri una salinità maggiore del 15% rispetto al Golfo del Bengala.

Sempre a dimostrazione dell'importanza dei fiumi, sulla costa atlantica del Sudamerica si vedono benissimo i “pennacchi” poco salini dovuti alle acque dolci che l'Orinoco e soprattutto il Rio delle Amazzoni scaricano nell'oceano. In particolare l'influenza del Rio delle Amazzoni è superiore al previsto e la forma del pennacchio è chiaramente influenzata dalle correnti, perchè prima si dirige a nord trascinata dalla corrente equatoriale meridionale poi una parte piega bruscamente verso Est (e francamente questo me lo spiego male perchè le correnti prevalenti vanno tutte verso nordovest)

La carta presenta ancora qualche imperfezione: le strisce in direzione N/S sono un residuo della calibrazione e sono da considerarsi un errore. Inoltre non sono ancora particolarmente affidabili i dati delle regioni più meridionali, perchè la calibrazione è più difficile a causa del gioco fra venti, correnti e precipitazioni. Anche i bassissimi valori di salinità lungo tutte le coste dovrebbero essere un tantino esagerati.


Il 2011 è stato caratterizzato dalla “Nina”, che ha portato la grande siccità nel Corno d'Africa e, in misura minore, nel Sudovest degli USA (con un inverno più caldo del normale) e grandi precipitazioni sulla costa atlantica degli stessi USA.
Molto interessanti le carte fornite al proposito dal sito della NOAA, dove si vede che il pattern delle temperature durante la Nina è molto simile a quello della salinità attuale ricavato da Aquarius: in entrambi i casi si nota una striscia lungo l'equatore, di acque più fredde nell'immagine della NOAA e di acque meno salate nell'elaborazione della NASA dei dati di Aqaurius. Dato che la temperatura dell'acqua influenza anche la salinità, forse le cose cambieranno quando tornerà El Nino?

Un altra considerazione da fare è che le variazioni di salinità possono provocare variazioni nella composizione della fauna e della flora marina. I pesci marini regolano attraverso le branchie la loro salinità interna (e bevono parecchio): riescono quindi a controllare l'osmosi, anche se, nonostante questo, trovarsi in acque troppo o troppo poco salate può essere un problema. Altri animali e le piante non hanno questa capacità osmotica e quindi variazioni di salinità possono ripercuotersi pesantemente sul futuro della distribuzione di queste specie.

domenica 25 settembre 2011

Ridurre l'inquinamento atmosferico con il nanobiossido di titanio e un strumento tutto italiano per testare l'efficenza del processo

Torno dopo tanto a parlare di nanotecnologie, un mondo a cui mi sto in parte avvicinando, per presentare un nuovo macchinario – tutto italiano – che è stato realizzato per testare le vernici al TiO2 in nanoparticelle. Questo composto infatti ha la fantastica proprietà di combattere l'inquinamento: quando viene colpito da radiazioni ultraviolette libera degli elettroni e le reazioni di questi elettroni con l'ossigeno e l'umidità dell'aria generano radicali liberi che catalizzano reazioni di ossido-riduzione capaci di distruggere diverse sostanze inquinanti, fra i quali gli NOx e altri composti volatili. Per testare l'efficacia di vari supporti a vari spettri luminosi e con varie sostanze inquinanti una azienda toscana ha ideato e costruito un sistema capace di evidenziare la velocità delle reazioni e definire in vari casi la miglior accoppiata spettro luminoso – supporto trattato in vari ambienti e con varie sostanze inquinanti, denominato fotoreattore. Ne parlo volentieri perchè anche questa è la dimostrazione che in Italia c'è ancora spazio per chi fa alta tecnologia.

L'applicazione di una vernice a base di nano-TiO2 su opportuni supporti permette di ottenere dei manufatti che, una volta eccitati da luce ultraviolettia, mostrano eccellenti proprietà di bagnabilità, fino ad arrivare alla “superidrofilia”, grazie alla quale l'acqua non riesce a “bagnare” la superficie, scorrendo via. Il fenomeno è maggiore quando il titanio è in nanoparticelle in quanto le proprietà superidrofiliche aumentano con l'aumentare del rapporto superficie / volume. 
Questa però non è l'unica proprietà particolare del biossido di titanio. Anzi, ce n'è un'altra se si vuole ancora più interessante: la fotocatalisi. I fotocatalizzatori sono sostanze in cui l'esposizione alla luce (normale o ultravioletta) rende possibile una certa reazione chimica oppura la modifica o la velocizza. 
Il biossido di Titanio è un fotocatalizzatore perchè in presenza di aria e luce (in particolare luce ultravioletta) i suoi cristalli cedono e successivamente ricevono un elettrone. Questi elettroni innescano un processo di formazione di radicali liberi, i quali attaccano e decompongono le sostanze organiche ed inorganiche che entrano a contatto con la sua superficie.
Se il biossido di titanio è in dimensioni nanometriche l'effetto è massimizzato perchè è proporzionale al rapporto superficie / volume,come per la superidrofilicità: gli alti valori di questo rapporto caratteristici delle nanoparticelle ostacolano la ricombinazione dei portatori di carica incrementando in modo notevolissimo l’efficienza fotocatalitica. Inoltre a causa dell’alta area superficiale si ha un elevato numero di siti attivi e quindi un’alta velocità di reazione. Fra le sostanze che subiscono questo processo ci sono molti inquinanti, fra cui i temibilissimi NOx che la reazione alla fine trasforma in nitrati. 

Il processo di eccitazione per mezzo della luce e il fenomeno della superidrofilia sono complementari, sebbene intrinsecamente differenti e quindi entrambi possono manifestarsi contemporaneamente sulla stessa superficie sia pure in gradi diversi. È possibile che in funzione della composizione e del processo di deposizione la superficie possa mostrare un carattere più ”autopulente” e meno idrofilo o viceversa
L'idrofilia viene misurata empiricamente osservando l’angolo di contatto che si forma tra la superficie di una goccia di liquido immobile e quella del solido su cui essa appoggia e si definisce superidrofilica una superficie il cui angolo di contatto dopo attivazione con luce ultravioletta risulta essere generalmente inferiore a 15°.
Al contrario, una valutazione dell’efficacia antismog di un supporto ricoperto da uno strato di nanotitania è invece più difficile perchè occorre un sistema che riesca ad individuare la velocità di dissoluzione degli inquinanti nel tempo.

Una strumentazione del genere non era ancora disponibile sul mercato mondiale per cui il Cericol, il Centro ricerche della Colorobbia, ha dovuto direttamente ideare, progettare e costruirsi in casa un fotoreattore nel quale è possibile testare nel tempo il comportamento di vari supporti colpiti da radiazioni luminose di vario spettro.
Questo strumento consiste di una camera di reazione dotata di una finestra di quarzo, all’interno della quale sono simulate delle condizioni di inquinamento (esterno o interno). Ovviamente concentrazione di contaminanti, temperatura ed umidità sono sotto controllo e possono essere facilmente variate. All'interno della camera viene posto il campione del supporto verniciato con nanobiossido di Titanio da testare, che viene irraggiato con sorgenti luminose aventi differenti proprietà spettrali, ma tutte comunque con una componente nell'ultravioletto.

Il fotoreattore possiede più strumenti di misurazione. Nel caso di analisi sulla degradazione degli ossidi di azoto (monossido di azoto e/o biossido di azoto) il monitoraggio si effettua mediante chemioluminescenza. L’analisi viene condotta miscelando inizialmente aria secca, aria umida e NO in proporzioni tali da ottenere una concentrazione di NOx di circa 500 ppbv in un’atmosfera avente il 50 ± 10% di umidità relativa alla temperatura di 25 ± 2 °C.
Per quanto riguarda invece l’analisi di sostanze organiche volatili al fotoreattore è interfacciata una gas-massa, strumento che unendo un gascromatografo e uno spettrometro di massa, ottiene misurazioni estremamente precise.
Il fotoreattore è stato progettato per eseguire in maniera automatica una serie di campionamenti in modo da valutare tempi e velocità della degradazione degli ossidi di azoto e degli altri composti.

I vari test comparativi permettono di studiare la correlazione delle variabili legate al metodo di preparazione del substrato attivo, alla qualità spettrale della sorgente ed alla sua potenza.
Con il fotoreattore il Cericol ha potuto certificare i risultati molto interessanti raggiunti dalle vernici al nanobiossido di Titanio sia nell'abbattimento degli NOx che in quello di altre sostanze volatili, perchè questo strumento consente con una certa agilità di valutare e confrontare condizioni molto diverse fra loro in termini di sostanze da degenerare, applicazione del supporto e sorgenti luminose con diversi spettri di emissione. Pertanto diventa più facile (e più rapido!) individuare le accoppiate supporto / sorgente luminosa più interessanti per le varie applicazioni pratiche, anche in risposta a specifiche condizioni di luce.

Una prima ricaduta di questi esperimenti c'è stata perchè l'azienda ha progettato e realizzato un prototipo di un sistema di filtrazione capace di abbattere le sostanze inquinanti (soprattutto gli NOx) direttamente all'aria aperta avvalendosi della sola luce solare che hanno chiamato PHOEBE ® (la ® è di prammatica in quanto il marchio è stato brevettato!)

Il bello è che dopo aver provato ad abbattere gli ossidi di azoto all'aria aperta, sono riusciti anche a lavorare al chiuso dei capannoni industriali (basta che ci siano adeguate sorgenti di luce - anche artificiale purchè produca un idoneo spettro) che colpiscono le superfici verniciate!) dove alcune lavorazioni emettono nell'aria vari tipi di sostanze inquinanti.

Già oggi alcune aziende propongono vernici al nanobiossido di titanio per “purificare l'aria” e, forse, dalle nanotecnologie potrà venire una speranza per un'aria più pulita!

lunedì 19 settembre 2011

Lo tsunami del porto di Nizza del 16 ottobre 1979

Nell'ottobre del 1979 le coste sudorientali francesi sono state investite da uno tsunami la cui origine è ancora dibattuta: è stato provocato dal crollo di una banchina in costruzione per un porto davanti all'aeroporto oppure la costruzione è stata danneggiata dall'evento? Ufficialmente non si sa perchè i risultati dell'inchiesta sono nascosti alla consultazione pubblica.Attualmente su questo evento ci sono molti studi che cercano di modellizzarlo, anche per certificare il rischio tsunami lungo una costa dove eventi di questo genere sono tutt'altro che sconosciuti

Il 16 ottobre 1979 alle 13.57 ora locale le coste francesi dalla Costa Azzurra fino al confine con la Liguria sono state interessate da uno tsunami che ha provocato diverse vittime e parecchi danni. Questo e quello di Stromboli del dicembre 2003 sono gli unici tsunami recenti del Mediterraneo: una caratteristica importante è che entrambi questi eventi non hanno una origine sismica ma sono legati a delle attività di frana, sottomarina nel caso ligure, subaerea associata ad una eruzione vulcanica in quello stromboliano. Essendo stati eventi “leggeri” non hanno sortito effetti catastrofici, nonostante la presenza di vittime e danni, anche ingenti.

Secondo alcuni autori, anche i grandi tsunami avvenuti in concomitanza con grandi terremoti, come quello del 1908 di Messina non sono stati provocati direttamente dal sisma, ma da frane indotte dallo scuotimento del terreno

Le onde marine ordinarie sono provocate dal vento e quando rallentano in prossimità della costa tendono a rompersi. Inoltre, tranne quando si “rompono” sulla riva non ci sono grossi movimenti di acqua. Un'onda generata da uno tsunami invece comporta lo spostamento di ingenti quantità di acqua e quindi il suo comportamento è più simile a quello di una onda di marea (sia pure infinitamente più veloce). È per questo che, in alcuni casi come quelli dell'ultimo decennio, lo tsunami è capace di entrare nelle coste anche per parecchi kilometri e, quindi, non si può paragonare – poniamo – il potenziale di danni da parte di un'onda normale alta 2 metri con quella di uno tsunami della stessa altezza.

Il fenomeno in Italia non è raro, tutt'altro: secondo l'Istituto Nazionale di Geofisica negli ultimi 2000 anni si sono verificati 71 tsunami, variamente distribuiti. Le zone più colpite sono l'Italia Meridionale (quasi 1/3 degli eventi registrati) e proprio le coste del Mar Ligure, dove numerose campagne di osservazione hanno individuato sul fondo marino una serie di nicchie di frana e di depositi di frana. Non a caso sono aree in cui il dislivello fra la costa e il mare aperto è molto marcato. In zone come la Toscana, dove a largo il mare rimane poco profondo per un bel pezzo, le frane sottomarine sono ben più difficili.
La pendenza media della scarpata continentale è del 10% in quanto a circa 20 km dalla costa si raggiungono già profondità dell'ordine dei 2000 metri. Inoltre nella zona di Nizza i fiumi come Var Paillon e La Roya apportano nelle stagioni di piena una grande quantità di sedimenti che spesso rimangono in posizione instabile, e quindi potenzialmente generatrice di frane sottomarine.
Molti tsunami liguri sono avvenuti in corrispondenza di terremoti, ma non sono stati provocati direttamente dallo scuotimento del terreno, ma dalla formazione di frane sottomarine indotte dallo scuotimento stesso.

Lo tsunami del 1979 è stato ben studiato e nell'evento è compreso il crollo di una parte del cantiere di un nuovo porto nella zona dell'aeroporto di Nizza dove si registrarono 7 degli 8 morti accertati (alcune fonti parlano di un numero maggiore di vittime, però questi dati sono forniti da lavori su riviste scientifiche internazionali, sicuramente più attendibili di un sito internet non specializzato).
Negli oltre 120 km di costa interessati dall'evento la zona più danneggiata e dovesi sono registrate le altezze maggiori delle onde è stata quella di La Salis, nei dintorni di Antibes, dove il mare ha invaso i primi 150 metri di terraferma, con un'altezza massima stimata in 3 metri e mezzo e dove c'è stato l'unico morto fuori dalla zona del cantiere.
E qui c'è una questione interessante: il fatto che lo tsunami sia associato al cedimento di un cantiere, con 100 milioni di metri cubi di materiale interessato al collasso, ha ovviamente messo in movimento le autorità e c'è stata una inchiesta. Il rapporto è stato regolarmente stilato ma non è stato reso pubblico: sarà disponibile solo 100 anni dopo ed è accessibile solo su richiesta per motivi di studio.
Mi domando il perchè. C'è chi sostiene sia un problema di conseguenze per le compagnie di assicurazione. Non ho nessuna idea in proposito, se non la presenza in zona di qualche segreto militare (siamo proprio davanti all'aeroporto di Nizza e in posizione strategica)
Il problema fondamentale, mi pare non ancora chiarito almeno alla Pubblica Opinione, è di capire se uno tsunami innescato da una frana sottomarina abbia avuto come conseguenza la distruzione del manufatto o se sia stato il collasso del manufatto a provocare lo tsunami. Sicuramente si è trattato di un evento franoso in quanto non è associabile a nessuna scossa di terremoto.

Purtroppo sembra (il condizionale è d'obbligo) che i vari testimoni oculari non fossero esattamente d'accordo fra loro sull'ora a cui hanno assistito al fenomeno ed è chiaro che 5 minuti di differenza fra un testimone e l'altro sono un lasso di tempo troppo esteso per poter dare informazioni dirette. Per cui le osservazioni sono state per così dire corrette da un punto di vista temporale ma, dicono testualmente Sahal &Lemahieu (2011) “The 1979 nice airport tsunami: mapping of the flood in Antibes” pubblicato sulla rivista “Natural hazard”, a seconda della spiegazione preferita, c'è stato chi ha corretto i dati in un senso e chi li ha corretti nell'altro. È stata comunque operata una sintesi, ma è – appunto – stata secretata.

I testimoni concordano sul fatto che il fenomeno è cominciato con un brusco abbassamento del livello marino e che le ondate sono state più di una. La prima è arrivata circa 8 minuti dopo l'abbassamento. I valori registrati al faro della Garoupe, sul cap d'Antibes sono particolarmente interessanti: ci sono 4 minimi seguiti da 4 massimi e i valori più elevati sono per entrambi quelli del terzo ciclo. Ci sono quindi state almeno 4 onde di cui la terza si è rivelata la più alta. Il periodo di oscillazione è stato di circa 8 minuti.
Molti autori si sono occupati della modellizzazione delle onde ma i risultati convincenti sono pochi. Alcuni modelli prevedono persino due frane diverse, di cui una è stata la causa della seconda.

Il dibattito è quindi ancora in corso

giovedì 15 settembre 2011

Lo "stato dell'arte" della paleontologia umana oggi

Le ultime ricerche sui fossili umani rinvenuti in Sudafrica attribuiti alla nuova specie Australopithecus sediba e di cui mi riprometto di parlare presto mi danno lo spunto per parlare dello “stato dell'arte” della ricerca sulle nostre origini. Negli ultimi anni le novità più grandi sono il cambiamento delle opinioni su Homo erectus, non più considerato un antenato di sapiens e, anche a causa dei reperti sudafricani, una riconsiderazione dell'età in cui è avvenuto l'aumento della capacità cranica (ammesso e non concesso che sediba non sia un ramo collaterale). Ovviamente queste novità coinvolgono anche la paleontologia umana in Italia, con una nuova collocazione sistematica dei reperti.

La paleontologia umana è uno dei settori nei quali si nota meglio la “discontinuità della mente umana”, che necessita di classificare le cose in compartimenti stagni, sia pure – al limite – correlabili fra loro: i pochi resti sinora rinvenuti sono dotati di una eccezionale varietà di caratteristiche anatomiche tali da attribuire un nome proprio (o di specie o quantomeno di sottospecie) a quasi ognuno di essi.

Dawkins, parlando di questo, prendeva un po' in giro l'accapigliarsi degli studiosi sulla questione dell'appartenenza di un reperto ad una specie anziché ad un'altra, con il famoso detto “non è che la mamma erectus ha partorito un figlio sapiens” , intendendo così focalizzare l'attenzione sulla ovvia coesistenza di caratteri più arcaici e più moderni in un singolo individuo.
È il caso del ritrovamento in Sudafrica del 2010: anche qui è stata istituita una nuova specie (Australopithecus sediba) che possiede un mix di caratteristiche intermedie fra i generi Australopitecus e Homo. Per alcuni è attribuibile al primo genere, per altri al secondo (e tanto per aumentare la confusione H. abilis sarebbe “meno Homo” di A. sediba...)
La questione è quindi molto complessa e, come mi ha scritto un mio illustre corrispondente “un'evoluzione precisa e lineare, senza salti e senza complicazioni, farebbe comodo a un brillante fautore del disegno intelligente, non ai moderni e modesti cultori delle idee geniali (non prive a volte di alcuni errori) di un Darwin o uno Steven Jay Gould, che comunque hanno il merito rispetto al primo di studiare le cose senza pregiudizi” (è simpatico notare come nel campo dell'intelligent design e dell'antievoluzionismp gli scienziati siano considerati portatori del pregiudizio mentre loro sono quelli che hanno la verità...)

LA SCARSITÀ DEI REPERTI: MOTIVAZIONI E CONSEGUENZE

Il problema fondamentele di chi studia le nostre origini è la scarsità di reperti, ovvia visto l'ambiente di vita dei nostri antenati e dei loro parenti più stretti: il corpo di un essere che vive in paludi o lagune, l'ambiente più favorevole alla fossilizzazione fra quelli sulla terraferma, ha una probabilità di essere sotterrato o di conservarsi in condizioni anaerobiche (e quindi di fossilizzarsi) che si aggira intorno a “zero virgola chissàquantizeri uno per cento”. Però ci sono infinitamente più possibilità che succeda a lui e non ad un essere delle foreste o delle savane come i nostri antenati, dove i corpi scompaiono molto rapidamente, mangiati direttamente dai predatori e grazie ai necrofagi, da quelli di grandi dimensioni fino ai batteri. Gli antenati dell'uomo vivevano proprio in ambienti del genere e quindi senza qualche alluvione improvvisa o dei resti in qualche grotta non ci sarebbe rimasto proprio niente.
Sulla questione delle origini della nostra specie è proprio il caso di dire che ci sono “poche idee ma confuse”, anche se possiamo ad esempio escludere a priori la verità del racconto biblico, nonostante chè gli antievoluzionisti approfittino di questa “estrema incertezza” (per non usare termini più.... coloriti!!) per dire che nulla è dimostrato ed il biblico racconto è una soluzione possibile.

HOMO ERECTUS DA CARATTERISTICA MONDIALE A RAMO REGIONALE

Negli ultimi venti anni la prospettiva è molto cambiata, un po' per nuove scoperte, un po' per nuove riconsiderazioni.
Ricordo che a proposito della comparsa dell'uomo anatomicamente moderno c'erano due correnti di pensiero, una che prevedeva l'evoluzione multiregionale del genere umano. e l'altra una origine africana di Homo sapiens. La genetica ha stabilito una volta per tutte l'esattezza della seconda ipotesi, anche se nella nostra specie c'è un po' di materiale genetico derivato da incroci fra i nuovi colonizzatori e i vecchi abitanti: di fatto alcuni geni dei demisoviani persistono fra Asia sudorientale e Oceania, mentre ancora io non sono riuscito a capire con certezza (mea culpa!) se nel genoma degli europei ci siano tracce del genoma neandertaliano (i demisoviani sono considerati più vicini a neandertal che a sapiens)
Ma la grande rivoluzione di questi ultimi anni è un cambio di prospettiva del ruolo di Homo erectus: alla tradizionale visione (la schematizzo) che vede Homo abilis in Africa, da cui discende Homo Erectus che sta in Africa e poi colonizza Asia e Europa, oggi si contrappone una visione molto più complicata (e forse più realistica).
Alcuni autori collocano habilis nel genere Australopithecus (a vedere A. sediba non a torto!). Maggiore attenzione viene data alla "regionalizzazione" delle specie. Il primo uomo vero e proprio sarebbe Homo rudolfensis, anche se ultimamente pare che questa specie sia molto meno evoluta in senso umano di quello che si pensava fino a pochissimi anni fa (un nuovo rimontaggio del cranio ne riduce drasticamente la capacità cranica, "retrocedendolo" verso un mondo che è più quello di Australopithecus che di Homo, ma – tanto per cambiare – non c'è su questo un accordo generale).

Che discenda da rudolfensis o da habilis (e che questi siano Homo o Austrolopithecus) il vero grande protagonista della conquista del pianeta è Homo ergaster (2.5-1.7 milioni di anni fa) che prima colonizza l'Africa e poi ne esce.
Ed è qui che si fanno strada le varie interpretazioni di "erectus": per alcuni erectus è solo il nome "regionale" dell'ergaster che esce dall'Africa e va in Asia. Per altri, erectus è una specie asiatica che discende da ergaster. La differenza è sottile, e oltretutto difficile da dirimere, anche se Homo erectus è chiaramente più recente e ha anche esso delle differenziazioni locali (il famoso pitecantropo di Giava è più antico e differente dal sinantropo di Pechino, ma sempre Homo erectus sarebbero). Quindi per molti studiosi, Homo erectus sarebbe una specie, discesa da ergaster, che è vissuta in Asia. 

TRA AFRICA ED EUROPA: ANTECESSOR,  HEIDELBERGENSIS, NEANDERTALENSIS E SAPIENS

Parallelamente a questo (e sono nuovamente ultraschematico e poco preciso) l'Homo ergaster evolve in Homo antecessor (1.2-0.8 milioni di anni) (già in Africa o succede in Europa?) va in Europa ed evolve ulteriormente in Homo heidelbergensis (600mila-400mila anni fa) da cui sarebbe disceso il più "europeo" degli ominidi, ossia Homo neandertalensis. Ma anche qui, come con il pitecantropo e il sinantropo, molti pensano che in realtà antecessor (più alto e slanciato) e heidelbergensis (più basso e tarchiato) siano in realtà comunque la stessa specie seppur con variabilità geografiche e temporali.
Intanto la popolazione africana (antecessor o heidelbergensis che fosse...) evolve anch'essa, e diventa già a partire da circa 200 mila anni fa, un Homo sapiens arcaico che poi uscirà nuovamente dall'Africa e colonizzerà definitivamente il mondo soppiantando gli altri membri del genere Homo
Ma l'evoluzione da ergaster a sapiens in Africa è attestata meno bene, con pochissimi fossili e quindi, seppure assolutamente sensata, non è ben descrivibile. Si ritiene, come ho già detto, che sia passato attraverso una fase molto simile a un "antecessor / heidelbergensis" africano, e che anzi, questo indirizzo evolutivo fosse già in atto negli ergaster che escono dall'Africa e vanno in Europa intorno a 1.5 milioni di anni. È importante notare che ci possano essere state improvvise accelerazioni dell'evoluzione di cui non è rimasta traccia paleontologica. 
 
Mi chiedo: alla fine tutti questi nomi indicano generi, specie o popolazioni diverse?

LA NUOVA COLLOCAZIONE DEI REPERTI ITALIANI

L'uomo del Circeo e quello di Saccopastore sono indiscutibilmente neanderthaliani. Circeo è databile ai 55mila anni circa, mentre Saccopastore appare maggioremente arcaico, quindi meno "specializzato" in senso neandertaliano, ma comunque collocabile in quel filone.
Il riposizionamento di Homo erectus ha conseguenze anche da noi. Fino a 20 anni fa aveva sicuramente senso parlare di erectus anche per i reperti italiani: erano attribuiti a questa specie i manufatti (con o senza bifacciali) in tanti giacimenti, primo fra tutti Isernia La Pineta.
Oggi, con la nuova visione (ancora frammentaria e incompleta), se consideriamo come erectus strettamente solo la specie asiatica, quelli presenti da noi non sono allora propriamente erectus, ma Homo antecessor (sempre che poi antecessor e heidelbergensis non siano la stessa cosa) e il discorso cambia poco, perché comunque si tratta di una specie " a grande diffusione europea", seppur iniziata in Africa, che evolve verso il Neandertal in Europa e verso il Sapiens in Africa).
Stesso discorso vale per il cranio di Ceprano (nel Lazio) scoperto a metà degli anni Novanta e datato intorno agli 800 mila anni da oggi. mancano le ossa lunghe e quindi il quadro è incompleto, ma è chiaramente inscrivibile in quel filone lì.

La cosa "brutta" è che abbiamo, in definitiva, pochissimi dati a disposizione. La cosa "bella" è che spesso l'interpretazioni di dati diversi (archeologici, paleontologici e, quando possibile, genetici) converge a definire un ventaglio molto limitato di ipotesi credibili (che è già un grande passo avanti). Restano comunque divergenze su diversi aspetti, anche importanti, e credo che nei prossimi 10-20 anni non andremo molto avanti con le sicurezze.

mercoledì 7 settembre 2011

Le idee sulla formazione delle montagne prima della Tettonica a Zolle

Questa estate guardando pigramente una bancherella di libri usati, ho trovato un vecchio libro di Scienze per la scuola media superiore: “La Terra e le sue ricchezze – corso di geografia generale ed economica per gli Istituti Tecnici commerciali” dei prof. Roberto Almagià ed Elio Migliorini, edito nel 1953. In questo libro vengono esposti tutta una serie di nozioni e concetti di geologia e geografia fisica. La cosa più interessante è che nel libro vengono esposte le teorie sulla formazione delle montagne in un'epoca nella quale a parte pochi studiosi si presumeva sostanzialmente la fissità dei continenti. In un post di parecchio tempo fa parlai di come ci sono voluti alle Scienze della Terra 50 anni da quando Alfred Wegener tirò fuori l'idea della deriva dei continenti alla definitiva affermazione della tettonica a zolle. Mi sono reso cinti che ho omesso all'epoca di illustrare le ipotesi sulle cause della formazione delle montagne che erano state ipotizzate precedentemente. Con questo post intendo colmare la lacuna. 



La Tettonica a Zolle non è una teoria nel senso di “pura ipotesi speculativa”, ma in quello di “formulazione o sistemazione di idee o enunciati volta a spiegare o descrivere una serie di fatti” perchè è un modello capace di inquadrare tutti i fenomeni geologici collegandoli fra di loro.
Il suo successo totale e rapidissimo (come ricordano gli studenti dell'epoca “siamo entrati all'Università che i continenti stavano fermi; quando ne siamo usciti si muovevano”) è appunto dovuto al fatto che fornisce un quadro generale, completo e soddisfacente di tutti i fenomeni geologici attuali e del passato, dai terremoti ai vulcani passando per la formazione di serie sedimentarie ed il metamorfismo. 

La necessità di spiegare in qualche modo la questione esulando dal racconto biblico è nata quando il mondo scientifico accettò la nozione del “tempo profondo” e i gradualisti vinsero la diatriba con i catastrofisti. Questi ultimi, oggi ridotti ormai a un numero esiguissimo come “teste pensanti” hanno comunque un certo seguito fra persone poco informate scientificamente: resistono più o meno impavidamente nelle frange creazionistiche e come ho rimarcato nel post sulle alluvioni del Columbia River vengono regolarmente smentiti dai fatti ma altrettanto eroicamente se ne fregano e tirano a diritto, dimostrando comunque di possedere una cultura geologia – come dire... – approssimativa.
Tutte le ipotesi sulla formazione delle montagne hanno magari avuto un certo successo (anche perchè – insomma – in qualche modo la faccenda andava spiegata) però, come dire, erano parecchio lacunose.

Di fatto Almagià e Migliorini certificano lo “stato dell'arte” della ricerca geologica quando scrivono che anche nelle epoche passate “la formazione delle grandi catene montuose avvenne non attraverso manifestazioni catastrofiche, ma in virtù di movimenti lentissimi prolungati per periodi enormemente lunghi” e che “si ritiene oggi con sicurezza che tali avvenimenti avvennero sotto forma di spinte tangenziali, agenti cioè all'incirca parallelamente alla superficie terrestre”. Però, ed è questo il punto interessante, confermano che “sul meccanismo delle forze orogenetiche siamo pochissimo informati”.
Fra le varie ipotesi sull'origine delle montagne ai tempi in cui i continenti sembravano “fissi” giustamente i due nostri Autori citano la Teoria della contrazione e la teoria dell'isostasia. 

La TEORIA DELLA CONTRAZIONE o della “mela raggrinzita” immagina una crosta rigida e ormai raffreddata mentre l'interno terrestre si sta ancora raffreddando e quindi contraendo.. Per cui la crosta rigida, solidale a quanto le sta sotto, non può più contrarsi e quindi si raggrinzisce. Il modello di riferimento è appunto quello di una mela cotta in cui la buccia si raggrinzisce per la contrazione dell'interno. Il problema fondamentale è che la distribuzione irregolare nel tempo e nello spazio delle catene montuose è un po' difficile a spiegarsi con questo modello, già ormai abbandonato all'epoca. 

La TEORIA ISOSTATICA era quindi quella più in voga. Il concetto è abbastanza semplice: la crosta terrestre è in equilibrio statico con il mantello sottostante (quasi come se vi galleggiasse sopra). I fenomeni di erosione e deposizione spostano masse ingenti di sedimenti per cui le zone erose tenderebbero ad innalzarsi e quelle di deposizione ad abbassarsi. Si formerebbero così pieghe ed anche faglie. Gli autori del libro però obbiettano che “anche questa ipotesi urta con gravi obiezioni sia di indole meccanica che geologica”, in particolare appunto la questione che era già evidente all'epoca che i movimenti prevalenti fossero orizzontali e non verticali.
L'isostasia associata al denudamento di una superficie comunque è talvolta considerata ancora oggi un meccanismo accessorio nella formazione di alcune catene attuali, come la Catena Transantartica (che comunque non è una catena orogenica ma un grande rift) ed è stato richiamato negli ultimi anni da alcuni Autori per spiegare certe caratteristiche dell'Himalaya. 

Poi Almagià e Migliorini accennano ad “altre ipotesi geniali come quella della DERIVA DEI CONTINENTI, formulata dal geologo tedesco A. Wegener”, che “sono pure da accogliersi con grandi riserve specialmente quanto si voglia applicarle a tutta la Terra”.

Tutti i testi geologici dagli anni '20 in poi hanno sempre citato in margine le idee di Wegener, che erano sostenute da una piccola schiera di scienziati, soprattutto attivi nell'emisfero meridionale, come avevo fatto notare in Da Wegner a Wilson. Ma questa citazione spesso celava una certa ironia (un concetto tipo “ah, già... ci sono anche dei pazzi che sostengono che i continenti si muovono...”)

Fermiamoci un attimo sul concetto dei movimenti orizzontali prevalenti perchè la Geologia dell'Appennino settentrionale è stata fondamentale al proposito (Annotazione: in Geologia il termine Appennino settentrionale individua non solo la catena geografica propriamente detta ma anche tutte le fasce collinari fino ed oltre la costa fra Corsica Orientale, Liguria, Emilia – Romagna, Toscana (isole comprese!) e parti settentrionali di Marche e Umbria).
Già negli anni 20 del XX secolo Gustav Steinmann (1856 – 1929) aveva dimostrato che le lave basaltiche delle ofioliti dell'Appennino Settentrionale non potevano essersi formate dov'erano, in quanto sotto di loro non c'erano tracce dei condotti di alimentazione di questi magmi. Pochi anni dopo era praticamente assodato che questa catena fosse composta da diverse unità caratterizzate ciascuna da una sua precisa stratigrafia e poste l'una sopra l'altra. La spiegazione più in voga era quella di Giovanni Merla (1906 – 1984) secondo il quale le falde si erano mosse a causa di movimenti gravitativi dovuti a dislivelli che si erano creati per fenomeni di isostasia. 

 Nell'immagine qui accanto vediamo un esempio in cui appunto la gravità muove queste falde superficiali di copertura della crosta senza interessarla o quasi.
Ma è chiaro che erano tutte ipotesi difficilmente verosimili e solo grazie alla Tettonica a Zolle furono riconosciuti anche in Appennino dei fenomeni di subduzione connessi con lo scontro fra due placche. Rimaneva però il concetto di “geosinclinale” come zona marina in rapido abbassamento e altrettanto rapido riempimento da parte dei sedimenti che poi veniva deformata dagli eventi tettonici, non si sa bene come: le diatribe sulle falde liguridi che venivano “da Ovest” oppure “da Est” me le ricordo bene anche io!!!. Alla fine degli anni '70 sono arrivati i “prismi di accrezione”, applicati finalmente all'Appennino nel fondamentale articolo del 1984 di Benedetta Treves “mountain belts as orogenic prisms: the example of Northern Apennines” apparso sulla rivista “Ofioliti” . Così anche l'Appennino Settentrionale è diventato un orogene “normale 

Quindi questo libro è interessante perchè è una testimonianza della geologia “ante – Wilson” e fa capire come mai una idea così rivoluzionaria come la tettonica a zolle abbia potuto affermarsi così rapidamente in tutta la comunità scientifica: la sua “bellezza” non in senso estetico ma nel saper agilmente spiegare tutto e l'inadeguatezza di quanto ipotizzato precedentemente.

lunedì 5 settembre 2011

Bertolini risponde alle mie 22 questioni per il Prof. De Mattei: 1. l'età dell'universo

Qualcuno si ricorderà le mie 22 questioni per il professor de Mattei. Non mi ha risposto l'emerito De Mattei ma sul sito del “comitato antievoluzionista” lo ha fatto - in accordo con De Mattei, presumo - Stefano Bertolini, già mio contraddittore nell'incontro del 22 ottobre a Roma e attuale presidente della AISO, la “associazione per lo studio delle origini”.
Bertolini mi aveva lasciato decisamente perplesso (eufemismo....) dimostrando spesso di non sapere di cosa parlava. D'altro canto anche il buon Fabrizio Fratus era riscito precedentemente a cavarsela con l'ennesima figuraccia parlando di geologia a proposito dei Missoula flood. Questo è il primo di una serie di post che dedicherò alle risposte di Bertolini.

Desidero fare innanzitutto una premessa: io userò i termini “creazionista”, “antievoluzionista” e “antidarwinista” come sinonimi. In uno dei prossimi post vedremo che ad un certo punto  la situazione si farà un po' più complessa.
E allora iniziamo da una faccenda poco geologica ma molto cosmologica, quella da cui ero partito, l'ETÀ DELL'UNIVERSO, prima delle mie 22 questioni. La riprendo:
La luce viaggia nel vuoto a circa 300.000 km al secondo, come è anche provato dal ritardo nella risposta nelle trasmissioni via satellite e in quelle tra la Terra e i satelliti che esplorano gli altri mondi del sistema solare.
La luce del sole ci arriva più di 8 minuti dopo che è stata prodotta. Ci sono moltissime stelle che sono a una distanza tale che la luce ci ha messo anche oltre 10 miliardi di anni luce per arrivare a noi. Come sarebbe possibile tutto questo se l'Universo non avesse tutti questi anni?
Bertolini illustra le due posizioni di coloro che sono “strettamente creazionisti”: ci sono due possibilità.
La prima è – cito testualmente – l’universo ha miliardi di anni, ma la storia della vita sulla terra è recente, come lo sono i fossili e gli strati geologici che li contengono.
La seconda posizione è: tutto l’universo è recente.
Fondamentalmente la prima posizione da un punto di vista dei tempi è condivisibile, in quanto la Terra si è formata ben dopo rispetto a quella data di 13 miliardi di anni a cui per adesso siamo arrivati misurando la distanza degli oggetti più lontani che siamo riusciti a vedere. Ovviamente la condivisibilità si ferma qui: sul come sia sorta la vita sulla Terra e come si sia successivamente sviluppata le opinioni sono completamente diverse ed è palese a chi ha un minimo di infarinatura che le spiegazioni degli antievoluzionisti siano solo panzane.
Ho appena usato il termine “panzane”: ed è proprio il caso della seconda posizione dei creazionisti che come al solito hanno i dati sperimentali contro e quindi si devono inventare qualcosa.
Per capire faccio un esempio “geologico”: lo spessore delle serie sedimentarie è un qualcosa che li angoscia e a Roma Bertolini evidenziò come durante l'eruzione del St.Helens del 1980 si erano deposti tufi per parecchie decina di metri. Con questo voleva dimostrare che la sedimentazione è molto veloce. Questo ragionamento si colloca nel classico filone a cui ricorrono molto spesso: citare un particolare teoricamente a loro favore e generalizzarlo applicandolo a tutto. Io feci cortesemente notare che se volevano gli trovavo anche spessori tufacei molto maggiori in una singola eruzione (persino a casa nostra!) ma che un conto era la sedimentazione di un banco di tufi e un altro – ad esempio – la sedimentazione di un calcare di piattaforma carbonatica o la deposizione di un sedimento oceanico a distanza dalla costa.

Una questione simile riguarda l'età dell'universo: se dici che è molto giovane, addirittura che ha poche decine di migliaia di anni, le distanze calcolate anche e soltanto nelle centinaia di migliaia di anni luce sono un problema. Figuriamoci andando sui miliardi di anni luce. Allora, visto che non riescono a negare la velocità della luce nel vuoto neanche con gli ascoltatori di Radio Maria perchè ci sono troppi esempi al riguardo, tirano fuori dal cappello una soluzione semplicente incredibile, richiamandosi nientepopodimenoche a Einstein. Scrive Bertolini: “questo viene spiegato ampiamente con il concetto della dilatazione gravitazionale del tempo dal Dr. Russell Humphreys nel suo libro Starlight &Time, 1994. Si appoggia alla teoria generale della relatività di Einstein, che è ben sostenuta da esperimenti".

Russel Humphreys si è laureato alla Duke University, una istituzione privata che fa riferimento alla Chiesa Metodista. Ufficialmente non schierata su posizioni creazioniste, e poi si è dotato di un Ph.D. in Fisica presso la Louisiana State University. Non sono riuscito a capire in cosa ha svolto il Ph.D., ma presumo in qualche applicazione della fisica e non in ricerca pura.
Humphreys ha pubblicato materiale su riviste scientifiche, ma solo su quelli che sono i suoi campi di ricerca applicata. 
E ora veniamo propriamente alla questione. L'idea mi sembra veramente balzana (voglio essere “politically correct”). Propone una matrice dello spaziotempo in cui questo scorre più velocemente sulla Terra e via via più lentamente altrove, per cui la Terra avrebbe 6000 anni e il resto dell'Universo sempre più fino a 13 miliardi di anni. Non mi pare che questa specifica posizione abbia riscosso il consenso della comunità scientifica né è stato pubblicato in qualche rivista scientifica.

In realtà la cosa è solo vagamente basata sulla teoria della relatività di Einstein, in quanto per avere una metrica del genere bisogna ipotizzare campi gravitazionali spaventosi, di cui non c'è evidenza da nessuna parte (anzi, sono contraddetti dalle osservazioni strumentali nello spazio). Inoltre in questa visione la Terra avrebbe uno status speciale, in aperta contraddizione con il fatto che il Sistema Solare non ha niente di speciale rispetto agli altri sistemi planetari e alle altre stelle che vediamo (se non – per adesso – una disposizione di pianeti ancora non osservata, probabilmente per motivi di risoluzione degli strumenti a nostra disposizione).
Sarebbe comunque una buona idea per un film di fantascienza, anche se gli atrofisici inorridirebbero ad una cosa del genere...

Come si vede sono evidenti i riferimenti a qualcosa di scientificamente corretto ma deformato per rendere dimostrabile l'indimostrabile. Invece, secondo Bertolini, Humphreyes “confuta l’ipotesi centrale della cosmologia della Big Bang: il Principio Copernicano”.
Personalmente non saprei dire molto su Big Bang e compagnia, anzi, tutte le volte che vedo qualcosa su questi argomenti passo oltre perchè non ho la cultura necessaria per approfondirli, a partire dalla teoria delle stringhe, dall'universo non cartesiano a 11 dimensioni (o quante sarebbero). Forse il Big Bang c'è stato, forse no. Ma che semplicemente per dare retta alla scienza scritta in un libro scritto da pastori nomadi del I o II millennio AC e alle loro tradizioni si cerchi di ignorare o falsificare o addirittura adattarvi con interpretazioni forzate i dati della scienza (che non sono il Big Bang, ma quelli sulle distanze siderali) è una cosa da parte mia inconcepibile.
Ora... io non sono un teologo... ma perchè non ho mai letto che il Big Bang potrebbe benissimo essere preso come “gesto di creazione dell'universo da parte di un essere superiore”?

Quanto alla “rivoluzione copernicana”... è chiaro che Copernico non c'entra nulla (a meno che qualcuno non sia convinto che sia il Sole a girare intorno alla Terra, ma non penso proprio che si arrivi a questi punti....): Copernico disse semplicemente che il Sole era in centro dell'Universo e la Terra gli girava intorno, facendo girare le scatole a qualcuno.... Rivoluzionario per l'epoca. 

Molti ce l'hanno con Achille Occhetto da un punto di vista politico. Anche io ma non per aver demolito il PCI, bensì per aver sbagliato (a mio avviso, eh) una famosa campagna elettorale. Comunque in questo caso lo cito solo per aver usato a sproposito il termine “rivoluzione copernicana”, da allora usato per enfatizzare qualsiasi modifica, sia pure minima, ad uno status quo.

Poi onestamente non ho capito il passaggio successivo e cioè:  
per entrambe le posizioni non ci sono conflitti con quello che viene osservato, per le distanze delle stelle di miliardi di anni luce. Non esiste neanche un conflitto fra le due posizioni strettamente creazioniste per quello che riguarda l’evoluzione chimica e l’evoluzione biologica.
Che vuole dire?

Proseguirò in seguito ad approfondire altri aspetti delle risposte di Bertolini