sabato 27 febbraio 2010

Terremoto in Cile

28 febbraio: Modifico ed integro il post scritto "di fretta" ieri pomeriggio


Alle ore 6.34 GMT del 27 febbraio 2010( le 7.34 italiane) un terremoto devastante ha colpito la costa cilena. La magnitudo calcolata provvisoriamente era di 8.3 ma poi è stata portata a 8.8, un valore veramente  altissimo.
La scossa è stata percepita in un'area vastissima, comprendente oltre al Cile  tutta l'Argentina, Paraguay e Uruguay. Una intensità del IV grado è stata rilevata persino a San Paolo del Brasile.
Nelle prime 8 ore  si sono avute  ) diverse repliche di cui una con M=6.9 e altre 4 con M uguale o superiore a 6 e ben 15 con M compresa fra 5.0 e 5.9. Nella carta qui accanto, fornita dall'USGS, si vede lo scuotimento al suolo. Si vede chiaramente che in una fascia di 400 km di lunghezza si è registrato uno scuotimento corrispondente alla parte "alta" dell'VIII grado Mercalli. La profondità di 35 km dell'evento ha scuramente contribuito ad attenuare il risentimento cosismico. Ad Haiti la scossa è stata più debole di un paio di ordini di grandezza, ma la sua bassa profondità unita al fatto che lazona di massima intensità Mercalli sia stata sotto una grande città costruita con edifici tecnicamente scadenti ha causato la strage.

La scossa principale ha provocato la formazione di uno tsunami, che ha colpito duramente le isole a largo della costa cilena, come Juan Fernandez, danneggiando severamente  il villaggio di San Jua Bautista con onde alte 2 metri. Poi per fortuna le onde si sono abbassate e non ci sono notizie di danni in mezzo e nell'altro versante del Pacifico. L'allarme, ancora esistente per motivi prudenziali sulle coste giapponesi e russe, è stato definitivamente cancellato alle  8.37 GMT (le 9.37 italiane di domenica 28 febbraio).

Il meccanismo focale è quello di un classico terremoto di thrust. I thrust sono i cosisddetti "sovrascorrimenti", in cui una serie di rocce si muve sopra un'altra parte della crosta. il piano di faglia quindi è orizzontale, il che spiega il perchè dell'intensità di terremoti di questo tipo:  il peso della massa sovrastante aumenta ai massimi livelli l'attrito e quindi prima di scorrere incamera una quantità di energia elastica ben superiore a quella che provocherebbe la rottura in caso di faglia subverticoale o comunque inclinata.
Il Cile è stato colpito da diversi terremoti di questo tipo, come per esempio quello di Valdivia del 22 maggio 1960, che raggiunse una magnitudo di 9.5 ed è il più forte registrato nel XX secolo. Ci sono evidenze per cui probabilmente un altro terremoto del genere abbia provocato 4.000 anni fa la fine di una delle prime civiltà andine, quella di Caral.

Al di fuori del Cile, altri terremoti di thrust molto importanti e conosciuti sono quello di Sumatra del 2004 e quello dell'Alaska del 1964. 

E' presto per stilare un bilancio dei danni e delle vittime. Sulla terraferma attualmente i morti accertati sono un centinaio ma purtroppo è presto per capire la portata del disastro. Si parla di 400.000 senza tetto.

Per quanto riguarda la distribuzione delle repliche, vediamo la carta, sempre dell'USGS, di circa le 8.30 GMT di oggi: in giallo la scossa principale e uelle che l'hanno seguita entro la prima ora, in rosso quelle a avvenute dopo le 24 ore. Si nota che stavolta l'epicentro della scossa principale si pone grossolanamente a metà della zona interessata ed è perfettamente individuabile la zona in cui il piano di faglia si è mosso.
Prendendo come riferimento le prime 24 ore la situazione è questa: compresala scossa principale ci sono state 102 scosse con uguale o superiore a 4.9. Di queste, 6 hanno avuto una M compresa fra 6 e 6.9, concentrate tutte nelle prime due ore ad eccezione di quella delle 19.00 GMT che è la replica più forte registrata fino ad ora.
Le repliche che la mattina si addensavano intorno alla parte alta di M=5 (sopra 5.6) adesso sono quasi costantemente su valori tra 5.0 e 5.3.

Per la cronaca la scossa più occidentale, con epicentro già in territorio argentino, è una delle ultime.

Il terremoto si è scatenato al confine fra la zolla sudamericana e quella di Nazca che vi scorre sotto alla non indifferente veocità media di 80 mm all'anno. Si ipotizza che il piano di movimento sia proprio il limite fra le due zolle.
La costa cilena è sicuramente una zona molto attiva tettonicamente. Si contano dal 1973 ben 13 events con M maggiore o uguale a 7.  Questo evento si è registrato a poco più di 200 a nord di quello del 1960,nell'occasione del quale lo tsunami provocò 200 morti tra Giappone, Hawaai e Filippine.
Il terremoto di M=8.5 del novembre 1922 ha avuto luogo a quasi 900 kilometri più a nord. Anche in questo caso ci fu unio tsunami, ma ho notizie di danni  e vittime solo liungo la costa cilena.



venerdì 26 febbraio 2010

Le fratture calde sulla superficie di Encelado


La sonda Cassini ci fa vedere un aspetto particolare di una luna ghiacciata che ruota intorno a Saturno. Encelado, noto fin dal 1789 quando fu scoperto dal grande astronomo William Herschel, è uno dei corpi più interessanti del sistema saturniano. Aveva già dato i sintomi della presenza di ghiaccio d'acqua sulla sua superficie: la sua albedo che è la più alta nel sistema solare: in altre parole è il corpo che riflette più di tutti la luce della nostra stella. Dal diametro di circa 500 kilometri, ruota dentro l'anello E. Anzi, vista la presenza su questo corpo di un pennacchio di vapore che si disperde nello spazio, è stata avanzata l'ipotesi che questo anello si sia formato proprio grazie ai pennacchi provenienti da Encelado. Non c'è solo questo grande pennacchio: i geyser sono comuni e una ventina di loro sono stati appena scoperti nel passaggio ravvicinato del novembre 2009, l'ottavo della serie.

Altra caratteristica importante è la sua superficie, che a giudicare dalla diversa densità di crateri fra varie zone non ha tutta la stessa età. Vi troviamo crateri, pianure lisce, catene montuose ed estese fessure lineari. Per cui si stima che possa avere, al massimo, 100 milioni di anni. Addirittura pare che siano deformati persino dei crateri. Insomma, Encelado è stato geologicamente attivo anche in un recente passato. C'è quindi la necessità di capire qual'è il meccanismo che ha portato a questo.

Innanzitutto si deve scartare il calore interno: è troppo piccolo per poter avere ancora un nucleo riscaldato dalla radioattività. Potrebbe esserci al suo interno un composto che fonde a temperature inferiori a quella dell'acqua? Ipotesi teoricamente valida, ma gli spettrometri di Cassini non l'hanno rilevata e questo ovviamente è un grosso ostacolo. Oppure come intorno a Giove per i vulcani di Io, si può ipotizzare un riscaldamento innescato dalla forza delle maree?

Per questi motivi Encelado merita particolare attenzione. Determinarne le caratteristiche e la storia, definire i vari processi fisici che ne hanno creato e modellato la superficie, capire composizione e distribuzione delle poche parti di materia organica scura, come i rapporti con l'anello E in cui è immerso sono fra gli obbiettivi più importanti per la missione Cassini.

Nel flyby dello scorso novembre Cassini ha fotografato per l'ultima volta il polo sud del satellite, che finirà nell'ombra per 15 anni a causa dei movimenti orbitali suoi e di Saturno, prossimo all'equinozio ed ha trovato una sorpresa. Come dice Bob Pappalardo, uno dei principali esponenti del team che segue Cassini nel suo viaggio, “ogni passaggio della sonda intorno a Encelado insegna sempre cose nuove su questo mondo”. Prova ne sia il fatto che se dal 2004 ci sono stati fino ad oggi appena 8 fly-by su questo corpo, nel 2010 ce ne saranno ben 5 (e in tutto 7 dal novembre 2009). E anche stavolta è stato così: lo spettrometro ad infrarossi ha catturato l'immagine del “Baghdad Sulcus”, di una linea “calda” contrassegnata da alcune sacche ancora più calde. La superficie, che come detto assorbe pochissima radiazione solare, mediamente ha una temperatura di circa – 220°C, meno di 50 gradi sopra lo zero assoluto. Invece le zone più calde arrivano addirittura a circa -100°C.

E' probabile che queste temperature così elevate siano dovute al riscaldamento dei fianchi delle fratture provocate dal vapore d'acqua in risalita. Secondo gli scienziati questa dovrebbe essere la causa dei getti di particelle visti dalle fotocamere di Cassini.  Per avere una conferma occorrerà analizzare se ci sono relazioni fra la posizione dei punti caldi e quelle dei getti.


Attendiamo con entusiasmo il prossimo fly-by, programmato per il 28 aprile, quando Cassini arriverà a 103 km dalla sua superficie (per confronto le immagini del Baghdad Sulcus” sono state riprese da un'altezza di 1600 metri) , mentre tra novembre e dicembre ci saranno due passaggi ad appena 50 km di altezza.

mercoledì 24 febbraio 2010

Un dramma della povertà: in Bangladesh i lavoratori scioperano contro la sicurezza sul lavoro

Una notizia che lascia interdetti e che si presterebbe a molti commenti: ma non voglio commentarla, preferisco lasciarla così come l'ho letta.

Per il Bangladesh una grande fonte di entrate è data dalle demolizioni navali: vi viene demolito circa il 45 % delle navi da smantellare. Nel 2009 il valore delle commesse è stato di svariate centinaia di milioni di dollari. Oltre alle entrate, con questo materiale si alimenta la materia prima per l'industria metallurgica, considerata dal governo locale una delle scelte primarie per l'industrializzazione e il progresso del Paese. Quindi le demolizioni rappresentano un volano fondamentale per l'economia locale.

Ci sono migliaia di testimonianze della durezza di questo lavoro e della totale insicurezza con cui viene svolto. La scelta di mandare là le navi è dovuta anche agli inesistenti costi di bonifica del relitto prima della demolizione.

Nel 2009 sono accertati 26 morti sul lavoro, fra cui un bambino di 13 anni, ma  secondo le ONG questa cifra è abbondantemente sottostimata.  Inoltre le statistiche non tengono conto dei morti per gli avvelenamenti e le altre patologie (tumori compresi) dovuti al contatto con sostanze chimiche vietate in occidente, amianto compreso. Temo che purtroppo le ONG abbiano ragione.

Adesso il governo del paese asiatico ha deciso di mettere ordine nella cosa e ha ordinato che le navi che giungono sulle coste del Bangladesh per la demolizione devono essere certificate come prive di sostanze tossiche.
Questa decisione è stata festeggiata con vigore da parte delle ONG e dai gruppi che si battono per i diritti e la sicurezza dei lavoratori

Ma purtroppo questi ultimi non sono della stessa idea e sono scesi in sciopero. In 30.000 hanno protestato contro questa normativa, ovviamente spalleggiati dagli industriali del settore. Al proposito Jafar Alam, leader dell'unione dei demolitori (non degli operai, ma delle industrie), ha sentenziato che “decine di migliaia di lavoratori perderanno il lavoro per questa disposizione”.

La notizia è questa. Ripeto ancora una volta che preferisco non commentarla, lasciandola così, nella sua brutale tristezza.

martedì 23 febbraio 2010

Il risparmio energetico negli edifici: una nuova e consistente fonte di energia

Agli occhi di molta gente l'edilizia è un settore “povero” e poco tecnologico. In realtà proprio sugli immobili si sta giocando una partita fondamentale per il miglioramento o no dell'ambiente: un edificio d'inverno disperde all'esterno una parte del calore prodotto dall'impianto di riscaldamento, mentre d'estate il calore esterno si propaga al suo interno. L’energia consumata nell’edilizia residenziale per riscaldare e condizionare gli ambienti e per l’acqua calda sanitaria rappresenta circa il 30% dei consumi energetici nazionali, e il 25% delle emissioni totali nazionali di anidride carbonica. 
Per cui case meno impattanti da un punto di vista energetico, cioè isolate meglio termicamente, consentirebbero di contenere questi numeri a valori molto inferiori: mediamente sul 100% di energia finale consumato in casa, soltanto il 2% serve all'illuminazione, il 5% per cucina e elettrodomestici, mentre ben il 15% viene impiegato per il rifornimento di acqua calda e il 78% per il riscaldamento; se poi nell'immobile esiste un impianto di raffrescamento/condizionamento estivo, questo aggiunge il 25% in più di consumi energetici.

Questi numeri dimostrano come edifici più termicamente performanti migliorino l'ambiente e la situazione finanziaria delle famiglie, come pure la bilancia commerciale del nostro Paese, vista la pochezza di energia prodotta con fonti rinnovabili e la nostra cronica dipendenza energetica dall'estero. E' noto come i picchi dei consumi di elettricità assumono valori allarmanti durante le ondate di caldo estive ed è quindi proprio il settore abitativo a tirare la corda.

Mediamente un edificio in Italia ha un consumo energetico annuo di 300 Kw al metro quadro. E' possibile quasi dimezzare questo valore sull'esistente, mentre esistono nuove costruzioni che hanno valori di un decimo rispetto alla media. Altre nazioni europee sono molto più avanti. Addirittura in Svezia, notoriamente molto più fredda di noi, il valore medio è di 60 Kw/Mq/anno.... Quindi migliorare si può.

Come migliorare lo status energetico delle costruzioni? Basta approfittare del fatto che i palazzi devono ogni tanto essere “rinfrescati”: la manutenzione straordinaria può essere l'occasione per migliorarne le caratteristiche termiche: coibentazioni di facciate (con intonaci isolanti) e tetti, sostituzione dei vecchi infissi con i nuovi che consentono un isolamento termico maggiore, adozione di pannelli solari per la produzione di acqua calda, nuove caldaie per il riscaldamento etc etc.

Ci sono però delle resistenze grosse in materia.
Per prima cosa il costo degli interventi è maggiore, anche se in un certo periodo di tempo, valutabile caso per caso, l'investimento consente alla fine un risparmio. Bene ha fatto comunque lo Stato a consentire un consistente bonus fiscale per le ristrutturazioni edilizie (restauro e risanamento conservativo, ristrutturazione vera e propria, manutenzione ordinaria) finalizzate ad una riqualificazione energetica. Purtroppo questa norma viene rinnovata di anno in anno e ciò, nella impossibilità di essere sicuri della sua prosecuzione, rende impossibile la programmazione a lungo termine degli interventi. Sarebbe opportuno renderla permanente.

Da notare che una parte di questi lavori possono essere compiuti persino in edifici storici.

C'è poi una resistenza “culturale” da parte degli operatori. In primis molte piccole aziende del settore (edilizie ed impiantistiche) preferiscono lavorare, almeno in parte, “in nero”, cosa che ovviamente sarebbe impedita da chi ha bisogno della fattura per la detrazione. Oltre a questo, spesso mancano le capacità tecniche per lavorare in maniera più moderna. Per cui è proprio il cosiddetto ”idraulico di fiducia” (ma anche muratore, elettricista etc etc) a sconsigliare i condomini a procedere con interventi del genere rispetto a quelli nuovi perchè non ha voglia di affrontare nuove sfide.
Nelle categorie “progettuali” (geometri e architetti) si annidano consistenti sacche di professionisti poco aggiornati e persino molti amministratori condominiali preferiscono il “quieto vivere”, specialmente se si servono per i loro amministrati di ditte poco qualificate.
Basso livello di preparazione tecnica, evasione fiscale e “furbetti” vari quindi sono una zavorra che spesso impedisce di realizzare ristrutturazioni energeticamente significative. Per questo sarebbe molto importante che si attivino in materia gli enti locali, iniziando loro le buone pratiche e facendo in modo da far nascere in ogni zona una filiera di aziende valide il cui know-how possa ricadere in breve tempo anche sui privati.
Ma per fare questo occorre innanzitutto prolungare per un numero adeguato di anni gli incentivi fiscali in modo che aziende e professionisti possano avere la certezza che gli investimenti su materiali e formazione del personale siano ripagati da una “onda lunga” di ristrutturazioni / riqualificazioni edilizie.

Sarebbe opportuno anche spingere politicamente sul tasto della certificazione energetica degli edifici.
Per quanto riguarda il “nuovo”, in molte regioni ci sono degli obblighi non indifferenti, che obbligano i costruttori ad usare materiali e sistemi di coibentazione tali da ridurre i consumi energetici per riscaldamento e condizionamento al 20% rispetto ad edifici costruiti anche solo 40 anni fa, come di installare sistemi per la produzione di energia con fonti rinnovabili (soprattutto pannelli solari per la produzione di acqua calda).

Cominciano anche a uscire edifici che non necessitano di impianti di riscaldamento e condizionamento. Recentemente ne è stato costruito uno a Bolzano, zona notoriamente non proprio calda. Anche a Firenze, quindi più sotto il mio “controllo” (!) ci sono esperienze significative in nuove costruzioni. In una nuova palazzina vicina alla Stazione di Santa Maria Novella l'efficienza energetica è tale che una caldaia normalmente usata per un appartamento singolo è sufficiente per servire tutti e 17 gli appartamenti! Il valore del consumo energetico di questo edificio, condizionamento estivo compreso, sarà inferiore ai 30 Kw/mq/anno, un decimo del valore medio nazionale.

Probabilmente se riuscirà a ritornare alla ribalta il legno come materiale per gli edifici la situazione migliorerà ancora di più, in quanto le sue caratteristiche termiche sono eccellenti e anche la costruzione necessita di meno energia, acqua e risorse naturali rispetto a una casa in muratura. Però anche in questo caso, accanto alla necessità di allestire una nuova filiera rispetto a quella attuale dell'edilizia, ci sono problemi “culturali”, sia di accettazione del manufatto da parte della clientela (ma qui, al solito, basterebbe cominciare con l'edilizia pubblica) sia soprattutto per la mancanza di manodopera specializzata: lavorare sul legno è molto diverso che lavorare sul mattone.

In buona sostanza anche per l'edilizia occorre “alzare l'asticella” del Paese: non solo occorre smetterla di accontentarsi dell'esistente, ma soprattutto stato e enti locali devono farsi interpreti di queste esigenze, a favore non solo dell'ambiente, ma anche delle famiglie stesse. Sarà possibile tutto questo nell'Italia del quieto vivere, del basso livello di consapevolezza nella tecnologia e del voler spendere poco oggi senza guardare al risparmio del domani?

giovedì 18 febbraio 2010

La questione delle scorie nucleari a Yucca Mountain e i suoi riflessi sul nuovo nucleare italiano

Yucca Mountain è un rilievo alto circa 2000 metri nel Nevada, situato circa a 150 km a NW di Las Vegas. E' all'interno della Nellis Operation Area, la zona in cui tra il 1945 e il 1992 sono state fatte esplodere circa 900 bombe atomiche (le più sotterranee), anche se non è stato il sito del primo esperimento effettuato dagli Usa nel 1945 (il Trinity), che si svolse vicino a Alamogordo, nel New Mexico.
Yucca Mountain è giunta alla ribalta della cronaca mondiale quando fu indicato come il sito per il deposito profondo di scorie nucleari.

La gestione delle scorie è uno dei punti nevralgici del dibattito “nucleare sì, nucleare no”. E' una questione estremamente evidenziata dagli antinuclearisti quanto molto spesso lasciata da parte dai sostenitori del nucleare. 
Un comportamento molto irresponsabile da parte di questi ultimi: come sottolinea giustamente un mio amico, noto fisico, che – si badi bene - è favorevole all'uso dell'energia nucleare, "nella filiera dell'energia nucleare le centrali sono considerati solo come una delle componenti del sistema, neppure la più critica, anzi, sotto centi punti di vista proprio quella meno critica". E soprattutto "che quello delle scorie è IL problema: se qualcuno pensa di tornare al nucleare limitandosi a pensare alle centrali, trascurando gli aspetti del "dopo", è meglio rinunciare in partenza ad ogni progetto".

C'è poi da considerare che una centrale nucleare ha una vita utile, destinata giocoforza a concludersi con la sua dismissione, il più lontana possibile ma comunque tale da produrre altre scorie da gestire.

Ma veniamo alla storia di Yucca Mountain, cercando di ragionare in maniera obbiettiva e non emotiva come spesso succede su questo argomento.

Nel 2002 il congresso degli Usa ha varato lo “Yucca Mountain Development Act”, successivamente controfirmato da George W. Bush. Si badi bene che la situazione è molto seria perchè i produttori di energia nucleare potrebbero chiedere al governo un risarcimento per non aver ancora ottemperato come da promessa a creare un sito di stoccaggio.
Mi sembra che in questo momento, sparse fra decine di depositi “provvisori” (e spesso anche nelle stesse centrali) ci siano la bazzecola di 77.000 tonnellate di scorie radioattive che dovrebbero essere conferite in questo deposito.

Il progetto consta di una rete di tunnel sotterranei a spina di pesce della lunghezza di 80 km che correranno sotto la montagna alla profondità di 300 metri.
L’interno dei tunnel sarà composto da una lega di acciaio inossidabile e da una copertura in una lega di titanio per impedire all’acqua d’infiltrarsi attraverso la volta delle gallerie.

Siamo al 2010 e ancora non c'è niente di operativo. anzi, fra perplessità tecniche, geologiche ed altro, l'inizio dei lavori ora come ora sembra rinviato al 2017. Come mai?

Il Nevada era sytato scelto per alcuni motivi fondamentali.

- questione dell'acqua: Il Nevada è una zona desertica e la mancanza di umidità è ritenuta fondamentale per evitare l'aggressione chimica ai fusti contenenti il materiale radioattivo. 

- scarsa popolazione: il roccioso stato sia particolarmente abitato: 2 milioni di abitanti in una superficie grande come l'Italia peninsulare. Il luogo “civile” più vicino è Beatty, 1500 abitanti a quasi 50 km di distanza. Segue Indian Springs, 1300 abitanti, che dista circa il doppio

Però sulla questione delle acque ci sono delle perplessità: c'è chi sostiene che senza un adeguato sistema di raffreddamento, siccome le scorie un po' di calore continueranno comunque a produrlo, il vapore acqueo in grado di corrodere i contenitori o la roccia circostante, con gravi conseguenze per la sicurezza si formerà lo stesso.
 
Ci sono poi delle complicazioni geologiche: è stato scoperto che sotto al sito corre una struttura tettonica, la “Bow Ridge fault” che lo pone piuttosto a rischio. Inoltre c'è chi, probabilmente a ragione, sostiene che le vulcaniti dell'area non siano esenti da fratture e problemi di erosione. 

Anche i pochi abitanti non paiono troppo soddisfatti della cosa. Inutile dire che a Las Vegas, che come ho detto dista 150 km, hanno accolto la scoperta sulla Bw ridge Fault con soddisfazione, perchè allontana i rischi (e sono a 150 km di distanza. In Italia è possibile trovare un sito così distante dall'abitato più vicino?).

Mi domando Se questa è la situazione in un'area così disabitata, come possiamo fare in Italia o in Europa, notoriamente ben più umide e densamente popolate?


Vediamo il caso italiano: il governo (anche all'epoca presieduto da Silvio Berlusconi) indicò nel 2003 Spezzano Jonico come sito di deposito delle scorie radioattive. Una sollevazione popolare fece rientrare quella decisione che, al di là della logica preoccupazione degli abitanti dell'area, suscitava un po' di perplessità anche da un punto di vista geologico. Da allora nulla si è fatto in materia. Mi è giunta notizia che i fusti con materiale radioattivo depositati nella ex centrale di Trino Vercellese sono stati trasportati via ferrovia in Francia, ma non ho la conferma di questo.

Non ho capito bene come stanno le cose, ma suppongo che ci si orienti verso un reattore EPR (la variante europea al PWR della Westinghouse) che produce un bel po' di scorie a lungo periodo. Se fosse così, altro che reattori di nuova generazione....
Se anche per il nucleare prossimo venturo la soluzione scelta sarà quella operata per Trino, è facile vedere come il quadro dei costi non sia completo: non credo che i francesi, che ci vendono lautamente pagati la tecnologia degli impianti, ci faranno questo servizio gratis....

Anche io, tendenzialmente, non sarei del tutto contrario alla produzione di energia elettrica attraverso il nucleare. Ma nella assoluta impossibilità, per ora, di arrivare all'energia da fusione, le attuali tecnologie non permettono ancora di risolvere il problema. Non a caso negli USA, e non solo lì, si pensa ora al "dopo", e quindi alla IV generazione, in cui il reattore di potenza è considerato in tutto e per tutto parte di un sistema più grande di cui il riprocessamento del combustibile è parte integrante. Ma fino ad allora con il nucleare ci andrei piano proprio per il problema delle scorie, del quale mi sembra che nessuno, nel governo italiano, abbia fatto parola.

martedì 16 febbraio 2010

La nuova estensione della missione della sonda Cassini: 14 anni intorno a Saturno

Alcune “vecchie” missioni spaziali stanno dando delle soddisfazioni notevoli. I due rover su Marte da 6 anni continuano a macinare dati su dati anche se Spirit, finito nella sabbia e con due ruote fuori uso su 6 è da un paio di mesi considerato una sonda “fissa”. Opportunity invece continua imperterrito nelle sue peregrinazioni e ora si sta accingendo a visitare un cratere da impatto “recente”. Molto meglio di quello che ha fatto l'anno scorso Phoenix, la cui missione è durata pochi giorni anche se ha dato la straordinaria certezza della presenza di acqua nel suolo marziano. Forse passato il freddo inverno delle alte latitudini del pianeta rosso, ci sarà un tentativo di rimetterla in funzione.
Il telescopio spaziale Hubble, impresa comune a NASA e ESA, non finisce di stupire, anche se la fine delle missioni shuttle ne impedirà la ulteriore manutenzione.

Ma oggi parliamo di Cassini, la veneranda sonda che, lanciata nell'ottobre 1997, dopo 7 anni di marcia di avvicinamento al pianeta degli anelli, dal 2004 sta fornendo immagini e dati sul meraviglioso mondo di Saturno e dei suoi satelliti. In Cassini c'è anche un po' di Italia. Infatti la prima fase della missione era, come recitava la newsletter “una missione in cooperazione fra la NASA, l'Agenzia spaziale Europea e l'Agenzia Spaziale Italiana”.
Il nome scelto per la missione principale è quello di Giandomenico Cassini, uno dei più grandi astronomi del XVII secolo e scopritore di diversi satelliti di Saturno.

Fra i primi successi della missione il “lander” europeo Huygens (dedicato proprio allo scopritore di questo astro), che atterrò su Titano il 14 gennaio 2005, fornendo le immagini dalla superficie del grande satellite di Saturno: per la prima volta una sonda umana si è posata su un satellite di un altro pianeta e mai c'era stato un atterraggio così lontano dalla Terra.
L'interesse per Titano è dato soprattutto dal suo essere l'unico satellite del sistema solare dotato di atmosfera. Gli strumenti di Cassini lo hanno fotografato e analizzato a più riprese, negli oltre 60 fly-by finora avvenuti.
La prima missione doveva finire nel 2008, ma le buone condizioni della sonda hanno permesso di prolungarne il servizio per altri due anni, fino al settembre 2010. Essendo il pianeta dagli anelli vicino all'equinozio, il prolungamento è stato chiamato “missione equinozio”
E adesso la sorpresa: la NASA annuncia con comprensibile entusiasmo, che la missione sarà prolungata fino al 2018 per arrivare al solstizio e quindi ci sarà la possibilità di vedere le modificazioni stagionali di Saturno e dei suoi satelliti. In realtà qualche sentore della notizia c'era stato: per esempio rinunciare ad alcune correzioni di rotta per non sfruttare troppo il combustibile (la propulsione è fornita da motori ad idrazina, mentre l'elettricità è fornita da piccoli generatori nucleari). Ma i nuovi 8 anni sono un valore al di là dell'ipotizzabile....

Sono oltre 100.000 le fotografie che Cassini ha scattato di tutti i satelliti, degli anelli e del pianeta stesso. E proprio gli anelli sono stati uno degli obbiettivi principali di Cassini. Ma ovviamente non sono stati studiati solo gli anelli: se la missione Galileo aveva permesso di vedere attorno a Giove gli oceani ghiacciati di Europa e gli enormi vulcani di Io, Cassini ha scoperto che il ciclo del metano su Titano è simile a quello dell'acqua sulla terra, con fiumi, laghi e piogge di questo idrocarburo e pure fenomeni di criovulcanismo,

Fra le scoperte più clamorose ci sono anche i geyser di Encelado e la strana superficie di Giapeto, con la sua dicotomia fra una zona risplendente e una oscura ed un cratere da impatto dal raggio di un quarto quello del satellite. Insomma, come per Giove, anche Saturno è un vero sistema planetario in cui ogni satellite ha la sua storia da raccontare. Storia che continuerà ad essere raccontata ancora, quindi per ben altri 8 anni.

venerdì 12 febbraio 2010

12 febbraio - mi illumino di meno

Mi illumino di meno
ma son felice uguale
risparmio come un treno
è festa nazionale

(Banda Osiris)


M'illumino di meno è una iniziativa della trasmissione “cult” di Radio2 “Caterpillar”, (la mia trasmisisone radio preferita dal lontano 1997, anche se ora non la seguo più con la stessa assiduità) giunta alla sesta edizione e diventata un appuntamento fisso del 12 febbraio, che va al di là degli ascoltatori della trasmissione. La data è quella della entrata in vigore del Protocollo di Kyoto.

Un “m'illumino di meno” dal sapore molto particolare questo, visti i recenti provvedimenti di avvio delle procedure per la costruzione di nuove centrali nucleari. Ne avevo già parlato quasi 2 anni fa.

E' chiaro ed evidente che si deve ridurre le emissioni di gas – serra, e ormai che l'attività umana sia almeno in parte una componente fondamentale dei cambiamenti climatici sono pochi (e politicamente schierati) a negarlo.

Questo sostanzialmente è un post “generico”, ma al quale vorrei far seguire dei post più specifici.

Le principali attività che coinvolgono le emissioni di energia sono l'industria, i trasporti e le utenze domestiche

L'industria oltre al consumo di energia è responsabile del saccheggio delle risorse naturali del pianeta e della emissione di sostanze non propriamente salubri nelle acque e nell'aria. Sulla questione energetica il discorso è complesso: usare processi che usano meno energia può essere più costoso per la produzione industriale. Quindi non è possibile parlarne in poche righe.

Però siccome questo settore assorbe buona parte dell'energia elettrica, riuscire a produrre elettricità con fonti rinnovabili a prezzi contenuti è ovviamente un must.

Passiamo ai trasporti. Qui le soluzioni sono, diciamo così, più generalistiche. Ci sono tanti tipi di mobilità. Propulsione umana (piedi, bicicletta etc etc), automezzi a combustibili fossili, automezzi elettrici, treni, navi e aerei. Le differenze energetiche fra i mezzi meccanici sono molto ampie. E' provato che il treno a trazione elettrica sia nettamente il migliore in termini di consumo di energia specifico (cioè a passeggero trasportato o a unità di massa trasportata). Anche la nave in realtà non è messa male.

Quindi privilegiare la rotaia per gli spostamenti a medio / lungo raggio delle merci sarebbe una cosa molto logica. E diverse nazioni europee lo fanno con convinzione. Meno l'Italia, in cui la lobby dell'autotrasporto ha molto peso elettorale e, come hanno dimostrato gli scioperi,anche un grande peso economico.
La rotaia invece è ottima per gli spostamenti anche a breve raggio delle persone. Treni e tram sono energeticamente la soluzione ideale. Però hanno una controindicazione: sono mezzi poco “agili”, nel senso che non possono dare la capillarità del trasporto automobilistico, per cui un sistema sui binari ha sempre bisogno di un coordinamento con linee su gomma.

Comunque se vogliamo migliorare l'aria delle nostre aree metropolitane, l'unico sistema è scoraggiare il trasporto privato e puntare su quello pubblico, con gli autobus ma soprattutto con la rotaia

E veniamo alle abitazioni. I consumi energetici sono una voce elevatissima nel bilancio energetico. Ma oggi è possibile risparmiare molto sul riscaldamento invernale e sul condizionamento estivo. Ci sono degli edifici nuovi nei quali i consumi sono ridicoli. Tornerò presto su questo argomento perchè lo ritengo molto interessante: a Firenze è in corso di costruzione un palazzo con 17 appartamenti in cui con vari accorgimenti attivi (pompe di calore) e passivi (coibentazione ai massimi livelli) la centrale termica dell'intero palazzo è composta da una caldaia come quelle dei normali termosingoli!

Con una camera ad infrarossi si evidenzia bene la dispersione termica dei palazzi ordinari. E spesso ha valori pazzeschi. Si può comunque migliorare le cose: caldaie più efficienti, innanzitutto. Ma anche operazioni su infissi, tetti e facciate per migliorare la coibentazione. Questi lavori sono chiaramente più costosi rispetto a un ripristino ordinario e per questo lo Stato consente uno sgravio fiscale pari al 55% del costo dell'intervento. Purtroppo questa bella cosa viene rifinanziata di anno in anno, per cui non è sicuro che sarà valida anche nel 2011...
Fra parentesi si può fare interventi termicamente migliorativi anche in palazzi storici.

Inoltre è possibile tramite l'energia solare una produzione di energia e di acqua calda.

Ho parlato dei massimi sistemi. Però per il risparmio energetico sono importanti anche i gesti quotidiani: evitare di tenere TV ed altri apparecchi in stand-by, spegnere le luci non necessarie, usare lampadine a basso consumo, non esagerare con il riscaldamento d'inverno e con il condizionamento d'estate, usare meno acqua possibile ed evitare di dover correggere con acqua fredda l'acqua della doccia perchè p troppo calda etc etc.

E' chiaro che ciascuno di noi può incidere poco sul globale dell'energia. Ma se tutti si facesse così i consumi un po' si abbasserebbero!

Le gigantesche alluvioni del Columbia River: come sono nate e quello che pensavano i creazionisti

Donald Ross Prothero annotò come i creazionisti usino 3 semplici tattiche nei loro appunti contro l'evoluzionismo e cioè
1. citare cose che non c'entrano o fuori contesto
2. citare su alcuni fatti delle ricerche vecchie
3. citare pubblicazioni che non hanno niente di scientifico o semplificano al massimo le cose.

Sul citare fuori contesto credo che l'esempio massimo sia la frase di Gould “bisogna andare oltre Darwin” che messa come l'ho vista poteva quasi far sembrare che il buon Steven J. fosse diventato un antievoluzionista....

Lasciando perdere il punto (3) mi soffermo sul punto (2)

Cito espressamente il buon Fratus, che sul suo blog così mi risponde: nel 1923 un giovane geologo, Harlen Bretz, descrisse vaste zone nel Nord America, la cui formazione si poteva spiegare solo con un’inondazione – vero e proprio diluvio – di proporzioni inimmaginabili. Fu ovviamente deriso, ma dopo 40 anni e ulteriori spedizioni sul campo, fu trovata anche la probabile fonte dell’acqua – l’antico lago Missoula. Così il “catastrofismo” ha guadagnato cittadinanza tra gli scienziati e il pubblico.

Ecco un classico esempio di una citazione vecchia, superata e anche imprecisa: da allora di acqua ne è passata sotto i ponti e le ricerche hanno dimostrato come si tratti di una serie di eventi che, sommati, danno un bello spessore di sedimenti. Inoltre la stragrande maggioranza dei geologi erano totalmente scettici sualla cosa. E una volta trovata la zona di origine delle acque fu anche chiarito che non si è trattato di un evento unico ma di una serie di eventi.
Quindi non solo non è andata come diceva Bretz, ma non è neanche vero che il catastrofismo abbia così acquisito punti e sostenitori...

Vediamo quindi come stanno realmente le cose

Fino a 14.000 anni fa il Nordamerica era occupato da una grande calotta glaciale che arrivava almeno alla latitudine di New York. Poi, con l'aumento della temperatura, il sistema andò in crisi e i ghiacci cominciarono ad arretrare, fino a quando si divisero in due, la calotta Laurentide e quella molto più piccola di Cascadia: in pratica si aprì un corridoio privo di ghiacci fra la Catena delle Cascate e le Montagne Rocciose all'altezza di Columbia Britannica e Montana.

La deglaciazione ha formato dei grandi laghi, fra i quali l'Agassiz e il Missoula, che avevano la strana caratteristica di essere bloccati da dighe di ghiaccio. Queste collassarono provocando alluvioni di ingenti dimensioni. Tempo fa parlai dello svuotamento del Lago Agassiz, innescato dall'aumentare della temperatura e delle conseguenze a livello globale di quel fenomeno.

Una cosa analoga successe dall'altra parte del continente, nella zona attualmente situata poco a sud del confine USA – Canada.

I geologi che cominciarono a studiare la costa atlantica al confine fra Usa e Canada, in particolare il già citato Harlen Bretz (1882 / 1981), si trovarono davanti a degli spessori molto forti di detriti nella valle del Columbia River, che sbocca nel Pacifico poco a sud di Seattle, come anche a forme dovute a intensa attività erosiva nei basalti della zona (l'area fu sede di un grande episodio di espandimenti basaltici tra Miocene e Pliocene).

Era evidente che la situazione attuale non permetteva di spiegare queste osservazioni. D'altra parte i dati erano incontrovertibili. Quindi Bretz spiegò il tutto con un unico evento eccezionale che chiamò “Spokane Flood”, in quanto pensò che la zona della cittadina dello stato di Washington fosse vicina alla zona di origine delle acque. Siamo nel 1924 e a quel tempo la diatriba evoluzionismo – creazionismo, come quella fra i gradualisti e i catastrofisti si erano ormai sopite. Logico che questa scoperta, soprattutto con l'interpretazione di Bretz, non era in regola con il gradualismo e che quindi venisse guardata quantomeno con sospetto se non con ostilità. Oltretutto Bretz era in difficoltà nel trovare l'origine delle acque: un improvviso scioglimento dei ghiacci sembrava poco plausibile.

L'origine delle acque rimase a lungo un mistero. Solo negli anni 50 fu evidente che provenivano dal bacino di Missoula, una fossa stretta ed allungata nel Montana Occidentale, tra la Catena delle Cascate e le Montagne Rocciose. La sua posizione era praticamente perfetta: posto al limite della calotta laurenziana, forniva una ideale vasca di raccolta per le acque originate dallo scioglimento dei ghiacci. In più ha un'altra caratteristica importante: è rivolto verso nord e quindi la sua parte topograficamente più bassa verso cui si indirizzavano le acque era ancora all'interno della calotta. Quindi come nel caso del lago Agassiz, anche qui si era formata unauna diga di ghiaccio.

Le dimensioni del lago erano imponenti: nella sua massima estensione era profondo almeno 600 metri e lungo oltre 300 kilometri. Un vero e proprio mare interno, come gli attuali Grandi Laghi. Per paragone con questi, era grande circa quanto l'Ontario e l'Erie messi assieme.

Quanto ai sedimenti lungo il Columbia River, è stato notato che in realtà si tratta di una serie di eventi sovrapposti l'uno all'altro: non solo è facile trovare dei sedimenti diversi intercalati fra le mandate alluvionali, ma la provvidenziale vicinanza dei vulcani della Catena delle Cascate ha provocato l'intercalazione fra le alluvioni di livelli di tufi che sono anche in parte stati datati. Alla fine si contano circa 40 alluvioni che si sono susseguite ad una cinquantina di anni di distanza l'una dall'altra. Qusti fenomeni sono denominati con un termine islandese jokulhlaups (jökull = ghiacciaio, hlaup = alluvione).

La stessa storia è fornita dai sedimenti del lago, che mostrano anch'essi una cicilicità in cui la profondità dell'acqua aumentava gradatamente per poi diminuire molto bruscamente e dalla situazione osservata nei sedimenti oceanici nelle vicinanze della foce del Columbia River.

Per il meccanismo di rottura della diga è stato ipotizzato che il ghiaccio cominciasse a rompersi in basso su sollecitazione della pressione idraulica. Poi, svuotato il lago, le zone sovrastanti rifornivano di ghiaccio la valle,ripristinando la diga.

lunedì 8 febbraio 2010

Il 14 febbraio l'inaugurazione della linea 1 del Tram di Firenze: i problemi della mobilità a Firenze e dintorni

Il 14 febbraio sarà una data storica per il trasporto pubblico fiorentino: dopo anni di ritardi e polemiche inizierà finalmente il servizio sulla linea 1 della tramvia, quella da Scandicci alla Stazione di Santa Maria Novella per poco più di 7 kilometri e mezzo.
I progetti delle tramvie fiorentine sono stati osteggiati specialmente da automobilisti e commercianti che vivono sugli automobilisti, che accusano la tramvia di portare via spazio alle automobili e da politici che hanno cercato di cavalcare l'onda della protesta, mentre le amministrazioni comunali fiorentine si sono distinte per non saper comunicare niente di positivo sull'argomento.

In realtà il problema di Firenze è che è una città stretta fra le colline per 3 lati su 4, priva di prospettive per una viabilità decente: l'arteria princioale è rappresentata dai cosiddetti viali di circonvallazione, che però più che la città circonvallano il centro storico e quindi attraversano la città proprio nel mezzo.
A questo si aggiunge che è uno dei principali poli di attrazione italiani per lavoro, studio, sanità e turismo, per cui durante il giorno la città si riempie di un numero di persone molto alto rispetto ai suoi abitanti teorici. Il fiorentino poi, da buon italiano, usa l'automobile anche per andare al bar, figuriamoci per andare a lavorare... Con i comuni limitrofi la musica non cambia: per la maggior parte gli spostamenti da e per la città si svolgono tramite mezzo privato come la quasi totalità di quelli tra queste cittadine.

I mezzi pubblici, quasi privi di corsie a loro dedicate, sono coinvolti negli ingorghi e forniscono quindi un servizio poco attraente. La recente chiusura al traffico di ogni ordine e grado di piazza Duomo ha inoltre peggiorato ulteriormente il servizio da e per la zona orientale della città.
A questo si deve aggiungere la ormai cronica incapacità di dialogo fra l'amministrazione comunale di Firenze e quelle che lo circondano, attualmente arrivata a livelli drammaticamente alti.

E' chiaro ed evidente come continuare così sia impossibile. Pertanto una decina di anni fa fu ideato un sistema di 3 linee tramviarie che avrebbero consentito di alleggerire il traffico veicolare.
Ad oggi, pronta la prima, sono state eseguite solo alcune opere accessorie per le altre due. quindi i lavori sonoo ancora molto in alto mare e per di più i percorsi non sono ancora considerati definitivi, anche perchè il sindaco, per altri versi una persona giovane, brillante e capace, è molto attratto dalle sirene del “partito delle auto”

Tengo a sottolineare che abitando nella zona a sudest del comune e lavorando a nordovest io con la tramvia a regime come era stata ipotizzata in un quarto d'ora di viaggio avrei risolto tutti i miei problemi di spostamento lavorativo. Adesso o prendo la bicicletta (25 minuti) o l'autobus (preventivando un'ora) o l'automobile (e qui i tempi variano fra i 15 e i 50 minuti a seconda del giorno e dell'ora (che per me non sono fissi) e della situazione meteo). E, soprattutto, grazie all'abbonamento, avrei una voce costante nelle spese di trasporto ogni mese. Invece, nonostante la mia vocazione, sono costretto a prendere il bus il meno possibile.

La cosa peggiore è che questa prima linea sostanzialmente nasce male, è costata troppo e tutti questi anni non sono serviti per completarla nelle strutture accessorie.
Vediamo perchè:
1. il capolinea a Villa Costanza non consente interscambi con nulla, essendo totalmente sprovvisto di aree per parcheggiare. Il parcheggio dell'autostrada, che doveva permettere a chi viene da fuori Firenze di entrare in città comodamente senza l'auto, ancora non si vede.
2. E' vero che sono state usate le strade più larghe a disposizione, ma aver saltato l'ospedale di Torregalli grida vendetta.
3. Inoltre si poteva prolungare la linea almeno fino alla zona industriale di Badia a Settimo, lungo la via Pisana, vicino al casello di Firenze Scandicci, dove lo spazio per un bel parcheggio scambiatore e per un terminal bus c'era eccome.
4. I capolinea degli autobus extraurbani, attualmente situati intorno alla stazione di Santa Maria Novella, ora come ora verranno spostati a Porta a Prato. Un ibrido che risolve poco anche se farà respirare un po' la zona tra Porta a Prato e Santa Maria Novella.
5. i costi sono lievitati in maniera molto sostanziale

Quindi almeno per ora la linea non sarà sfruttata nelle sue potenzialità (e un tram ogni 3 minuti e mezzo nelle ore di punta sono quasi 3.500 passeggeri l'ora). D'altro canto la domanda di trasporto pubblico ci sarebbe eccome: basta vedere l'esempio della nuova fermata di Lastra a Signa dove da “ma chi ha voluto fare un parcheggio così grande???” siamo passati a “maledizione, se arrivi tardi non trovi più posto per lasciare la macchina!!!” e ormai da qualche raro treno che ci fermava siamo arrivati al punto che i Regionali ci si fermano tutti...

In sostanza, se si vuole risolvere una buona volta il problema della mobilità nell'area fiorentina, l'unica soluzione sarebbero non 3, ma almeno 6 o 7 linee tramviarie e un miglioramento della gestione dei treni metropolitani, che però finchè non verranno costruiti, sopra o sotto, altri due binari tra le stazioni di Rifredi e Campo di Marte, e costruita la nuova sede ferroviaria fino a Campi Bisenzio e raddoppiato, magari usando in parte questa ultima linea, il tratto tra Lastra a Signa e Firenze, resta solo una pia speranza

C'era poi il progetto di far arrivare la linea 2 del tram a Firenze Cascine, facendone una stazione – porta per tutti coloro che dalle direttrici di Empoli, Siena e Pisa arrivano a Firenze, ma per adesso non solo questa idea è andato nel dimenticatoio ma, particolare interessante, la linea tramviaroa passerà sotto la linea ferroviaria in un posto dove non sarà possibile un interscambio...

Quindi per avere un sostanziale miglioramento della mobilità nell'area fiorentina ancora dovremo aspettare diversi anni.
A meno che le amministrazioni locali preferiscano prendere il voto degli utenti del servizio pubblico e non di quelli che prendono l'automobile.

Scienzeedintorni al Carnevale della Fisica

Il post sulla Torre di Pisa ha avuto l'onore di essere ospitato nella terza edizione del “Carnevale della fisica”, ospitato nell'occasione da Gianluca Filippelli su "Science Backstage"

I “carnevali” sono delle iniziative molto interessanti: ospitati volta a volta su un blog diverso, segnalano in maniera organica contributi e novità che consentono, grazie alla blogosfera, il punto su un certo argomento,

Credo che tutto sia partito dall'Inghilterra con il “Carnival of Mathematics”.

Carnevale della Fisica e Carnevale della Matematica sono già appuntamenti fissi ed organici. Adesso, con altri blogger, tra i quali sempre il vulcanico Gianluigi Filippelli (il “motore” dell'iniziativa) e Annarita Ruberto stiamo organizzando il “carnevale della Terra” di cui sempre il buon Gianluca ha già personalmente curato due edizioni “non ufficiali”. Questo è il link alla seconda edizione, e questa è la prima, centrata sul clima anche se non direttamente sulla conferenza di Copenhagen.

Finita la fase di partenza dell'organizzazione del Carnevale della Terra, mi piacerebbe che ci fosse anche un Carnevale centrato sulle Scienze della vita (biologia, genetica, paleontologia, antropologia, evoluzione etc etc.) Sono un po' in ambasce per il titolo: quello più logico sarebbe “Carnevale della vita” in analogia con quello della Terra, ma il nome si presterebbe forse a interpretazioni e/o polemiche.

Se altri blogger vogliono collaborare al Carnevale della Terra me lo facciano sapere.

Un'ultima notizia: a gennaio scienzeedintorni ha guadagnato posizioni nella classifica wikio dei blog, classifica che si basa sui link al proprio blog fatti da altri blogger. Il punteggio viene assegnato a ogni link in base all'importanza in classifica del blog citante e diminuisce nel tempo.

La classifica dei blog scientifici è nata a dicembre (in ritardo rispetto ad altre categorie, spiace notarlo) ed ero in 15esima posizione. A gennaio sono salito addirittura nella “top ten”, in nona posizione. Sicuramente De Mattei e il Carnevale della Fisica hanno dato il loro contributo. 
Volevo farlo notare semplicemente per ringraziare tutti i linkatori per la stima nei miei confronti.

domenica 7 febbraio 2010

De Mattei risponde che mi risponderà

Dopo una settimana di silenzio, dovuta a impegni e a un problemino con il PC, riprendo a scrivere con una notizia interessante.

Prima di tutto devo ringrazio tutti gli amici, i blogger e i siti che, linkandole e rimbalzandole, hanno contributo alla diffusione delle 22 questioni per il Professor De Mattei, che di e-mail ne deve aver ricevute abbastanza.
Ce ne sono almeno 14 tra blog e siti vari e il bello è che se su alcuni sapevo di poter contare, essendo amici blogger, confesso che altri non li conoscevo, né a loro volta mi hanno avvisato. Non cito nessuno perchè non vorrei saltarne qualcuno (inorridirei all'errore),
Non posso che essere soddisfatto dell'accoglienza e dell'interesse da parte di blogosfera e mondo scientifico per la questione, anche perchè di e-mail al proposito De Mattei ne ha ricevute parecchie...
L'interesse lo noto anche per l'aumento “vertiginoso” dei miei “lettori fissi" e dei fan nella pagina di Facebook di Scienzeedintorni

La notizia è che il professor De Mattei ha accettato di rispondere alle questioni, ovviamente con l'aiuto dei suoi “esperti”.
Non riporto la sua E-mail, essendo un messaggio privato. Lo ringrazio comunque pubblicamente per la sua disponibilità.
Mi scuso anche con lui, visto che al suo messaggio di giovedì non ho ancora risposto (lo farò stamattina), ma chi mi conosce personalmente sa che per motivi di lavoro il venerdì e il sabato sono “out”.

Quanto al dibattito sul post delle 22 domande, devo dire che è stato piuttosto vivo e, anzi, ha avuto talvolta dei toni non proprio sereni. Avevo detto che avrei risposto oggi, ma probabilmente non ce la faccio, sia per miei impegni sia perchè vorrei parlare di altri argomenti trattati da Scienzeedintorni. In settimana comunque ci tornerò di sicuro.

Ringrazio tutti i partecipanti, nessuno escluso. Credo che internet sia davvero un luogo in cui possano avvenire delle ottime discussioni visto che non occorre essere fisicamente vicini per poter interagire, ma solo sensibili a voler parlare di una qualsiasi questione. E che quella sulle 22 domande ne sia stata un'ottima dimostrazione pratica.
Come ripeto qui non ho censurato (quasi) niente ma in questi giorni senza PC (e quando c'era nel macello più totale di cose da fare) ho dovuto svariate volte avvisare di tenere bassi i toni.
La discussione comunque continua....