ATTUALE CONFIGURAZIONE PLANETARIA DEL SISTEMA SOLARE


lunedì 31 agosto 2009

I PRIVILEGI DELLA CHIESA










domenica 30 agosto 2009

DEGRADO AMBIENTALE QUANDO SI EMARGINA O NEGA DIO

Benedetto XVI: “Degrado ambientale quando si emargina o nega Dio”

Oggi, dopo la preghiera dell’Angelus a Castel Gandolfo, Benedetto XVI si è appellato ai paesi ricchi affinchè cooperino per la tutela dell’ambiente e “non siano le popolazioni più povere a pagare il maggior prezzo dei mutamenti climatici”. Ha ricordato inoltre che domani martedì prossimo sarà la prima Giornata per la salvaguardia del creato, dedicata all’aria.
Il pontefice già ha trattato in maniera approfondita il tema durante l’udienza generale del 26 agosto a Castel Gandolfo, quando ha parlato della natura, “dono prezioso del Creatore”, che subisce però il degrado ambientale e climatico. “E’ proprio a partire da questa consapevolezza, che la Chiesa considera le questioni legate all’ambiente e alla sua salvaguardia intimamente connesse con il tema dello sviluppo umano integrale”, ha affermato il papa. Secondo Benedetto XVI, “non è forse vero che l’uso sconsiderato della creazione inizia laddove Dio è emarginato o addirittura se ne nega l’esistenza? Se viene meno il rapporto della creatura umana con il Creatore, la materia è ridotta a possesso egoistico, l’uomo ne diventa ‘l’ultima istanza’ e lo scopo dell’esistenza si riduce ad essere un’affannata corsa a possedere il più possibile”.
Il mondo naturale sarebbe “materia strutturata in modo intelligente da Dio” e affidata alla responsabilità dell’uomo, che “è in grado di interpretarlo e di rimodellarlo attivamente, senza considerarsene padrone assoluto”. Affinchè si instauri un rapporto equilibrato tra uomo e ambiente, è necessario secondo il pontefice il riconoscimento “che noi tutti proveniamo da Dio e verso Lui siamo tutti in cammino”.

Fonte:UAAR

IL PAPA E' DIVENTATO CAMPIONE MONDIALE NEL RACCONTARE SCIOCCHEZZE EPPURE GESU' CHE ERA PER I POVERI AVREBBE DATO LE SUE RICCHEZZE PER SFAMARE QUELLI CHE MUOIONO NELò TERZO MONDO ANZICHE IN MENU DI LUSSO.
SE IL VATICANO CON TUTTO QUELL'IMPERO DI RICCHEZZE NON CI FOSSE L'ITALIA SAREBBE MOLTO PROSPERA.

INDAGINE SU HAARP



Secondo storie che circolano su internet, le forze armate statunitensi sarebbero impegnate da anni in ricerche scientifiche per riuscire a modificare il clima a loro piacimento, provocando terremoti o alluvioni, e tutto questo tramite il progetto HAARP in Alaska.
HAARP significa High-Frequency Active Auroral Research Program ed è un programma di ricerca di fisica della ionosfera, condotto dall’Air Force Research Laboratory e dall’Office of Naval Research statunitensi.
Il progetto non è segreto ed esiste anche uno studio di impatto ambientale che è pubblicamente accessibile. Solo parte delle ricerche sono di interesse militare e quindi sono coperte da segreto, ma la maggior parte sono pubbliche e dimostrano cosa HAARP può o non può fare.
La struttura è talmente inaccessibile e top secret che un giornalista di Wired ha preso l'auto, ha seguito le indicazioni stradali ed è andato a visitarla!
Le foto e il racconto sono qui su Wired in inglese: http://www.wired.com/dangerroom/2009/08/haarp-2/
Ed alcune delle didascalie che hanno messo sul sito sono ridicolmente stupide (quella dell'MSDS come documento riservato o quella della "cupola ottica", nota anche agli esperti come "osservatorio").
Sia gli scienziati che i militari usano HAARP per studiare come queste perturbazioni della ionosfera influenzino le comunicazioni radio, e sopratutto i militari sono interessati a capire meglio come funziona la ionosfera e come questa può essere utilizzata per le trasmissioni radio a lunga distanza e con i sommergibili in emersione.
Sul progetto haarp, tuttavia, si sono creati mille complotti basati su affermazioni fantascientifiche ed impossibili, tra cui modificare il clima in un punto qualsiasi del pianeta; inviare dove si vuole onde elettromagnetiche in grado di causare malattie o di modificare il comportamento delle persone, creare un “buco nella ionosfera; creare una nube ionizzata distruttiva in grado di annientare missili nemici o di scendere nella bassa atmosfera, creare un impulso elettromagnetico in grado di mettere fuori uso apparecchiature elettroniche; creare terremoti; rivelare oggetti in tutto il pianeta o sottoterra ecc.
Queste affermazioni vanno contro le caratteristiche di HAARP, contro i principi della fisica e contri i principi dell'eletromagnetismo.
La potenza massima di HAARP fa si che pari almeno a 55 km quadrati e la potenza di 3,6 milioni di watt, anche se appare enorme, è in realtà diluita su un’area altrettanto enorme e gli effetti sulla ionosfera non possono essere grossi. Un decimo di watt per metro quadro non può sicuramente creare qualsiasi cosa apprezzabile.
Parte delle onde viene riflessa, ma la ionosfera è turbolenta e la riflessione non è per niente focalizzata.
Le onde riflesse al suolo sono diluite su un’area di decine di migliaia di km quadrati, con densità di potenza che si misurano in milionesimi di watt per metro quadro: questi segnali sono molto più deboli dei campi emessi dai comuni apparecchi elettrici che ci circondano e quindi non ha semplicemente senso fare tutte quelle ipotesi fantascientifiche.
Anche se penetrano nel suolo non abbiamo nessuno strumento abbastanza sensibile da rilevarne l’eco.
HAARP non può neppure funzionare come radar speciale perché il fascio riflesso dalla ionosfera è troppo sparpagliato per fornire immagini sufficientemente nitide.
Anche sfruttando la riflessione, è possibile dirigere il fascio a terra solo nelle regioni geografiche attorno all’impianto e le potenze del fascio saranno talmente piccole e disperse da non riuscire a disturbare neppure il più delicato degli apparecchi elettronici: HAARP non può in nessun caso essere utilizzato come arma ad impulsi elettromagnetici. .
Sulle voci relative alle connessioni HAARP-terremoti, qui siamo ancora più nell'assurdo. A parte il fatto che questo è fisicamente impossibile, vengono anche citate cose a vanvera: HAARP causerebbe terremoti modificando il campo magnetico terrestre ma questo non ha alcun senso visto che il campo geomagnetico è generato nel nucleo terrestre dove i segnali di HAARP non possono arrivare. Inoltre, la più piccola tempesta geomagnetica, provocata dal vento solare, ha energie che sono migliaia di volte quella di HAARP e questi fenomeni non hanno nessun effetto sui terremoti.
Sull’utilizzo del sistema HAARP per abbattere i missili nemici, ci vorrebbe una potenza almeno 100 mila volte maggiori di quella prodotta da HAARP. Il brevetto di Eastlund, riguardo all’impiego della ionosfera per abbattere missili e satelliti è solamente teorico nonché incompleto, in ogni caso incompatibile con la potenza producibile con HAARP. Anche teoricamente parlando, sarebbe necessario spiegare come si possa raccogliere ed utilizzare dell’energia che una volta riflessa a terra sarebbe dell’ordine dei microwatt per metro quadro.
L’idea che HAARP possa influenzare il clima è ancora più senza senso. La ionosfera non ha influenze apprezzabili sul clima perché non è accoppiata alla troposfera e quindi, anche se HAARP colpisse in modo significativo un’area di una decina di km sopra la sua testa, non riuscirebbe ad influenzare neanche il clima locale.
Perfino se teoricamente si puntasse il fascio obliquamente per colpire la regione più lontana possibile della ionosfera, la potenza sarebbe così debole e diluita che non potrebbe avere alcun effetto di alcun tipo, ed inoltre anche così sarebbe impossibile arrivare a più di qualche migliaio di km.
Di assurdità in assurdità arriviamo alla affermazione secondo cui il fascio rimbalzerebbe sulla ionosfera per arrivare nel punto prescelto della Terra.
Questa cosa può funzionare per un segnale radio ascoltabile con un ricevitore ad onde corte ma nulla centrano con qualsiasi onda compatta e focalizzata con potenze tali da produrre effetti letali. Infatti, le onde emesse da HAARP già dopo il primo rimbalzo sono così disperse da essere più deboli di quelle prodotte da qualsiasi emittente radio.
In sostanza, le caratteristiche di HAARP e le potenze emesse dimostrano inequivocabilmente che nessuna delle fantasie che circolano in merito sono anche solo lontanamente realizzabili. La maggior parte delle teorie non hanno proprio senso perché sono incompatibili con le basilari leggi della fisica, mentre le restanti richiederebbero potenze da migliaia a milioni di volte quella che HAARP è in grado di emettere.

Domenico Pasquariello.

Fonte:http://alieniemisteri.altervista.org/

CI TENGO A PRECISARE UNA COSA:
SU INTERNET GIRANO VOCI ALLARMISTICHE AL RIGUARDO CHE IL TERREMOTO SUCCESSO A SUMATRA NEL 26 DICEMBRE 2004,IL TERREMOTO IN CINA DELL'ANNO SCORSO E IL CICLONE IN MYANMAR E SIMILI SIANO STATI SCATENATI DA PROGETTI HAARP.
QUESTA E' PURA DISINFORMAZIONE COMPLOTTISTA CHE TENDE A INSEGNARE COSE SBAGLIATE.
DI SOLITO TALI PERSONE MOSTREANO FALSE PROVE FACILMENTE SPIEGABILI O QUANDO MOSTRI LORO LE PROVE CONTRARIE LORO DICONO "NO NO,TUTTO FALSO QUELLO CHE DICI" MA IO RISPONDEREI "DAMMI LE PROVE CHE DIMOSTRANO CHE CIO' CHE DICO E' FALSO".
ORA VORREI MOSTRARVI -PER QUELLI CHE ANCORA NON HANNO LETTO- LE VERE CAUSE DEL TERREMOTO A SUMATRA http://expianetadidio.blogspot.com/2009/07/tsunami-e-il-diluvio.html.
E PER CONCLUDERE LE CAUSE DEL TERREMOTO IN CINA,DEL CICLONE IN MYANMAR,E ALTRO http://expianetadidio.blogspot.com/2009/06/questo-gigantesco-brillamento-e-stato.html.
DETTO CIO' CI TENGO A FARVI NOTARE CHE UNA VOLTA VOLLI MOSTRARE LE PROVE SU UNO CHE SU YOU TUBE AFFERMAVA CHE LE CAUSE FOSSERO DEL PROGETTO HAARP.
LUI TUTTAVIA DISSE CHE ERANO SCIOCCHEZZE E NON SI PRESE NEMMENO LA BRIGA DI LEGGERE.
POI,PERCHE' NON GLI PROVASSI IL CONTRARIO DI CIO' CHE CREDEVA-O VOLEVA LUI FAR CREDERE-MI CENSURO' IN MODO CHE NON POTESSI LASCIARE COMMENTI SUL SUO VIDEO CHE GLI ALTRI POTESSERO LEGGERE E CAPIRE.
QUESTA LA CHIAMO INCAPACITA' DI SOSTENERE UN CONFRONTO.
ALEX

sabato 29 agosto 2009

I DANNI DELLA RELIGIONE NELLA SOCIETA' V

(1)La Conferenza Episcopale Americana da tempo appoggiava l’ipotesi di riformare la sanità americana, invocando un sistema che avesse più attenzione verso i poveri. Ora però tra i vescovi statunitensi cresce sempre più il malumore per il testo proposto dal presidente Barack Obama.
Al centro delle critiche è ancora una volta l’aborto, e la possibilità che la nuova legge favorisca in qualche modo le interruzioni di gravidanza prevedendone la copertura assicurativa.Nelle ultime due settimane i dubbi si sono fatti sempre più pressanti tanto che qualcuno preferirebbe addirittura fermare l’intero processo di riforma. Tra questi, secondo il New York Times, anche il cardinale Justin Rigali, uno dei leader della Conferenza Episcopale.
“Non fare la riforma è meglio che farne una fatta male”, ha detto invece il vescovo di Sioux City, in Iowa, R. Walker Nickless. Obama ha più volte ribadito che nel piano non è prevista alcuna copertura pubblica per l’aborto, ma nei prossimi giorni articoli di protesta saranno comunque diffusi in molte chiese americane. Uno scontro che va avanti sin dalla campagna elettorale, quando Obama si definì favorevole all’aborto scatenando le critiche dei vertici della curia americana.
A provocare i dubbi è la possibilità, lasciata al segretario alla Salute e prevista nel testo all’esame della Camera, che i fondi di un’ipotetica compagnia assicurativa pubblica possano servire a pagare le spese per l’interruzione di gravidanza (legale negli Stati uniti per legge federale). Anche se l’assicurazione pubblica prevedesse la copertura, i soldi per rimborsare le spese sanitarie dovrebbero comunque per legge provenire dai premi pagati dai clienti e non dai fondi pubblici, in modo che il denaro dei contribuenti non sia utilizzato per incentivare le pratiche abortive. E’ il sistema adottato anche in molti Stati dove l’attuale sistema pubblico destinato solo agli indigenti, il Medicaid, copre le spese dell’aborto.
I vescovi però definiscono fittizia e “illusoria” la divisione nei fondi, sostenendo che di fatto lo Stato garantirebbe quel tipo di copertura sanitaria. “Non si tratta di uno dei problemi qualunque di cui si occupa la Chiesa”, ha scritto recentemente Willam Murphy, uno dei vescovi dello Stato di New York, “la sanità è un argomento fondamentale per la dignità della vita umana”. La polemica ha però dato voce anche a chi, all’interno della comunità cattolica, si oppone alla riforma per motivi diversi. “La Chiesa cattolica non insegna che il governo debba fornire direttamente l’assistenza sanitaria”, ha detto Nickless aggiungendo che “ogni legge che diminuisce la vitalità del settore privato è sospetta”.


(2)

La storia di Javon Thompson, bimbo di appena 12 mesi, è una di quelle in cui la parola “incredibile” non è sufficiente per descrivere le circostanze che lo hanno portato alla morte. E non è sufficiente nemmeno per descrivere il procedimento giudiziario.


Javon Thompson
Tutto ha inizio con l’ingresso di Ria Ramkissoon, 20enne all’epoca dei fatti, madre del bambino, nel culto “1 Mind Ministries” subito dopo la nascita di Javon. Secondo i documenti della corte, il culto è guidato da una donna che si fa chiamare Queen Antoinette, ed ha sede nel distretto ovest di Baltimora in una villetta a schiera.
Tutto ha inizio con l’ingresso di Ria Ramkissoon, 20enne all’epoca dei fatti, madre del bambino, nel culto “1 Mind Ministries” subito dopo la nascita di Javon. Secondo i documenti della corte, il culto è guidato da una donna che si fa chiamare Queen Antoinette, ed ha sede nel distretto ovest di Baltimora in una villetta a schiera.
Nel Dicembre 2006 Queen Antoinette avrebbe dato istruzioni a Ria e altri membri di privare il piccolo Javon di cibo e acqua. Il bambino, i cui resti sono stati ritrovati in una valigia, è stato lasciato morire di fame dai membri del culto – compresa sua madre – perché rifiutava di dire «amen» dopo i pasti. Lo consideravano un “demone”.
Nessuno di loro ha cercato aiuto medico quando Javon ha smesso di respirare. Finirà per morire tra le braccia di sua madre.



Ria Ramkissoon

Non soddisfatta per l’operato, Queen Antoinette ha lasciato il corpo esanime in una stanza per più di una settimana, sostenendo che «Dio lo avrebbe resuscitato dai morti». In seguito, ha bruciato i vestiti del bambino e un materasso e ha messo il corpo del bambino in una valigia verde, che apriva periodicamente per spruzzare del disinfettante nel tentativo di coprire l’odore.


Queen Antoinette

All’inizio del 2007 i membri del gruppo hanno abbandonato Baltimora per trasferirsi a Filadelfia, dove lasceranno la valigia verde e altri bagagli nel capannone di un uomo che avevano conosciuto durante la loro permanenza. La valigia verrà ritrovata nel 2008 dalla polizia grazie a una soffiata.
Tutti verranno inizialmente incriminati per omicidio di primo grado e la madre finirà in un reparto psichiatrico del Baltimore Central Booking and Intake Center. Nel Marzo del 2009, Ria Ramkissoon, ormai 22enne, decide di dichiararsi colpevole stringendo un patto che non ha precedenti nella giurisprudenza americana: coopererà nell’accusa degli altri imputati nel processo per la morte di suo figlio a condizione che le accuse contro di lei siano stralciate nel caso in cui il bambino resuscitasse dai morti.
«E’ inoltre specificato – ha detto il Giudice Timothy Doory durante descrizione del patto con la madre del ragazzo – che se la vittima di questo caso, Javon Thompson, sarà resuscitato, come voi ancora sperate, potrete stralciare la dichiarazione di colpevolezza e anche le accuse contro di voi saranno stralciate».
Il portavoce dell’ufficio legale dello stato del Baltimora, Margaret Burns, ha affermato che la donna non potrà esimersi dai suoi obblighi se tenterà di sostenere la reincarnazione del figlio in altre forme. «Dovrà essere una resurrezione come quella di Gesù, non una reincarnazione in un oggetto o un animale».
I magistrati hanno garantito che se la donna testimonierà con onestà contro gli altri imputati, secondo l’accordo raggiunto, sarà rilasciata, messa in libertà vigilata e verrà posta in terapia, che potrebbe includere un “processo di deprogrammazione”.
Lo scorso 11 Agosto gli avvocati di Ria Ramkissoon hanno reso noto che la loro cliente verrà rilasciata dal carcere di Baltimora e affidata ad un programma di aiuto, senza cancelli o guardie, in una fattoria situata in una zona rurale nel Nord-Est del Maryland. Il luogo è stato scelto da un magistrato che si occupa di pene alternative.
«Non è un istituto di correzione. E’ un posto in cui potrà riacclimatarsi. Sarà parte di una comunità e avrà un lavoro e delle responsabilità,» ha detto l’avvocato di Ria, Steven D. Silverman. «E’ molto emozionata per l’opportunità di fare qualcosa di positivo».
Il processo agli altri membri del culto – Queen Antoinette, 41 anni; Trevia Williams, 21 anni; Marcus A. Cobbs, 22 anni; Steven L. Bynum, 43 anni - inizierà ad Ottobre. Antoinette e Williams non hanno indicato avvocati e rappresenteranno loro stessi in aula.

(3)
Pastore fondamentalista contro presidente Usa: “Morte e inferno per Obama”
Un giovane pastore della Faithful Word Baptist Church di Tempe (Arizona), Steven Anderson, si è scagliato il 16 agosto durante un sermone contro Barack Obama. Nel sermone, ultimo di una serie contro il presidente statunitense, il pastore spiega, con tanto di riferimenti biblici perchè “Dio odia Barack Obama” ed afferma, tra svariate minacce e affermazioni di intollenza, di pregare affinchè Obama (definito “un diavolo socialista, assassino, infanticida”) “muoia e vada all’inferno”. Il pastore aggiunge cose di questo genere: “Mi piacerebbe vedere Barack Obama sciogliersi come una lumaca questa sera”, rifendosi alla pratica di spargere sale sulle lumache. Secondo la CNN il contenuto del sermone è stato ritenuto così preoccupante da spingere i servizi segreti a recarsi presso il pastore.
I sermoni del pastore Anderson non sono rimasti senza conseguenze: recentemente infatti un altro residente di Tempe, Chris Broughton, si è presentato nelle vicinanze dell’area dove Barack Obama stava tenendo un comizio, la settimana scorsa a Phoenix, con un’arma da fuoco bene in vista. Interrogato dalle forze dell’ordine, ha affermato che detenere un’arma era un suo diritto. Ma, cosa non molto divulgata dai media, il giovane ha affermato di aver ascoltato proprio il sermone anti-Obama del pastore Anderson.

(4)Viaggi aerei papali con menù di extra lusso: chi paga il conto?
Cecilia Maria Calamani


In molti ricorderanno il viaggio di Benedetto XVI in Camerun e Angola dello scorso 17 marzo. In quell’occasione, infatti, il Papa dichiarò che l’epidemia di Aids che affligge i popoli africani “non si può superare con la distribuzione dei preservativi che, anzi, aumentano i problemi“. Una vera e propria condanna a morte per quei popoli, visto che il preservativo è l’unico e il più efficace mezzo di prevenzione dell’Aids ad oggi conosciuto.
Dichiarò anche con adeguata enfasi che la Chiesa cattolica non può “rimanere in silenzio” di fronte “al dolore o alla violenza, alla povertà o alla fame, alla corruzione o all’abuso di potere“ che affliggono il continente africano. E proprio in relazione alla povertà e alla fame, non ha mancato in quell’occasione di dare il buon esempio.
Infatti, ad accompagnare il Papa nel suo “viaggio apostolico” fu un aereo dell’Alitalia, che offrì a lui e al suo entourage pasti degni di un ristorante di extra lusso. Riportiamo qualche esempio scelto tra le 11 portate - ad esclusione di caffè, praline e raffinata selezione di tisane digestive - di ogni menù: “Agnolotti di grano saraceno farciti con caprino e menta in salsa ragù di agnello e rosmarino”; “Carpaccio di manzo della Val del Sarca con misticanza di campo e bagosse bresciano; “Filetto di orata al forno con vellutata al prosecco e pomodori canditi”; “Rombo glassato all’arancia amara e capperi di Lampedusa”. Il tutto accompagnato da una selezione di nove vini d’eccezione.
I menù, di cui il circolo UAAR di Roma può mostrare l’originale, sono intitolati al “Viaggio apostolico di S.S. Benedetto XVI in Africa” e riportano insieme il marchio Alitalia e lo stemma personale di Benedetto XVI.
Ma chi ha pagato il conto?
La Cai - il consorzio privato che ha rilevato l’Alitalia - è libera di offrire sontuosi viaggi al monarca di uno Stato estero, ma ricordiamo che nel passaggio della proprietà da Alitalia a Cai migliaia di lavoratori hanno perso il posto di lavoro. Inoltre, i contribuenti italiani – cattolici, diversa-mente credenti, atei o agnostici - continuano a pagare con le loro tasse una vendita che è costata allo Stato italiano diversi miliardi di euro.
Per contro, qualora il viaggio lo avesse pagato la Chiesa, i cittadini italiani avrebbero il diritto di sapere come viene utilizzato l’ingente gettito dell’8×1000 della dichiarazione dei redditi che proviene, a causa dei meccanismi di redistribuzione delle scelte non espresse, sia dalle tasche dei cattolici che da quelle dei non credenti.
Gli atei e gli agnostici romani chiedono ufficialmente alla Cai: chi ha pagato le spese del “viaggio apostolico” del 17 marzo 2009 che ha portato il Papa in Africa a predicare contro le raccomandazioni della comunità scientifica mondiale in materia di prevenzione dell’Aids, esponendo così intere popolazioni a rischio di vita?




Fonte:
1:http://abateoimpertinente.wordpress.com/
2:http://abateoimpertinente.wordpress.com/
3:UAAR
4:http://www.resistenzalaica.it/index.php?option=com_content&task=view&id=1681&Itemid=99999999

venerdì 28 agosto 2009

I GOVERNI ITALIANI DURANO POCO SE SI SCONTRANO CON LA CHIESA

L’Economist: i governi italiani durano poco, se si scontrano con la Chiesa

Un articolo pubblicato sul numero odierno del giornale inglese Economist, dedicato al problema dell’immigrazione, formula anche caute previsioni sulla tenuta del governo Berlusconi. Partendo dall’assunto, basato su evidenze storiche, che un governo italiano non può avere una vita lunga, se si scontra con le gerarchie ecclesiastiche, l’Economist lascia intravedere una più o meno imminente fine del governo Berlusconi, sia per ragioni legate al caso-escort, sia per la politica seguita per l’appunto in tema di immigrazione. Per il settimanale inglese, le critiche rivolte a Berlusconi sarebbero state eccessive e mal indirizzate

Fonte:UAAR

QUESTA LA CONSIDERO L'ENNESIMA PROVA DELLA NOCIVA INFLUENZA DELLA CHIESA NELLA POLITICA ITALIANA.

IL RISCALDAMENTO GLOBALE CHE NON C'E' MAI STATO

(1) Il 2008 sarà ricordato come l'anno in cui la teoria del Riscaldamento Globale di origine antrapica è stata smentita. Proprio quando i politici in Europa e in America stavano per adottare le più costose misure contro questa presunta minaccia, le temperature sono andate giù in modo del tutto imprevisto dai modelli computeristici dell'IPCC. Nell'inverno 2008 - 2009 e' caduta una quantità di neve che non si era vista per decenni. Tutto il Canada e metà degli Stati Uniti e l'Europa sono sotto la neve. Dopo diversi anni le temperature globali sono scese bruscamente e in modo sufficiente da annullare gran parte del loro aumento durante il 20 ° secolo.



Introduzione
Negli ultimi anni siamo stati bombardati da notizie che hanno provocato paure e ansie, si è affermato che la Terra si sta riscaldando e che ciò avrà, anzi sta avendo, conseguenze catastrofiche come l’innalzamento di diversi metri del livello del mare, l’intensificarsi della desertificazione e alluvioni bibliche. Ogni uragano nei tropici, e paradossalmente non solo le estati torride e aride ma anche quelle piovose e fredde, sono state addebitate al "riscaldamento globale", il riscaldamento della Terra dovuto all’aumento della percentuale di CO2 nell’atmosfera causato dalle attività industriali, cosi almeno affermano gli esperti dell’IPCC (Intergovernmental Panel on Climate Change) Nota 1.
A questo proposito c’è da dire subito che se il riscaldamento dovesse realmente avvenire, non avverrà mai nei modi catastrofici previsti nei rapporti dell’IPCC; senza periodi intermedi di raffreddamento o di glaciazione. I cambiamenti climatici avvengono su una scala dei tempi "geologica" (vale a dire periodi di migliaia o milioni di anni), le misure effettuate su periodi di tempo relativamente brevi, due, cinque o dieci anni, non dicono nulla, vanno considerati come "una fluttuazione naturale".
Per confutare il catastrofismo associato alle teorie sul riscaldamento globale basta comunque qualche semplice considerazione di termodinamica. L’atmosfera è la serra naturale della Terra. Se questa copertura non esistesse, le temperature durante il giorno arriverebbero a 98 °C e nella notte scenderebbero a meno -172 °C. La temperatura media sarebbe -25 C. La temperatura media della Terra è invece di 15 °C, si stima quindi che l'effetto serra dovuto all'atmosfera è equivalente all’aumento della temperatura di 34 C. Il noto ricercatore Sherwood Idso del servizio investigativo del Dipartimento dell’ Agricoltura degli Stati Uniti e Professore del Dipartimento di Botanica e Geografia presso l'Università dell’Arizona ha una teoria molto ragionevole su questi 34 °C di aumento della temperatura della Terra causata dell’atmosfera. Il Prof. Idso ha indagato la capacità "emissiva" dell'atmosfera o che è lo stesso la sua capacita di “assorbire” energia. Questa capacità è altissima, molto vicina a quella di un “corpo nero”, come viene chiamato in fisica un “assorbitore” totale. La Terra assorbe il 90% dell’energia ricevuta dal Sole. Questo è l’effetto serra dell’atmosfera, attraverso questo fenomeno la Terra è capace di aumentare la sua temperatura globale di 34 C. Il 10% dell’energia che non è assorbita, dice il Prof. Idso, se fosse assorbita, potrebbe produrre non più del 10% di aumento di temperatura, ovvero 3,4 ° C. Gli studi di Idso portano a calcolare che un raddoppio delle emissioni di CO2 nell’atmosfera potrebbe portare all’aumento di temperatura di non più 0,34 °C. Nota 2
Malgrado il buonsenso scientifico inducesse alla prudenza i rapporti dell’IPCC e di altre agenzie collegate, amplificati a dismisura dai media, hanno creato allarme e paura.


Il clima fatto al computer
C’è da fare subito una critica agli studi sull’andamento del clima. Gli studi presentati nei rapporti dell'IPCC sono effettuati con computer che eseguono 18 programmi basati sui General Circulation Models, MCG o GCMs, ogni volta che questi programmi vengo fatti funzionare producono risultati diversi, nei rapporti dell'IPCC si prende allora la media dei risultati ottenuti, e infine la media delle medie dei 18 programmi. I programmi computeristici comunque rimangono sempre "modelli" della realtà, si avvicinano molto grossolanamente alla moltitudine dei processi fisici, chimici e biologici che si verificano nell’atmosfera, nei mari e nella massa biologica sulla superficie della Terra. I processi che avvengono nell'atmosfera, come in quelli di tutti i fluidi, vengono descritti da equazioni differenziali non lineari che difficilmente possono essere simulate da programmi informatici..
I rapporti dell'IPCC sono le fonti principali sul clima usate dai governi di tutto il mondo. Il problema è che i rapporti sono pubblicati in due versioni distinte: Per fare un esempio nel 2007 la prima versione la Summary for Policymakers (SPM) fu pubblicata nell'aprile 2007. Il rapporto tecnico The Physical Science Basis, prodotto dal gruppo di lavoro 1 fu poi pubblicato nel novembre 2007. Questo secondo rapporto, che pochi hanno letto, in particolare politici e esponenti governativi, è importante perché contiene anche delle osservazioni critiche sui modelli al computer utilizzati ber elaborare l'andamento del clima e fare previsioni. Tim Palmer, uno dei principali specialisti di questi modelli dell'European Centre for Medium - Range Weather Forecasts ha detto, a proposito del rapporto del 2007, "Non voglio screditare l’IPCC, ma le previsioni, specialmente per i cambiamenti climatici regionali sono estremamente incerte”. Nello stesso Fourth Assessment Report (AR4) dell’IPCC del 2007 si riconosce che “le limitazioni computeristiche restringono la risoluzione a quello che è possibile fare con le equazioni “discrete”, utilizzabili al computer, sarebbe richiesta invece una migliore rappresentazione per quei fenomeni che avvengono su larga scala che non è possibile rappresentare al computer (AR4 Chapter 8. p.596). Nello stesso rapporto si sollevano dubbi sulla rappresentazione del clima nelle zone artiche (AR4 Chapter 8. p.596). La maggior parte delle informazioni sulle zone artiche vengono dall'Arctic Climate Impact Assessment (ACIA)



Nei rapporti dell'ACIA c’è una vasta area grigia con su scritto “No Data” che copre la maggior parte del bacino dell’Artico per circa 14,250,000 km.q
Anche nell’emisfero meridionale l’IPCC identifica un simile problema su una vasta area di superficie dell’Antartico: "Distorsioni sistematiche sono state verificate nella maggior parte dei modelli di simulazione del clima nell'Oceano Meridionale. Poiché l’Oceano Meridionale è un importante assorbitore di calore, i risultati dei programmi al computer mostrano notevoli incertezze nelle risposte” (AR4. Chapter 8. p.591.)
I modelli creati per simulare il funzionamento dell’atmosfera sono di tipo di tridimensionale, modelli MCG. Questi programmi dividono il pianeta in due emisferi. Poi dividono ulteriormente la superficie in una rete con maglie di 450 km quadrati. Ciascuna di queste maglie è da considerarsi poi come una colonna di aria alta 50 km dove avvengono migliaia di reazioni chimiche e altri processi fisici. Ciascuno di questi fenomeni è rappresentato da un’equazione che contiene costanti e variabili.
In pratica i climatologi dell’IPCC, immettendo di valori casuali, poi li modificano in base ai risultati.
Se i risultati non confermano l'ipotesi del riscaldamento globale, semplicemente cambiano i valori delle variabili fino a ottenere i risultati che confermano tale ipotesi.
Forti critiche sono state rivolte all'uso di questi programmi da noti scienziati. E' stato criticato che la radiazione solare viene introdotta come un valore fisso, corrispondente ad un'estate o un inverno, cosa molto discutibile. E' stato poi criticato il fatto che nessuno dei modelli utilizzati prende in debita considerazione gli oceani, la corrente di El Nino e de La Nina. Gli oceani coprono il 73% della superficie del pianeta e non è un caso che i più critici verso le teorie dell’IPCC siano proprio gli esperti di oceanografia.

Vedi a questo proposito il Saggio di Robert E Stevenson, oceanografo che ha lavoarato alla stazione di Del Mar (California) della NASA. Dal 1987 al 1995 Stevenson è stato Segretario Generale dell’Associazione Internazionale di Oceanografia "IPCC un clima di paura"(FONDO PAGINA)


La scarsità dei dati in superficie, di cui abbiamo parlato, diventa drammatica se aggiungiamo la mancanza di dati su quello che avviene sui 50 Km al di sopra della superficie. La questione è stata apertamente riconosciuta nel Third Assessment Report (TAR) dell'IPCC: "Nelle ricerche sui modelli matematici e computeristici del clima dobbiamo riconoscere che stiamo trattando con un sistema caotico tipicamente non lineare e che quindi le previsioni a lungo termine del clima non sono attendibili". (TAR, p.774.)
E' interessante notare che tutti gli studi dell'IPCC si riferiscono all'aumento del riscaldamento globale causato dall'uomo proprio per la definizione di "cambiamento climatico" assunta dall'IPCC. Tale definizione è espressa nell'articolo 1° dell'United Nations Framework Convention on Climate Change (UNFCCC): "cambiamento climatico è quello che può essere direttamente o indirettamente attribuito all'attività umana, che altera la composizione dell'atmosfera terrestre e che in aggiunta alla variabilità naturale del clima produce cambiamenti osservabili per un lungo periodo di tempo".
In pratica l'impatto delle attività umane sul clima è il primo scopo delle ricerche dell'IPCC, altre cause possibili dei cambiamenti climatici non vengono ne considerate ne ricercate.
Il Prof. Roy Spencer denunciò questo fatto nella sua testimonianza di fronte alla Commissione EPW del Senato USA: "Dato che fin ora non è stata possibile fare alcuna ricerca sul clima senza partire dall'idea del riscaldamento globale causato dalle attività umane, sarebbe ora, per l'integrità e l'obbiettività della scienza, che si ricercasse anche sulle cause non umane del riscaldamento o del raffreddamento del clima"
Malgrado l'IPCC stessa riconoscesse come poco attendibili gli studi sul clima fatti con i modelli computeristici, il Dott. James E. Hansen, capo della NASA Goddard Institute for Space Studies quando parlò la prima volta al Congresso USA nel 1980 affermando che il riscaldamento globale causato dall'uomo era gia avviato, si basò esclusivamente sulla realtà virtuale di tali modelli. Si dice poi che Bert Bolin, allora capo dell’ IPCC, abbia fatto salti di gioia il giorno in cui apparve, sull’edizione della rivista Nature, l'articolo di Mann, Bradley e Hughes sulla ricostruzione delle temperature dello scorso millennio (Figura 1), sostenendo che le temperature del 20 ° secolo erano state le più alte negli ultimi mille anni, e che parallelamente i livelli di biossido di carbonio nell’atmosfera erano aumentati dall'inizio del periodo della rivoluzione industriale (Mann, M.E., R.S. Bradley, and M.K. Hughes, Global-scale temperature patterns and climate forcing over the past six centuries, Nature, 392, 779-787, 1998.)

Aumento della temperatura e del livello di CO2: il grafico rimaneggiato di Mann, Bradley e Hughes.
L'articolo da Mann, riportava un grafico che mostra la "curva" delle temperature, dall’anno 1000, la curva scende lentamente fino al 1860 circa, poi ha una brusca impennata fino a tutto il 20esismo secolo, assumendo la celebre forma di una “mazza da hockey”, nel grafico che segue la curva delle temperature è in rosso, quella della percentuale di CO2 è in azzurro.

Figura 1 Il celebre grafico a "mazza da hockey" di Mann, Bradley e Hughes rimaneggiato per far coincidere l'aumento delle temperature con quello della CO2

Figura 2 Ricostruzione del grafico delle temperature(http://fusione.altervista.org/mcintyre.mckitrick.2003.pdf) fatta da McIntyre e McKitrick utilizzando gli stessi dati fisici a disposizione di Mann, Bradley, e Hughes

Secondo la teoria di Mann, il basso livello di CO2 prima dell’inizio delle attività industriali umane e il brusco aumento successivo, coincidendo con l’andamento delle temperature del pianeta, dimostra che il riscaldamento globale in atto è dovuto allo sviluppo industriale delle attività umane. Questo grafico è diventato la prova cruciale della teoria del riscaldamento globale, la prova empirica che l'industria e l’agricoltura moderna sta “distruggendo il pianeta” Per "ricostruire" le temperature del passato, Mann utilizzò i dati ricavati dallo spessore degli anelli dei tronchi d’albero, dalla crescita dei coralli e altri indicatori. Utilizzò quindi i dati sui campioni di ghiaccio estratti nei ghiacciai in Groenlandia, in Antartide, in Europa e sull'Himalaya per determinare la percentuale della CO2 nell'atmosfera delle epoche passate. Tale concentrazione fu determinata dalle percentuali del biossido di carbonio presente nelle piccole bolle d'aria intrappolate nel ghiaccio rimasto nelle profondità dei ghiacciai per centinaia e migliaia di anni.
Sono queste misure corrette?
Sulla base di questo studio nel 1998 l'IPCC affermò che vi era una forte influenza dell’uomo sul clima. Il lavoro di molti scienziati, che avevano contribuito, con relazioni discordanti con questa impostazione, alla relazione tecnica finale dell’ IPCC, fu totalmente ignorato. Tra i dissidenti più influenti vi era il Dr Richard Lindzen, capo di uno dei gruppi che lavoravano per l'IPCC, celebre climatologo e membro della Accademia delle Scienze degli Stati Uniti. Alle sue critiche si unirono scienziati del valore di Fred Singer, Tim Patterson, Sherwood Idso, Fred Hoyle, Vincent Gray, e molti altri. 640 di questi scienziati hanno pubblicamente dichiarato il loro disaccordo con lo studio presentato dall'IPCC nel 1998, ritenendolo viziato e metodologicamente sbagliato. Fu da loro inviato un memorandum al Senato degli Stati Uniti.
Uno dei principali antagonisti dello studio di Mann, Bradley e Hughes è stato l'ingegnere John Daly che dal suo sito internet ( http://www.john-daly.com ) "Still Waiting for Greenhouse" (Siamo ancora in attesa dell’effetto Serra), ha smascherato diverse false informazioni sul clima. John Daly è morto di attacco cardiaco nel 2004, ma il suo sito Web ha ancora una enorme quantità di informazioni sul clima e sulle manipolazioni fatte per sostenere la teoria del Riscaldamento Globale antropico. In un suo studio pubblicato anche dalla rivista inglese Energia e Ambiente, la famigerata "mazza da hockey” di Mann, Bradley e Hughes del 1998 (Figura1), è stata completamente screditata. La curva delle temperature degli ultimi 1000 anni fu infatti ricostruita utilizzando le stesse fonti, e anche la stessa metodologia utilizzata da Mann ottenendo una curva che non mostra alcun "riscaldamento globale". Anche gli scienziati del clima McIntyre e McKitrick hanno contestato il grafico a mazza da Hockey di Mann, Bradley e Hughes. Anche loro, utilizzando gli stessi dati di Mann, hanno fatto una ricostruzione delle temperature. Tale ricostruzione, che è riportata nel grafico di Figura 2, mostra che le temperature più calde sulla Terra ci sono state ben prima della fine del 20simo secolo, una conclusione sostenuta da numerosi altri studi scientifici.
Sembra proprio che attraverso una combinazione di errori di tabulazione, troncamenti arbitrari della serie di dati, e "salti ", pure arbitrari, gli autori del grafico a mazza da Hockey della Figura 1 hanno creato una falsa immagine del clima del passato, che è stata poi abbracciata immediatamente e in modo acritico dall’IPCC e quindi tale grafico è diventato il pezzo forte delle politiche ambientali delle Nazioni Unite .
Lo studio di McIntyre e McKitrick è disponibile liberamente sul sitoWeb : http://www.climateaudit.org/pdf/mcintyre.mckitrick.2003.pdf
E 'ormai chiaro che la storia climatica dell' emisfero Nord del pianeta nel suo insieme non ha alcuna somiglianza con quella mostrata dal grafico a mazza da Hokey di Mann, Bradley e Hughes. E' inconcepibile, per esempio, che i grandi eventi climatici del passato millennio, il Periodo Caldo Medievale e la Little Ice Age, che sono stati rilevati in diversi modi e varietà di luoghi, siano stati ignorati completamente da questo studio.

Considerazioni preliminari sul ruolo della CO2 nel determinare l'effetto serra e quindi il riscaldamento del pianeta
Prima di tutto occorre dire che la CO2 nell’atmosfera svolge un piccolo ruolo nell’effetto serra, essendo il ruolo essenziale svolto dalle acque, sia in forma visibile, piccoli cristalli di ghiaccio sospesi tra le nuvole, o con l’invisibile vapore acqueo. Prova di questo, e' che l'effetto serra è maggiore nelle regioni umide e più basso nelle zone aride, mentre la percentuale di CO2 è la stessa 0,03%. In un giorno (24 ore) senza nuvole in una zona equatoriale e parallelamente in una zona desertica la temperatura massima giornaliera (all'ombra) va da 35 a 36 ° C (nello Zaire per esempio) e da 50°C a 55°C (nel Sahara). La temperatura minima di notte va da 28° C a 30° C nel tropici (umidi) e da 0°C a 5 °C a Tibesti. Vi è una differenza di 6 gradi (tra minimo e massimo), dove c'è una umidità dal 95% al 100% e una differenza di 50°C dove l'umidità non supera il 15% o il 20%. Ora la concentrazione di CO2 è la stessa nella giungla, e nel deserto; il biossido di carbonio contribuisce in maniera minima all'effetto serra, l'umidità dall'atmosfera è di gran lunga il fattore più importante. E' sbagliato quindi sostenere che l'aumento di CO2 nell'atmosfera aumenterà la temperatura di uno o più gradi, inoltre le analisi delle cause dell'effetto serra sono inadeguate, perché dimenticano che un eventuale aumento della temperatura avrebbe aumentato sia l'evaporazione dell’acqua dalla superficie della Terra - soprattutto dagli oceani – e sia la traspirazione delle piante. Ciò avrebbe aumentato la nuvolosità che avrebbe abbassato la temperatura durante il giorno e aumentato durante la notte. Tutto ciò implica una significativa auto-regolazione della temperatura

E' l'aumento o la diminuzione della temperatura dell'atmosfera che determina
l'aumento o la diminuzione della concentrazione di CO2 e non il contrario
Il professor Ian Clark, noto paleontologo del clima artico, e altri hanno dimostrato che i dati provenienti dalle carote di ghiaccio geologico della stazione meteorologica russa di Rostok mostrano che quando la temperatura aumenta o diminuisce durante i secoli, poche centinaia di anni più tardi, circa 800 anni, segue parallelamente un aumento o una diminuzione della percentuale di CO2 nell'atmosfera. Non è quindi la percentuale di CO2 nell'atmosfera che determina la temperatura, ma il contrario è la variazione di temperatura che determina la variazione della percentuale di CO2.
Come avviene questo fenomeno? Attraverso l'interscambio tra la CO2 sciolta negli oceani e la CO2 nell'atmosfera.
Gli oceani immettono nell'atmosfera circa 80 Giga Tonnellate di CO2 ogni anno, gli esseri umani ne immettono solo 7 Giga Tonnellate ogni anno. Gli oceani e l'atmosfera si scambiano continuamente CO2. Se gli oceani si scaldano cedono più CO2 all'atmosfera se si raffreddano ne cedono molto meno. Come mai questa differenza temporale tra l'aumento di temperatura dell'atmosfera e l'aumento della percentuale di CO2 nell'atmosfera. La risposta è che i gli oceani hanno una massa enorme e impiegano quindi diverse centinaia di anni per aumentare la temperatura se aumenta la temperatura dell'atmosfera sovrastante.
Come vedremo è in realtà il sole con la sua maggiore o minore attività a determinare un aumento o una diminuzione della temperatura nell'atmosfera, la variazione della percentuale di CO2 nell'atmosfera è poi una conseguenza di questo cambiamento.
Negli anni '80 Piers Corbyn consulente e poi proprietario della Weather Action, un centro inglese di previsioni atmosferiche, fu riconosciuto come primo tra i meteorologi perché aveva trovato un modo imbattibile per prevedere il tempo, lo studio delle macchie solari. Più il numero delle macchie solari aumentava più la temperatura aumentava. Negli anni 90 tutta la comunità scientifica dei meteorologi convenne sul fatto che l'attività solare è stata coerente con le temperature in tutta la storia.

Le misure della CO2 fatte sui campioni di ghiaccio geologico riportate da Mann nella celebre figura a mazza da Hokey non sono affidabili
Gli studi sui campioni di ghiaccio geologico utilizzati da Mann per costruire il grafico a forma di mazza da Hokey sono state messi in discussione in modo inequivocabile dal Dr Zbigniew Jaworowski.
Il Dr Jaworowski è stato presidente dell’United Nations Scientific Committee on the Effects of Atomic Radiation, ha partecipato e presieduto 20 Advisory Groups of the International Atomic Energy Agency e dell’ United Nations Environmental Program, attualmente è Presidente of the Scientific Committee of the Central Laboratory for Radiological Protection in Warsaw .
Il Dr. Jaworowski ha pubblicato molti studi scientifici, di cui circa 20 sul problema del clima. Nel corso degli ultimi 40 annisi è occupata a lungo dello studio dei ghiacciai, è uno dei principali specialisti delle analisi dei campioni di ghiaccio estratte dalle profondità dei ghiacciai per la ricostruzione della storia dell'inquinamento e del clima.
Nel marzo 2004, Il Dr. Jaworowski fu chiamato a presentare una relazione scritta alla Commissione per il Commercio, la Scienza e Trasporti, del Senato degli Stati Uniti sulla questione dei livelli di emissione nell’atmosfera di CO2 nel periodo pre e post industriale. La relazione aveva come titolo: Variazione del Clima: errata informazione nel periodo pre-industriale dei livelli di CO2 nell’atmosfera, in questa occasione egli affermò che i dati usati per calcolare la percentuale di CO2 nell’atmosfera attraverso i campioni di ghiaccio dei ghiacciai, non sono attendibili.

Relazione del Prof. Z. Jaworowski al Senato USA, 19 marzo 2004

"Nel complesso, tra il 1972 e il 1980, ho organizzato 11 spedizioni sui ghiacciai, per misurare il livello degli inquinanti naturali e prodotti dall'uomo, in 17 ghiacciai : nell'Artico, Antartico, Alaska, la Norvegia, le Alpi, l'Himalaya, le Montagne del Ruwenzori in Uganda, la Cordigliera delle Ande Peruviani, e le montagne di Tatra, in Polonia. Ho inoltre misurato i cambiamenti a lungo termine delle polveri nella troposfera e la stratosfera, e il contenuto di piombo negli esseri umani che hanno vissuto in Europa e altrove. Nel 1968 ho pubblicato il primo studio sul piombo contenuto nel ghiaccio dei ghiacciai [1]. Più tardi ho dimostrato che nel periodo preindustriale il flusso totale di piombo nell’atmosfera è stato superiore a quello del 20 ° secolo.Il contenuto di piombo nell’atmosfera è dominato da fonti naturali, il livello di piombo negli esseri umani durante il periodo medievale è stato da 10 a 100 volte superiore a quello del 20 ° secolo. Negli anni ' 90 ho lavorato all’Istituto Per la Ricerca Polare a Oslo, e presso l'Istituto Nazionale delle Ricerche del Giappone a Tokyo. Durante questo periodo ho studiato gli effetti del cambiamento climatico sulle regioni polari, e l'affidabilità degli studi su ghiacciai per stimare la concentrazione di CO2 nell’ atmosfera delle antiche epoche del passato. E’ falso dire che il livello di emissioni di CO2 nell’epoca preindustriale era più basso di oggi. Gli studi che affermano questo sono stati fatti utilizzando quasi completamente campioni di ghiaccio estratto dalle profondità dei ghiacciai polari. I dati ricavati non sono in grado di fornire un affidabile ricostruzione delle concentrazioni di CO2 nelle epoche passate . Principalmente questo è dovuto al fatto che i campioni di ghiaccio non soddisfano pienamente i criteri dei cosiddetti “sistemi chiusi” necessari per eseguire analisi attendibili. Uno di questi criteri è che è necessario che non vi sia stata alcuna acqua liquida nel ghiaccio in esame. La presenza di acqua può cambiare radicalmente la composizione chimica delle bolle d'aria intrappolate tra i cristalli di ghiaccio. Questo criterio non è stato mai soddisfatto. Il ghiaccio estratto dalle profondità dei ghiacciai polari, è stato per anni e secoli a pressione molto alta, a queste pressioni e a temperature molto basse (fino a -73 ° C) il ghiaccio forma acqua liquida e nell’acqua la solubilità della CO2 è 73 volte superiore a quella dell’Azoto (N2) e 26 volte superiore a quella dell’Ossigeno (O2) In queste condizioni avvengono più di 20 processi fisico-chimici, e ciò contribuisce a modificare l'originale composizione delle bolle di aria intrappolate nel ghiaccio polare. Uno di questi processi è la formazione di idrati di gas. Nel profondo del ghiacciaio i gas a bassa temperatura sono convertiti allo stato solido (si formano composti solidi, “clatrati”, formati da molecole di acqua e gas: metano, anidride carbonica e altri gas come N2 e O2). La trivellazione del ghiaccio decomprime i campioni di ghiaccio estratti dal profondo del ghiacciaio. La decompressione produce micro fratture orizzontali nei cilindri di ghiaccio, il ghiaccio si sfalda e si formano degli strati. Durante la decompressione i clatrati solidi si convertono in gas che si disperdono dalle fenditure e fratture presenti nei campioni di ghiaccio. Le molecole di CO2, O2, e N2, intrappolate nel ghiaccio si trasformano il bolle di gas a diverse pressioni e cioè a diversa profondità. Alla temperatura di -15 ° C l’ N2 si libera come gas alla pressione di 100 bar, l'O2 alla pressione di 75 bar, per l’ CO2 bastano solo 5 bar.
Questo è il motivo per cui le concentrazioni di CO2 nel gas intrappolato nel profondo dei ghiacci polari mostrano valori inferiori a quelli degli strati superiori corrispondenti all’atmosfera contemporanea.
Gli strati di ghiaccio inoltre sono prima esposti ad una rottura dalle vibrazioni durante la trivellazione, e subiscono anche uno sfaldamento nelle parti più profonde dovuto alla differenza di pressione tra il ghiaccio e il fluido usato nella trivellazione. Prima che il ghiaccio della trivellazione si ricongeli, parte del gas intrappolato nel ghiaccio si disperde. C'è inoltre anche un forte inquinamento da parte dei metalli pesanti presenti nel fluido di trivellazione. I campioni di ghiaccio profondi contengono infatti piombo e zinco in concentrazioni migliaia di volte superiori del ghiaccio in superficie. (Boutron 1990; Boutron e altri 1987)
I dati sul ghiaccio geologico sono quindi fortemente influenzati dai processo di trivellazione e anche da processi fisici e chimici naturali (formazione di caltrati) che avvengono ad alta pressione e bassa temperatura nel corso del tempo. Il che porta ad una riduzione della CO2 nelle bolle di aria intrappolate nel ghiaccio più profondo dei ghiacciai dal 30% al 50%
L'assunzione che nel periodo preindustriale ci fosse un basso e stabile livello di CO2 e che attualmente ci sia un aumento del 30% di CO2 nell'atmosfera, dovuto all'utilizzo di combustibili fossili (IPCC, 2007) fu posto inizialmente da Callender (1958) e poi da From e Keeling (1980). Fu possibile sostenere questa assunzione perchè deliberatamente non furono prese in considerazione la maggior parte delle 90.000 misure dirette di CO2 nell'atmosfera effettuate in America, Asia e in Europa tra il 1812 e il 1961. Queste misure infatti dimostrano inequivocabilmente che la media (sui 5 anni) dei valori della percentuale di CO2 nell'atmosfera fluttua notevolmente. Si va da un minimo di 290 ppmv (parti per milione in volume) nel 1885 fino ad un picco di 440 ppmv nel 1820, si va poi da 390 ppmv del 1855 a 440 ppmv del 1940 ( Beck 2007). Un andamento ben diverso dalla curva bassa e piatta ottenuta con i dati dei campioni del ghiaccio estratti dal fondo ghiacciai. Queste stime sono anche discordanti con altre determinazioni della CO2 come quella effettuata sui tomi delle foglie fossilizzate (Rayan 2001; Wagner 1999; Wagner 2002). La bassa concentrazione di CO2 nel ghiaccio rilevata durante le 6 precedenti epoche interglaciali, quando le temperature erano più calde di oggi, suggeriscono che o i livelli di CO2 non hanno grande influenza sul clima o che le ricostruzioni basate sull'atmosfera intrappolata sul fondo dei ghiacciai è sbagliata.
In ogni caso l'accettazione acritica del rapporto dell'Unified Synthesis Product (USP) - Climate Change Science Program (CCSP) in the United States (Agosto 2008) della NOAA, secondo cui c’è stato un aumento di CO2 nell'atmosfera dal periodo preindustriale ai giorni nostri sostenendo questo fatto considerando solo i dati ottenuti su campioni di ghiaccio preistorico e ignorando del tutto sia le numerose misure dirette fatte nel 19esimo e 20esimo secolo sia le misure della composizione atmosferica attraverso gli stami delle foglie fossilizzate è inaccettabile
La famosa curva della percentuale di CO2 nell’atmosfera degli ultimi 10.000 anni, a forma da mazza da hockey, è stata in pratica costruita inizialmente con i dati dei campioni di ghiaccio geologico del 19esimo secolo e dei periodi precedenti e facendo poi seguire a tali dati quelli delle misure dirette della CO2 dell'atmosfera effettuati nella seconda metà del 20simo secolo.
I dati della percentuale di CO2 nell'atmosfera risalenti al 19esimo secolo e dei periodi precedenti ricavati dai campioni di ghiaccio geologico come quelli estratti nella base dell’isola di Siple in Antartico (Friedli 1986; Neftel 1985) sono la base per le teorie presentate nel rapporto dell'CCSP-USP del 2008 così come di tutti i rapporti dell’IPCC incluso il "Summary for Policy Makers" del 2007.
Molti aggiustamenti sono stati fatti per ottenere la curva a mazza da hokey prima descritta. Per esempio la concentrazione di CO2 trovata nei ghiacciai dell'isola di Siple nel ghiaccio che risaliva al periodo preindustriale ad una profondità di 68 metri, cioè subito al di sopra la profondità dove si formano i calatrati di CO2, era troppo alta e contraddiceva la teoria del riscaldamento globale. Questo ghiaccio era stato depositato nel 1890 e la concentrazione di CO2 era di 328 ppmv mentre secondo la teoria del riscaldamento globale non doveva superare i 280 ppmv. Una simile concentrazione di CO2 nell'atmosfera fu rilevata con misure dirette sull'atmosfera nella base di Mauna Loa nelle Hawaii nel 1973 (Boden 1990), ben 83 anni dopo la formazione dei campioni di ghiaccio dell'isola di Siple.
La soluzione al problema fu trovata spostando arbitrariamente di 83 anni la media delle concetrazioni di CO2 dell'aria intrappolata nei campioni di ghiaccio (Jaworowaski 1994, Jaworowaski ed altri 1992), la curva fu quindi "aggiustata" e è anche conosciuta come la "curva Siple" Figura 2 e Figura 3 “.





Riferimenti

1. Jaworowski, Z., Stable lead in fossil ice and bones. Nature, 1968. 217: p. 152-153.
2. Mulvaney, R., E.W. Wolff, and K. Oates, Sulpfuric acid at grain goundaries in Antarctic ice. Nature, 1988. 331(247-249).
3. Jaworowski, Z., T.V. Segalstad, and N. Ono, Do glaciers tell a true atmospheric CO2 story? The Science of the Total Environment, 1992. 114: p. 227-284.
4. Shoji, H. and C.C. Langway Jr., Volume relaxation of air inclusions in a fresh ice core. Journal of Physical Chemistry, 1983. 87: p. 4111-4114.
5. Neftel, A., et al., Evidence from polar ice cores for the increase in atmospheric CO2 in the past two centuries. Nature, 1985. 315: p. 45-47.
6. Friedli, H., et al., Ice core record of the 13C/12C ratio of atmospheric CO2 in the past two centuries. Nature, 1986. 324: p. 237-238.
7. IPCC, Climate Change - The IPCC Scientific Assessment. ed. J.T. Houghton et al. 1990, Cambridge University Press: Cambridge, pp. 364.
8. Boden, T.A., P. Kanciruk, and M.P. Farrel, TRENDS '90 - A Compendium of Data on Global Change. 1990, Oak Ridge National Laboratory: Oak Ridge, Tennssee, pp. 257.
9. Jaworowski, Z., Ancient atmosphere - validity of ice records. Environ. Sci. & Pollut. Res., 1994. 1(3): p. 161-171.
10. Schwander, J., et al., The age of the air in the firn and the ice at Summit, Greenland. J. Geophys. Res., 1993. 98(D2): p. 2831-2838.
11. Slocum, G., Has the amount of carbon dioxide in the atmosphere changed significantly since the beginning of the twentieth century? Month. Weather Rev., 1955(October): p. 225-231.
12. Callendar, G.S., On the amount of carbon dioxide in the atmosphere. Tellus, 1958. 10: p. 243-248.
13. Wagner, F., et al., Century-scale shifts in Early Holocene atmospheric CO2 concentration. Science, 1999. 284: p. 1971-1973.
14. IPCC, Climate Change 2001: The Scientific Basis., ed. J.T. Houton et al. 2001, Cambridge: Cambridge University Press, pp. 892.
15. Mann, M.E., R.S. Bradley, and M.K. Hughes, Global-scale temperature patterns and climate forcing over the past six centuries. Nature, 1998. 392: p. 779-787.
16. Soon, W., et al., Reconstructing Climatic and Environmental Changes of the past 1000 years: A Reappraisal. Energy & Environment, 2003. 14: p. 233-296.
17. McIntyre, S. and R. McKitrick, Corrections to the Mann et al. (1998) proxy data base and Northern hemispheric average temperature series. Energy & Environment, 2003. 14(6): p. 751-771.
18. Editorial, A., IPCC's ritual on global warming. Nature, 1994. 371: p. 269.
19. Maddox, J., Making global warming public property. Nature, 1991. 349: p. 189.

Il Dr Zbigniew Jaworowski è stato presidente dell’United Nations Scientific Committee on the Effects of Atomic Radiation, ha partecipato e presieduto 20 Advisory Groups of the International Atomic Energy Agency e dell’ United Nations Environmental Program, attualmente è Presidente of the Scientific Committee of the Central Laboratory for Radiological Protection in Warsaw .


E’ l'attività del Sole che fa variare la temperatura della Terra
In primo luogo per studiare le variazioni del clima sulla Terra occorre guardare ciò che scalda la Terra, cioè il Sole.
Il Sole non ha un’attività uniforme ma questa varia continuamente e è soggetta a vari cicli.
Le macchie solari (circa 40.000-50.000) hanno un ciclo di circa 11 anni. I ricercatori hanno notato che quando le macchie solari hanno complessivamente la minima ampiezza (per esempio minimo di Maunder) si ha un coincidenza con le più basse temperature, per esempio per il minimo di Muander con quelle registrate durante la Piccola era Glaciale nella seconda metà del secolo 17simo. Un altro minimo si è verificato all'inizio del secolo 19esimo (il minimo di Spörer) che ha coinciso con temperature molto più basse rispetto a quelle dei precedenti decenni. (S. Baliunas, W. Presto, 2003). Qualunque sia la ragione, se si confrontano le tendenze a lungo termine tra le temperature degli ultimi 100 anni con il numero di macchie solari presenti sul Sole, vi sono strette correlazioni.

La storia del clima sulla Terra

Gli ultimi 800.000 anni, secondo il clima, possono essere suddivisi in 8 distinti cicli di 100.000 anni ciascuno. L'alternanza dei periodi glaciali e interglaciali, come dimostrato matematicamente da Milankovitch negli anni 30, è condizionata da tre fattori astronomici che variano su base regolare: l'inclinazione dell'asse di rotazione della Terra rispetto al piano della eclittica, il cui periodo è di circa 40.000 anni; dalla eccentricità dell’orbita della Terra rispetto al Sole, con un periodo di circa 100.000 anni; dalla precessione degli equinozi, circa 20.000 anni. La quantità di energia solare ricevuta dalla superficie terrestre, e quindi il suo clima, dipende quasi interamente da questi fattori. L'alternanza di estensione e ritiro dei ghiacciai e la durata di questi periodi dipendono dalla interazione di questi tre fattori. Oltre a questi grandi cambiamenti, il clima è fortemente influenzato dall’attività del Sole (macchie solari), che è in parte ciclica (il cui ciclo più conosciuto è di 11 anni), e in parte imprevedibile. Alla conclusione di ciascuno degli ultimi cicli di 100.000 anni, è seguito sempre un periodo di circa 10.000 anni, conosciuto come un periodo interglaciale. E’ questo un periodo con un clima più caldo contrassegnato da un ritiro dei ghiacciai dalle terre in precedenza coperte nelle latitudini settentrionali.
La grande inerzia termica del mare ha fatto si che le glaciazioni siano state più piccole nell’estremo Emisfero meridionale. Viviamo oggi alla fine di un simile periodo interglaciale che è durato più di 10.000 . Una nuova era glaciale sta per iniziare.
Su una scala di poche centinaia di anni è difficile accorgersi di un simile fatto. Diamo un breve sguardo alla storia dei cicli del clima terrestre, per meglio capire che non ha senso lanciare allarmi catastrofici per i prossimi 10 o 100 anni essendo ben altre le scale dei tempi dei mutamenti climatici.
Secondo i principali esperti di Paleontoclimatologia, la scienza che studia la storia del clima sulla Terra, i periodi ciclici di 100.000 anni non sono caratterizzati da un continuo abbassarsi delle temperature e da un’estensione continua dei ghiacciai ma sono modulati da cicli di circa 20.000 anni in cui nei primi 10.000 c’à un raffreddamento seguiti da 10.000 anni di riscaldamento e di ritiro dei ghiacciai
Il termine dell’ ultimo periodo glaciale di 100.000 anni si è verificato 18.000 anni fa. Attualmente abbiamo oltrepassato un periodo interglaciale iniziato più di 10.000 anni fa. Siamo quindi in attesa dell'inizio di un nuovo periodo glaciale di 100.000 anni, che potrebbe essere già iniziato.
Un piccolo indizio di questo fatto potrebbe essere il freddo notevole degli inverni del 2000, 2003, 2004, dell’ emisfero Nord e il fresco delle estati dell’emisfero Sud dal 2003 in avanti.
In realtà nel corso degli ultimi 6000-8000 anni il clima si sta raffreddamento ed è ora quasi 0,56 ° C più freddo rispetto il "clima ottimale postglaciale". Si può citare come prova l'anticipo del ghiaccio formatosi sulla Groenlandia, o che nel Sud-Est degli Stati Uniti (il limite della coltivazione di agrumi, ora a malapena un po’ a nord di Orlando, 40 anni era a Jacksonville, circa 160 miglia più a nord). Uno degli assiomi di climatologia è che: "un cambiamento di clima è da considerarsi effettivo se persiste per 30 anni ". Di conseguenza, se per un certo numero di stagioni o anni, inferiore a 30 anni, il clima è più fresco o più caldo, rispetto alla media degli ultimi 30 anni, non si può parlare di cambiamento climatico ma di “fluttuazioni meteorologiche a breve termine”.
Possiamo dire che dopo un serie di periodi altalenanti verificatisi circa 12.000 anni prima di Cristo, vi è stato un aumento stabile delle temperature intorno all’8300 aC. Anche nel Nord Europa che era totalmente coperto dai ghiacci aumentarono le temperature e la stessa cosa avvenne quindi in America nel 4000 aC. Questo periodo è conosciuto come il periodo di “clima postglaciale ottimale”. In questo periodo le temperature sono state di circa 1,5 gradi Celsius superiori a quelle di oggi. Quando si parla di “clima ottimale postglaciale “ si intende che le temperature sono le migliori per lo sviluppo e il mantenimento di qualsiasi tipo di vita, sia di origine animale che vegetale. Una brusca inversione nota come lo swing Piora avvenne intorno al 3500 aC; ci fu un forte avanzamento dei ghiacciai in Europa e grandi migrazioni dei popoli agricoltori dal Nord verso il Sud. Dal 3000 aC al 1000 aC, il clima migliorò. Dall’anno 1000 aC al 500 aC i ghiacciai avanzarono nuovamente. Intono al 400 dC si stabili in Europa un periodo più caldo a cui seguirono periodi con climi freddi e umidi.. Negli anni che vanno dal 900 dc al 1100dc in Groenlandia e dal 1100 a 1200 in Europa, c’è stato un periodo conosciuto come l’”optimum climatico medievale”, con temperature come quelle del periodo del “clima postglaciale ottimale”. Si coltivava la vite in Inghilterra, Norvegia e Groenlandia. Grazie all'aumento delle aree coltivabili la popolazione dell'Europa quadruplicò. Attorno al 1200 il clima cominciò poi a raffreddarsi, iniziò quella che viene chiamata dai climatologi la “Piccola età glaciale”che culmina nel 1816, passato alla storia come “l’anno senza estate”.
A metà ottocento le temperature sono tornate ad aumentare, inaugurando un periodo caldo che dura ancora oggi. Tutti questi cambiamenti sono avvenuti senza praticamente il minimo intervento umano data la scarsità della popolazione delle epoche passate e il basso livello della tecnologia
Il resto è ben noto. La temperatura è aumentata di circa 0,6 ° C dal 1850 ad oggi

La sciocchezza dell’innalzamento del livello dei mari e degli oceani

Uno dei temi che più ha suscitato allarmismo è quello dell’innalzamento del livello del mare che secondo i rapporti dell’IPCC dovrebbe scaturire dal riscaldamento globale del pianeta che scioglierebbe i ghiacciai e le calotte polari allagando le zone costiere. Ci sarebbe quindi la scomparsa di intere città e altre sciocchezze di questo tipo.
Sappiamo che sulla Terra il ghiaccio è distribuito principalmente nelle due calotte polari, l'Artico e l'Antartico. Il ghiaccio del mare Polare Artico è un oceano circondato da terre emerse. Si tratta di una calotta di giaccio che galleggia sul mare. Anche le previsioni più catastrofiche degli ambientalisti prevedono un ritiro della calotta artica di non più di 300 km. Ciò non avrebbe conseguenze, se il ghiaccio che galleggia nel mare si scioglie, restituirà lo stesso volume che ha preso quando l'acqua è stata congelata. Se prendiamo un bicchiere con due o tre cubetti di ghiaccio e lo riempiamo con acqua calda fino al bordo e attendiamo fino a quando il ghiaccio si scioglie completamente, il livello di acqua nel bicchiere è lo stesso di quella di prima. La situazione è diversa in Antartide, dove la maggior parte del ghiaccio è depositato a terra. sul continente. In questo caso se il ghiaccio si sciogliesse, effettivamente andrebbe ad aumentare il livello dei mari e degli oceani. Ma siamo sicuri che il riscaldamento globale faccia sciogliere il ghiaccio antartico?
Supponiamo che il riscaldamento globale aumenti la temperatura al polo Sud di 3 º C come è in genere previsto nelle peggiori stime degli ambientalisti. La temperatura media in Antartide è di circa il – 15 °C, quindi, potrebbe arrivare a – 12 °C, temperatura che è ancora molto lontano dal punto di congelamento dell’acqua. Il ghiaccio sul terreno rimarrà congelato. L’Antartide è, come ho detto prima, un blocco di ghiaccio che giace su un continente. Esso rappresenta oltre il 90% del ghiaccio che è depositato sulla terra ferma del pianeta. Diversi scienziati hanno calcolato che non vi sarebbe alcuna fusione significativa di ghiaccio antartico, ma solo del 10% del ghiaccio nei ghiacciai dei diversi continenti, con un effetto praticamente nullo sul livello del mare.
L'innalzamento delle temperature dall'Antartico avrebbe però ben alte conseguenze. In realtà il ghiaccio antartico aumenterebbe. L'Antartide è infatti un luogo estremamente freddo, un riscaldamento di 3°C o anche maggiore non è in grado di provocare un disgelo, ma l’aria sopra e intorno al continente Antartide si riscalderebbe rendendola capace di contenere più vapore acqueo. Parte di questo nuova umidità, dovuta al riscaldamento, precipiterà come neve e questa non si scioglierà perché le temperature sarebbero comunque troppo basse. Il suo accumulo renderà la copertura di ghiaccio in Antartide gradualmente crescente. In pratica si trasferirà acqua dagli oceani alla terraferma. Ciò porterebbe all’abbassamento del livello dei mari e degli ocenai. Questo fatto è noto da tempo ai climatologi . Infatti come risultato di molte ricerche sui perio di di milioni di anni fa, è stato scoperto che il livello dei mari era più basso durante i periodi caldi rispetto a quelli freddi.
Molte osservazioni indicano, tra l'altro, che lo spessore di ghiaccio sulla Groenlandia e sull'Antartide è aumentato negli ultimi anni.
I movimenti ambientalisti sostengono che, in base ai rapporti dell'IPCC, che affermano che il riscaldamento globale é antropico (causato dalle attività umane), è imperativo imporre ai governi di tutte le nazioni il rispetto del protocollo di Kyoto, che prevede la riduzione dei gas serra del 7% al di sotto dei livelli del 1990. Le conseguenze di queste misure sarebbero catastrofiche. Secondo la relazione che il Dipartimento dell’ Energia degli Stati Uniti presentò al Presidente Clinton il livello di produzione attuale e la tendenza al consumo di energia negli USA dovrebbe essere ridotto dal 30 al 50%, e si avrebbe un aumento dei prezzi dell’elettricità dell’86%. .
L’unico modo per verificare se l'atmosfera terrestre si è riscaldata non è quello di osservare “l'aumento della frequenza e l'intensità degli uragani", o "delle alluvioni, "o il "ripresentarsi in Europa e negli USA di malattie tropicali". La cosa migliore è guardare le registrazioni delle temperature effettuate quotidianamente in migliaia di stazioni meteorologiche sparse in tutto il pianeta e vedere se c'è qualche cambiamento, o almeno, tendenza verso un preciso cambiamento.
Perché questa semplice analisi non viene mai fatta e/o non è mai pubblicizzata sui media?
Il motivo è semplice, perchè l’unica tendenza visibile sarebbe quella verso un raffreddamento del pianeta. Pertanto, quotidianamente leggiamo pubblicazioni e osserviamo servizi su giganteschi blocchi di ghiaccio in Antartide che si staccano, o la mancanza di ghiaccio al Polo Nord, però se si da un'occhiata alle registrazioni delle stazioni meteorologiche sparse sulle coste dell'Europa e dell'Asia all'interno del Circolo Polare Artico e Antartico come le stazioni di McMurdo (americana) o la russa Vostok in Antartide, si può constatare che l’unica tendenza riscontrabile è quella di un raffreddamento del clima.
Se i termometri delle stazioni meteorologiche e le misure prese dai satelliti e dai palloni sonda indicano che l’atmosfera si raffredda, per quale motivo le nazioni del mondo dovrebbero impegnarsi a rispettare i costosi dettami del protocollo di Kyoto?

Note
Nota 1. L'Intergovernmental Panel on Climate Change (foro intergovernativo sul mutamento climatico, IPCC) è il foro scientifico formato nel 1988 da due organismi delle Nazioni Unite, la World Meteorological Organization (WMO) e l'United Nations Environment Programme (UNEP) allo scopo di studiare il riscaldamento globale.
Nota 2. Ecologia Mytos Y Froudes di Edoardo Ferreiro
dhttp://www.mitosyfraudes.org/Articulos.html
Nota 3. Jaworowski, Z., Statement written for the Hearing before the US Senate Committee on Commerce, Science, and Transportation, March 19, 2004
(http://www.warwickhughes.com/icecore/)

Bibliografía
•Ecologia Mytos Y Froudes di Edoardo Ferreiro dhttp://www.mitosyfraudes.org/Articulos.html
• Christopher Essex y Ross McKitrick, 2002, “Taken by Storm”, Key Porter Books,
Ltd, Toronto, Canadá.
• Tazieff, Haroun, 1992, "The Holes in the Ozone Scare", 21st
Century Science Associates, editores, Washington, D.C., 1992.
• Singer, Fred S., 1992, “Global Change - Greenhouse Warming and Ozone Trends”,
conferencia en la reunión anual de la American Association for the Advancement of
Science, Febrero 11, 1992, Chicago, Illinois.
• Michaels, Patrick J., y David E. Stooksbury, "Global Warming: A Reduced Threat?”,
Bulletin of the American Meteorological Society, Vol. 73, No. 10, Octubre 1992,
pp. 1563-77.
• Boden, T.A., P. Ranciruk y M.P. Farrell, 1990, Trends 90: "A Compendium of Data
on Global Change," Carbon Dioxide Information Analysis Center, Environmental
Sciences Division, Oak Ridge National Laboratory.
• Schlesinger, Michael E. y Navin Ramankutty, "Implications for Global Warming of the
Intercycle Solar Irradiance Variations," Nature, Vol. 360, Nov. 26, 1992, pp. 330-33.


Nota sull'autore:
Dr. Giuseppe Filipponi, fisico nucleare, docente, Presidente della Fondazione per l'Energia di Fusione italiana negli anni 80', direttore della rivista Fusione Scienza & Tecnologia

(2)La Sesta Conferenza delle Parti, del novembre 2000 all’Aya, secondo gli ambientalisti doveva riuscire a dare il via libera all’attuazione del Protocollo di Kyoto. Il trattato prevedeva l’accettazione di una riduzione drastica delle immissioni di CO2 e un rimborso di 150 milioni di dollari l’anno ai paesi in via di sviluppo da parte dei paesi cosiddetti “inquinatori”, principalmente gli USA.
Gli USA, Canada, Giappone, Australia e Nuova Zelanda hanno però rifiutato di accettare tale accordo malgrado le pressioni dell’Unione Europea e quelle dei paesi i via di sviluppo. Gli ambientalisti e la stampa e le televisioni di tutto il mondo hanno accusato di egoismo e inciviltà i governi di questi paesi per anni. Nessuno spazio è stato però dato ai motivi scientifici alla base di questo rifiuto. L’articolo che segue fa luce su questi motivi e sulla battaglia in corso, ignorata dai media, tra gli scienziati del clima e i sostenitori della propaganda ambientalista.



IPCC: un clima di paura


Saggio di Robert E Stevenson, oceanografo che ha lavoarato alla stazione di Del Mar (California) della NASA. Dal 1987 al 1995 Stevenson è stato Segretario Generale dell’Associazione Internazionale di Oceanografia

La climatologia o scienza del clima è stata ideologizzata da una valanga di modelli computeristici totalmente fraudolenti. Prima del 1970 gli scienziati del clima ragionavano in termini di cicli di 100.000 e di 10.000 anni e discutevano di un “raffreddamento globale del clima della terra”. Da un punto di vista scientifico c’erano e ci sono tuttora tutte le prove che la terra sta venendo fuori da un periodo interglaciale di 10.000 anni e si sta avviando verso una nuova era glaciale. Alcuni scienziati pensavano che ciò potesse avvenire nell’arco di centinaia o migliaia di anni, altri pensavano che sarebbe bastato meno di 100 anni, In un discorso fatto all’Istituto di Oceanografia di La Yolla, California, il Prof. Yohn Isaacs, nel 1972 sostenne, con ampie motivazioni, l’ipotesi del decorso più veloce verso la glaciazione.
La National Science Foundation (USA) e la National Accademy of Sciences (USA) iniziarono entrambe a lavorare intorno all’ipotesi della nuova era glaciale. L’enfasi non era tanto sulla climatologia ma su i vari scenari con cui il clima poteva cambiare in poco tempo e come ciò avrebbe influito sulla società, per esempio spingere intere popolazioni a muoversi verso Sud.
Le “agenzie scientifiche” iniziarono allora ad usare modelli computeristici per studiare il clima. La scienza del clima era basata sullo studio delle correlazioni tra i cicli astronomici del sole e i cambiamenti a lungo termine del clima sulla terra. Gli scenari prospettati dal raffreddamento globale del clima portavano tutti ad un maggior uso di combustibile fossile, di tecnologia e ad una spinta verso lo sviluppo industriale.
Fu allora messa a punto la “frode ambientalista”.
Furono “inventati” scenari diversi che puntavano ad accusare le tecnologia e l’industria per i disastri ambientali, scenari che erano mirati ad indurre le popolazioni ad un uso ridotto delle risorse naturali e ad un calo demografico.
Praticamente fu messa da parte la scienza del clima basata sullo studio dei cicli solari, la geofisica e l’oceanografia, e cominciarono a proliferare modelli sul “riscaldamento globale” del pianeta dovuto all’effetto serra, e quindi in ultima analisi, alle attività umane.


L’effetto serra è un fenomeno naturale

L’effetto serra nell’atmosfera è conosciuto e studiato da più di 100 anni. E’anche ben conosciuto che CO2, CH4, O3, H2O (vapore) producessero effetto serra.
L’effetto serra “naturale” (senza l’input di CO2 e di altri gas prodotti negli ultimi 150 anni) ha fatto aumentare la temperatura della terra di 15 C con ghiacciai che si estendevano in tutti Nord America e nel Nord Est dell’Europa, tale aumento della temperatura praticamente ha permesso lo sviluppo della attuale società umana.
Nel 1896 Sven Arrhenius dell’Università di Oslo (Norvegia) studiò il problema dei cambiamenti climatici in relazione all’aumento della percentuale di CO2 nell’atmosfera a causa del consumo del combustibile fossile. La questione era gia stata sollevata dieci anni prima dal noto matematico Yean Babtiste Fourier e da Yhjn Tyndell. Sessanta anni dopo il figlio di Sven, Gustav convinse il direttore dello Scripps Istitution of Oceanograpfy di La Yolla (California), Roger Ravelle, della necessità di misurare regolarmente la CO2 nell’atmosfera. Revelle fu d’accordo e incaricarono un giovane post-dc, Dave Kelling di installare un osservatorio per il rilevamento della CO2 sulla montagna di Mauna Loa (isola delle Hawaii). A quella altezza la misura della percentuale di CO2 era al di sopra dello strato di atmosfera interessato dai fenomini di inversione dovuti dall’oceano. Sembra che nel 1970 Keeling avesse raccolto abbastanza dati che Revelle potè annunciare che la percentuale di CO2 nell’atmosfera stava aumentando.
Malgrado a quei tempi non esistevano le analisi microchimiche sul C12 e sul C13, che avrebbe indicato la provenienza della CO2, fu subito preso per buono che tale aumento fosse dovuto alla CO2 prodotta dai combustibili fossili usati dall’uomo.
All’inizio del 1980 furono quindi installate altre stazioni per il rilevamento della CO2, nelle Bermuda e nell’Antartide e inoltre sistematicamente furono presi con palloni ed aerei diversi campioni di atmosfera a varie altezze.
Nel 1990 fu annunciato pubblicamente che i dati raccolte indicavano un aumento della percentuale di CO2 del 23% rispetto al 1840.
Poiché nel 1840 non venivano fatte misure sulla percentuale di CO2 nell’atmosfera il dato era ovviamente ipotetico, fu presentato però come un fatto assodato scientificamente.
Ovviamente un simile aumento non è credibile, queste conclusioni infatti furono sostenute e adottate solo a causa della spina del nuovo e crescente movimento ambientalista.
La questione del “effetto serra” fu quindi presentata come “evidante”.
Chi potrebbe dubitare degli “scienziati” dicono ambientalisti.
In mano ai giornali e alle televisioni la storia diventa famigliare e assume toni terroristici; i gas CO2, NO2, etc. prodotti dall’uomo provocano l’effetto serra, la terra si riscalda, il livello del mare aumenta a causa dello scioglimento dei ghiacci delle calotte polari, grandi regioni agricole e urbanizzate verranno sommerse. Inoltre l’aumento dell’evaporazione porterà sconvolgimenti climatici, i sistemi di irrigazione verranno distrutti, ci saranno desertificazioni e inondazioni.
Si tratta di speculazioni senza fondamento scientifico, è stato provato scientificamente che l’ultima volta che la terra è stata più calda di oggi, durante il picco del periodo interglaciale da cui stiamo uscendo, da 1200 a 1400 anni fa, si raccoglievano le uve in Inghilterra e in Groenlandia (Vineland- terra del vino). Prima, 1800 anni fa, c’erano aranci a Natchez (Miss) e il Sahel era una terra fertile. Da questo punto di vista, più a lungo temine, è quindi sbagliato dire che la terra si sta scaldando.

Solo speculazioni

Ci fu e c’e tuttora, ovviamente, un forte disaccordo sulla tesi del riscaldamento globale dell’atmosfera. Per citarne alcune: un riscaldamento dell’atmosfera avrebbe portato ad un riscaldamento dell’oceano e quindi ad un aumento dell’evaporazione. L’aumento rispetto alla normale nuvolosità avrebbe fatto diminuire la radiazione solare sulla terra abbassandone la temperatura. L’aumento delle precipitazioni inoltre avrebbe dovuto allargare i ghiacciai dell’Antartide e della Groenlandia e ciò avrebbe portato ad un abbassamento e non ad un innalzamento del livello del mare. Piogge più abbondanti del normale dovrebbero far aumentare la crescita della vegetazione, diminuendo l’area delle regioni aride e aumentando la produzione di raccolti a livello mondiale.
Solo la migliore conoscenza delle interazioni e dei flussi del sistema ambientale terrestre ci può far prevedere gli effetti del clima sugli oceani, e ghiacciai, i fenomeni atmosferici.

La propaganda ambientalista invece di basarsi sulla ricerca scientifica ha sempre seguito la politica degli annunci clamorosi. Nell’agosto del 1988, in uno dei giorni di caldo record, Yames Hansen del Centro di Volo Spaziale Goddard della NASA, ad un Comitato del Congresso a Washington, dichiarò che era in atto il “riscaldamento globale” del pianeta. Da quel momento per gli scienziati e i tecnici dei laboratori federali USA, e per quelli delle agenzie non governative a vocazione ecologica ( WorldWatch, WWF, Greenpace, Sierra Club, etc.) l’annuncio dell’accetazione politica di questa linea era la premessa di un’era di abbondanti finanziamenti.
Furono creati anche nuovi centri: l’Office of Climate Changes all’interno della National Accademy of Science (USA), fu creato anche il nuovo gruppo internazionale l’International Geo- Biosphere Program. Le Nazioni Unite velocemente organizzarono l’United Nations Enviromental Program (UNEP), con a capo il direttore Dott. Nuoel Brown, un sociologo.
L’UNEP varò immediatamente l’International Panel on Climate Ch’ange (IPCC) e fondò il World Research Programm (WCRD). I soldi arrivarono a palate.
Uno dei primi “prodotti” di queste istituzioni fu la preparazione di un “trattato” da far firmare ad un “summit” internazionale in cui ogni paese si sarebbe impegnato ad abbassare “l’impatto crescente della specie umana sull’ambiente, ed evitare le catastrofi annunciate dagli scienziati”.
Secondo tale scenario la specie umana e in particolare le popolazioni più sviluppate dell’occidente erano i “cattivi” che portavano alla distruzione il pianeta. Si fece così il summit di Rio del 1992 sui cambiamenti del clima sulla terra. Una manciata di paesi firmò il “trattato” dando all’ONU il compito di “controllare” le attività che i modelli computeristico consideravano dannosi per il clima. In particolare le immissioni di gas serra. I paesi meno ricchi, che quindi avevano meno risorse per “influenzare il clima globale”, secondo il “trattato” dovevano essere risarciti dai paesi “inquinatori” con 150 miliardi di dollari l’anno. Gli Stati Uniti, la Russia, la Cina, l’India e diversi paesi europei come l’Inghilterra, non firmarono il “tratto”.


L’IPCC suona l’allarme

Prima che il Summit di Rio si facesse nell’estate del 1992 fu necessario avere un documento ufficiale sugli “effetti” dell’influenza dell’attività umana sulla temperatura del pianeta. Questo documento fu preparato dall’IPCC nel 1990 da circa 200 “professionisti” dei diversi paesi dell’ONU. Capeggiati dal meteorologo Dott. Bert Bolin, il gruppo includeva Sir. Yohn Honghton (U. K.), Thomas Wigly dell’US National Oceanographic Atmospheric Administration (NOAA) e diversi altri scienziati di grande reputazione. C’erano anche esponenti dichiaratamente ecologi come Merylin Hedger del WWF. Da persone come Bolin, Honghton e Wigly ci si poteva aspettare il rispetto della verità scientifica mentre gli altri erano impostati ideologicamente. Il rapporto del 1990 dell’IPCC malgrado la presenza di prestigiosi scienziati fu uno scandalo, esso affermava che nel secolo passato la CO2 era aumentata del 30%, che la media delle temperature sulla terra era aumentata di 1,2-1,5 C e che il livello del mare era salito di 50-60cm.
Il rapporto quindi prevedeva che entro il 2050 la CO2 nell’atmosfera sarebbe salita di un altro 50% che la temperatura dell’atmosfera sarebbe aumentata di 3-4 C e che il livello del mare sarebbe aumentato di 6 metri a causa dello scioglimento delle calotte polari.


La risposta del geofisici


Gli scienziati di geofisica, gli oceanografi, i chimici e fisici dell’atmosfera furono tutti sorpresi dal rapporto e dalla vasta pubblicità sui media, anche quelli più popolari, per le sue conclusioni che in verità erano delle semplici “speculazioni”. Non vi erano infatti ricerche scientifiche valide per sostenere le previsioni del rapporto dell’IPCC. Sembrava che giornalisti e editori, dei giornali e della televisione, si fossero improvvisamente trasformati da reporter in sostenitori delle tesi ambientaliste. Diversi scienziati manifestarono apertamente il loro disaccordo. Per far solo un esempio, Axel Normer della Università di Stoccolma in una riunione dell’Associazione Americana sull’Avanzamento della Scienza a New York confutò la previsione di un aumento del livello del mare di 6 metri semplicemente dicendo che non c’era abbastanza acqua nei ghiacciai alle latitudini intermedie per provocare un simile risultato. Egli inoltre tenendo per buono l’aumento di 4C della temperatura per il 2050 calcolò che avrebbe comportato un aumento del livello del mare di solo 4 pollici.
Robert Steward dell’Università Victoria a Vacouver fece un discorso al meeting del Yoint Oceanographic Assembly (Acapulco, agosto 1988) sulle condizioni che influivano sul livello del mare. Considerando ogni possibile fattore egli concluse che il livello del mare non si era sollevato più di 1 mm per anno negli ultimi 200 anni e che anche attualmente si procedeva a questo ritmo.
K.O. Emery e David Aubrey del Woods Hole Oceanographics Institution, verificarono l’analisi di Steward e nel loro saggio “Sea Level, Land Levels and Tide Gauge a Tour de Force” del 1991 analizzarono tutti i dati disponibili dal 1980 al 1990 e confermarono che il livello con cui l’acqua entra nel ciclo dell’oceano determina l’aumento del suo livello di 1mm/anno. Bob Ballino della Università di Stato dell’ Arizzona, un climatologo molto rispettato, in un discorso alla riunione dei Doctors for Disaster Preparedness a Tucson nel 1994 disse: “Dal 1979 al 1990, un periodo durante il quale le immissioni di gas serra nell’atmosfera, secondo gli ambientalisti, sono state particolarmente intense, le temperature effettuate dai satelliti hanno mostrato un riscaldamento medio dell’atmosfera di solo 0,001C ( se nelle misure raccolte fossero stati inclusi anche i dati del 1991 e del 1992 si avrebbe avuto non un riscaldamento medio ma un raffreddamento a causa dell’aerosol emesso dall’esplosione del vulcano del monte Pinatubo). I modelli computeristici sul clima prevedono invece che nello stesso periodo, a causa dell’aumento della CO2, si avrebbe dovuto avere un aumento di almeno 0,3 C”. I dati dei satelliti, continuò Ballino, praticamente indicano che il riscaldamento non c’e stato e contrastano con le tesi dei sostenitori del “riscaldamento globale”.
“E’ evidente che sia a livello generale che regionale, i cambiamenti osservati nella temperatura del pianeta non solo consistenti con quelli che ci si aspetterebbe derivanti dall’aumento del gas serra nell’atmosfera”. Gli aumenti di temperatura più consistenti dell’atmosfera, inoltre, sono avvenuti prima del 1920, cioè prima che le immissioni dei gas diventassero consistenti. Una così piccola variazione di temperatura è in contraddizione con le predizioni catastrofiche in circolazione. Occorre tenere presente che oltre alla concentrazione di CO2 e di altri gas serra ci sono molti altri fattori che influiscono sulla variazione della temperatura del pianeta. Il riscaldamento, quando c’e stato, non è avvenuto dove i modelli computeristici indicavano dovesse avvenire. Per esempio la regione Artica. Inoltre la maggior parte di tale riscaldamento è avvenuto di notte, quando non c’e l’effetto serra. Possiamo dire che i picchi di temperatura dell’ultimo secolo non indicano che stiamo procedendo verso l’apocalisse dell’effetto serra”. questi commenti di Bob Ballino furono ripresi e confermati dagli scienziati del clima di tutto il mondo.
Il problema dei modelli computeristici usati del 1980 ai giorni nostri e che per studiare il clima le variabili in gioco sono molte. In questi modelli molte, troppe variabili sono state spesso ignorate a talvolta addirittura valutare in modo errato: la variazione di temperatura della superficie del mare, l’effetto delle nubi, i moti convettivi e la circolazione delle acque nella profondità degli oceani, l’effetto “butterfly” di Lorenz, etc. L’effetto della presenza di nubi, per esempio, secondo i modelli al compiuter, è quello di produrre riscaldamento., tutti i dati dei satelliti invece indicano che le nubi raffreddano e non riscaldano l’atmosfera. Tra i più noti studiosi di modelli computeristici per lo studio del clima Michelal Schlessinger della Oregon State University affermò: “avete ogni diritto di essere scettici rispetto alle previsioni di tali modelli. La nostra capacità di misurare il riscaldamento globale è vicino a zero”. Schlessinger non fu il solo a criticare i modelli computerisitici usati dai climotologi, molti esperti che lavoravano nei laboratori del governo alla NOAA e alla NASA furono allontanati per aver fatto simili affermazioni. Queste tra l’altro non furono mai riprese dai media. Gli scienziati che non erano sotto il controllo delle agenzie federali, o dipendenti da fondi federali, continuarono a fornire e a pubblicare dati che presentavano una visione contraria a quella che la IPCC, la WMO e la MGO pubblicizzavano.
Uno degli studi più importanti fu messo a punto da un gruppo di scienziati dell’Università di Oslo capeggiato dal Dott. T.V. Segolstad. Essi fecero una dettagliata ricerca sulle percentuali dell’isotopo stabile di carbonio sugli atomi che formano la CO2 nell’atmosfera. Lo studio fu fatto sulle bolle di aria intrappolate negli strati profondi del ghiacciaio antartico risalenti fino a 3000 anni fa. Questi dati furono poi comparati con quelli di Davide Feeling dell’osservatorio di Mauna Loa e di altre stazioni dell’emisfero settentrionale. Come fu riportato personalmente da Segolstad: “almeno il 96% della CO2 atmosferica proviene da fonti diverse dalla combustione di combustibile fossile, cioè dai vulcani e dagli oceani. In pratica per il “budget” della CO2 nell’atmosfera la degassazione del mare e le emissioni dei vulcani sono molto più importanti della combustione di combustibili fossili o di materiale bioenergetico”. Segolstad rilasciò queste affermazioni in un discorso alla Conferenza Chapman sul “Clima e Aerosol Vulcanici” nelle Hawaii nel 1992. Nei due anni successivi egli e i suoi colleghi dell’Università di Oslo continuarono le loro misure delle percentuali dell’isotopo stabile dell’carbonio su migliaia di campioni, dall’atmosfera alla stratosfera, in diverse parti del mondo. Segolstad pubblicò quindi un aggiornamento dei suoi studi nel 1994 mostrando che tale percentuale non cambiava rispetto a quella del 1992. Anche Dave Feeling (stazione di Mouna Loa) fu d’accordo con Segolstad nell’attribuire maggiore importanza alla CO2 proveniente da fonti naturali (mare e vulcani) rispetto a quella derivante dalla combustione.
Potete facilmente immaginare la reazione degli ambientalisti nell’apprendere che non c’e un riscaldamento globale del pianeta e che le attività umane non hanno un impatto significativo sulla percentuale di CO2 nell’atmosfera e nella stratosfera e che non determinano quindi cambiamenti sul clima. Gli ambientalisti e le organizzazioni pubbliche e private che sostenevano le loro istanze reagirono immediatamente minacciando personalmente le carriere e le famiglie di quelli che sostavano queste verità scientifiche e si mossero per richiedere una maggiore regolamentazione a livello nazionale e internazionale che portò alla proliferazione di una mastodontica burocrazia.
Riportiamo qualche dettaglio dello scontro tra scienziati e ambientalisti tra il 1990 e la successiva conferenza dell’IPCC del 1995. Nessuna analisi o dato dei geofisici riportato sulle riviste specializzate o presentato in conferenze qualificate sembra che abbia avuto il minimo impatto sull’IPCC, la WMO e la UNEP. Per i media e le televisioni di tutto il mondo il discorso era chiaro, solo le tesi catastrofiche degli ambientalisti avevano spazio.
Per la letteratura scientifica la situazione è diversa, dal 1992 sono stati pubblicati più di 2800 articoli e saggi che contraddicevano la tesi del “riscaldamento globale”.


Il rapporto dell’IPCC del 1995


Il lungamente atteso rapporto dell’IPCC del 1995 fu profondamente “rivisto” rispetto a quello del 1990. In aprile, 3 mesi prima l’uscita del rapporto, membri dell’IPCC e osservatori di varie nazioni si incontrarono a Maastricht in Olanda per prendere visione anticipatamente e commentare il rapporto preparato dallo staff dell’IPCC. Era programmato che i membri dell’IPCC avessero il rapporto in visione qualche settimana prima di questo incontro e quindi dividersi in gruppi di lavoro in relazione ai vari argomenti. Nessuno ricevette però tale rapporto prima e neanche quando arrivarono a Maastricht. Nondimeno durante la confusione dei primi giorni lo staff dell’IPCC diede un comunicato alla stampa internazionale dal titolo: “Conclusioni raggiunte dagli studi dell’IPCC negli ultimi 3 anni”. Nessuno dei membri dell’IPCC aveva mai visto prima tale comunicato. Il Dott. Fred Seitz, ex presidente della Accademia Navale Nazionale Americana delle Scienze e ex presidente dell’Università Rockefeller era furioso. Egli tornò immediatamente a Washington e incontrò subito il Segretario di Stato e il Presidente dell’Accademia Nazionale della Scienze. Il risultato di questi incontri furono una serie di lettere di condanna e di censura indirizzate al Segretario dell’ONU Bhoutos Ghali. Al capo del WMO, e al direttore del Programma Ambiente dell’ONU e a Bert Bolin presidente dell’IPCC.
L’incontro successivo dell’IPCC fu a Boolder in Colorado nel 1955, durante l’assemblea generale dell’Unione Internazionale di Geodesia e Geofisica. In questa occasione l’IPCC modificò le previsioni del 1990. In particolare passò dalle previsioni per il 2050 a quelle più lontane del 2100.


Le modifiche delle previsioni dell’IPCC del 1995

Il rapporto prevedeva un aumento della percentuale di CO2 a causa della combustione di combustibili fossili; non c’era alcuna menzione delle analisi e dei dati forniti dai ricercatori dell’Università di Oslo ne quelli relativi all’immissione di CO2 nell’atmosfera da parte degli oceani. Nel rapporto veniva dato molto spazio all’aumento del metano (CH4) nell’atmosfera, non veniva però menzionato il metano prodotto dalle eruzioni vulcaniche il quale, negli ultimi dieci anni, è stato tre volte superiore a quello emesso negli ultimi 40 anni.
Fu dichiarato che “gli ultimi anni erano stati i più caldi dal 1960” e che la temperatura media globale era aumentata dalla fine dell’1800 ai giorni nostri di 0,3-0,6 C. Non veniva però menzionato che gli anni tra il 1920 e il 1940 sono stati i più caldi del secolo e che dal 1940 ai giorni nostri la temperatura media è andata diminuendo. L’aumento di temperatura dell’ultimo secolo menzionato dall’IPCC era quello misurato dai meteorologi e analizzato Bob Ballino. Ballino personalmente non fu però mai menzionato sul rapporto.
Il rapporto dell’IPCC prevedeva per il futuro che la % di CO2 sarebbe arrivata alla fine del 2100 a 500 parti per milione in volume, e che sempre per la fine del 2100 la temperatura sarebbe cresciuta di 1C.
Poiché 3 decimi di grado stanno facilmente entro il margine di errore dei termometri usati nelle misure e altri 5 decimi di grado sono sempre incerti a causa dell’effetto “isole di calore” delle città, che tendono ad aumentare artificialmente le misure delle temperature, l’aumento di temperatura previsto si riduceva a ben poca cosa.
Il rapporto continuava asserendo che nell’ultimo secolo il livello del mare era salito dai 10 ai 25 cm. e che la previsione dell’aumento di temperatura di 1C avrebbe fatto aumentare il livello del mare entro il 2100 di altri 15 cm. Il rapporto dell’IPCC non spiegava le modalità di questo innalzamento. Nel rapporto semplicemente si prendeva il coefficiente di espansione volumetrico dell’acqua e lo si moltiplicava per il volume degli oceani e l’aumento della temperatura di 0,5 C. Una cosa assurda, considerando le modalità del trasferimento di calore dell’atmosfera attraverso la superficie degli oceani e quindi alle acque più profonde, si avrebbe un aumento del livello del mare per il 2100 di 0,03mm.
Da uno studio congiunto dell’MIT e del British Metereological Office è possibile rilevare e dati relativi alla temperatura dell’atmosfera e della superficie del mare dal 1856 al 1987. Questi dati furono presi da migliaia di navi che hanno attraversato i mari e gli oceani di tutto il mondo negli ultimi 130 anni. Lo scopo della ricerca era indirizzato a capire come la temperatura dell’acqua poteva influenzare i venti. Tutti concordano che i grafici del MIT/British Office indicano che non ci sono stati cambiamenti di temperatura sulla superficie del mare e sull’atmosfera sovrastante dal 1856 ai nostri giorni. Da notare inoltre che l’intervallo di tempo studiato dal WMO e dal MIT/British Office è lo stesso, l’WMO semplicemente riportava gli stessi dati ma con una scala molto esagerata.


I fatti principali

Il Panel dei principali consiglieri dell’IPCC appoggiò la conclusione che “c’e evidenza di una influenza umana nel clima globale del pianeta”. Tale giudizio “avventato” fu discusso a lungo in una riunione di 3 giorni a Madrid alla fine del 1995 dove esperti di vari paesi posero in dubbio la natura di questa “evidenza”. Il principale scienziato americano nel campo il Dr. Fred Seitz pubblicò allora un articolo per denunciare questo fatto. L’IPCC rispose che era loro “diritto” cambiare le conclusioni degli scienziati così che i politici potessero meglio comprendere il rapporto. Per la comunità geofisica mondiale, queste pratiche non etiche e la totale mancanza di integrità dei capi dell’IPCC fu abbastanza per rivelare che i loro “appelli” collettivi contro “gli effetti del comportamento umano sul clima” erano una frode.
La cosa più ridicola fu inoltre che il gruppo di studio dell’IPCC responsabile di tale argomento non produsse alcun documento. Ci furono solo appelli ai media e altre forme di propaganda. Per quanto riguarda la temperatura degli oceani l’IPCC scrisse che “E chiaro che gli oceani si stanno scaldando in modo significativo in risposta al riscaldamento totale dell’atmosfera. Infatti la barriere coralline stanno morendo”.
Alla riunione dell’Unione Geofisica Americana del 1992 (Hong Kong), 1993 (San Farcisco), 1994 e 1995 (San Francisco), Warren B.Wite di Scripps e sei altri colleghi presentarono una serie di lavori sulle variazioni della “Struttura termica globale inter-annuale e inter-decannuale della superficie degli oceani”. Tali studi si basavano su più di 5.200.000 misure di temperatura in profondità negli oceani tra il 30 parallelo S e il 60 parallelo N dal 1979 al 1994. Lo studio evidenziava che le temperature in superficie e quelle in profondità (400 m) mostravano un raffreddamento negli anni 80 di circa 1 C. In seguito si era avuto invece un riscaldamento fino al 1994. Sebbene le variazioni non fossero grandi il trend era evidente in tutti gli oceani, specialmente alle latitudini centrali. Dal 1995 Warren aveva dati sufficienti per dimostrare che le variazioni di temperatura dell’Atlantico e del Pacifico seguivano strettamente il ciclo delle macchie solari che è di 11 anni.
Per quanto riguarda le barriere coralline Richard Grigg, esperto di coralli dell’Università delle Hawaii, che ha sorvegliato i coralli degli atolli negli ultimi 20 anni, più volte pubblicamente ha affermato che non c’e evidenza della riduzione della crescita dei coralli nell’oceano Pacifico e Indiano che possa essere attribuita al riscaldamento delle acque. Grigg ha anche riferito che secondo i sui colleghi che lavorano in osservatori sparsi in tutto il mondo anche negli altri mari tropicali la situazione è la stessa.


I dati della IAPSO


Nell’agosto del 1955, assemblea generale dell’Associazione Internazionale per la Scienza Fisica degli Oceani (IAPSO), tenuta alle Hawaii, ci furono 14 simposi, 5 dei quali riguardavano la variazione del clima degli oceani e dell’atmosfera marina:
1) Circolazione delle acque su larga scala negli oceani.
2) Variazione di temperatura negli oceani nell’arco di dieci anni e su un periodo di tempo che comprendeva più decadi.
3) CO2 negli oceani.
4) Interazione tra acqua, aria e ghiaccio e processi che avvengono negli oceani ad alte latitudini.
5) Relazioni tra atmosfera e oceani. Oceani ai tropici e atmosfera globale.
In questo ultimo simposio 450 oceonografi e chimico-fisici dell’atmosfera fecero un rapporto basato sulle ricerche degli ultimi 4 anni.
Essi affermarono:
1) Non c’e una tendenza al riscaldamento degli oceani in corso e non c’e stata negli ultimi 50 anni. Ci sono zone dell’oceano che sono state più calde di altre per circa 10 anni, ma poi si sono raffreddate e altre aree si sono scaldate. Questi periodi seguono il ciclo delle macchie solari di 11 anni. Tale correlazione deve essere presa in considerazione. In media non si osserva però un riscaldamento generale dell’oceano.
2) Un’attenzione speciale è stata dedicata all’oceano artico. Fin dal 1937 sono state installate stazioni permanenti da USA, Canada e dalla Russia. Il risultato dei dati raccolti è che non si registra una tendenza al riscaldamento. Le rivelazioni dei ricercatori canadesi inoltre mostrano che negli ultimi 60 anni la calotta del ghiaccio artico non è ne aumentata ne diminuita. Nessuno ha mai contestato questi dati!
3) E’ sempre più evidente che i calcoli fatti al compiuter sull’assorbimento da parte degli oceani della CO2 siano sbagliati. Alle latitudini intermedia c’e un assorbimento di CO2 molto variabile da parte degli oceani. Tale assorbimento è disperso oppure interrotto dalla variazione delle condizioni atmosferiche e dalla mineralizzazione dei carbonati presenti negli organismi biologici marini. Il riscaldamento estivo degli oceani oppure il riscaldamento per mezzo dell’intrusione di masse di acqua più calda (tipo la corrente EI Ninos) fa dell’oceano una potente fonte di CO2 piuttosto che un assorbitore come usualmente viene supposto. In altre parole nell’atmosfera c’e molta più CO2 prodotta dagli oceani in quanto venga considerato.
4) E’ sempre più evidente che fenomeni come quelli di EI Ninos non producono effetti meteorologici come le “piogge di EI Ninos” e così via. Al contrario sembra che prima arrivino gli “effetti” meteorologici e poi la corrente EI Ninos. Ciò provocherà molti problemi a quelli che “prevedono il tempo”, ma distrugge anche gli argomenti dei sostenitori del “riscaldamento globale” i quali asseriscono che la maggior parte del riscaldamento viene dalla corrente EI Ninos.
5) I 10 anni di attività del programma internazionale Tropical Ocean-Global Atmosphere (TOGA) ha accreditato l’idea che la fonte primaria delle brusche variazioni atmosferiche (e climatiche) risieda nei tropici. Sono state trovate le prove delle origini tropicali degli uragani, tifoni e cicloni. Praticamente è stato accertato che all’equatore gli oceani e l’atmosfera sono molto più pieni di energia di quanto si pensasse e che i monsoni asiatici hanno un ruolo importante nella formazione della corrente EI Ninos nell’Oceano Pacifico e in quello Indiano non solo collegate nel tempo e nello spazio.
6) C’e ancora molto da lavorare per migliorare la comprensione delle grandezze in gioco che determinano le condizioni atmosferiche e il clima. E’ comunque chiaro che le attività delle specie umana sono di almeno un ordine di grandezza alle forze geofisiche che agiscono naturalmente sulla terra.


E’ tempo di ripristinare la vera scienza

Malgrado le lamentele di Yim Hansen, Carl Sagan, Yames Anderson, Susan Salomon, Rowland Molina, Robert Redford, Barbara Streisand, il Club di Roma, il WWF, Greenpace, il programma ambiente dell’ONU, il Principe Filippo e Al Gore, la popolazione umana sulla terra non è così numerosa e potente da essere paragonata alle forze geofisiche in atto, e non sta provocando il riscaldamento globale del pianeta. Le prove che sorreggono le sei affermazioni prima riportate sono troppo importante sono troppo importanti da essere ignorate. I sostenitori del “riscaldamento globale” e del “buco nello strato di ozono” sono in difficoltà. Hanno così tanto investito in tratti, regolamenti, agenzie intra e infra governative, organizzazioni, posizioni di prestigio, appoggi personali, e così via che il loro sforzo di affossare la verità e piegare la scienza alle loro concezioni ideologiche deve essere ogni giorno più forte. Per la popolazione che giornalmente che guarda la televisione e legge i giornali sembra che non ci siano più contrasti. Tuttavia la battaglia è ancora in corso.

Fonte:
1:http://fusione.altervista.org/riscaldamento_globale.htm
2:http://fusione.altervista.org/ipcc_un_clima_di_paura.htm

BENVENUTI!!!



LIBRI LETTI
TEMPESTA GLOBALE,ART BELL,WHITLEY STRIEBER;LA PROSSIMA ERA GLACIALE,ROBERT W.FELIX;ARCHEOLOGIA PROIBITA,STORIA SEGRETA DELLA RAZZA UMANA,MICHAEL A.CREMO,RICHARD L. THOMPSON;MONDI IN COLLISIONE,IMMANUEL VELIKOVKY;LE CICATRICI DELLA TERRA,IMMANUEL VELIKOVSKY;HO SCOPERTO LA VERA ATLANTIDE,MARCO BULLONI;GLI EREDI DI ATLANTIDE,RAND FLEM ATH;IL PIANETA DEGLI DEI,ZACHARIA SITCHIN;IMPRONTE DEGLI DEI,GRAHAM HANCOCK;LA FINE DI ATLANTIDE,RAND FLEM ATH;I MAYA E IL 2012,SABRINA MUGNOS;LA VENDETTA DEI FARAONI,NAUD YVES,L'EGITTO DEI FARAONI,NAUD YVES;LA STORIA PROIBITA,J.DOUGLAS KENYON;SOPRAVVIVERE AL 2012,PATRICK GERYL;STATO DI PAURA,MICHAEL CHRICHTON;APOCALISSE 2012,JOSEPH LAWRENCE;I SERVIZI SEGRETI DEL VATICANO,DAVID ALVAREZ;GENGIS KHAN E L'IMPERO DEI MONGOLI,MICHAEL GIBSON;SCOPERTE ARCHEOLOGICHE NON AUTORIZZATE,MARCO PIZZUTI;UNA SCOMODA VERITA',AL GORE;ECC..
(NON TUTTI GLI ARGOMENTI O TALVOLTA I LIBRI STESSI SONO DA ME CONDIVISI)

INDIRIZZO E-MAIL

Per contattarmi:

angelfallendark@hotmail.it


Cerca nel blog

Lettori fissi

Archivio blog