Archivio per la categoria ‘Articoli Ventonuovo.eu’

A Padova, ventiquattro anni fa, moriva Enrico Berlinguer.
Di lui oggi rimane solo il ricordo del compromesso storico di cui a malapena si parla nelle classi delle scuole superiori e una celebre intervista a Scalfari in merito alla questione morale.
Ed è proprio su codesti aspetti sentiamo la necessità di discutere.
Nelle righe seguenti analizzeremo cosa si intende per compromesso storico e cercheremo di delineare una relazione con i giorni nostri; in quelle del prossimo pezzo, tratteremo di cosa Berlinguer intedenva per questione morale e quanto tale concetto è ormai lontano dai giorni nostri.

Nel secondo dopoguerra tre erano i partiti che caratterizzavano la Repubblica. Da un lato, la Democrazia Cristiana, dall’altro il Partito Socialista, dall’altro quello Comunista.
Solo la Dc, però, potè governare (ininterrottamente sino a prima del primo governo Berlusconi) anche se, dal 1960 in poi, il Partito Socialista iniziò ad affacciarsi alle scene di governo, entrandone a far parte assieme alla Dc solo nel 1964.
Il partito comunista, in tutto questo, poteva solo rimanere a guardare. Non godeva di molto consenso e non poteva dunque sperare di vincere e sedere al Governo per realizzare quelle idee tanto care, ma forse tanto datate. Sebbene la forte collaborazione durante la Resistenza e il contributo fondamentale nell’Assemblea Costituente, i comunisti fecero parte di un breve governo solo alla fine del 1970, come vedremo tra un attimo. Un’analisi almeno superficiale potrebbe far risalire il motivo alla lealtà con l’Unione Sovietica che fu, durante la guerrra fredda, l’antagonista orientale della splendente America. Lealtà che si concretizzava anche nella condivisione delle idee politiche propagandate nell’Unione.
Si deve però registrare che una strada alternativa fu intrapresa nel 1956, l’anno in cui scoppiò la crisi di Praga. Infatti, dopo il XX Congresso del PCUS (Partito Comunista dell’Unione Sovietica) dello stesso anno, con le denunce di Khruscev dei crimini di Stalin e del rifiuto dei dogmi, il segretario del partito Togliatti, decise di avviare una serie di riforme che avrebbero tracciato la cosiddetta “via italiana al socialismo” che abbandonava l’idea rivoluzionaria, bilanciando tale mancanca con una prevista crescita del potere sindacale e operaio.
Democraticamente si voleva conquistare l’elettorato, attuando riforme nuove ma andando contro i principi dell’Unione Sovietica. La frattura era ormai cosa nota.
Alla morte di Togliatti, un uomo chiamato Enrico Berlinguer si affacciò alla scena partitica che lo vide diventare segratario solo nel 1972.
A commento del golpe cileno del 1973, il neosegreatario propose il cossiddetto “compromesso storico”: un piano per l’avvicinamento della Dc e del suo partito per formare una grande colaizione di governo che potesse sollevare l’Italia in un periodo nero; tutto ciò in accordo all’idea del consociativismo per cui un Paese fortemente diviso nelle idee dovesse avere rappresentazioni di tutti i gruppi politici nel governo. L’approccio non trovò supporto nel PCI stesso e in tutta l’area della Dc, ad eccezione di Moro e del suo gruppo referente. Il risultato fu dunque un nulla di fatto.
Il partito comunista garantì l’appoggio esterno al governo Andreotti durante il sequestro Moro, pur manifestando le sue perplessità, ma ciò non può essere considerato concretizzazione dell’idea originale, che fu persa per sempre.

Ai giorni nostri, potremmo forse ritrovare qualcosa di simile, ma in senso lato.
Nel 2009 fu indetto un referendum in cui si discuteva dell’assegnazione del premio di maggioranza piuttosto che alla singola lista, ad una coalizione e alla Camera e al Senato. Si cercava di imitare, con pessimi risultati, l’idea americana nella quale fossero presenti due soli gruppi, repubblicani e democratici, che avessero all’interno tutte le voci possibili.
L’obiettivo per i sostenitori del referendum era garantire in un certo senso l’idea di Berlinguer: in un Paese con mille partiti, garantire a tutti la possibilità di poter esprimere le opinioni in Parlamento, per dar voce al popolo, raggruppati in un’unica lista.
Il governo attuale può invece essere considerato come un’eguale (termine un po’ forzato, lo ammetto) al governo che viviamo oggi: in un momento di crisi, tutti i partiti garantiscono l’appoggio a chi governa, al fine di risolvere nel più breve tempo l’emergenza in corso, nonostante divergenze d’idee.

Ricordare fa bene, riflettere sul passato per comprendere il presente anche.
Presto, il seguito.

A marzo di quest’anno, il Giappone fu colpito da un terremoto particolarmente intenso a cui è seguito uno tsunami di altrettanto grande impatto che mise in ginocchio l’intero impianto nucleare di Fukushima: l’acqua bagnò i  generatori di riserva e l’alimentazione per l’impianto di raffreddamento saltò. La temperatura nelle unità in cui giacevano i noccioli crebbe e seguirono le prime esplosioni che però non danneggiarono alcun nocciolo, se non i rivestimenti esterni.
Si pensò allora di pompare dell’acqua marina in grado di raffreddare l’impianto ma questo condusse ad una crescita dell’idrogeno nelle unità che condusse a nuove esplosioni. Con il tempo, però, la situazione si è assestata e di esplosioni non se ne sono più verificate. Di contro una falla permise all’acqua radioattiva di venire a contatto con il mare ed una parziale fusione del nocciolo fu dichiarata, rientrando nel brevissimo termine. Breve riepilogo esaurito, veniamo alle news.

L’IAEA (Agenzia Internazionale per l’Energia Atomica) rilascia periodicamente un report per ragguagliare l’opinione pubblica circa lo status dell’impianto di Fukushima, partendo dalle informazioni fornitele dalla TEPCO (l’azienda che si occupa della gestione dell’intero impianto). Pertanto, grazie ad essi  è possibile conoscere i recenti sviluppi della situazione.
Primo di tutti, un incidente alle Unità 1 e 3, avvenuto il 30 novembre di cui però non si hanno informazioni precise perché le analisi sono in corso, anche se la TEPCO ha riferito che il problema potrebbe essere dovuto alla presenza di combustile fuso depositato sulla base del guscio che racchiude il nocciolo stesso.
L’Unità 2 necessita invece di grandi quantità di acqua per essere raffreddata e si suppone una probabile falla nel guscio che racchiude quello a diretto contatto con il nocciolo; nel frattempo l’azoto è continuamente pompato all’interno della stessa al fine di ridurre la presenza di idrogeno per prevenire esplosioni.
I lavoratori sono impegnati invece nella messa in sicurezza dell’impianto: si sta procedendo infatti al cold shutdown. Da un lato l’abbassamento della temperatura dell’acqua sotto i 100 gradi, permettendo che la pressione nei due gusci di cui sopra sia pari ad 1 atmosfera; dall’altro controllando la fuoriuscita del materiale radioattivo dal primo guscio di contenimento, monitorando la quantità delle radiazioni legate all’operazione.  Tutto questo, nelle Unità 1, 2 e 3.
Per quanto concerne i livelli di radioattività riscontrati, su 8522 campioni raccolti in diversi punti del Paese lo Iodio 131, il Cesio 137/134 sono inesistenti o al di sotto della soglia massima.
In alti 33 campioni, tracce di questi elementi sono state riscontrate, sebbene il Ministero della Salute, Lavoro e Welfare giapponese non lanci segnali di allarme.
Indubbio che la situazione si evolverà ancora. Restate aggiornati.

Per visionare l’intero report, qui.

 

[Continua da qui]

 

Primo. L’influenza del governo. Supponiamo che i mass media siano influenzati, sia pure in maniera velata, dal governo locale e che quest’ultimo usi il suo potere per controllare il modo con il quale le informazioni sono promulgate al pubblico. Sarà naturalmente suo interesse assicurarsi che notizie circa il suo operato non danneggino la sua credibilità, enfatizzando al contrario, quanto di lodevole è stato compiuto. Certo, quella appena descritta è una situazione estrema.
Consideriamo però l’idea in base alla quale un parlamento possa influenzare i media: la sostanza non cambia perché un manager o un dirigente sarà designato in maniera tale da “essere legato” sempre al politico di turno che ha permesso la sua elezione.
Probabile che le informazioni promulgate da un sistema sì fatto non saranno distorte, ma non saranno purtroppo indipendenti. Si noti, inoltre, che la presenza della politica nei media la si osserva in un ulteriore aspetto: in Italia, per esempio, il Parlamento elegge una specifica commissione di Vigilanza il cui compito è quello di controllare i servizi televisivi. E in Spagna, un organismo del genere esisteva fino alla salita al potere di Zapatero.
Secondo. La violenza contro i giornalisti. Supponiamo che un giornalista sia minacciato da qualcuno, per il solo fatto di aver scritto (o con la volontà di scrivere) un pezzo compromettente per qualcuno. Potrebbe definirsi libero? Chiaro che, come nel caso precedente, uno scenario del genere, almeno nelle nostre democrazie, è quasi improponibile. Consideriamo un altro tipo di violenza, quella psicologica, messa in atto con l’arma del giornalismo stesso. Funziona più o meno così: si identifica un soggetto, lo si critica usando espressioni al limite della decenza, screditandolo. Potrebbe il soggetto definirsi libero anche in questo caso? La risposta chiaramente non è semplice come nel caso precedente, perché dipende dal grado di coraggio dell’attaccato di resistere all’attacco mediatico. Nel peggiore dei casi, uscirà di scena.
Terzo. La presenza delle lobbies. Questo rappresenta decisamente il metodo meno “vistoso” per influenzare i media. La ragione va ricercata nel fatto che le lobbies sono solite agire in maniera occulta. Il meccanismo più comune alla base, è lo “scambio di favori”: fare qualcosa a qualcuno per ricevere in cambio altro. Una provocazione: potrebbero essere quella dei politici e quella dei giornalisti due lobbies?

Analizzate le cause, quale potrebbe essere dunque la soluzione per riconoscere un’informazione falsa o verosimile da una vera? Qualcuno potrà obiettare che l’essere scettici aiuti: il non accettare a priori qualcosa come corretta o errata conduce a verificare personalmente l’attendibilità delle informazioni, che si realizza attraverso la Rete.  Essa rappresenta naturalmente una “rivoluzione” perché sfugge alle motivazioni di cui sopra a causa di un “meccanismo di feedback”, perpetuato dagli internauti, che svela le informazioni false. La pluralità di opinioni nel mondo virtuale di Internet, la quale si concretizza mediante piattaforme appartenenti al Web 2.0, permette di raggiungere l’obiettivo di cui abbiamo discusso all’inizio.
E il cerchio è finalmente chiuso: abbiamo iniziato la nostra brevissima analisi dai requisiti alla base della corretta espressione di un’opinione e siamo giunti ad un metodo capace di soddisfare le ipotesi.
Tutto qui, dunque? Naturalmente no. Questa brevissima analisi non è solo “teoria”, ma il punto di partenza per comprendere l’importanza dell’articolo 10 della Convenzione Europea sui Diritti Umani.

Esiste una relazione tra la citazione latina “Sapere aude!”, attribuita ad Orazio ma divenuta famosa grazie ad Immanuel Kant, e il concetto di “democrazia”? La risposta va ricercata nell’importanza dell’esprimere un’opinione.
Dall’Illuminismo abbiamo appreso che la condizione per esprimere una “idea”, è conoscere il fatto collegato alla stessa. Per quel che riguarda il termine “democrazia”, sappiamo che esso indica una forma di governo, nella quale il potere appartiene al popolo che sostiene le proprie idee, diverse da persona a persona, gettando le basi per la concreta realizzazione delle stesse.
Evidentemente, c’è qualcosa che abbiamo tralasciato: i fatti alla base dell’opinione devono essere veri e non suscettibili di interpretazioni.
A partire da questo assunto, siamo adesso in grado di comprendere il vero ruolo dei mezzi di comunicazione di massa nella nostra società democratica. Supponiamo, infatti, di ricevere false informazioni circa una questione fondamentale, su cui saremo, in quanto cittadini, chiamati a votare: assumeremo la decisione in maniera errata (giusta o sbagliata, a questo punto, è un dettaglio), compromettendo l’intera struttura democratica. Se al contrario ricevessimo informazioni veritiere, lontane da qualsivoglia tipo di interpretazione, saremmo liberi di decidere seguendo unicamente la nostra mente, senza alcuna influenza esterna. O almeno, così dovrebbe essere.
Evidente è che la soluzione più semplice da attuare è unica: i media, decretati dalla società come preposti a fornire informazioni, hanno il dovere di riferire il vero.

Sarebbe incompleta la nostra breve analisi se non ci chiedessimo quali sia la ragione per cui dette informazioni raggiungono coloro che ne usufruiranno.
Tutto ha inizio con l’errore. Altra citazione latina, conosciuta ed utilizzata quasi quotidianamente, recita che errare è umano, ma perseverare è diabolico. Non sussisterebbe il problema, dunque, se il l’asserzione falsa fosse frutto di un errore pseudo-casuale, dettato da pura distrazione: esso rappresenterebbe un caso isolato. Ma se una mancanza del genere si trasformasse in abitudine, la cosa si farebbe più seria e ci troveremmo di fronte ad un dilemma che sarebbe opportuno risolvere nel più breve tempo possibile.

Ma c’è qualcosa di più sottile alla base dell’errore che si trasforma in abitudine?
Azzardiamo tre ipotesi, alla base di una risposta affermativa: l’influenza di un governo, anche nei Paesi occidentali e democratici; la violenza contro i giornalisti, per antonomasia preposti a “informare”; la forza delle lobbies.

to be continued..

Nell’ultimo articolo relativo all’Energy Catalyzer, avevamo discusso circa la concreta possibilità che un giorno di ottobre del corrente anno, in suolo americano, si verificasse l’effettiva convenienza del dispositivo, implementando un impianto da 1 MW di potenza. Per questioni correlate all’aspetto legale, il test non sarà più condotto in America con il supporto di un eminente partner americano, quanto piuttosto qui nel Belpaese. Nel suo blog l’ing. Rossi (inventore dell’E-Cat) assicura che, sebbene l’accordo saltato, l’esperimento si terrà comunque, tenendo fede alla parola data. Fatto notare questo aggiornamento, giovedì 6 ottobre a Bologna, si è tenuto il test di uno dei moduli che andrà a costituire l’impianto da 1 MW di cui sopra, al fine di valutare il rendimento del modulo stesso.

Contrariamente a quanto è avvenuto nei test precedenti, in questo caso è stata apportata una modifica alla fase di misurazione dell’energia in output. Come già presentato, l’E-Cat è un dispositivo in grado, dato un flusso d’acqua iniettato mediante una pompa peristaltica, di generare in uscita del vapore acqueo riscaldando l’acqua in ingresso a seguito di una reazione nucleare a bassa energia che coinvolge nichel e idrogeno. L’input di un heat exchanger è rappresentato dal vapore prodotto dall’E-Cat il quale, cedendo calore fino alla condensazione (passaggio dallo stato gassoso allo stato liquido), riscalda l’acqua presente in una conduttura adiacente. Conoscendo la differenza di temperatura dei due flussi (vapore condensato e acqua in uscita del circuito), si calcola l’energia associata all’output, ricordando che essa sarà uguale al prodotto della massa di un flusso moltiplicata il calore specifico moltiplicato la differenza di temperatura. La potenza ottenuta (energia per unità di tempo), come riporta il report a fondo pagina, è pari a circa 3 KW, calcolo al netto della potenza necessaria impiegata per il funzionamento di tutto in dispositivo. Il motivo di un approccio del genere va ricercato all’interno del fatto che la qualità del vapore può effettivamente incidere sulle misurazioni dell’esperimento. Seguendo invece appena detto, si prescinde da parametri riferiti direttamente al vapore.

Sempre nello stesso esperimento si è potuto osservare come il problema dell’autosostentamento sia stato risolto. Come si può leggere nel report succitato, il dispositvo ha funzionato in self suistained mode per quattro ore, non mostrando cali di prestazioni. Al termine dell’esperimento, infine, dopo aver permesso il rallentamento del vapore prodotto tramite l’aumento dell’acqua della pompa e il decremento della quantità di idrogeno pressurizzato, si sono potuti osservare i tre reattori all’interno dell’E-Cat e verificare, come affermato da Rossi, che solo uno di essi fosse effettivamente funzionante.

In attesa del verificarsi dell’esperimento di cui all’inizio che dovrebbe avvenire a fine ottobre, non possiamo che essere soddisfatti anche di questo piccolo passo in avanti. Qui il report, di cui sopra.

Ha scosso in maniera davvero singolare l’annuncio di qualche giorno fa circa il fatto che un fascio di neutrini (partiti dal CERN di Ginevra e diretti ai Laboratori del Gran Sasso, propagandosi attraverso la roccia a 1400 mt di profondità ) abbia viaggiato ad una velocità maggiore di quella della luce, contravvenendo al principio della relatività einsteiniana per cui nulla può viaggiare a velocità superluminali.
Ma, cominciamo dall’inizio. Effettivamente, cosa è un neutrino?

Nel 1930 ci si accorse, a seguito di un esperimento circa il decadimento radioattivo,  che parte della materia iniziale, era “misteriosamente scomparsa”. Da qui, balenò l’idea dell’esistenza di una particella sconosciuta che fu definita “neutrone”, nome poi assegnato ad un altro tipo di particella, di dimensioni maggiori che assieme al protone costituisce il nucleo di un atomo.
Solo nel 1934 si pensò di modificare il nome, assegnando ad essa il nome di “neutrino”: una particella elettricamente neutra che rappresentava parte del prodotto di un decadimento che in fisica si definisce “beta”: un neutrone decade dando origine ad un protone, ad un elettrone ed ad un neutrino.
Le caratteristiche della particella in questione risultano essere particolari: non è soggetta a forza elettromagnetica , agente tra particelle cariche elettricamente; non soggetta all’interazione nucleare forte, molto più grande di quella elettromagnetica che serve a tenere assieme protoni e neutroni nel nucleo di un atomo; risulta però soggetta alla forza nucleare debole, che entra in gioco negli esperimenti di laboratorio che la coinvolgono.
Introduzione necessaria fatta, veniamo all’esperimento di cui tutti parlano.
OPERA, il rilevatore di neutrini presente nei Laboratori nel Gran Sasso, implementato per dimostrare l’oscillazione dei neutrini (la trasformazione degli stessi da un sapore all’altro), ha portato ad un “effetto collaterale” di cui si ignorava l’esistenza: il fascio proveniente da Ginevra ha viaggiato a velocità maggiore di quella della luce. Le misure effettuate  mediante l’ausilio di particolarissimi orologi atomici e dispostivi GPS, effettivamente sembrerebbero corrette.

Il condizionale è d’obbligo in quanto, essendo questo un risultato  unico al mondo, è necessario eseguire altre misure, al fine di trovare un risultato uguale e comprovare che ciò che è avvenuto in Italia non è un caso, quanto invece realtà. Viene richiesto, pertanto, ad altri laboratori di condurre esperimenti simili a quello presentato. L’America, con il progetto NuMI, è già in campo.
L’eccitazione che si respira all’interno della comunità scientifica è certamente elevata. Ma la cautela, d’obbligo. Perché tale risultato potrebbe essere dovuto ad un errore ancora incomprensibile, o rappresentare l’inizio di una nuova “rivoluzione scientifica”.

Il test dell’E-Cat ad ottobre

Pubblicato: 11 settembre 2011 in Articoli Ventonuovo.eu

C’è un evidente fermento all’interno della comunità scientifica tutta e nelle menti di chi ha a cuore il problema dell’energia riguardo la questione dell’Energy Catalizer (da adesso in poi, abbreviato E-Cat), di cui abbiamo già discusso qui. Nel senso che, sebbene sia passato del tempo da quando il progetto è stato lanciato, le circostanze relative al dispositivo in questione si sono letteralmente evolute: una teoria scientifica è stata avanzata e all’interno dei ranghi di eminenti fisici ci si confronta appassionatamente circa la validità; il problema dell’aumento incontrollato di produzione di energia con conseguente raggiungimento di un “punto di rottura” è stato risolto; l’incontro del creatore dell’E-Cat con importanti vertici della NASA ha suscitato qualche attenzione; l’annuncio di un test in suolo americano circa un impianto basato su questa tecnologia in grano di produrre una potenza di 1 MW, ha acceso qualche speranza.

Il test, che dovrebbe avvenire un giorno imprecisato di ottobre davanti ad una schiera di scienziati esperti in materia e a giornalisti altamente qualificati, racchiude in sé il futuro dell’E-Cat. Gli scenari delineabili sono sostanzialmente due. Se l’esperimento dovesse concludersi con un successo che dimostri l’evidente vantaggio di un reattore in grado di produrre una gran quantità di energia, pulita ed estremamente economica, repentinamente si accenderebbe un grande dibattito circa la convenienza degli investimenti in altri settori della ricerca energetica. Nel senso che, in relazione a quanto presentato qui, i costi per il mantenimento del progetto ITER e DEMO sono particolarmente elevati e coloro i quali investono il loro capitale a favore di questo tipo di ricerca potrebbero decidere di appoggiare in misura minore idee del genere. Non è certo automatico che questo scenario trovi concretizzazione, ma non è nemmeno così irrazionale pensare che qualcuno verrà “meno considerato”. Si pensi, giusto per fare un altro esempio, alle centrali di quarta generazione, già fortemente osteggiate nella loro semplice idea. L’altro scenario è simmetrico al primo: se l’esperimento non dovesse andare a buon fine, perché oggetto di malfunzionamenti improvvisi o effetti collaterali non previsti in fase di prova, si potrebbe rinunciare alla messa sul mercato della tecnologia, certi però che essa rimanga argomento di discussione degli addetti ai lavori e che si cerchi di risolvere tutti gli eventuali problemi scaturiti dall’esperimento, per testarla nuovamente quanto prima.

L’appuntamento pertanto, è ad ottobre. Non ci resta che aspettare e restare a vedere quale piega prenderà il futuro. Qui, un ottimo link per tenersi aggiornati.

Chiusa la metropolitana, interrotti i trasporti pubblici (aerei, treni e autobus), rafforzata la rete di distribuzione dell’energia elettrica, soppressi gli eventi culturali, sospesi i mercatini all’aperto. Non è certo un ottimo background per l’ultimo film nelle sale cinematografiche, quanto la triste realtà che attanaglia in queste ore la città di New York che si vede minacciata da un nuovo uragano, nome in codice “Irene”, che troverà la sua massima potenza, secondo le stime, domani verso le 13 (ora locale) all’altezza di New York. Precedentemente classificato come “forza 3”, si prevede che in corrispondenza della zona appena citata, raggiunga “forza 1”, sebbene la forza dei venti coinvolta rimanga sempre eccessivamente alta come dichiarano al “Centro Nazionale per gli uragani”. Il punto è che Irene ha un diametro pari a 800 km, visibile dallo spazio, con venti che potranno anche raggiungere una velocità di 170 km/h nella zona newyorkese. Le misure adottate, pertanto, non devono apparire strane o eccessivamente caute: sono anzi necessarie come ha ricordato il sindaco Bloomberg che ha ordinato l’evacuazione di 250 mila persone, da completarsi entro le 17 (ora locale) di oggi. Supermercati praticamente depredati di tutti quegli alimenti considerati prima necessità e un via vai di automobili che si lasciano alle spalle grattacieli e cemento, cercando nel New Jersey e in generale nell’est del Paese, rifugi sicuri in cui soggiornare, altri due aspetti significativi di tutta l’angoscia che si vive a New York. L’evento atteso tanto è grave che il presidente Obama ha pensato bene di rientrare alla Casa Bianca, parlando ai 55 milioni di abitanti minacciati da Irene a seguire scrupolosamente le indicazioni delle autorità locali.

Cronaca a parte, come nasce un uragano? Anzitutto, il termine in questione deriva, secondo alcuni studiosi, da “Hurrican”, dio caraibico, luogo in cui tutto inizia. I temporali si addensano, si crea una sorta di “spirale”, i venti tropicali incrementano le dimensioni della stessa, la tempesta prende una nuova forma: l’uragano, appunto. L’attrito con la terra, poi, farà il resto: decrementerà la potenza distruttiva del fenomeno facendo si che esso si esaurisca in qualche giorno. Dopo aver provocato qualche danno. Si prevede infatti che Irene potrà addirittura causare danni in grado di condizionare il Pil (Prodotto Interno Lordo) che, in questo periodo di crisi economica e finanziaria, è l’ultima cosa che si desidera.

Non resta che restare a guardare come si evolverà la situazione e quanto le misure adottate saranno idonee a prevenire il peggio. Sperando, naturalmente, per il meglio.

Si è conclusa nella giornata di venerdì scorso la Ministerial Conference on Nuclear Safety, la cui apertura è stata presentata in un precedente articolo di questo giornale. E poiché il pezzo appena citato prendeva spunto dalle dichiarazioni del Direttore dell’IAEA Mr. Amano (nella foto), sembra opportuno riprendere le sue considerazioni conclusive per tracciare un bilancio in merito agli obiettivi che questa Conferenza si è posta, alla luce del fatto che essi rispecchiano in buona parte, gli auspici del Direttore stesso.

Infatti, idee come il miglioramento dei protocolli dell’IAEA circa la sicurezza degli impianti, la revisione periodica da parte di esperti super-partes degli stessi, la necessità degli Stati membri di legiferare sui temi in questione e la crescita del ruolo dell’IAEA come nodo centrale attraverso il quale passano informazioni pertinenti, hanno trovato concretizzazione.

Lunedì infatti, come citato nell’articolo di cui sopra, è stato firmato un accordo: il Ministerial Declaration, documento che racchiude in esso tutto la responsabilità di cui gli Stati membri che si esprime nell’elenco di cui sopra a cui, volutamente, manca una voce: Fukushima.

Non è un caso infatti che il primo articolo dell’accordo vada a ricordare che i ministri dell’IAEA tutta “esprimono compassione e solidarietà” nei confronti delle vittime dello tnumani dell’11 marzo, e si impegnano “a continuare ad assistere il Giappone nei suoi tentativi di mitigare e superare le conseguenze del disastro” nucleare.

Ma il direttore avverte, con tono quasi perentorio: sebbene il Ministerial Declaration non sia un “processo”, quanto piuttosto un “risultato” ed un “successo”, il primo obiettivo è “tradurre in azioni” quanto scritto su carta, affinché “gli impianti nucleari siano quanto più umanamente sicuri possibile, quanto più velocemente possibile.”.

Non c’è dubbio che questo sia il passo appena prossimo da intraprendere, ma ricordiamo l’importanza dell’incidente di Fukushima, del quale questo giornale si è occupato: esso ha rappresentato un pretesto fondamentale affinché gli Stati membri fossero ancora di più stimolati ad impegnarsi in un tema come la sicurezza nucleare che, come si è presentato nel pezzo succitato, è una questione davvero troppo attuale per essere presa a cuor leggero.

Per concludere, un breve inciso: nel Ministerial Declaration, all’articolo 3 c’è il riconoscimento da parte dei firmatari dell’accordo del fatto che non tutti gli Stati membri abbiano scelto di adottare politiche atte alla produzione di energia attraverso il nucleare. Questa scelta però non rappresenta motivo di esclusione dal dibattito che deve chiaramente tener conto, come in un organismo democratico che si rispetti, anche dell’opinione diametralmente opposta a quella dominante.

Questo a dimostrare l’imparzialità e la “serietà” di un’agenzia internazionale come l’IAEA.

Inizia oggi e si protrae fino al 24 giungo, il Ministerial Conference on Nuclear Safety, convegno organizzato a Vienna dall’IAEA (Agenzia Internazionale per l’Energia Atomica) alla luce dei fatti di Fukushima. Nella sua introduzione, il direttore dell’agenzia Amano secondo le dichiarazioni contenute qui, ha ricordato quanto sia cruciale un’iniziativa del genere che pone al centro del confronto la necessità di ridiscutere della questione più esosa legata alla produzione di energia nucleare: la sicurezza degli impianti. L’intervento del direttore non si è limitato però ad esprimere solo un giudizio di merito circa la conferenza, quanto piuttosto è entrato nel merito della stessa, esternando alcune proposte che, ci auguriamo, vengano prese seriamente in considerazione nei prossimi giorni. In breve, presentiamo ciascuna di essa. Prima. Definizione di nuovi standard di sicurezza che dovranno essere “universalmente implementati” e che dovranno trovare nella realtà un riscontro obiettivo, senza che rimangano solo semplici idee sulla carta. Secondo. Revisione periodica di detti protocolli che vedranno una effettiva partecipazione dei Paesi membri che, sotto buoni pronostici, saranno chiamati a impegnarsi per promuovere revisioni quanto migliori possibili. Terzo. Stesura dei protocolli di cui sopra da personale altamente classificato e “genuinamente indipendente”. Quarto. Miglioramento degli standard atti a gestire gli incidenti nucleari con la necessità di stabilire relazioni forti e sicure con enti intermedi, quali Stati e Regioni, con l’affidamento del potere ad organismi nazionali creati appositamente, non esistenti in tutti i Paesi. Fermo restando che il ruolo di coordinatore spetta all’IAEA. Quinto. Gestione della “condivisione delle informazioni” atte non solo ad informare i Paesi membri circa l’incidente nucleare, quanto provvedere a stilare rapporti che mettano in luce eventuali scenari circa l’impatto delle radiazioni derivanti l’evento con l’obiettivo di fornire il pretesto ai Paesi Membri di elaborare strategie in ordine al contenimento dei danni. A tutto questo si aggiunge anche la proposta di rivedere la scala Ines, di cui abbiamo già parlato qui. L’intervento di Mr. Amano si chiude con due scommesse, una più grande dell’altra: la necessità che lezione di Fukushima sia sempre al centro dell’attenzione e la promozione dell’energia nucleare come “sicura e umanamente possibile”. Non c’è dubbio che il convegno si sia aperto con i propositi migliori. Aspettiamo solo la conclusione dello stesso per comprendere cosa cambierà in un mondo dove il problema del nucleare non è più del futuro, ma dell’attuale presente. Per seguire dettagliatamente gli sviluppi del convegno, http://www.iaea.org. Intanto, qui la “declaration” del primo giorno.