Nucléaire Radioprotection et Internet

19 août, 2010

Le démantèlement des installations nucléaires

Classé dans : Info — deedoff @ 14:47

aleqm5hohetnmfjijlcxpyz9petvumm4ca.jpg

 

Le point de vue de Sortir du nucléaire Cornouaille et du CRILAN , un problème d’intérêt général, pas une perspective marchande !

Le nucléaire ne peut se réduire à la question énergétique, c’est un choix de société, nucléaire, militaire, policière, centralisée qui a été imposé aux Français sans consultation démocratique. C’est un choix qui épuise les ressources, met en danger son propre avenir, qui endette durablement le pays. C’est un choix qui hypothèque l’avenir de l’humanité.

Albert Jacquard parle « de suicide à long terme » si nous ne stoppons pas cette folie.

La question du démantèlement des installations nucléaires ( il y en a plus d’une centaine en France actuellement ) doit être dictée par des impératifs de santé publique, de sécurité des travailleurs et de la population, de préservation des écosystèmes en raison des risques liés à la contamination radioactive. Elle ne doit pas être dictée par la poursuite d’intérêts commerciaux ou pour en faire un secteur durable d’emplois même si hélas, l’héritage sera lourd et long à gérer.

Les conditions actuelles de démantèlement sont révélatrices de l’impasse nucléaire. C’est cela qu’a mis en lumière le combat de l’association Sortir du nucléaire Cornouaille avec d’autres associations antinucléaires sur la question du démantèlement, combat soutenu et appuyé par des milliers de citoyens.

L’association Sortir du nucléaire Cornouaille a engagé depuis plus de 5 ans un bras de fer avec EDF et les autorités, sur le difficile dossier du démantèlement de la centrale nucléaire de Brennilis. Elle a contribué :

* à ce que le Conseil d’Etat annule en juin 2007 le décret de démantèlement complet de Brennilis

* à faire reconnaître par EDF en novembre 2007, la contamination radioactive du chenal de rejets grâce à des prélèvements de mousses analysés par le laboratoire de la CRIIRAD.

* Et récemment, en mars 2010, à ce que la commission d’enquête prononce un avis défavorable. Une lettre-pétition à l’initiative des 7 associations avec plus de 9000 signataires lui avait été remise.

Depuis plus de 3 ans, elle réclame avec d’autres associations, appuyée par de nombreuses pétitions signées par plusieurs dizaines de milliers de citoyens qu’un débat public national soit ouvert enfin sur la question du démantèlement des installations nucléaires et du devenir de ses déchets, car 14 démantèlements d’installations vont être engagés. Ce à quoi, les autorités et le lobby nucléaire tentent de se soustraire en morcelant les dossiers par des enquêtes éparpillées, empêchant le citoyen d’avoir une réelle vision globale et de pouvoir peser sur des choix cruciaux qui le concernent.

Ainsi, à la Hague, AREVA s’apprête à démanteler l’atelier Haute activité oxyde et 3 INB de l’usine UP2 400, pour un coût de 125 millions d’euros par an pendant 25 ans au moins ( Sans envisager la dérive des coûts).Il est important qu’on sache le coût global à venir du démantèlement dans une période où le pouvoir continue d’asséner que l’électricité nucléaire est la moins chère du Monde.

C’est dans ce contexte que Sortir du nucléaire Cornouaille vient de déposer en juin 2010 avec 6 autres associations [1] un recours devant le Conseil d’Etat pour le décret concernant l’ICEDA du Bugey (installation de stockage « provisoire » des déchets les plus radioactifs du démantèlement). Cette option, qui de plus, n’est pas définitive, augmenterait le nombre de transports de déchets hautement radioactifs et dangereux à travers toute la France.

Et il faut examiner et débattre de la possibilité du stockage des déchets radioactifs sur les sites mêmes où ils ont été produits, option nettement plus cohérente si l’on se place dans la situation d’arrêt du nucléaire.

Aussi à « Nucléaire : arrêter la fuite en avant ! », nous disons bien sûr oui ! mais à « démanteler maintenant », nous répondons : non ! il est urgent d’attendre. Le démantèlement, parlons-en d’abord.

Le lobby nucléaire pousse à la précipitation dans ce domaine alors qu’il n’existe actuellement aucune solution de stockage pour ces déchets, que l’option sur site n’a pas été débattue et que les travailleurs seraient moins exposés si on attendait pendant 50 ans la décroissance radioactive de la cuve du réacteur. Les industriels EDF et AREVA veulent démontrer que le démantèlement est faisable, pour permettre ainsi le renouvellement du parc nucléaire. Peu leur importe si des doses de radioactivité accrues sont prises par les travailleurs, des déchets nucléaires entreposés provisoirement.

La CADA (Commission d’Accès aux Documents Administratifs) a accepté qu’EDF ne communique pas à l’avocat de Sortir du nucléaire, l’étude détaillée des scénarios de démantèlement de Brennilis pour un motif commercial . Elle contenait des éléments de comparaison concernant le calcul des doses de radioactivité prises par les intervenants. C’est inacceptable. Le démantèlement ne doit pas se faire au nom de logiques marchandes, au détriment de la santé des travailleurs, de la population et de l’environnement.

Utiliser les mots « marché porteur », « savoir-faire à l’exportation », c’est faire le jeu du lobby nucléaire et son complexe militaro-industriel et financier. Le démantèlement des installations nucléaires sera de toute façon une affaire « démente » [2] par le coût, la dangerosité, l’ingérabilité des déchets radioactifs. Et on ne pourra parler dans ce domaine que de moins mauvaise solution car il n’y en a pas de satisfaisante.

Pour sortir du nucléaire, nous devons faire prendre conscience au citoyen des problèmes[3]que pose le démantèlement des installations nucléaires, de l’urgence à arrêter de produire des substances radioactives. C’est pourquoi ces problèmes posés par le démantèlement, doivent être enfin exposés au grand jour et notamment par un débat public, honnête et non truqué que nous devons exiger conformément à la convention d’Aarhus.

Qui sait qu’à Brennilis, le démantèlement de la station de traitement des effluents radioactifs, autorisé par le premier décret de démantèlement partiel de 1996, n’a toujours pas pu être réalisé dix ans plus tard en raison du niveau d’irradiation rencontré ?

Les Verts Allemands ont été intraitables sur la question du démantèlement des installations nucléaires tant qu’une décision de sortie du nucléaire n’a pas été prise.

Ne leurrons pas les citoyens, le démantèlement sera toujours une affaire à hauts risques sanitaires en raison des poussières radioactives émises tant pour les travailleurs que la population. Deux intervenants sur le démantèlement d’un atelier de l’usine de La Hague ont inhalé en 2006 des vapeurs contenant des particules de plutonium. Un millionième de gramme suffit pour déclencher un cancer des poumons à plus ou moins long terme.

Le démantèlement des installations nucléaires est une question d’intérêt général et non marchand qui doit être d’abord débattue, pour créer une coopération au point de vue international vers une dé nucléarisation de la planète.

Source
 

La physique repousse les frontières du monde connu

Classé dans : Info — deedoff @ 5:20

frejus.jpg

Voilà vingt-huit ans que la France n’avait pas accueilli l’événement. Depuis le 22 et jusqu’au 28 juillet, un millier de chercheurs sont réunis, au Palais des congrès de Paris, pour la 35e Conférence internationale sur la physique des hautes énergies (Ichep), le rendez-vous bisannuel de la discipline, à laquelle les équipes les plus en pointe réservent leurs derniers résultats.

Vedette de cette édition, le grand collisionneur d’hadrons (Large Hadron Collider, LHC) de l’Organisation européenne pour la recherche nucléaire (CERN) de Genève. Depuis le 30 mars, l’accélérateur de particules fonctionne avec une énergie de collision entre protons de 7 millions d’électrons-volts (tera-électrons-volts ou TeV). Pulvérisant le record jusqu’alors détenu par le Tevatron américain du Fermilab de Chicago, limité à 2Tev.

Au cours de ces trois mois et demi de travail intensif, les équipes du CERN ont affiné leurs instruments, tout en augmentant le nombre de paquets de protons injectés dans les faisceaux, donc le nombre de collisions et de données expérimentales.

Le « graal » des physiciens

« Il serait très surprenant que les chercheurs du LHC annoncent déjà des résultats de physique extraordinaires, pense Guy Wormser, directeur du Laboratoire de l’accélérateur linéaire (LAL) d’Orsay (CNRS-université Paris-Sud) et organisateur de la manifestation. Ils commencent juste. Mais leurs premières mesures vont ouvrir une fenêtre sur un domaine d’énergie que l’humanité n’a encore jamais exploré. »

Car telle est la finalité de la physique des hautes énergies : « Comprendre le monde qui nous entoure, qu’il s’agisse de la matière déjà connue avec ses composants élémentaires que sont les quarks et les leptons, ou de la matière qui nous est encore inconnue, c’est-à-dire la matière noire et l’énergie sombre qui forment 96 % de l’Univers. » Le LHC n’est pas seul engagé dans cette aventure. Les équipes du Tevatron, auxquelles sont associés le CNRS et le Commissariat à l’énergie atomique (CEA), sont aussi sur la piste du boson de Higgs, « graal » des physiciens.

En 2009, elles ont resserré le filet autour de cette « particule divine », encore hypothétique, qui donnerait leur masse à toutes les autres particules. Le boson de Higgs n’a pas été observé, mais le domaine de masse (ou d’énergie) où il se cache a été restreint. Les communications présentées à Paris permettront peut-être de savoir si les intervalles de masse où il faut le chercher peuvent encore être réduits.

Le Fermilab a récemment fait sensation, en mettant en évidence une forte asymétrie – de l’ordre du centième, alors que les prévisions théoriques sont de l’ordre du millième – entre le nombre de particules et d’antiparticules produits par des collisions. Une asymétrie qui pourrait expliquer pourquoi, juste après le Big Bang, la matière l’a emporté sur l’antimatière, donnant ainsi naissance à notre monde. « Si ces résultats, inattendus et troublants, sont confirmés, il faut s’attendre, avec le détecteur du LHC dédié à l’étude de l’asymétrie entre matière et antimatière, à un véritable feu d’artifice », prédit Guy Wormser.

Autre percée commentée : la première observation, dans le laboratoire italien du Gran Sasso, près de Rome, de la métamorphose d’un neutrino (particule élémentaire la plus abondante dans l’Univers mais insaisissable car de masse infime) d’un certain type en neutrino d’un autre type.

La physique des hautes énergies n’est cependant pas qu’affaire d’accélérateurs géants. Dans le tunnel du Fréjus, des chercheurs mettent à profit la géologie – une couverture de 1 700 mètres de roche faisant écran aux rayons cosmiques – pour traquer des particules nées avec le Big Bang mais jamais détectées : les wimps, qui pourraient constituer la matière noire. Et le satellite européen Planck, qui observe le rayonnement fossile témoignant des premiers instants de l’Univers, a livré, début juillet, une image exceptionnelle de l’intégralité du ciel.

Une « Nuit des particules »

Expérience après expérience, le socle du modèle standard de la physique, élaboré au début des années 1970, vacille. Voilà quelques jours, une équipe internationale a montré que le proton (l’un des constituants du noyau des atomes) a un rayon légèrement inférieur à la taille jusqu’alors admise : 3 centièmes de millionième de millionième de millimètre en moins, qui suffisent à remettre en cause la théorie de l’électrodynamique quantique, l’une des clés de voûte de la physique actuelle.

« Le modèle standard a le bon goût de décrire… ce que nous savons déjà, commente Guy Wormser. Il ne constitue qu’une approximation, qui fonctionne remarquablement aux niveaux d’énergie auxquels nous sommes parvenus jusqu’ici, mais qui est faux, ou incomplet, à des niveaux d’énergie supérieurs. Forcément, une nouvelle physique existe. »

Pour que celle-ci ne reste pas totalement hermétique aux non-initiés, le CNRS a eu l’heureuse idée d’organiser, pour le grand public, une « Nuit des particules ». Sûrement très énergétique.

Source

 

Vidéo de la visite du laboratoire souterrain de Fréjus-Modane

http://www.dailymotion.com/video/xbuxm

Plateau d’Albion : du secret militaire au silence scientifique

Classé dans : Info — deedoff @ 4:55

albion.jpg

Enfoui sous 500 mètres de roches, le centre de tir stratégique de la frappe nucléaire du plateau d’Albion, démantelé en 1996, a été reconverti en un laboratoire quasi unique au monde pour étudier les phénomènes les plus silencieux.

« C’est le laboratoire le plus silencieux de la planète ! » Devant l’écran d’un sismographe où s’affiche avec précision la houle marine de l’Atlantique pourtant distante de 600 kilomètres, Georges Waysand n’en revient toujours pas. C’est par mail que, il y a douze ans, ce chercheur du Groupe de physique des solides de l’université Paris-VII a appris que l’armée de l’air vendait ce poste de conduite de tir de la force de frappe nucléaire française : 3 kilomètres de galeries enfouies sous 500 mètres de roches calcaires dans le « désert » du plateau d’Albion (à cheval entre le Vaucluse et les Alpes-de-Haute-Provence), loin de toutes activités urbaines, industrielles ou routières. Persuadé de pouvoir y mener toutes sortes d’expériences inédites grâce à l’absence de signaux parasites, il convainc la communauté de communes du pays d’Apt de se porter acquéreur du site basé à Rustrel.
La région est pauvre. Avec le démantèlement des 18 silos nucléaires ordonné en 1996 après trente-trois ans de service militaire et le départ consécutif des officiers et de leur famille, c’est un pan supplémentaire de l’économie qui s’effondre. La proposition de reconversion scientifique du site tombe donc à pic.

Tranquillité idéale
Rebaptisé Laboratoire souterrain à bas bruit (LSBB) par le CNRS, l’ultime vestige du système d’armes balistiques stratégique attire en quelques mois des chercheurs du monde entier qui font la queue pour placer leurs instruments de mesure. « Ces galeries ont été conçues pour résister à l’impact, au souffle et aux perturbations électromagnétiques d’une bombe nucléaire de forte puissance, explique Stéphane Gaffet qui en a pris la direction. C’est comme si on se trouvait au calme à 1.500 mètres sous l’eau avec un niveau de bruit électromagnétique 100 fois inférieur à celui d’un cerveau dans sa phase de sommeil profond. » Une tranquillité idéale pour mener toutes sortes d’expériences sensibles aux bruits parasites d’origine sismique, acoustique, mécanique et même cosmiques.
Une trentaine d’équipes scientifiques se relaient donc dans l’installation soutenue par l’Observatoire de la Côte d’Azur, le CNRS et l’université de Nice : physiciens, géologues, hydrologues, biologistes qui conduisent chacun des expériences très précises dans l’infiniment petit.
Bruit électromagnétique faible

Derrière l’épaisse porte d’acier d’une des salles où même les boussoles sont inopérantes, les chercheurs du Centre de physique nucléaire de l’université de Lisbonne y ont par exemple installé un détecteur de leur cru pour tenter de piéger les particules massives faiblement interactives (les WIMP) qui figurent en théorie parmi les candidats les plus sérieux pour constituer, au moins partiellement, la masse manquante de l’univers. « On suppose que ces particules « invisibles » n’interagissent quasiment pas avec la matière, ce qui rend leur détection très délicate puisqu’elles se « cachent » parmi d’autres, telles que les électrons, muons, rayons gamma ou X qui viennent heurter la Terre, explique le chercheur Tom Girard qui coordonne le projet. Notre objectif est de faire le tri parmi ces éléments pour trouver cette particule hypothétique grâce à un détecteur utilisant des microgouttelettes de fréon prêtes à exploser au moindre contact. Pour fonctionner, il nous fallait l’environnement très faiblement perturbé du LSBB. »
Les premiers résultats obtenus valent à l’expérience de figurer dans le Top 10 mondial des recherches les plus significatives sur la matière sombre galactique. Une autre équipe exploite les qualités de l’ancien poste de commandement suspendu sur d’énormes amortisseurs. Rien ne devait entraver un ordre de tir. Son blindage protège donc la pièce du moindre rayonnement électromagnétique risquant d’endommager les installations électriques. « Le bruit électromagnétique enregistré ici est l’un des plus faibles au monde », précise Stéphane Gaffet. Son équipe y a donc placé des sismographes pour disposer en continu d’une image tridimensionnelle des remous terrestres. « Grâce à cet outil, nous espérons comprendre les mécanismes de propagation et d’amplification des séismes », explique Stéphane Gaffet. Un comble pour le site qui fut chargé de faire trembler le monde.

Source

Vulgarisation scientifique

Classé dans : Info — deedoff @ 4:39

cpassorcier1.jpg

Le bus de « C’est pas sorcier » en tournée.

Le célébre bus de l’émission de vulgarisation scientifique de France 3 « C’est pas sorcier fera pendant trois ans le tour de la France, apprend-t-on du magazine TV Grandes Chaînes.

Après un test concluant cet été en Bretagne, le camion-labo sillonnera la France entière à partir du 10 septembre.

Fred et Jamy donneront le coup d’envoi de ce tour de France.

Source

18 août, 2010

Cuprates supraconducteurs

Classé dans : Info — deedoff @ 20:26

Comme l’actualité n’est pas débordante ce soir concernant le domaine de ce blog, j’en profite pour passer un message de soutien à mon neveux qui, fin de congé oblige, s’est remis ardemment à la rédaction de sa thèse sur les cuprates supra-conducteurs (courage !).

Ne me demandez pas ce que c’est ni à quoi sa sert: je serais bien incapable de vous répondre, car je n’en sais rien ! (pour les curieux, wikipédia explique cela ici: cuprate semi-conducteur).

Néanmoins, le sujet des supra-conducteurs amène des choses plutôt rigolotes à voir comme ce train en lévitation, du plus bel effet.

http://www.dailymotion.com/video/x49emu

 

Régalez-vous, c’est de la science, et pis c’est tout !

Isotopes médicaux: Chalk River de nouveau en service

Classé dans : Info — deedoff @ 5:30

transporteseringuesplomb.jpg

Le réacteur nucléaire de Chalk River, en Ontario, est de nouveau en activité, et fonctionne à plein régime, a annoncé Énergie atomique du Canada Ltée (EACL), mardi.La production d’isotopes médicaux a donc repris.

EACL prévoit faire une première livraison de ce précieux outil de la médecine nucléaire dès cette semaine à son client, MDS Nordion.

Les isotopes médicaux sont utilisés dans le diagnostic et le traitement de maladies potentiellement mortelles, comme le cancer.

Le réacteur a été mis hors service en mai 2009. Une fuite d’eau lourde à la base du caisson du réacteur avait été détectée à la suite d’une panne de courant.

Le réacteur de Chalk River, vieux de 53 ans, produit de 30 à 40 % des isotopes médicaux utilisés dans le monde.

La firme MDS Nordion achète l’ensemble des isotopes médicaux produits à Chalk River. Elle se prépare à solidifier son approvisionnement et communiquera sa capacité d’expédition à ses clients aussitôt qu’elle le pourra.

Source

17 août, 2010

Radioactivité : 98% des doses dues à des radiations artificielles sont d’origine médicale

Classé dans : Info — deedoff @ 19:59

dosimetreinlight.gif

VIENNE — Les rayonnements ionisants d’origine médicale comptent pour 98% des doses de radiations artificielles auxquelles est exposée la population, d’après un rapport du Comité scientifique des Nations Unies pour l’étude des effets des rayonnements (UNSCEAR), présenté mardi à Vienne.
« Les expositions médicales représentent 98% des sources artificielles et sont désormais le second contributeur principal des expositions humaines à l’échelle mondiale », peut-on lire dans le rapport.
Les rayons-X et autres rayonnements ionisants d’origine médicale représentent 20% du total des expositions, ajoute l’UNSCEAR, comité qui évalue les niveaux et les effets des rayonnements ionisants au niveau mondial et fournit ensuite une base scientifique pour la radioprotection.
« Depuis le dernier rapport (en 2006), les rayonnements radioactifs reçus par la population mondiale n’ont en moyenne pas changé », a déclaré Wolfgang Weiss, vice-président de l’UNSCEAR.
Cependant, si certaines sources ont diminué, d’autres ont augmenté: « actuellement entre 3,5 et 4 milliards d’examens médicaux avec rayons-X sont pratiqués annuellement. Depuis 1980, la quantité des expositions médicales a doublé. Et dans certains pays, cette quantité est égale à celles des sources naturelles », a déclaré Fred Mettler, responsable de l’UNSCEAR.
« L’augmentation des radiations en médecine n’est pas nécessairement néfaste, il faut seulement s’assurer de son utilité », explique M. Mettler: que l’examen soit bien approprié au cas du patient et que la quantité de rayons administrée soit optimisée.
L’UNSCEAR se félicite d’une certaine sensibilisation de la population à la suite de ses précédents rapports et espère voir le public encore davantage informé.
L’exposition à la radioactivité naturelle est due notamment à l’inhalation de gaz radon, aux rayons cosmiques, aux radionucléides existant sur Terre qui peuvent être incorporés par le corps humain (potassium 40 en particulier).
La dose moyenne individuelle de rayonnements ionisants d’origine naturelle auxquels est exposée la population est de 2,4 millisieverts par an. Elle peut varier en fonction de l’altitude (transports aériens) et de la présence d’un sol granitique notamment.
Le sievert est une unité tenant compte des effets biologiques des rayonnements ionisants.

Source

Heuristique de la peur par Dominique Lecourt, Philosophe

Classé dans : Info — deedoff @ 19:16

Le nucléaire est-il une question de société ?
Intervention prononcée lors du colloque du 24 janvier 2006 Le nucléaire et le principe de précaution

Je vais essayer de venir, en tant que philosophe, parler du principe de précaution et de son étrange fortune qui s’est vérifiée ce soir à cette table par la référence constante qui y est faite.
Une maxime de la sagesse populaire avertit les plus timorés d’entre nous qu’« on n’est jamais trop prudent » ; une autre, dont se prévalent à l’occasion les plus audacieux avance au contraire : « qui ne risque rien n’a rien ». Ces deux maximes opposées semblent avoir définitivement délimité le champ des débats assez pauvres qui, depuis trente ans, prennent pour objet les implications humaines et sociales des grandes innovations technologiques.
Dès lors que le fameux « principe de précaution » a été inscrit dans la Constitution, c’est la première de ces maximes. On en vient même à identifier purement et simplement le risque au danger, et jamais plus à l’occasion favorable. On oublie que la prise de risque devrait être calculée en fonction du rapport entre le bénéfice escompté et le danger encouru. L’expertise scientifique, si indépendante et précise qu’elle soit, est systématiquement soupçonnée d’insincérité ; on la dénonce comme toujours manipulée par des lobbies ; la rumeur, le document le plus vague émanant de l’autorité la plus douteuse, se trouvent mis à contribution pour compléter le portrait officiel d’homo technologicus en homo diabolicus.
Dernier épisode en date : le bruit qui désigne l’expansion de la téléphonie mobile comme un danger pour la santé publique. Ce danger proviendrait d’abord des antennes-relais installées pour couvrir le territoire. Elles exposeraient les populations alentour à des champs électromagnétiques nocifs générant des migraines, insomnies et dépressions, voire des crises d’épilepsie. L’usage des téléphones eux-mêmes provoquerait de son côté des cancers du nerf auditif, sinon du cerveau. Devant de si graves accusations, alors que plusieurs milliards d’êtres humains utilisent chaque jour leur téléphone mobile (45 millions en France) et s’en réjouissent, on comprend que les organismes internationaux et nationaux en charge de la santé publique aient réagi. Dès la fin des années 90, l’O.M.S., par exemple, a lancé une vaste enquête internationale. Plusieurs dizaines de milliers d’articles ont été publiés sur les effets biologiques d’une exposition à des champs électromagnétiques de faible intensité. En France, l’Agence française de sécurité sanitaire environnementale, l’A.F.S.S.E., a rendu un avis extrêmement documenté sur cette question le 7 juin 2005. De ces enquêtes et études, il ressort qu’à ce jour il n’existe aucune preuve d’un effet nocif des antennes ou des téléphones sur la santé humaine. Quoi qu’il en soit, il se trouve toujours quelques chercheurs pour alimenter la presse d’inquiétudes. Certains politiques s’en emparent aussitôt. C’est ainsi qu’il s’est trouvé huit députés français pour déposer à la Présidence de l’Assemblée Nationale, le 13 juillet 2005, un projet de loi prescrivant une diminution du niveau d’exposition des citoyens à 0,6 volt par mètre. Ce qui signifierait la fin des moyens de communication moderne (émetteur de radio FM et télévision en tête).

C’est en Allemagne, à la fin des années 60 du siècle dernier sous le nom de Vorsorgeprinzip, à propos de problèmes d’environnement que le principe de précaution est pour la première fois formulé. Son accession à la notoriété internationale coïncide avec la Déclaration de Rio au Sommet de la Terre en juin 1992. Il entre dans le droit de la Communauté Européenne avec le Traité de Maastricht en 1992 (Article 130R) puis celui d’Amsterdam au titre d’un principe qui gouverne les politiques d’environnement de l’Union.
Le 2 février 1995, la loi Barnier l’inscrit dans le droit français sur la protection de l’environnement. Elle le présente comme le principe « selon lequel l’absence de certitudes compte tenu des connaissances scientifiques et techniques du moment, ne doit pas retarder l’adoption de mesures effectives et proportionnées visant à prévenir un risque de dommages graves et irréversibles à l’environnement, à un coût économiquement acceptable ».
Le Conseil d’Etat donne en 1998 cette définition très précise, mais non dénuée d’un extrémisme inattendu d’une institution d’ordinaire si pondérée :
« Ce nouveau concept se définit par l’obligation pesant sur le décideur public ou privé de s’astreindre à une action ou de s’y refuser en fonction du risque possible. Dans ce sens, il ne lui suffit pas de conformer sa conduite à la prise en compte des risques connus. Il doit, en outre, apporter la preuve, compte tenu de l’état actuel de la science, de l’absence de risque ».
Les premières formulations, liées aux questions d’environnement, mettent l’accent sur l’absence de certitudes concernant les risques qu’il faut éviter de prendre. Il s’agit d’un principe d’action publique qui autorise les pouvoirs publics à prendre les mesures nécessaires pour faire face à ces risques – lesquels ne sont point avérés, mais éventuels (1).
Mais de proche en proche – et très rapidement – le principe de précaution s’est étendu à des domaines de plus en plus éloignés de l’environnement. C’est sans doute le cas des OGM qui dans l’opinion publique a fait (à tort) le lien avec les préoccupations de santé associées au traumatisme du sang contaminé puis à la menace de la vache folle. Le rapport remis au Premier ministre, le 15 octobre 1999, par Philippe Kourilsky et Geneviève Viney (2) dit : « Le principe de précaution doit s’imposer à tous les décideurs ». Il s’agirait d’un nouveau principe de responsabilité s’appliquant à « toute personne qui a le pouvoir de déclencher ou d’arrêter une activité susceptible de présenter un risque pour autrui ».
Prise au pied de la lettre, cette définition de portée universelle ne comporte-t-elle pas le risque d’une banalisation du principe ? Bruno Latour, sarcastique, écrit un article dans Le Monde daté du 4 janvier 2000 qui commence par ces mots : « Invention aussi utile que fragile, le principe de précaution va, si nous n’y prenons pas garde, se banaliser au point de se confondre avec la simple prudence ». Et il achève cette entrée en matière par ces mots : « Non décidément s’il fallait un synonyme à la prudence, ce n’était pas la peine d’inventer un terme aussi pédant – ‘‘faire gaffe’’ aurait bien suffi ». Avec l’invention du principe de précaution, il s’agit en fait, affirme-t-il, de quelque chose de plus sérieux, de plus nouveau, que de la réactualisation d’une sagesse millénaire.
Latour réplique ici implicitement à Jean-Jacques Salomon (3) qui défendait au même moment l’idée que la « précaution » ne serait que la version moderne de la « prudence » aristotélicienne.
Dans l’Ethique à Nicomaque, Aristote (384-322 av. JC) développait une conception de la phronèsis – traduite par Cicéron (106-43 av. JC) en latin par prudentia – en référence à providentia – comme capacité de délibérer sur les choses contingentes. Elle correspond à la vertu de la partie calculative ou opinative de l’âme et se distingue en cela de la science. Disposition pratique en tant qu’elle vise l’action plutôt que la production, elle concerne la règle du choix et non le choix lui-même : elle se distingue, comme vertu intellectuelle, de la vertu morale. Ainsi « la prudence est une disposition, accompagnée de la règle vraie, capable d’agir dans la sphère de ce qui est bon ou mauvais pour un être humain » (VI. 1140b). Elle enveloppe une sorte d’« intellectualisme existentiel ». Conception rapidement supplantée par celle des stoïciens : « science des choses à faire ou à ne pas faire », reprise et transformée par la définition d’Emmanuel Kant (1724-1804) de la Klugheit : « l’habilité dans le choix des moyens qui nous conduisent à notre plus grand bien-être ».
Ce rappel des définitions classiques de la prudence montre bien que la notion de précaution ne peut que s’y diluer lorsqu’on veut l’y réduire. La notion philosophique de prudence ne permet pas de saisir un aspect essentiel de la notion de précaution. Lequel est constitué par la notion d’incertitude du savoir sur un risque non avéré. En quoi la précaution n’est pas la prévention qui porte sur un risque assuré – et donc assurable.
Si l’on a éprouvé le besoin d’avoir recours soudain au mot de précaution, c’est parce que la notion de « certitude » avait partie liée avec la conception classique de la science, ou plus exactement du rapport de la science avec ses « applications ». L’usage de la notion de précaution prend acte de ce que le socle même de la conception moderne du progrès se trouve mis en péril du fait de la dite situation d’« incertitude » où se trouvent les décideurs quant à la réalité et à la gravité des risques encourus.
Cette conception a été formulée – mieux que par tout autre – par Auguste Comte (1798-1857). Notre polytechnicien philosophe, l’un des premiers à avoir réfléchi sur le statut des ingénieurs modernes dans son célèbre Cours de philosophie positive (1830-1842), avait l’art des formules. Il croyait à la valeur pratique de la philosophie. Il n’hésitait pas à frapper des maximes et des devises. L’une de ses plus célèbres figures dans la deuxième leçon de son Cours.
« Science d’ou prévoyance ; prévoyance, d’où action : telle est la formule très simple, écrit-il, qui exprime, d’une manière exacte, la relation générale de la science et de l’art, en prenant ces deux expressions dans leur acception totale ». Formule inspirée du Novum Organum (4) de Francis Bacon (1561-1626) dont on retrouve l’écho fidèle dans la politique positive : « savoir pour prévoir, afin de pourvoir ».
Cette maxime introduit un terme étrangement absent de toutes les discussions actuelles sur le principe de précaution : la prévoyance. Or cette prévoyance vient, sous la plume de Comte, doubler le terme de prévision. Il entend ainsi régler, mais sans vraiment bien la poser, la question du rapport de la science et de l’action. Car de la prévision à la prévoyance, il y a plus qu’un pas. De l’une à l’autre, on constate un véritable changement d’attitude : la prévision – qui selon Comte découle de la science – suppose une attitude passive : on s’attend à ce que des événements se produisent. La prévoyance, consiste au contraire à prendre activement les devants, en faisant à l’occasion des provisions.
Le secret de la conception moderne de la science se trouve ainsi mis à jour : on a fait comme si la prévision impliquait la prévoyance. Comme si de prévoir à pourvoir se maintenait la continuité d’un même voir.
Les questions d’environnement ont les premières fait apparaître que cette logique pouvait être prise en défaut. Que la conception positiviste prévalente de la science devrait elle-même être réinterrogée. Le caractère propre de la démarche scientifique réside-t-il dans la prévision rationnelle des événements ? Et non plutôt dans la rectification des erreurs premières commises dans l’effort de connaître ? La certitude ne désigne-t-elle pas l’illusion que certains résultats obtenus, par définition toujours provisoires, pourraient jouer le rôle de garantie absolue de validité pour l’ensemble des présupposés dont leur acquisition s’avère toujours tributaire ? Peut-on dire que la science ait pour destination de pourvoir au bonheur des êtres humains ? Quel sens y a-t-il même à parler de destination en cette matière, sinon par illusion de maîtrise absolue ? Laquelle peut se retourner, à l’occasion en simple fatalisme.
On ne se contente cependant pas de parler de « la précaution » comme substitut moderne de la prudence, on en fait l’objet d’un principe. Mais en quel sens dit-on que le principe de précaution est un principe ? La majorité des philosophes gardent un silence visiblement embarrassé sur ce point (5).
Outre un sens scientifique, ici hors champ, la notion de principe, héritière du grec harché et du latin principium qui combine les idées de commencement et commandement, a un sens moral attesté par de grandes œuvres (6). Il désigne alors un énoncé fondamental qui apparaît comme source du système des normes admises. C’est d’abord vers ce sens moral que semble faire signe le « principe de précaution ». Ce en quoi il fait écho direct au fameux « principe responsabilité » avancé par le théologien et philosophe allemand Hans Jonas (1903-1993) en 1979 (7). La cible de Jonas était constituée par les thèses progressistes optimistes du philosophe allemand Ernst Bloch (1885-1977) théoricien de l’« utopie concrète » dans son monumental « principe espérance », Das Prinzip Hoffnung(8).
Que disait Jonas ? Que « nulle éthique antérieure n’avait à prendre en considération la condition globale de la vie humaine ainsi que l’avenir lointain et l’existence de l’espèce elle-même ».
La puissance sans précédent de la technè actuelle et l’extension de la diffusion désormais universelle des techniques se révèleraient telles que l’humanité aurait acquis un pouvoir exorbitant : celui de rendre la Terre inhabitable. « L’action a lieu dans un contexte où tout emploi à grande échelle d’une capacité engendre, en dépit de l’intention droite des agents, une série d’effets liée étroitement aux effets « bénéfiques » immédiats et souhaités, série qui aboutit, au terme d’un processus cumulatif à des conséquences néfastes dépassant parfois de loin le but recherché ».
La question posée serait donc celle de la maîtrise (éthique) de la maîtrise (technique). Apparaît ainsi, affirme Jonas, une nouvelle dimension de la responsabilité. Celle-ci ne doit plus être conçue comme l’imputation d’un sinistre, d’un dommage, à un acte passé, mais comme un engagement à l’égard de l’avenir. Cette responsabilité devant les « générations futures » demande qu’on agisse sans tarder. « De façon que les effets de l’action soient compatibles avec la permanence d’une vie authentiquement humaine sur Terre ». De là, cette « heuristique de la peur » qui s’ingénie à conjurer la menace imminente d’une catastrophe humaine et planétaire qu’envelopperait la supposée toute puissance de la technique.
On voit ce qui rapproche le principe de précaution du principe responsabilité : le souci de l’avenir et des dommages non-intentionnels irréversibles qui affecteraient l’humanité en tant que telle du fait de sa maîtrise technique. Mais on voit aussi ce qui l’en distingue. Le principe de Jonas est affirmé et assumé comme un principe éthique qui table sur une certaine idée de « la vie authentiquement humaine », idée que Jonas soutient pour sa part de sa position théologique propre. De son côté, sauf à le banaliser en principe de prudence, le principe de précaution ne peut être tenu pour un principe éthique qui s’adresserait à chacun.
Ce n’est même pas un principe qui pourrait s’adresser à « tous les décideurs », mais seulement à ceux qui engagent par leurs décisions la communauté des citoyens au sens le plus large du terme. Il s’agit d’un principe de politique publique. Il s’adresse aux responsables politiques qui ont à prendre des décisions en situation d’incertitude sur les risques : qu’il s’agisse de leur existence, de leur nature et de leur gravité.
S’il en est ainsi on comprend sans doute mieux les raisons du succès de ce principe. A une époque où les Etats (aussi bien que les organisations publiques super-étatiques) semblent perdre le contrôle des décisions qui façonnent notre monde – lesquelles se prennent de plus en plus dans la sphère économique et spécialement sur les marchés financiers. Ne s’agit-il pas de la réaffirmation qu’on peut juger pathétique ou en tout cas désespérée d’une exigence de pouvoir sinon des Etats, du moins des instances politiques ? Le fameux principe ne pourrait-il pas avoir un sens opposé à l’idée ultra-libérale que la politique serait perturbation, parasitage, du libre jeu de lois économiques en définitive toutes bénéfiques ?
Mais il est sans aucun doute un autre sens du même principe, beaucoup moins noble, qui permet d’expliquer aussi l’engouement dont il est actuellement l’objet. A un moment où la judiciarisation de la vie publique gagne chaque jour, le principe de précaution exprimerait la peur des hommes politiques et des administrateurs de la science d’assumer leurs responsabilités. En ce sens, il menacerait à terme de paralyser la vie publique ainsi que la recherche scientifique.
On en donnera pour preuve l’usage très regrettable du dit principe non pour éclairer les situations où l’on dit l’appliquer, mais pour jeter un voile sur les questions réelles qui s’y posent. Dans le cas de la « vache folle », il y avait certes des décisions à prendre « en situation d’incertitude », comme on le dit. Le prion constituait une énigme pour la recherche fondamentale. Mais se sont également produites de très prosaïques et vulgaires fraudes de la part d’un certain nombre d’entreprises de l’agroalimentaire, notamment britanniques, dont il ne faudrait pas esquiver la réalité ou estomper la gravité par l’invocation pompeuse et rétroactive du dit principe ainsi que des difficultés de son application.
Ce qui s’exprime en définitive à travers l’invocation et la fortune du principe de précaution, c’est la délicate question de la maîtrise intellectuelle collective des risques à prendre (ou à refuser). Et cette question met visiblement à l’épreuve les formes existantes de la démocratie.

L’être humain est un vivant parmi d’autres. En tant que tel, il entretient des relations d’interaction avec son milieu. Il le transforme inévitablement, et s’en trouve lui-même transformé. Dire qu’il doit renoncer à transformer le monde pour l’épargner repose sur un faux dilemme.
Qu’on le veuille ou non, l’homme transforme le monde. La seule question qui vaille est de savoir dans quelle mesure il maîtrise ou non cette transformation. Cette maîtrise, l’homme en a acquis progressivement et encore imparfaitement les moyens, grâce aux progrès des connaissances.
Si par « principe de précaution », on entend une incitation à améliorer cette maîtrise sur la base d’un développement des recherches nécessaires – dans les sciences humaines et sociales autant que dans les sciences dures -, j’y souscris volontiers.
Il incitera à une gestion plus positive des ressources naturelles dont nous disposons. Et les pays en développement qui subissent de plein fouet les conséquences de l’insouciance écologique du Nord salueront cette initiative.
Malheureusement, dans notre pays, on donne le plus souvent à ce principe une tonalité négative, prohibitive : s’abstenir, différer, arrêter…
Il s’inscrit dans le contexte plus général des discours apocalyptiques de gauche et de droite qui philosophent à bon compte sur les menaces qui pèseraient sur l’existence même de l’espèce humaine et en tirent des conclusions immobilistes.
De là, le soupçon qu’on fait « de principe » peser sur les chercheurs, et, accessoirement, semble-t-il, sur les industriels qui ne sont pourtant pas tous des pollueurs ! De là, surtout la tentation de traduire cette philosophie en règles juridiques ou para-juridiques.
Mais il ne faudrait pas que le principe de précaution entendu comme un « principe de suspicion » n’en vienne à inspirer quelques « loi des suspects » d’un nouveau genre. La République n’aurait rien à y gagner.

Source

Le « best of » de l’année : le nucléaire renaît mais les déchets inquiètent toujours

Classé dans : Info — deedoff @ 11:42

bestofnuc.gif

De plus en plus de pays prévoient de lancer –ou relancer- leur industrie nucléaire. Mais même si sa «propreté» en matière de CO2 est reconnue, le nucléaire inquiète toujours en raison de la radioactivité de ses déchets. Mais peut-on s’en passer?

Un colloque le 15 septembre à Paris va refaire le point sur la question de la nocivité des déchets nucléaires et la façon de les retraiter ou de les stocker (pourquoi pas sous la mer ?!). Mais on peut déjà prédire que ses participants ne rassureront pas tout le monde, loin de là: le mouvement anti-nucléaire reste fort et la méfiance est vive à l’égard des risques à long terme.

Pourtant, le nucléaire intéresse de plus en plus: du Mexique , à l’Italie ou aux Etats-Unis, les projets prennent forme. Une renaissance que contestent certains anti-nucléaires. La chaîne Energie s’est efforcée de tirer l’affaire au clair et a même suscité une confrontation directe et inattendue entre deux camps irréconciliables a priori : Areva, qui a répondu sur notre site a Stéphane Lhomme, l’ancien porte-parole turbulent de Sortir du Nucleaire.

Pour notre chroniqueur Nicolas Goldberg, la relance nucléaire est bel et bien là et Hervé Nifenecker , président d’honneur de Sauvons le climat, le pense aussi après avoir fait un tour du monde de la renaissance du nucléaire.

Un mouvement qui peut apparaître handicapé, en France, par le manque d’ingénieurs et de savoir-faire, comme l’a noté sur cette vidéo Jean-Louis Ermine, expert auprès du CEA, ou le vice-président d’Assystem, Stéphane Aubarbier.

Cette renaissance favorise l’émergence de nouveaux acteurs, comme les Sud-Coréens
qui ont enlevé, à la barbe des Français, un grand contrat à Abu Dhabi. Mais aussi l’apparition de nouveaux types de centrales -comme ces petites unités flottantes que préparent les Russes- ou des technologies entièrement nouvelles comme nous l’a expliqué un expert de SIA-Conseil.

Les questions de sûreté ont continué envers et contre tout à faire débat. Non seulement de la part de mouvements militants, mais aussi de la part d’autorités de sureté comme celles de France, de Finlande, de Grande Bretagne et qui ont, toutes les trois ensemble, soulevé des questions embarrassantes pour l’EPR d’Areva

Et les incidents périodiques défraient la chronique, de façon excessive selon certains, comme Bertrand Barré, ou bien aussi révélateurs que la pointe émergée d’un iceberg selon les anti-nucléaires.

Favoriser tous les débats, même sensibles
En tout cas,la chaine Energie n’a évité aucun débat sur le nucléaire et la radioactivité, aussi sensible soit-il.

Deux exemples :
- le nuage du volcan islandais était-il plus radioactif que celui de Tchernobyl ? Oui, dit Hervé Nifenecker. Mais l’Institut de sûreté IRSN était plus rassurant.

- la vie biologique a-t-elle repris, avec encore plus de vigueur, autour du site de Tchernobyl et y-a-t-il un effet curatif des rayons à faible dose ? Le professeur Jacques Foos pose la question qui choque et s’attire bien des critiques, de Sortir du Nucléaire ou même du …Canard enchaîné.

Et nous n’oublions pas le grand projet qui pourrait résoudre bien des questions : la fusion d’ITER.  Mais à quel horizon
Source

La fin de vie mouvementée de Brennilis

Classé dans : Info — deedoff @ 6:26

brenillis.jpg

Brennilis, dans le Finistère, est un site électrique emblématique. Cette centrale nucléaire des années soixante, arrêtée en 1985, n’en finit pas d’être démantelée. Visite d’un site en déconstruction.

Vu du Roc’h Tréduhon (387 m), plus haut sommet de Bretagne, Brennilis est noyé dans le paysage verdoyant des Monts d’Arrée, en bordure du réservoir artificiel du lac Saint-Michel. Nous sommes au cœur du Parc naturel régional d’Armorique, qui a été créé peu de temps après la mise en service de la centrale en 1967. A deux kilomètres du village et de ses 371 âmes, l’enceinte massive du réacteur sur le dôme duquel un faucon pèlerin a élu domicile, domine le site complètement clôturé d’un double grillage cerclé de barbelés. Mais c’est 150 m plus loin, en bordure du plan d’eau artificiel Saint-Michel, dans la Maison du lac, ex-cantine des 250 salariés au plus fort de l’exploitation, que l’on fait connaissance avec cette centrale tout à fait unique. « C’était le seul exemplaire industriel de la filière eau lourde », explique Xavier Petitjean, qui a dirigé l’établissement jusqu’à début juillet.

Mis à l’arrêt en août 1985, Brennilis connaît depuis une fin mouvementée. « Aujourd’hui nous sommes en stand-by ! 40 personnes y travaillent pour la seule surveillance. Pour une question de procédure mise au jour par une association, le démantèlement complet engagé depuis 2007 est arrêté. Il faut tout recommencer », explique l’ingénieur d’EDF qui rassure très vite son monde. « 99,9 % de la radioactivité a été enlevée avec le déchargement du combustible, la vidange, le rinçage et le séchage des circuits opérés entre 1985 et 1992. »
Déconstruction partielle

Tout recommencer signifie, refaire la demande d’autorisation de démantèlement avec enquête publique à la clé comme l’exige la loi sur la sûreté nucléaire de 2006. Avant la suspension des opérations, EDF et le CEA (Commissariat à l’énergie atomique) lequel avait construit cette centrale de première génération, avaient engagé depuis 1997 le démantèlement partiel de Brennilis. Plusieurs bâtiments nucléaires ont été ainsi démolis dont ceux de la réception, du stockage et contrôle du combustible, celui de l’entreposage des déchets solides, la station de traitement des effluents. Des édifices qui ont fait l’objet auparavant d’un assainissement complet des structures : béton et ferraille sur une épaisseur suffisante.

Il faut montrer patte blanche pour entrer sur le site. Les opérations deviennent encore plus méticuleuses et précises une fois dans l’enceinte du réacteur. On vous habille des pieds à la tête avant de vous laisser franchir, muni de votre dosimètre, l’un après l’autre, l’ultime sas.
Toutes les deux heures

« Ça fait drôle. On ressent un vide. Ça ne vit plus », lâche Xavier. Le vrombissement des ventilateurs est assourdissant. Mieux vaut s’être désaltéré et être passé aux toilettes avant d’entrer, interdiction absolue de le faire dans le blockhaus. L’air qu’on y respire est renouvelé toutes les deux heures. Pour passer vers le bloc réacteur, un passage a été aménagé. Il a fallu 12 h de scie diamant pour couper le béton de 80 cm. Et là on lève les yeux. L’alignement d’immenses colonnes d’acier inoxydable de 20 m qui pèsent chacune 37 t. Les bouteilles des deux échangeurs de chaleur. Il y en a 16 en tout qu’il faudra démonter. C’est trois ans de travail pour 70 personnes. « Une cathédrale ! », s’exclame Jean-Christophe Bouty qui va prendre la succession de Xavier Petitjean.

Par l’escalier, on grimpe sur le toit du bloc réacteur, deux mètres en dessous, il y a la cuve « Ce sera le gros morceau du chantier avec son architecture très complexe de tubes force, de barres de contrôle », remarque l’ingénieur. Sur une paroi, une inscription : « 1992 : voilà c’est fini ! ». Avec une signature. Le graffiti historique d’un agent de la déconstruction partielle. Le retour est un parcours du combattant avec batterie de contrôles dans des appareils dernier cri pour déceler la plus infime des contaminations radioactives. A Brennilis, on reste en dessous de normes minimales naturelles. « Imaginez le personnel qui fait ça deux à trois fois par jour. » Un personnel toujours en attente d’une reprise du chantier. Brennilis ne sera rendu à la nature qu’après 2020.

Source

1...6970717273

CAHS-AVALANCHES |
O_liv™ |
Le blog de l'inkorrect(e) |
Unblog.fr | Annuaire | Signaler un abus | 1referencement
| cancambou97218
| sajestema