Lundi 26 août 2013 1 26 /08 /Août /2013 14:07

                 Les changements climatiques actuels amènent, malgré bien des obstacles, la communauté internationale, au sens onusien, à réagir, notamment à travers le Protocole de Kyoto de 1997, à maintenant 184 signataires sur les 193 membres de l'ONU. Entré en vigueur en février 2005, ce protocole vise à réduire, entre 2008 et 2012, de 5,2% par rapport au niveau de 1990, les émissions de six gaz à effet de serre (dioxyde de carbone, méthane, protoxyde d'azote et trois substituts des chlorofluorocarbones). S'appuyant sur les rapports du GIEC, ce Protocole introduit dans le droit international un élément-clé qui redistribuent les carrtes juridiques entre les différents acteurs (tous ne sont pas sujets au sens strict du terme) du droit international : Etats, grandes entreprises, citoyens, organisations non gouvernementales. Indirectement bien entendu car le Protocole n'engage que des Etats. Mais sa signature engendre une succession d'actions juridico-politiques, au niveau international, régional, national et local. Du fait même que des Etats refusent de participer à l'action entreprise contre le réchauffement climatique, d'autres acteurs prennent en quelque sorte la relève, dont des Etats faisant partie d'Etats fédéraux comme les Etats-Unis, des fondations privées, des groupements industriels. Un jeu complexe de traduction de cet impératif de réduction des gaz à effet de serre se répercute au niveau des droits internes, du droit commercial et d'autres droits (de propriété, indirectement, puisque l'on touche au droit de polluer indéfiniment).

Les intérêts divergents entre des droits de l'environnement et des droits industriels et commerciaux, entre l'instance chargée du contrôle de la réalisations des accords de Kyoto et l'Organisation Mondiale du Commerce se traduisent en droit par des distorsions juridiques (de juridiction, par exemple) qui ne vont pas manquer de s'aggraver tant qu'une harmonisation ne sera pas définie entre ce droit nouveau émergent de l'environnement et le droit commercial, et ce d'autant plus que sont impliqués à la fois dans cette affaire des droits publics et des droits privés. 

Cela fait partie en outre, du vaste bras de fer entre acteurs internationaux, publics et privés, et de manière générale entre puissances privées partisanes du libéralisme (ou du néo-libéralisme) et puissances publiques désireuses de reprendre la main dans l'organisation de la vie de la Cité au sens large, étant donné que ces derniers acteurs se trouvent souvent pris entre acteurs régionaux et locaux prenant de l'importance à de nombreux niveaux et acteurs internationaux au devenir encore incertain. Mais il s'agit aussi, profondément, d'une vaste bataille idéologique où les hommes, qu'elles que soient leurs places dans les organisations, étatiques ou non, orientent l'activité pour des objectifs plus ou moins collectifs, plus ou moins à court terme, plus ou moins intéressés (parfois personnellement) par des résultats financiers. C'est ainsi que des fonctionnaires d'orientation libérale peuvent oeuvrer pour des désengagements de l'Etat et des entrepreneurs vouer leurs firmes ou fondations à des fins collectives à plus long terme. Bien entendu, les structures étatiques peuvent être plus ou moins centralisées et invasives dans les domaines économiques ou la sphère privative, mais il semble bien que c'est dénaturer l'Etat que d'en faire un instrument directement au service d'une poignée d'entreprises les plus rentables (sur le moment de plus...)... Singulièrement, dans le domaine des changements climatiques, la traduction des péripéties de cette bataille en termes juridiques structurent l'action sociale dans le sens d'une détérioration ou d'une amélioration de la situation, avec un enjeu capital, celui de la destinée à terme des conditions de vie sur la planète...

 

       Mireille DELMAS-MARTY explique quelques aspects juridiques concernant ce changement climatique. Déjà, pendant la négociation de la convention-cadre des Nations Unies sur les changements climatiques, les Etats se partagèrent en plusieurs groupes qui ne recoupaient pas la division traditionnelle Nord-Sud, mais illustraient la place des intérêts particuliers et sectoriels (Boisson de CHAZOURNES, le droit international au chevet de la lutte contre le réchauffement planétaire : éléments d'un régime, dans L'évolution du droit international, Mélanges, Hubert Thierry Pedone, 1998). l'originalité de ce texte, ouvert à la signature lors du sommet de Rio (1992) et entré en vigueur en 1994, est "précisément de combiner un objectif commun et des pratiques différenciées dans l'espace et le temps. L'objectif est de stabiliser "les concentrations de GES dans l'atmosphère à un niveau qui empêche toute perturbation anthropique dangereuse du système climatique" et d'atteindre ce niveau "dans un délai suffisant pour que les écosystèmes puissent s'adapter naturellement, que la production alimentaire ne soit pas menacée et que le développement économique puisse se poursuivre de manière durable". En revanche la "spécificité des priorités nationales et régionales" et le principe des responsabilités "communes mais différenciées" conduisent à répartir les Etats en plusieurs catégories. Certains engagements sonr commus à tous, comme l'obligation pour les Etats de soumettre régulièrement des informations détaillées en vue de ramener les émissions anthropiques au niveau de 1990, mais d'autres ne pèsent que sur les pays industrialisés, qu'il s'agisse du régime de réduction des émissions ou de l'obligation de fournir des ressources financières et de faciliter le transfert de technologies.

Malgré la souplesse du dispositif, le débat fut particulièrement difficile sur les moyens d'assurer le respect d'obligations comprises comme des limites à la souveraineté nationale. La réponse est à peine esquissée dans la convention-cadre car la négociation qui s'était engagée à Rio devait tourner court après qu'un système d'éco-taxes, proposé par la Commission européenne, eut été refusé par les Etats-Unis et le Japon. Quant à la création d'un marché de droits d'émission, avec la mise en place des systèmes de permis négociables, elle était souhaitée par certains pays et par des représentants du système privé, mais ne fut pas décidée."

Le Protocole de Kyoto, aboutissements de négociations dures, est un premier instrument , à la fois juridique et économique, "dont l'objectif est de réduire les coûts en permettant aux pollueurs pour lesquels les mesures anti-pollution sont coûteuses d'acheter des permis de polluer à ceux pour lesquels les mesures reviennent à moindre coût. Pour y parvenir, le mécanisme consiste à définir les quantités d'émission autorisées pour 2008-2012, selon des quotas fixés à chaque pays par référence à ses émissions en 1990. L'Accord organise ainsi une distribution gratuite de permis d'émission qui seront ensuite transférables à d'autres pollueurs. En ce sens, il crée un "marché des permis", où se négocient ces transferts.

A vocation mondiale, cet instrument reste de nature interétatique, et non supra-étatique, ce qui veut dire que rien ne permet de l'imposer, dès lors qu'il est rejeté par un certain nombre de grands pays, à commencer par les Etats-Unis ; en d'autres termes, face à un problème global, la réponse juridique reste avant tout attachée au droit national. Si l'on peut craindre que le droit se révèle ainsi inadapté aux questions posées, il ne faut pas renoncer pour autant à rechercher les conditions dans lesquelles il pourrait devenir adaptable." 

Suivant cette vision plutôt optimiste, la professeur au Collège de France (chaire d'Etudes juridiques comparatives et internationalisation du droit) développe les élément qui font du nouveau droit un droit inadapé et un droit adaptable....

      Ce qui fait l'inadatation de ce droit réside dans "la contradiction entre des systèmes de droit qui restent pour l'essentiel idéentifiés à l'Etat et des changements climatiques qui manifestent leurs effets à une échelle globale." Il résulte que le dispositif juridique traditionnel est inadapté à l'objet. L'on a déjà constaté cette même inadaptation dans le domaine du désarmement et des constructions pour la paix. 

"Le dispositif juridique semble inadapté car le droit international lui-même, soumis à ratification et affaibli par l'absence de mécanisme de sanction, reste fondé sur un principe de souveraineté, synonyme de l'indépendance des Etats, alors que nous constatons en matière de changements climatiques, comme en bien d'autres domaines, de fortes interdépendances. C'est pourquoi les textes fondateurs que sont la convention-cadre et le protocole de Kyoto n'ont pas apporté de solution claire pour l'avenir dans les pays en développement. C'est aussi pourquoi ils sont restés impuissants lorsque le Etats-Unis, bien qu'ils fussent précurseurs en matière de marché des permis aient été à l'origine de la proposition (destiné à éviter l'éco-taxe), se sont retirés du processus." Du coup, le relais est pris par des ensembles régionaux, notamment l'Union Européenne, et des organismes mondiaux comme le Chicago Climate Exchange (CCX), qui regroupe des acteurs économiques des Etats-Unis, du Canada et du Mexique qui s'engagent, d'ici à la fin 2006, à réduire leurs émissions de GES de 4% au-dessous de la moyenne de leurs émissions de base de la période 1998-2001. C'est, dans le cadre de la mondialisation, l'apparition de normes transnationales d'origine privée qui frappe le plus dans ce relais. Il en résulte une "superposition de différents ensembles normatifs (nationales, transnationaux, internationaux régionaux et mondiaux)" qui a "des effets purturbateurs sur les ordres juridiques nationaux et sur les ordres régionaux, comme l'ordre communautaire, encore en construction, sans leur substituer un véritable ordre juridique mondial."

C'est une situation "désarticulée", caractérisée par la fragmentation, l'incohérence et l'instabilité du champ juridique. "La fragmentation tient d'abord à la discontinuité de la chaîne hiérarchique verticale entre droit national et droit mondiale. (...) Le phénomène est renforcé par l'absence de cohérence entre les divers instruments internationaux, qui ne sont pas hiérarchisés entre eux et restent largement autonomes les uns par rapport aux autres (droit à l'environnement, droit du commerce, droit du développement, droit de la propriété intellectuelle), relevant en outre d'institutions différentes (ONU, OMC, OMPI). S'ajoute encore une forte instabilité normative, car l'évolution juridique dépend non seulement du contenu du protocole de Kyoto, réparti en plusieurs phases, mais du rythme des ratifications et plus largement des vitesses d'évaluation propres à chaque ensemble normatif. Ainsi l'évolution dans le cadre de l'Union européenne apparait plus tardive, mais plus rapide, que dans le cadre de l'ONU, tandis qu'au plan mondial le droit du commerce progresse plus vite et de façon plus efficace que le droit de l'environnement.".

      Ce droit est sans doute par ailleurs adaptable. La création "d'un instrumen supranational, directement contraignant pour tous les Etats, rste au stade actuel politiquement inacceptable. En revanche les principes conçus à l'échelle mondiale peuvent être progressivement appliqués dans les différents Etats, par ajustements et réajustements, si l'on réussit à ordonner les interactions, verticales et horizontales, entre les différents dispositifs juridiques, tout en ménageant des marges d'appréciation et des temps d'adaptation."

"Les interactions verticales peuvent être renforcées par le droit international régional comme on l'a vu en Europe (...). Mais la transposition implique des ajustements, par exemple, quant à l'interprétation du principe de précautions, appelant la reconnaissance d'une "marge communautaire d'appréciation". De même que la transposition du dispositif de Kyoto en droit national soulève des difficultés quant à la nature juridique des quotas d'émission. On sait que ce dispositif organise une distribution gratuire de permis d'émission qui seront ensuite transférables à d'autres pollueurs. Par là même il cré un "marché des permis", où se négocient les quotas d'émission. Plutôt que de créer, comme on l'a dit parfois, un "droit de polluer", il s'agit d'encadrer le droit de produire des gaz à effet de serre au titre d'une activité économique déterminée. Il faut donc résoudre la contradiction de départ, opposant l'air, qui demeure une "chose commune", non appropriable, et les quotas d'émission qui peuvent être vendus. La solution proposée en droit français est de les qualifier de "biens incorporels", définis sur le modèle des actions ou des parts sociales, comme une créance contre le marché, avec cette spécificité que la créance devient une dette quand le quota est dépassé. (...)".

La question des interactions horizontales est plus difficile à résoudre "en l'absence de hiérarchie entre le droit de l'environnement et d'autres ensembles normatifs, comme le droit du commerce, pour s'en tenir à l'exemple le plus sensible." Une hiérarchie de fait risque de s'instaurer en faveur du commerce, il existe un ensemble de conflits entre les dispositions adoptées à Kyoto et ceux de l'Organisation Mondiale du Commerce, entre les normes commerciales et les quelques 200 accords multilatéraux à vocation mondiale sur l'environnement. "Si l'ordre du maarché reconnait la nécessité de protéger l'environnement, et si le droit de l'environnement intègre l'outil économique, cette dialectique appelerait une synthèse pour éviter, si chaque juge tranche au coup par coup, de substituer un gouvernement des juges à l'absence de gouvernement mondial. Pour construire la synthèse, il ne suffira pas de favoriser l'internormativité entre droit du commerce et droit de l'environnement, ni la corégulation entre les différentes institutions compétentes ; encore faudra-t-il réintroduire une dimension politique en précisant les contours et le régime juridique de la notion de "biens communs de l'humanité" ou de "biens collectifs globaux". S'il est vrai que les risques écologiques sont des phénomènes globaux par la force des choses, il n'en est pas moins vrai que c'est au nom d'idées exprimant des valeurs (solidarité dans l'espace et le temps, ou liberté d'entreprendre et de commercer) que l'on trancher les conflits. Seule la référence aux valeurs et leur pondération pourraient fonder, au croisement des différents ensembles normatifs, la légitimité des choix. Il est donc indispensable, pour réintroduire cette légitimité, de relier globalisation et universalisme des valeurs. (DELMAS-MARTY, Les forces imaginantes du droit - Le relatif et l'universel, Seuil, 2004 ; Le pluralisme ordonné, Seuil, 2006)."

 

         Les prochaines conférences internationales sur le climat mettent le Protocole de Kyoto à la croisée des chemins. D'un côté, le renouvellement de ce protocole après la fin de la première période d'engagement en 2012 est incertain. De l'autre côté, un nouveau traité climatique rassemblant l'ensemble des Etats du monde doit être négocié d'ici 2015 pour entrer en vigueur en 2020. La répartition de ces cibles entre les différents groupes de payx - pays industrialisés, pays en voie de développement, pays en transition, relève de considérations éthiques, pragmatiques et juridiques. Sébastien WEISSENBERGER évoque différents aspects de justice climatique (VertigO - la revue électronique en sciences de l'environnement, Débats et Perspectives 2012). On peut trouver dans cette revue un suivi serré des questions juridiques liés aux changements climatiques.

 

Mireille DELMAS-MARTY, Le changement climatique : quelques aspects juridiques, dans L'Homme face au climat, Sous la direction de Edouard BARD, Symposium annuel du Collège de France, Odile Jacob, 2006.

 

JURIDICUS

Par GIL - Publié dans : DROIT
Ecrire un commentaire - Voir les 0 commentaires
Dimanche 25 août 2013 7 25 /08 /Août /2013 07:46

     Climatologue américain, également ornithologue, professeur à l'Université Stanford (à partir de 1992) , rédacteur de centaines de notes scientifiques, de rapports et d'ouvrages sur la question du changement climatique, Stephen SCHNEIDER est l'un des premiers scientifiques à alerter le monde sur la manière dont les émissions de gaz à effet de serre produits par l'homme menacent le climat de la Terre. Membre fondateur du Groupe d'experts intergouvernemental sur l'Evolution du Climat (GIEC) en 1988, il est un des spécialistes de cette structure qui partage avec l'ancien vice-président Al GORE le Prix Nobel de la paix en 2007, pour leur travail d'éducation du public sur le changement climatiques. 

    Il se lance dès les années 1970 dans la climatologie en raison de son engagement en faveur des causes environnementals et du faible nombre de scientifiques menant des recherches expérimentales dans ce domaine. Dans ses ouvrages scientifiques (ce qui est bien rapporté exemple par exemple dans son ouvrage Encyclopedia of Climate and Weather, Oxford University Press, 1996), il analyse les répercussions des particules générées par les activités industriellles et domestiques sur le climat, met au met au point des modèles mathématiques afin de prévoir les retombées éventuelles du réchauffement de la planète. Il étudie également les aspects économiques des politiques climatiques.

    Un grand nombre de ses ouvrages vulgarise les questions climatiques auprès d'un large public. Il participe également au lancement du projet climatique au National Center for Atmospheric Research à Boulder, dans le Colorado, ainsi qu'à la création du périodique Climatic Change, dont il demeure le rédacteur en chef jusqu'à sa mort. 

      Parmi ses ouvrages les plus marquants, citons Global Waening (1989) ;  Où va le climat? Que connaissons-nous du changement climatique? (1996) ; La terre menacée, un laboratoire à risques (Laboratory Earth : the Planetary Gamble We Can(t Afford to Lose, 1997), Editions Hachette, 1999 ; Climate Change Policy : A Survey, 2002 ; Scientists debate Gaia : the next century, MIT Press, 2004 ; Défendre le climat, un sport de combat, National Geographic, 2011 (Science as a Contact Sport, 2009). Il est aussi l'auteur de The Patient from Hell (2005), récit de sa victoire contre une forme rare de lymphome non hodkinien (forme de cancer).

 

       Dans Défendre le climat, un sport de combat, il relate son travail de recherche et de sensibilisation du public. Il y expose les différents enjeux du climat sur la scène politique et les progrès scientifiques accomplis dans la connaissance du réchauffement climatique. Une lutte de trente cinq ans, pour faire admettre la véracité scientifique sur l'existence d'abord, puis sur les causes et les conséquences de ce réchauffement, contre une opinion du monde scientifique mitigée au départ, contre une opinion publique réticente à admettre ses responsabilités et contre les différents lobbies industriels directement concernés par les émissions de gaz à effet de serre. il raconte ses batailles contre les différentes déformations des communications scientifiques sur le sujet, rattachées à la difficulté à communiquer des informations relativement complexes, obstacles à la formation et à l'exécution de politiques environnementales efficaces.

Une grande étape pour lui de la prise de conscience sur la planète Terre, "alors que le réchauffement planétaire multipliait les signaux avant-coureurs de ses foudres" est l'avertissement brutal de l'ouragan Katrina de 2005. "Vivement critiqué pour sa gestion de la crise, le gouvernement Bush accumula les faux pas, tandis que le monde exigeait de ses dirigeants qu'ils passent à l'action. La quatrième réunion du GIEC allait faire état d'un bilan toujours plus alarmant que les scientifiques tenaient à porter à la connaissance du public contre une farouche opposition. Malgré la campagne d'Al Gore et le retentissement de son film Une vérité qui dérange, il faudrait attendre un changement de gouvernement pour que les Etats-Unis prennent le taureau par les cornes."

Sur la guerre des médias, il écrit que "la stratégie de désinformation reste un grand classique dans l'arène du changement climatique. Au fil des années, mes collègues et moi-même avons appris à parer les attaques et à démentir les fausses informations et les interprétations tendancieuses financées par les lobbies et par les grande entreprises, ainsi qu'à affronter bien d'autres violations de l'éthique journalistique. Et les choses n'ont fait qu'empirer." 

Dans le dernier chapitre : Pourquoi tirer le signal d'alarme, nous pouvons lire : "Pendant toutes les années retracées dans ce livre, j'ai sillonné le monde du Groenland au Japon en passant par la Nouvelle-Zélande. J'ai donné des dizaines de conférences et d'interviews, j'ai assisté à des conseils tribaux, discuté avec les chefs religieux, témoigné devant les politiques, participé à des forums sur la gouvernance de la planète, à des réunions au sommet, à des conférences universitaires, des évaluations scientifiques, des tables rondes avec les chefs d'entreprise et je me suis entretenu à huis clos avec les décideurs et les industriels. Jamais nous n'avons entrevu de solution miracle au changement climatique - seulement des pis-aller. Deux grands défis nous occupent aujourd'hui. Tout d'abord, protéger les ressources de la planète pour la postérité. Ensuite trouver des solutions pour venir en ide aux premiers touchés par les impacts du réchauffement planétaire et gérer les politiques climatiques aussi bien nationales qu'internationales."

 

 

Stephen H SCHNEIDER, Défendre le climat, un sport de combat, National Geographic, 2011.

Hanne COOK, article Schneider Stephen H, dans Encyclopedia Universalis, 2013.

Par GIL - Publié dans : AUTEURS
Ecrire un commentaire - Voir les 0 commentaires
Mercredi 21 août 2013 3 21 /08 /Août /2013 12:25

   Les débats autour du changement climatique et de ses causes n'est pas seulement un débat sur des évaluations scientifiques effectuées à partir d'expériences en laboratoire (simulation de courants marins ou atmosphèriques) et d'explorations des traces de conséquences d'un réchauffement climque par le passé lointain ou très proche, entre scientifiques appartenant à des branches, des laboratoires ou des disciplines différentes. Il n'est pas non plus seulement le reflet de conceptions sur l'homme et la nature, ni la conséquence de considérations optimistes ou pessimistes sur le progrès. Ils font partie d'un ensemble d'évolutions qui mettent aux prises différents acteurs sociaux. Nombre de leurs éléments plongent dans les relations qu'entretiennent sciences, techniques, industries et sociétés. Les progrès scientifiques ne proviennent pas de l'étincelle de génie de chercheurs isolés, et même si un Pasteur par exemple est érigé en héros de la médecine, il bénéficie toute au long de ses recherches du travail et de la réflexion d'une longue lignées de chercheurs et de pratriciens, de tout un appareil de connaissances et de technologies. Ils constituent souvent l'aboutissement d'une longue série d'essais et d'erreurs, tant théoriques que pratiques. Les chercheurs-savants travaillent dans une société qui bénéficie déjà de tout un environnement déjà technologique et qui appelle des connaissances pour faire face à de nombreux défis techniques, que ce soit dans le domaine médical ou énergétique.  Les divers laboratoires ou cabinets s'insèrent dans un ensemble économico-social (largement conflictuel) qui oriente leurs travail dans des directions variables dans le temps et dans l'espace (pas forcément logiquement reliables, à leur échelle, entre elles). 

 

      Jean-Paul GAUDELIÈRE et Pierre-Benoît JOLY (Appropriation et régulation des innovations technologiques : pour une comparaison transatlantique, dans Sociologie du travail, volume 48, n°3, 2006) avancent quatre formes clés de régulation des innovations technologiques :

- une régulation professionnelle ;

- une régulation marchande ;

- une régulation étatique ;

- une régulation "consumériste-civique", dont ils situent pour cette dernière l'apparition vers la fin du XXe siècle.

Par mode de régulation, ils entendent "l'ensemble des normes et des règles formelles et informelles qui définissent les formes de légitimation des activités, les rapports entre les différents pouvoirs, les formes de division du travil et de résolution des conflits, les dispositifs et pratiques d'évaluation." Ils empruntent cette notion à la fois à la sociologie des organisations (FRIEDBERG) et à la sociologie de la justification (BOLTANSKI et THÉVENOT, De la justification. Les économies de la grandeur, Gallimard, 1991). Ces auteurs associent les biotechnologies à un nouveau régime de régulation des savoirs "marqué par la tension entre une régulation marchande (qui se sibstituent aux régulations professionnelles et étatiques) et une régulation consumériste-civique. On pourrait en faire de même pour toutes les branches qui traitent actuellement des changements climatiques et même à propos des recherches récentes sur les substitutions énergétiques, les énergies "renouvelables". 

     Dans le cas de l'histoire de la recherche en génétique végétale et l'innovation variétale publique et privée (dont la recherche sur les Organismes Génétiquement Modifiés, OGM), Chritophe BONNEUIL et Frédéric THOMAS (Gènes, pouvoirs et profits. Recherche publique et régimes de production des savoirs de Mendel aux OGM, Editions Quae-FPH, 2009) dégagent cinq modes de polarisation des recherches : colbertiste, professionnel, académique, marchand et civique) et décrivent le basculement d'un régime de production des savoirs à un autre à la fin du XIXe siècle. Un "régime du progrès génétique planifié" né dans les années 1940, qui articule le mode colbertiste (notamment  pensons-nous dans le cadre d'un complexe militaro-industriel) et le régime corporatif, est supplanté à partir des années 1970 par un "régime de la valeur ajoutée génétique mondialisé", dominé par le couple mode marchand/monde académique qui fonctionnent en synergie au détriment des modes colbertiste et corporatif qui reculent, et du mode civique qui peine à sortir d'une niche restreinte et peser sur les grandes orientations de la recherche publique.

    Ces travaux, expliquent Christophe BONNEUIL et Pierre-Benoît JOLY, "mettent en évidence une emprise croissante de la régulation marchande sur la science qui a tardé à être thématisée par les STS (Sciences des Techniques et des Sociétés). C'est d'abord à partir de leur périphérie (économistes, sociologues non directement affiliés aux STS et, plus récemment, le courant de la new political sociology of science, historiens, etc.) que l'analyse de ce que le néolibéralisme fait à la production des savoirs scientifiques et techniques (qui participent en retour à un nouvel ordre social) a été progressivement constituées en questions majeure pour les STS. La thèse du capitalisme académique avancée notamment par Sheila SLAUGHTER et Larry LESLIE ( Academic Capitalism. Politics, Policies, and the Entrepreneurial University, Baltimore, Johns Hopkins Université Press, 1997) met en évidence une rupture dans les conceptions des relations entre science et économie et dans les politiques de recherche et d'innovation, rupture qui se produit dans les années 1970-1980 et qui est contemporaine de l'instauration de régimes néolibéraux de gouvernement des économies et des sociétés. Après la Seconde Guerre mondiale, le discours sur la science était construit sur un triptyque : la science comme bien public, le schéma linéaire de l'innovation et le lien entre changement technique et croissance économique. A partir des années 1970, ce paradigme traditionnel de la science comme bien public, source de progrès et pilier du Welfare State, est remplacé par le paradigme de la science comme source de compétitivité économique. Avec le décollage des économies asiatiques, la compétitivité de l'économie devient le leimotiv de la politique de recherche. (...) On bascule alors dans l'ère de la commercialisation de la science. Au début des années 1980, l'agenda de la compétitivité converge avec le projet néolibéral : la politique étatique doit favoriser les liens entre recherche publique et industrie, rendre la recherche appropriable et créer les conditions d'une régulation de la science par les mécanismes du marché.

Les changements qui affectent la production scientifique dans le nouveau "régime néolibéral" peuvent se décliner en trois grandes caractéristiques (LAVE, MIROWSKI et RANDALLS, Introduction : STS and néoliberal science, dans Social Studies of science, volume 40, n°5, 2010) :

- On observe un reflux de la dépense publique de recherche et un pilotage accru de la recherche par les entreprises et par les marchés financiers. "Le financement public de la recherche académique a ainsi été dépassé par le financement privé aux Etst-Unis dès les années 1980 ; en France, les courbes se croisent dans les années 1990 (...). Ce transfert de financement est favorisé par des politiques fiscales favorables aux entreprises. Dans le même temps, les grandes entreprises "dégraissent" leurs départements internes de R&D et optent pour une externalisation de leur recherche vers les universités et les start-ups. Dans le monde de la recherche industrielle s'impose le modèle de l'innovation "ouverte" qui prescrit une organisation de la forme en réseau, la compétence interne se recentrant sur la capacité à gérer les relations contractuelles et à assembler des connaissances produites ailleurs (...). Flexibilité, performance à court terme (réduction des coûts) et pilotage de la recherche par le "marché" constituent les principes directeurs de ces formes organisatiionnelles. Les grandes entreprises mondialisées (les 500 premières représentent 80% de la recherche industrielle mondiale) mettent en concurrence les structures nationales de recherche, comme elles l'ont fait depuis une trentaine d'années pour les activités manufacturières. 

Benjamin CORIAT et Fabienne ORSI pointent un phénomène nouveau : la financirisation de l'innovation. Innovations financières, cadeaux fiscaux et création d'un marché boursier dédié aux entreprises "high tech" (le NASDAQ) créent les conditions de la constitution du secteur du capital-risque (...)". 

- On observe aussi l'extension des droits de propriété intellectuelle sur la connaissance scientifique. "Puisqu'il faut créer un marché de la connaissance, il convient d'en finir avec la conception de la science comme bienpublic et de protéger les connaissances fondamentales, les "découvertes", par brevet. Le discours sur l'économie de la connaissance - qui réorganise les relations entre science et innovation dans l'espace européen de la recherche - célèbre ce nouvel âge de l'exclusivisme et sanctionne un ensemble de transformations qui ont eu cours depuis la fin des années 1970. On bascule progressivement dans un paysage d'enclosures où les connaissances les plus fondamentales sont protégées par brevet. (...). Nombreux sont les économistes qui considèrent que ces évolutions sont fort préjudiciables et que, à favoriser l'exclusivisme, on risque de bloquer l'innovation. Ils invoquent le caractère nécessairement cumulatif de la production de connaissances en faveur d'une "science ouverte", que la généralisation des brevets remet en cause (DASGUPTA et DAVID, "Toward a nex economic of science" dans Research Policy, volume 23, n°5, 1994)" Nous constatons avec eux qu'il semble bien que depuis la fin de la Seconde Guerre Mondiale, d'abord par un effet d'entrainement des applications technologiques puis par une restriction du champ de recherches, la civilisation occidentale, en tant que basée sur une utilisation des énergies fossiles dans de multiples domaines, s'enfonce dans une sorte de décadence scientifique. il est tout de même caractéristique que depuis plus d'un siècle maintenant, l'automobile est le centre d'intérêt d'une grande partie de l'humanité, et pas seulement pour des raisons utilitaires...

- On observe enfin l'emprise croissante des formes de management qui viennent du monde de l'entreprise sur l'ensemble du système de production de connaissances. "Les universités et les organismes de recherche voient la part de leurs contrats industriels augmenter en même temps que les budgets publics sont réduits. Leur financement public est généralement indexé sur leur performance, mesurée notamment en termles de capacité à obtenir des financements privés. Pour la recherche, ce nouveau management public (new public management) se traduit par la mise en place d'un système de notation de la qualité des individus, des équipes et des organisations. Les gouvernements s'équipent de nouveaux instruments qui permettent de fixer des objectifs mesurables et d'évaluer les performances à partir d'indicateurs standardisés. Si le caractère réducteur et erroné des classements des universités (tel que celui de Shangaï), des indicateurs scientométriques comme le h-index, ou des mesures des effets économiques par les brevets est largement démontré (GINGRAS, La fièvre de l'évaluation de la recherche. Du mauvais usage de faux indicateurs, dans Note de recherche du CIRST, Montréal, UQAM, 2008). (...). la nouveauté réside essentiellement dans la remise en cause de la collégialité et de l'autonomie professionnelle. La colonisation du milieu académique par des logiques managériales remet en cause d'autres valeurs, des valeurs non instrumentales dont les chercheurs en tant que profession sont les garants, crée de nombreux domaines orphelins et diminue la diversité de l'écosystème de la recherche. Cela se traduit par une part croissante des financements par projet, une précarisation des jeunes chercheurs, une individualisation des salaires et des carrières, une exigence de flexibilité et d'adaptabilité. 

       Ces changements (...) affecteront durablement la production de connaissances scientifiques et techniques. L'analtse de ces changements et de leur influence sur les façons de connaitre et sur les dynamiques d'innovation constitue désormais une prirorité dans l'agenda de recherche des STS".

 

    Cette priorité est bienvenue car nous pouvons constaté que de plus en plus, la recherche scientifique étant soumise à des impératifs étrangers à ses logiques propres, des dérives qui vont de l'occultation de données dans la présentation de résultats des recherches (multiplication des articles litigieux dans les publications scientifiques) à des conflits d'intérêts marqués qui frisent la malhonnêteté intellectuelle, voire de véritables campagnes de dénigrement de résultats de recherches qui vont à l'encontre des objectifs énonomiques de certaines entreprises et/ou secteur. C'est particulièrement vrai dans le domaine des énergies, ça l'est dans des domaines de plus en plus étendus, amenant de nombreux chercheurs et journalistes (qui se sentent pour beaucoup responsables de l'expression de l'opinion publique) à des découvertes désagréables notamment dans les secteurs de la santé et de l'alimentation.

 

     Stéphane FOUCART, journaliste à Le Monde  (Le populisme climatique) et Sylvestre HUET, journaliste à Libération, le constatent à l'occasion de leurs enquêtes dans diverses conférences scientifiques. Dans Merchants of doubt, Naomi ORESKES, de l'université de Californie à San Diego) dénonce lui aussi ce qu'il appelle, sans doute avec quelques outrances mais la formule trouve son sens au vu des conséquences dramatiques pour l'humanité, un négationnisme climatique. C'est également le titre du livre de Florence LERAY (Editions Golias, 2011).

   Comme l'écrit Sylvestre HUET dans un long article sur "Le journaliste face au street fight climatique", "les positionnements idéologiques vont nécessairement investir ce sujet (le changement climatique), puisqu'il va désormais participer aix joutes électorales (...). Si la controverse scientifique elle-même ne fait pas problème, faisant même partie de la démarche du développement des connaissances, il constate que "en revanche, les journalistes ont eu à faire face à des voyous - en général ceux qui participent aux combats de rue sont des voyous - d'un genre tout à fait spécial et probablement avec surprise : certains scientifiques. Des scientifiques qui, pour des raisons diverses, ont décidé de rompre avec l'éthique et les méthodes de la recherche pour participer à ce combat de rue. Des scientifiques qui ont permis à des éditorialistes - vous savez, ces journalistes qui n'enquêtent pas mais commentent l'actualité - d'affirmer à leurs lecteurs "les textes du GIEC sont douteux, la science du climat est douteuse, la preuve : certains scientifiques de grande qualité l'affirment". Loin de se faire prendre au piège d'une mise en scène par nombre de médias (et furieusement sur Internet) d'un débat qui se voudrait rationnel, il se veut précis: "je ne parle pas des controverses scientifiques normales et des questions sans réponses ou des doutes qui agitent les laboratoires des sciences du climat. Niveau marin futur, réactions des moussons asiatique et africaine, mesure des évolutions récentes des calottes de glaces, représentation des nuages dans les modèles... tous ces sujets sont au centre de controverses qui s'expriment dans les revues scientifiques et les séminaires. (...) Je parle de scientifiques qui mentent, calomnient, fasifient des documents scientifiques, dénigrent leurs collègues sur la place publique. Autant de méthodes de voyou, qui n'ont, en principe, pas leur place dans une controverse scientifiques normale et qui ont pesé lourdement sur le débat public et les médias. En France, ce rôle a été tenu principalement pas une personnalité importante du monde scientifiques mais également de la classe politique, Claude ALLÈGRE ( avec Dominique de MONTVALON, L'imposture climatique ou la fausse écologie, Plon). Ce dernier n'est pas seulement l'un des scientifiques français les plus titrés et cités dans les revues scientifiques de sa discipline - la géochimie - c'est aussi un ancien ministre de l'éducation nationale et de la recherche dans le gouvernement de Lionel Jospin entre 1997 et 2000. L'intervention publique de Claude ALLÈGRE a pris de multiples formes, tribunes et chroniques dans les journeaux, multiples interviews à la radio et télévisions, livres."

En fait, le géochimiste ne fait que participer à une entreprise de dénigrement systématique menée à l'échelle mondiale, et utilise des méthodes qui sont le lot de toute campagne orchestrée à des fins publicitaires ou contre-publicitaires par des entreprises soucieuses de leur image de marque et qui avancent le plus souvent masquées dans le débat public. Des membres de la communauté scientifique (comme Edouard BARD, professeur au Collège de France) s'élèvent contre ce genre de campagnes, qui ne sont pas des exceptions ou des exemples outranciers : au moment où l'ensemble de la recherche scientifique est focalisée sur des résultats intéressants prioritairement les secteurs dominants de l'industrie, elles sont monnaie courante et font même partie d'un plan marketing obligatoire pour des entreprises qui se respectent, comme EXXON par exemple, nomément attaquée par Al GORE au Global Brand Forum de Singapour. Elles utilisent exactement les mêmes méthodes que l'industrie du tabac pour défendre son marché des cigarettes et des cigares ou l'industrie chimique pour défendre son marché de l'amiante. De plus en plus de scientifiques, regroupés au niveau mondial, contestent ces méthodes, veulent que l'on revienne aux faits, soutiennent le principe de précaution nécessaire face à la montée des périls, que ce soit en matière de pollution des terres agricoles ou en matière d'accroissement des émissions de gaz à effet de serre. Une véritable bataille, dans laquelle se trouve au centre l'ensemble des médias, se livre entre firmes voulant continuer dans la même voie pour la recherche de profits de plus en plus à court termes et monde scientifiques, responsables de l'environnement, organisations non gouvernementales et partis politiques écologiques... Une bataille qui, au fur et à mesure de l'afinnement des résultats des recherches sur le climat qui indiquent de manière cumulative un accroissement de la gravité de la situation, est en passe de tourner en faveur des partisans du principe de précaution et de politiques énergétiques alternatives, si l'on en juge la tonalité des débats publics et le contenu de plus en plus de séminaires scientifiques, même ceux organisés par les entreprises mêmes qui, hier, déniaient même la qualité de scientifiques aux chercheurs qui tentent d'alarmer l'opinion publique depuis plus d'un demi-sicècle. Une certaine prise de conscience, même, se fait jour dans de nombreux milieux industriels et financiers, qui s'exprime notamment dans une mutltude de rapports des fondations (notamment américaines) patronées par ces mêmes milieux...

 

Claude ALLÈGRE et Dominique de MONTVALON, L'imposture climatique ou la fausse écologie, Plon ; Florence LERAY, Le négationnisme du réchauffement climatique en question!, Golias, 2011 ; Stéphane FOUCArt, Le populisme climatique, Denoël.

Christophe BONNEUIL et Pierre-Benoît JOLY, Sciences, techniques et société, La Découverte, Collection Repères, 2013.

Sylvestre HUET, Les journalistes face au sweet fight climatique, octobre 2010, site http://sciences.blog.liberation.fr

 

SOCIUS

Par GIL - Publié dans : SOCIOLOGIE
Ecrire un commentaire - Voir les 0 commentaires
Mercredi 21 août 2013 3 21 /08 /Août /2013 10:30

          Parmi la vague de fims de fiction (Le jour d'après par exemple) et de documentaires consacrés aux bouleversements climatiques actuels, l'un des premiers à faire date, Une vérité qui dérange, sorti aux Etats-Unis en 2006, donne la tonalité générale. Entre ton responsabilisant (voire maoralisateur), un certain catastrophisme volontairement affiché pour faire prendre conscience de l'urgence de la situation, présentations de données scientifiques en provenance d'une recherche encore hésistante, et contestation en provenance des lobbys pétroliers qui avance masquée sous la signature de scientifiques plus ou moins directement appointés, ces documentaires (surtout ces documentaires), qui relèvent d'un genre docu-fiction ou fiction documentaire au statut parfois indéfini, se veulent un appel à l'action contre des pratiques, énergétiques notamment, qui changent le visage de la planète, et pas forcément, à terme, en faveur de l'espèce humaine telle que nous la connaissons.

           Le documentaire américain engagé, en pleine résurrection depuis les années 2000, relayé ou précédé d'autres européens ou d'ailleurs, se concentre beaucoup sur les changements climatiques, par ailleurs enjeu crucial de conflits mettant aux prises scientifiques indépendants, entreprises énergétiques et opinion publique, par l'intermédiaire de la presse écrite, audio-visuelle ou électronique. 

 

          Le réalisateur américain, tout au long d'une heure trente quatre minutes, s'est contenté de capter l'une des conférences de l'ex vice-président Al GORE. Si on trouve ici ou là des élémentes bibliographiques narrés par l'homme politique lui-même, le gros du film consiste en un grand cours magistral, avec forces documents filmiques, graphiques... Cette conférence se situait dans une campagne multi-média de sensibilisation sur le réchauffement climatique. Al GORE soutient de bout en bout les démonstrations du film et on peut dire qu'il "porte" le documentaire à lui tout seul. Mise en scène, mise en spectacle, effets dramatiques, introductions des différents documents, il fait tout cela, soutenant réellement l'attention du spectateur de bout en bout dans un exercice de pédagogie qui parfois donne à certaines données scientifiques une portée qu'elles n'ont pas d'elles-mêmes. Aux critiques nombreuses sur des faits qui y sont relatés, Al GORE lui-même répond plus tard, mais on peut dire pour paraphraser une formule maintes fois utilisée que la réalité dépasse aujourd'hui la docu-fiction. Une réactualisation, plus de 6 ans plus tard, donnerait sans doute au documentaire une plus grande gravité. 

 

        La vérité qui dérange (A Inconvenient Truth) est également le titre d'un manuel d'Al GORE qui atteint la première place des bestsellers du New York Times (du 2 juillet au 13 août 2006) et qui se maintient encore pendant de nombreux mois sur la liste. Le film lui-même fut présenté en avant-première en 2006 au Festival du film de Sundance, puis au Festival de Cannes 2006. il se classe en troisième position des plus grands succès au box-office en matière de documentaire, derrière Farenheit 9/11 et La Marche de l'empereur, et devant Bowling for Columbine. En ce sens, l'objectif de sensibilisation au problème du réchauffement climatique a été atteint. Le film peut d'ailleurs utilement introduire à des débats sur le réchauffement climatique. Toujours est-il, comme pour l'ensemble des documentaires, faut-il le présenter comme un premier outil introductif à cette problématique, et non s'y arrêter. Et de plus, comme écrit auparavant, la réalité dépasse la docu-fiction...

 

      Produit par la Paramount Pictures, le film est disponible en DVD et peut être obtenu au site www.climatecrisis.net. 

 

    Parmi les autres documentaires consacrés aux changements climatiques, nous pouvons citer, entre autres :

- Home (2009, réalisation de Yann ARTHUS-BERTRAND, production par Luc BESSON), de 120 minutes (90 dans une version courte)n sur le lien entre l'Homme et la Terre, diffusé gratuitement sur Internet (après notamment une présentation en plein air au Champ de Mars à Paris et une diffusion sur la chaîne de télévision France 2) . Il montre l'état de la Terre vue du ciel, la pression que l'homme fait subir à l'environnement et les conséquences sur le climat. 

- Le syndrome du Titanic, réalisé en 2008 par Nicolat HULOT et Jean-Albert LIÈVRE, suivant le livre éponyne de Nicolas HULOT sorti en 2004. Produit par Mandarin Cinéma, Studio 37, Mars films, WLP et TF1 Films Production, il est sorti en octobre 2009. Il développe les thèmes récurrents autour de l'évolution de l'environnement et de l'érosion de la biodiversité.

- Climat en crise, de 50 minutes, présenté par Robert T WALSON, directeur du GIEC pendant 6 années,  décrit les prévision du super-calculateur Earth simulator pour répondre aux questions de l'aridification des terres, des ressources alimentaires planétaires, des vagues de chaleur dans les zones tempérées, des phénomènes météorologiques extrêmes, des équilibres éconologiques et des menaces inattendues, de l'habitat planétaire et des réfugiés de l'environnement sinistré et des solutions envisagées. Il prend pour paramètre principal l'augmentaire des émissions de gaz à effet de serre dans l'atmosphère. (www.cnes.fr).

- 2012 : Time For Change, long métrage de 85 minutes de 2010, du réalisateur brésilien Joao AMORIN, basé en partie sur les livres de Daniel PINCHBECK. il présente une alternative radicalement positive à la catastrophe apocalyptique, à l'aide de rémoignages, entre autres, de David LYNCH, STING, Buckminster FULLER et Bernard LIETAR... (www.2012timeforchange.com)

- La 11ème heure, le dernier rivage, sorti en 2007, des réalisatrices américaines Nadia CONNERS et Leila CONNERS PETERSON, produit par Leonardo DICAPRIO. Il montre l'état de l'environnement et de la biodiversité au début du XXIe siècle et les méfaits de l'homme sur ces dernier. Nous le recommandons pour la diversité des rencontres (une cinquantaine) avec des scientifiques, connus ou pas du publics et leaders politiques réputés dans leur domaine de compétences et impliquées dans l'action contre le réchauffement climatique.

- L'odyssée climatique du Souther Star, série de 4x52 minutes réalisé par Thierry ROBERT (produite par Paco FERNANDEZ, Injam Production avec la participation de planète Thalassa), à l'occasion de l'Année Polaire Internationale. Premier navigateur français à avoir traversé l'Océan Glacial Artique à la voile, Olivier PITRAS nous montre les effets sur place des changements liés au réchauffement climatique. (www.films&documentaires.com)...

 

Davis GUGGENHEIM, Une vérité qui dérange, Paramount Pictures, 2006.

 

FILMUS

Par GIL - Publié dans : FILMS UTILES
Ecrire un commentaire - Voir les 0 commentaires
Samedi 3 août 2013 6 03 /08 /Août /2013 09:14

    L'expression Changement climatique ne signifie pas seulement changement de climat mais également passage d'un système de climat à un autre. Le système climatique est caractérisé par la permanence d'un cycle d'évolutions de tempétature, d'humidité dans l'air, de pression et de circulation des masses planétaires d'eau et d'air, avec l'existence d'un certain nombre d'espèces vivantes, végétales ou animales, qui en tirent les conditions de vie  et qui en influent l'évolution.

   L'espèce humaine s'y caractérise par une influence bien plus importante que pour les autres espèces. Par l'utilisation d'énergie, d'abord du feu (destruction de forêts, incendies volontaires ou involontaires), puis des énergies fossiles (par rejet de masses de gaz carbonique dans l'air, dans des quantités très variables de civilisation à civilisation), mais également certainement par les énergies renouvelables (rétention par exemple de masses "artificielles" d'eau). Si le système climatique n'est pas encore complètement connu, même par les sciences qui l'étudient, les corrélations entre l'industrialisation et le réchauffement planétaire sont établies.

 Il s'agit ici de savoir comment ces changements climatiques qui s'accélèrent actuellement (fonte des glaciers de montagne ou des pôles, accroissement de la force des phénomènes locaux de réajustement climatique - entre zones chaudes et zones froides, entre zones de basse pression et de haute pression, etc...) influent sur les conflits, qu'ils soient d'ordre interpersonnels ou collectifs. Par exemple, conflits inter-personnels dont la tonalité, mais pas forcément l'objet, varient souvent avec des paramètres purement physiques de température et de pression, conflits collectifs par le déplacement de zones de présence des ressources naturelles (énergie, minerai), par le déplacement des zones de circulation terrestre ou/et maritime...

 

     Qui dit changement climatique dit changement des condition de vie, donc variation de l'adaptation aux conditions du climat. Donc influence directe sur les relations entre les, différentes espèces. Les changements de climat influent sur l'évolution des espèces. Mais pas seulement, il s'agit de périodes transitoires, avec des phénomènes particulièrement violents, avant l'établissement d'un nouveau système de climat : par conséquent, comme nous le voyons actuellement, accélération d'extinctions ou de naissances d'espèces, multiplications de courants marins brusques, de phénomènes atmosphériques violents, ruptures des cycles saisonniers, ce qui induit déplacements plus amples et plus fréquents de populations, destructions fréquentes de la faune et de la flore. Comme dans maints phénomènes physiques, le système écologique tout entier de la planète subit des crises de plus en plus grandes,  de plus en plus graves, de plus en plus fréquentes, jusqu'à un pic méconnu, avant de se stabiliser, dans un nouveau climat, un nouvel équilibre des espèces, un nouveau système d'évolution des espèces, une nouvelle répartition des terres et des mers, un nouveau cycle de température et de pression, une réorganisation de la géographie toute entière...

    Ce changement climatique ne provient pas toujours seulement des espèces qui vivent sur la planète. Notre planète vit dans un système solaire, dans une galaxie, dans un amas où quantités d'événements peuvent se produire. Des objets plus ou moins gros (des nuage de poussières aux comètes) qui viennent dans l'environnement spatial immédiat ou percutent la planète, des variations dans l'activité du soleil, des crises volcaniques influent également le climat, généralement sur des décennies ou des siècles. Mais la rapidité à laquelle le changement actuel de climat se déroule ne laisse que peu de doutes, une fois toutes les mesures possibles effectuées. L'industrialisation de l'ensemble de la planète, avec des systèmes économiques particulièrement énergivores et qui remaniene en profondeur la composition de l'air, des terres et de l'eau, semble bien responsable de l'actuel réchauffement planétaire. Le réchauffement climatique, même s'il est important et porteur de modifications profondes n'empêcherait pas l'espèce humaine de s'adapter, si un élément de plus nalourdissait par les menaces : la pollution (chlmique, biochimique, radioactive) généralisée de l'air, des terres et de l'eau affaiblissent ces capacités d'adaptation.

 

     Depuis un peu moins de 12 000 ans, notre planète est entrée dans une période Interglaciaire de l'Holocène, et rien de dit que le changement climatique actuel ne pourrait pas y mettre fin, dans le sens d'un climat généralement plus chaud et plus humide ou plus froid et plus sec... Nous n'avons pas suffisamment de connaissances et d'expériences sur les changements climatiques pour prévoir les conséquences de l'industrialisation intensive. 

Ce qui est de plus en plus certain en revanche, c'est que l'activité humaine a depuis très longtemps une influence importante sur le climat. Mais il ne s'agit pas seulement de l'activité humaine : toutes les espèces animales opèrent une influence sur le relief et la flore. Par là, elles exercent une influence sur le Climat. Peu d'études sont consacrées à cette influence, non par manque d'intérêt, mais tout simplement parce qu'une étude de ce genre porte sur de longues durées par nature difficile à suivre... Il faut en tout cas en finir avec le mythe d'une nature sauvage qui serait une sorte de paradis avant l'arrivée de l'espèce humaine. De manière constante et répétée les modifications de l'environnement font partie de la réalité physique. Sauf dans les isolats (zones montagneuses ou îles), tout événènement, toute migration d'espèces animales, toute modifications du rapport de forces entre espèces (notamment entre prédateurs et proies), ce fameux équilibre de la nature qui a sans doute autant de réalité que l'équilibre en économie, a une répercussion sur l'ensemble du système écologique, donc du climat.

        Les études nombreuses et variées de paléoécologie reposent, écrit Yanni GUNNEL "sur le constat suivant : les conditions de vie des organismes biologiques sont déterminés par des conjonctions de paramètres simples comme la température, l'humidité, le pH (niveau d'acidité) et il n'y a pas de raison de supposer qu'il en ait été autrement dans le passé. Le postulat est donc celui d'un équilibre entre les organismes et une fourchette de conditions environnementales. Il permet d'établir des corrélations entre tel assemblage d'espèces et telle conjonction de conditions paléothermiques, paléo-édaphiques et paléohydrologiques." Cette démarche suppose que l'écophysiologie des espèces étudiées n'a pas évolué au cours d'une période de référence. Difficile de discuter des situations d'il y a des centaines de milliers d'années. En revanche, "cela semble valable pour l'ensemble de l'Holocène, voire la majeure partie du Quaternaire pour la plupart des espèces, mais la plasticité génétique des espèces à cycle de vie court (oiseaus, petits mammifères, insectes, graminées, virus) rend ces dernières écologiquement plus adamtables que les espèces à cyle de vie long. (...)". Dans ce que l'on peut appeler une longue co-évolution de l'homme et de la nature, la recherche sur les environnements du passé nous apprend déjà un certain nombre de choses :

- dans ces milieux que l'on croit naturels... le feu constitue depuis des millénaires un instrument de gestion des habitats et de la faune. "Il a fallu longtemps avant que les naturalistes ne réalisent que l'impact de l'homme sur des écosystèmes réputés vierges étant beaucoup plus ancien qu'il n'y paraissait. La distorsion qui a longtemps masqué ce phénomène provient pour beaucoup de l'histoire et de l'idéologie coloniales (nous pensons, quant à nous que cela remonte à plus loin et que cela est beaucoup plus profond : dans la définition de ce qu'est la nature...). Dans le cadre de la colonisation, les ingénieurs et naturalistes occidentaux découvrant les écosystèmes de la zone intertropicale ont abordé les milieux naturels de ces régions sans posséder les décodeurs nécessaires qui auraient permis de passer du registre de la mission civilisatrice et du développement au registre d'une recherche scientifique débarrassée de préjugés scientifiques et moraux. Or, les progrès de la recherche paléoenvironnementale nous montrent que, depuis au moins 100 000 ans, c'est l'homme qui a choisi pour la nature la trajectoire qu'elle doit suivre, y compris sur les continents que les Eruopéens de la première mondialisation ont cru découvrir dans un état de virginité relative. Ces 100 000 ans sont certainement d'ailleurs une sous-estimation, car l'archéologie trouve des traces d'utilisation du feu associées à Homo erectus autour de 1,5 millions d'années (...)" Bien avant l'arrivée des Européens en Amérique ou en Afrique, le paysage n'a plus rien de naturel. Des techniques dans la manière d'utiliser le feu, les dégâts involontaires causés par les incendies accidentels avaient déjà modifiés profondément les ensembles forrestiers et hydrauliques. 

- L'homme défricheur a aussi créé intentionnellement ou non, des écosystèmes entièrement nouveaux.

- La grande extinction pléistocène d'Amérique du Nord n'a pas d'équivalent dans les millénaires antérieurs.

- La domestication des espèces surmultiplie l'impact des activités humaines sur l'envieonnement, il y a environ 10 000 ans.

- "Parce qu'elle impose des dynamiques et des temporalités réglées par les nécessités économiques plus que par la rythmicité des perturbations naturelles, l'agriculture a changé les règles du jeu écologique d'une manière beaucoup plus profonde qu'on le l'imagine parfois". 

 

     L'industrialisation des activités humaines - il ne s'agit plus de l'utilisation partielle de techniques plus ou moins efficaces, mais de l'utilisation systématique et répétée de techniques de plus en plus dévoreuses d'énergie, notamment fossile - accentue leurs effets sur l'environnement, jusqu'à l'affecter dans les ressources mêmes utilisées par l''espèce humaine. 

   Après les divers cris d'alarme, comme celui de Fairfield OSBORN, président de la société zoologique de New York (La planète au pillage, Payot, 1949), qui se multiplent dans les années 1960, en même temps que les critiques sur la société de consommation de masse, la multiplication des phénomènes atmosphériques (que ce soit sur la composition de l'air ou ses mouvements autour de la planète), provoque l'émoi de l'ensemble de la communauté scientifique. Ainsi, le Groupe d'Experts Intergouvernemental sur l'Evolution du Climat créé en 1988, à la demande du G7, par deux organismes de l'ONU (l'Organisation Météorologique Mondiale et le Programme des Nations Unies pour l'Environnement), a pour mandat d'évaluer, sans parti pris, de manière indépendante, tant vis-à-vis des Etats que des sociétés privées , et de manière méthodique, claire et objective, les informations scientifiques, techniques et socio-économiques disponibles en rapport avec la question du changement de climat. Il s'agit tout d'abord d'établir, rapports après rapports, dont le dernier (le quatrième) date de 2007, et le prochain est attendu pour 2014, une corrélation entre les activités humaines et les changements climatiques et de proposer des mesures pour inverser la tendance. Rapport après rapport, ses analyses, d'abord prudentes et ponctuées d'interrogations fondamentales, deviennent de plus en plus alarmistes, au fur et à mesure que se constatent de manière flagrante, surtout depuis le début des années 2010, des effets de plus en plus dévasteurs, spectaculaires ou non, du réchauffement climatique. On en est d'ailleurs au point que, si ses analyses sont retenues par la majeure partie de la communauté scientifique, que certains spécialistes (des sciences de la nature) estiment que ses conclusions pèchent parfois par... optimisme!  Ainsi, la fonte des glaciers du Pôle Nord s'avère beaucoup plus rapide que prévu (et même à certains endroits permanente) et l'extinction des espèces vivantes, comme de leur déplacement d'un continent à un autre, s'accélère de manière bien plus importante que décrite. Pour en rester à ses rapports, très combattus par des milieux industriels (notamment dans le domaine des énergies fossiles) qui veulent empêcher jusqu'à toute influence de considérations environnementales sur leurs activités, ils établissent un certain nombre de faits, qui dans le temps, sont reconnus par des fractions de plus en plus large de scientifiques, d'hommes politiques et des opinions publiques. 

    Nous pouvons lire dans le point 6 des "Conclusions robustes et incertitudes clés" :

"Dans le présent rapport (de 2007) (...), on entend par conclusion robuste en matière de changements climatiques toute conclusion qui reste valable pour un large éventail de démarches, de méthodes, de modèles et d'hypothèses et qui devrait généralement le rester malgré les incertitudes. Quand aux incertituds clés, ce sont des incertitudes qui, une fois levées, peuvent donner lieu à des conclusions robustes. Les conclusions robustes n'englobent pas l'ensemble des conclusions essentielles du quatrième Rapport d'évaluation, dont certaines peuvent être pertinentes pour l'élaboration des politiques même si elles sont liées à d'importantes incertitudes." Suit une liste de "conclusions robustes et des incertitudes clés", non exhaustive.

Conclusions robustes : "Le réchauffement du système climatique est sans équivoque. On note déjà, à l'échelle du globe, une hausse des températures moyennes de l'atmosphère et de l'océan, une fonte massive de la neige et de la glace et une élévation du niveau moyen de la mer. Sur tous les continents et dans certains océans, nombre de systèmes naturels sont perturbés par des changements climatiques régionaux. Les modifications observées de nombreux systèmes physiques et biologiques concordent avec ce réchauffement. Sous l'effet de l'absorption du CO2 (Gaz carbonique) anthropique depuis 1750, l'acidité des couches superficielles de l'océan a augmenté. Les émissions anthropiques annuelles totales de GES (Gaz à Effets de Serrer), pondérées en fonction de leur potentiel de réchauffement global sur 100 ans, se sont accrues de 70% entre 1970 et 2004. Sous l'effet de ces émissions, les valeurs de la concentration de N2O (Protoxyde d'azote ou Oxyde nitrique) dans l'atmosphère sont actuellement bien supérieures aux valeurs préindustrielles couvrant plusieurs milliers d'années, et celles de la concentration de CH4 (Méthane) et de CO2 excèdent aujourd'hui largement l'intervalle de variations naturelles pour les 650 000 dernières années. L'essentiel du réchauffement général moyen constaté depuis 50 ans est très probablement attribuable à l'augmentation de concentration des GES anthropiques. Il est en outre probable qu'en moyenne, tous les continents, à l'exception de l'Antartique, ont subi les effets d'un réchauffement anthropique (due à l'activité humaine) marqué. Il est probable que le réclauffement anthropique survenu depuis trente ans a joué un rôle notable à l'échelle du globe dans l'évolution observée de nombreux systèmes physiques et biologiques."

Incertitudes clés : "Les données relatives au climat restent insuffisantes dans certaines régions. De plus, les données et les études concernant les changements observés dans les systèmes naturels et aménagés sont très inégalement réparties d'une région à l'autre et sont particulièrement peu abondantes dans les pays en développement. La variabilité des phénomènes extrêmes, comme la sécheresse, les cyclones tropicaux, les températures extrêmes ou la fréquence et l'intensité des précipitations, est plus difficile à analyser et à surveiller que les moyennes climatiques, car cela nécessite de longues séries chronologiques de données à haute résolution spatiale et temporelle. Il est difficile de déceler les effets des changements climatiques sur les systèmes humains et certains systèmes naturels en raison de l'adaptation et des facteurs non climatiques. La simulation des vairation de températures observées et leur attribution à des causes naturelles ou humaines à des échelles inférieures à l'échelle continentale soulèvent toujours des difficultés. A ces échelles, il est en effet malaisé de discerner l'influence du réchauffement anthropique sur les systèmes physiques et biologiques en raison de facteurs tels que les changements d'affectation des terres ou la pollution. Des incertitudes clés subsistent quant à l'ampleur des émissions de CO2 dues aux changements d'affectation des terres et à celle des émissions de CH4 provenant de diverses sources."

Dans les coclusions robustes concernant les "éléments moteurs" et les "projections concernant l'évolution future du climat", nous pouvons lire :

"Vu les politiques d'atténuation des effets des changements climatiques et les pratiques de développement durable déjà en place, les émissions mondiales de GES continueront d'augmenter au cours des prochaines décennies. Un réchauffement d'environs 0,2° Celsius par décennie au cours des vingt prochaines années est anticipé dans plusieurs scénarios d'émissions SRES. la poursuite des émissions de GES au rythme actuel ou à un rythme plus élevé devrait accentuer le réchauffement et modifier profondément le système climatique au XXIe siècle. Il est très probable que ces changements seront plus importants que ceux observés pendant le XXe siècle. Tous les scénarios prévoient que le réchauffement sera plus marqué sur les terres émergées que dans les océans voisins et qu'il sera particulièrement sensible aux latitudes élevées de l'hémisphère Nord. Le réchauffement tend à freiner le piégeage du CO2 atmosphérique par les écosystèmes terrestres et les océans, ce qui a pour conséquence d'augmenter la part des émissions anthropiques qui reste dans l'atmosphère. Même si les émissions de gaz à effet de serre diminuaient suffisamment pour stabiliser la concentration de ces gaz, le réchauffement anthropique et l'élevation du niveau de la mer se poursuivraient pendant des siècles en raison des échelles de temps propres aux processus et aux rétroactions climatiques. Il est très improbable que la sensibilité du climat à l'équilibre soit inférieure à 1,5°C. Il est probable que certains systèmes, secteurs et régions seront plus durement touchés que d'autres par l'évolution du climat. Au nombre de ces systèmes et secteurs figurent certains écosystèmes (toundra, forêt boréale et régions montagneuses, écosystèmes de type méditerranéen, mangroves, marais salants, récifs coralliens et biome des glaces de mer), les basses terres littorales, les ressources en eau dans les zones tropicales et subtropicales sèches et dans les zones tributaire de la fonte de la neige de et la glace, l'agriculture aux basses latitudes et l'état sanitaire des populations disposant d'une faible capacité d'adaptation. Les régions concernés sont l'Arctique, l'Afrique, les petites îles et les grands deltas asiatiques et africains. Dans les autres régions du globe, mêmes prospères, des segments particuliers de la population, tout comme certaines zones et activités, risquent d'être gravement menacées."

 

Yanni GUNNELL, Ecologie et société, Armand Colin, 2009 ; GIEC, Bilan 2007 des changements climatiques, Rapport de synthèse des changements climatiques (site du GIEC).

 

BIOLOGUS

Par GIL - Publié dans : ECOLOGIE - Communauté : Sur les sciences humaines
Ecrire un commentaire - Voir les 0 commentaires
Jeudi 25 juillet 2013 4 25 /07 /Juil /2013 14:01

     L'énergie nucléaire, énergie la plus récemment domestiquée (entièrement?) par l'homme, connue après la découverte de la radioactivité à la fin du XIXe siècle, n'est développée pour le tissu industriel et pour l'économie en général, qu'après les premières utilisations militaires (Bombes atomiques). La possibilité de maitriser la réaction en chaîne atomique à des fins de production énergétique ne concerne que la production d'électricité dans un premier temps, suivie de peu par d'autres applications (dont médicales et propulsions de sous-marins). Sa croissance globale, depuis les années 1950, en URSS, aux etats-Unis, en France et au Royaume Uni lui permet d'assurer de nos jours 15% de l'électricité produite dans le monde, soit presque autant que les centrales hydroélectriques développées elles, dès le premier tiers du XIXe siècle. En 2005, seuls 31 pays disposent de centrales électronucléaires. Plusieurs d'entre eux, pour des raisons relatives à la sécurité et (mais pour une moindre part) d'environnement, qui maitrisent cette énergie, ont décidé récemment de l'abandonner. Mais la construction de centrales nucléaires se poursuit dans les nouveaux pays développés comme la Chine et l'Inde, et l'énergie nucléaire est encore considérée à la fois pour son prestige, son couplage à un appareil militaro-industriel et ses potentialités fortes (en comparaison d'autres sources de production d'électricité).

   Michel BATTIAU, à la suite de beaucoup d'autres auteurs, constatent que "la filière électronucléaire relève de la haute technologie à tous les stades, qu'il s'agisse de conditionner les matières fissiles qui seront introduites dans le réacteur et que l'on désigne souvent du terme de "combustible" par analogie avec les centrales thermiques classiques alors qu'il n'y a pas de combustion au sens propre du terme, ou de piloter la centrale et de gérer les déchets. La grande majorité majorité des centrales actuellement en service utilisent de l'uranium qualifié "d'enrichi", parce que l'on y a artificiellement augmenté la proportion de l'isotope 235." Il y a donc avant même son introduction dans le réacteur, à l'instar d'une distillation du pétrole burt, des opérations complexes, situées en amont de l'industrie nucléaire. "Les usines d'enrichissement revêtent un caractère sensible dans la mesure où à l'aide des mêmes techniques on peut produire de l'uranium très enrichi susceptible d'être utilisé à des fins militaires." 

"La complexité de la filière rejaillit sur ses caractéristiques économiques. Elle est co^teuse en investissements car il est évident qu'il est préférable de construire des centrales de grande capacité pour amoortir les coûts fixes entrainés par la mise en place de tous les dispositifs de surveillance, de pilotage et de protection des instllations, etc. La compétitivité économique du KWh nucléaire prête à discussion car tout dépend des coûts des combustibles brûlés dans les autres grandes familles de centrales thermiques, à savoir celles qui utilisent le charbon ou les hydrocarbures. Pour ces centrales dites à flamme le prix du combustible est l'élément crucia d'autant qu'il pourrait encorre être majoré s'il fallait prendre en compte l'achat éventuel de quotas de carbone au cas où la législation deviendrait contraignante dans ce domaine.

Dans le cas du nucléaire le prix de l'uranium est un élément de beaucoup plus faible importance. L'essentiel des coûts est représenté par le montant des investisssements nécessités par la construction de la centrale et de tout ce qui l'entoure. L'amortissement de ces investissements est évidemment fonction de la durée de vie estimée de la centrale. Il faut aussi tenir compte d'une autre donnée économique qui est ce que l'on appelle le taux d'actualisation. Si l'on veut comparer deux possibilités d'investissements, il faut faire la somme de tous les revenus qu'ils sont susceptibles de produire au fil du temps. Quand on fait la somme de tous les revenus attendus, il faut les minorer en fonction des délais nécessaires pour leur obtention (...). Une autre quastion qui suscite les débats est évidemment celle du coût de la gestion des déchets (ceux-ci ayant des durées de vie parfois très longues...) et des frais entrainés ultérieurement par le démantèlement des centrales parvenues au terme de leur exploitation. Des provisions sont en principe constituées à cet effet mais il est bien difficile d'en fixer le montant réellement nécessaire s'agissant d'opérations qui interviendront dans plusieurs décennies. 

L'énergie nucléaire apparait en tout étant de cause comme une filière très capitalistique qui ne peut être le fait que de grandes entreprises technologiquement évoluées et capables d'investir à très long terme. Leur potentiel financier et technologique en fait des acteurs puissants de la promotion de cette énergie. . La conscience de vivre une grande aventure technique et scientifique où de nouveaux développement encore plus prometteurs apparaissent sans cesse possibles est un élément très mobilisateur pour tous ceux qui s'engagent dans cette aventure. Cela développe une culture de la performance dont il ne fait pas sous-estimer l'importance et les dangers si elle conduit à trop de confiance en soi. De ce point de vue l'existence d'autorités de contrôle extérieures au monde des acteurs directs de la filière apparait incontestablement comme un contrepoids indispensable et ce dans l'intérêt même de cette sources d'énergie car cela permet d'éviter les imprudences dont les conséquences se retournent ensuite contre elle."

Si l'auteur, par cette présentation bien ampoulée fait référence aux multiples accidents nucléaires plus ou moins graves et aux incidences sur l'environnement, sans doute faut-il avoir un point de vue plus critique. L'énergie nucléaire est sans doute une énergie dont la nature est bien plus lourde de menaces que les énergies qui l'ont précédé. Nous ne savons pas encore maitriser la radioactivité (et même les théories physiques ne sont pas très affinées encore pour le permettre) et la prise de risques sur l'ensemble des sociétés, sur l'humanité et même sur la vie donne parfois le vertige.  Mais comme les calculs économiques actuels sont des calculs à court terme, et que les décisions sont prises sous le feu de l'urgence d'une compétition qui est aussi militaire, les conséquences à moyen et long terme ne pèsent pas très lourds sur les décisions de développer cette énergie.

 

   Michel BATTIAU met justement en perspective, avec l'étude historique de cette filière, les succès et les revers de l'énergie nucléaire dans les cinquante dernières années. Sans remonter aux conflits entre alliés dans la course aux savants atomistes, dont ceux conservés par l'Allemagne nazie, il décrit certaines péripéties, depuis les années 1950 :

- Après le coup d'envoi en 1953 par le Président Eisenhower (discours "Atome for peace"), le développement de la filière nucléaire débute. Les Américains possdèdent alors la maitrise de toute cette filière et espèrent vendre au reste du monde leur technologie tout en contrôlant ses possibles applications militaires. ils emploient alors pour deux types de centrales de l'uranium enrichi et de l'eau lourde, laquelle sert à la fois de modérateur pour une réaction nucléaire contrôlée et de fluide caloporteur. Ces réacteurs REP (Réacteurs à Eau Pressurisée) constituent le premier d'entre eux. Mais au point par General Electric, cet entreprise l'oppose au réacteurs REB (Réacteurs à Eau Bouillante) de la firme concurrence Westinghouse

L'avantage des Américains résident alors dans le fait que la taille de leur marché intérieur permet de faire jouer les économies d'échelle (ce qui n'est pas propre à l'industrie énergétique d'ailleurs) grâce à la construction d'un grand nombre de centrale de même type.

- D'autres pays technologiquement évolués se lancent dans cette aventure dès les années 1950 et s'efforcent de développer leurs propres technologie : le Royaume Uni, la France, le Canada et l'URSS. Comme les trois premiers ne disposent pas de production d'uranium enrichi en quantités suffisantes et que les Américains refusent de le leur vendre, ils se tournent vers d'autres types de centrale, des centrales à uranium naturel qui tulisent d'autres dluides modérateurs et/ou caloporteurs.

Jusqu'en 1970, le Royaume Uni produit même plus d'électrcité nucléaire que les Etats-Unis grâce à ces centrales utilisant le graphite comme élément modérateur des neutrons et du gaz carbonique comme fluide caloporteur.

La France met en chantier des centrales techniquement différentes mais fonctionant selon le même schéma. Une vive rivalité met aux prises le CEA (Commissariat à l'Energie Atomique) qui oeuvre pour de telles centrales et EDF qui préfère pour des raisons économiques les modèles américains. Ce conflit est finalement arbitré au sommet de l'Etat sous la présidence de Georges POMPIDOU en faveur d'EDF. Cette technologie est progressivement "francisée", car les firmes françaises qui l'acquièrent la perfectionnent. Dans la terminologie française, les centrales à uranium naturel sont qualifiés de "première génération". Celles dérivées des filières amréricaines formenk-t la '"seconde génération", formule trompeuse car il n'y a pas de filiation technologique pure entre elles. La France espère reprendre le leadership technologique (car beaucoup de ces ingénieurs estiment que les premiers travaux de la radioactivité des CURIE donnent à la France la figure de pionnière en la matière, figure qu'elle avait encore en 1939...) en étant la première à lancer à grande échelle une "troisième génération" qui aurait été celle des surgénérateurs (surrégénérateurs en fait, mais le mot est passé dans le langage...). Des centrales qui, par irradiation d'uranium 238 produisent du plutonium 239 supérieur à l'uranium 235 (ou du plutonium 239), pour faire fonctionner le réacteur. Un protoype est lancé, Phénix, suivi d'une centrale destinée à valider en grandeur réelle cette filière, SuperPhénix, à Creys-Malville, utilisant le sodium comme fluide caloporteur. Connectée au réseau en 1986, malgré les oppositions écologistes, elle connait de très nombreux problèmes techniques. Finalement le pouvoir politique, en 1997 (Lionel JOSPIN) arrête el fonctionnement de cette centrale, répondant à la demande du parti écologiste, partie prenant alors de sa majorité parlementaire.

L'Union Soviétique se lance également dans la construction de centrales en développant ses propres filières. Les centrales font alors appel à de l'uranium enrichi et emploient également de l'eau sous pression. La plus grande différence par rapport à celles construites dans les pays à économie de marché est le fait que le bâtiment contenant le réacteur n'est pas logé dans une enceinte de confinement, qui représente une précaution coûteuse mais précisuse. La confiance aveugle dans la technologie au sein d'un Etat où toute forme d'opposition est bannie l'amène à négliger cette disposition dont l'absence est finalement catastrophique.

- Ce sont finalement les filières à eau pressurisée et bouillante qui se sont imposées de par le monde. La première des seux représentait en 2005, près de la moitié des réacteurs en service dans le monde. Si l'on ajoute les réacteurs à eau bouillante et ceux construits pas les Soviétiques selon leurs propres technologies, on atteint 85%. Ces filières ne sont plus dominées de manière écrasante par des firmes américaines. La firme française Areva, la firme russe Rosatom, figurent parmi les plus grands acteurs mondiaux dans cette industrie de même que les japonaises Hitachi, Mitsubishi ainsi que Toshiba qui a repris les activités nucléaires de Westinghouse en 2006. 

- Si dans les années 1950 et 1960, les centrales sont construites uniquement dans des pays technologiquement développés, dans les quinze années suivantes, le nombre de pays producteur double et dans les années 1970 puis la première moitié de 1980, le nucléaire se développe aussi dans des pays peu pourvus en énergies fossiles (Belgique, Suède, Suisse) , puis ensuite, dans des pays qui rejoignent l'ensemble des pays développés dans tous les continents (notamment Chine, Brésil, Mexique, Afrique du Sud...). Si dans les années 1990 et 2000 moins de centrales se construisent, la montée en charge des centrales construites dans les années précédentes augmente fortement la production d'éléectricité d'origine nucléaire. 

- Le premier choc pétrolier de 1974, encourage les initiatives des Etats dans ce sens. En France plus qu'ailleurs, notamment en proportion, car en 1986, elle assure 20% de la production mondiale. 

- A l'inverse, une série d'accidents nucléaires spectaculaires - Three Mile Island aux Etats-Unis en 1979, Tchernobyl en Union Soviétique en 1986 et tout récemment au Japon (le tsunami balayant les centrales), freine de nombreux programmes de développement de l'industrie nucléaire, même si l'effet de certains coups d'arrêts ne se fera sentir que plus tard. L'énergie nucléaire a connu aux cours des années récentes une expansion très rapide dans les pays nouvellement industrialisés ou "émergents". Entre 1986 et 2005, la production cumulée de la Chine, de l'Inde, de la Corée du Sud et de Taïwan est passée de 60 milliards de kWh à 259 milliards, soit de 4% du total mondial à près de 10%.

    Notre auteur poursuit, après avoir détaillé ce qui différencie l'organisation de la filière nucléaire dans différents pays, sur la situation actuelle :

"Le contexte actuel est en un sens plus que jamais celui de la controverse. Les opposants au nucléaire qui surfent sur l'essor des mouvement écologiques (comme si, dirions-nous les mouvements éconogiques n'avaient pas été traversé dès le début par une opinion anti-nucléaire) insistent évidemment avec d'autant plus d'ardeur sur les risques issus de cette filière que les attentats du 11 septembre 2001 ont engendré de nouvelles inquiétudes. Les centrales actuelles, les centres de stockage des déchets radioactifs seraien-ils à même de résister à des actions terroristes de ce type? D'un autre côté les partisans du nucléaire ont trouvé un nouvel argument dans la mesure où le nucléaire est un moyen de produire de l'électricité en émettant beaucoup moins de faz à effet de serre que par l'utilisation des carburants fossiles. C'est lors de sa construction que la centrale électronucléaire provoque des rejets de CO2 (gaz carbonique), par le biais de la fabrication et de l'acheminement des matérieux nécessaires." L'auteur ne mentionne pas l'eau des fleuves ou des lacs nécessaires au refroidissement des centrales et les rejets dans les cours d'eau d'eau chaude, mais de toute façon "la liste des arguments pour ou contre pourrait être allongée indéfiniment." "En fait la principale question revient à choisir entre les types de risques qui semblent les plus insupportables par une société car aucune solution n'en est complètement exempte". (...) "L'un des effets heureux de ces controverses est qu'elles incitent les acteurs de la filière nucléaire à rendre leurs installations encore plus fiables puisqu'ils se savent exposés à de vives critiques à la moindre défaillance. C'est dans ce contexte qu'Areva, l'acteur majeur (de la filière dans le monde entier) s'efforce de vendre son réacteur dit de la troisième génération, l'EPR (European Pressueized Reactor). Il ne s'agit pas à proprement parler d'un nouveau type de centrale mais d'une amélioration de la filière à eau pressurisée. (...) le premier réacteur de type EPR, commandé en 2003, actuellement en construction en Finlande, devait entrer en service vers 2010-2011. En fait, des retards sur le chantier dus à des problèmes de génie civil" , joints à des oppositions sur la politique énergétique ne permettent pas actuellement de dire quand et si elle fonctionnera. Un réateur de ce type devrait être construit à Flamanville, en France.

"Le nucléaire ne réunit pas sur son nom le consensus unanime que l'on observe, du moins dans les déclarations officielles, à propos des énergies renouvelables. Il faut rappeler que ces controverses se rerouvent à l'échelle de l'Union Européenne puisque la politique des différents pays vis-à-vis du nucléaire est extraordinairement contrastée allant du bannissement à une préférence affichée. Une structure communautaire existe dans le domaine nucléaire. (La Communauté européenne de l'énergie atomique, Euratom) est issue d'un traité signé à Rome en 1957, (...) en même temps que celui créant le "Marché commun". Mais l'Euratom, qui devait créer un marché commun du nucléaire 'na jamais exercé le rôle essentiel que lui conféraient les textes. Ils donnaient en effet à la communauté des compétences aussi bien pour développer la recherche dans ce domaine que pour veiller à l'approvisionnement équitable et régulier des membres en minerais et combustibles nucléaires. Un centre de recherche nucléaire placé sous l'égide d'Euratom a certes été édifi à Ispra, dans le nord de l'italie, mais il demeure une structure d'importance très modeste. (...)".

   Michel BATTIAU souligne longuement les perspectives à long terme dont nous pouvons citer :

- la mise au point de surgénérateurs de "quatrième génération", tirant les leçons des difficultés de fonctionnement de Superphénix. "Cette nouvelle filière apparait particulièrement complexe mais son avantage principal est en quelque sorte de supprimer le problème des réserves d'uranium puisqu'elle permet de valoriser l'isotope 238 qui constitue 99% du matériau estrait du sous-sol, sans compter que l'on peut aussi tirer parti du thorium qui contient lui aussi un isotope fertile.

- l'utilisation des centrales pour produire autre chose que de l'électricité : la production de vapeur à très haute température peut servir à l'exploitation de gisements d'hydrocarbures lourds.

- la production de l'énergie non à partir de la fisson des atomes mais de leur fusion (sur le modèle des bombes thermonucléaires), qui dégage énormément plus d'énergie. Les partisans de cette filière, à condition que l'on parvienne à amorcer une fusion et à l'entretenir de manière contrôlée, opération délicate, "avancent le fait que la fusion dégage moins de particules radioactives que la fission et que, puisqu'elle est difficile à obtenir, elle ne risque pas de s'emballer. Le moindre incident devrait conduire à son interruption." Les difficultés sont considérables et une grande partie du monde de la physique se passionne sur les essais, dans des centres de recherche, de plasma ou de champs magnétiques, comme dans le centre de Cadarache en France, de Culham en Grande Bretagne. Des centres de plus en plus grand sont consacrés à cette recherche : le projet ITER (international Thermonuclear Experimental Reactor)  est concç pour tester la faisabilité d'un processus de fusion. 

 

      Dominique FINON, directeur de recherches au CNRS et directeur du Laboratoire d'Analyse économique des Réseaux et des Systèmes énergétiques (qui regroupe trois équipes d'EDF Recherche et Développement, du CIRED-CNRS et de l'université Paris-Sud), analyse la force et l'inertie de la politique nucléaire française, co-évolution de la technologie et des institutions.

"L'industrie électrique française est présentée comme l'exemple de la maitrise économique et industrielle de la technologie électronucléaire. Une soixantaine de réacteurs ont été construits entre 1970 et 1998 et produisent 80% de l'électricité du monopole électrique national à un coût compétitif : un cycle du combustible complet a été développé ; l'insdustrie nucléaire française se positionne aussi en leader sur le marché mondiale et la recherche-développement nucléaire reste très active. Dans les autres pays industriels, les coûts ont connu des hausses radicales et les entreprises électriques ont dû limiter leurs investissements trop risqué en équipements nucléaires dans un contexte rendu difficile et incertain par les contraintes d'acceptation sociale de la technologie." Cette présentation indique au moins deux choses : la France est la seule qui dépende à ce point de l'électricité d'origine nucléaire et le consensus sur cette énergie, s'il a jamais existé dans la société prise globalement, est mis à mal pour de multiples raisons.

"Cette réussite est attribuable à l'existence d'une configuration institutionnelles appropriée pour accompagner les apprentissages technologiques associés à toute innovation radicale, complexe et de grande taille portant sur un horizon lointain : un soutien politique fort, l'existence d'un monopole électrique national doté d'une capacité d'ingénierie importante, une industrie de construction électromécanique concentrée bénéficiant du monopole des commandes publiques, une agence publique de R&D fortement légitime, un mode de contrôle de la sûreté nucléaire imbriqué dans les organismes de promotion. Mais le pari n'était pas nécessairement gagné puisqu'en Grande-Bretagne, un système national d'innovation (SNI) nucléaire de caractéristiques voisines a conduit à un fiasco industriel. 

La question du devenir du SNI nucléaire français se pose pour plusieurs raisons : étant donné la jeunesse du parc des réacteurs, le besoin d'équipement et de technologies pour la production électrique française est très limité d'ici 20 ans ; le marché mondial des réacteurs est probablement peu actif jusqu'en 2015-2020 malgré les apparences ; comme les institutions politiques et juridiques de la plupart des démocraties industrielles ont laissé remonter la controverse sur la technologie nucléaire et sur les implantations de réacteurs au sein de l'Etat, de même les institutions politiques françaises ont évolué et autorisent désormais la confrontation des points de vue sur les choix technologiques, industriels et économiques, choix qui contraint un peu plus la relance des investissements nucléaires, comme le montre l'exemple britannique depuis 1990." Pour un peu, on pourrait penser que l'auteur considère les institutions démocratiques comme un obstacle à un certain développement technologique...

"Mais la France a choisi de se démarquer de ce mouvement en maintenant l'essentiel de la structure monopoliste de son industrie électrique pour présenter son option nucléaire. Les performances technologiques  et industrielles passées entretiennen la "dépendance au sentier" institutionnel. Mais, face au risque d'isolement et à la globalisation des industries électromécaniques, les stratégies et les relations entre acteurs du SNI nucléaire français ont dû évoluer. Les décisions sont désormais négociées entre grands acteurs et font l'objet de plus de discussions dans la sphère publique ; la poussée technologique ne peut plus s'exercer de façon aussi puissante en raison des contrepoids sociaux."

  Avant une présentation en détail des conditions du développement de la filière nucléaire qui ne manque pas d'intérêt en soi, l'auteur se livre à émettre les éléments de cadrage analytique, qui peuvent être utile de manière générale, pour comprendre les tenants et aboutissants techniques et sociaux.

"En se situant dans le cadre conceptuel de l'économie évolutionniste et institutionnaliste du changement technique, l'analyse de l'évolution d'un SNI sectoriel le long d'un cycle de vie d'un secteur peut s'adosser à l'hypothèse de co-évolution entre la technologie et l'organisation industrielle. Au cours du cycle de vie d'une technologie il existe des effets de rétroaction qui engendrent un processus cumulatif orientant le changement technologique et organisationnel dans une direction donnée quand la technologie est exigeante en ressources de compétences, de capitaux et en durée. Les techniques émergent de formes d'organisation spécifiques, mais une fois en place, elles contribuent à entretenir la dynamique de ces formes d'organisation. Cette cohérence entre technologie et organisation industrielle s'efface lorsque le progrès des techniques ralentit ou stagne, que les besoins ne se renouvellent pas et lorsque change l'environnement économique et social de l'industrie qui a accompagné la diffusion de ces techniques.

Dans le cas des technologies de production électrique et des réseaux électriques, le déroulement de la trajectoire technologique est orientée depuis l'origine vers la croissance des tailles, la recherche d'économies d'échelle et l'amélioration des rendements. Cette trajectoire a été déterminée par l'organisation de l'industrie en monopoles intégrés. Il permettait le contrôle des risques d'investissement et la répartition des coûts de mise au point entre tous les consommateurs d'électricité via les tarifs. En retour la dynamique technologique a consolidé cette forme d'organisation et nécessité le développement de relations étroites entre équipementiers et entreprises électriques.

Au plan institutionnel, comme tout développement technique qui exige la mise en place de réglementations et d'institutions de contrôle pour organiser l'insertion des nouvelles technologies dans le marché (standards industriels) et assurer la sécurité de leurs usages, l'électronucléaire a été façonné par la "matrice" institutionnelle de chaque pays. Les styles administratifs déterminent la façon dont les fonctions de l'Etat sont organisées et séparées entre politique industrielle et promotion technique d'un côté et réglementation des techniques  de l'autre. Cette organisation institutionnelle est conditionnée par l'environnement politique et juridictionnel qui suscite le plus souvent une séparation de fonctions antagoniques, comme cela a été le cas de la plupart des pays industrialisés dans le domaine nucléaire au début des années 1970 entre promotion technique et regulation de la sûreté. La montée de l'opposition environnementaliste et des controverses technologiques autour de certaines innovations a entrainé l'ouverture politique et institutionnelle des processus décisionnels et réglementaires. le décollage d'une nouvelle technique peut en être ralenti, voire enrayén comme dans le cas du nucléaire dans de nombreux pays."

    Avant de poursuivre ce qu'écrit notre auteur, il convient tout de même de remonter à ce qu'il dit lui-même plus haut sur l'alimentation de la vie de la filière, à savoir les progrès constants dans la technique. Or au moins sur deux plans, la filière nucléaire souffre d'hadicaps majeurs. Comme l'ensemble de la communauté des physiciens en convient et même parfois  le souligne, aucun progrès notable depuis la Seconde guerre mondiale n'est intervenu dans la compréhension de la fission ou de la fusion, et surtout aucune avancée technologique n'existe dans la stabilisation des matériaux radioactifs. Transformer un élement radioactif en élement non-radioactif, au bout d'un processus d'exploitation de l'énergie dégagée reste un vieux rêve, comparable à celui de la transmutation du plomb en or des alchimistes. Or, une condition radicale du développement de l'utilisation de l'énergie nucléaire réside dans ce progrès tant attendu. Le problème des déchets n'en est que plus lancinant, car les périodes de radioactivité se chiffrent souvent en milliers d'années... Par ailleurs, tous les progrès de sûreté des centrales se situent dans des efforts constants de confinement de la réaction nucléaire et de la protection de l'environnement immédiat, mais cela même dans des proportions relativement modestes, ce qui obèrent les conditions de travail (et donc de vie même, vu la nature du matériau utilisé) de tous les personnels travaillant dans une centrale (du technicien en contact avec les matières radioactives aux pilotes de la centrale). Un des éléments-clés de cette contestation dont l'auteur semble se plaindre se trouve donc dans les lenteurs mêmes de la recherche scientifique dans le domaine nucléaire...

    "L'organisation en monopoles électriques régionaux ou nationaux a donc favorisé le développement de la technologie électronucléaire qui constitue un approfondissement sugnificatif de l'intensité capitalistique du secteur en permettant aux entreprises électriques de s'engager dans de grands investissements risqué et à long terme de retour. Mais dans les années 1980, l'émergence de la turbine à gaz moins "capital intensive" sous l'effet de la stagnation des autres techniques électriques et du blocage de la diffusion des techniques électronucléaires dans les pays industrialisés relâche le co-déterminisme en ouvrant les choix d'organisation industrielle. le mouvement de la libéralisation ds industries électriques qui répond à un changement radical de conception du rôle de l'Etat dans les industries de service public a été autorisé par ce changement technique concurrent de celui du développement électronucléaire.

Du fait de cette ouverture des possibles institutionnels, il peut y avoir inversion du déterminisme de l'organisation institutionnelle sur la technologie dans une dynamique de co-évolution de la technologie et de l'organisation industrielle et institutionnelles. De fait le déterminisme de la technologie sur les institutions s'est manifesté clairement lorsque la volonté de poursuivre sur cette trajectoire technologique a justifié la préservation de l'organisation industrielle et des institutions en place dans le secteur électrique. Ce déterminisme a pu jouer dans la mesure où l'organisation antérieure au plan industriel et réglementaire a fait preuve de son efficacité. Par contraste, là où il y a eu d'importants dysfonctionnements industriels dans la mise en oeuvre de la politique nucléaire comme en Grande-Bretagne, on n'a pas hésité à réformer radicalement les structures de l'insdustrie électrique pour introduire la concurrence, ce qui a détourné les entreprises vers des techniques concurrentes bien moins capitalistiques."

 

Dominique FINON, Force et inertie de la politique nucléaire française. Une co-évolution de la technologie et des institutions, dans Etats et énergie, XIXe-XXe siècle, Séminaire 2002-2006, Institut de la gestion publique et du développement économique, Comité pour l'histoire économique et financière de la France, 2009 ; Michel BATTIAU, L'élnergie. Un enjeu pour les sociétés et les territoires, Ellipses, 2008.

 

ECONOMIUS

 

 

 

Par GIL - Publié dans : ECONOMIE
Ecrire un commentaire - Voir les 0 commentaires
Jeudi 25 juillet 2013 4 25 /07 /Juil /2013 10:06

  Les discours sur un monde sans frontières, fait remarquer Lucile MÉDINA, Agrégée et docteur en géographie, maitre de conférences à l'université Paul Valéry à Montpellier 3, "qui ont marqué la fin du XXe siècle pourraient laisser penser que l'analyse de conflits appartenant désormais à un autre âge est peu opératoire pour la compréhension du monde contemporain" Il n'en est rien, selon elle, en témoignent les chiffres avancés par Michel Foucher (l'obsession des frontières, Perrin, 2007), faisant état de 26 000 km de frontières terrestres apparues depuis 1991 sur les 248 000 km dans le monde, alors que lss processus d'effacement son fort rares. D'où l'image d'un monde toujours aussi fragmenté, qui s'impose d'autant plus qu'un grande nombre de conflits, latents ou déclarés, subsistent sur des frontières "chaudes" et enveniment les relations diplomatiques partout dans le monde. Les frontières sont donc appréhendées par les géographes comme des interfaces, mais également comme lieux privilégiés d'enjeux et de frictions, au prisme de la dialectique classique entre ouverture et fermeture, conflit et coopération."

 

  Pour Jacques ANCEL (Géographie des frontières, 1938), mentionne-t-elle également, les frontières ne sont pas génératrices de conflit en soi. "Elles ne sont objet de conflits qu'au regard de problématiques politiques portées par les gouvernements des Etats limitrophes concernés. Le spécialiste en géopolitique écrit qu'"il n'est pas deproblème de fonctières, il n'est que des problèmes de nations"", renvoyant ainsi à la figure de l'Etat et au contenu, les frontières n'étant que le contenant.

Le renforcement des acteurs non étatiques ou transnationaux, avec l'activité entre autres des organisations internationales inter-étatiques (dont l'ONU) et l'activité d'organisations criminelles liées à des mouvements stratégiques des entreprises désireuses d'échapper à l'impôt, ne fait pas substituer pour le moment une logique géopolitique transcendant les frontières à une logique qui s'y rattache. Après la fin de l'Empire soviétique, on peut écrire qu'un mouvement de fragmentation accompagne un mouvement de "mondialisation", l'affaiblissement de grandes entités politiques favorisant l'apparition de plus petites revendiquant à leur tour une posture d'Etat. pendant que leurs capacités d'action stricto-sensu, dans les domaines économiques en particulier, se réduisent. 

 

   Les frontières peuvent s'apparenter à des "isobares politiques", continue t-elle, "fruits d'un rapport de force à un instant t entre deux Etats limitrophes. L'Europe, en particulier, a connu une horogenèse (c'est-à-dire une création de frontières) active pendant la période contemporaine : production de nouvelles frontières en vertu du traité de Versaille de 1919 et de la consécration de l'idée d'Etat-nation, apparition d'une frontière entre la RDA et la RFA au sortir de la Seconde Guerre mondiale (effacement en 1989), partition de lîle de Chypre (...), fonrtières nées de l'éclatement de l'ex-Yougoslavie en 1991. L'exemple du conflit chypriote, mobilisant la Grêce et la Turquie, montre la nécessité d'envisager les problématiques géopolitiques à différentes échelles. La dernière frontière internationale créée en 2011 est celle qui va désormais séparer le Soudain du Soudan du Sud devenu indépendant. Le cas de la Belgique reste incertain, face à l'implosion que certains jugent inéluctable le long de la frontière administrative séparant les aires linguistiquement flamande et wallone. 

Les murs de séparation érigés en "frontières" dans les villes en guerre sont un bon exemple de prise en compte d'une échelle différente, intra-urbaine dans ce cas." Elle cite les cas de Belfast, mais on pourrait citer le cas de Berlin ou même le long de la frontière entre Israël et l'Etat palestinien qui traversent plusieurs villages...

 

    La cause la plus fréquente de conflits aux frontières est la contestation du tracé de celles-ci, sur la base de revendications territoriales contradictoires. En arrière-plan de ces contestations, habillées de considérations pseudo-historiques, l'accès aux ressources fossiles ou à des minerais est souvent en jeu.

 

     Le cas des frontières maritimes esr particulier. "Comme l'espace aérien, le domaine maritime n'a pas fait l'objet d'une réglementation et d'un découpage que récemment, parallèlement à l'exploitation croissante des richesses halieutiques et du sous-sol. Une série de conférences des Nations Unies a abouti en 1982 à la signature d'une convention sur le Droit de la Mer (tous les pays n'en sont pas signataires) qui fixe l'extension vers le large et le régime juridique des eaux sous souverainetés nationales (...). Les opérations de délimitation qui s'en sont suivies ont provoqué un déplacement des conflits du domaine terrestre vers le domaine maritime. Les détroits et les espaces insulaires sont potentiellement sujets à contentieux, des îlots inhabités devenant stratégiques au regard des prétentions territoriales maritimes auxquels ils ouvrent droit (notamment en mer des Caraïbes et en mer de Chine).

 

    Un autre type de conflit frontalier renvoie à la fonction de séparation politique et juridique de la frontière et aux enjeux de partage (de ressources) et d'échange (populations, biens, capitaux) qui ne manquent pas de se poser. Deux cas sont symptomatiques, celui des ressources hydriques partagées (cours d'eau, lacs ou nappes phréatiques) et celui des flux migratoires.

 

     Les frontières peuvent être impactées, écrit enfin Lucile MÉDINA, "par des conflits internes, du fait que les régions frontalières se trouvent utilisées comme base arrière par les mouvements révolutionnaires en lutte contre le pouvoir central. Parce que celui-ci ne contrôle pas les régions périphériques, les frontières deviennent alors des théâtres privilégiés de combats. le conflit reste rarement circonscrit, et tend à déborder sur le territoire de l'Etat voisin, engendrant alors un conflit interétatique. En effet, l'Etat voisin peut se plaidre d'incursions de groupes armés étrangers ou bien être accusé de complaisance envers ces derniers (...).

Les territoires se retrouvent donc au coeur d'enjeux politiques stratégiques pour les Etats, accusant dès lors généralement des retards de développements dans les domaines sociaux et économiques. le caractère conflictuel d'une frontière se traduit par la fermeture de celle-ci (surveillance accrue, fermeture de postes frontière), qui entrave les échanges de biens ou la circulation des personnes. Les frontières sont loin d'être définitivement figées, et certaines résolutions pacifiques de conflits apportent une sorte d'optimisme : pour preuve, le traitant réglant le tracé de la frontière sino-russe en 2008, après quarante ans de négociations, qui fut corroboré par la construction d'un pont frontalier, commencée en 2010."

 

     La problématique actuelle des frontières met encore surtout aux prises des Etats, malgré l'érosion relative de leur importance. Ce qui se passe en Europe avec l'Union Européenne, ce qui est acquis pour les Etats-Unis d'Amérique, ne peut pas être généralisé à l'ensemble du monde. Les nationalismes restent virulents dans de nombreuses régions du globe, et parfois même se renforcent. Les questions de séparation et de partage des ressources et de contrôle des populations restent en effet l'apanage des Etats, malgré les progrès notables des organisations internationales. Le pas est loin d'être franchi dans l'abolition de frontières par un processus de substitution à une logique souvent réductible au domaine militaire entre entités souveraines d'une logique de police internationale menée par un organisation supra-national. Les contours des pouvoirs d'un tel organismes ne font même pas parties des programmes politiques à l'heure actuelle. Le lent chemin d'une universalisation des échanges commerciaux n'est sans doute pas suffisant pour parvenir à défocaliser les entités politiques de problématiques étatiques, car des acteurs économiques, parmi les plus importants, désirent faire l'mpasse sur leurs participations aux nécessaires solidarités sociales.

 

   C'est aussi ce que Anne-Laure AMILHAT-SZARY, agrégée de Géographie et Maitre de conférence à Grenoble 1-PACTE,  constate dans sa revue des relations entre conflits et frontières. Dans son approche se trouve à la base une définition "discursive du conflit qui détermine son apparition comme le résultat de la non-acceptation, par l'un, de la position de l'autre, accompagnée de l'impossibilité de trouver un moyen de communication pour régler ce désaccord, qui peut déboucher sur l'affrontement. Cette définition permet de comprendre les conflits dans une perspective diachronique (moins on communique, plus on s'oppose et plus le conflit se creuse)." Nous ne pensons pas que cette conception prenne en compte tous les types de conflits, et à une époque où les moyens de traduction et les études transculturelles n'ont jamais été si importantes, sans doute une grande part des conflits sont-ils "objectifs", c'est-à-dire résultant de désirs ou de stratégies opposées concernant le même objet, et ne procèdent pas en majorité d'un manque de communication. Toutefois, il est vrai que "la frontière marque le point de différenciation d'avec l'autre" et "matérialise l'altérité : toute frontière introduit "de la distance dans la proximité" (C ARBARET-SCHULTZ, Les villes européennes, attracteurs étranges de formes frontalières nouvelles, dans l'ouvrage Villes et frontières, sous la direction de Bernard REITEL, Patricia ZANDER, Jean-Luc PIERMAY et Jean-Pierre RENARD, Antrhopos-Economica, collection Villes, 2002) "et elle est de ce fait susceptible de cristalliser le conflit." "Notre définition large, poursuit-elle, de la frontière permet de comprendre en quoi ces lignes conventionnelles et stries socio-spatiales peuvent articuler de très nombreux conflits. Leur existence même est le plus souvent liée au conflit, mais sur ce point déjà, les interprétations fluctuent : certains auteurs argumentent le fait que le tracé des frontières permet de régler des conflits, d'autres qu'il les attise. Des exemples de ces deux dynamiques existent, et (il est important) de comprendre quels sont les contextes qui aboutissent à des situations aussi différenciées. Cette analyse des interactions entre frontières et conflit doit en outre être comprise au regard de l'évolution des frontières elles-mêmes." Elle fait référence à l'augmentation depuis 1991 des kilomètres de frontières et elle cherche à comprendre "de quelle façon cette surenchère accompagne-t-elle la réduction paradoxale des conflits internationaux."

Par ailleurs, "les Etats ne sont pas les seuls détenteurs de la violence aux frontières, bien au contraire. Dans un contexte mondial où la violence interétatique est globalement en régression (...) les guerres civiles ont pris le pas sur les conflits internationaux dans la deuxième moitié du XXe siècle. Ce qui ne veut pas dire que les espaces forntaliers deviennent des zones totalement pacifiées.

Au contraire, les conflits frontaliers constituent une représentation dominante des conflits territoriaux. Sans doute cette induration est-elle due à leur visibilité , sur les cartes notamment : les parties en présence peuvent tracer les périmètres revendiqués. Notre approche multiscalaire nous amènera cependant à analyser l'espace autour des lignes frontières, car il concentre souvent toutes sortes de violences. La violence interétatique n'est pas la seule en cause : on s'intéressera aux formes de violences sociales, ou violences matérielles et symboliques faites aux personnes, toutes ayant comme point commun d'être porteuse de conflit. Liées aux activités illicites qui s'y développent, on trouve, en effet, dans les zones frontalières plus d'armes qu'ailleurs. On y croise également plus d'opportunités de confrontation à la norme ; confrontations qui peuvent dégénérer de façon violente (par exemple lors de contrôles d'identités)."

 

Anne-Laure AMILHAT SVARY, Frontières et Conflits, dans Géographie des conflits, Sous la direction de Frank TÉTART, CNED/Editions Sedes, 2011 ; Lucile MÉDINA, Frontière, dans Dictionnaire des conflits, Atlande, 2012

 

STRATEGUS

Par GIL - Publié dans : STRATÉGIE
Ecrire un commentaire - Voir les 0 commentaires
Mercredi 24 juillet 2013 3 24 /07 /Juil /2013 10:24

          Ce livre de la fin des années 1970 est assez représentatif à la fois de l'atmosphère du secret qui entourait alors les affaires de l'électricité, notamment d'origine nucléaire (elles parlent de la nucléarisation d'EDF, d'ailleurs) et des oppositions fortes au dévelopement de l'énergie nucléaire. Fruit d'un véritable travail journalistique comme on voudrait en voir plus souvent de nos jours, donnant la parole (souvent anonyme) à plus de cent personnes, membres d'Edf, fonctionnaires, industriels, syndicalistes, scientifiques, paysans, avocats, hommes politiques, écologistes et journalistes, ce livre a un certain retentissement à l'époque et constitue toujorus un témoignage précieux de l'état des débats sur des questions dont les citoyens sont plus ou moins exclus. Les promoteurs du nucléaire se sont toujours réfugiés derrière un débat parlementaire, qualifié de démocratique, pour mieux s'opposer à une véritable prise en compte des opinions qui traversent la société française. Décrivant au fil des chapitres le tout électrique-tout nucléaire, le monstre EDF, la morgue technocratique et les attaques subies par ce colosse aux pieds d'argile, les deux journalistes, l'une à L'Unité, l'autre au Quotidien de Paris, montre l'état d'un organisme tentaculaire et pourtant pas si tout puissant que cela. 

 

        Dans leur conclusion, nous pouvons lire : "(...) L'identification de l'Etablissement à l'énergie atomique est devenue un dogme. Elle ne laisse pas de surprendre : l'acharnement hors du commun avec lequel Electricité De France a élaboré puis mis en place le programme nucléaire français étonne d'autant plus qu'elle laisse quelques plumes dans l'affaire. (...) 

En effet, EDF y perd à la fois du prestige et de l'argent. Elle expose au risque gravissime de ne pas livrer d'électricité, de ne pas remplir sa mission. Elle jongle, sur une corde raide, avec des milliards et se heurte à la contestation. Elle y perd aussi son unité : en façde, la voix officielle s'est durcie ; face à l'opposition, les réflexes de citadelle assiégée ont joué ; mais l'unanimité s'effrite, se dirigeants continuent à affirmer que le choix nucléaire reste "la seule solution intelligente"... Il ne faut pas voir là de simples élucubrations, au contraire. Le programme Messmer décidé en 1974 coïncide parfaitement avec l'idéologie de l'entreprise. Il satisfait idéalement à la machine puissante qu'est EDF, à sa logique profonde : la taille croissante de ses équipements, la centralisation de sa production, son assurance de monopole proposant des solutions uniques. Elle n'a jamais failli ; le sentiment du devoir accompli - avec quel brio! - la protège de toute mauvaise conscience. Pourquoi le pays ne lui ferait-il pas confiance puisqu'elle a toujours réussi ce qu'elle entreprenait, puisque, grâce à elle, la France n'a pas manqué d'électricité depuis l'après-guerre?

Le pari nucléaire répond aussi à la foi dans le progrès partagée par des hommes qui paraissent réciter leur credo sans s'interroger. Pas de doute scientifique à EDF, mais des certitudes techniciennes. Et la griserie que procure l'exploit technique, la performance économique...

Depuis sa création, l'entreprise peut se vanter d'avoir accompli bien des tours de force. Mais elle est sortie de son strict rôle. Devenue à bien des égards la première autorité du pays en matière de politique énergétique, EDF se prend pour Energie de France. ce dérapage, elle n'en assume pas seule la responsabilité. Pour la plus large part, la faute en incombe au Pouvoir. Tous les gouvernements ont fait la preuve de leur incompétence et de leur indécision, de leur incapacité à contrôler EDF et à l'aider à assumer sa mission.

Au nom du libéralisme économique, les pouvoirs publics ont plutôt tendance à encourager les princes de l'industrie, menacés seulement par une hypothétique nationalisation. L'établissement public doit marquer le pas ; l'évolution ne déplait pas au Pouvoir qui ne perd pas une occasion de dénigrer ses entreprises nationalisées. (...).

Ce qu'EDF a perdu en autonomie pourtant nécessaire; elle l'a regagné en puissance. Une puissance malsaine puisque le cancer technocratique y prolifère. la boulimie de l'entreprise risque bien de se retourner contre elle. les tâches y sont parcellisées à l'extrême : chaque ingénieur devient un spécialiste ignorant du travail de son voisin. EDF se déclare seule capable de proposer une synthèse sur tous les travaux qui concernent l'énergie nucléaire. Rien n'est moins sûr. retranchés derrière leurs certitudes, les technocrates ferment les yeux sur cet éclatement des connaissances qui grignote le dernier atout d'EDF contre la cartel nucléaire : sa capacité de maîtrise d'oeuvre.

Prestigieuse maison, EDF avait un garde-fou : sa mission de service public. notion vague et changeante. S'identifiant totalement à la Nation, l'entreprise n'est plus en mesure de faire la part du feu entre l'intérêt national et le sien propre. La limite est fragile, aussi délicate à fixer que celle qui sépare les besoins des consommateurs des nécessités de l'établissement. A partir d'une idée juste - produire une énergie la moins chère possible - EDF, de sauts de puce en sauts de puce, en vien à demander au pays un véritable blanc-seing, persuadée que le programme nucléaire, aujourdh'ui hors de prix, sera rentable dans dix ans.

L'enthousiasme nucléaire d'EDF transcende le rationnel : malgré les problèmes majeurs qu'elle rencontre, elle refuse de renier le moindre de ses choix ; au contraire, elles appuie de plus belle sur le champignon comme le conducteur néophyte accélère devant l'accident. En cela, elle trahit sa volonté de puissance. Qu'une entreprise de sa taille, de son importance pour la bonne marche du pays, ne succombe pas à la tentation du pouvoir eût été étonnant. La crise d prétrole l'a fortifiée dans sa position de leader : l'énergie devient rare et ses détenteurs puissants. Riche de cete reconnaissance, EDF s'apprête à dominer l'atome. Plus fort que l'eau, plus dangereux que le feu. De ce combat prométhéen, elle n'est pas encore sortie victorieuse. Loin de là.".

 

  C'est par le détail de la structure et du fonctionnement de ce mastodonte, décrit surtout de l'intérieur - il faut lire les déclarations des responsables syndicalistes par exemple -, par la description des batailles de l'énergie (contre les Charbonnages, contre les technologies nucléaires concurrentes...), que ce livre reste actuel. Nombre des interrogations exprimées par les différents acteurs restent présentes, même si la situation économique, politique, sociale, n'est plus du tout la même aujourd'hui.

 

Frédérique De GRAVELAINE et Sylvie O'DY, L'Etat EDF, Alain Moreau, 1978.

Par GIL - Publié dans : LECTURES UTILES
Ecrire un commentaire - Voir les 0 commentaires
Vendredi 19 juillet 2013 5 19 /07 /Juil /2013 18:45

   Energie secondaire par excellence, non fossile en elle-même, elle doit être produite par d'autres énergies (primaires), thermique, hydraulique, nucléaire, et dans chaque cas, son utilisation structure l'espace habité, villes, campagnes, terres cultivables ou non. Pendant des siècles, seul le feu, puis très récemment le gaz et l'huile de pétrole permettant l'éclairage, le chauffage... Avec la découverte des applications pratiques de l'électricité, l'humanité entre réellement dans une ère nouvelle, qui bouleverse sa vision du temps et de l'espace. Son implantation s'effectue à la fois en concurrence et en complémentarité (mais très vite l'électricité devient sur-dominante pour l'éclairage) avec les autres énergies. Cela revient à dire que les acteurs de cette nouvelle énergie impose à la fois aux autres acteurs et à l'ensemble des sociétés une conception de l'organisation des villes. Non que cette énergie, l'électricité soit moins soumise aux lois de déperdition de l'énergie (on pourrait même dire en ce qui concerne l'électricité produite à partir d'une source de chaleur faisant tourner les turbines des centrales, qu'il y a double déperdition, au passage entre énergie primaire et énergie secondaire et de nouveau pour porter à incandescence des filins métalliques placés sous cloche de verre...), mais son usage final est multiple : au bout des réseaux de distribution complexes (lignes à haute tension, puis à tension moyenne et enfin à tension "domestique"), on peut par simple branchement, chauffer, éclairer, agir sur des mécanismes... Cette facilité ne doit pas camoufler le fait que du point de vue de la nature, l'électricité, surtout sous la forme du courant alternatif, est très coûteuse et constitue un sacré gaspillage (ne parlons pas pour l'instant des centrales nucléaires, qui chauffe de l'eau dans les pires conditions de conservation d'énergie, pour pousser les turbines, mais qui en revanche, démultiplie les quantités produites par rapport aux autres méthodes, pour un temps donné...). Plus les sociétés sont gourmandes de l'électricité au courant alternatif, plus elles sont gaspilleuses d'énergie. Mais comme les quantités produites sont sans rapport avec ce que l'on pouvait tirer des autres énergies, l'électricité s'impose. Elle possède de plus d'autres qualité : malgré son invisibilité, elle est relativement propre au niveau de la distribution ; son usage par le jeu de l'emploi de métaux conducteurs ou résistants est aisé et peut même se démultiplier en considérer une quantité donnée de quantité d'électricité produite ; la sécurité renforcée au niveau de la consommation (par exemple, le nombre dincendies en ville a nettement décru) .

 

   La production, la distribution et la consommation d'électricité se mettent en place progressivement au long du XIXe et du XXe siècle, si on ne prend pas en compte de vastes zones encore dans le monde où les réseaux électriques ne parviennent pas en ce début du XXe siècle. L'économie de l'électricité se construit souvent avec le soutien des Etats, lentement, et en concurrence avec les économies du gaz, du charbon et même parfois, du pétrole. Les conflits économiques liés à cette économie ne se développent pas seulement entre producteurs de sources d'énergie différentes, des batailles de l'électricité mettent aux prises collectivités publiques, Etats, et entreprises privées. Une problématique complexe de conflits/coopérations, suivant les moments et les acteurs, suivant les époques - avant la première guerre mondiale et après, pendant l'occupation en Europe sous la seconde guerre mondiale, après celle-ci et depuis peu depuis le triomphe des idées libérales, pour encore au quotidien aujourd'hui, dans les processus d'unification européenne et de gouvernance des marchés. 

  Jean-Marie CHEVALIER explique que "dans l'ancien monde, l'entreprise d'électricité produisait, transportait et vendait dans une zone géographique dont elle avait l'excusivité. Il n'y avait pas de marché, ni de concurrence entre sources différentes de production d'électricité, sauf une concurrence interne à l'entreprise qui, en fonction du niveau de la demande, "appelait" ses installations de production dans l'ordre de mérite des coûts, c'est-à-dire de la moins chère, en coût marginal, à la plus chère, celle que l'on appelle en dernier ressort pour "passer la pointe", quelques heures par an. Certains compagnies d'électricité pouvaient avoir besoin (ou pouvaient être obligées par la loi) d'acheter de l'électricité à des confrères ou à des installations indépendantes mais il s'agissait de ventes par contrats et jamais de recours à un marché." C'est qu'une des particularités de cette énergie, au sens physique, est la communication directe, quasi instantanée, entre le producteur et le consommateur. 

"L'idée de mettre en place et de faire fonctionner des marchés de l'électrcité a déchaîné les passions des économistes, face à des ingénieurs plus sceptiques et plus prudents. N'évait-on pas là l'occasion unique de construire des modèles de concurrence pure et parfaite qu'avaient appelés de leurs voeux Cournot et Walras? Dans l'esprit des économistes, le kilowattheure est un bien indifférencié qui se consomme par l'isage, un bien dit non fongible. Il est produits par un grand nombre de producteurs - nombre que l'on peut encore augmenter en démantelant des monopoles - et consommé de façon instantanée par une multitude de consommateurs. En abolissant  les barrières à l'entrée de type institutionnel (ou monopolistiques), on encourage les nouvelles entrées. Bref, on est très proche des cinq conditions de la concurrence pure et parfaire : homogénéité du produit, atomicité des producteurs et des consommateurs, liberté d'entrée et de sortie, parfaite circulation de l'information et transparence du marché, mobilité des facteurs de production. En plus de ces conditions, l'idée d'avoir un marché concurrentiel sur lequel s'établit, en temps réel, un équilibre instantané entre l'offre et la demande est des plus séduisants." Bien sûr, il y a le transport, mais s'il est correctement organisé et régulé, il ne doit pas nuire à cet équilibre. Toute droite sortie des Eléments politique pure de Léon WALRAS (1874), la recherche d'un modèle pur de concurrence mobilse les économistes en économie appliquée qui le suivent : William HOGAN, Alfred KAHN, Paul JOSKOW, David NEWBERY... Après des années de recul, "on constate que que l'expérimentation très empirique de ces nouveaux modèles a fait surgir un certain nombre de problèmes qui avaient été mal identifiés ou sous-estimés" :

- aucun n'a fait la preuve qu'il était le modèle optimal ;

- le fonctionnement même de l'industrie et des multiples marchés qui y sont associés est traversé de phénomènes  de distorsion de la concurrence, d'hésitations sur les méthodes de régulation et même d'adéquation entre l'offre et la demande.

   La connaissance des spécificités de l'électricité indiquent notamment que les kilowattheures sont physiquement indifférenciés mais économiquement différenciés. "Un kilowattheure dont on a besoin immédiatement pour assurer l'équilibre du réseau (car sinon il s'arrête tout simplement) n'est pas de même nature et n'a pas la même valeur qu'un kilowattheure de base ou un kilowattheure de pointe à consommer dans vingt-quatre heures, une semaine ou un mois. l'électricité, de par sa nature physique et économique, va donc donner lieu, non pas à un seul marché mais à plusieurs marchés de type différent.(...)".

      Dans l'économie d'électricité, le transport est assuré par un gestionnaire d'un réseau haute et basse tension qui doit assurer l'équilibre instantané entre offre et demande. Celui-ci est indépendant de la production et de la commercialisation. Les fonctions de gextionnaire de réseau peut-être parfois séparée de la propriété du réseau. Aux Etats-Unis, les réseaux de transports sont souvent restés la propriété des entrepreneurs d'électricité. des opérateurs indépendants, pour la gestion des systèmes, ont été mis en place (Independant System Operators - ISO). En Europe, le tendance est plutôt à combiner la propriété du réseau avec la gestion de celui-ci, à fusionner le propriétaire du réseau (Grid Company ou Gridco) avec le gestionnaire (ISO) pour aboutir à une entreprise dite de transport (Transco - GRT en français ; RTE en France). Le rôle et les responsabilités du GRT font aujourd'hui, explique toujours Jean-Marie CHEVALIER, "l'objet d'un vif débat compte tenu des difficultés rencontrées dans le fonctionnement des systèmes électriques libéralisées : Californie 2001, pannes en Italie, dans la région de New York, et à Londre en 2003. En tant que responsable d'équilibre, le GRT est en possession d'informations commerciales confidentielles sur les flux anticipés (production, contrats bilatéraux de fourniture) mais il n'est pas lui-même acteur de marché, sauf sur le marché à très court terme de l'ajustement. Le GRT est en mesure de repérer, mieux que quinconque, les imperfections du marché, puisqu'il les vit au jour le jour : création artificielle de congestions, manipulation des prix. (...). La détermination des tarifs de transport, pour l'utilisation du réseau est une question complexe, pour l'électricité comme pour le gaz naturel (...) elle donne lieu à de longues, passionnantes et interminables batailles intellectuelles (voit notamment Jacques PERCEBOIS, Laurent DAVID, Les enjeux du transport pour le gaz et l'électricité : la fixation des charges d'accès, dans Economies et sociétés, série Economie de l'énergie, janvier-février 2001)."

Ces opérations de gestion étant séparées que opérations de production, il existe plusieurs marchés organisés dont ne peut pas dire qu'ils soient tous transparents :

- le pool obligatoire, système dans lequel chaque producteur soument 24 heures avant le moment de la transaction et, pour chaque heure ou demi-heure, la production dont il dispose pour la mettre sur le marché à un prix minimum donné. Ce pool centralise l'ensemble des offres, définit un ordre de mérite et de cela établit un prix. Ce modèle anglo-gallois initial fonctionne entre 1990 et 2001 ;

- les bourses d'électrcitité, marchés organisés facultatifs sur lesquels s'effectuent des transactions spot la veille pour le lendemain (en Europe, Nordpool (Scandinavie), EEX (Allemagne), Powernext (France, UKPX et UKAPX au Royaume Uni) ;

- les marchés d'ajustement, marchés à très court terme sur lesquels les gestionnaires de réseau peuvent acheter des kilowattheures pour assurer l'équilibre ;

- les enchères de capacité, marchés sur lesquels des capacités de production et de transport - en Europe, les interconnexions entre pays - sont mises aux enchères. Ce ne sont pas des quantités d'électricité mais des capacités à en produire qui sont ici concernées ;

- les marchés à terme, marchés généralement liés aux bourses, sur lesquels on peut acheter des quantités d'électrcitité (sous forme de contrats) livrables à des horizons de plusieurs semaines, plusieurs mois ou plusieux années.

"Le développement, précise le professeur d'économie, des instruments financiers de couverture ne se fait pas aussi rapidement que ce que l'on escomptait au départ. Pour que les marchés à terme et les instruments de couverture qui y sont associés jouent pleinement leur rôle, il faudrait plus de transparence, plus de liquidités et que l'on ne puisse pas suspecter des manipulations de prix sur les marchés spot. Par ailleur, les blocs calendaires proposés sur les marchés européens ne prennent pas suffisamment en compte les besoins des consommateurs industriels." En fait, les transactions de gré à gré (pool non obligatoire) représentent entre 65 et 90% de la consommation totale., toujours pour les pays européens.

Le marché américain est organisé autrement. Aux Etats-Unis, "de très nombreuses enquêtes ont confirmé que producteurs et traders, à plusieurs reprises et dans plusieurs Etats, avaient faussé les prix de marché, notamment au moment des pointes. Il est clair que l'extrême complexité des marchés de l'électrcité engendre des opportunités de manipulation des prix qui vont directement à l'encontre des objectifs initialement recherchés." Jean-Marie CHEVALIER s'attarde sur le cas d'Enron, au départ entreprise américaine de production et de transport de gaz naturel, ayant entrepris son "expertise" sur les marchés de l'électricité. 

Après avoir passsé en revue, dans la construction de nouvelles capacités de production d'électricité, les risques de marché, les handicaps du nucléaire, ceux des énergies renouvelables (solaire, petite hydraulique, biomasse), y ayant tiré l'enseignement d'une nécessaire intervention des pouvoirs publics, il conclue :

"Depuis le début des années 90, de nombreux pays dans le monde ont expérimenté des processus de transformations des industries électriques. Un bilan global est difficile à établir et à mesurer. Les consommateurs industriels les plus concernés par le coût de l'énergie ont mis au point des stratégies d'achat et leurs choix énergétiques sont devenus plus larges et plus ouverts. En revanche, il n'est pas sûr que l'ouverture à tous les consommateurs individuels soit individuellement et collectivement bénéfiques. Sur ce point, il ne faut pas oublier toutefois que nous sommes au tout début d'une ère nouvelle. Des progrès technologiques en matière d'équipements électriques et d'immeubles "intelligents", des progrès en organisation et des gains de valeur pourraient un jour rendre plus évident l'intérêt d'étendre l'ouverture aux consommateurs individuels. Du côté de la production, des gains de productivité ont été atteints, d'autres sont à attendre (Peter FRASER, Joint IEA/NEA Workshop on Power Generation Investiments, 2003). On peut penser que, pour des raisons politiques, économiques et environnementales, la production décentralisée d'électricité et la cogénération prendront une part plus importante dans les systèmes énergétiques de demain et que le mouvement de libéralisation donnera des chances nouvelles à ces innovations technologiques et organisationnelle. La libéralisation bouleverse les habitudes, les intérêts acquis à certains moments de l'histoire, les routines, et c'est plutôt une bonne chose que de remettre en cause les héritages du passé. En revanche, les miracles que l'on croyait attendre du "tout marché" ne sont pas là et des inquiétudes sérieuses ont été révélées par la mise en place, sans doute techniquement et politiquement maladroite, des marchés de l'électricité. l'extrême volatilité des prix, les signaux qu'ils donnent aux acheteurs et aux investisseurs font craindre l'apparition de déséquilibres à court, moyen et long terme et la formation de rentes indues assimilables à des profits tombés du ciel. Finalement, le monde extrêmement calme de l'électrcité routinière et monopolistique a été transformé en champ de bataille. le rêve de la concurrence pure et parfaite était associée à celui d'une "démocratie des parties prenantes". la réalité est une bataille entre l'argent, les intérêts politiques et le bien-être social conçu non plus à une échelle locale ou nationale mais à une échelle planétaire. Dans cette perspective, l'industrie de l'électrcité est plus que jamais une industrie politique.(...)".

 

     Pour ce qui concerne le cas français, les pistes de recherche sur les dynamismes politiques, sociaux et économistes du secteur de l'énergi, et en particulier de l'électricité sont encore en voie d'exploiration, les recherches n'yant été jusqu'ici qu'éclatées et parcellaires. C'est ce que constate Denis VARASCHIN, dans sa tentative de mise en perspective historique, pour le séminaire 2002-2006, Etat et énergie, XIXe-XXe siècle, du Comité pour l'histoire  économique et financière de la France. En partie, grâce aux efforts consentis par EDF pour cette recherche historique, peuvent être posées un certain nombre de questions sur l'organisation de ce secteur. "Le rôle régulateur et le statut des pouvoirs publics dans le champ de l'électricité ont précocement attiré l'attention des historiens (voir L'électricité dans l'histoire. Problèmes et méthodes, AHEF, sous la conduite de François CARON). Certes, l'électricité en France est née d'une remarquable poussée d'initiatives locales et privées. En effet, la plupart des collectivités publiques locales ne s'engagèrent pas dans des investissements lours effectués sur des marchés aux dimensions limitées, dans le cadre d'une technologie sur laquelle pesaient encore bien des hypothèques et qui pouvaient même heurter certains de leurs intérêts (association avec des entreprises gaz!ières, exploration directe d'une autre énergie). Toutefois, dépassant ces apparences matérielles, Alain BELTRAN a estimé "qu'il s'agit d'un débat à contenu hautement politique. Pour la très grande majorité des politiciens et juristes français, la régie directe est assimilée au socialisme. Les municipalités, non sans débats et rebondissements multiples, préfèrèrent faire appel à des concessionnaires réputés, auxquels elles pouvaient imposer des clauses léonines" (Histoire de l'électrcitié en France, dans les contributions publiées par l'AHEF, Association pour l'Histoire de l'Electricité en France). Dans cet ordre d'idées, la malheureuse situation parisienne et la volonté de défendre les intérêts du pouvoir central poussèrent également les dirigeants d'un pays aux traditions centralisatrices à s'appuyer sur le conseil d'Etat, dont l'attitude a souvent été relevée (...) sans être globalement étudiée, pour limiter les régies directes de services publics teintées de municipalisme et de fédéralisme. (...) Cependant, ce furent les pouvoirs locaux ou, plus rarement, des services de l'Etat, qui accordèrent des délégations de service public (...) pour établir les unités de production et les lignes de distribution puis de transport. Ces actes de puissance publique renvoyaient à des formules d'association se prêtant à maintes combinaisons. Pareille souplesse renvoyait à un souhait essentiel de l'autorité : faire financer par autrui la modernisation." L'analyse de l'action des pouvoirs publics, une fois les textes clés identifiés, par la législation, la réglementation est entamée depuis quelques années, notamment par l'étude de l'activité des groupes et des individus qui composent l'Etat. Jusqu'à la Seconde Guerre Mondiale, les historiens dressent le tableau de la mise en place d'un modèle mixte de gestion associant l'Etat et secteur privé (...° qui se tient à l'écart les collectivités locales.

Quel sens donner à la lenteur des réactions étatiques génératrices d'incertitudes, de restrictions et d'inadaptation? Minutieuse préparation des décisions, recherche de consensus, mode de prise de décision, incapacité? L'étude du dialogue entre services, ministères et monde politique qui a précédé les prises de décision met en valeur la diversité de l'Etat et la réalité polyfacétique de l'intérêt public qui alimenta de multiples oppositions internes. Les tiraillements apparaissent aisément lorsqu'ils intervinrent entre l'Etat central et collectivités locales. Les frictions interns à l'Etat central (ministères, directions, offices de gestion, services, comités, partis politiques) existent tout autant et pas seulement encotre services constructeurs et financiers, mais laissent moins de traces. Ces oppositions pourraient éclairer bien des atermoiements et des contradictions, parfois même la prise en main de la politique énergétique par des administrations techniques. On serait tentés de se focaliser sur les acteurs les plus influents au regard de la prise de décision finale. Mais les débats assurent aussi une saine fécondité des opinions, qui ont la possibilité de s'exprimer, et une remarquable fécondité intellectuelle. 

"L'Etat, dans l'entre-deux guerres, fort d'un appareil administratif renforcé, cherche à atteindre ses objectifs par une liaison encore plus inteme avec le monde des électriciens. "Malgré l'attraction exercée par la technocratie, les hommes qui incarnèrent cette politique restent souvent dans l'ombre. Pour un Ernest Mervier, un Louis Marlio ou un Louis Loucheur, ce dernier toutefois plus connu pour son action politique qu'économique, combien de Pierre Azaria et, plus encore de Paul Weiss? La forte présence dans les sociétés d'électrcité des X-Mines et des X-Ponts a conduit un grand nombre d'historiens à s'interroger sur les tissus relationnels et le poids exceptionnel du pantouflage. Le poids des corps a aussi été pointé en longue durée. Les ponts, davantage présents dans l'hydraulique que dans le thermique, n'auraient-ils pas été plus sensibles aux injonctions de l'Administrations que leurs confrères des Mines? Quoi qu'il en fût, ils devinrent, à la tête des chambres syndicales du thermique, de l'hydraulique ou de la construction électrique, les interlocuteurs de la profession vis-à-vis des pouvoirs publics. En tout état de cause, l'ambiguité de la situation des ingénieurs de l'Etat présents dans les entreprises privées françaises et les interrogations posées par un éventuel "lobby polytechnicien" (François Caron) ont été soulignées plus qu'étudiées. Il en est de même pour la présence d'hommes politiques d'envergure, ou en passe de le devenir, dans les entreprises électriques privées, ces dernières espérant bénéficier de la sorte d'utiles entregents (Guillain, Doumer, Augagneur, Millerand...). Dans tous les cas, le renouveau de la biographie pourrait s'illustrer icic, en mettant en valeur la continuité et les inflexions des actions menées. En retour, on renconta aussi des électriciens dans les allées du pouvoir et un "groupe de l'électricité" fut créé à la Chambre des députés de 1936."

"Au total, on estime qu'avant la Première Guerre mondiale, la structure d'encadrement mise en place resta globalement libérale et légère pour des raisons diverses (conviction idéologique, hésitation du pouvoir, oppositions internes virulentes au progrès de l'Etat central, manque de moyens financiers des gouvernements, déficit de savoir-faire des collectivités locales...°. Cela n'empêcha pas le pouvoir de construire peu à peu son regard sur le secteur (multiplication des commissiions parlementaires, enquêtes statistiques...), prolégomènes à une ambition coordinatrice remarquée pendant la Grande Guerre au nom de l'indépendance énergétiques, puis au lendemain du conflit, des impéra tifs territoriaux et sociaux du développement. Revenant, sous la pression d'entreprises moins soucieuses de libéralisme que de réorganisation et de réduction des incertitudes, sur le mode de régulation concurrentiel initialement encouragé, l'Etat accompagna l'émergence de sociétés puissantes à même d'assurer efficacement la rationalisation. L'électricité, comme toutes les industries lourdes (importance du capital à mobiliser, et influence en conséquence sur le marché) et de réseaux (accès au maillage), évoluait en direction d'un monopole "naturel". (...)

L'histoire des processus qui mènent à la nationalisation au lendemain de la Seconde Guerre mondiale, et notamment l'histoire des relations entre l'Etat et EDF reste à écrire, constate également notre auteur. Ce n'est pas faute d'enquêtes ayant donné lieu à des éditions critiques, mais l'opacité des relations entre l'Etat et EDF est redoublée par la liaison forte entre le complexe militaro-industriel et l'énergie. Cette opacité ne fera que s'accroitre avec le développement de l'arsenal nucléaire et d'un programme de centrales nucléaires civiles. 

 

    Mais, parallèlement aux problématiques économiques souvent lourdes, tout aussi déterminante est l'influence de l'émergence, de l'installation et pratiquement de la domination de l'électricité comme énergie "finale" de bien des secteurs, sans compter ceux où elle aurait pu déjà s'implanter sans l'action de lobbyistes puissantes d'autres formes d'énergie, notamment celle du pétrole, sur la structuration des villes et plus largement des sociétés. La technique électricité constitue sans doute la technique la plus déterminante parmi toutes les techniques que l'humanité a inventé sur elle-même.

     C'est en reprenant les réflexions de Gilbert SIMONDON (1924-1989) sur la centralité philosophique du problème de la technique que Cécilia CHEN analyse la place de l'électricité dans les rythmes urbains. A travers notamment son rôle dans l'éclairage urbain mais aussi dans les processus de signalisation routière, elle s'intéresse à trois "transductions superposées" :

- la relation matérielle qu'est l'électricité, plus spécifiquement à travers les réseaux de l'hydroélectricité au Québec ;

- les effets de l'éclairage électrique en milieu urbain, effets en partie révéls par l'installation expérimentale d'un interrupteur communal pour les lamapadaires d'un cul-de-sac résidentiel à Vejle, au danemark ;

- le rôle régulateur et rythmiques des feux de signalisation dans les villes.

En ce qui concerne l'éclairage dans les villes, qui modifie la perception que l'on a de l'espace nocturne, "l'introduction de l'éclairage dans les villes a entraîné la distorsion et la déstabilisation de l'espace et des frontières urbaines". Elle fait référence au livre de M FULLER, Media Ecologies, publié en 2005. Pour les feux de signalisation, B MASSUMI (Parables for the Virtual : Movement, Affect, Sensation. Duke University Press, London, 2002) propose de s'intéresser à une "technologie du mouvement". Avec la réflexion sur la ville, lieu de circulation ou lieu de vie, celle de différents types de mouvement possible, c'est toute une réflexion sur le mode de vie qui se déroule. Dans sa relation de certaines expériences sociologiques, elle indique que la suspension des feux de signalisation oblige les automobilistes et les piétons à négocier leurs mouvements. Il se crée une autre régulation, constamment négociée, dans la circulation. 

 

    La réflexion sur les liens entre électricité et liens sociaux, qui va de la forme de relations interpersonnelles que cette technique induit plus ou moins aux procédures de décision d'utilisation d'une telle énergie, à l'échelle local ou nationale, est développée par une partie du mouvement écologique, et souvent commencée aux Etats-Unis à travers une critique de l'American Way of Life. Le débat public tourne autour non seulement des procédures démocratiques ou non de décision de construction de centrales électriques, qu'elles soient hydro-électriques, thermiques ou nucléaires, mais aussi sur l'utilisation ou non systématique de l'électricité dans tous les actes de la vie. Beaucoup de ces rélfexions ne concernent pas seulement l'électricité - dont la plupart des critiques analysent l'indispensabilité dans les mentalités, mais l'ensemble des sources d'énergies produites de manière centralisée, faisant superposer à toute l'infrastructure technique l'organisation nécessaire d'une hiérarchie sociale : plus la société devient complexe, plus la discipline sociale est nécessaire pour la faire fonctionner...

Tous ces débats sont souvent enchevêtrés, mais ne constituent plus des éléments centraux des discussions publiques, comme dans les années 1960 ou 1970.

Ce n'est qu'à l'occasion de catastrophes industrielles précises où de changements climatiques brutaux que ces sources d'énergie centralisées, souvent gaspilleuses et dangereuses, sont contestées, comme actuellement. C'est d'ailleurs à cette occasion que sont redécouvertes les réflexions d'un Gilbert SIMONDON ou d'un Jacques ELLUL sur le rôle de la technique dans nos vies.

 

Cécilia CHEN, L'électricité, l'éclairage et les rythmes urbains, dans Energie et Société, Editions Edisud ; Jean-Marie CHEVALIER, Les grandes batailles de l'énergie, Gallimard, 2012 ; Séminaire 2002-2006, Etat et énergier, XIXe-XXe siècle, Sous la direction scientifique de Alain BELTRAN, Christophe ROUSSEAU, Yves BOUVIER, Denis VARASCHIN, Jean-Pierre WILLIOT, Comité pour l'histoire économique et financière de la France, Ministère de l'économie, de l'industrie et de l'emploi, Ministère du budget, des comptespublics et de la fonction publique, 2009.

 

ECONOMIUS

 

 

 

Par GIL - Publié dans : ECONOMIE
Ecrire un commentaire - Voir les 0 commentaires
Jeudi 18 juillet 2013 4 18 /07 /Juil /2013 10:25

    Adaptation d'un roman de l'écrivain belge de science-fiction Joseph-Henri ROSNY (de son vrai nom BOEX) aîné (1856-1940) paru pour la première fois en France en 1911, lui-même ayant déjà fait l'objet d'une première adaptation en 1914 (réalisateur et acteur Georges DENOLA), le film de fiction du réalisateur français Jean-Jacqies ANNAUD relance en 1981 l'intérêt pour la période préhistorique de la vie de l'humanité. 

     Le roman situe l'action au coeur de la Préhistoire, soit environ cent mille dans le passé et relate l'histoire d'une tribu (Oulhamers) organisée autour du feu. Lorsque les cages dans lesquelles le feu est entretenu (ils ne savant pas l'allumer) sont détruites au cours de l'affrontement avec une tribu ennemie, c'est la catastrophe. Le clan fuit, en proie à la faim et au froid, et envoie un des siens rapporter du feu. Le roman suit l'aventure de ce volontaire, qui, avec ses deux compagnons doivent affronter les multiples dangers d'un monde hostile : Mammouths, Aurochs, Dévoreurs d'Hommes, avant de rapporter finalement le feu à leur peuple. Cette oeuvre, remarquable par son scénario, comme les films qui s'en inspirent, puise ses sources dans les connaissances de leur temps. Avec les découvertes archéologiques effectuées de 1980 à 2010, nous comprenons mieux les modes de vie des hommes préhistoriques. Nous savons que les comportements décirts dans le roman et les films ne correspondent pas à la réalité préhistorique, pour autant qu'on puisse le... savoir! outre une postérité filmique, le roman, est également adapté en bande dessinée, entre autres dans les années 1950 dans le Journal de Mickey, journal de prédilection dans la jeunesse de l'auteur de ces lignes,et à partir de 2012 dans un album réalisé par Emmanuel ROUDIER.

 

    Le film franco canadien de 96 minutes de Jean-Jacques ANNAUD, met en scène une tribu du Paléolithique (les Ulam) qui subit la même mésaventure que dans le roman. le trio explorateur à la recherche du feu perdu rencontre deux autres tribus, trois types d'humains aux caractéristiques très éloignées étant présentés dans le film. Ainsi, ils entrent dans le territoire des Kzamn, une tribu qui ne dédaigne pas capturer des menbres de la tribu des Ivaka pour les manger, mais qui sont passé maitre dans l'art de produire le feu. Toute une histoire (d'amour) se noue entre un des membre du trio (Naoh) et une femelle Ivaka prisonnière (Ika) , lorsque le "héros" est capturé. Naoh réussit à leur voler le feu, s'enfuit avec elle, est fait prisonnier cette fois par les Ivaka. Ceux-ci lui font subir toutes sortes de bimades avant de l'accepter et de lui montrer leurs techniques, cette tribu étant la plus avancée dans le domaine de la maitrise du feu et de l'art, le prisonnier étant adopté par cette tribu et participe même à leurs activités... capturant ses compagnons et leur faisant subir des épreuves... Ces derniers s'évadent en enmenant par force Naoh, Ika les aidant. Sur le chemin du retour, le quator doit se battre contre un ours et un groupe de renégats qui faisaient partie autrefois de la tribu des Ulma. Ils mettent en fuite ceux-ci en utilisant plusieurs propulseurs de sagaies volés aux Ivaka et mettent en fuie leurs ennemis. Lorsqu'ils sont sur le point de rejoindre la tribu des Ulam, le compagnon  qui était chargé de porter le feu tombe à l'eau et Noah tente de l'allumer. N'y parvenant pas, il laisse Ika prendre les choses en main. Parvenu enfin à destination, dans sa tribu, Naoh découvre qu'Ika est enceinte de leur enfant, départ d'une postérité grâce à la science et la technologie...

   Le film tient le pari d'intéresser le spectateur à une histoire qui si elle ne concentrait pas en une courte poignée d'années des événements distants sans doute de plusieurs millénaires, le réduisait au même ennui qui se dégage parfois des films animaliers qui se concentrent sur une seule espèce pendant plus d'une heure... Ils suscitent même, comme le roman à son époque des vocations scientifiques...

Aussi s'accumulent des anachronismes, en regard de ce que nous connaissons de la réalité (des espèces aussi différentes ont-elles pu se rencontrer?) et des anatopismes (anachronismes géographique) (ces hommes ont-ils pu passer réellement aussi rapidement des montagnes enneigées à la savane exhubérante?). Par ailleurs, si ces espèces sont telle différentes, leurs membres peuvent-ils réellement s'accoupler et engendrer?)

 L'attention du réalisateur s'est concentrée sur la question du langage (avec ses sonorités inventées) et des difficultés de communication entre tribus différentes (entre partiquement espèces différentes). Un travail soucieux de s'approcher de la réalité tel qu'on peut la concevoir, malgré les remarques précédentes, qui transparait fortement à l'écran, est remarqué par la critique et c'est précisément ce qui permet à nombre de futurs passionés et à des naturalistes de discuter des représentations du film, très loin tout de même de nombreuses autres présentations caricaturales de la préhistoire. Notamment la lenteur de l'évolution des personnages est marquée dans le tempo du film, ce qui est un paradoxe quand on voit l'accumulation d'événements représentés : la modification des rapports hommes/femmes, dans la manière de s'accoupler, le passage d'un relief à un autre, le refus du cannaibalisme, la découverte d ela médecine (avec une mixture d'herbes), la problématique de la transmission et de la production du feu... Ce qui fait la force du film tient précisément à ce tempo qui marque bien la dépendance de l'homme face à la nature et sa fragilité face aux éléments. 

  L'élément le plus important est évidemment le rôle, la place du feu dans la civilisation de cette période. L'importance du feu comme agent de survie du groupe, censé protéger du froid et éloigner les bêtes féroce obéit sans doute plus à un cliché et à l'imaginattion qu'à la réalité. Le genre Homo a survecut, sans le feu, de - 3 millions d'années à - 400 000 ans en Europe. L'étape de la connaissance du feu sans maitrise de sa production est théorique et peu probable dans la mesure où les techniques de production du feu par percution ou par friction sont extrêmement simples et compatibles avec les connaissances techniques dont témoignent les outils de pierre. Mais précisément, en retour pourrait-on dire, pourquoi avoir attendu si longtemps avant de le découvrir, surtout en regard des bénéfices qu'il procure? C'est que, sans doute, le processus de l'homonisation, avec le surdéveloppement des capacités cognitives, est-il très lié à la découverte et à la pratique du feu... En tout cas, si le genre Homo ne dépendait pas du feu pour sa survie, sans doute lui permit-il de se développer, au détriment d'autres lignées. Guerre? Certains auteurs estiment que la notion de guerre est un anachronisme pour le Paléolithique (Laurence KEELEY, dans Les guerres préhistoriques, Editions du rocher, estime au contraire que les conflits de chasseurs cueilleurs étaient plus meurtriers que nos guerres modernes), la guerre ne naissant qu'au Néolithique et singulièrement avec l'apparition de l'Etat. De plus, le feu, dans un monde où les hiérarchies ne sont pas pérennes (et où la durée de vie des individus est très courte...), est facilement partagé, que ce soit à l'intérieur même de la tribu ou entre tribus différentes. Dans cette dernière conception, dans le mode de production communautaire, le feu est très répandu, partagé, mis en commun, sans référence à une spécialisation... 

 

     En fin de colmpte, si le film peut propager une image peu avantageuse des hommes préhistoriques, il est à prendre uniquement pour ce qu'il est : une oeuvre de fiction, un film d'aventures. Le fait qu'il suscite tant de débats lui donne toutefois une dimension supplémentaire, en dehors de '"l'entertainement" général de la production cinématographique contemporaine (phénomène qui comporte de notables exceptions tout de même, même si les publicités racoleuses parfois dénaturent la portée de certains films...). Ce film est un point de départ, en aucun cas un documentaire de vulgarisation scientique qui doit comporter un certain nombre de caractéristiques de présentation de la réalité. Même si l'équipe réalisatrice, par un certain souci du détail et sur le tempo et le rendu visuel, veut communiquer un peu de l'atmosphère de cette période. Si la musique de Philippe SARDE couvre presque entièrement le film, elle se fait souvent discrète, même si des sonorités épiques parsément le métrage...

 

Jean-Jaques ANNAUD, La guerre du feu, 1981, scénario de Gérard BRACH, avec Everett MCGILL, Nameer EL-KADI, Ro PERLMAN et Rae Dawn CHONG, Producteurs : Stéphan Films/Famous Players, International Cinemedia Centre Ldt, Royal Bank of Canada et Ciné Trail, distribué par AMLF. Disponible en DVD.

 

FILMUS

Par GIL - Publié dans : FILMS UTILES
Ecrire un commentaire - Voir les 0 commentaires

Présentation

Créer un Blog

Recherche

Calendrier

Octobre 2014
L M M J V S D
    1 2 3 4 5
6 7 8 9 10 11 12
13 14 15 16 17 18 19
20 21 22 23 24 25 26
27 28 29 30 31    
<< < > >>
Créer un blog gratuit sur over-blog.com - Contact - C.G.U. - Rémunération en droits d'auteur - Signaler un abus - Articles les plus commentés