Ces derniers mois, un débat fait rage pour savoir si le développement des biocarburants a contribué ou non de manière décisive à la hausse du prix des denrées alimentaires depuis quelques années, et singulièrement depuis le début 2008, avec à la clé des émeutes de la faim dans une soixantaine de pays. Jean Ziegler, rapporteur spécial des Nations unies pour le droit à l’alimentation, n’a pas hésité à qualifier la production massive de biocarburants de « crime contre l’humanité ». Fidel Castro avait tenu un discours similaire voici deux ans. Moins virulents, Dominique Strauss-Khan (FMI), Jacques Diouf (programme alimentaire des Nations-Unies) ou la FAO ont récemment souligné que le choix d’attribuer des terres aux carburants verts a contribué à la hausse des prix des denrées de base, avec d’autres facteurs : niveaux de stocks bas, augmentation de la consommation chinoise et indienne, coût de l’énergie, des transports et des engrais, spéculations à la hausse.
Quoi qu’il en soit, on a assisté en l’espace de quelques mois à un retournement de situation dont l’histoire est familière : les biocarburants, auréolés de toutes les vertus au début des années 2000, font désormais figure de suspects. Et même si leur rôle est mineur dans la crise alimentaire, le bon sens indique que la priorité est de nourrir 6,5 milliards d’humains à court terme plutôt que de remplacer le pétrole, le charbon, le gaz ou le nucléaire à long terme. Cet exemple illustre assez bien les limites du fameux principe de précaution dont on nous rebat les oreilles. La grande vogue des biocarburants est née avant la hausse des prix du pétrole, elle se fondait sur le catastrophisme climatique : parce que le climat terrestre était supposé gagner quelques degrés d’ici 2100 à cause des émissions humaines de gaz à effet de serre (incertitude 1), parce que ce réchauffement était supposé produire plus d’inconvénients que d’avantages (incertitude 2), parce que l’existence de seuils de transition (tipping points) risquait de rendre la situation non maîtrisable si l’on ne prenait pas des mesures immédiates (incertitude 3), tout ce qui limitait ici et maintenant les émissions humaines de gaz à effet de serre semblait obéir au principe de précaution. Même si nous n’étions pas vraiment assurés du caractère dangereux des énergies fossiles, on devait les considérer comme telles à partir du moment où il existe un doute scientifique sur leur innocuité à long terme. Face aux dangers supposés quoique très mal probabilisés (plusieurs degrés de hausse des températures, des dizaines de millions de réfugiés, une hausse du niveau des mers de plusieurs mètres, une réduction de la biodiversité), il fallait s’abstenir. Et encore le climat avait-il fait l’objet d’un immense effort scientifique de modélisation depuis vingt ans : dans la plupart des cas, le principe de précaution est invoqué sur la base de connaissances scientifiques minimes.
Mais voilà le problème : toute action humaine comporte des dangers et des risques, toute inaction également, et nous sommes à peu près incapables d’anticiper à long terme les effets réels de ces actions / inactions et donc de comparer ces effets en terme de coûts et bénéfices pour l’humanité. Notre incapacité à anticiper tient notamment à ce que les actions humaines forment un système chaotique et que les conditions initiales réitérées de ce système sont de toute façon imprédictibles dans le futur (on ne sait pas ce que l’humanité aura ou non inventé en 2050, et ces inventions feront partie des conditions initiales des actions humaines en 2050 : l’humanité connaissait le transistor, l’antibiotique et l’arme nucléaire en 1950, pas en 1900). S’ajoute à cela que les dangers et les risques sont parfois non commensurables : si telle action sauve 50 millions de vies humaines, mais entraîne la disparition de 30% des espèces non-humaines, dois-je la considérer comme souhaitable ? Un environnementaliste pur et dur ne serait pas forcément d’accord avec ce choix, puisqu’il revient à sacrifier l’environnement dès lors que cela maximise la survie humaine.
Ce n’est pas la première fois que le généreux principe de précaution est ainsi pris en défaut. Dans les années 1960, une campagne de pression a été organisée par le courant environnementaliste naissant pour l’interdiction du DDT (dichlorodiphényltrichloroéthane), à la suite du best-seller de Rachel Carson, Le printemps silencieux (Silent Spring, 1962). Mais les interdictions locales du DDT et le recul global de son usage dans la lutte contre le paludisme ont entraîné des recrudescences de malaria dans les régions endémiques d’Amérique et d’Afrique (un million de morts par an, surtout des enfants de moins de 5 ans). Au point que l’OMS a décidé en 2006 de soutenir à nouveau le DDT comme traitement préventif de première intention dans les maisonnées. Ce qui semblait inspiré du principe de précaution ou même de la plus élémentaire prudence (le DDT a des effets négatifs sur la faune et incertains sur la santé, mieux vaut s’abstenir de l’utiliser désormais) s’est empiriquement révélé néfaste, et quelques millions d’enfants ont payé le prix de cette soi-disant sagesse.
A quelque chose, malheur est bon. Une crise sanitaire hier ou une crise alimentaire aujourd’hui ne seront pas tout à fait inutiles si elles font apparaître aux esprits sensés la vraie nature du principe de précaution : une rhétorique creuse, inapplicable et dangereuse, servant à flatter des penchants psychologiques fort peu créatifs (aversion au changement et à l’incertitude, alarmisme, paranoïa sécuritaire), à dissimuler des intérêts matériels fort peu avouables (embargos de certains États sur les produits d’États concurrents) ou à légitimer des programmes idéologiques fort peu progressistes (l’aile réactionnaire et romantique de l’environnementalisme).
Illustration : Dan Miller (DR).
Inscription à :
Publier les commentaires (Atom)
2 commentaires:
Deux remarques : D'abord l'essor des biocarburants est loin d'être négligeable : plus de 30% des terres cultivées aux usa y sont attribuées (et c'est le ministère us de l'agriculture qui le dit). Ensuite, l'incertitude 1 revient à remettre en question la synthèse effectuée par le GIEC, ce qui reste assez subjectif, non ?
Dans un autre site, j'ai produit quelques raisons objectives d'être sceptique sur le travail du GIEC, pour être plus précis sur la présentation de ce travail aux décideurs :
http://www.climat-sceptique.com/
Mais même en restant dans la logique du GIEC et de l'AR4 2007, l'écart entre les fourchettes basses des scénarios réalistes (B1>A2) d'ici 2100 (+1,1-2,0 K) et les fourchettes hautes (+2,9-5,4 K) représente à mon sens une incertitude majeure (1 à 2 K de hausse sur un siècle représentent sans doute plus d'avantages que d'inconvénients).
D'autant que la sensibilité climatique au doublement CO2 permettant de faire ces prévisions fait régulièrement l'objet de réévaluation. Et qu'aucune scénario ne prenait en compte l'hypothèse d'un pétrole et d'un gaz chers dès les années 2000-2010 (ce qui est de nature à favoriser le charbon dans un premier temps, mais surtout à accélérer l'après-fossile au cours du siècle, donc à décrédibiliser les scénarios prévoyant des concentrations atmosphériques de CO2 très élevées en 2100).
Enregistrer un commentaire