Technologie et réserves

Pétrole et Techniques (bulletin Association Francaise des Techniciens et Professionnels du pétrole) n·406 Jan-Fév.1997 p10-28

J.Laherrère, A.Perrodon

-Introduction

Les prévisions en matière de production d'huile et de gaz sont d'un intéret capital. Il est superflu de le rappeler. Ces études reposent nécessairement sur les données de réserves et de ressources. Mais s'il est déjà délicat d'obtenir des valeurs fiables en matière de réserves dites prouvées, il est évidemment encore plus difficile d'avoir des estimations valables de celles restant à découvrir.

The above paragraph translated into English by Altavista's translation service:

The forecasts as regards production of oil and gas are of a capital interest. It is superfluous to point it out. These studies necessarily rest on the data of reserves and resources. But if it is already delicate to obtain reliable values as regards reserves known as proven, it is obviously even more difficult to have valid estimates of those remaining to discover.

De récentes publications tendent à tracer un horizon plutôt optimiste sur l'évolution à moyen terme de la production d'hydrocarbures, grâce notamment à l'apport de nouvelles technologies (Appert 1996, Alazard 1996,...). Ces analyses, qui sont basées sur des données publiques biaisées par la politique, nous semblent sous-estimer certains paramètres importants, comme l'évolution récentes des découvertes, ou une analyse objective du passé.

Plusieurs approches, à partir de fichiers privés plus fiables, alliant les espoirs raisonnés de nouvelles découvertes et certaines améliorations des taux de récupération permettent d'arriver à des approximations assez convergentes. Ces analyses reposent largement sur l'ouverture de nouveaux horizons que ce soit pour des raisons politiques aussi bien que techniques, le progrès technique contribuant pour sa part à compenser le terrible défi que représente l'épuisement inexorable des ressources.

Mais, avant toute chose, il paraît nécessaire de bien savoir de quoi l'on parle et de bien définir, une nouvelle fois, les termes et les méthodes utilisés.

Le consensus sur les définitions ne semble pas le point fort des pétroliers, en particulier en matière de réserves. Les citations de passage ou de titres d'articles écrits par les meilleurs experts mondiaux suivants sont éloquents:

-DeSorcy et al 1993: Canadian Standing Committee on reserves definitions:

There are currently almost as many definitions for reserves as there are evaluators, oil and gas companies, securities commissions, and government departments. Each one uses its own version of the definition for its own purposes.”

-Capen 1996:

"an industry that prides itself on its use of science, technology, and frontier risk assessment, finds itself in the 1990’s with a reserves definition more reminiscent of the 1890’s.....

illegal addition of proved reserves"

-Cadwell et al 1996:

« Why our reserves definitions don’t work anymore »

-Tobin 1996:

« Virtual reserves- and other measures designed to confuse the investing public »

-Khalimov 1993 « Classification of oil and gas reserves and resources in the Former Soviet Union » (il avait présenté cette classification au 10e CMP à Bucarest en 1979: Khalimov et al)

"the resource base appeared to be strongly exaggerated due to inclusion of reserves and resources that are neither reliable nor technologically and economically viable"

Quel chiffre déclare-t-on pour les réserves? Pour la plupart des pays producteurs, le pétrole a une importance stratégique (surtout en période de guerre) et économique, aussi le chiffre des réserves et même de production devient un sujet d'état et est confidentiel. Tous veulent avoir la liberté de publier ce qui leur convient. Publier un chiffre de réserve est un acte politique qui dépend de l'image que chaque acteur veut donner. De même chaque individu veut d'une part paraître pauvre devant le fisc, et, riche devant son banquier quand il lui demande un prêt. Comme il n'est pas possible de déterminer avec précision la fortune d'un individu qui a un capital mobilier et immobilier important et varié, si un seul chiffre est donné à l'intérieur de la fourchette d'incertitude minimum - maximum, ce chiffre sera le minimum pour le fisc et le maximum pour le banquier. Il en est de même pour les réserves: l'incertitude est ici importante, surtout au début de la production d'un champ. On ne connait avec précision les réserves d'un champ que le jour où il est abandonné, et il est abandonné non parce qu'il est complétement épuisé, mais parce que ce qui reste n'est plus économique.

La majorité des réserves se situent dans les pays de l'OPEP où les quotas de production dépendent des chiffres de réserves publiés. Il n'est pas étonnant de voir en 1986-1987 le doublement des réserves de certains pays de l'OPEP, sans découvertes notables: ils sont passé d'un chiffre minimum hérité des compagnies pétrolières (paraître pauvres) à un chiffre maximum (paraître riches).

Il n'y a actuellement aucun consensus mondial, ni même national, sur les définitions des termes pétroliers, à savoir ce qu'est un champ d'huile ou de gaz, ce qu'est un pétrole lourd, un pétrole conventionnel, la production d'huile ou de gaz (d'un champ ou d'un pays), les réserves et les ressources en huile et en gaz (d'un champ ou d'un pays) et le coefficient d'équivalence entre différents produits. Les conditions de mesure en ce qui concerne la température et la pression varient suivant les pays (donnant plus de 5% de différence sur les volumes de gaz entre les valeurs EU et URSS).

Mais en pratique une installation importante (notamment en offshore) ne doit pas être ni sousdimensionnée, ni surdimensionnée: les économistes calculent la rentabilité d'un projet sur la valeur espérée, à savoir la valeur moyenne, vérifiant que la valeur minimum (où tout irait mal) ne sera pas une cause de ruine. La régle de la SEC: "reasonable certainty to exist" a donc été interprétée avec une certaine liberté, et chacun prend ce qui lui convient comme étant "raisonnable", la plupart du temps comme le plus probable, ou même une probabilité de 50%. Il est intéressant de noter qu'un autre organisme américain la Food and Drug Administration (FDA) utilise la même définition pour autoriser un nouveau produit avant d'être commercialisé, il doit avoir une "reasonable certainty of no harm". Il faut espérer que le "raisonnable" de la FDA est d'une probabilité bien plus grande (quasi certain) que le "raisonnable" de la SEC (le plus probable). Les mêmes mots peuvent avoir des significations différentes suivant les motivations!

Les réserves par champ sont confidentielles. L'American Petroleum Institute a publié les réserves globales dites prouvées de 1936 à 1979, tâche reprise ensuite par le US Department of Energy (DOE). En 1980 une tentative SPE/AAPG/API (AAPG Explorer Nov.1980) ne parle que de prouvé (JPT Nov 1981), en liaison avec les règles FASB 25 (Fév 1979). Mais devant la révision constante de ces réserves dites prouvées, on commence à parler de probable et de possible. L'USGS (Masters et al 1983) montre bien que ces définitions de prouvé, probable et possible sont ambigues en les rejetant et en introduisant de nouveaux termes tels que: "identified, demonstrated, measured, inferred".

La SPE (Society of Petroleum Engineers: organisme controlé par les consultants américains) a sorti un texte sur les définitions en 1987, mais ce texte n'a pas été entériné par le conseil d'administration car il abordait un peu l'approche probabiliste que refusent les consultants texans!

Sous la pression du Congrès Mondial du Pétrole (CMP) la SPE travaille sur des définitions communes pour 1997.

-URSS Une classification détaillée a été élaborée en URSS, elle a été publiée en 1979 à Bucarest par Khalimov et al. Il y a eu des tentatives pour trouver des équivalences avec le système américain (Martinez et al 1987, Grace et al 1993), mais sans grand succès. Le principal défaut est que les réserves sont estimées avec un coefficient de récupération théorique maximum. Ainsi le plus grand champ russe Samotlor est estimé avec un coefficient de récupération de 50%, alors qu'il n'a atteint aujourd'hui que 30% avec un taux actuel de déclin de 15%/a et 92% d'eau: ce 50% semble bien hors d'atteinte!. Ce même Khalimov a, en 1993, reconnu (voir 1-1) que cette classification était très exagérée car ne tenant pas compte des exigences économiques ou techniques. Tous les chiffres de la CEI et des pays qui l'ont suivi sont aussi à reprendre.

Une task-force commune SPE/WPC (toujours dirigée par A.Martinez) travaille actuellement sur un texte commun: malheureusement rassembler deux méthodes opposées (déterministe et probabiliste) conduit à un mauvais compromis! Il faut avoir le courage de reconnaitre qu'il y a deux méthodes qui utilisent les mêmes termes avec des définitions très différentes et qu'il est préférable que chaque méthode emploie des termes différents.

-1-3-Unités

Il existe un domaine où les définitions sont précises, adoptées universalement par la quasi-totalité des pays (sauf Liberia et Bangladesh), et où tous les termes sont illegaux, (France, Union Européenne et administrations fédérales américaines). C'est le Système International d'Unités ou SI. Or les pétroliers dans le monde, comme les Français avec l'ancien franc, continuent à trainer des unités périmées (la thermie par exemple) et des symboles contradictoires: on voit les Américains écrire Mb pour millier de barils et MB pour megabyte à savoir million d'octets, et des Francais écrire MMBTU pour million de BTU (au lieu du joule!) et MF pour million de francs, Mcf pour millier de pieds cube et km pour millier de mètres (Laherrère 1995 a). Pire, ceux qui vantent les mérites de la technologie devraient retourner à l'école primaire quand ils écrivent milliard de mètre cube Gm3 soit gigamètre cube, soit environ un million de fois le volume de la Terre. Le milliard de mètre cube est un kilomètre cube: et ceux qui écrivent Gm3 pour un million de mètre cube trouvent normal que km2 ne soit pas un millier de mètres carré, soit 0,1 hectare!

Il faut noter que le baril de pétrole ne se trouve pas dans les règles fédérales US. Les rapports DOE doivent préciser "barrels of 42 US gallons".

Ceci montre bien qu'il ne suffit pas d'avoir des définitions: il faut que chacun soit convaincu qu'il est préférable de les utiliser et chacun doit lutter contre son conservatisme quand il faut utiliser une nouvelle méthode (ou une nouvelle unité: centime (maintenant virtuel) pour ancien franc!).

Le mauvais usage des unités par les pétroliers montrent que la pratique est souvent loin de la technologie.

-1-4-Réserves internes et réserves externes

A l'intérieur des compagnies pétrolières, il existe plusieurs chiffres de réserves suivant les acteurs:

explorateur: habitué aux probabilités subjectives, il donne les accumulations avec une large fourchette, mais surestime les petits et sousestime les gros,

ingénieur réservoir: conservateur, il préfère donner le prouvé pour éviter l’echec. Il n’utilise pas le taux de récupération,

économiste: il travaille surtout sur la valeur espérée, mais souvent il n’a pas toutes les données,

direction: cela dépend du message à faire passer.

Les valeurs minimum données par les ingénieurs de réservoir montrent forcément une augmentation avecles investissements et la production. Les réserves externes dépendent de l'image (de la compagnie ou du pays) que veut donner celui qui les publie (Laherrère 1994 a et c). Un partenaire publie souvent des chiffres différents de ceux de l'opérateur.Enfin en l'absence de données officielles, il y a les chiffres des publications spécialisées dans l'information pétrolière.

Très souvent il y a confusion, dans les déclarations des spécialistes des gisements sur l'augmentation des réserves, entre leurs chiffres internes et les chiffres externes très différents qui ont déjà anticipé l'augmentation possible.

-1-5- Fiscalité et Economie

La fiscalité est un facteur très important dans la présentation des résultats d'exploration et de production. Dans certains pays, il est préférable de présenter un puits d'appréciation ou de développement comme un puits d'exploration. Dans d'autres (dont la France), il est préférable de couper un champs en plusieurs unités et une extension sera présentée comme un nouveau champ.Il est ainsi trés difficile d'avoir sur l'activité exploration-production des données comparables suivant les pays.

Dans les calculs économiques, l'actualisation est aussi très importante. Dans les compagnies pétrolières, on cherche le maximum de profit, souvent au détriment de la récupération. On a intérêt à produire le plus vite possible au maximum, notamment en offshore. Toute production au delà de 10 ans a une valeur faible par rapport à la production du moment. Quand le champ s'épuise, il y a alors intérêt à investir de nouveau pour mieux récupérer ce qui était, 15 ans auparavant, considéré comme négligeable. Ce qui explique un certain renouveau de tous les grands champs vers leur fin de vie: ainsi le champ de Brent est devenu un champ de gaz.

En matière de réserves, la pratique américaine, qui a fortement influencé le reste du monde, est essentiellement déterministe.

Pour les pétroliers américains, notamment texans, il n'y a pas d'incertitude: on prend les valeurs du puits et le coefficient de récupération du champ voisin. Le champ est mis en production dès sa découverte, sa production est d'abord évacuée par camion, puis on fore d'autres puits productifs, et les réserves augmentent avec le développement. Mais en mer et en zone nouvelle où il faut réaliser d'importants investissements avant de produire, il en est autrement: il faut forer des puits d'appréciation avant de décider. Le calcul des réserves se fait avec une approche probabiliste. Cependant les pétroliers américains (surtout les consultants) refusent l'approche probabiliste, approche adoptée par les opérateurs dans le reste du monde. Car un expert est supposé tout savoir, admettre l'incertitude est mettre en cause sa compétence.

Le déterminisme est une philosophie qui a régné au début du 19e siècle et qui en la personne de Laplace pensait que tout l'Univers pourrait être calculé aussi bien pour tout le passé que pour tout le futur, si on connaissait parfaitement tout ce qui se passe dans le présent. Par la suite, Poincaré, Heisenberg, Lorenz et d'autres ont montré notamment: l'impossiblité de résoudre le comportement de trois corps, le principe d'incertitude d'une particule et l'effet "papillon" (ou "petites causes: grands effets" ou le "chaos non-linéaire"). Plus personne ne croit plus (par expérience) que l'on puisse prévoir le temps qu'il va faire quinze jours à l'avance. Le déterminisme est une doctrine périmée.

Cette approche est d'ailleurs mal nommée: elle devrait plutôt être appelée approche à une seule valeur. La pratique américaine dans un bassin pétrolier mature est de calculer les réserves d'un puits et de son spacing (10 à 160 acres) en multipliant la superficie du spacing en acre par l'épaisseur de la zone productice du puits en pieds et par un coefficient de récupération des champs voisins exprimé en baril par "acre-foot". Mais en fait, pour calculer les réserves d'un champ, il faut multiplier les paramètres suivants: superficie, épaisseur utile, porosité, saturation en huile, inverse du facteur de volume, ce qui donne le volume en place (ou accumulation) et enfin par le taux de récupération. On prend une valeur unique (valeur moyenne, médiane ou mode) pour chacun des paramètres et on obtient un chiffre unique de réserves. Pour un champ en déclin, on extrapole la courbe de production avec un tracé unique.

Cette approche s'est heurtée évidemment à l'incertitude et surtout à une révision continuelle des réserves prouvées. Il a donc été introduit des volumes supplémentaires dits probables et possibles en appliquant des coefficients aux valeurs dites prouvées. Il est étonnant de voir une approche dite déterministe, refusant les probabilités, introduire des valeurs dites probables!

L'approche déterministe aux EU conduit à une révision constante des réserves. Pour l'USGS (Root 1994), le baril à l'année de découverter devient 7 barils 30 ou 50 ans plus tard. La révision devrait être toujours positive: est ce vrai? Sur la période 1984-1994, le rapport DOE 1994 conclut qu'en pourcentage par rapport aux réserves restantes, la moyenne des révisions est pour l'huile de 5% de révisions négatives, de 10% de révisions positives , de 2% d'extensions et seulement 0,4% de découvertes nouvelles; pour le gaz il y a 10% de révisions négatives, 12% de révisions positives, 4% d'extensions et 0,8% de nouvelles découvertes.

Le plus grand champ des EU hors Alaska est East Texas, ses réserves ultimes étaient estimées en 1968 à 6 Gb (Halbouty et al), puis en 1984 à 5,6 Gb (Carmalt et al), et enfin en 1995 à 5,4 Gb: où est la croissance positive?

L'approche déterministe (à une seule valeur) est appréciée par les experts qui veulent donner l'image de tout savoir. L'utilisation de simulation avec des modèles de réservoirs à très nombre de mailles (jusqu'à 100 000, mais si on ajoute un modèle géologique géostatistique on peut monter à un million ) qui conduit à une seule solution en réponse au schéma de développement prévu, incite certains à refuser l'approche probabiliste qui demanderait des moyens informatiques considérables.

-2-2-Approche probabiliste:

Tout le monde admet en fait que le chiffre des réserves est incertain, même si certains le présentent comme une certitude approximative! Un rappel succinct des définitions sur les probabilités semble nécessaire:

La probabilité peut être exprimée sous deux courbes:

La distribution de probabilité peut être décrite avec seulement trois valeurs: deux valeurs pour définir la fourchette avec le minimum et le maximum, et une valeur entre les deux pour décrire la tendance, à savoir, soit le mode, le médian ou la moyenne.

Le minimum peut être défini par une probabilité cumulée de 95% (on trouve des valeurs allant de 84 à 99%).

Le maximum peut être symétriquement défini par une probabilité cumulée de 5%.

Le mode est la valeur la plus probable, c'est à dire correspondant au pic de la courbe de densité, ou au point d'inflexion de la courbe de probabilité cumulée. Il peut correspondre au "best estimate" des déterministes quand ceux-ci estiment que la certitude raisonnable n'est pas une forte certitude! Le mode peut correspondre à une probabilité cumulée de l'ordre de 70% pour une distribution "usuelle " lognormale.

La médiane est la valeur qui a une probabilité cumulée de 50% ou qui sépare la courbe de densité en deux surfaces égales.

La moyenne est la valeur "espérée" c'est à dire la moyenne de toutes les valeurs de réserves possibles, chacune étant "pondérée" par sa densité de probabilité. La moyenne peut correspondre à une probabilité cumulée de l'ordre de 40% pour la même distribution "usuelle " lognormale.

Pour une distribution symétrique normale, le mode est égal à la médiane et à la moyenne.

L'approche probabiliste permet de donner une fourchette de valeurs à l'intérieur de laquelle la valeur réelle a une forte certitude de s'y trouver: 90% pour une fourchette 95%-5%.

Le problème est que l'incertitude des paramètres qui permettent de calculer les réserves ne peut être mesurée de façon objective: on ne connait que quelques points d'observation directe par forage et la sismique ne donne que des données indirectes. L'échantillonnage est insuffisant pour avoir une approche réellement objective. L'évaluation de l'incertitude des réserves est donc subjective et varie avec les auteurs et avec le temps. Tout ce qui peut être mesuré est la performance statistique de certains auteurs, mais il faut que ces auteurs aient évalué de façon homogène un grand nombre de champs et que l'on compare avec les valeurs réelles, valeurs qui ne sont connues avec une certaine certitude qu'une dizaine d'années après la découverte. La plupart du temps, après cette période de plus de 10 ans, les auteurs ont changé: de toute façon, cela ne peut être fait qu'à l'intérieur d'une compagnie et cela est rarement publié. Lors d'un colloque récent réunissant tous les meilleurs experts internationaux, une des plus grandes compagnies pétrolières mondiales reconnaissait qu'une telle étude sur un nombre important de projets internationaux avait conclu que si les estimations en temps et en coût montraient à l'usage une grande dispersion, la dispersion sur les réserves (connues d'une façon interne) était faible.

Il suffit de donner la courbe de distribution de densité de probabilité de chaque paramètre, pour calculer d'une façon statistique au moyen d'un calcul de similation dite méthode de Monte Carlo la courbe de probabilité des réserves. Cela nécessite un ordinateur puissant, du temps, souvent le passage par un informaticien, et cela est peu interactif.

Tous les experts reconnaissent que le meilleur modèle pour représenter la courbe de densité de probabilité de tous les paramètres qui déterminent, dans le calcul volumètrique, les réserves d'un champ, était la loi lognormale (où la distribution est dissymétrique, mais cela couvre aussi à la limite le cas particulier d'une distribution symétrique, à savoir la loi normale). Quand tous les paramètres sont indépendants (ce qui est le cas en quasi totalité) la valeur résultante, à savoir le chiffre des réserves du champ, suit aussi une loi lognormale. Par contre la distribution des réserves d'un large nombre de champs d'un système pétrolier ne suit pas une loi lognormale (qui présente un déficit important en petits champs), mais une distribution de type "fractale parabolique" (1996 b).

S'il est impossible de tracer avec certitude la loi de probabilité de chaque paramètre, il est assez facile pour un expert de donner une fourchette avec la valeur minimum (à être dépassée à 95%), la valeur la plus probable (ou mode) et la valeur maximum (à ne pas être dépassée à 95%). N'importe qui peut alors calculer trés facilement avec une calculette la valeur minimum, mode et maximum des réserves (Bourdaire et al 1985) suivant le modèle lognormal. Cela prend trois minutes et est très interactif.

La figure 1 montre une distribution lognormale assez dissymétrique avec la courbe inférieure de densité de probabilité (probabilité pour être égal à la taille donnée) et la courbe supérieure de probabilité cumulée (de la densité), donnant la probabilité pour que la valeur réelle soit supérieure à la taille donnée en abscisse. Dans cet exemple les valeurs arrondies des différents points de la courbe supérieure sont:

valeurs probabilité cumulée taille probabilité égale
minimum 95% 20 0,7%
mode ou le plus probable 75% 40 1,1%
médiane 50% 65 0,9%
moyenne (mean) 40% 80 0,6%
maximum 5% 200 0,08%

Il est à remarquer que la probabilité pour que la valeur réelle soit égale exactement à la valeur la plus probable n'est que de l'ordre de 1%! Une distribution lognormale est définie par deux valeurs, à savoir la moyenne et l'écart-type. Il suffit donc d'avoir deux points pour calculer toute la distribution, en général on donne la fourchette: mini, mode, maxi mais en fait chacune de ces trois valeurs est reliée aux deux autres et la moyenne est approximativement égale au tiers de la somme mini+mode+maxi.

Dans une approche statistique, on n'a pas le droit (c'est illégal dit Capen 1996):

La valeur moyenne ou valeur espérée devrait être la seule valeur utilisée: en fait elle n'est pas mentionnée dans les définitions WPC/SPE de par le refus des déterministes.

Lorsque l'approche probabiliste est bien faite, la valeur espérée doit être statistiquement proche de la valeur réelle.

Si statistiquement la somme des réserves et de la production cumulée des champs varie avec le temps (en dehors d'un changement important de l'économie et de la technologie), c'est que la méthodologie employée est incorrecte.

-2-3-Attribution des réserves: année de découverte ou année de révision

Les EU ajoutent chaque année par révision des réserves bien supérieures aux nouvelles découvertes. Depuis 1947 les réserves américaines dites prouvées par l'American Petroleum Institute (API 1995) ont augmenté de 25 à 40 Gb (pic dû à l'Alaska) en 1971, pour redescendre à 25 Gb. Le DOE a publié en 1990 un rapport où les réserves telles qu'elles sont connus au moment du rapport sont attribuées à l'année de découverte (backdating). La figure 2 montre la courbe API des réserves courantes et la courbe DOE des réserves ramenées à l'année de découverte. La courbe API peut être extrapolée sans grand problème jusqu'en 2010 à un niveau de 20 Gb, amenant à dire qu'il n'y a aucun problème pour continuer à produire un volume important bien qu'en léger déclin puisque l'on continue à ajouter des réserves. La courbe DOE ne peut être extrapolée que vers des réserves (conventionnelles) quasi nulles entre 2000 et 2010. Les mêmes chiffres de réserves mais attribués à des dates différentes conduisent à des images bien différentes. Il est à noter que la date de découverte de Prudhoe Bay (brusque augmentation) est aussi différente: 1971 pour API et 1967 pour DOE.

La figure 3 donne, à partir du fichier Petroconsultants (1995), des courbes similaires pour le Monde hors EU+Canada. La courbe API donne les réserves dites prouvées revisées chaque année, on peut y voir une augmentation de 1947 à 1973 puis une stabilité autour de 620 Gb suivie de 1987 à 1990 par un saut de 300 Gb (près de 50%) quand certains pays de l'OPEP ont fortement augmenté leurs réserves (afin d'obtenir un quota supérieur) sans avoir fait de découverte notable. Stabilité de nouveau depuis plusieurs années que beaucoup extrapolent un peu vite jusqu'après 2010. Par contre la courbe des réserves restantes du fichier Petroconsultants (prouvées + probables) "backdated" a augmenté de 1947 à 1965, puis a plafonné à 800 Gb en 1980 pour redescendre vers 680 Gb avec une extrapolation vers 500 Gb en 2010. Si la technologie a bien amélioré les résultats, elle n'a pas pu s'opposer au déclin naturel de la nature qui montre toujours des rendements décroissants après une période d'augmentation.

La figure 4 montre pour le monde hors EU+Canada le pourcentage des découvertes cumulées d'huile par année par rapport au total de 1994. La moitié des découvertes actuelles avait été mise en évidence déjà en 1960 et, au premier choc pétrolier de 1973, 80% des découvertes actuelles avaient déjà été faites. Cela explique pourquoi actuellement on vend ce pétrole si bon marché, il a été découvert en grande majorité il y a plus de 25 ans avant le premier choc pétrolier! Sur les 14 dernières années seulement 10% ont été découverts, alors que dans la décennie 60 on en avait découvert 25%.

La figure 5donne le pourcentage des découvertes cumulées d'huile par catégorie pour l'année considérée. Au début du siècle, plus de 50% des découvertes totales se trouvait dans les champs de moins de 50 Mb. En 1930 les champs de moins de 50 Mb ne représentaient guère plus de 10% pour descendre à moins de 5% en 1950, année où les champs de plus de 2 Gb représentaient 80% des découvertes totales. Actuellement le total cumulé (1400 Gb) est constitué pour 57% (800 Gb) par les champs de plus de 2 Gb, pour 75% par les champs de plus de 500 Mb (les géants), pour 90% par les champs de plus de 100 Mb (les majors) et pour 93% par les champs de plus de 50 Mb.

La figure 6 donne la courbe cumulée par catégorie: on peut voir que les courbes sont facilement extrapolables: on ne peut arriver dans un temps limité (50 ans) aux réserves ultimes données par certains!

Quand un champ s'étend sur un pays voisin et qu'il n'y a pas d'unitisation, son extension est considérée comme un nouveau champ. L'Iran est crédité en 1991 de la découverte de 100 Tcf de gaz avec Pars South, c'est l'extension du plus grand champ de gaz du monde, à savoir North Field à Qatar découvert en 1971. Il faudrait corriger cet erreur d'attribution dans les statistiques, mais cela n'est pas fait pour ne pas froisser les susceptibilités des pays.

-3-Taux de succès en exploration

Certains extrapolent l'évolution des taux de succès en exploration qui illustrerait un progrès du rendement de l'exploration. Il ne faut pas confondre le taux de succès en exploration pure (New field wildcat ou NFW) qui est souvent de l'ordre de 10% et celui correspondant à une exploration parvenu à un stade de maturité avancée. Quand un bassin pétrolier devient très exploré, l'exploration se rabat sur les extensions et les petits champs autour des champs découverts, et devient intensive, se rapprochant du développement: le taux de succès augmente vers les 20-30%: on trouve ainsi de plus en plus de gisements, mais ceux-ci sont de plus en plus petits, et le bilan est une décroissance des quantités découvertes annuellement.

Les EU sont un bon exemple: la figure 7 donne en fonction du temps le taux de succès, le nombre de NFW et les découvertes annuelles (backdated).

Le taux de succès est resté proche de 10% de 1947 à 1970, puis il a augmenté vers 20% en 1980 (le seuil économique a été abaissé), il a ensuite légèrement baissé et puis est remonté pour actuellement dépasser les 20%. Depuis 1986, moins on fore, plus on est sélectif,et plus le taux de succès augmente. Mais si l'on s'en tient aux seules découvertes significatives (>1 Mboe) on obtient une toute autre image: ce taux qui était de l'ordre de 3% en 1950 a décliné à 1% début 1980 (dernières données API).

Le nombre de NFW a culminé une première fois en 1956 (8500) puis une deuxiéme en 1981 (9000) suivi par un fort déclin (1500 en 1994). Les découvertes annuelles d'huile étaient de 4 Gb à la fin des années 40 , puis autour de 2 Gb pendant les années 50, autour de 1 Gb pendant les années 60 (avec l'exception de 1967 avec Prudhoe Bay (10 Gb), autour de 5 Gb/a pendant les années 70 et autour de 2 Gb/a durant les années 80 où le taux de succès culminait. Les découvertes devenaient alors inférieures à la production qui était de 3 Gb/a et à la consommation qui était de plus de 5 Gb/a! Les découvertes annuelles de gaz, qui étaient de 20 Tcf/a jusqu'en 1960, ont ensuite baissé, puis remonté en 1974 pour rebaisser continuellement .

L'augmentation du taux de succès est aussi un signe de maturité de l'exploration du bassin pétrolier (Perrodon 1985) et non principalement un signe de haute technologie. D'autant plus que si on le raméne aux découvertes significatives, on peut enregistrer, non une augmentation, mais une baisse.

L'objectif d'augmenter le taux de succès ne saurait être un objectif en soi, car il pourrait conduire à éliminer les zones frontières et les piéges stratigraphiques. L'objectif doit être de découvrir plus de pétrole pour le même coût, il faut aller chercher les gros difficiles et non les petits faciles!

W.Pratt (1885-1981) a écrit: "Oil is first found in the minds of men". La découverte d'un gisement n'est pas simplement de la technologie.

-4-Loi des rendements décroissants ou courbe d'écrémage

La courbe dite d'écrémage ("creaming curve" de Shell), ou la courbe des réserves cumulées ramenées à l'année de découverte ("backdated") en fonction du nombre cumulé de puits d'exploration, a l'avantage, par rapport aux courbes en fonction du temps, de ne pas réfléter les à-coups de l'activité d'exploration. Elle est, pour les pays possédant un grand nombre de bassins et de champs, généralement hyperbolique. L'example des EU (figure 8) montre bien, aussi bien pour l'huile que pour le gaz, une montée rapide suivie par un tracé devenant proche de l'horizontale.

La découverte de Prudhoe Bay en Alaska perturbe un peu cette courbe, cette découverte ayant été retardée par rapport au reste du pays pour des raisons politiques, géographiques et économiques. Cette courbe illustre bien l'amenuissement progressif de la taille des découvertes: c'est la loi bien connue des rendements décroissants. Dans l'exemple du gaz des EU; 940 Tcf ont été découverts avec les 300 000 premiers puits d'exploration, l'extrapolation hyperbolique (asymptote vers 1300 Tcf) indique que les 300 000 puits suivants n'apporteraint que 150 Tcf, les 300 000 suivants 60 Tcf, puis 30 Tcf, puis 20 Tcf. Si en plus d'un siècle on n'a foré que 300 000 puits d'exploration, il semble bien difficile que l'on puisse forer autant de puits en 20 ou 30 ans pour ne découvrir que de l'ordre de 150 Tcf. L'asymptote est un objectif inaccessible! Au moment de l'abandon, l'arrêt de l'exploration (comme de la production) est plus économique que physique.

La courbe d'écrémage des découvertes d'huile de l'Afrique (figure 9) montre un début d'hyperbole presque parfait avec une asymptote de 200 Gb alors que le total actuel est de 125 Gb pour 6700 puits d'exploration. Si on suit le modèle hyperbolique, en forant 3300 puits supplémentaires on ne découvrira que 15 Gb supplémentaire (total 140 Gb).

Les courbes d'écrémage ne semblent guère montrer l'effet d'une transformation notable de la décroissance des rendements par l'effet de la technologie des 20 dernières années ou plutot l'intégrent au fur et à mesure.

Devant cette décroissance du rendement de l'exploration, les compagnies pétrolières se tournent vers les gisements non développés des compagnies nationales en manque de moyens. Ainsi Total, qui a montré son efficacité en exploration par sa participation trés active à la découverte des champs géants Cusiana (1988) et Cupiagua en Colombie, augmente aussi ses réserves par le développement de champs déjà découverts: Hamra (1954) et Tin Fouyé -Tabankort (1966) en Algérie, Mabruk (1959) en Libye, Sirri (1972) en Iran, North Field (1971) au Qatar, Khariaga (1977) et Romaskhino (1948) en Russie, Bongkot (1973) en Thailande, Yadana (1983) en Birmanie, El Huemul (1957) en Argentine. Ces champs ont été découverts en très forte majorité avant 1973! Certains regardent l'augmentation des réserves des compagnies pétrolières comme un signe encourageant pour le futur: c'est en fait souvent une acquisition de réserves déjà découvertes.

-5-Croissance des champs

Les réserves initiales des champs américaines sont régulièrement revisées, aussi l'USGS a beaucoup publié sur la croissance des réserves des champs en fonction du temps. Root (1994) a conçu un modèle de croissance pour les champs des EU ("field growth") où un baril d'huile à son année de découverte devient environ 7 barils 30 à 50 ans plus tard. Masters et al (1994) dans son évaluation des réserves mondiales découvertes et à découvrir, a appliqué ce modèle de croissance sur les champs américains (fichier DOE/EIA) pour obtenir les réserves "corrigées" des EU, mais aussi pour le reste du monde sur le fichier Petroconsultants avec un coefficient de un tiers à deux tiers, ce qui ne se justifie pas. Le fichier Petroconsultants (prouvé + probable, proche de la "moyenne") différe par définition du fichier DOE (prouvé). Les chiffres de Masters et al, qui font référence dans de nombeux articles, sont donc très discutables (Laherrère 1995 b, Ivanhoe 1995). La révision américaine est la conséquence d'une mauvaise méthodologie. Heureusement le reste du monde applique d'autres règles.

Le fichier Petroconsultants est un fichier vivant qui est corrigé régulièrement par addition de nouvelles estimations ou de nouvelles découvertes, dès qu'une information est publiée. Il est cependant loin d'être parfait, mais c'est le plus complet et statistiquement le meilleur pour des études mondiales. Le seul inconvénient est son prix qui empêche la quasi-totalité des organismes officiels de l'acquérir. Les compagnies pétrolières l'achétent pour se tenir au courant de la compétition; mais elles n'ont plus le temps, ni l'envie (ou les moyens: réduction d'effectif) de l'analyser pour des études long terme sur les réserves mondiales.

Les études anciennes publiées sur les réserves des champs géants ont été comparées aux valeurs actuelles de Petroconsultants. La figure 10 compare les réserves des champs géants d'huile publiées indépendemment en 1977 (O&GJ) et en 1986 (Roadifer sur des données 1984) avec les valeurs 1995 de Petroconsultants. Si on élimine les valeurs extrêmes négatives et positives, on voit que pour la quasi majorité des champs le pourcentage de changement varie de -50% à +100%, c'est-à-dire que les valeurs initiales ont été modifiées d'un facteur allant de 0,5 à 2. On constate qu'il y a presque autant de valeurs négatives que de valeurs positives, aussi bien pour les chiffres de 1977 que pour ceux de 1987.

La figure 11 donne le résultat de la comparaison des champs géants de gaz entre les publications AAPG M14 1970 (Halbouty et al sur des chiffres 1968) et AAPG M40 1986 (Carmalt et al sur des chiffres 1984) avec les valeurs de Petroconsultants 1996. Là encore on constate autant de variations négatives que de variations positives.

La variation est en gros aléatoire: il n'y a pas de croissance systématique, comme le suppose Masters et ses disciples. La technologie ne conduit pas nécessairement à une augmentation des réserves (publiées) avec le temps.

Si les réserves initiales des champs d'une compagnie évoluent systématiquement avec le temps, ce serait plutot que l'approche probabiliste a été mal faite!

-6-Taux de récupération

Bien que le fichier Petroconsultants 1996 liste plus de 17000 champs pour le monde hors EU+Canada, les informations sont incomplétes à cause de la confidentialité des données et il est seulement possible d'étudier un peu plus de 3300 champs d'huile dont le taux de récupération est connu. La figure 12 montre le taux de récupération de ces champs d'huile en fonction des volumes en place avec un tracé de regression parabolique: la dispersion est énorme (de 0 à 80%) pour les petites accumulations avec une moyenne proche de 30%, pour les accumulations importantes (>10 Gb), la dispersion est moindre (10-50%) et la moyenne croît vers 40%.

La figure 13 présente le tracé du taux de récupération des quelques 800 champs d'huile dont les réserves sont supérieures à 100 Mb en fonction de la profondeur du réservoir.La régression parabolique (tracée par Excel 5) culmine vers 38% pour les profondeurs comprises entre 2000 et 3000m, ensuite sa valeur diminue avec la profondeur (<30% pour 5000 m) et devient nulle pour 6500m, ce qui est proche de la réalité.

Les 200 champs de gaz non associé avec des réserves supérieures à 1 Tcf montrent sur la figure 14 peu de variations avec la profondeur avec une moyenne de 75% avec une dispersion de 50 à 90%. La moyenne des champs de gaz associé et non-associé est de 66%.

L'étude de l'âge et de la lithologie du réservoir, ainsi que du style du piége montre qu'il n'y a pas de grandes variations (+ ou - 10%). Toutefois pour les champs d'huile les taux diminuent avec l'âge de la formation, alors que pour les champs de gaz ce serait plutôt le contraire. Les réservoirs clastiques sont meilleurs que les réservoirs carbonatés, les piéges stratigraphiques (beaucoup moins nombreux) meilleurs que les piéges structuraux.

Les champs à terre ont un taux légèrement inférieur à ceux en mer, mais les champs en mer profonde ont actuellement un taux inférieur à la moyenne.

Pour les champs d'huile, les pays tels que le Nigeria, la Grande Bretagne, l'Egypte, l'Australie, la Malaysie, l'Indonésie, l'Arabie Saoudite ont un taux supérieur à la moyenne. Pour le gaz ce sont ceux du Turkménistan, de l'Argentine, de la Malaysie et de l'Indonésie.

La figure 15 donne le pourcentage du nombre des 3300 champs ayant un taux de récupération supérieur à l'abscisse choisi. Ainsi seulement 10% des champs ont un taux de récupération supérieur à 45%, si on prend les 800 champs ayant des réserves supérieures à 100 Mb, le taux augmente à 50% et pour les champs supérieurs à 500 Mb (200 géants) à 57%: les grands champs ont un taux de récupération supérieur aux petits champs; on retrouve les résultats de la figure 12. Par contre si on prend la valeur médiane, 50% de tous les champs ont un taux supérieur à 30%, 50% des champs >100Mb un taux supérieur à 36%, et 50% des champs géants également un taux supérieur à 39%. Nous avons tracé la courbe pour les 312 géants de Roadifer (1987, mais estimation 1984). La courbe 1984 se superpose jusqu'à la valeur du taux de récupération de 30%, ensuitela courbe descend: il semble que le taux de 30% était un chiffre très utilisé, par contre la courbe des géants 1984 rejoint la courbe des géants 1996pour les taux élevés de plus de 50%. On voit donc de 1984 à 1996 une augmentation du taux, mais seulement pour la fourchette 30-55%.

Les mauvais champs et les très bons champs ne changent pas, ceux sont les champs moyens qui ont été améliorés.

Certains attendent beaucoup de l'amélioration des taux de récupération des champs d'huile pour augmenter les réserves, à défaut de nouvelles découvertes. Ils font souvent l'amalgame entre les valeurs moyennes (35%) et les valeurs maximum (80%) qui sont généralement la conséquence d'événements exceptionnels, sans chercher à comprendre pourquoi il y a des valeurs basses. Ainsi C.Allègre (1996) prévoit:"Aujourd'hui, on extrait en moyenne 20 % ou 30 % du pétrole. Avec l'imagerie sismique, on peut espérer, demain, extraire 80 % à 90 % d'un gisement". C'est aussi ridicule que de dire que demain tous les Francais mesureront 2 mètres car certains hommes atteignent cette taille.

La dispersion actuelle des taux de récupération est grande, car elle reflète la grande variété des qualités des champs, sans oublier toutes les accumulations qui ne sont pas économiques et qui ont un taux de récupération nul. En terme de statistiques, on pourrait ajouter toutes les accumulations à taux nul et la moyenne serait alors beaucoup plus faible. Mais il ne faut pas confondre réserves et ressources.

De plus les réserves publiées anticipent les récupérations améliorés et on ne peut guère espérer aller au délà: ainsi le plus grand champ au monde: Ghawar est crédité d'un taux de 60% alors qu'il n'a récupéré aujourd'hui que 24% et qu'il doit décliner d'ici l'an 2000, il a dû (ou va) dépassé son point milieu: un taux de 50% semble plus réaliste. Nous avons signalé précédemment le taux trop élevé de 50% de Samotlor et 40% semble plus réaliste. Il faut aussi prévoir une revision à la baisse (comme pour East Texas).

Les taux de récupération calculés à partir des chiffres publiés sont très souvent fort différents des chiffres internes, surtout de ceux des ingénieurs de réservoir, qui préfèrent se voir traiter de pessimistes quand les valeurs réelles sont meilleures que leurs prévisions que d'incapables quand les valeurs réelles sont inférieurs à leurs prévisions. Ils ne donnent donc que les valeurs minimum. La Mer du Nord est un bon exemple. Les ingénieurs de réservoir, prudents, ont prévu à l'origine un rendement plutôt moyen du balayage par l'eau. En réalité pour les bons réservoirs, le balayage par l'eau a été presque parfait (ne laissant pas d'espoir d'amélioration future par d'autres procédés type EOR). La Nature a été plus généreuse que prévu. Les bons taux de récupération maintenant atteints en Mer du Nord ne sont pas uniquement le résultat d'une meilleure technologie, mais aussi le résultat de la prudence des experts et d'une bonne géologie des réservoirs.

Le volume en place est calculé à partir des données de sismique et de forage, il ne change plus quand ces données ne sont plus améliorées par de nouvelles données de sismique ou de forage; par contre, les réserves sont très nettement améliorées par les données de production, surtout quand le champ décline. Avec les données nouvelles de production, le chiffre de réserve peut augmenter, alors que le volume de l'accumulation reste inchangé (pas de nouvelles données), le taux de récupération augmente donc, alors qu'il est possible que l'accumulation ait aussi augmenté (il faudrait pour cela faire de la sismique et des forages) et que le taux reste le même.

Enfin, dans les simulations de réservoir, maintenant couramment utilisées pour les champs importants, les réserves sont directement calculées sans se préoccuper de l'accumulation. Les ingénieurs de réservoir qui font des simulations ne sont pas très concernés par un tel taux: ils n'en ont pas besoin dans leurs calculs! Le taux de récupération est constaté, mais non utilisé par les producteurs. Le manuel IFP « Le gisement » par Cossé 1993 n’en parle que pour les statistiques mondiales. Toutefois pour montrer les progrès accomplis, ils font état d'augmentation du taux de récupération, preuve de leur efficacité, omettant parfois de dire que cela provient d'une générosité de la Nature. Cet oubli leur empêche d'expliquer parfois leur échec qui provient souvent de l'inégalité de cette même Nature: beaucoup de champs sont très médiocres et la meilleure technologie ne pourra rien pour l'améliorer.

Toute augmentation du taux de récupération au delà du taux actuel publié qui est en majorité le taux maximum théorique est en fait bien souvent du pétrole nonconventionnel, c’est-à-dire en principe non compris dans les chiffres publiés, si on applique les définitions généralement admises..

-7-Technologie

Certains articles laissent penser qu'une "augmentation des dépenses R&D" correspond à "plus d'innovation": l'exemple des années folles montre que cette relation n'est pas toujours vérifée. Les années 50 et 60 sont décrits par exemple (Alazard 1996) comme "techniquement routinières". Or, c'est durant ces années qu'ont été introduites les plus grandes innovations en sismique reflexion: le CDP (common depth point)(1962) et l'enregistrement magnétique (1957). La structure de Hassi Messaoud dans le socle et le Paléozoïque a été nivelée par la discordance hercynienne et recouverte par d'épaisses évaporites en position synclinale. Cette structure n'est pas visible en sismique réflexion où le dernier niveau réellement pointable se situe dans les évaporites et elle a été découverte grâce à la réfraction qui suivait le socle beaucoup plus énergique que les évaporites (bien que plus rapides). Si le Sahara était exploré seulement maintenant, la sismique dite moderne, qui se contente uniquement de sismique reflexion, ne la trouverait pas .

La sismique 3D date de 1966 (congrès AAPG San Franscico 1981) où les Chinois ont montré qu'ils avaient décelé 200 failles sur le champ de Shenli avec une 3D calculée par de nombreux géophysiciens équipés de bouliers. Les Américains ont attendu d'avoir des ordinateurs puissants pour faire ce même travail. En 1977 a été publiée une des premières cartes en amplitude, montrant en Thaïlande des chenaux: une 3D plus moderne a été retirée au même endroit en 1992: sur ces chenaux le progrès était faible. La sismique 3D demande des puits de calage pour être efficace. C'est un excellent outil de délinéation, mais on peut se demander s'il existe un seul gisement important (>100 Mb) qui a été trouvé uniquement grâce à la 3D et qui ne se voit pas en 2D. La 3D est très prisée en zone d'exploration intensive comme dans le Golfe du Mexique, car elle permet de mettre au panier toutes les campagnes antérieures qui posent toujours des problèmes de croisement (labo et topo différents). De plus lorsque l'écartement entre lignes devient faible il est plus économique de tirer en 3D qu'en 2D. Exxon (Greenslee et al 1994) reconnait:"We found that many surveys (3D) added little values to exploration and development activities".

Les diagraphies sont toujours aussi difficiles à interpréter: le champ de Cusiana a failli ne pas être découvert en 1988 car certains ne voulaient pas tester au vue des logs: ce champ avait été déjà raté en 1975-1976 par les deux forages de Tauramena (situés sur le champ) qui n'avaient (mal) testé que quelques barils d'huile!

Les progrès les plus importants depuis 1973 en exploration et production ont été notamment:

Mais on peut déplorer l'absence de progrès fondamental (sauf en géochimie). La sismique ne sait toujours pas à quoi correspond la "vitesse" (laquelle??) des ondes: il faut sans doute faire intervenir le contact des grains dans la roche, on parle de tortuosité! Cela ressemble à l'électron: on sait le déceler mais personne n'a jamais vu un électron: il n'y a plus de réprésentation imagée: c'est une probabilité!

L'ordinateur, esclave rapide, puissant, mais bête, a fait naître des espoirs (déçus) où la machine penserait pour l'homme. Heureusement la mode de l'intelligence artificielle est passée! Le plus grave est le phénomène GIGO: Garbage In, Garbage Out ou plutôt Gospel Out. Beaucoup croient que parce que l'ordinateur peut sortir plusieurs décimales, celles-ci sont vraies: ils ont perdu le sens du calcul d'erreur que l'on avait quand on utilisait une régle à calcul! La plupart du temps quand un résultat est donné avec plusieurs décimales, le chiffre des unités est faux. Dans la pratique pétrolière, les mesures sont obtenues avec une précision de l'ordre de 10%, jamais mieux que 1%: on ne devrait jamais donner plus de deux ou trois chiffres significatifs.

Le rapport DOE 1994 indique les réserves fin 1994 en Mb

Oil & Gas Journal World Oil:

monde 999 761 1 111 598
CEI 57 000 191 144
UK 4 517 15 492

il serait préférable vue la différence de ces nombres de donner les valeurs arrondis en Gb! En comparant ces chiffres on a des doutes sur la crédibilité de ces estimations.

La quasi absence de calcul d'erreur de la pratique pétrolière est aujourd'hui un signe de technologie défaillante. Le vrai challenge des années futures est la véracité des bases de données: plus elles sont importantes, plus elles sont invérifiables.

Le forage horizontal permet de produire des réserves (telles que l'huile de Troll) qui n'auraient pas été produites sans lui mais qui étaient déjà enregistrés comme réserves dés sa découverte (1,4 Gb en 1984). Il permet aussi de produire plus vite et plus économiquement (déport important) sans augmenter pour autant le chiffre (publié) des réserves. Une étude sur les puits horizontaux aux EU (Deskins et al 1995) indique que si le succès technique est rencontré à 95%, le succès économique ne l'est qu'à 50%.

La technique des forages intercalaires n'est pas nouvelle, elle permet de produire plus vite, mais rarement, si la structure a été correctement évaluée, d'augmenter les réserves.

Depuis 1973 pas une seule zone pétrolière significative (à savoir contenant plus de 6 mois de consommation mondiale soit 10 Gb) ne semble pas avoir été mise en évidence: la seule zone nouvelle est le Yémen (suite en fait de l'Arabie Saoudite, inexplorée pour des raisons politiques). Seulement 6 champs d’huile et 8 champs de gaz sur les 100 plus gros champs du monde ont été découverts depuis 1980.

En offshore profond, l'espoir des années 1970 (début du projet forage profond (GERTH) avec le premier bateau à positionnement dynamique) d'y découvrir un nouveau Moyen Orient dans des bassins entièrement nouveaux (sous le salifère de la Mediterranée par exemple!) a été déçu, seules certaines extensions de découvertes sur le plateau dans le profond ont été faites au Brésil (Campos), aux EU (golfe du Mexique) et en Norvège, sans doute demain dans l'Afrique de l'Ouest.

La courbe de découverte annuelles dans le monde hors EU+Canada de la figure 16 montre très bien le déclin des découvertes depuis 1960 pour l'huile, depuis 1970 pour le gaz, et depuis 1985 pour le nombre de découvertes.

Ivanhoe avait montré en 1983 que dans une zone pétrolière la quantité d'huile découverte par pied foré diminue de moitié tous les 10 ans. Tous les 10 ans il faut forer le double de mètres pour découvrir la même quantité d'huile. Cela correspond à un coefficient de complexité de 7% par an. Une autre façon de présenter la loi de rendements décroissants. C'est ce que l'on voit mondialement sur ce graphique.Les progrès technologiques permettent de diminuer ce déclin, nullement de prévoir une amélioration grâce à des innovations hypothétiques. Durant la décennie des années 30, les découvertes mondiales par membre de l'AAPG étaitent de 50 Mb (Laherrère 1996 d), elles ne sont plus que 5 Mb pour la décennie des années 80 avec une technologie bien plus puissante! On peut se demander si l'on n'a pas augmenté plus le nombre de "chercheurs" en chambre que d'"explorateurs" sur le terrain!

-8-Diminution des coûts

Certains experts extrapolent (ou suggérent une extrapolation linéaire) la diminution des coûts du passé dans le futur sans toujours préciser la cause de cette diminution. L'argument principal est que les coûts de la Mer du Nord ont diminué de 70% de 1983 à 1993 et que la durée du forage a été divisé par deux. Il est dangereux de prendre comme référence une valeur anomalique. Les années 1980-1985 ont été appelées les "années folles", on faisait alors n'importe quoi, car les études économiques avec une prévision de 50$/b permettaient toutes les folies. La diminution des coûts après le contrechoc de 1986 est principalement dûe à la diminution du prix des services et notamment des tarifs journaliers des appareils de forage. Pendant les vaches grasses, les contracteurs et les opérateurs prennent du gras, ils le perdent pendant les vaches maigres. Là encore l'exemple des EU est frappant (figure 17): le coût moyen du pied foré (toutes catégories) donne une excellente corrélation linéaire avec le prix moyen du brut ("wellhead") de l'année précédente pour la période 1953-1993 avec un coût maximum en 1982, puis mini en 1987, puis remaxi en 1991, puis rebaisse. On se retrouve actuellement avec un coût et un prix du même ordre qu'en 1980. Si on actualise les coûts et les prix avec l'indice des prix à la production (Megill 1995), le schéma est le même (relation linéaire) et les coûts oscillent pour les dernières années autour des conditions de 1988 On ne voit pas là d'amélioration notable attribuable à la technologie.

La diminution du nombre de jours d'un forage en Mer du Nord est en grande partie à mettre au compte de l'apprentissage (expérience), courbe bien connue dans les régions nouvelles. Il y a aussi sans doute une part non négligeable de technologie en Mer du Nord, mais pourquoi ne la voit-on pas aux EU?. Comme les taux journaliers des appareils de forage sont actuellement en hausse, est ce que la technologie va réussir à contrecarrer cette hausse?

-9-Découvertes et production

Les modèles ont fait de grands progrès, mais cela a démarré bien avant 1973! Le géologue King Hubbert avait dès 1956 annoncé que la production des EU (48 Etats) plafonnerait vers 1970 et aurait un déclin symétrique (courbe en cloche dérivée de la courbe bien connue dite logistique pour la croissance des populations par Verlhust en 1845). Tout le monde a souri, car le profil de production d'un champ est dissymètrique. Mais en 1970 la production des EU a décliné et maintenant on réalise qu'Hubbert avait globalement raison. D'abord l'addition d'un grand nombre de profils dissymétriques indépendants donne un profil symétrique (théorème de "central limite"). Ensuite pour la quasi totalité des pays producteurs, il y a (Campbell et al 1995) une bonne corrélation entre la courbe de production annuelle et la courbe de découvertes annuelles (backdated) décalée d'un certain nombre d'années (de 5 à 20 ans). La figure 18 montre pour les EU (48 Etats) que la courbe est en gros symétrique, avec des écarts qui correspondent toujours à des contraintes non techniques: 1930= dépression, 1955= proration, 1979= prix élévé du brut.

La CEI montre une excellente corrélation production-découverte (décalée de 15 ans) et la courbe de Hubbert calculée sur la période 1950-1990 montre un déclin moindre sur les dernières années que la réalité qui a subi les contraintes économiques et politiques connues de tous. Le déclin de la production russe risque de continuer suivant ce modèle, l'apport de capitaux occidentaux pouvant amener un replat temporaire. Les champs russes ont été soumis à des injections d'eau massives pour augmenter au maximum la production, le redéveloppement sera difficile. Il sera difficile en l'absence de nouvelles grandes découvertes encore possibles (?) de contrarier ce déclin. L'AIE (1996) prévoit une production pour la CEI de 3,6 à 3,75 Gb en 2010: ce qui semble peu probable, sauf découverte spectaculaire et investissement considérable de l'Ouest!

La France (figure 19) montre une corrélation pour un décalage de 7 ans (Laherrère 1996 a): le creux de production des années 1975 correspond au creux de découvertes de la fin des années 60; le pic de production autour de 1990 correspond au pic de découvertes de 1984. Lorsqu'il y a peu de champs et de bassins, les découvertes présentent plusieurs cycles.

Quand il y a beaucoup de champs et de bassins; le cycle est unique, comme pour les EU et la CEI. La plupart des cycles de découvertes sont symétriques, comme les cycles de production: cela se voit très bien en France.

On sait l'importance de la prévision de la production mondiale de brut pour l'économie. Il faut d'abord bien distinguer les pays qui produisent au maximum de leurs capacités (donc présentant de bonnes conditions de prévision) et les pays qui font l'appoint au grè de la politique ("swing producers"), aujourd'hui au nombre de 5: Arabie Saoudite, Kowait, Iran, Irak et Abu Dhabi. Ces "swing producers" sont à la remorque de l'Arabie Saoudite qui en 1985 a conclu un accord tacite avec les EU (voir le livre Victory de P.Schweizer 1994, et le discours d'Hodell AAPG 1995): pétrole bon marché contre protection américaine. Le prix du brut est essentiellement politique. Méo écrit en 1993: "qui contrôle Dahran, contrôle le développement industriel du monde", "son prix (du brut) échappe totalement aux lois de marché et appartient de ce point de vue au royaume de l'Absurdie". Browne en 1994: "oil prices are driven by politics, not by economics, and there is no sign that that is about to change"

Beaucoup pensent qu'un nouveau choc pétrolier n'est pas possible car si cela arrivait, comme en 1979 on fera appel aux non-OPEP, à savoir au monde hors producteurs d'appoint. La figure 20 montre la corrélation production et découverte (décalée de 15 ans) de ce monde hors producteurs d'appoint, ainsi que le modèle d'Hubbert.

On peut noter la bonne concordance entre les prévisions de déclin à partir de 1990 et la courbe de découverte: en 2010 ce modèle prévoit une diminution de l'ordre de 10 Mb/d par rapport à aujourd'hui, alors que les scénarios optimistes du style "tout va très bien Madame la Marquise" AIE, WEC, UE, prévoient une augmentation, au pire le maintien de la production russe actuelle..

-10-Contraintes financières, d'environnement et de temps

Même si la technologie permettait d'augmenter les performances de l'exploration et de produire une partie plus importante de l'huile qu'on laisse dans les gisements actuellement, cela demanderait des investissements considérables. Il est surprenant de constater que peu d'articles sur la production future de 2010, qui pourrait satisfaire sans problème la demande sans augmentation notable du prix du brut, sont cautionnés par les financiers. Pourtant une conférence récente organisée à Dubai ("Oil and gas project conference in the Middle East" mai 1996) (Laherrère 1996 c) réunissant la plupart des banquiers impliqués au Moyen Orient a reflété le pessimisme de la finance sur le développement de cette région.

Les chiffres couramment cités dans la presse sur le coût des nouveaux projets importants dans le monde se situent dans la fourchette de 10 000 à 20 000$/b/d: Orénoque, Athabasca, offshore profond du Golfe du Mexique, mais aussi ceux du Moyen-Orient: Al-Fathi (1994) parle de 160 G$ pour ajouter 10 Mb/d en 2000 soit 16 000$/b/d. Ceux qui parlent de pétrole bon marché au M.O. parlent du passé!

Ce n'est pas avec un pétrole à moins de 25$/b en 2005 (prévision AIE) que l'on pourra financer de tels investissements. En France un litre d'eau minérale est vendu hors taxe aussi cher qu'un litre d'essence, aussi n'est-il pas surprenant de voir la capitalisation boursière des sociétés de luxe ou d'alimentation supérieure à celles des compagnies pétrolières. Qui financera les investissements pétroliers?

En exploration, avec la loi des rendements décroissants, il faut toujours plus d'activité pour découvrir moins. On ne peut espérer dans la période qui couvrira la production économique d'un bassin tout découvrir. Il faut se fixer une limite de temps et d'activité. Quand le Trans-Alaska Pipeline System s'arrêtera pour des raisons économiques (200 000 b/d?) il restera de 0,5 à 1 Gb de réserves (comptabilisées) (Bird et al 1995) qui ne seront pas produites.

On oublie aussi les contraintes d'environnement qui se traduisent aussi par un délai en temps important. Il est évident qu'il y a des ressources considérables de pétrole non-conventionnel non comptabilisées dans les chiffres officiels de réserves: la technologie est là (surtout les forages horizontaux pour l'Orénoque et l'Athabasca), l'économie n'est pas loin (surtout par la fiscalité au Canada). Le problème est que ces réserves demandent des installations de surface importants, car la productivité par puits est faible (cent fois moins qu'en bon offshore). On ne peut créer de telles installations qui demandent une présence humaine importante en un temps réduit.

-11-Pétrole non-conventionnel

Le pétrole non-conventionnel était défini à l'origine comme celui de l'Arctique, des grands fonds (>200m), du bitume (>10 000 centipoises), de l'EOR (Enhanced Oil Recovery qui nécessite un changement de l'état du fluide: thermique, solvant, polymère), des réservoirs compacts, des gaz de charbon, des gaz dissous à fortes pressions et des hydrates de méthane. Les "schistes" bitumineux ne sont qu'une roche-mère immature et ne font pas partie de la famille du pétrole. L'USGS définit maintenant le non-conventionnel comme les "accumulations de type continu" au contraire des champs classiques qui ont un contact défini plan eau-hydrocarbures. Ces définitions ne résistent pas à la pratique: dès qu'un champ a été mis en production même avec des procédés dits non-conventionnels, il est classé dans le "conventionnel": Hassi Messaoud en injection de gaz miscible, Marlim en eaux profondes, Prudhoe Bay dans l'Arctique..Le non-conventionnel est en fait le non-économique pour le moment: c'est le pétrole à plus de 25$/b.

Notre génération a connu de nombreux mirages: les nodules des fonds des mers, l'intelligence artificielle, les surgénérateurs, la confection de produits dans l'espace,.... Il y en a un qui subsiste et qui est uniquement hypothétique: les hydrates de méthane des fonds océaniques. Comme le Congrès Mondial de l'Energie de 1995 à Tokyo (Nakicenovic et al) considére que les hydrates représentent un potentiel de ressources supérieur à tous les combustibles fossiles réunis (18700 Gtoe), il semble nécessaire de faire le point. Les hydrates de méthane sont une combinaison d'eau et de méthane qui sont solides comme de la glace. Ils sont bien connus dans les gazoducs où ils se forment et il faut dépenser beaucoup d'efforts pour s'en débarrasser.

A terre, les hydrates existent dans les sédiments du pergélisol (permafrost) dans l'Arctique canadien, américain et russe. Les Russes ont prétendu produire le champ de Messoyakha en Sibérie à partir des hydrates dans les années 1970.Avec la perestroika, le meilleur expert russe sur les hydrates Ginsburg (1993) nie la présence d'hydrates dans la production de Messoyakha. Sur la North Slope d'Alaska, les forages n'ont pas réussi à évaluer le volume d'hydrates, réduits à des passées centimétriques (Dallimore et al 1995). De toute façon il faut apporter de l'energie pour les produire: chaleur ou solvant.

Dans les océans, il y a eu la réunion de deux concepts et de deux cultures: d'abord par un scientifique russe sur la stabilité des hydrates pour des conditions de température et de pression que l'on rencontre dans les sédiments des fonds océaniques, ensuite sur la présence d'un horizon sismique suivant à environ 500 ms le fond de la mer et appelé "BSR" ou "Bottom simulating reflector" décelé par les geophysiciens américains du projet JOIDES (Joint Oceanographic Institutions for Deep Earth Sampling). Ceci a conduit à penser que le BSR était la base d'hydrate compact remplissant les 600 premiers mètres des fonds océaniques et servant de couverture à du gaz libre. Depuis sa création en 1961, tous les comités JOIDES (maintenant ODP) sont régis par des universitaires, sauf le Safety Panel qui réunit des pétroliers pour garantir que les forages proposés ne rencontreront pas d'hydrocarbures car l'appareil de forage le Glomar Challenger n'avait pas de dispositif anti-éruption. L'un des auteurs a représenté la France dans ce panel. Les règles étaient simples: on ne fore pas à travers la BSR car il doit y avoir du gaz libre dessous. De nombreux forages JOIDES ont signalé la présence d'hydrates, toujours centimétriques dans les carottes (sauf un banc de 3 m sur log), sans aucune corrélation entre les hydrates et le BSR. De nombreux articles (notamment Science et Vie en 1985 et en 1992: "Du pètrole pour 1000 ans au congélateur") parlaient de réserves considérables d'hydrates, avec des effets inédits. Les disparitions de bateaux (et d'avions) du triangle des Bermudes étaient expliqués par des bouffées de gaz en provenance des fonds océaniques (McYver 1982). En fait il est impossible pour du gaz de remonter des grandes profondeurs: il serait dissous avant: cela ne se passe que pour les faibles profondeurs où la rencontre de gaz peu profonds avant la pose des BOP a fait sombrer de nombreux bateaux (qui coulent quand flottant sur de la limonade!).

Enfin un nouvel appareil de forage en provenance des pétroliers (ex SEDCO-BP) a permis de forer ce BSR, notamment en décembre 1995 au large de la côte Est des EU:le leg 164 sur les hydrates du Blake Plateau. Les résultats ne correspondent pas aux espoirs (ODP 1996): quelques passées d'hydrates avec un maximum de 30 cm et deux forages voisins de part et d'autre où disparait le BSR n'ont trouvé aucune différence. On ne sait toujours pas l'origine du BSR (les logs sont mauvais car cavés) qui doit être diverse. On ne parle plus que de quelques % d'hydrate et de 1% de gaz dissous.

La raison est toute simple, tout gaz généré dans les sédiments profonds est aussitot transformé en hydrate solide: il ne peut migrer et se concentrer. Les hydrates des fonds océaniques sont dispersés, absolument inexploitables, comme l'or dissous dans les mers océaniques, bien que représentant la plus forte quantité d'or dans un même élément. Les ressources d'hydrates sont un mythe, entretenus par des universitaires (et des journalistes) en manque de sujets exotiques. Au dernier congrès international des hydrates à Toulouse, les Japonais (Okuda 1996) ont annoncé un programme de recherche important sur la production des hydrates océaniques, avec forage en 1999 au large du Japon: est-ce que ce sera comme la 5e génération d'ordinateurs?

Conclusion

Les difficultés soulevées par l'analyse de la situtation pétrolière, et tout particulièrement l'estimation des productions futures, pourtant indispensable, reposent en très grande partie sur la qulaité des données prises en compte. Et sur ce sujet, il faut bien reconnaître que les choses sont loin de nous donner satisfaction. Le cpnsensus sur les définitions comme sur la méthodologie est encore loin. Le caractère officiel de certaines données n'est pas nécessairement la garantie de leur véracité. Loin s'en faut. Les anomalies qu'elles recèlent risquent ainsi de parasiter toute étude les prenant pour base.

Aussi l'une de nos premières préoccupations doit être de veiller à la fiabilité de ces données élémentaires. Il importe, par ailleurs, dans ce genre d'études d'appréhender la situation dans sa globalité, d'intégrer l'expérience du passé en prenant en compte l'ensemble des facteurs, dans un esprit de constante critique.

Ce n'est pas être pessimiste que de se vouloir réaliste et de garder un certain esprit critique.

D'une façon réaliste, nos prévisions présentent le scénario suivant: le pic du pétrole "conventionnel" (25 Gb/a) se situerait autour de 2000, le pic gaz "conventionnel" (130 Tcf/a) autour de 2020, et le pic de la population mondiale (9 Ghab) autour de 2050 (le pic de population des pays industriels se situant vers 2010). Ce scénario est basé sur un modèle simple qui s'adapte le mieux aux données les plus crédibles et les plus récentes. Le décalage des pics (offre et demande) sous-entend un choc pétrolier dans un avenir relativement proche. Il devrait permettre de diminuer la demande et d'augmenter l'offre (pétrole non-conventionnel principalement) pour pouvoir la satisfaire. Il est très différent des scénarios officiels qui comptent en 2010-2020 sur les hydrocarbures et leur technologie pour satisfaire la demande sans problème de prix, en laissant le nucléaire mondial à un niveau bas (6% de l'énergie totale) (sauf en France). On ne peut avoir à la fois satisfaction des besoins en energie et prix bas. La société américaine (et russe) est basée sur un coût bas de l'énergie et devra évoluer. On ne peut avoir éternellement une croissance continue et une énergie bon marché.

Nous sommes convaincus que, dans la grande quête actuelle des ressources restant à découvrir et à mettre en valeur, le progrès technique est indispensable pour repousser les frontières du possible, tant sur le plan de notre savoir faire qu'en abaissant les coûts opératoires. Il est indispensable de poursuivre l'effort de recherche. Mais il ne faut jamais oublier que l'efficacité du progrès technique passe par le travail quotidien de techniciens expérimentés, imaginatifs et déterminés. Au delà des facteurs techniques, les qualités humaines de l'explorateur et du producteur demeurent fondamentales.

Comme le disait tout récemment, au dernier congrès AAPG à San Diego, John Masters, le découvreur du plus grand champ de gaz du Canada: Elmworth: "Technology has its role and I don't mean to diminish it -but the world is changed by dreamers"

-Remerciements

Les auteurs remercient Petroconsultants qui a permis la présentation de la plupart de ces planches à partir de sa base de données et de ses rapports.

References: