vendredi 30 octobre 2009

Les Galbraith convertis au libéralisme européen ?

La famille Galbraith serait-elle devenue libertarienne ? C’est la question que l’on peut se poser au vu du titre de l’ouvrage de James (le fils de John), intitulé «l’Etat-Prédateur »[1]. Cette charge violente semble en effet annoncer des convergences inattendues avec l’analyse libérale classique. Pour Galbraith Jr, l’Etat (sont visées ici les démocraties libérales contemporaines) n’est autre que l’instrument privilégié des grandes corporations pour extorquer le maximum d’avantages et de profits à l’encontre des opprimés qui représentent la majorité de la population. Cette thèse post-marxiste entre en résonnance avec l’analyse libérale de la formation historique de l’Etat comme institutionnalisation de la domination d’une caste violente sur le peuple (que l’on pense à la féodalisation, où la noblesse assoit son pouvoir en échange de service de sécurités ; ou encore à l’approche d’un Hoppe sur l’Etat comme instrument aux mains des fonctionnaires exploitant les contribuables…).

Ne nous leurrons pas : ces convergences trouvent vite leurs limites, car Galbraith n’en tire pas la conséquence qu’il faut limiter le pouvoir de l’Etat. Selon lui, en effet, c’est par l’intermédiaire de l’économie de marché que l’Etat maximise son entreprise d’exploitation. Pour y mettre fin, il conviendrait de rejeter cette idéologie du marché libre, pour lui substituer une nouvelle planification, c'est-à-dire le contrôle de l’Etat sur l’économie. Par quel mécanisme l’Etat-«méchant» qui manipule le marché se transforme-t-il en un Etat-«bienveillant» qui planifie et redistribue, c’est ce que nous n’apprendrons pas dans l’article cité en note.

Ceci posé, on pourrait se demander pourquoi la planification n’est pas une démarche libérale. Dans le cadre de l’économie de marché, il est évident que chaque agent planifie l’essentiel de ses actions, l’hypothèse de rationalité (si l’on excepte des situations exceptionnelles comme les bulles spéculatives) semblant la plus adaptée pour expliquer les comportements. Pourquoi ce qui est nécessaire à un agent quelconque est-il non pertinent pour l’Etat ?

A l’évidence, l’Etat n’est pas un acteur économique comme les autres. D’une part son objectif premier n’est pas la maximisation du profit, mais la réalisation de projets politiques plus ou moins clairs, susceptibles d’évoluer au gré des circonstances. D’autre part, il s’appuie essentiellement sur la contrainte (réglementation, fiscalité), et n'est donc pas soumis aux règles habituelles du marché.

Comme montré par l'analyse économique, la planification n’est pas viable pour deux raisons :

1/ la capacité des agents à s’adapter face aux intentions affichées par l’Etat (anticipations adaptatives). Car si la planification n’est qu’indicative, elle se résout à un service des études. Mais si elle adopte un caractère impératif, elle se heurte aux réactions des agents. On sait par exemple qu’une politique de change clairement affichée rend les Banques Centrales vulnérables à la spéculation.

2/ le caractère ouvert de l’environnement. Le socialisme dans un seul pays est peut-être possible au prix d’une formidable machine répressive. En économie ouverte, c’est une impossibilité totale. La planification ne peut être que mondiale ou elle ne sera pas. Pour l’heure, on voit à quel point les divergences d’intérêts et de point de vue rendent quasi-impossible la simple coordination des Etats.

Même pour un agent privé, la planification fait de moins en moins sens à mesure que s’élève le niveau de complexité. Le coût d’acquisition de l’information mais surtout le degré d’incertitude tendent alors à croître de manière exponentielle. En situation d’incertitude élevée, plus qu’une planification rigoureuse, c’est la capacité à dégager une vision stratégique doublée d’une habileté tactique dans le pilotage de crise qui s’impose. D’où plutôt que la planification, des techniques comme le management par objectifs qui ne prétendent pas encadrer la totalité du réel dans un paradigme unique.

L’expérience montre que l’économie de marché n’a pas à rougir de ses performances même dans les domaines où elle est le plus critiquée, tels l’environnement ou les inégalités sociales. L’expérience montre aussi qu’a contrario les tentatives de planification déclenchent davantage d’effets pervers qu’elles ne résolvent de problèmes. Le retour aux vieilles lunes planificatrices n’est vraisemblablement pas le meilleur moyen de mettre fin à l’Etat-prédateur. Non, hélas, pas plus que son père, Galbraith Jr, n’est devenu un libéral européen…

lundi 26 octobre 2009

Crise du lait

La crise du lait illustre une nouvelle fois toutes les difficultés de l’économie administrée. Rationnement par les prix, par les quantités, subventions, aides à la personne, incitations… quelles que soient les tentatives de réforme, la politique agricole semble voguer de crise en crise depuis plus de 25 ans. Aucun autre secteur de l’économie que l’agriculture pourtant n’est davantage encadré et soutenu.

Les justifications habituelles des politiques agricoles sont rarement convaincantes. On met ainsi en avant :

· Des arguments d’utilité : Certes la sécurité alimentaire représente une priorité de toute collectivité humaine. Reste à savoir de quelle manière l’assurer…

· Des arguments sociétaux : l’importance de l’agriculture pour le monde rural, les paysages et l’environnement, dont l’importance va au-delà de la seule rentabilité de la filière agricole. S’il est vrai que le monde rural a subi un traumatisme sans précédent, l’agriculture représentant encore un tiers des emplois avant guerre contre 4,5% aujourd’hui, cette évolution commune à tous les pays développés ne constitue que la continuation d’un processus engagé depuis le 18e siècle (l’agriculture représente 80 à 90% des emplois en 1789).

· Des arguments plus économiques : la demande étant supposée peu élastique aux prix, le marché est extrêmement volatil, une faible variation de l’offre entraînant de larges fluctuations d’ajustement. Cela n’est pas le seul fait de l’agriculture, et peut se traiter par des instruments appropriés (marchés à terme, contrats-cadre, assurances, etc) dans le cadre d’une économie de marché développée.

Il nous semble plus juste de prendre en compte l’influence des lobbies agricoles et ruraux ainsi que leur poids électoral. Un peu partout dans le monde, les électeurs ruraux sont surreprésentés par rapport aux urbains, qu’ils s’agissent d’élections locales ou parlementaires. Les ruraux bénéficient ainsi par tradition de puissants relais politiques (ce qui n’empêche pas le sentiment d’exclusion dont souffre le monde rural, face à l’évolution d’une société qui lui devient de plus en plus étrangère).

Après le traumatisme de la deuxième guerre mondiale et de la pénurie alimentaire qu’elle a engendrée, les gouvernements croient trouver leur salut dans le contrôle du secteur. Une vision erronée ? Il est vrai que la mise en place à l’échelon européen de la Politique Agricole Commune en 1962 consistant pour l’essentiel en une garantie des prix n’a fait que progressivement apparaître ses effets pervers (stérilisation des structures et surproduction). Ceux-ci deviennent évidents au début des années 1980 avec le gonflement des excédents. Pour les résorber, des quotas sont instaurés en 1984. Si la question sort de l’actualité immédiate pour quelques temps, les problèmes ne vont resurgir qu’avec plus de force dans les années 1990.

Au cours de cette décennie en effet, au vu du coût exorbitant de la PAC (45% du budget européen), les tentatives de réforme visent à se rapprocher des mécanismes de marché. Les prix sont progressivement libérés, avec en contrepartie la mise en place d’aides directes aux exploitants. Cette logique d’assistance se développe avec le train de réforme de 2003, qui instaure un découplage croissant entre la production et le montant des aides. Des raisons d’opportunités (le scandale des « gros chèques » versés aux exploitations les plus importantes, et aussi la volonté de contourner les règles de l’OMC mises en place en 1994) se sont ajoutées à des considérations structurelles : l’aide à la production encourage la concentration des exploitations, alors que la priorité affichée en faveur de l’environnement et de la fonction « sociale » en milieu rural de l’agriculture militerait pour un arrêt du processus de concentration.

Quoiqu’il en soit, les mécanismes d’assistance, une fois lancés, ne cessent d’enchaîner les effets pervers. L’aide à la production génère un productivisme gaspilleur et ravageur. Passe-t-on à un système déconnecté de la production ? L’agriculteur devient un assisté permanent enfermé malgré lui dans une logique d’infantilisation. Dans une large mesure les politiques d’assistance ne résolvent rien car l’aide se retrouve capitalisée dans le prix des terres (voire des facteurs de production). Les agriculteurs qui s’installent aujourd’hui sont pénalisés et fragilisés en conséquence par un endettement excessif, qui les met en difficulté au moindre retournement de conjoncture.

Les limites de l’exercice sont maintenant évidentes : entre 2005 et 2008, la planète est au bord de la crise alimentaire car les gouvernements favorisent de manière artificielle les biocarburants qui réduisent l’offre alimentaire et notamment les excédents disponibles pour l’exportation ; cette période est immédiatement suivie d’une baisse brutale de la demande due à la crise financière, qui entraîne une chute des prix, et donc des revenus des agriculteurs incapables d’y faire face.

Le désarroi du monde rural est bien compréhensible. La solution ne consiste pas à revenir à l’encadrement des prix et à l’assistanat généralisé. C’est bien au contraire une modernisation accélérée du monde rural qui est nécessaire aujourd’hui. Le passage à une agriculture plus extensive, plus solide car mieux capitalisée, et mieux intégrée dans son environnement international, est indispensable. Une révision drastique de la PAC s’impose à nouveau, qui visera à faire de l’agriculteur un véritable entrepreneur plutôt qu’un assisté permanent.

mardi 20 octobre 2009

La catastrophe du New Deal

A l’heure où s’esquisse une timide sortie de crise, les voix qui réclament un nouveau New Deal se font moins pressantes. Et sans doute à juste titre : le New Deal n’a pas été autre chose en effet qu’une catastrophe économique.

Tous les paramètres macro-économiques convergent dans le même sens. Alors que les dépressions du 19e siècle se caractérisaient par leur brièveté, la grande crise ouverte en 1929 ne s’est véritablement terminée qu’en 1946 (on ne peut considérer l’économie de guerre entre 1941 et 1945 comme une période de « prospérité », la réduction du chômage n’étant due qu’à une conscription massive). Lorsque Roosevelt prend ses fonctions en 1933, le chômage atteint le niveau de 28%. En 1939, il était encore de 17% (après une baisse à 14% en 1937). Son taux moyen s’établissait à 18% entre 1933 et 1940. Le PIB par tête était en 1939 inférieur à celui de 1929 (847 USD contre 857 USD). L’investissement net privé était inférieur en 1940 à son niveau de 1930. Il a même été négatif en 1937 !

Ces résultats se comparent défavorablement à ceux d’autres pays. Le taux de chômage de la Grande-Bretagne était revenu à 10,3% en 1937. Quand au Canada, s’il avait souffert d’un taux de chômage inférieur de 3,9% au taux américain entre 1929 et 1933, la situation était renversée entre 1934 et 1940, avec un taux de chômage aux Etats-Unis en moyenne supérieur de 5,9% au taux de son voisin du Nord !

Ces chiffres désastreux s’expliquent par une erreur d’analyse. Pour Roosevelt (comme pour Hoover avant lui), le chômage est causé par un niveau des prix insuffisant. Le New Deal se déploie donc dans trois directions principales : la cartellisation de l’économie, le maintien des salaires à des niveaux artificiellement élevés, et l’augmentation des dépenses publiques.

Du côté de la cartellisation, le National Recovery Act amène à la création de codes sectoriels qui réglementent sévèrement l’activité. Les prix sont fixés en grande partie administrativement, et le jeu de la concurrence amoindri, d'où la conséquence inéluctable d'une baisse du niveau de la production. Parallèlement, le pouvoir est amené à créer une police spéciale de surveillance, qui transforme les industriels en délinquants potentiels. Le cas d’un tailleur du New Jersey emprisonné pour avoir vendu ses costumes quelques cents en dessous du prix minimal imposé est resté célèbre. Ce climat anti-business n’est guère favorable à l’investissement, ce qui se traduit en 1937 par un investissement net négatif.

Plus décisive encore apparaît la politique salariale, co-gérée avec les syndicats au sein de négociations de branches obligatoires. Alors que le taux de chômage dépasse tout ce que l’Amérique avait connu dans son histoire, les salaires minimaux sont remontés au-dessus du niveau du marché. Aucune distinction n’est établie suivant le niveau de qualification du personnel. Bénéficient de cette politique les salariés syndiqués (salaires élevés, meilleure sécurité de l’emploi, etc) mais les plus pauvres restent exclus. Ainsi la différence de salaire moyen entre syndiqués et syndiqués, qui ne dépassait guère 5% en 1933, s’élève-t-elle à 23% en 1940. L’élévation du coût du travail, l’encouragement aux grèves (28 millions de jours de grève en 1938), le développement d’une réglementation tatillonne, tout cela décourage massivement l’embauche, ce qui se retrouve dans les chiffres du chômage.

Le troisième volet du New Deal, l’augmentation des dépenses publiques, n’est pas une nouveauté absolue puisque Hoover avait déjà initié cette tendance (après une première hausse de 9% des dépenses en 1930, la croissance continue, au point que le déficit du budget fédéral représente 4,5% du PIB en 1933). Le déficit moyen s’établit à 5,1% du PIB entre 1934 et 1937. Tout cela ne suffit pas à empêcher une nouvelle aggravation de la crise en 1937 et 1938. Seule l’économie de guerre changera la donne, encore qu’il soit difficile dans ces conditions de parler d’un retour à la prospérité (le chômage baisse de seulement 7 millions de personnes entre 1940 et 1944 alors que l’armée enrôle 10 millions de soldats !). Pour contenir le déficit, les taux marginaux d’imposition sont placés à des niveaux prohibitifs, avec les effets désincitatifs que l’on connaît.

Ce rapide survol du New Deal ne laisse pas de doute quant à la réalité de l’échec économique. Cela n’a pas empêché Roosevelt de jouir d’une popularité élevée, qui lui a permis au rebours de toute la tradition constitutionnelle de se faire élire quatre fois de suite. Les raisons tiennent sans doute à des facteurs personnels (l’habileté politique de Roosevelt, son charisme personnel), à la mobilisation des mass-medias (la radio se développe véritablement à cette époque), mais surtout au développement des emplois et prébendes publics. Avec la raréfaction des emplois privés, les Démocrates savent jouer de cet avantage en termes électoraux, que les Républicains sont mal à l’aise pour contrecarrer. Là réside sans doute la seule vraie réussite du New Deal.

jeudi 15 octobre 2009

La querelle des Biens Publics

Nous terminons ce petit tour d’horizon des « défaillances du marché » avec la question des biens publics. Depuis Samuelson, on définit un bien public comme possédant deux caractéristiques : non-rivalité (la consommation du bien par un consommateur additionnel s’effectue à un coût marginal nul) et non-excluabilité (le bien une fois produit ne peut être réservé à une certaine catégorie de consommateurs, tout le monde peut en disposer gratuitement). Selon Samuelson, le marché ne peut produire efficacement ces biens publics en raison du phénomène de passager clandestin : chacun attend que quelqu’un d’autre engage les frais nécessaires à la production pour pouvoir en disposer soi-même gratuitement. Ainsi, bien qu’une véritable demande existe, la production reste sous-optimale.

Les exemples classiques vont du phare aux services de pompiers, en passant par la police. Et cependant, malgré son caractère d’évidence, la notion ne va pas de soi. Les services habituellement fournis par l’Etat tels que la poste, les chemins de fers, ne répondent pas à cette définition et sont donc des biens privés. En sens inverse, des biens traditionnellement considérés comme privés peuvent partiellement répondre à cette définition (on retrouve ici la question des externalités) : un jardin bien entretenu visible de la rue, l’apparence agréable d’une élégante,… tout cela peut s’interpréter comme un bien public, alors que nul n’invoque le besoin de l’intervention de l’Etat pour le fournir.

On ne peut donc déduire de la nature d’un bien qu’il doit être produit par l’Etat. Historiquement, beaucoup de biens considérés comme publics aujourd’hui ont été privés à l’origine (c’est le cas de l’exemple emblématique des phares, qui furent d’abord privés au 18e siècle en Angleterre…, mais aussi de la poste, de l’assistance aux pauvres, des télécommunications,…). Autrement dit, le marché est parfaitement capable de produire des biens publics. Plusieurs facteurs concourent à brouiller la limite entre les catégories. L’évolution de la technologie peut faire évoluer un bien d’une catégorie à l’autre. Par exemple, les logiciels propriétaires qui pouvaient naguère être copiés sans frais peuvent aujourd’hui être bloqué en cas de reproduction illicite ; les signaux hertziens peuvent être brouillés et nécessiter un décodeur, etc. De même, l’évolution du régime des droits de propriétés peut modifier la nature d’un bien : avec la privatisation d’une rue, le droit de contempler les jardins attenants prend ipso facto un caractère privé. Hans Hermann Hoppe va plus loin en montrant que le caractère d’un bien change dès lors que ce bien devient valorisé (fait l’objet d’une demande). Il se peut que personne ne se préoccupe de mon jardin, bien que visible de la rue. A la suite d’une mode, ou d’un changement de saison, ce jardin peut d’un seul coup acquérir de l’intérêt aux yeux d’un grand nombre de personnes. De bien purement privé, il prend ainsi un caractère public en ce qu’il procure une utilité à un nombre indéfini de personnes qui n’ont pas de droit sur lui. Le caractère public ou privé d’un bien devient dès lors une notion fluctuante et subjective. En pratique, répétons que l’évolution de la technologie et /ou des mentalités fait qu’une grande variété de biens considérés comme publics il y a quelques décennies sont aujourd’hui entièrement fournis par le privé (télécommunications, transports, etc).

Le principal argument des théoriciens de la défaillance des marchés s’effondre de lui-même : les marchés sont tout à fait capables de produire des biens publics. Mais peuvent-ils le faire en quantité optimale ? L’Etat doit-il intervenir pour en réguler la production, dans la mesure où elle ne serait pas suffisante ? Là-encore se pose la question de la révélation des préférences. Du fait du syndrome du passager clandestin, on pourrait argumenter que la demande réelle n’est pas mesurable. En réalité, il n’est pas clair de savoir pourquoi les biens publics devraient être produits s’ils ne le sont pas dans les faits. Qui en décide ainsi, sinon le jugement subjectif de l’économiste ou de l’homme politique, sans aucune forme de validation concrète ? Même si le bien public peut avoir un effet positif pour une certaine catégorie de consommateurs, il peut en avoir un effet négatif pour d’autres. Comment faire la synthèse ? Comment s’assurer que les ressources dépensées dans sa production ne peuvent pas être utilisées plus efficacement ailleurs ? Nous sommes renvoyés à la seule mesure exacte de la révélation des préférences, qui est l’analyse des transactions prenant place sur un marché libre. Or, lorsqu’on laisse au consommateur le choix, il préfère le bien privé (pour lequel il dépense ses propres ressources) au bien public (pour lequel il attend hypothétiquement qu’un autre ou l’Etat prenne à sa charge la dépense), qu’il est censé désirer mais sans engager aucune action concrète afin de l’acquérir. L’observation montre dès lors que le bien public non produit a moins de valeur pour le consommateur que les ressources qu’il lui faudrait engager pour en bénéficier. Le concept du passager clandestin n’est qu’un faux concept servant à surestimer la demande réelle pour les biens publics. Parler d’ »imperfection » du marché à ce propos ne fait pas de sens.

Nous espérons avoir montré, en résumé, que les arguments traditionnels avancés pour parler de l’imperfection des marchés ne résistent pas à l’analyse. Imperfection il y a au sens où les marchés ne dégagent pas nécessairement des conséquences conformes aux choix moraux ou éthiques de l’économiste, voire à ses anticipations personnelles. Mais l’analyse strictement économique, qui trouve en elle-même ses propres critères, ne peut prouver que les marchés défaillent. Du terrain de l’efficacité, le débat se trouve porté sur le plan éthique et moral, un terrain où les critiques de l’Etat interventionniste ont aussi de solides arguments à faire valoir.

vendredi 9 octobre 2009

La chasse aux monopoles

Nous poursuivons notre tour d’horizon des présumées défaillances du marché avec la question des monopoles. Voilà un bien vilain mot qui réussit l’exploit de mettre tout le monde d’accord contre lui, des marxistes aux libéraux. Cette unanimité pourrait conduire à suspecter un phénomène de bouc émissaire, peu justifié en fin de compte…

Commençons par résumer la position traditionnelle. Pour les néo-classiques, le monopole apparaît lorsqu’une entreprise contrôle toute la production d’un bien. Dans le but de maximiser son profit, elle va produire jusqu’au point où la recette marginale égale le coût marginal mais, compte tenu de la forme de la courbe de demande, proposera un prix plus élevé que le coût marginal (niveau qui aurait dû résulter logiquement du marché concurrentiel). On comprend notamment que dans les secteurs où les coûts sont décroissants, l’entreprise leader pourra facilement acquérir une position monopolistique. Au final, les monopoles délivrent un volume de production inférieur à des prix plus élevés que ne le feraient des entreprises en situation de concurrence pure et parfaite. Ils sont donc nuisibles au bien-être du consommateur et doivent être combattus à ce titre.

Comment une firme peut-elle obtenir une position de monopole ? Pour les économistes néo-classiques, les entreprises tentent d’ériger des barrières à l’entrée pour dissuader les entrants potentiels, et augmenter leur « surplus » de monopole (différence entre le profit en concurrence et celui dégagé par le monopole). Comptent comme barrière à l’entrée les économies d’échelle, la différenciation des produits, la concurrence par les prix, la publicité… Toutes ces manifestations de la concurrence dans la vie réelle peuvent être condamnées par les néo-classiques comme tendant à créer des monopoles ! Cela doit nous mettre sur la piste d’un défaut grave dans cette conception.

Les économistes autrichiens ont été les premiers à analyser les erreurs du paradigme de la concurrence pure et parfaite, une utopie à caractère statique qui confond le résultat et le processus, et qui ne permet donc pas d’analyser la réalité de la pression concurrentielle. Pour Mises et Kirzner notamment, ce concept de concurrence pure et parfaite est fort éloigné de la manière dont fonctionne le marché. Ils font ainsi ressortir que les barrières à l’entrée introduites par les économies d’échelle ou la différenciation des produits ne témoignent pas d’une mauvaise allocation des ressources mais bien de ce que la satisfaction des consommateurs face à l’offre existante rend l’entrée de nouveaux concurrents plus difficiles. Il est donc absurde de demander à l’Etat de réglementer pour bousculer une situation déjà optimale en elle-même.

Tentant de définir le phénomène de monopole, Mises le voit comme le contrôle par un seul fournisseur de la totalité de l’offre d’un produit. Cela ne dégage pas nécessairement un prix de monopole car il faut également que la demande soit inélastique par rapport aux prix. Kirzner pour sa part considère le monopole caractérisé lorsqu’un entrepreneur contrôle les ressources nécessaires à la production d’un bien. Il constate néanmoins que le monopoleur n’est pas à l’abri du processus de concurrence, puisque qu’il est toujours possible de produire des biens alternatifs au bien monopolisé ou de tenter de faire émerger une nouvelle demande.

C’est Rothbard qui va pousser le plus loin la réflexion. Il distingue trois définitions possibles du monopole : le vendeur unique d’un produit ; l’obtention d’un prix de monopole ; l’attribution par l’Etat d’un privilège ou d’une barrière à l’entrée. Pour Rothbard, la première définition, si elle a l’avantage de la cohérence, n’est pas applicable : elle peut englober toute production, puisque qu’il est toujours possible d’accumuler les qualificatifs d’un produit de façon à ce qu’il ne corresponde in fine qu’à la production d’un seul producteur. Ainsi peut-on parler du produit « voiture », puis en préciser progressivement les caractéristiques jusqu’à ce qu’un seul modèle d’un constructeur donné soit concerné ! Autrement dit, tout produit est susceptible d’une façon ou d’une autre d’être considéré comme faisant l’objet d’un monopole.

La deuxième définition (prix de monopole) n’est pas davantage applicable. Il est impossible de distinguer sur un marché libre le prix de monopole du prix concurrentiel. Toutes les entreprises tentent de maximiser leur profit en se positionnant sur la partie la plus avantageuse pour elles (c’est-à-dire la moins élastique) de la courbe de demande des consommateurs. Elles n’hésiteront pas non plus à réduire leur production si cela augmente leur bénéfice total. Aucun critère n’existe pour définir ce que devrait être le prix concurrentiel car aucune situation de marché n’est parfaitement similaire à une autre. Il n’est donc pas possible d’affirmer que le consommateur a été lésé par un manque de concurrence (en tout cas sur un marché libre).

Cette conception rejoint l’idée de la concurrence comme un processus global qui ne peut s’apprécier par des critères objectifs (nombre de producteurs, part de marché, etc). Tant que l’entrée sur le marché n’est pas limitée par une contrainte juridique, les entreprises existantes, fussent-elles seules sur leur marché, vivent sous la pression d’une entrée possible de compétiteurs. Ceux-ci le feront s’ils pensent faire mieux ou autrement que l’entreprise existante. La concurrence est invisible, mais bien réelle. C’est donc toute l’erreur des politiques concurrentielles (FCC aux Etats-Unis, Commission européenne, ou nationales) que de vouloir artificiellement stimuler la concurrence en s’attaquant aux entreprises dominantes. Une rapide analyse historique montrerait d’ailleurs que dans la plupart des cas, les décisions « anti-monopoles » sont provoquées bien moins par le souci de protéger le consommateur que par la stratégie de concurrents préférant le terrain politique parce qu’incapables de rivaliser sur le marché avec les même standards d’excellence. Cela apparaît clairement lorsque la Commission européenne veut par exemple interdire à Microsoft d’intégrer systématiquement et gratuitement Internet Explorer à Windows. Cette décision contraint l’acheteur d’ordinateur à des démarches supplémentaires pour disposer d’un navigateur sans lui accorder aucun avantage en échange. Sa situation est donc objectivement dégradée par l’intervention « anti-trust».

Finalement la seule situation où l’on peut parler à bon droit de monopole est celle où l’Etat crée des barrières (juridiques, financières, réglementaires,…) à l’entrée sur le marché. Il s’agit bien dans ce cas d’une réduction artificielle (par une contrainte extérieure au marché libre) de la concurrence, qui aboutit à un profit de monopole au détriment du consommateur.

Tout comme la notion d’externalité abordée dans mon précédent billet, le concept de monopole se dégonfle comme une baudruche lorsque qu’on le considère attentivement. Loin de constituer une caractéristique intrinsèque du capitalisme, le monopole n’est qu’une conséquence de l’économie dirigée, à haute dose dans les anciennes démocraties populaires, en quantité plus modérée dans les démocraties dites de marché. Une défaillance de l’Etat donc, et non du marché.

mardi 6 octobre 2009

La révolution fanée des externalités

J’entame ici une série de trois billets, consacrés aux « défaillances du marché ». Le premier portera sur les externalités (et sera suivi, sans surprise, par les monopoles naturels et les biens publics). Les supposées « défaillances du marché » occupent encore une place importante dans l’analyse économique contemporaine car elles justifient l’intervention de l’Etat, rendue nécessaire selon l’approche aujourd’hui dominante pour parvenir à un équilibre optimum. Voyons donc ce qu’il en est pour ce qui concerne les externalités, en tentant de simplifier autant que possible une question passablement embrouillée.

Le concept d’externalité a été inventé par Pigou en 1922, après l’achèvement de l’essentiel du corpus néo-classique. Réfléchissant sur la notion d’équilibre, Pigou constate que les industries à rendement croissant ou décroissant entraînent un niveau d’investissement optimal pour la firme mais non optimal pour le secteur. En effet, dans le cas d’une industrie à coût croissant, de nouveaux entrants peuvent générer une augmentation du prix des inputs qui se répercute à l’ensemble du secteur, créant ainsi une externalité négative. La solution envisagée par Pigou consiste à ce que l’Etat subventionne ou taxe les intervenants pour rétablir l’investissement à son niveau socialement optimal. En réalité, on comprend mal son raisonnement puisque les mouvements de prix sont pris en compte par les acteurs du marché et permettent un ajustement à l’équilibre.

Par la suite, Pigou suivi par Marshall a élargi son raisonnement et trouvé un fondement plus large à l’externalité. Il désigne ainsi le fait qu’un acteur non-partie à une transaction perçoive un avantage ou subisse un coût du fait de cette transaction. Le marché se confondant avec l’interaction des agents qui effectuent des transactions, aucun mécanisme n’existe pour prendre en compte les externalités et dégager un équilibre optimum. Il revient donc à l’Etat de remplacer le marché défaillant et de mettre en place des instruments de substitution (réglementation, taxation, institution de quotas, etc). L’exemple classique est celui de la pollution : les coûts générés par la dégradation de l’environnement (sur la santé, la productivité agricole, l’esthétique, etc) ne sont pas supportés par les pollueurs. Ceux-ci bénéficient donc pour leur production d’une demande artificiellement majorée, du fait de prix plus bas que ce ne devrait être le cas, ce qui aboutit à une sur-pollution. Notons cependant que l’externalité peut aussi être positive : tel est le cas où les passants d’une rue fleurie bénéficient du plaisir de contempler les jardins amoureusement entretenus par leurs propriétaires. Externalités positives aussi, de manière plus générale, dégagées par les infrastructures, l’éducation, la culture, etc., qu’il reviendrait donc à l’Etat d’encourager, voire de prendre en charge. Le champ d’application potentiel de la notion d’externalité apparaît ainsi quasiment sans limite.

La réaction à ces attaques sur l’efficience des marchés (ie leur capacité à dégager un optimum parétien), après une période de désarroi des économistes libéraux, va se développer selon trois directions : la première est théorique, c’est la réponse de Coase (les externalités sont un problème de droit de propriété) ; la seconde est fondamentale, c’est la réponse autrichienne (les externalités ne sont pas un problème) ; et la troisième est pragmatique, c’est la réponse de l’école des choix publics (l’Etat risque d’aggraver le déséquilibre qu’il tente de corriger).

Dès 1960, Coase établit que les externalités ne peuvent apparaître qu’en raison d’une insuffisance dans la définition des droits de propriété. Si la victime d’une externalité négative peut disposer d’un droit à indemnisation contre le responsable, le problème de l’externalité disparaît : il est « internalisé », c’est-à-dire englobé dans une transaction. Le marché redevient un processus efficient. Pour cela, il faut réunir deux conditions : une définition correcte des droits de propriété d’une part, et d’autre part des coûts de transaction suffisamment bas pour que le marché fonctionne pleinement d’autre part. Pour reprendre l’exemple de la pollution, le marché fonctionne lorsque les victimes peuvent être identifiées avec précision et leurs dommages pris en compte à un coût raisonnable (expertise, procédures judicaires éventuelles,…). Pour ce qui concerne la pollution de l’air ou de la mer, sauf exceptions comme les marées noires pour lesquels existe une jurisprudence, le caractère de bien public de l’espace maritime ou de l’atmosphère fait obstacle à une prise en compte par le marché. Nul (sinon le gouvernement) n’a un intérêt suffisant pour agir en justice contre le pollueur. La situation changerait le jour hypothétique où l’air ou la mer viendraient à être privatisées. Quoi qu’il soit, Coase montre que les externalités ne résultent pas d’une défaillance du marché mais plutôt d’une insuffisance de marché. Faire cesser les externalités ne réclame pas de faire obstacle au marché mais plutôt d’étendre son empire.

Au-delà de la réponse théorique de Coase, les économistes de l’école autrichienne, emmenés par Murray Rothard, ont développé dans les années 1970 l’idée que l’externalité est un faux concept. Tout d’abord l’externalité est un problème universel. Toute situation, toute transaction est génératrice d’un nombre infini et imprévisible d’externalités du fait de l’unité de l’univers. Pensons à l’effet papillon de Lorenz, selon lequel un battement d’aile d’un papillon au Brésil peut déclencher une tornade au Texas. Dés lors, distinguer certaines situations génératrices d’externalités que l’Etat doit corriger de la masse des transactions ne fait pas grand sens. Allant plus loin, Rothbard explique que du fait qu’il n’est pas possible d’additionner les utilités individuelles pour définir une utilité sociale (l’utilité peut se ranger de manière ordinale mais non cardinale), il n’existe aucun critère (autre que le critère de Pareto) permettant d’affirmer qu’une situation est socialement optimale. A fortiori l’Etat est-il dépourvu d’instrument de mesure de l’utilité pour évaluer les conséquences de son action, ce qui le prive également de toute justification pour celle-ci. Plus profondément, l’utilité ne peut pas être mesurée indépendamment de toute transaction. Elle n’existe pas en-soi mais seulement dans la mesure où elle est révélée par une transaction. Dés lors, l’absence de réaction de la part d’une victime d’externalité empêche toute analyse économique de celle-ci. La micro-économie qui tremblait sur ses bases avec la généralisation des externalités remettant en cause la théorie de l’équilibre retombe ainsi sur ses pieds : l’externalité n’est pas son objet. Il faut comprendre Rothbard non comme un apologiste de la pollution (cas typique d’externalité négative dans la littérature) mais plutôt, dans une perspective coasienne, comme militant pour une extension du champ du marché.

Enfin une troisième réponse a été apportée aux cours des années 1960 et jusqu’à nos jours par l’école des choix publics. Ce courant de pensée met l’accent sur les défaillances de l’Etat. Celles-ci se situent à un double niveau : celui des mécanismes de décision, qui reflètent des logiques politiques (« marché politique ») , et celui de l’exécution, notamment en raison de l’effet d’agence. Selon cette approche, l’action de l’administration qui met en place les décisions est influencée par son intérêt propre, souvent plus ou moins en contradiction avec l’objectif visé (une agence de lutte contre le chômage n’a guère d’intérêt au plein emploi, etc). Pour toutes ces raisons, il est douteux que l’action de l’Etat concoure réellement à l’amélioration de la situation. La lutte contre les externalités va générer d’autres externalités, les unes positives, mais beaucoup d’autres négatives. A l’inverse, le marché est probablement plus efficace puisque les acteurs interviennent directement pour représenter leurs propres intérêts.

Au terme de ce rapide parcours, il apparaît que la révolution des externalités a largement perdu l’importance qu’on lui accordait naguère. Les cas d’externalités sont soit omniprésents (optique autrichienne), mais ne remettent pas en cause la vision des marchés comme mécanismes efficients, soit relativement rares (optique coasienne), et de toute façon difficiles à appréhender par la puissance publique (école du public choice). Ce concept qui a fait couler beaucoup d’encre devrait donc retrouver le cimetière des idées économiques, en compagnie d’autres notions vedettes en leur temps et oubliées ensuite (l’usure, la valeur-travail, …).