mercredi 16 décembre 2009

A quand la crise chinoise ?

Peu touchée par la crise, la Chine apparaît comme la locomotive de l’économie mondiale. Les prévisions officielles font état d’une croissance de 9% en 2010. Faut-il appeler à la prudence ? De même que le crash de Dubaï a pris le monde par surprise, les facteurs de fragilité de l’économie chinoise pourraient bien éclater avec violence dans les prochains mois, même si, comme pour l’Apocalypse selon la Bible, on ne connaît ni le jour ni l’heure.

Comme Dubaï, la Chine est confrontée à une situation de sur-investissement. Le rapport de l’investissement au PIB dépasse 50%, un chiffre qu’aucun pays à aucun moment de l’histoire n’a seulement approché. L’Allemagne avait atteint 27% en 1964, le Japon 36% en 1973 et la Corée du Sud 39% en 1991. Le prix à payer est la diminution de la rentabilité de ces investissements. Jusqu’à 2008, pour obtenir un dollar de PIB, il fallait un dollar et demi d’investissement, mais ce chiffre est passé à 7. Pékin est rempli de gratte-ciels inoccupés, d’infrastructures désertes, de bureaux vides…

Confrontées à la nécessité de redéployer l’économie sur le marché intérieur (les exportations ont baissé de 15% en 2009), les autorités qui continuent à maîtriser une bonne partie du processus d’allocation des ressources ne savent comment procéder. L’investissement industriel piétine, alors que les ressources sont engagées dans des grands projets inefficaces. Pour développer l’industrie, il faudrait résoudre un certain nombre de goulots d’étranglement (accès aux technologies, formation des cadres, matières premières,…) et laisser plus de place aux mécanismes de marché. Faute de cela, la corruption prospère et les réformes stagnent. A cet égard le plan de relance décidé en novembre 2008 génère un effet d’éviction de l’investissement privé par l’investissement public et aggrave le problème.

Autre facteur aggravant, le système financier est toujours aussi inefficace : les entreprises petites et moyennes n’ont que très peu accès au crédit, et le crédit à la consommation reste embryonnaire. Dans l’environnement politique et réglementaire local, il est plus facile pour les banques de se concentrer sur la clientèle captive des grandes entreprises d’Etat plutôt que de prendre des risques sur de nouveaux marchés…

La politique de change administré empêche l’adaptation aux flux de capitaux à court terme, qui risque de déstabiliser l’économie en 2010. Attirés par le différentiel de croissance avec les marchés développés, ces capitaux pourraient arriver en masse, ce qui provoquerait une bulle spéculative. Leur retrait brutal, comme de règle en pareil cas dès qu'évolue le contexte international, pourrait alors entraîner de graves déséquilibres. Compte tenu des réserves de change considérables accumulées grâce aux excédents commerciaux, il est peu probable que cette crise à venir se transforme en défaut de paiement, mais l’impact sur la sphère réelle pourrait être considérable.

La croissance à long terme de la Chine est une évidence. Mais la route pourrait être moins lisse qu’il ne semble généralement.

mercredi 9 décembre 2009

L’heure de vérité

La sortie de crise (le troisième trimestre 2009 a vu une croissance du PIB de l’euro-zone de 0,4%) n’est-elle qu’une illusion ? Pour une reprise vigoureuse plaident certes plusieurs facteurs, tels la bonne tenue des marchés émergents (la crise de Dubai affaiblit singulièrement cet argument) ou le retour de la confiance des ménages dans un certain nombre de pays. Il reste que la balance risque plutôt de pencher du côté d’une longue stagnation, voire d’une rechute.

C’est le point de vue de la Deutsche Bank par exemple, pour laquelle il faut s’attendre à une série de cycles (courbes en U). Le premier U est en cours. Le second serait provoqué par la hausse du chômage, qui entraînera une baisse du revenu des ménages et une contraction du commerce de détail au cours de l’hiver. Le troisième U interviendrait entre le deuxième et le troisième trimestre 2010, lorsque les Banques Centrales réduiront graduellement leurs programmes de soutien à l’économie. La Chine, l’Inde et la Corée entreraient dans cette phase plus tôt que les grands pays européens au cours de l’année 2010. Les partisans de cette thèse font valoir que les efforts des Banques Centrales n’ont pas eu l’impact escompté, en partie parce que les banques de deuxième rang ne réinjectent pas dans l’économie les capitaux qu’elles reçoivent. Dans le contexte de crise, le rating des sociétés de l’économie réelle décroît, ce qui pousse les banques à limiter leurs risques, et donc leurs encours. De ce point de vue, il ne faut pas s’attendre à une amélioration rapide, d’autant que le choc subi par le secteur bancaire l’amène à accorder la priorité au renforcement de sa stabilité interne plutôt qu’à une recherche de l’expansion. La masse monétaire en circulation (M3) en Europe aurait ainsi baissé de 8% depuis le déclenchement de la crise. Les moyens publics de lutte contre la crise apparaissent dés lors voués à l’échec. En juin, la BCE avait injecté 442 milliards d’euros, soit 5% du PIB annuel de la zone. Ces fonds sont restés pour l’essentiel sur le compte de la BCE ou sur des comptes interbancaires. En octobre, le taux d’intervention a été baissé en dessous de 1%, également sans résultat. Il est vrai que selon la Fédération européenne des banques, le coût de la crise pour les banques européennes s’élèverait à 420 milliards d’euros.

La situation est identique aux Etats-Unis. Alors que les banques conservaient en moyenne sur le compte de la Fed un montant de 0,3% du PIB sur les 20 dernières années, ce chiffre s’est élevé sur 2008-2009 à 6%. On se rapproche du phénomène de trappe à liquidités, qui a caractérisé l’économie japonaise des années 1990. Malgré des dépenses étatiques toujours croissantes (l’endettement public japonais atteint aujourd’hui 200% du PIB), aucune traduction sur l’économie réelle ne s’est fait sentir. Anticipant des hausses d’impôts pour rembourser la dette, les agents cessent d’emprunter et de consommer, mais au contraire utilisent leurs revenus pour réduire leur endettement. La baisse du marché entraîne une réduction des investissements, le tout générant une spirale dépressive dont il est très difficile de sortir. Certains économistes prétendent dans ces conditions, et contre toute vraisemblance, que la dépense publique est le seul moyen de soutenir l’activité! La réalité, c’est que la dépense publique excessive est à l’origine de la crise, et que son maintien l’alimente.

Il est vrai que la croissance allemande a augmenté au 1er trimestre de 0,5% par rapport à l’année précédente. Mais cette augmentation est un phénomène temporaire essentiellement dû à la prime de soutien de 2500 euros en faveur des acheteurs d’automobiles neuves, qui a conduit à une augmentation de 30% de la production au 1er semestre. Pour la majorité des observateurs cependant, ce type de mesure s’apparente à un effet d’aubaine, qui conduit les consommateurs à accélérer leur décision d’achat sans modifier sensiblement le volume de la demande à moyen terme.

Quoiqu’il en soit, la crise a conduit à une dégradation des finances publiques de l’ensemble des pays développés, dues à de moindres rentrées fiscales d’une part, et d’autre part aux dépenses destinées à la relance. Avec les niveaux d’endettement public d’ores-et-déjà atteints (87% du PIB en France, 89% au Royaume-Uni, 97% aux Etats-Unis, 127% en Italie…), l’inflation apparaît comme l’issue la plus vraisemblable pour le remboursement de la dette qui commence à peser de tout son poids sur les budgets nationaux.

La reprise sera rendue d’autant plus difficile que le commerce international s’essouffle, et que les tentations protectionnistes se font plus fortes. Au premier semestre 2009, les exportations allemandes, américaines et chinoises ont baissé de 30%, et japonaises de 50%. Le commerce mondial devrait baisser de 15% sur l’ensemble de l’année. Cela fragilise les économies très ouvertes, comme celles de l’Allemagne ou de la Chine. L’Allemagne est particulièrement touchée en période de recul de l’investissement du fait de sa spécialisation sur les biens d’équipements. Son affaiblissement se répercute mécaniquement sur ses voisins européens, tels la France, qui profitaient jusque là de la dynamique de son marché.

Une partie de la réponse résiderait dans l’amélioration du fonctionnement des banques. Celles-ci se sont trop souvent orientées vers des activités spéculatives à forte rentabilité, et donc à fort risque, comptant sur le soutien de l’Etat en cas de difficulté. Ce soutien s’est effectivement largement manifesté (à l’exception du cas de Lehman Brothers, dont la faillite est bizarrement interprétée par les étatistes comme un facteur aggravant de la crise alors qu’elle traduisait plutôt un assainissement du marché). Les Etats cherchent aujourd’hui à compenser l’aggravation objective de l’aléa moral (le principe Too big to fail) par un renforcement de la régulation. Mais on sait que cette démarche va échouer : les organes de surveillance et de contrôle ont toujours un train de retard sur la créativité du marché. Ils sont capables de sanctionner les dérives d’hier, mais non celles de demain. Seule une véritable concurrence peut modifier les règles du jeu, un système où chacun serait responsable de ses actes, et donc amené à trouver un équilibre optimal entre risque excessif et stérilisation des capitaux.

La politique monétaire laxiste des Banques Centrales à l’origine de la crise car favorisant le surinvestissement et les bulles spéculatives a été renforcée avec la crise. Mais les mêmes causes produisant les mêmes effets, l’effet de stimulation artificielle de ces politiques devrait rapidement s’épuiser dans le courant de l’année 2010. L’économie mondiale connaîtra alors son heure de vérité.

lundi 30 novembre 2009

Le Janus de la concurrence

Les critiques de la concurrence proviennent le plus souvent d’une compréhension insuffisante de ce phénomène. Car la concurrence est un Janus à deux têtes : elle comprend dans le même processus innovation et imitation, émergence et indifférenciation. Sans innovation, rien à imiter; et sans imitation qui risque de faire disparaître le profit, pas d’incitation à innover. Innovation doit être pris dans un sens très large, schumpétérien : il peut s’agir d’un nouveau produit, mais aussi de nouvelles matières premières, méthodes de production, ou de nouveaux marchés… Bref, tout ce qui distingue une firme d’une autre.

La plupart des critiques de la concurrence se focalisent sur l’aspect « imitation » en minimisant la dimension « innovation ». C’est ainsi que la concurrence est fréquemment qualifiée de destructrice, ou prédatrice.

Dans le marxisme, la concurrence, correctement perçue comme l’essence du capitalisme, est sensée conduire à une baisse tendancielle du taux de profit, entraînant la disparition des entreprises les plus faibles, ce qui conduit à une concentration accrue, elle-même accentuant le phénomène de monopolisation et de baisse du profit. L’une des failles du raisonnement (il y en a d’autres, qui tiennent en particulier à l’utilisation par Marx de la valeur-travail) réside dans l’oubli de la dimension innovatrice. Derrière le capital, Marx n’a pas vu l’entrepreneur. C’est l’action de l’entrepreneur qui va découvrir de nouvelles opportunités de profit rendues possibles par l’évolution continue de l’environnement, et par là contrecarrer la tendance à la baisse du profit. Au final, la concurrence fait baisser le profit (imitation), mais dans un deuxième temps (innovation), elle pousse à son augmentation, si bien qu’aucune tendance définitive ne se dégage. C’est l’une des raisons pour lesquelles les fidèles marxistes attendent toujours la Révolution annoncée par les écritures…

En un sens, cette conception, mutatis mutandis, est comparable à l’approche néo-classique focalisée sur le concept de concurrence pure et parfaite. L’état de concurrence pure et parfaite dans le paradigme néo-classique est à la fois considéré comme stable et optimal alors qu’il traduit en réalité une absence de concurrence ! Le modèle n’est stable qu’en l’absence d’innovation, qui représente l’une des deux facettes de la pression concurrentielle. Les néo-classiques se concentrent sur l’aspect « imitation », et nient toute possibilité d’innovation. Mais l’absence d’innovation ne peut signifier que l’absence de pression concurrentielle ! Cela amène le courant néo-classique à préconiser des politiques de la concurrence qui tendent à la convergence de l’économie vers la situation de concurrence pure et parfaite ; ce qui en réalité revient à amputer la concurrence, car lui dénie toute faculté de s’exprimer. Sous couvert de renforcer la concurrence, on la supprime dans les faits.

Ce défaut de compréhension est assez proche de celui manifesté par René Girard, le génial explorateur des phénomènes de mimétisme dans les sociétés humaines. Malheureusement non économiste, Girard s’en tient à la dimension mimétique de la concurrence et oublie sa dimension inverse de force différenciatrice. Il voit donc en la concurrence un courant essentiellement destructeur car les rivalités mimétiques finissent par déclencher une violence primitive qui peut être d’une violence extrême. Cette violence est susceptible à son paroxysme de remettre en cause le lien social, et générer un cycle de révolutions. Les sociétés anciennes ont choisi de concentrer la violence sur le bouc émissaire (on peut ici par analogie penser au capitaliste, vilipendé comme exploiteur), ce qui met fin pour un temps à la crise mimétique. Pour Girard, seul le christianisme en tant qu’il affirme l’innocence du bouc émissaire, peut mettre fin aux rivalités mimétiques. D’une part, Girard omet d’appliquer au capitalisme sa théorie (il faut pour lui diminuer l’intensité de la concurrence afin de pacifier la société, plutôt que de démontrer l’innocence du capitaliste), mais surtout il ne comprend pas la nature duale de la concurrence : à côté de sa dimension mimétique, elle recèle des forces de différenciation, d’autant plus puissantes que les rivalités mimétiques se font violentes. Autrement dit, le capitalisme contient en lui-même son mécanisme salvateur.

Pour revenir à une approche plus économique, la nature de la concurrence ne peut être comprise que comme un processus, plutôt que comme un état. Elle n’entraîne le monde vers aucune apocalypse ou grand soir, ou état stationnaire, mais seulement vers un changement continu, généralement créateur de richesse et donc d’amélioration de la situation générale.

De même que la concurrence est duale (imitation/innovation), elle génère un déséquilibre temporaire (l’innovation) en même temps que des forces de rappel vers l’équilibre (l’imitation). L’équilibre économique n’est donc jamais stable. A vrai dire, la question est plus complexe que cela, car l’innovation tend elle-même vers un nouvel équilibre, que l’imitation modifie pour tendre vers un équilibre encore nouveau. La concurrence est donc équilibrante en même temps que déséquilibrante…

Cette approche permet de relativiser les critiques sur les destructions générées par la concurrence. Certes elle remet en question des situations acquises ; par exemple, l’ouverture des frontières peut entraîner du chômage au sein d’une branche non compétitive. Mais le bilan ne peut jamais être effectué de manière comptable, comme si l’on pouvait analyser un phénomène (ici « l’ouverture des frontières ») en raisonnant toutes choses égales par ailleurs. Le propre de la concurrence, c’est justement de bouleverser l’ensemble du paysage, de sorte que le « toutes choses égales par ailleurs » ne fait pas de sens. L’intensification de la concurrence intensifie également la pression innovatrice, qui ouvre de nouveaux horizons. Ainsi l’ouverture des frontières peut entraîner l’adaptation de l’industrie domestique, mais aussi le redéploiement vers d’autres niches ou d’autres branches, de nouvelles spécialisations, l’intensification des échanges, etc. Les modèles économétriques sont inaptes à capter ce qui fait l’essence de l’économie, à savoir les capacités entrepreneuriales de l’humanité. Seule l‘observation a posteriori pourra effectivement expliquer la manière dont l’économie s’est adaptée aux nouvelles conditions. La prévision, parce qu’elle ne prend pas en charge l’inventivité humaine, en est incapable.

Comprendre la nature duale de la concurrence, c’est admettre que la plupart des politiques de la concurrence ne s’attaquent qu’à une des dimensions de la question (l’imitation plutôt que l’innovation) et jouent donc un rôle néfaste. La réglementation est bien souvent une mauvaise régulation : la concurrence n’a pas besoin d’autre régulation qu’elle-même. Réguler pleinement la concurrence, c’est la laisser se manifester dans toute sa force. Elle contient en elle-même les forces qui la poussent vers l’avenir et les mécanismes de rappel qui tendent vers de nouveaux équilibres. Voilà qui devrait représenter une bonne nouvelle pour ceux qui cherchent la pierre philosophale d’une économie de marché encadrée.

jeudi 19 novembre 2009

Bulles passées et à venir

Les marchés sont-ils instables par nature ? Les partisans d’une régulation accrue tirent avantage de la fréquence des crises (euphorie, suivie d’effondrement, le tout assimilé à une « bulle » financière) pour asseoir leur thèse, avec le soutien d’une grande partie de l’opinion publique. Mais les apparences seraient-elles trompeuses ? Car un examen attentif des bulles suggère que l’intervention de l’Etat n’est pas complètement étrangère au phénomène.

Qu’est-ce donc qu’une bulle ? En première analyse, il s’agirait d’une dilatation excessive du prix des actifs, qui conduit à un éclatement brutal. La difficulté de cette définition tient à ce qu’il est quasi-impossible de définir à quel moment un prix de marché devient excessif. On sait que le prix d’un actif financier est essentiellement défini par les anticipations des agents sur ce qu’il peut rapporter à l’avenir. Tout prix est donc subjectif par nature, et la notion de prix intrinsèque, ou de valeur réelle, ne repose que sur du sable. Si la bulle pouvait être identifiée comme telle, il est évident qu’elle éclaterait à l’instant-même. Autrement dit, ce n’est qu’ex-post, après son éclatement, que l’on peut reconnaître que l’on a été confronté à un phénomène de bulle. Cela amène certains auteurs à nier la possibilité de bulles. Selon eux, le prix de marché est toujours justifié par les anticipations. Si une crise éclate, cela s’explique par une modification brutale des anticipations, généralement causée par un changement dans l’environnement. Cette thèse s’appuie notamment sur la théorie des marchés efficients : selon ce postulat, toute l’information disponible se retrouve à tout instant dans les prix de marché.

Sans nier tout mérite à cette analyse, il faut lui reconnaître un caractère un peu extrême. La théorie des marchés efficients est de plus en plus contestée, et n’a jamais été admise, pour des raisons un peu longues à développer, par les auteurs de l’école autrichienne, lesquels figurent pourtant parmi les plus inconditionnels défenseurs des mécanismes de marché.

Admettons de façon empirique que les marchés fonctionnent souvent de manière apparemment irrationnelle. Sans prétendre proposer une théorie de la formation et de l’éclatement des bulles, on peut montrer que ces défaillances du marché sont essentiellement liées à des déficiences de l’Etat. Prenons quelques exemples parmi les plus célèbres de l’histoire : la tulipe-mania en Hollande au 17e siècle, le système de Law au 18e en France, la crise boursière de 1929, et enfin la bulle immobilière américaine, à l’origine de la crise dont nous peinons actuellement à sortir.

La spéculation sur les tulipes en Hollande est souvent citée dans les manuels d’histoire. L’année 1636 a vu les prix s’envoler vertigineusement, avant de retomber brutalement en février 1637. Il semble pourtant aux historiens contemporains que cet engouement a été beaucoup plus limité dans son ampleur qu’on ne l’a souvent écrit. Le commerce des tulipes fut le fait de quelques professionnels et non de couches sociales entières. Les contrats typiques étaient des contrats à terme, l’acheteur contre une petite somme d’argent s’engageant à payer le prix convenu à l’échéance. Le facteur déclenchant de la chute semble avoir été une disposition prise par la guilde des fleuristes et validée par le parlement hollandais, qui a transformé les contrats d’achats à terme en simples options : les acheteurs pouvaient se dédire à peu de frais à l’échéance pour tous les contrats passés après le 30 novembre 1636. Personne ne fut ruiné par la chute des cours car tout s’était réduit à un jeu d’écriture, sans compensation monétaire. C’est donc bien un changement réglementaire qui a provoqué la fin brutale de la spéculation, et l’effondrement des prix, plutôt qu’un dysfonctionnement du marché.

Le système de Law fut en revanche beaucoup plus dévastateur socialement. Sans revenir sur les détails de cette affaire, on peut noter que ce sont les privilèges puis les monopoles conférés par l’Etat qui constituent la colonne vertébrale du montage. L’objectif de Law consistait à remplacer les encaisses métalliques par du papier-monnaie gagé sur des opérations coloniales pour le moins peu transparentes… Bénéficiant initialement du crédit public, le système apparaît comme l’occasion d’enrichissement facile et sans risque (période spéculative) puis s’effondre d’un coup lorsque la fraude (l’insuffisance d’actifs) est découverte. Banque privée jouissant du monopole d’émission des billets, la banque de Law fut la première à démontrer le danger des systèmes de banque centrale.

La crise de 1929 a fait l’objet d’une étude approfondie par Murray Rothbard, dans son ouvrage classique « America’s Great Depression », publié en 1963. Il y établit que l’expansion monétaire orchestrée par la Fed (créée en 1913) de 1921 à 1928 a été le terreau dont s’est nourri la spéculation. Le resserrement de la politique monétaire en 1928 a fragilisé le marché, dès lors à la merci du moindre retournement de tendance. L’excès de liquidité pendant les Roaring Twenties a favorisé l’investissement en titres au détriment du secteur réel. La violence de la crise s’explique par le désarroi des participants qui pensaient que la Fed détenait la pierre philosophale conduisant à l’expansion perpétuelle, et qui ont vu le système s’effondrer sans remède.

L’expansion monétaire excessive est tout autant responsable de la bulle immobilière américaine des années 2000. On y ajoutera les incitations étatiques à prêter à des débiteurs à risque, les garanties dont bénéficiaient des organismes semi-publics comme Fanny Mae et Freddy Mae, et enfin la prise de risque inconsidérée des grands établissements s’appuyant sur le principe du « Too big to fail », selon lesquels l’Etat viendrait à leur secours en cas de faillite.

Tous ces cas de bulle financière au cours de l’histoire montrent que ce n’est pas le pur fonctionnement du marché qui crée les bulles, mais bien le contexte réglementaire et politique dans lequel se développe le marché. Il ne s’agit pas de nier le caractère cyclique de l’économie, mais plutôt de souligner que l’intervention de l’Etat tend à amplifier les fluctuations, et à limiter les forces automatiques de rappel mises en place par le jeu du marché. L’opinion publique tend à attribuer la responsabilité des crises aux spéculateurs. C’est cependant une vérité contre-intuitive que la spéculation est anticyclique et donc stabilisatrice : pour gagner de l’argent le spéculateur doit jouer à contre–tendance (acheter au son du canon, vendre au son du clairon, selon la célèbre formule des Rothschild). Les réglementations anti-spéculation risquent donc d’aggraver le mal qu’elles prétendent combattre. Parallèlement, des réformes cosmétiques comme l’encadrement des bonus des traders ne changent rien aux mécanismes de base à l’œuvre sur les marchés. En revanche les politiques à l’origine de la crise sont maintenues et même amplifiées : dans le contexte actuel de taux d’intérêt quasi-nuls et de déficit publics massifs, de nouvelles bulles sont à craindre, comme le suggère l’euphorie des bourses depuis quelques mois.

mercredi 11 novembre 2009

L’indicateur du bonheur

Le rapport de la Commission Stieglitz, dont la version finale a été publiée en septembre dernier, inspire des sentiments mitigés. Le gouvernement français avait demandé à un aréopage d’économistes internationaux de réfléchir à des alternatives au PIB comme indicateur de la performance économique.

L’idée de départ est louable : la place excessive tenue par le critère du Produit Intérieur Brut dans l’analyse conduit à ce qu’on oublie trop souvent les lacunes de cet indicateur. Les deux principales à mon sens tiennent à sa mauvaise appréhension des activités non marchandes, et d’autre part à l’absence d’indicateur de stock. Pour le premier point, l’activité des administrations est évaluée à son coût de production. Pour augmenter le PIB, il suffirait d’augmenter le nombre de fonctionnaires… L’amélioration (ou la dégradation) de la productivité de l’administration ne peut donc être prise en compte, ce qui est gênant dans la mesure où la lutte contre les gaspillages du secteur public représente un des principaux enjeux de la politique économique.

Par ailleurs, le périmètre des activités non marchandes peut évoluer dans le temps sans que la sphère réelle en soit modifiée : c’est l’anecdote de homme qui épouse sa femme de ménage et fait ainsi baisser le PIB toutes choses égales par ailleurs (dans l’hypothèse où la femme mariée poursuivrait les activités de la femme de ménage…). Plus sérieusement, c’est toute l’économie souterraine qui est en cause, avec une solution de continuité entre les petits services entre voisins rémunérés en nature jusqu’à la fraude à grande échelle. Au milieu des années 1990, certaines études ont évalué l’économie souterraine d’un pays comme l’Ukraine à un montant compris entre 30 et 50% du PIB. Plus près de nous, on évalue l’économie souterraine italienne entre 15 et 20% du PIB[i]. L’évolution qui affecte cette sphère souterraine peut rendre ainsi les statistiques de PIB illisibles.

La deuxième série de limites du PIB tient à ce qu’il n’est pas un indicateur de stocks mais seulement de flux. Retenons l’analogie avec le compte de résultat (flux) et le bilan (stock) que doit établir toute entreprise. L’analyste financier doit impérativement disposer des deux types de documents pour prononcer un jugement fondé sur la situation de l’entreprise. L’Etat ne dispose pas en ce qui le concerne de comptabilité patrimoniale digne de ce nom, et l’établissement de celle-ci serait soumise à de graves difficultés : comment évaluer le château de Versailles ou Notre-Dame de Paris ? Ces bâtiments ne font pas l’objet d’un marché et ne peuvent donc être valorisés. Il est vrai que même pour une entreprise, l’interprétation d’un bilan est chose plus subjective que pour ce qui concerne le compte de résultat. L’analyste financier procède généralement à une série de redressements afin que les comptes reflètent mieux la réalité économique (l’une des causes principales tient à ce que les immobilisations détenues par l’entreprise sont consignées selon leur coût d’acquisition qui peut être très différent de leur valeur actuelle, même sous déduction des amortissements). Dans le cadre de l’Etat dont une grande partie du patrimoine ne fait pas l’objet d’un marché, une telle démarche est entachée d’arbitraire. C’est pourtant par l’analyse du bilan que l’on pourrait définir si l’Etat s’appauvrit ou s’enrichit par la croissance transcrite par le PIB : une catastrophe naturelle qui détruit des installations implique des travaux de reconstructions, qui augmentent le PIB, alors que le pays s’est appauvri…

Même pour le secteur privé, le PIB ne permet pas de prendre en compte les investissements, notamment incorporels (recherche et développement, formation, etc) qui rendent la croissance durable ou non. Autrement dit, une augmentation du PIB dans un contexte favorable peut laisser penser que tous les paramètres macro-économiques sont favorables, alors qu’elle ne traduit qu’un gaspillage du capital (y compris humain) qui prépare la crise de demain.

Plus largement, on oublie trop souvent que le PIB doit se comprendre comme un indicateur lié au contexte économique dans lequel il est mesuré. Il ne fait guère de sens de comparer sur cette base des pays ou des époques très dissemblables. L’ensemble des biens produits (et retranscrits dans la notion de PIB) peuvent différer totalement. Lorsqu’on explique que tel pays d’Afrique (cas de l’Ethiopie) dispose d’un revenu de moins de trois dollars par habitant et par jour, on oublie de préciser les différences d’environnement : un Européen ne pourrait survivre avec trois dollars par jour dans une métropole, alors que ce montant permet à un Ethiopien de mener une vie « normale » au sein d’un village des hauts plateaux. De même est-il peu utile de comparer les revenus en termes de PIB d’époques très différentes : la plupart des produits que nous consommons aujourd’hui n’existaient pas au 19e siècle. Et inversement nous ne consommons plus le type de produits utilisés par nos ancêtres.

Que les autorités cherchent à relativiser la notion de PIB représente donc en soi une bonne nouvelle. Mais l’on ne peut s’empêcher de ressentir une certaine inquiétude, lorsque la presse interprète ce souci comme la recherche d’un indicateur du bonheur.

Mesure le bonheur est voué à l’échec, car le B-A BA de la science économique réside en ce que l’utilité ne peut faire l’objet d’opérations arithmétiques d’une personne à l’autre (on dit que l’utilité est ordinale, et non cardinale ; il n’y a pas et il ne peut y avoir d’unité d’utilité). Si l’on se lance dans une tâche impossible, la raison est probablement autre : il s’agit de justifier un contrôle toujours plus grand de l’Etat sur la population. Car de la mesure à la tentative de contrôle, il n’y a qu’un pas. Le monde de Big Brother n’est pas loin, lorsque les unités de bonheur seront attribuées et régulées forfaitairement pour chaque catégorie de population…

La leçon est toujours la même : face à la limite structurelle de son pouvoir, l’Etat n’accepte que rarement que toute institution humaine est faillible et limitée. Sa réaction naturelle consiste au contraire non à s’adapter à la nature des choses mais en l’hybris, la tentative de forcer la nature, d’acquérir à toute force ce contrôle impossible sur la société (ou la nature). Ce qui est tout autant voué à l’échec mais entraîne des effets pervers et des coûts considérables. Méfiance et vigilance donc, sur cet indésirable indicateur du bonheur : le bonheur n’est pas dans les chiffres. Et peut-être n’est-il même pas dans l’économie…

vendredi 6 novembre 2009

Pour en finir avec la main invisible

Le concept de « main invisible », tel qu’imaginé par Adam Smith, le fondateur de l’économie classique en 1776, tient une place centrale dans la pensée libérale, aussi bien chez ceux qui la critiquent que ceux qui la défendent. Mais malgré des centaines de livres et de réflexions sur le sujet, l’origine aussi bien que le sens que lui assignaient Adam Smith en sont longtemps restés obscurs.

A vrai dire, « la main invisible » n’apparaît qu’une seule fois dans la Richesse des Nations, l’ouvrage de Smith. Elle n’y fait l’objet d’aucun développement, si bien que les commentateurs ont pu explorer nombre de directions pour l’interpréter. Dans le contexte de l’ouvrage, Smith indiquait que la recherche par chaque individu de son intérêt personnel concourt, comme par « une main invisible » à l’intérêt général. Les bouchers, les boulangers et autres artisans nous vendent leurs produits non par philanthropie mais en vue de promouvoir leur intérêt, tout le monde ayant à gagner de cette situation. Mais si l’on saisit bien l’idée générale, il faut avouer qu’aucune démonstration rigoureuse n’est apportée par l’auteur.

Mentionné comme en passant par Smith, le concept est au cœur de la croyance en l’efficacité de l’économie de marché, comme l’établiront les générations d’économistes qui vont suivre (de Bastiat à Hayek jusqu’aux libéraux contemporains). Car la nature humaine poussant chaque individu à rechercher son intérêt, c’est précisément par les efforts de chacun qu’un optimum social peut être obtenu. Nul besoin donc de correctifs extérieurs au marché, en particulier nul besoin de planification ou d’intervention de l’Etat.

La fortune d’un concept aussi allusif chez Smith a déclenché de multiples tentatives d’élucidation, avec pendant longtemps peu de succès. Ce n’est qu’assez récemment qu’un pas décisif a été franchi, grâce au rapprochement effectué par des économistes américains entre le concept de main invisible, et l’Essai sur le Nature du Commerce en général, de Cantillon.

Génie méconnu de l’analyse économique, Richard Cantillon, un financier irlandais installé en France, avait fait fortune en profitant du système de Law, dont il s’était retiré à temps car il en avait prévu la déconfiture. Il avait rédigé son texte en 1730 mais n’eut pas le temps de le publier avant sa disparition à Londres en 1734 (il fut probablement assassiné par son domestique, qui mit le feu à la maison pour dissimuler le crime). Le manuscrit a circulé -Mirabeau Père en disposait d’une copie-, et fut publié en 1755. Smith s’y réfère à plusieurs reprises dans son œuvre. Après la publication de la Richesse des Nations, Cantillon tombe dans l’oubli. Ce n’est que vers 1880 que l’en tirera Jevons, le fondateur anglais du marginalisme, étonné par la hauteur de vue et les conceptions d’avant-garde de l’ouvrage, dans lequel il voit un précurseur de l’école autrichienne. A maints égards, Smith constitue une régression par rapport aux intuitions géniales de Cantillon.

Selon Mark Thornton[i], le passage dont se serait inspiré Smith est celui du chapitre 14 de l’Essai. Celui-ci décrit un domaine autarcique dirigé par son propriétaire, qui dispose de paysans et d’artisans, de ressources en grain et en bétail, etc, le tout en vue de maximiser sa consommation personnelle. Cantillon pose que si le propriétaire délègue à des fermiers l’exploitation de son domaine, lesquels vont embaucher des ouvrier agricoles, et qu’il achète leur production, l’ensemble des ressources et des facteurs vont se trouver utilisés de la même façon que lorsque le propriétaire gérait directement le domaine. En effet, le jeu de l’offre et de la demande va conduire à la même situation d’équilibre : si un artisan produisait une quantité supplémentaire, le prix diminuerait, et il préfèrerait revenir à son niveau de production initial. De même pour l’affectation du grain entre consommation et ensemencement. Ce n’est que si le propriétaire change sa fonction de demande que l’affectation des facteurs se trouvera modifiée. Cantillon n’utilise pas le terme, mais tout se passe comme si la main invisible du propriétaire (par l’intermédiaire de contrats et du jeu du marché) affectait les ressources de la même façon que sa main visible lorsqu’il gère le domaine directement. Selon cette interprétation, la main invisible se rapporte donc au jeu du marché, capable d’optimiser l’allocation des facteurs et de parvenir à une situation d’équilibre. On voit que Smith a quelque peu déformé et limité le concept que Cantillon décrit avec une rigueur bien supérieure.

L’allusion mystérieuse de Smith a causé beaucoup de tort à la pensée libérale. Dans la mesure où la main invisible apparaît dans son livre comme un « deus ex machina », une force externe qui résout comme par un coup de baguette magique toutes les difficultés, les critiques du libéralisme ont eu beau jeu de dénoncer l’idolâtrie du marché, et de n’y voir qu’une révérence devant une pensée magique primitive. A la décharge de Smith, il faut ajouter qu’il ne s’attendait probablement pas à ce que l’expression de main invisible prenne une telle place dans la littérature économique. C’est d’ailleurs surtout à partir des années 1930 que les auteurs lui accordent une place qu’elle ne mérite probablement pas, vu son absence de caractère explicatif.

Le retour sur Cantillon permet de désamorcer toutes les polémiques inutiles. Le contexte très clair dans lequel se situe Cantillon permet de montrer que la main invisible n’est pas une force magique et irrationnelle, mais un mécanisme que l’on peut analyser en toute rigueur. Un mécanisme qu’il serait urgent de re-dénommer : pour éviter les confusions, les procès d’intention et les polémique stériles, la science économique aurait tout intérêt à rayer l’expression de son vocabulaire. Et s’il faut trouver un synonyme, le concours est ouvert…

vendredi 30 octobre 2009

Les Galbraith convertis au libéralisme européen ?

La famille Galbraith serait-elle devenue libertarienne ? C’est la question que l’on peut se poser au vu du titre de l’ouvrage de James (le fils de John), intitulé «l’Etat-Prédateur »[1]. Cette charge violente semble en effet annoncer des convergences inattendues avec l’analyse libérale classique. Pour Galbraith Jr, l’Etat (sont visées ici les démocraties libérales contemporaines) n’est autre que l’instrument privilégié des grandes corporations pour extorquer le maximum d’avantages et de profits à l’encontre des opprimés qui représentent la majorité de la population. Cette thèse post-marxiste entre en résonnance avec l’analyse libérale de la formation historique de l’Etat comme institutionnalisation de la domination d’une caste violente sur le peuple (que l’on pense à la féodalisation, où la noblesse assoit son pouvoir en échange de service de sécurités ; ou encore à l’approche d’un Hoppe sur l’Etat comme instrument aux mains des fonctionnaires exploitant les contribuables…).

Ne nous leurrons pas : ces convergences trouvent vite leurs limites, car Galbraith n’en tire pas la conséquence qu’il faut limiter le pouvoir de l’Etat. Selon lui, en effet, c’est par l’intermédiaire de l’économie de marché que l’Etat maximise son entreprise d’exploitation. Pour y mettre fin, il conviendrait de rejeter cette idéologie du marché libre, pour lui substituer une nouvelle planification, c'est-à-dire le contrôle de l’Etat sur l’économie. Par quel mécanisme l’Etat-«méchant» qui manipule le marché se transforme-t-il en un Etat-«bienveillant» qui planifie et redistribue, c’est ce que nous n’apprendrons pas dans l’article cité en note.

Ceci posé, on pourrait se demander pourquoi la planification n’est pas une démarche libérale. Dans le cadre de l’économie de marché, il est évident que chaque agent planifie l’essentiel de ses actions, l’hypothèse de rationalité (si l’on excepte des situations exceptionnelles comme les bulles spéculatives) semblant la plus adaptée pour expliquer les comportements. Pourquoi ce qui est nécessaire à un agent quelconque est-il non pertinent pour l’Etat ?

A l’évidence, l’Etat n’est pas un acteur économique comme les autres. D’une part son objectif premier n’est pas la maximisation du profit, mais la réalisation de projets politiques plus ou moins clairs, susceptibles d’évoluer au gré des circonstances. D’autre part, il s’appuie essentiellement sur la contrainte (réglementation, fiscalité), et n'est donc pas soumis aux règles habituelles du marché.

Comme montré par l'analyse économique, la planification n’est pas viable pour deux raisons :

1/ la capacité des agents à s’adapter face aux intentions affichées par l’Etat (anticipations adaptatives). Car si la planification n’est qu’indicative, elle se résout à un service des études. Mais si elle adopte un caractère impératif, elle se heurte aux réactions des agents. On sait par exemple qu’une politique de change clairement affichée rend les Banques Centrales vulnérables à la spéculation.

2/ le caractère ouvert de l’environnement. Le socialisme dans un seul pays est peut-être possible au prix d’une formidable machine répressive. En économie ouverte, c’est une impossibilité totale. La planification ne peut être que mondiale ou elle ne sera pas. Pour l’heure, on voit à quel point les divergences d’intérêts et de point de vue rendent quasi-impossible la simple coordination des Etats.

Même pour un agent privé, la planification fait de moins en moins sens à mesure que s’élève le niveau de complexité. Le coût d’acquisition de l’information mais surtout le degré d’incertitude tendent alors à croître de manière exponentielle. En situation d’incertitude élevée, plus qu’une planification rigoureuse, c’est la capacité à dégager une vision stratégique doublée d’une habileté tactique dans le pilotage de crise qui s’impose. D’où plutôt que la planification, des techniques comme le management par objectifs qui ne prétendent pas encadrer la totalité du réel dans un paradigme unique.

L’expérience montre que l’économie de marché n’a pas à rougir de ses performances même dans les domaines où elle est le plus critiquée, tels l’environnement ou les inégalités sociales. L’expérience montre aussi qu’a contrario les tentatives de planification déclenchent davantage d’effets pervers qu’elles ne résolvent de problèmes. Le retour aux vieilles lunes planificatrices n’est vraisemblablement pas le meilleur moyen de mettre fin à l’Etat-prédateur. Non, hélas, pas plus que son père, Galbraith Jr, n’est devenu un libéral européen…

lundi 26 octobre 2009

Crise du lait

La crise du lait illustre une nouvelle fois toutes les difficultés de l’économie administrée. Rationnement par les prix, par les quantités, subventions, aides à la personne, incitations… quelles que soient les tentatives de réforme, la politique agricole semble voguer de crise en crise depuis plus de 25 ans. Aucun autre secteur de l’économie que l’agriculture pourtant n’est davantage encadré et soutenu.

Les justifications habituelles des politiques agricoles sont rarement convaincantes. On met ainsi en avant :

· Des arguments d’utilité : Certes la sécurité alimentaire représente une priorité de toute collectivité humaine. Reste à savoir de quelle manière l’assurer…

· Des arguments sociétaux : l’importance de l’agriculture pour le monde rural, les paysages et l’environnement, dont l’importance va au-delà de la seule rentabilité de la filière agricole. S’il est vrai que le monde rural a subi un traumatisme sans précédent, l’agriculture représentant encore un tiers des emplois avant guerre contre 4,5% aujourd’hui, cette évolution commune à tous les pays développés ne constitue que la continuation d’un processus engagé depuis le 18e siècle (l’agriculture représente 80 à 90% des emplois en 1789).

· Des arguments plus économiques : la demande étant supposée peu élastique aux prix, le marché est extrêmement volatil, une faible variation de l’offre entraînant de larges fluctuations d’ajustement. Cela n’est pas le seul fait de l’agriculture, et peut se traiter par des instruments appropriés (marchés à terme, contrats-cadre, assurances, etc) dans le cadre d’une économie de marché développée.

Il nous semble plus juste de prendre en compte l’influence des lobbies agricoles et ruraux ainsi que leur poids électoral. Un peu partout dans le monde, les électeurs ruraux sont surreprésentés par rapport aux urbains, qu’ils s’agissent d’élections locales ou parlementaires. Les ruraux bénéficient ainsi par tradition de puissants relais politiques (ce qui n’empêche pas le sentiment d’exclusion dont souffre le monde rural, face à l’évolution d’une société qui lui devient de plus en plus étrangère).

Après le traumatisme de la deuxième guerre mondiale et de la pénurie alimentaire qu’elle a engendrée, les gouvernements croient trouver leur salut dans le contrôle du secteur. Une vision erronée ? Il est vrai que la mise en place à l’échelon européen de la Politique Agricole Commune en 1962 consistant pour l’essentiel en une garantie des prix n’a fait que progressivement apparaître ses effets pervers (stérilisation des structures et surproduction). Ceux-ci deviennent évidents au début des années 1980 avec le gonflement des excédents. Pour les résorber, des quotas sont instaurés en 1984. Si la question sort de l’actualité immédiate pour quelques temps, les problèmes ne vont resurgir qu’avec plus de force dans les années 1990.

Au cours de cette décennie en effet, au vu du coût exorbitant de la PAC (45% du budget européen), les tentatives de réforme visent à se rapprocher des mécanismes de marché. Les prix sont progressivement libérés, avec en contrepartie la mise en place d’aides directes aux exploitants. Cette logique d’assistance se développe avec le train de réforme de 2003, qui instaure un découplage croissant entre la production et le montant des aides. Des raisons d’opportunités (le scandale des « gros chèques » versés aux exploitations les plus importantes, et aussi la volonté de contourner les règles de l’OMC mises en place en 1994) se sont ajoutées à des considérations structurelles : l’aide à la production encourage la concentration des exploitations, alors que la priorité affichée en faveur de l’environnement et de la fonction « sociale » en milieu rural de l’agriculture militerait pour un arrêt du processus de concentration.

Quoiqu’il en soit, les mécanismes d’assistance, une fois lancés, ne cessent d’enchaîner les effets pervers. L’aide à la production génère un productivisme gaspilleur et ravageur. Passe-t-on à un système déconnecté de la production ? L’agriculteur devient un assisté permanent enfermé malgré lui dans une logique d’infantilisation. Dans une large mesure les politiques d’assistance ne résolvent rien car l’aide se retrouve capitalisée dans le prix des terres (voire des facteurs de production). Les agriculteurs qui s’installent aujourd’hui sont pénalisés et fragilisés en conséquence par un endettement excessif, qui les met en difficulté au moindre retournement de conjoncture.

Les limites de l’exercice sont maintenant évidentes : entre 2005 et 2008, la planète est au bord de la crise alimentaire car les gouvernements favorisent de manière artificielle les biocarburants qui réduisent l’offre alimentaire et notamment les excédents disponibles pour l’exportation ; cette période est immédiatement suivie d’une baisse brutale de la demande due à la crise financière, qui entraîne une chute des prix, et donc des revenus des agriculteurs incapables d’y faire face.

Le désarroi du monde rural est bien compréhensible. La solution ne consiste pas à revenir à l’encadrement des prix et à l’assistanat généralisé. C’est bien au contraire une modernisation accélérée du monde rural qui est nécessaire aujourd’hui. Le passage à une agriculture plus extensive, plus solide car mieux capitalisée, et mieux intégrée dans son environnement international, est indispensable. Une révision drastique de la PAC s’impose à nouveau, qui visera à faire de l’agriculteur un véritable entrepreneur plutôt qu’un assisté permanent.

mardi 20 octobre 2009

La catastrophe du New Deal

A l’heure où s’esquisse une timide sortie de crise, les voix qui réclament un nouveau New Deal se font moins pressantes. Et sans doute à juste titre : le New Deal n’a pas été autre chose en effet qu’une catastrophe économique.

Tous les paramètres macro-économiques convergent dans le même sens. Alors que les dépressions du 19e siècle se caractérisaient par leur brièveté, la grande crise ouverte en 1929 ne s’est véritablement terminée qu’en 1946 (on ne peut considérer l’économie de guerre entre 1941 et 1945 comme une période de « prospérité », la réduction du chômage n’étant due qu’à une conscription massive). Lorsque Roosevelt prend ses fonctions en 1933, le chômage atteint le niveau de 28%. En 1939, il était encore de 17% (après une baisse à 14% en 1937). Son taux moyen s’établissait à 18% entre 1933 et 1940. Le PIB par tête était en 1939 inférieur à celui de 1929 (847 USD contre 857 USD). L’investissement net privé était inférieur en 1940 à son niveau de 1930. Il a même été négatif en 1937 !

Ces résultats se comparent défavorablement à ceux d’autres pays. Le taux de chômage de la Grande-Bretagne était revenu à 10,3% en 1937. Quand au Canada, s’il avait souffert d’un taux de chômage inférieur de 3,9% au taux américain entre 1929 et 1933, la situation était renversée entre 1934 et 1940, avec un taux de chômage aux Etats-Unis en moyenne supérieur de 5,9% au taux de son voisin du Nord !

Ces chiffres désastreux s’expliquent par une erreur d’analyse. Pour Roosevelt (comme pour Hoover avant lui), le chômage est causé par un niveau des prix insuffisant. Le New Deal se déploie donc dans trois directions principales : la cartellisation de l’économie, le maintien des salaires à des niveaux artificiellement élevés, et l’augmentation des dépenses publiques.

Du côté de la cartellisation, le National Recovery Act amène à la création de codes sectoriels qui réglementent sévèrement l’activité. Les prix sont fixés en grande partie administrativement, et le jeu de la concurrence amoindri, d'où la conséquence inéluctable d'une baisse du niveau de la production. Parallèlement, le pouvoir est amené à créer une police spéciale de surveillance, qui transforme les industriels en délinquants potentiels. Le cas d’un tailleur du New Jersey emprisonné pour avoir vendu ses costumes quelques cents en dessous du prix minimal imposé est resté célèbre. Ce climat anti-business n’est guère favorable à l’investissement, ce qui se traduit en 1937 par un investissement net négatif.

Plus décisive encore apparaît la politique salariale, co-gérée avec les syndicats au sein de négociations de branches obligatoires. Alors que le taux de chômage dépasse tout ce que l’Amérique avait connu dans son histoire, les salaires minimaux sont remontés au-dessus du niveau du marché. Aucune distinction n’est établie suivant le niveau de qualification du personnel. Bénéficient de cette politique les salariés syndiqués (salaires élevés, meilleure sécurité de l’emploi, etc) mais les plus pauvres restent exclus. Ainsi la différence de salaire moyen entre syndiqués et syndiqués, qui ne dépassait guère 5% en 1933, s’élève-t-elle à 23% en 1940. L’élévation du coût du travail, l’encouragement aux grèves (28 millions de jours de grève en 1938), le développement d’une réglementation tatillonne, tout cela décourage massivement l’embauche, ce qui se retrouve dans les chiffres du chômage.

Le troisième volet du New Deal, l’augmentation des dépenses publiques, n’est pas une nouveauté absolue puisque Hoover avait déjà initié cette tendance (après une première hausse de 9% des dépenses en 1930, la croissance continue, au point que le déficit du budget fédéral représente 4,5% du PIB en 1933). Le déficit moyen s’établit à 5,1% du PIB entre 1934 et 1937. Tout cela ne suffit pas à empêcher une nouvelle aggravation de la crise en 1937 et 1938. Seule l’économie de guerre changera la donne, encore qu’il soit difficile dans ces conditions de parler d’un retour à la prospérité (le chômage baisse de seulement 7 millions de personnes entre 1940 et 1944 alors que l’armée enrôle 10 millions de soldats !). Pour contenir le déficit, les taux marginaux d’imposition sont placés à des niveaux prohibitifs, avec les effets désincitatifs que l’on connaît.

Ce rapide survol du New Deal ne laisse pas de doute quant à la réalité de l’échec économique. Cela n’a pas empêché Roosevelt de jouir d’une popularité élevée, qui lui a permis au rebours de toute la tradition constitutionnelle de se faire élire quatre fois de suite. Les raisons tiennent sans doute à des facteurs personnels (l’habileté politique de Roosevelt, son charisme personnel), à la mobilisation des mass-medias (la radio se développe véritablement à cette époque), mais surtout au développement des emplois et prébendes publics. Avec la raréfaction des emplois privés, les Démocrates savent jouer de cet avantage en termes électoraux, que les Républicains sont mal à l’aise pour contrecarrer. Là réside sans doute la seule vraie réussite du New Deal.

jeudi 15 octobre 2009

La querelle des Biens Publics

Nous terminons ce petit tour d’horizon des « défaillances du marché » avec la question des biens publics. Depuis Samuelson, on définit un bien public comme possédant deux caractéristiques : non-rivalité (la consommation du bien par un consommateur additionnel s’effectue à un coût marginal nul) et non-excluabilité (le bien une fois produit ne peut être réservé à une certaine catégorie de consommateurs, tout le monde peut en disposer gratuitement). Selon Samuelson, le marché ne peut produire efficacement ces biens publics en raison du phénomène de passager clandestin : chacun attend que quelqu’un d’autre engage les frais nécessaires à la production pour pouvoir en disposer soi-même gratuitement. Ainsi, bien qu’une véritable demande existe, la production reste sous-optimale.

Les exemples classiques vont du phare aux services de pompiers, en passant par la police. Et cependant, malgré son caractère d’évidence, la notion ne va pas de soi. Les services habituellement fournis par l’Etat tels que la poste, les chemins de fers, ne répondent pas à cette définition et sont donc des biens privés. En sens inverse, des biens traditionnellement considérés comme privés peuvent partiellement répondre à cette définition (on retrouve ici la question des externalités) : un jardin bien entretenu visible de la rue, l’apparence agréable d’une élégante,… tout cela peut s’interpréter comme un bien public, alors que nul n’invoque le besoin de l’intervention de l’Etat pour le fournir.

On ne peut donc déduire de la nature d’un bien qu’il doit être produit par l’Etat. Historiquement, beaucoup de biens considérés comme publics aujourd’hui ont été privés à l’origine (c’est le cas de l’exemple emblématique des phares, qui furent d’abord privés au 18e siècle en Angleterre…, mais aussi de la poste, de l’assistance aux pauvres, des télécommunications,…). Autrement dit, le marché est parfaitement capable de produire des biens publics. Plusieurs facteurs concourent à brouiller la limite entre les catégories. L’évolution de la technologie peut faire évoluer un bien d’une catégorie à l’autre. Par exemple, les logiciels propriétaires qui pouvaient naguère être copiés sans frais peuvent aujourd’hui être bloqué en cas de reproduction illicite ; les signaux hertziens peuvent être brouillés et nécessiter un décodeur, etc. De même, l’évolution du régime des droits de propriétés peut modifier la nature d’un bien : avec la privatisation d’une rue, le droit de contempler les jardins attenants prend ipso facto un caractère privé. Hans Hermann Hoppe va plus loin en montrant que le caractère d’un bien change dès lors que ce bien devient valorisé (fait l’objet d’une demande). Il se peut que personne ne se préoccupe de mon jardin, bien que visible de la rue. A la suite d’une mode, ou d’un changement de saison, ce jardin peut d’un seul coup acquérir de l’intérêt aux yeux d’un grand nombre de personnes. De bien purement privé, il prend ainsi un caractère public en ce qu’il procure une utilité à un nombre indéfini de personnes qui n’ont pas de droit sur lui. Le caractère public ou privé d’un bien devient dès lors une notion fluctuante et subjective. En pratique, répétons que l’évolution de la technologie et /ou des mentalités fait qu’une grande variété de biens considérés comme publics il y a quelques décennies sont aujourd’hui entièrement fournis par le privé (télécommunications, transports, etc).

Le principal argument des théoriciens de la défaillance des marchés s’effondre de lui-même : les marchés sont tout à fait capables de produire des biens publics. Mais peuvent-ils le faire en quantité optimale ? L’Etat doit-il intervenir pour en réguler la production, dans la mesure où elle ne serait pas suffisante ? Là-encore se pose la question de la révélation des préférences. Du fait du syndrome du passager clandestin, on pourrait argumenter que la demande réelle n’est pas mesurable. En réalité, il n’est pas clair de savoir pourquoi les biens publics devraient être produits s’ils ne le sont pas dans les faits. Qui en décide ainsi, sinon le jugement subjectif de l’économiste ou de l’homme politique, sans aucune forme de validation concrète ? Même si le bien public peut avoir un effet positif pour une certaine catégorie de consommateurs, il peut en avoir un effet négatif pour d’autres. Comment faire la synthèse ? Comment s’assurer que les ressources dépensées dans sa production ne peuvent pas être utilisées plus efficacement ailleurs ? Nous sommes renvoyés à la seule mesure exacte de la révélation des préférences, qui est l’analyse des transactions prenant place sur un marché libre. Or, lorsqu’on laisse au consommateur le choix, il préfère le bien privé (pour lequel il dépense ses propres ressources) au bien public (pour lequel il attend hypothétiquement qu’un autre ou l’Etat prenne à sa charge la dépense), qu’il est censé désirer mais sans engager aucune action concrète afin de l’acquérir. L’observation montre dès lors que le bien public non produit a moins de valeur pour le consommateur que les ressources qu’il lui faudrait engager pour en bénéficier. Le concept du passager clandestin n’est qu’un faux concept servant à surestimer la demande réelle pour les biens publics. Parler d’ »imperfection » du marché à ce propos ne fait pas de sens.

Nous espérons avoir montré, en résumé, que les arguments traditionnels avancés pour parler de l’imperfection des marchés ne résistent pas à l’analyse. Imperfection il y a au sens où les marchés ne dégagent pas nécessairement des conséquences conformes aux choix moraux ou éthiques de l’économiste, voire à ses anticipations personnelles. Mais l’analyse strictement économique, qui trouve en elle-même ses propres critères, ne peut prouver que les marchés défaillent. Du terrain de l’efficacité, le débat se trouve porté sur le plan éthique et moral, un terrain où les critiques de l’Etat interventionniste ont aussi de solides arguments à faire valoir.

vendredi 9 octobre 2009

La chasse aux monopoles

Nous poursuivons notre tour d’horizon des présumées défaillances du marché avec la question des monopoles. Voilà un bien vilain mot qui réussit l’exploit de mettre tout le monde d’accord contre lui, des marxistes aux libéraux. Cette unanimité pourrait conduire à suspecter un phénomène de bouc émissaire, peu justifié en fin de compte…

Commençons par résumer la position traditionnelle. Pour les néo-classiques, le monopole apparaît lorsqu’une entreprise contrôle toute la production d’un bien. Dans le but de maximiser son profit, elle va produire jusqu’au point où la recette marginale égale le coût marginal mais, compte tenu de la forme de la courbe de demande, proposera un prix plus élevé que le coût marginal (niveau qui aurait dû résulter logiquement du marché concurrentiel). On comprend notamment que dans les secteurs où les coûts sont décroissants, l’entreprise leader pourra facilement acquérir une position monopolistique. Au final, les monopoles délivrent un volume de production inférieur à des prix plus élevés que ne le feraient des entreprises en situation de concurrence pure et parfaite. Ils sont donc nuisibles au bien-être du consommateur et doivent être combattus à ce titre.

Comment une firme peut-elle obtenir une position de monopole ? Pour les économistes néo-classiques, les entreprises tentent d’ériger des barrières à l’entrée pour dissuader les entrants potentiels, et augmenter leur « surplus » de monopole (différence entre le profit en concurrence et celui dégagé par le monopole). Comptent comme barrière à l’entrée les économies d’échelle, la différenciation des produits, la concurrence par les prix, la publicité… Toutes ces manifestations de la concurrence dans la vie réelle peuvent être condamnées par les néo-classiques comme tendant à créer des monopoles ! Cela doit nous mettre sur la piste d’un défaut grave dans cette conception.

Les économistes autrichiens ont été les premiers à analyser les erreurs du paradigme de la concurrence pure et parfaite, une utopie à caractère statique qui confond le résultat et le processus, et qui ne permet donc pas d’analyser la réalité de la pression concurrentielle. Pour Mises et Kirzner notamment, ce concept de concurrence pure et parfaite est fort éloigné de la manière dont fonctionne le marché. Ils font ainsi ressortir que les barrières à l’entrée introduites par les économies d’échelle ou la différenciation des produits ne témoignent pas d’une mauvaise allocation des ressources mais bien de ce que la satisfaction des consommateurs face à l’offre existante rend l’entrée de nouveaux concurrents plus difficiles. Il est donc absurde de demander à l’Etat de réglementer pour bousculer une situation déjà optimale en elle-même.

Tentant de définir le phénomène de monopole, Mises le voit comme le contrôle par un seul fournisseur de la totalité de l’offre d’un produit. Cela ne dégage pas nécessairement un prix de monopole car il faut également que la demande soit inélastique par rapport aux prix. Kirzner pour sa part considère le monopole caractérisé lorsqu’un entrepreneur contrôle les ressources nécessaires à la production d’un bien. Il constate néanmoins que le monopoleur n’est pas à l’abri du processus de concurrence, puisque qu’il est toujours possible de produire des biens alternatifs au bien monopolisé ou de tenter de faire émerger une nouvelle demande.

C’est Rothbard qui va pousser le plus loin la réflexion. Il distingue trois définitions possibles du monopole : le vendeur unique d’un produit ; l’obtention d’un prix de monopole ; l’attribution par l’Etat d’un privilège ou d’une barrière à l’entrée. Pour Rothbard, la première définition, si elle a l’avantage de la cohérence, n’est pas applicable : elle peut englober toute production, puisque qu’il est toujours possible d’accumuler les qualificatifs d’un produit de façon à ce qu’il ne corresponde in fine qu’à la production d’un seul producteur. Ainsi peut-on parler du produit « voiture », puis en préciser progressivement les caractéristiques jusqu’à ce qu’un seul modèle d’un constructeur donné soit concerné ! Autrement dit, tout produit est susceptible d’une façon ou d’une autre d’être considéré comme faisant l’objet d’un monopole.

La deuxième définition (prix de monopole) n’est pas davantage applicable. Il est impossible de distinguer sur un marché libre le prix de monopole du prix concurrentiel. Toutes les entreprises tentent de maximiser leur profit en se positionnant sur la partie la plus avantageuse pour elles (c’est-à-dire la moins élastique) de la courbe de demande des consommateurs. Elles n’hésiteront pas non plus à réduire leur production si cela augmente leur bénéfice total. Aucun critère n’existe pour définir ce que devrait être le prix concurrentiel car aucune situation de marché n’est parfaitement similaire à une autre. Il n’est donc pas possible d’affirmer que le consommateur a été lésé par un manque de concurrence (en tout cas sur un marché libre).

Cette conception rejoint l’idée de la concurrence comme un processus global qui ne peut s’apprécier par des critères objectifs (nombre de producteurs, part de marché, etc). Tant que l’entrée sur le marché n’est pas limitée par une contrainte juridique, les entreprises existantes, fussent-elles seules sur leur marché, vivent sous la pression d’une entrée possible de compétiteurs. Ceux-ci le feront s’ils pensent faire mieux ou autrement que l’entreprise existante. La concurrence est invisible, mais bien réelle. C’est donc toute l’erreur des politiques concurrentielles (FCC aux Etats-Unis, Commission européenne, ou nationales) que de vouloir artificiellement stimuler la concurrence en s’attaquant aux entreprises dominantes. Une rapide analyse historique montrerait d’ailleurs que dans la plupart des cas, les décisions « anti-monopoles » sont provoquées bien moins par le souci de protéger le consommateur que par la stratégie de concurrents préférant le terrain politique parce qu’incapables de rivaliser sur le marché avec les même standards d’excellence. Cela apparaît clairement lorsque la Commission européenne veut par exemple interdire à Microsoft d’intégrer systématiquement et gratuitement Internet Explorer à Windows. Cette décision contraint l’acheteur d’ordinateur à des démarches supplémentaires pour disposer d’un navigateur sans lui accorder aucun avantage en échange. Sa situation est donc objectivement dégradée par l’intervention « anti-trust».

Finalement la seule situation où l’on peut parler à bon droit de monopole est celle où l’Etat crée des barrières (juridiques, financières, réglementaires,…) à l’entrée sur le marché. Il s’agit bien dans ce cas d’une réduction artificielle (par une contrainte extérieure au marché libre) de la concurrence, qui aboutit à un profit de monopole au détriment du consommateur.

Tout comme la notion d’externalité abordée dans mon précédent billet, le concept de monopole se dégonfle comme une baudruche lorsque qu’on le considère attentivement. Loin de constituer une caractéristique intrinsèque du capitalisme, le monopole n’est qu’une conséquence de l’économie dirigée, à haute dose dans les anciennes démocraties populaires, en quantité plus modérée dans les démocraties dites de marché. Une défaillance de l’Etat donc, et non du marché.

mardi 6 octobre 2009

La révolution fanée des externalités

J’entame ici une série de trois billets, consacrés aux « défaillances du marché ». Le premier portera sur les externalités (et sera suivi, sans surprise, par les monopoles naturels et les biens publics). Les supposées « défaillances du marché » occupent encore une place importante dans l’analyse économique contemporaine car elles justifient l’intervention de l’Etat, rendue nécessaire selon l’approche aujourd’hui dominante pour parvenir à un équilibre optimum. Voyons donc ce qu’il en est pour ce qui concerne les externalités, en tentant de simplifier autant que possible une question passablement embrouillée.

Le concept d’externalité a été inventé par Pigou en 1922, après l’achèvement de l’essentiel du corpus néo-classique. Réfléchissant sur la notion d’équilibre, Pigou constate que les industries à rendement croissant ou décroissant entraînent un niveau d’investissement optimal pour la firme mais non optimal pour le secteur. En effet, dans le cas d’une industrie à coût croissant, de nouveaux entrants peuvent générer une augmentation du prix des inputs qui se répercute à l’ensemble du secteur, créant ainsi une externalité négative. La solution envisagée par Pigou consiste à ce que l’Etat subventionne ou taxe les intervenants pour rétablir l’investissement à son niveau socialement optimal. En réalité, on comprend mal son raisonnement puisque les mouvements de prix sont pris en compte par les acteurs du marché et permettent un ajustement à l’équilibre.

Par la suite, Pigou suivi par Marshall a élargi son raisonnement et trouvé un fondement plus large à l’externalité. Il désigne ainsi le fait qu’un acteur non-partie à une transaction perçoive un avantage ou subisse un coût du fait de cette transaction. Le marché se confondant avec l’interaction des agents qui effectuent des transactions, aucun mécanisme n’existe pour prendre en compte les externalités et dégager un équilibre optimum. Il revient donc à l’Etat de remplacer le marché défaillant et de mettre en place des instruments de substitution (réglementation, taxation, institution de quotas, etc). L’exemple classique est celui de la pollution : les coûts générés par la dégradation de l’environnement (sur la santé, la productivité agricole, l’esthétique, etc) ne sont pas supportés par les pollueurs. Ceux-ci bénéficient donc pour leur production d’une demande artificiellement majorée, du fait de prix plus bas que ce ne devrait être le cas, ce qui aboutit à une sur-pollution. Notons cependant que l’externalité peut aussi être positive : tel est le cas où les passants d’une rue fleurie bénéficient du plaisir de contempler les jardins amoureusement entretenus par leurs propriétaires. Externalités positives aussi, de manière plus générale, dégagées par les infrastructures, l’éducation, la culture, etc., qu’il reviendrait donc à l’Etat d’encourager, voire de prendre en charge. Le champ d’application potentiel de la notion d’externalité apparaît ainsi quasiment sans limite.

La réaction à ces attaques sur l’efficience des marchés (ie leur capacité à dégager un optimum parétien), après une période de désarroi des économistes libéraux, va se développer selon trois directions : la première est théorique, c’est la réponse de Coase (les externalités sont un problème de droit de propriété) ; la seconde est fondamentale, c’est la réponse autrichienne (les externalités ne sont pas un problème) ; et la troisième est pragmatique, c’est la réponse de l’école des choix publics (l’Etat risque d’aggraver le déséquilibre qu’il tente de corriger).

Dès 1960, Coase établit que les externalités ne peuvent apparaître qu’en raison d’une insuffisance dans la définition des droits de propriété. Si la victime d’une externalité négative peut disposer d’un droit à indemnisation contre le responsable, le problème de l’externalité disparaît : il est « internalisé », c’est-à-dire englobé dans une transaction. Le marché redevient un processus efficient. Pour cela, il faut réunir deux conditions : une définition correcte des droits de propriété d’une part, et d’autre part des coûts de transaction suffisamment bas pour que le marché fonctionne pleinement d’autre part. Pour reprendre l’exemple de la pollution, le marché fonctionne lorsque les victimes peuvent être identifiées avec précision et leurs dommages pris en compte à un coût raisonnable (expertise, procédures judicaires éventuelles,…). Pour ce qui concerne la pollution de l’air ou de la mer, sauf exceptions comme les marées noires pour lesquels existe une jurisprudence, le caractère de bien public de l’espace maritime ou de l’atmosphère fait obstacle à une prise en compte par le marché. Nul (sinon le gouvernement) n’a un intérêt suffisant pour agir en justice contre le pollueur. La situation changerait le jour hypothétique où l’air ou la mer viendraient à être privatisées. Quoi qu’il soit, Coase montre que les externalités ne résultent pas d’une défaillance du marché mais plutôt d’une insuffisance de marché. Faire cesser les externalités ne réclame pas de faire obstacle au marché mais plutôt d’étendre son empire.

Au-delà de la réponse théorique de Coase, les économistes de l’école autrichienne, emmenés par Murray Rothard, ont développé dans les années 1970 l’idée que l’externalité est un faux concept. Tout d’abord l’externalité est un problème universel. Toute situation, toute transaction est génératrice d’un nombre infini et imprévisible d’externalités du fait de l’unité de l’univers. Pensons à l’effet papillon de Lorenz, selon lequel un battement d’aile d’un papillon au Brésil peut déclencher une tornade au Texas. Dés lors, distinguer certaines situations génératrices d’externalités que l’Etat doit corriger de la masse des transactions ne fait pas grand sens. Allant plus loin, Rothbard explique que du fait qu’il n’est pas possible d’additionner les utilités individuelles pour définir une utilité sociale (l’utilité peut se ranger de manière ordinale mais non cardinale), il n’existe aucun critère (autre que le critère de Pareto) permettant d’affirmer qu’une situation est socialement optimale. A fortiori l’Etat est-il dépourvu d’instrument de mesure de l’utilité pour évaluer les conséquences de son action, ce qui le prive également de toute justification pour celle-ci. Plus profondément, l’utilité ne peut pas être mesurée indépendamment de toute transaction. Elle n’existe pas en-soi mais seulement dans la mesure où elle est révélée par une transaction. Dés lors, l’absence de réaction de la part d’une victime d’externalité empêche toute analyse économique de celle-ci. La micro-économie qui tremblait sur ses bases avec la généralisation des externalités remettant en cause la théorie de l’équilibre retombe ainsi sur ses pieds : l’externalité n’est pas son objet. Il faut comprendre Rothbard non comme un apologiste de la pollution (cas typique d’externalité négative dans la littérature) mais plutôt, dans une perspective coasienne, comme militant pour une extension du champ du marché.

Enfin une troisième réponse a été apportée aux cours des années 1960 et jusqu’à nos jours par l’école des choix publics. Ce courant de pensée met l’accent sur les défaillances de l’Etat. Celles-ci se situent à un double niveau : celui des mécanismes de décision, qui reflètent des logiques politiques (« marché politique ») , et celui de l’exécution, notamment en raison de l’effet d’agence. Selon cette approche, l’action de l’administration qui met en place les décisions est influencée par son intérêt propre, souvent plus ou moins en contradiction avec l’objectif visé (une agence de lutte contre le chômage n’a guère d’intérêt au plein emploi, etc). Pour toutes ces raisons, il est douteux que l’action de l’Etat concoure réellement à l’amélioration de la situation. La lutte contre les externalités va générer d’autres externalités, les unes positives, mais beaucoup d’autres négatives. A l’inverse, le marché est probablement plus efficace puisque les acteurs interviennent directement pour représenter leurs propres intérêts.

Au terme de ce rapide parcours, il apparaît que la révolution des externalités a largement perdu l’importance qu’on lui accordait naguère. Les cas d’externalités sont soit omniprésents (optique autrichienne), mais ne remettent pas en cause la vision des marchés comme mécanismes efficients, soit relativement rares (optique coasienne), et de toute façon difficiles à appréhender par la puissance publique (école du public choice). Ce concept qui a fait couler beaucoup d’encre devrait donc retrouver le cimetière des idées économiques, en compagnie d’autres notions vedettes en leur temps et oubliées ensuite (l’usure, la valeur-travail, …).

mardi 29 septembre 2009

La relance, contre la reprise ?

A l’heure où la crise mondiale semble perdre l’acuité apocalyptique que lui attribuaient nombre de commentateurs et hommes politiques (de la « plus grave crise depuis 1929 » pour N. Sarkozy à «la crise finale du capitalisme » pour O. Besancenot ), nombreux sont ceux qui accordent tout le mérite de ce début de redressement aux politiques de relance.

Voyons d’un peu plus près ce qu’il en est, au moyen de prévisions pour 2009 publiées par l’OCDE en juin dernier. On assimilera (un peu rapidement il est vrai) déficit public et effort de relance.

Pays

Déficit public 2009

Croissance PIB 2009

UK

13%

-4%

USA

10%

-3%

Espagne

9%

-4%

Japon

8%

-7%

France

7%

-3%

Italie

5%

-5%

Allemagne

4%

-6%

Source : OCDE (juin 2009)-

Le résultat est sans ambiguïté : il n’y a pas de corrélation étroite entre l’ampleur du déficit public et le niveau de la croissance (ou plutôt de la récession).

Evidemment quelques statistiques ne constituent pas une démonstration. On pourra objecter à juste titre que :

· L’effort de relance devrait se mesurer par différence avec la politique budgétaire qui aurait été suivie en l’absence de crise. En 2008, le déficit public français s’était élevé à 3,4 % contre 0,1% en Allemagne. La comparaison des chiffres bruts sur 2009 est donc faussée.

· Les déficits publics ne correspondent pas toujours à une vision purement keynésienne de relance macroéconomique, mais peuvent comporter une dimension sectorielle. Les méga-déficits américains et britanniques sont en bonne part destinés au sauvetage du secteur financier, particulièrement affecté dans ces deux pays.

· Le déficit public peut tout aussi bien être causé par une chute des recettes due à la crise, qu’à une augmentation des dépenses destinée à combattre celle-ci.

· L’année calendaire 2009 n’est pas forcément l’indicateur le plus pertinent car elle englobe une phase de récession et une phase de stabilisation et/ou reprise. C’est la vigueur de celle-ci qu’il conviendrait de mesurer.

Malgré tout, le tableau ci-dessus met à mal l’idée d’une efficacité mécanique de la dépense budgétaire pour relancer l’économie. La dispersion des données est bien supérieure pour ce qui concerne le déficit public (de 1 à 3), que pour la croissance (de 1 à 2). Cela suggérerait, pour les plus optimistes, que l’achat d’un point de croissance en plus (de décroissance en moins) demande des efforts considérables ; et pour les autres, que le lien statistique n’est pas réellement significatif.

Il sera particulièrement intéressant de suivre l’évolution de ce tableau sur les années à venir. Je redoute pour ma part que les pays qui se sont accordés les déficits les plus importants ne soient également ceux qui bénéficient le moins de la reprise. Le paramètre important est ici le montant total de la dette publique plutôt que le déficit annuel, ce qui amène à nuancer l’affirmation, mais l’idée sous-jacente est simple : quelles que soient les politiques suivies, le poids de la dette étrangle l’économie. Soit que les gouvernements tentent de réduire l’endettement, ce qui les amène à une augmentation déraisonnable des impôts ; soit qu’ils jouent le « benign neglect », ce qui génère une croissance du poids du service de la dette. Joue à plein alors l’effet pervers de la hausse du risque et donc du cout de l’endettement, qui entraîne à son tour une augmentation du risque et donc du taux demandé par les prêteurs, jusqu’à ce que, dans le pire des cas, la spirale ne soit cassée par une crise majeure (inflation galopante ou défaut de paiement, dans les deux cas avec des conséquences catastrophiques).

Outre l’effet de l’endettement, des dépenses importantes de relance génèrent des risques structurels : le capital est investi pour sauver des secteurs en difficulté plutôt que pour préparer l’avenir ; il profite aux lobbies les plus influents plutôt qu’à ceux le mieux capables d’utiliser ces ressources ; et enfin il génère une dépendance douce à l’argent public qui stérilise l’esprit d’entreprise comme le goût du travail et de la prise de risque. A long terme, c’est la voie du déclin.