vendredi 30 décembre 2011

Les privatisations, une ardente obligation?

Privatiser (vocable qui l’a heureusement emporté dans les années 1980 sur l’éphémère « dénationalisation », trop négatif), c’est rendre au secteur privé la responsabilité d’activités économiques précédemment accaparées par la sphère publique. Dans les années 1970, l’inflation des dépenses gouvernementales qui s’accompagnait d’une extension continue des entreprises publiques a débouché sur une crise majeure ; celle-ci a entraîné au début de la décennie suivante la mise en œuvre des réformes Reagan et Thatcher, imitées dans nombre d’autres pays. L’échec, on peut dire la tragédie, de l’expérience socialiste achevée avec la chute du Mur de Berlin, a conforté la nécessité du renforcement de la part du privé dans l’économie.

20 ans après, le libéralisme a-t-il gagné la bataille des idées ? Certes, les facteurs qui poussaient aux privatisations existent toujours, et se sont même renforcés : l’environnement économique est devenu toujours plus volatil, plus mondialisé ; le secteur privé, avec sa capacité d’adaptation et d’innovation, son aptitude à prendre des risques, sa vision globale plus qu’étroitement nationale, est mieux à même de tirer son épingle du jeu que les lourdes entreprises publiques souvent héritières des industries traditionnelles. Imagine-t-on un Google ou un Facebook publics ? Et pourtant, les critiques relèvent la tête et tentent aujourd’hui de discréditer les résultats des privatisations. Essayons donc d’y voir plus clair.

Au sein des différents programmes de privatisation mis en place depuis 30 ans, on peut discerner au moins deux attitudes de la part des gouvernements, l’une à dominante théorique, et l’autre plus pragmatique. L’approche théorique, appuyée sur les travaux de Buchanan, Friedman ou Hayek, met en place une stratégie économique globale de libéralisation, déréglementation et privatisations. Selon cette vision, seul le jeu libre du marché est à même de parvenir à un optimum économique, que les gouvernements n’ont pas la capacité d’analyser, encore moins de contrôler. L’approche pragmatique quant à elle tient davantage compte du contexte politique, est influencée par les effets de mode, et s’appuie sur une analyse au cas par cas : que peut-on espérer concrètement de la privatisation de cette entreprise, par rapport à la gestion actuelle ? Quelles mesures intermédiaires mettre en place ? Comment satisfaire tous les groupes de pression ? Dans les pays démocratiques, à cycle électoraux courts et dans lesquels la compréhension des mécanismes économiques reste aléatoire, il est inévitable que la vision pragmatique l’emporte.

Ce triomphe de la pensée pragmatique complique singulièrement l’appréciation du bien-fondé des privatisations. Ainsi, une entreprise privatisée dans un contexte hyper-réglementé et lourdement fiscalisé ne peut pas déployer tout son potentiel. De plus, des conséquences possibles des privatisations comme la diminution des effectifs ou la hausse des tarifs risquent d’avoir un impact macro-économique négatif dans un contexte de rigidité de l’économie. On sait en effet qu’une économie déréglementée est dotée d’un potentiel de création d’emplois capable d’absorber l’arrivée sur le marché du travail des employés excédentaires, alors qu’une économie rigide verra un accroissement mécanique du chômage. Un certain nombre de difficultés tiennent donc à une mise en œuvre insuffisante plutôt qu’excessive du programme libéral.

Les programmes de privatisations sont confrontés à d’autres difficultés en termes de relations publiques. C’est notamment le cas lorsque des entreprises redressées par l’investisseur privé voient leur valeur s’envoler. L’opposition a alors beau jeu d’accuser le gouvernement d’avoir bradé les « bijoux de famille ». Mais l’argument est fallacieux : c’est l’apport du privé qui a généré de la valeur. Au moment de la privatisation, l’entreprise avait bien la valeur que le marché lui attribuait. Dés lors que le processus de privatisation est suffisamment transparent et concurrentiel, le prix payé par l’investisseur est par définition juste. Une autre difficulté surgit lorsque l’entreprise récemment privatisée augmente ses tarifs, et s’expose à l’impopularité. Mais dans la mesure où son marché est concurrentiel, c’est le prix du marché qui doit être payé par les consommateurs (sauf à introduire des correctifs sociaux, dans lesquels le gouvernement aiderait certaines catégories – une approche qui n'est pas sans risque).

La place manque ici pour établir un bilan complet des privatisations. Mais en tenant compte des remarques mentionnées ci-dessus, il paraît assuré de tirer des conclusions positives. Même les pays post-socialistes qui ont connu une décennie 1990 difficile, marquée aussi par le caractère souvent semi-mafieux de nombres de transactions, ne remettent plus aujourd’hui la démarche en cause.

Pour aller encore plus loin, et transférer au privé la responsabilité des infrastructures (typiquement publiques), la pratique des Partenariats Public Privé (PPP) s’est largement développée depuis quelques années. Dans ce cadre, l’Etat conserve un rôle de maîtrise d’ouvrage mais concède au privé la conception (souvent), le financement, la réalisation et la gestion de l’ouvrage, qu’il s’agisse d’un pont, une autoroute, une école, un hôpital… L’investisseur se rembourse au moyen soit d’une redevance annuelle versée par l’Etat soit des revenus générés par l’infrastructure (par exemple, les péages). L’intérêt de la formule tient à ce que le contrat de partenariat peut fixer de manière précise les objectifs de l’ouvrage en termes de qualité, de prix, etc, tout en laissant au privé le choix des moyens. Dans un contexte de pression concurrentielle faible sur les marchés concernés, cela permet d’éviter les pièges des privatisations exposés ci-dessus, et aussi d’intensifier la concurrence à l’occasion des appels d’offres préalables à la passation des marchés. Intelligemment pratiquée (car la méthode a aussi ses pièges et ses dérives), les PPP sont susceptibles d’améliorer la qualité des infrastructures et de jouer un rôle pédagogique en acclimatant le public au rôle que peuvent jouer les acteurs privés dans tous les domaines.

Quelles que soient leurs formes, leurs modalités et leur environnement, on peut l’affirmer sans crainte, les privatisations n’en sont qu’au début de leur histoire.

mercredi 16 décembre 2009

A quand la crise chinoise ?

Peu touchée par la crise, la Chine apparaît comme la locomotive de l’économie mondiale. Les prévisions officielles font état d’une croissance de 9% en 2010. Faut-il appeler à la prudence ? De même que le crash de Dubaï a pris le monde par surprise, les facteurs de fragilité de l’économie chinoise pourraient bien éclater avec violence dans les prochains mois, même si, comme pour l’Apocalypse selon la Bible, on ne connaît ni le jour ni l’heure.

Comme Dubaï, la Chine est confrontée à une situation de sur-investissement. Le rapport de l’investissement au PIB dépasse 50%, un chiffre qu’aucun pays à aucun moment de l’histoire n’a seulement approché. L’Allemagne avait atteint 27% en 1964, le Japon 36% en 1973 et la Corée du Sud 39% en 1991. Le prix à payer est la diminution de la rentabilité de ces investissements. Jusqu’à 2008, pour obtenir un dollar de PIB, il fallait un dollar et demi d’investissement, mais ce chiffre est passé à 7. Pékin est rempli de gratte-ciels inoccupés, d’infrastructures désertes, de bureaux vides…

Confrontées à la nécessité de redéployer l’économie sur le marché intérieur (les exportations ont baissé de 15% en 2009), les autorités qui continuent à maîtriser une bonne partie du processus d’allocation des ressources ne savent comment procéder. L’investissement industriel piétine, alors que les ressources sont engagées dans des grands projets inefficaces. Pour développer l’industrie, il faudrait résoudre un certain nombre de goulots d’étranglement (accès aux technologies, formation des cadres, matières premières,…) et laisser plus de place aux mécanismes de marché. Faute de cela, la corruption prospère et les réformes stagnent. A cet égard le plan de relance décidé en novembre 2008 génère un effet d’éviction de l’investissement privé par l’investissement public et aggrave le problème.

Autre facteur aggravant, le système financier est toujours aussi inefficace : les entreprises petites et moyennes n’ont que très peu accès au crédit, et le crédit à la consommation reste embryonnaire. Dans l’environnement politique et réglementaire local, il est plus facile pour les banques de se concentrer sur la clientèle captive des grandes entreprises d’Etat plutôt que de prendre des risques sur de nouveaux marchés…

La politique de change administré empêche l’adaptation aux flux de capitaux à court terme, qui risque de déstabiliser l’économie en 2010. Attirés par le différentiel de croissance avec les marchés développés, ces capitaux pourraient arriver en masse, ce qui provoquerait une bulle spéculative. Leur retrait brutal, comme de règle en pareil cas dès qu'évolue le contexte international, pourrait alors entraîner de graves déséquilibres. Compte tenu des réserves de change considérables accumulées grâce aux excédents commerciaux, il est peu probable que cette crise à venir se transforme en défaut de paiement, mais l’impact sur la sphère réelle pourrait être considérable.

La croissance à long terme de la Chine est une évidence. Mais la route pourrait être moins lisse qu’il ne semble généralement.

mercredi 9 décembre 2009

L’heure de vérité

La sortie de crise (le troisième trimestre 2009 a vu une croissance du PIB de l’euro-zone de 0,4%) n’est-elle qu’une illusion ? Pour une reprise vigoureuse plaident certes plusieurs facteurs, tels la bonne tenue des marchés émergents (la crise de Dubai affaiblit singulièrement cet argument) ou le retour de la confiance des ménages dans un certain nombre de pays. Il reste que la balance risque plutôt de pencher du côté d’une longue stagnation, voire d’une rechute.

C’est le point de vue de la Deutsche Bank par exemple, pour laquelle il faut s’attendre à une série de cycles (courbes en U). Le premier U est en cours. Le second serait provoqué par la hausse du chômage, qui entraînera une baisse du revenu des ménages et une contraction du commerce de détail au cours de l’hiver. Le troisième U interviendrait entre le deuxième et le troisième trimestre 2010, lorsque les Banques Centrales réduiront graduellement leurs programmes de soutien à l’économie. La Chine, l’Inde et la Corée entreraient dans cette phase plus tôt que les grands pays européens au cours de l’année 2010. Les partisans de cette thèse font valoir que les efforts des Banques Centrales n’ont pas eu l’impact escompté, en partie parce que les banques de deuxième rang ne réinjectent pas dans l’économie les capitaux qu’elles reçoivent. Dans le contexte de crise, le rating des sociétés de l’économie réelle décroît, ce qui pousse les banques à limiter leurs risques, et donc leurs encours. De ce point de vue, il ne faut pas s’attendre à une amélioration rapide, d’autant que le choc subi par le secteur bancaire l’amène à accorder la priorité au renforcement de sa stabilité interne plutôt qu’à une recherche de l’expansion. La masse monétaire en circulation (M3) en Europe aurait ainsi baissé de 8% depuis le déclenchement de la crise. Les moyens publics de lutte contre la crise apparaissent dés lors voués à l’échec. En juin, la BCE avait injecté 442 milliards d’euros, soit 5% du PIB annuel de la zone. Ces fonds sont restés pour l’essentiel sur le compte de la BCE ou sur des comptes interbancaires. En octobre, le taux d’intervention a été baissé en dessous de 1%, également sans résultat. Il est vrai que selon la Fédération européenne des banques, le coût de la crise pour les banques européennes s’élèverait à 420 milliards d’euros.

La situation est identique aux Etats-Unis. Alors que les banques conservaient en moyenne sur le compte de la Fed un montant de 0,3% du PIB sur les 20 dernières années, ce chiffre s’est élevé sur 2008-2009 à 6%. On se rapproche du phénomène de trappe à liquidités, qui a caractérisé l’économie japonaise des années 1990. Malgré des dépenses étatiques toujours croissantes (l’endettement public japonais atteint aujourd’hui 200% du PIB), aucune traduction sur l’économie réelle ne s’est fait sentir. Anticipant des hausses d’impôts pour rembourser la dette, les agents cessent d’emprunter et de consommer, mais au contraire utilisent leurs revenus pour réduire leur endettement. La baisse du marché entraîne une réduction des investissements, le tout générant une spirale dépressive dont il est très difficile de sortir. Certains économistes prétendent dans ces conditions, et contre toute vraisemblance, que la dépense publique est le seul moyen de soutenir l’activité! La réalité, c’est que la dépense publique excessive est à l’origine de la crise, et que son maintien l’alimente.

Il est vrai que la croissance allemande a augmenté au 1er trimestre de 0,5% par rapport à l’année précédente. Mais cette augmentation est un phénomène temporaire essentiellement dû à la prime de soutien de 2500 euros en faveur des acheteurs d’automobiles neuves, qui a conduit à une augmentation de 30% de la production au 1er semestre. Pour la majorité des observateurs cependant, ce type de mesure s’apparente à un effet d’aubaine, qui conduit les consommateurs à accélérer leur décision d’achat sans modifier sensiblement le volume de la demande à moyen terme.

Quoiqu’il en soit, la crise a conduit à une dégradation des finances publiques de l’ensemble des pays développés, dues à de moindres rentrées fiscales d’une part, et d’autre part aux dépenses destinées à la relance. Avec les niveaux d’endettement public d’ores-et-déjà atteints (87% du PIB en France, 89% au Royaume-Uni, 97% aux Etats-Unis, 127% en Italie…), l’inflation apparaît comme l’issue la plus vraisemblable pour le remboursement de la dette qui commence à peser de tout son poids sur les budgets nationaux.

La reprise sera rendue d’autant plus difficile que le commerce international s’essouffle, et que les tentations protectionnistes se font plus fortes. Au premier semestre 2009, les exportations allemandes, américaines et chinoises ont baissé de 30%, et japonaises de 50%. Le commerce mondial devrait baisser de 15% sur l’ensemble de l’année. Cela fragilise les économies très ouvertes, comme celles de l’Allemagne ou de la Chine. L’Allemagne est particulièrement touchée en période de recul de l’investissement du fait de sa spécialisation sur les biens d’équipements. Son affaiblissement se répercute mécaniquement sur ses voisins européens, tels la France, qui profitaient jusque là de la dynamique de son marché.

Une partie de la réponse résiderait dans l’amélioration du fonctionnement des banques. Celles-ci se sont trop souvent orientées vers des activités spéculatives à forte rentabilité, et donc à fort risque, comptant sur le soutien de l’Etat en cas de difficulté. Ce soutien s’est effectivement largement manifesté (à l’exception du cas de Lehman Brothers, dont la faillite est bizarrement interprétée par les étatistes comme un facteur aggravant de la crise alors qu’elle traduisait plutôt un assainissement du marché). Les Etats cherchent aujourd’hui à compenser l’aggravation objective de l’aléa moral (le principe Too big to fail) par un renforcement de la régulation. Mais on sait que cette démarche va échouer : les organes de surveillance et de contrôle ont toujours un train de retard sur la créativité du marché. Ils sont capables de sanctionner les dérives d’hier, mais non celles de demain. Seule une véritable concurrence peut modifier les règles du jeu, un système où chacun serait responsable de ses actes, et donc amené à trouver un équilibre optimal entre risque excessif et stérilisation des capitaux.

La politique monétaire laxiste des Banques Centrales à l’origine de la crise car favorisant le surinvestissement et les bulles spéculatives a été renforcée avec la crise. Mais les mêmes causes produisant les mêmes effets, l’effet de stimulation artificielle de ces politiques devrait rapidement s’épuiser dans le courant de l’année 2010. L’économie mondiale connaîtra alors son heure de vérité.

lundi 30 novembre 2009

Le Janus de la concurrence

Les critiques de la concurrence proviennent le plus souvent d’une compréhension insuffisante de ce phénomène. Car la concurrence est un Janus à deux têtes : elle comprend dans le même processus innovation et imitation, émergence et indifférenciation. Sans innovation, rien à imiter; et sans imitation qui risque de faire disparaître le profit, pas d’incitation à innover. Innovation doit être pris dans un sens très large, schumpétérien : il peut s’agir d’un nouveau produit, mais aussi de nouvelles matières premières, méthodes de production, ou de nouveaux marchés… Bref, tout ce qui distingue une firme d’une autre.

La plupart des critiques de la concurrence se focalisent sur l’aspect « imitation » en minimisant la dimension « innovation ». C’est ainsi que la concurrence est fréquemment qualifiée de destructrice, ou prédatrice.

Dans le marxisme, la concurrence, correctement perçue comme l’essence du capitalisme, est sensée conduire à une baisse tendancielle du taux de profit, entraînant la disparition des entreprises les plus faibles, ce qui conduit à une concentration accrue, elle-même accentuant le phénomène de monopolisation et de baisse du profit. L’une des failles du raisonnement (il y en a d’autres, qui tiennent en particulier à l’utilisation par Marx de la valeur-travail) réside dans l’oubli de la dimension innovatrice. Derrière le capital, Marx n’a pas vu l’entrepreneur. C’est l’action de l’entrepreneur qui va découvrir de nouvelles opportunités de profit rendues possibles par l’évolution continue de l’environnement, et par là contrecarrer la tendance à la baisse du profit. Au final, la concurrence fait baisser le profit (imitation), mais dans un deuxième temps (innovation), elle pousse à son augmentation, si bien qu’aucune tendance définitive ne se dégage. C’est l’une des raisons pour lesquelles les fidèles marxistes attendent toujours la Révolution annoncée par les écritures…

En un sens, cette conception, mutatis mutandis, est comparable à l’approche néo-classique focalisée sur le concept de concurrence pure et parfaite. L’état de concurrence pure et parfaite dans le paradigme néo-classique est à la fois considéré comme stable et optimal alors qu’il traduit en réalité une absence de concurrence ! Le modèle n’est stable qu’en l’absence d’innovation, qui représente l’une des deux facettes de la pression concurrentielle. Les néo-classiques se concentrent sur l’aspect « imitation », et nient toute possibilité d’innovation. Mais l’absence d’innovation ne peut signifier que l’absence de pression concurrentielle ! Cela amène le courant néo-classique à préconiser des politiques de la concurrence qui tendent à la convergence de l’économie vers la situation de concurrence pure et parfaite ; ce qui en réalité revient à amputer la concurrence, car lui dénie toute faculté de s’exprimer. Sous couvert de renforcer la concurrence, on la supprime dans les faits.

Ce défaut de compréhension est assez proche de celui manifesté par René Girard, le génial explorateur des phénomènes de mimétisme dans les sociétés humaines. Malheureusement non économiste, Girard s’en tient à la dimension mimétique de la concurrence et oublie sa dimension inverse de force différenciatrice. Il voit donc en la concurrence un courant essentiellement destructeur car les rivalités mimétiques finissent par déclencher une violence primitive qui peut être d’une violence extrême. Cette violence est susceptible à son paroxysme de remettre en cause le lien social, et générer un cycle de révolutions. Les sociétés anciennes ont choisi de concentrer la violence sur le bouc émissaire (on peut ici par analogie penser au capitaliste, vilipendé comme exploiteur), ce qui met fin pour un temps à la crise mimétique. Pour Girard, seul le christianisme en tant qu’il affirme l’innocence du bouc émissaire, peut mettre fin aux rivalités mimétiques. D’une part, Girard omet d’appliquer au capitalisme sa théorie (il faut pour lui diminuer l’intensité de la concurrence afin de pacifier la société, plutôt que de démontrer l’innocence du capitaliste), mais surtout il ne comprend pas la nature duale de la concurrence : à côté de sa dimension mimétique, elle recèle des forces de différenciation, d’autant plus puissantes que les rivalités mimétiques se font violentes. Autrement dit, le capitalisme contient en lui-même son mécanisme salvateur.

Pour revenir à une approche plus économique, la nature de la concurrence ne peut être comprise que comme un processus, plutôt que comme un état. Elle n’entraîne le monde vers aucune apocalypse ou grand soir, ou état stationnaire, mais seulement vers un changement continu, généralement créateur de richesse et donc d’amélioration de la situation générale.

De même que la concurrence est duale (imitation/innovation), elle génère un déséquilibre temporaire (l’innovation) en même temps que des forces de rappel vers l’équilibre (l’imitation). L’équilibre économique n’est donc jamais stable. A vrai dire, la question est plus complexe que cela, car l’innovation tend elle-même vers un nouvel équilibre, que l’imitation modifie pour tendre vers un équilibre encore nouveau. La concurrence est donc équilibrante en même temps que déséquilibrante…

Cette approche permet de relativiser les critiques sur les destructions générées par la concurrence. Certes elle remet en question des situations acquises ; par exemple, l’ouverture des frontières peut entraîner du chômage au sein d’une branche non compétitive. Mais le bilan ne peut jamais être effectué de manière comptable, comme si l’on pouvait analyser un phénomène (ici « l’ouverture des frontières ») en raisonnant toutes choses égales par ailleurs. Le propre de la concurrence, c’est justement de bouleverser l’ensemble du paysage, de sorte que le « toutes choses égales par ailleurs » ne fait pas de sens. L’intensification de la concurrence intensifie également la pression innovatrice, qui ouvre de nouveaux horizons. Ainsi l’ouverture des frontières peut entraîner l’adaptation de l’industrie domestique, mais aussi le redéploiement vers d’autres niches ou d’autres branches, de nouvelles spécialisations, l’intensification des échanges, etc. Les modèles économétriques sont inaptes à capter ce qui fait l’essence de l’économie, à savoir les capacités entrepreneuriales de l’humanité. Seule l‘observation a posteriori pourra effectivement expliquer la manière dont l’économie s’est adaptée aux nouvelles conditions. La prévision, parce qu’elle ne prend pas en charge l’inventivité humaine, en est incapable.

Comprendre la nature duale de la concurrence, c’est admettre que la plupart des politiques de la concurrence ne s’attaquent qu’à une des dimensions de la question (l’imitation plutôt que l’innovation) et jouent donc un rôle néfaste. La réglementation est bien souvent une mauvaise régulation : la concurrence n’a pas besoin d’autre régulation qu’elle-même. Réguler pleinement la concurrence, c’est la laisser se manifester dans toute sa force. Elle contient en elle-même les forces qui la poussent vers l’avenir et les mécanismes de rappel qui tendent vers de nouveaux équilibres. Voilà qui devrait représenter une bonne nouvelle pour ceux qui cherchent la pierre philosophale d’une économie de marché encadrée.

jeudi 19 novembre 2009

Bulles passées et à venir

Les marchés sont-ils instables par nature ? Les partisans d’une régulation accrue tirent avantage de la fréquence des crises (euphorie, suivie d’effondrement, le tout assimilé à une « bulle » financière) pour asseoir leur thèse, avec le soutien d’une grande partie de l’opinion publique. Mais les apparences seraient-elles trompeuses ? Car un examen attentif des bulles suggère que l’intervention de l’Etat n’est pas complètement étrangère au phénomène.

Qu’est-ce donc qu’une bulle ? En première analyse, il s’agirait d’une dilatation excessive du prix des actifs, qui conduit à un éclatement brutal. La difficulté de cette définition tient à ce qu’il est quasi-impossible de définir à quel moment un prix de marché devient excessif. On sait que le prix d’un actif financier est essentiellement défini par les anticipations des agents sur ce qu’il peut rapporter à l’avenir. Tout prix est donc subjectif par nature, et la notion de prix intrinsèque, ou de valeur réelle, ne repose que sur du sable. Si la bulle pouvait être identifiée comme telle, il est évident qu’elle éclaterait à l’instant-même. Autrement dit, ce n’est qu’ex-post, après son éclatement, que l’on peut reconnaître que l’on a été confronté à un phénomène de bulle. Cela amène certains auteurs à nier la possibilité de bulles. Selon eux, le prix de marché est toujours justifié par les anticipations. Si une crise éclate, cela s’explique par une modification brutale des anticipations, généralement causée par un changement dans l’environnement. Cette thèse s’appuie notamment sur la théorie des marchés efficients : selon ce postulat, toute l’information disponible se retrouve à tout instant dans les prix de marché.

Sans nier tout mérite à cette analyse, il faut lui reconnaître un caractère un peu extrême. La théorie des marchés efficients est de plus en plus contestée, et n’a jamais été admise, pour des raisons un peu longues à développer, par les auteurs de l’école autrichienne, lesquels figurent pourtant parmi les plus inconditionnels défenseurs des mécanismes de marché.

Admettons de façon empirique que les marchés fonctionnent souvent de manière apparemment irrationnelle. Sans prétendre proposer une théorie de la formation et de l’éclatement des bulles, on peut montrer que ces défaillances du marché sont essentiellement liées à des déficiences de l’Etat. Prenons quelques exemples parmi les plus célèbres de l’histoire : la tulipe-mania en Hollande au 17e siècle, le système de Law au 18e en France, la crise boursière de 1929, et enfin la bulle immobilière américaine, à l’origine de la crise dont nous peinons actuellement à sortir.

La spéculation sur les tulipes en Hollande est souvent citée dans les manuels d’histoire. L’année 1636 a vu les prix s’envoler vertigineusement, avant de retomber brutalement en février 1637. Il semble pourtant aux historiens contemporains que cet engouement a été beaucoup plus limité dans son ampleur qu’on ne l’a souvent écrit. Le commerce des tulipes fut le fait de quelques professionnels et non de couches sociales entières. Les contrats typiques étaient des contrats à terme, l’acheteur contre une petite somme d’argent s’engageant à payer le prix convenu à l’échéance. Le facteur déclenchant de la chute semble avoir été une disposition prise par la guilde des fleuristes et validée par le parlement hollandais, qui a transformé les contrats d’achats à terme en simples options : les acheteurs pouvaient se dédire à peu de frais à l’échéance pour tous les contrats passés après le 30 novembre 1636. Personne ne fut ruiné par la chute des cours car tout s’était réduit à un jeu d’écriture, sans compensation monétaire. C’est donc bien un changement réglementaire qui a provoqué la fin brutale de la spéculation, et l’effondrement des prix, plutôt qu’un dysfonctionnement du marché.

Le système de Law fut en revanche beaucoup plus dévastateur socialement. Sans revenir sur les détails de cette affaire, on peut noter que ce sont les privilèges puis les monopoles conférés par l’Etat qui constituent la colonne vertébrale du montage. L’objectif de Law consistait à remplacer les encaisses métalliques par du papier-monnaie gagé sur des opérations coloniales pour le moins peu transparentes… Bénéficiant initialement du crédit public, le système apparaît comme l’occasion d’enrichissement facile et sans risque (période spéculative) puis s’effondre d’un coup lorsque la fraude (l’insuffisance d’actifs) est découverte. Banque privée jouissant du monopole d’émission des billets, la banque de Law fut la première à démontrer le danger des systèmes de banque centrale.

La crise de 1929 a fait l’objet d’une étude approfondie par Murray Rothbard, dans son ouvrage classique « America’s Great Depression », publié en 1963. Il y établit que l’expansion monétaire orchestrée par la Fed (créée en 1913) de 1921 à 1928 a été le terreau dont s’est nourri la spéculation. Le resserrement de la politique monétaire en 1928 a fragilisé le marché, dès lors à la merci du moindre retournement de tendance. L’excès de liquidité pendant les Roaring Twenties a favorisé l’investissement en titres au détriment du secteur réel. La violence de la crise s’explique par le désarroi des participants qui pensaient que la Fed détenait la pierre philosophale conduisant à l’expansion perpétuelle, et qui ont vu le système s’effondrer sans remède.

L’expansion monétaire excessive est tout autant responsable de la bulle immobilière américaine des années 2000. On y ajoutera les incitations étatiques à prêter à des débiteurs à risque, les garanties dont bénéficiaient des organismes semi-publics comme Fanny Mae et Freddy Mae, et enfin la prise de risque inconsidérée des grands établissements s’appuyant sur le principe du « Too big to fail », selon lesquels l’Etat viendrait à leur secours en cas de faillite.

Tous ces cas de bulle financière au cours de l’histoire montrent que ce n’est pas le pur fonctionnement du marché qui crée les bulles, mais bien le contexte réglementaire et politique dans lequel se développe le marché. Il ne s’agit pas de nier le caractère cyclique de l’économie, mais plutôt de souligner que l’intervention de l’Etat tend à amplifier les fluctuations, et à limiter les forces automatiques de rappel mises en place par le jeu du marché. L’opinion publique tend à attribuer la responsabilité des crises aux spéculateurs. C’est cependant une vérité contre-intuitive que la spéculation est anticyclique et donc stabilisatrice : pour gagner de l’argent le spéculateur doit jouer à contre–tendance (acheter au son du canon, vendre au son du clairon, selon la célèbre formule des Rothschild). Les réglementations anti-spéculation risquent donc d’aggraver le mal qu’elles prétendent combattre. Parallèlement, des réformes cosmétiques comme l’encadrement des bonus des traders ne changent rien aux mécanismes de base à l’œuvre sur les marchés. En revanche les politiques à l’origine de la crise sont maintenues et même amplifiées : dans le contexte actuel de taux d’intérêt quasi-nuls et de déficit publics massifs, de nouvelles bulles sont à craindre, comme le suggère l’euphorie des bourses depuis quelques mois.

mercredi 11 novembre 2009

L’indicateur du bonheur

Le rapport de la Commission Stieglitz, dont la version finale a été publiée en septembre dernier, inspire des sentiments mitigés. Le gouvernement français avait demandé à un aréopage d’économistes internationaux de réfléchir à des alternatives au PIB comme indicateur de la performance économique.

L’idée de départ est louable : la place excessive tenue par le critère du Produit Intérieur Brut dans l’analyse conduit à ce qu’on oublie trop souvent les lacunes de cet indicateur. Les deux principales à mon sens tiennent à sa mauvaise appréhension des activités non marchandes, et d’autre part à l’absence d’indicateur de stock. Pour le premier point, l’activité des administrations est évaluée à son coût de production. Pour augmenter le PIB, il suffirait d’augmenter le nombre de fonctionnaires… L’amélioration (ou la dégradation) de la productivité de l’administration ne peut donc être prise en compte, ce qui est gênant dans la mesure où la lutte contre les gaspillages du secteur public représente un des principaux enjeux de la politique économique.

Par ailleurs, le périmètre des activités non marchandes peut évoluer dans le temps sans que la sphère réelle en soit modifiée : c’est l’anecdote de homme qui épouse sa femme de ménage et fait ainsi baisser le PIB toutes choses égales par ailleurs (dans l’hypothèse où la femme mariée poursuivrait les activités de la femme de ménage…). Plus sérieusement, c’est toute l’économie souterraine qui est en cause, avec une solution de continuité entre les petits services entre voisins rémunérés en nature jusqu’à la fraude à grande échelle. Au milieu des années 1990, certaines études ont évalué l’économie souterraine d’un pays comme l’Ukraine à un montant compris entre 30 et 50% du PIB. Plus près de nous, on évalue l’économie souterraine italienne entre 15 et 20% du PIB[i]. L’évolution qui affecte cette sphère souterraine peut rendre ainsi les statistiques de PIB illisibles.

La deuxième série de limites du PIB tient à ce qu’il n’est pas un indicateur de stocks mais seulement de flux. Retenons l’analogie avec le compte de résultat (flux) et le bilan (stock) que doit établir toute entreprise. L’analyste financier doit impérativement disposer des deux types de documents pour prononcer un jugement fondé sur la situation de l’entreprise. L’Etat ne dispose pas en ce qui le concerne de comptabilité patrimoniale digne de ce nom, et l’établissement de celle-ci serait soumise à de graves difficultés : comment évaluer le château de Versailles ou Notre-Dame de Paris ? Ces bâtiments ne font pas l’objet d’un marché et ne peuvent donc être valorisés. Il est vrai que même pour une entreprise, l’interprétation d’un bilan est chose plus subjective que pour ce qui concerne le compte de résultat. L’analyste financier procède généralement à une série de redressements afin que les comptes reflètent mieux la réalité économique (l’une des causes principales tient à ce que les immobilisations détenues par l’entreprise sont consignées selon leur coût d’acquisition qui peut être très différent de leur valeur actuelle, même sous déduction des amortissements). Dans le cadre de l’Etat dont une grande partie du patrimoine ne fait pas l’objet d’un marché, une telle démarche est entachée d’arbitraire. C’est pourtant par l’analyse du bilan que l’on pourrait définir si l’Etat s’appauvrit ou s’enrichit par la croissance transcrite par le PIB : une catastrophe naturelle qui détruit des installations implique des travaux de reconstructions, qui augmentent le PIB, alors que le pays s’est appauvri…

Même pour le secteur privé, le PIB ne permet pas de prendre en compte les investissements, notamment incorporels (recherche et développement, formation, etc) qui rendent la croissance durable ou non. Autrement dit, une augmentation du PIB dans un contexte favorable peut laisser penser que tous les paramètres macro-économiques sont favorables, alors qu’elle ne traduit qu’un gaspillage du capital (y compris humain) qui prépare la crise de demain.

Plus largement, on oublie trop souvent que le PIB doit se comprendre comme un indicateur lié au contexte économique dans lequel il est mesuré. Il ne fait guère de sens de comparer sur cette base des pays ou des époques très dissemblables. L’ensemble des biens produits (et retranscrits dans la notion de PIB) peuvent différer totalement. Lorsqu’on explique que tel pays d’Afrique (cas de l’Ethiopie) dispose d’un revenu de moins de trois dollars par habitant et par jour, on oublie de préciser les différences d’environnement : un Européen ne pourrait survivre avec trois dollars par jour dans une métropole, alors que ce montant permet à un Ethiopien de mener une vie « normale » au sein d’un village des hauts plateaux. De même est-il peu utile de comparer les revenus en termes de PIB d’époques très différentes : la plupart des produits que nous consommons aujourd’hui n’existaient pas au 19e siècle. Et inversement nous ne consommons plus le type de produits utilisés par nos ancêtres.

Que les autorités cherchent à relativiser la notion de PIB représente donc en soi une bonne nouvelle. Mais l’on ne peut s’empêcher de ressentir une certaine inquiétude, lorsque la presse interprète ce souci comme la recherche d’un indicateur du bonheur.

Mesure le bonheur est voué à l’échec, car le B-A BA de la science économique réside en ce que l’utilité ne peut faire l’objet d’opérations arithmétiques d’une personne à l’autre (on dit que l’utilité est ordinale, et non cardinale ; il n’y a pas et il ne peut y avoir d’unité d’utilité). Si l’on se lance dans une tâche impossible, la raison est probablement autre : il s’agit de justifier un contrôle toujours plus grand de l’Etat sur la population. Car de la mesure à la tentative de contrôle, il n’y a qu’un pas. Le monde de Big Brother n’est pas loin, lorsque les unités de bonheur seront attribuées et régulées forfaitairement pour chaque catégorie de population…

La leçon est toujours la même : face à la limite structurelle de son pouvoir, l’Etat n’accepte que rarement que toute institution humaine est faillible et limitée. Sa réaction naturelle consiste au contraire non à s’adapter à la nature des choses mais en l’hybris, la tentative de forcer la nature, d’acquérir à toute force ce contrôle impossible sur la société (ou la nature). Ce qui est tout autant voué à l’échec mais entraîne des effets pervers et des coûts considérables. Méfiance et vigilance donc, sur cet indésirable indicateur du bonheur : le bonheur n’est pas dans les chiffres. Et peut-être n’est-il même pas dans l’économie…

vendredi 6 novembre 2009

Pour en finir avec la main invisible

Le concept de « main invisible », tel qu’imaginé par Adam Smith, le fondateur de l’économie classique en 1776, tient une place centrale dans la pensée libérale, aussi bien chez ceux qui la critiquent que ceux qui la défendent. Mais malgré des centaines de livres et de réflexions sur le sujet, l’origine aussi bien que le sens que lui assignaient Adam Smith en sont longtemps restés obscurs.

A vrai dire, « la main invisible » n’apparaît qu’une seule fois dans la Richesse des Nations, l’ouvrage de Smith. Elle n’y fait l’objet d’aucun développement, si bien que les commentateurs ont pu explorer nombre de directions pour l’interpréter. Dans le contexte de l’ouvrage, Smith indiquait que la recherche par chaque individu de son intérêt personnel concourt, comme par « une main invisible » à l’intérêt général. Les bouchers, les boulangers et autres artisans nous vendent leurs produits non par philanthropie mais en vue de promouvoir leur intérêt, tout le monde ayant à gagner de cette situation. Mais si l’on saisit bien l’idée générale, il faut avouer qu’aucune démonstration rigoureuse n’est apportée par l’auteur.

Mentionné comme en passant par Smith, le concept est au cœur de la croyance en l’efficacité de l’économie de marché, comme l’établiront les générations d’économistes qui vont suivre (de Bastiat à Hayek jusqu’aux libéraux contemporains). Car la nature humaine poussant chaque individu à rechercher son intérêt, c’est précisément par les efforts de chacun qu’un optimum social peut être obtenu. Nul besoin donc de correctifs extérieurs au marché, en particulier nul besoin de planification ou d’intervention de l’Etat.

La fortune d’un concept aussi allusif chez Smith a déclenché de multiples tentatives d’élucidation, avec pendant longtemps peu de succès. Ce n’est qu’assez récemment qu’un pas décisif a été franchi, grâce au rapprochement effectué par des économistes américains entre le concept de main invisible, et l’Essai sur le Nature du Commerce en général, de Cantillon.

Génie méconnu de l’analyse économique, Richard Cantillon, un financier irlandais installé en France, avait fait fortune en profitant du système de Law, dont il s’était retiré à temps car il en avait prévu la déconfiture. Il avait rédigé son texte en 1730 mais n’eut pas le temps de le publier avant sa disparition à Londres en 1734 (il fut probablement assassiné par son domestique, qui mit le feu à la maison pour dissimuler le crime). Le manuscrit a circulé -Mirabeau Père en disposait d’une copie-, et fut publié en 1755. Smith s’y réfère à plusieurs reprises dans son œuvre. Après la publication de la Richesse des Nations, Cantillon tombe dans l’oubli. Ce n’est que vers 1880 que l’en tirera Jevons, le fondateur anglais du marginalisme, étonné par la hauteur de vue et les conceptions d’avant-garde de l’ouvrage, dans lequel il voit un précurseur de l’école autrichienne. A maints égards, Smith constitue une régression par rapport aux intuitions géniales de Cantillon.

Selon Mark Thornton[i], le passage dont se serait inspiré Smith est celui du chapitre 14 de l’Essai. Celui-ci décrit un domaine autarcique dirigé par son propriétaire, qui dispose de paysans et d’artisans, de ressources en grain et en bétail, etc, le tout en vue de maximiser sa consommation personnelle. Cantillon pose que si le propriétaire délègue à des fermiers l’exploitation de son domaine, lesquels vont embaucher des ouvrier agricoles, et qu’il achète leur production, l’ensemble des ressources et des facteurs vont se trouver utilisés de la même façon que lorsque le propriétaire gérait directement le domaine. En effet, le jeu de l’offre et de la demande va conduire à la même situation d’équilibre : si un artisan produisait une quantité supplémentaire, le prix diminuerait, et il préfèrerait revenir à son niveau de production initial. De même pour l’affectation du grain entre consommation et ensemencement. Ce n’est que si le propriétaire change sa fonction de demande que l’affectation des facteurs se trouvera modifiée. Cantillon n’utilise pas le terme, mais tout se passe comme si la main invisible du propriétaire (par l’intermédiaire de contrats et du jeu du marché) affectait les ressources de la même façon que sa main visible lorsqu’il gère le domaine directement. Selon cette interprétation, la main invisible se rapporte donc au jeu du marché, capable d’optimiser l’allocation des facteurs et de parvenir à une situation d’équilibre. On voit que Smith a quelque peu déformé et limité le concept que Cantillon décrit avec une rigueur bien supérieure.

L’allusion mystérieuse de Smith a causé beaucoup de tort à la pensée libérale. Dans la mesure où la main invisible apparaît dans son livre comme un « deus ex machina », une force externe qui résout comme par un coup de baguette magique toutes les difficultés, les critiques du libéralisme ont eu beau jeu de dénoncer l’idolâtrie du marché, et de n’y voir qu’une révérence devant une pensée magique primitive. A la décharge de Smith, il faut ajouter qu’il ne s’attendait probablement pas à ce que l’expression de main invisible prenne une telle place dans la littérature économique. C’est d’ailleurs surtout à partir des années 1930 que les auteurs lui accordent une place qu’elle ne mérite probablement pas, vu son absence de caractère explicatif.

Le retour sur Cantillon permet de désamorcer toutes les polémiques inutiles. Le contexte très clair dans lequel se situe Cantillon permet de montrer que la main invisible n’est pas une force magique et irrationnelle, mais un mécanisme que l’on peut analyser en toute rigueur. Un mécanisme qu’il serait urgent de re-dénommer : pour éviter les confusions, les procès d’intention et les polémique stériles, la science économique aurait tout intérêt à rayer l’expression de son vocabulaire. Et s’il faut trouver un synonyme, le concours est ouvert…