Introduction - Cepremap

26 oct. 2007 ... ... les modèles dynamiques stochastiques d'équilibre général (DSGE) .... est que
la valeur moyenne de ce taux, corrigé de l'inflation, est très bas (de .... le
problème posé au modélisateur est de calculer numériquement une ..... L'intérêt
de l'exercice est de fournir une mesure de l'incertitude de ces effets.

Part of the document

La nouvelle modélisation macroéconomique appliquée à l'analyse de la
conjoncture et à l'évaluation des politiques : les modèles dynamiques
stochastiques d'équilibre général (DSGE)
Anne Epaulard (DGTPE, Université Dauphine et CEPREMAP), Jean-Pierre
Laffargue (Université de Paris 1, CES et CEPREMAP) et Pierre Malgrange
(PSE, DGTPE et CEPREMAP) Introduction
Les débuts de la modélisation macroéconomique appliquée peuvent être
associés aux travaux de Tinbergen (1939), puis à la publication d'un livre
célèbre de Klein (1950), qui inclut un modèle de trois équations estimées
économétriquement, complétées par quelques identités comptables, de
l'économie américaine. Durant plus de vingt ans cette nouvelle approche
donna lieu à la construction de modèles keynésiens de taille croissante,
tâche qui fut facilitée par les progrès de l'information statistique, de
l'économétrie et de l'informatique. Les années soixante-dix marquèrent la
remise en cause fondamentale de ces modèles. A un niveau intellectuel les
critiques de Friedman, puis de Lucas, furent de plus en plus acceptées.
Bien que constitués d'un système d'équations simultanées, les modèles
keynésiens ne pouvaient pas être considérés comme des modèles d'équilibre
général satisfaisants. Les catégories qu'ils utilisaient : blocs de
« comportements » (consommation, investissement, etc.), « agents » de la
comptabilité nationale (ménages, entreprises non financières, institutions
financières, etc.), ne laissaient pas une place suffisante aux rationalités
des acteurs économiques, ni aux interdépendances des marchés. La perception
du futur par les agents de ces modèles était incohérente et conduisait à
surestimer l'efficacité des politiques actives de stabilisation. Les effets
d'offre ne jouaient qu'un rôle limité aux horizons pertinents, ce qui
conduisait à recommander des politiques de relance budgétaires et
monétaires excessives. C'est cette dernière caractéristique qui explique
principalement l'échec pratique et politique des modèles keynésiens. A la
suite du premier choc pétrolier, mais surtout d'un développement excessif
de l'émission monétaire dans les années qui le précédèrent, la plupart des
économies industrialisées se trouvèrent dans une situation d'inflation
forte et persistante, alors même que le chômage augmentait régulièrement et
fortement. Les départements d'économie des universités abandonnèrent la
construction des grands modèles, et les institutions économiques leur
accordèrent une confiance de plus en plus réduite pour l'évaluation de la
conjoncture, la prévision et l'élaboration des politiques économiques. Le renouveau de la modélisation macroéconomique appliquée commença avec les
modèles des cycles réels, connus sous le nom de modèles « RBC » pour Real
Business Cycles. Il s'agissait de véritables modèles d'équilibre général,
avec des comportements dynamiques cohérents et des prévisions rationnelles
des agents. Dans la tradition de Wicksell et de Frisch, les cycles
provenaient de chocs stochastiques indépendants qui se répercutaient dans
les agrégats économiques sous une forme transformée par les
interdépendances des comportements et des marchés que formalisait le
modèle. Mais, en abandonnant totalement les approches keynésiennes, les
initiateurs de cette nouvelle approche avaient jeté le bébé avec l'eau du
bain : les politiques économiques, notamment de stabilisation
conjoncturelle, n'avaient plus lieu d'être. L'absence de frictions et
d'imperfections a, en effet, pour corollaire que les actions des agents
parfaitement informés et rationnels suffisent pour que l'économie se place
en permanence sur la meilleure trajectoire possible compte tenu des chocs
de productivité qu'elle subit. Par la suite, les économistes enrichirent
cette démarche essentiellement juste, en ajoutant au cadre néo-classique
initial seulement perturbé par des chocs de productivité, les nombreuses
imperfections des marchés, les rigidités économiques et les perturbations
variées que connaît toute économie et qui sont donc nécessaires pour une
analyse correcte du cycle des affaires, des politiques de stabilisation et
des réformes. On peut considérer que cette démarche avait à peu près abouti
dans la moitié de l'actuelle décennie, avec les modèles de Christiano,
Eichenbaum et Evans (2005), et de Smets et Wouters (2003)[1]. Ces modèles,
ainsi que leurs ancêtres de modélisation du cycle réel, sont aujourd'hui
connus sous le nom de modèles DSGE (Dynamic Stochastic General Equilibrium
ou, en français, modèles d'équilibre général dynamiques et stochastiques). L'estimation, la simulation, l'évaluation, de ces nouveaux modèles fut un
défi important. Il fallut les progrès considérables de l'informatique, mais
aussi de l'analyse numérique appliquée à l'économie et de l'économétrie
pour y faire face. Ces nouveaux modèles ont connu alors un succès
considérable, dans les universités bien sûr, mais aussi au Fonds Monétaire
International et dans les départements d'études de la plupart des banques
centrales, ainsi que, avec un certain retard, dans les services d'études
des Ministères de l'économie ou des finances des pays industrialisés. Les
institutions économiques ont sans doute vécu une évolution moins
discontinue que les universités dans leur conception de la modélisation, en
développant pendant la période durant laquelle les modèles macro-
économétriques étaient rejetés et les modèles DSGE pas encore
opérationnels, des modèles « hybrides » qui ne pouvaient plus être
considérés comme étant keynésiens traditionnels, mais qui n'avaient pas
encore la rigueur des nouveaux modèles. Une raison de cette évolution
prudente est que les nouveaux modèles macroéconomiques sont encore d'une
taille assez petite, et peuvent donc sembler trop agrégés ou trop
simplifiés pour permettre une analyse fine des conjonctures et une
évaluation précise des politiques. Un bon exemple de ces modèles hybrides
est le modèle Multimod du Fonds Monétaire International (Laxton, Isard,
Faruqee, Prasad et Turtelboom (1998)). La première partie de ce numéro présente les spécifications retenues par
les nouveaux modèles macroéconomiques appliqués. La deuxième partie expose
les techniques de simulation, d'estimation et d'évaluation qui ont été
développées pour ces nouveaux modèles. La troisième partie examine des
applications de ces modèles effectuées par des administrations
économiques : le Fonds Monétaire International, la DGTPE et la Banque de
France. Elle examine aussi comment ces modèles peuvent être utilisés pour
améliorer notre compréhension d'épisodes passés, particulièrement
turbulents, de l'histoire de nos économies. Spécification des modèles DSGE[2] Les modèles du cycle réel adoptaient une formulation néo-classique très
simple qui permettait de rendre compte de la transmission de chocs
aléatoires de productivité aux grands agrégats économiques. En dépit de
leur simplicité ces modèles permettaient de reproduire des caractéristiques
essentielles du cycle des affaires, comme par exemple l'amplitude des
fluctuations de la consommation relativement à celle de l'investissement au
cours du cycle. Cependant, ils échouaient dans la reproduction d'autres
caractéristiques, comme par exemple l'évolution de l'emploi ou des heures
travaillées au cours du cycle. Cette insuffisance a conduit progressivement
les économistes concernés par la pratique à introduire dans les modèles du
cycle réel des imperfections de marché et des rigidités réelles et
nominales, de façon à obtenir un modèle reproduisant les caractéristiques
observées les plus importantes du cycle des affaires. Les économistes ont
également ajouté au choc de productivité de la théorie des cycles réels, un
grand nombre d'autres perturbations aléatoires, portant sur la demande, les
imperfections des marchés, les politiques, etc. S. Moyen et J.-G. Sahuc évaluent et comparent les améliorations que
permettent d'apporter les imperfections des marchés et les rigidités des
comportements que Christiano, Eichenbaum et Evans, ainsi que Smets et
Wouters avaient introduit dans leurs modèles. Les imperfections des marchés
sont modélisées par l'hypothèse que les travailleurs sont en concurrence
monopolistique sur le marché du travail, et que les entreprises le sont sur
le marché des biens qu'elles produisent. Les rigidités sont de deux types,
réelles et nominales. Une première rigidité réelle découle de ce que la
satisfaction qu'un ménage retire de sa consommation courante dépend de ses
consommations passées, qui l'ont habitué à un certain standard de vie, ce
qui l'amène à ajuster lentement sa consommation à la hausse (ou à la
baisse) lorsque son revenu augmente (ou diminue) de façon permanente. Une
seconde rigidité réelle découle de ce qu'un changement du rythme de
l'investissement relativement au capital installé est coûteux, ce qui
incite les entreprises à ajuster assez lentement leurs capacités de
production à un changement, même permanent, d'environnement économique. Les
rigidités nominales sont formalisées par l'hypothèse, dite de Calvo, que
les salariés et les entreprises ne sont pas certains de pouvoir ajuster à
chaque période leurs salaires ou leurs prix de façon optimale. Quand ils
échouent dans leur ajustement, le salaire ou le prix qui les concerne
évolue de façon conforme à l'inflation passée ou tendan