Vous n'êtes pas membre (devenir membre) ou pas connecté (se connecter)
Vincent Benard

Vincent Benard

Vincent Bénard est analyste à l'Institut Turgot (Paris) et, depuis mars 2008, directeur de l'Institut Hayek (Bruxelles). C'est un spécialiste du logement et  de la crise financière de 2007-2008 (subprimes). Grand défenseur du libéralisme économique, Vincent décortique tous les errements des Etats providence !

Crise financière: l'erreur mathématique

Audience de l'article : 7118 lectures

Ni les agences de notation, ni les grandes banques n'ont vu venir la crise financière. Fannie Mae et Freddie Mac "ne pouvaient pas faire faillite". Des institutions autrefois respectables comme AIG se sont écroulées en vendant des produits d'assurance spéculatifs qu'elles croyaient peu risqués. La liste des erreurs fatales commises par le monde de la finance ces dix dernières années est incommensurable. Pourquoi ?

Selon le dernier ouvrage de Philippe Herlin, reprenant les thèses de Benoît Mandelbrot et Nassim Nicholas Taleb, la science financière actuelle est fondamentalement déficiente, et les postulats mathématiques qui en forment le socle dominant sont faux. Ces modèles, par la faute d'une sous-estimation congénitale des niveaux de risque qu'ils entrainent, ont joué un rôle essentiel dans le déclenchement de la crise financière que nous vivons.


--------------

Livre-p-herlin Dans son nouvel Ouvrage, "Finance, le nouveau paradigme", sous titré "comprendre la finance et l'économie avec Mandelbrot, Taleb...", Philippe Herlin, que vous connaissez peut être à travers son blog "la dette de la France", explique comment le mauvais état de la science mathématique financière à très largement contribué à mettre à genoux l'économie mondiale.

 

Et je dois dire que la thèse est convaincante, même si j'emets une tout petite réserve vers la fin. Mais avant d'aborder le fond, quelques mots sur la forme.


Un ouvrage captivant malgré le sujet ardu

L'auteur réussit la gageure de captiver le lecteur avec un ouvrage dont les premiers chapitres sont pourtant essentiellement consacrés à des explications mathématiques sur les lois dites "normales", ou de Gauss, et leur application à la finance moderne, et les lois dites de "puissance", ou de Zipf, qui ont servi de base à Mandelbrot pour définir les mathématiques fractales et les appliquer à la finance.

Comme vous voyez, ce n'est pas un ouvrage tout public, mais pas de panique ! Disons qu'un élève de terminale C ou D, ou toute personne avec un reste de culture scientifique devrait pouvoir suivre sans problème. Sinon, une personne qui s'intéresse au problème sans connaître les maths sous-jacentes pourra comprendre très bien la démarche en survolant les deux premiers chapitres.

Les sources des modèles financiers actuels

Mais évidemment, la force du livre n'est pas dans son contenu mathématique mais dans l'étude des conséquences d'une erreur fondamentale dans les modèles utilisés par le monde de la finance et celui de la grande entreprise aujourd'hui.

Je vais tenter d'expliquer en "quelques" lignes -compréhensibles, j'espère- de quelle erreur il s'agit.

Dans les trois décennies d'après guerre, des théoriciens de l'économie (Markovitz, Sharpe, puis Fama, Merton, Black et Scholes, pour ne citer que les plus connus) reprennent les travaux d'un thésard français auparavant tombé dans l'oubli, Louis Bachelier, qui avait constaté que nombre de phénomènes financiers, tels que les valorisations boursières de certains portefeuilles, l'évolution de cours de certains indices, etc... semblaient suivre une distribution dite "normale", c'est à dire une loi de Gauss.

La loi de Gauss ou "loi normale" est une loi de distribution universellement connue de par les courbes en forme de cloche qu'elle génère, et qui se retrouve dans nombres de phénomènes de la vie courante.

 

Gauss


Ainsi, par exemple, est il observé que la distribution des tailles des individus d'un pays ou d'un large échantillon d'hommes tiré au hasard suit une courbe de gauss, dont le sommet de la cloche est la taille moyenne, et l'abscisse représenterait le pourcentage de la population de la taille considérée.

On constate donc que dans un phénomène obéissant aux lois de Gauss, un nombre important d'occurrences du phénomène se concentrent autour de sa valeur moyenne, et que plus on s'éloigne de la moyenne, plus la probabilité de rencontrer une occurrence du phénomène mesuré diminue rapidement.

C'est ce phénomène que les néo-financiers de l'après guerre ont cru pouvoir identifier dans de nombreuses séries de variations de cours sur divers marchés. Ils en ont déduit que nombre de phénomènes économiques devaient suivre des lois normales.

Malheureusement, lorsque les premiers théoriciens de la finance gaussienne produisirent leurs formules et modèles, dans les années 50 et 60, ni les séries statistiques longues qui auraient permis de vérifier empiriquement la validité de ces lois, ni la puissance de traitement informatique qu'il faut pour les analyser, n'existaient. D'autre part, les 30 glorieuses (enfin, les 25 glorieuses, 1946-1970)  furent une période relativement pauvre en événements "extrêmes" au plan économique. Résultat: la loi de Gauss semblait marcher relativement bien dans les situations économiques "ordinaires". Certains crurent donc pouvoir affirmer qu'elles étaient valides tout le temps.

Dès le début des années 60, Benoit Mandelbrot contesta la prééminence de la loi normale dans les phénomènes financiers. En effet, selon lui, les lois normales tendent à sous estimer la probabilité d'occurrences de phénomènes extrêmes par rapport à ce que l'on observe dans le monde réel. Ainsi, les variations brutales de cours d'une action, ou d'un marché entier, d'un secteur, qui devraient être d'une certaine rareté dans une loi normale, sont beaucoup plus fréquentes dans la réalité, même si cette fréquence reste "basse" par rapport aux occurrences "ordinaires".

Bon, et alors, me direz vous, tout ceci ne confine-t-il pas à la querelle d'hyper spécialistes dénuée d'intérêt dans la vie réelle ? Hélas, cent fois hélas. 

"Intérêt" de la loi de Gauss en finance

Mandelbrot ne sera pas écouté, et toute une théorie de la gestion des risques et de la valeur va prendre racine sur la prémisse de l'économie "gaussienne".

Or, la gestion du couple "valeur-risque", ou "rendement-risque", est tout à fait centrale dans le monde financier, qu'il s'agisse de la banque ou de l'assurance. Instinctivement, nous le savons, plus un investissement rapporte, plus il est risqué. Mais nous savons aussi que certains investissements, ou certaines stratégies d'investissement, présentent un meilleur rapport risque/rentabilité que d'autres.

Inutile de dire que les banques, lorsqu'elles constatèrent que les modèles issus de la mathématique gaussienne semblaient applicables à la finance, se sont jetées dessus dans l'espoir d'en tirer quelque avantage compétitif. Ce mouvement, entamé dans les années 70, va connaître un développement exponentiel dans les années 80 et suivantes.

Ces modèles ont donc tenté de déterminer comment maximiser la valeur d'un portefeuille en minimisant le risque. Or, la zone à risque correspond à l'occurrence d'événements de probabilités faibles situés aux extrémités de la courbe de Gauss. Les modèles financiers ont donc cherché à modéliser selon ces lois les probabilités d'occurrence de ces événements extrêmes suivant une loi de Gauss. Mais que se passe-t-il si le modèle sous-estime la probabilité des situations à risque ?

Des hypothèses de base contestables

Naturellement, les économistes ont tenté de relier ces phénomènes mathématiques à des explications économiquement rationnelles. C'est ainsi que certains d'entre eux, comme Eugene Fama, ont montré que les modèles gaussiens étaient valides si deux hypothèses se vérifiaient:

1) La première, est la rationalité des acteurs économiques. Ceux ci tendraient, selon Fama, à agir en "homo economicus" rationnels. Bien sûr, il existe des rationalités variées, mais la "rationalité moyenne" d'une majorité d'agents économiques suivrait elle même une loi normale et il serait donc tout à fait... normal de modéliser les comportements des acteurs économiques selon des lois de maximisation de l'intérêt économique des acteurs.

2) La seconde est l'inclusion instantanée des informations disponibles dans les prix. Les acteurs étant rationnels, dès qu'ils sont en présence d'une information, ils valorisent cette information, et quand bien même divers acteurs donnent à cette information une valeur différente, là encore, ces valorisations suivront une loi normale, et le marché, moyenne de ces valorisations, prendra donc quasi instantanément en compte l'information dans le prix.
 
Seul problème, ces deux hypothèses ne valent rien dans le monde réel.

Le modèle ne colle pas au fait: triturons le modèle pour le faire coller !

Dès que la puissance informatique fut disponible en quantité suffisante, certains voulurent vérifier les assertions des modèles de Markovitz et compagnie. Mandelbrot d'abord, puis d'autres, ont trouvé de nombreux exemples où les événements "extrêmes" avaient eu une fréquence supérieure à celle qu'aurait donné un calcul classique par loi normale. Ainsi, les variations au jour le jour des cours de bourse ou des cours des matières premières étaient bien plus souvent d'une amplitude "importante" et "anormale" que ne l'aurait suggéré la loi dite normale.

D'autre part, les hypothèses de marché parfait et d'homo economicus moyen rationnel trouvent de nombreux contre-exemples historiques, caractéristiques des périodes de bulles, où le "biais grégaire" prédomine. J'ajouterai (remarque de VB) que Crozier, Friedberg et d'autres ont montré que les sources de la rationalité étaient différentes selon les individus, que chacun avait une rationalité qui lui était propre, laquelle dépendait à la fois de ses capacités cognitives, de ses valeurs, et des valeurs des groupes auxquels ils s'identifie. Et parler de "rationalité moyenne" n'a dans ce contexte aucun sens.

Enfin, de tout temps, les spéculateurs ont prospéré sur l'écart de temps entre la prise en compte correcte de toutes les informations disponibles sur un marché, et la formation des dits prix. Ce temps d'intégration peut être fort long. L'hypothèse d'intégration quasi instantanée de l'information dans les prix est donc, du point de vue de ce qui est observable, infondée.

Bref, il existe nombre de constats empiriques de l'inadéquation des hypothèses du modèle gaussien normal aux faits tels qu'ils se produisent dans le monde financier réel.

Toute ressemblance avec la science climatique... etc.

Les modèles étaient séduisants théoriquement mais faux empiriquement. Les tenants de ces modèles, au lieu de les remettre en cause, les ont "bricolés" pour les "adapter" aux faits. Ils ont donc trouvé des justifications à l'application de ces modèles en rajoutant aux extrémités de la courbe de gausse un coefficient - Poétiquement dénommé "Kurtosis" - capable d'expliquer une certaine volatilité des occurrences d'événements extrêmes.

Notons ici l'inversion classique hélas trop fréquente en science, la confusion du modèle et du phénomène. Parce qu'une fonction mathématique semble décrire à peu près correctement un ensemble de phénomènes, la fonction mathématique se substitue à la compréhension du phénomène sous-jacent pour tenter de déduire les évolutions probables de phénomènes trop complexes pour être modélisables.

"Le modèle initial ne colle pas aux faits ? Bricolons la mathématiques sous jacente pour qu'il colle, et nous aurons un modèle qui validera la loi de base". Mais ce n'est pas au modèle de valider la loi, mais à la loi de fonder le modèle.

Pourtant, même des tenants initiaux de ces modèles s'en sont écartés. Eugène Fama, l'un des plus connus, a écrit avec un confrère, Kenneth French (leur blog) un article reconnaissant que certaines de leurs hypothèses de base étaient fausses. Trop tard !

Deux autres tenants de ces modèles, Merton et Scholes (non, ce ne sont pas les attaquants de Manchester United !), se sont illustrés en 1998 - peu après l'obtention d'un prix Nobel pour leurs théories ! - en provoquant une faillite retentissante de plus de 10 milliards de $, avec un "risque systémique" estimé à plus de 100 milliards, celle de leur fonds LTCM, dont la gestion était basée sur leurs modèles de valorisation rendement-risque issus de la loi normale "modifiée sur les bords".  Cela aurait dû tout de même mettre la puce à l'oreille de la communauté économique et financière. Rien, nada.

Bien que les travaux de Mandelbrot, père des fractales qui ont rendu possible l'émergence de nombreuses applications informatiques (3D, simulation, réalité augmentée, etc...), qui a décliné ses recherches dans le domaine de la finance, commencent à être reconnus, ils n'en ont pas moins resté ignorés de la plus grande part de la communauté économique, qui en est resté à la loi normale.

Lois de Zipf

Selon le constat empirique de Mandelbrot, les marchés financiers obéissent non pas à des lois de Gauss, mais à des lois de Zipf. Ces lois, également appelées lois de puissance, s'écrivent sous leur forme la plus simple simple y=ax^k (k<0, hyperbolique), ou encore se représentent par une droite sous une échelle Logarithmique. Il existe des formes un peu plus complexes des lois de Mandelbrot, mais restons en à ces représentations simples.

 

 

Zipf-curves

 

 

Un exemple de loi de Zipf très connu est la loi de Pareto, dite des 80/20. Un exemple: Pareto constate que dans de nombreux pays, 80% des ménages disposent de 20% du patrimoine, et 20% en possèdent 80%. Et parmi les 20% les plus riches, 20% possèdent 80% de la richesse totale des plus riches, soit 4% qui possèdent 64%, et ainsi de suite. Pas très égalitaire, mais Pareto ne fait que des constats. Naturellement, une loi de puissance peut être de type 90/10, 75/25, etc...

De nombreux phénomènes obéissent à des lois de Zipf. Ainsi, la distribution des chiffres d'affaires des sociétés de logiciel, ou encore la fréquentation des sites web (voir cet article du gourou du web Jakob Nielsen, ou celui ci par Jason Kottke. Ce sont mes années veblog.com qui ressurgissent...) obéissent à une loi de Zipf.

Ces lois ont deux caractéristiques essentielles :

 

1) elles accordent aux événements extrêmes, ceux qui sont porteurs de risques ou au contraire d'opportunités heureuses ("risque positif", en quelque sorte), des probabilités très supérieures à celles calculées selon la loi normale. Dans une distribution de Zipf, la vitesse de diminution des probabilités d'un événement est constante, alors qu'elle est considérablement croissante dans une loi normale.

2) dans une loi de puissance, la "moyenne", si elle existe arithmétiquement, n'a aucun sens du point de vue de la réalité. Et donc, se baser sur un comportement "moyen"  pour déduire l'avenir est non seulement faux, mais terriblement risqué.

3) elles ne peuvent absolument pas servir de base à des modèles "robustes" fondés sur des notions d'"équilibre" : des variations infimes du paramètre K peuvent conduire à des résultats très différents. Les lois de Zipf sont donc le cauchemar absolu des modélisateurs: vous comprenez pourquoi ils ne les aiment pas.
 

Du second point nait une façon totalement différente d'envisager la gestion des risques. Les assureurs le savent bien: si la distribution des hauteurs d'eau des inondations moyennes constatées pour un cours d'eau va généralement suivre une loi normale (fréquente dans les phénomènes physiques), la distribution des coûts associés à ces hauteurs d'eau va plus vraisemblablement suivre une loi de Zipf: l'inondation extrême, la plus rare, coûtera incommensurablement plus que l'inondation "moyenne". Et voilà pourquoi les modèles de gestion des risques des assureurs se basent sur la mémoire des événements extrêmes et pas ceux des événements "moyens", qui sont en l'occurrence d'aucune signification dans le monde réel de l'assurance.

Le risque : gaussé !

 

 

Black-swanMalheureusement, en matière de gestion du risque financier, c'est la loi de Gauss qui prédomine, et donc une sous-estimation patente de la probabilité des situations facteur de risque, ce que Taleb appel les "cygnes noirs". Et la crise d'Août et Septembre 2008 ne fait qu'illustrer de façon éclatante cette mauvaise prise en compte du risque.

Un an avant la faillite de Lehman Brothers, lors du début de l'affaire Bear Stearns, certains acteurs clé de la finance, comme le CFO de Goldman Sachs, un certain David Viniar, se disent victimes d'événements jamais vus. Selon eux, la crise qu'ils vivent était tout simplement imprévisible. Les variations de cours observées ce jour là représentaient 25 fois l'écart type de la variation des cours selon la loi normale (les mathématiciens parlent d'événement "sigma 25", ce qui en terme gaussiens est d'une probabilité infinitésimale: Un événement seulement "sigma 5" a, selon la loi normale, une probabilité de se produire un jour sur 13 000 ans, et "sigma 6", une fois en 4 millions d'années ! alors sigma 25, pensez donc ! "ça ne pouvait pas arriver !"

Quelques années auparavant, Joseph Stiglitz avait estimé la probabilité de faillite de Fannie Mae et Freddie Mac à moins d'une sur 500 000, voire moins d'une sur 3 millions: cinq ans plus tard, ces deux entreprises sous statut protégé par l'état sont les protagonistes du "sauvetage" le plus coûteux de l'histoire des USA, plus de 300 milliards à ce jour, et sont à l'origine de la plus grave crise financière qui soit.

C'est d'autant plus ironique que Stiglitz avait été un des premiers à dénoncer l'absurdité de l'hypothèse de Fama sur la capacité de prise en compte immédiate de l'information par les prix de marché. Ses travaux sur ce domaine lui ont valu un prix Nobel. Mais malgré cela il est resté accroché, pour ses prévisions, à des variations autour de la loi normale.

Les techniques de titrisation par tranche qui étaient censées réduire le risque porté par les obligations à base de crédits "subprimes" et autres "ARM" étaient fondées sur des hypothèses de survenance d'événements adverses basés sur la loi normale. A la première bourrasque, le modèle a été emporté comme un fétu de paille, alors que selon les modèles, la tempête avait moins d'une chance sur des centaines de millions de se produire.

L'entreprise non financière contaminée

Philippe Herlin montre également longuement, dans ce qui est peut être le point le plus fort de son livre, que les entreprises non financières ont été contaminées par la finance gaussienne, pour le pire. En sous-estimant, lois normales obligent, les niveaux de probabilité d'événements adverses, donc les niveaux de risque auxquels s'exposent les entreprises, en fonction de la structure d'endettement de leur bilan, les financiers et fonds qui investissent dans des entreprises tendent à sur-valoriser les activités risquées mais très rentables quand tout va bien (ils sous estiment la prime de risque) et de ce fait à sous valoriser les activités récurrentes de "fond de portefeuille", dont ils vont tenter de se séparer.

Les dirigeants sont donc poussés par les actionnaires à adopter à la fois des structures de bilan et des répartitions de portefeuilles d'activité qui sur-exposent les entreprises aux aléas de la conjoncture, tout en les poussant à maintenir des objectifs de rentabilité des capitaux propres financièrement insoutenables sur le long terme.

Les dégâts de l'application aveugle de ces modèles gaussiens aux noms barbares (MEDAF, WACC...) sur l'économie "productive" (celle de l'actif) et l'économie financière (celle du passif) sont encore impossibles à évaluer dans leur totalité. Mais l'ouvrage de Philippe Herlin passe en revue nombre de ces conséquences néfastes. Ces modèles ont joué un rôle majeur dans l'établissement de cette économie de la dette dont je voudrais tant qu'elle cédât la place à celle du capital... Je reviendrai plus extensivement sur cette question dans les jours à venir.

 

 




Le régulateur contaminé

Le régulateur a implicitement adopté les lois gaussiennes dans au moins deux pans essentiels de la réglementation financière mondiale:

 

 

 

 

1- les modèles de valorisation des risques utilisés pour évaluer les capitaux propres obligatoires dans les règles de Bâle sont typiquement issus de raisonnements gaussiens.

2- les modèles utilisés par les agences de notation, confortées par un oligopole de nature réglementaire, sont gaussiens. Et voilà pourquoi les agences de notation semblent réduire les notations des entreprises en difficulté ou des états souverains après la guerre, quand il est trop tard (pour être juste, les conflits d'intérêts internes à cette activité jouent également un grand rôle dans le développement de cette bulle d'incompétence des agences de rating, aux conséquences tellement lourdes).
 

 

 

Ce faisant, le législateur a poussé nombre d'entreprises financières à s'insérer coûte que coûte dans un modèle gaussien de gestion de la valeur et des risques, et a donc contribué à contaminer les entreprises non financières avec les mêmes outils de prise de décision.

Les faiblesses du livre

Je ne vois à ce livre que trois faiblesses, secondaires compte tenu de la richesse de ses apports, et de la qualité des références qu'il cite, permettant à ceux que cela intéresse de multiples approfondissements sur le sujet.

La première, marginale, est que sa critique du modèle d'enregistrement des valeurs "mark to market" n'est pas accompagnée de propositions de remplacement. J'ai moi même critiqué ce modèle, puis laissé entendre - je dois encore développer - que mes critiques initiales étaient exagérées. Mais je bute sur la question traditionnelle:"que faire à la place" ? Visiblement, M. Herlin aussi.

La seconde, plus importante, est l'explication sociologiquement trop "courte" du pourquoi du succès persistant de ces modèles faux malgré les preuves répétées de leur incapacité à traiter correctement les événements "aux limites". Le krach de 87, la réplique de 89, la faillite des saving and loans, la crise asiatique, le krach de LTCM, celui des Dot Com... Autant d'événements à la probabilité quasi nulle selon les modèles gaussiens, qui se sont succédés à intervalles rapprochés, et qui auraient dû conduire les utilisateurs des modèles à se poser les bonnes questions. J'ai une ébauche d'explication, j'y reviendrai.

La troisième faiblesse, liée d'ailleurs à la seconde, est qu'il semble favoriser une réforme de la finance qui imposerait de nouvelles règles "mandelbrotiennes" à la place des règles gaussiennes existantes, quand bien même il affirme justement que "plus de régulation" ne résoudrait rien - Il propose de remplacer une réglementation qu'il juge mauvaise par une autre qu'il juge meilleure.

Ce serait à mon sens une demi-erreur. Certes, au premier abord, remplacer des règles mauvaises par des règles apparemment plus réalistes fait sens. Mais, d'une part, les lois de zipf, du fait de leurs très fortes dépendances à de faibles variations paramétriques, ne sont pas des lois d'équilibre stable, comme l'auteur le démontre. Elles obligent de fait à se dégager de l'analyse purement mathématique de l'économie et à revenir aux fondamentaux de l'analyse de la valeur des entreprises: évaluation de la qualité du management, de la pertinence de la stratégie, etc... Aucun domaine où la règle étatique puisse ne serait-ce que donner l'illusion d'apporter une valeur ajoutée.

Et surtout, rien ne prouve que les lois de Mandelbrot-Zipf s'appliquent parfaitement au spectre de toutes les situations possibles. Il est possible que ces lois décrivent parfaitement certaines situations et plus mal d'autres, à l'instar de leurs consoeurs gaussiennes. L'auteur le reconnait d'ailleurs lui même puisqu'il dresse un portrait robot des activités économiques plutôt "gaussiennes" et de celles plutôt "zipféennes". Dans ce cas, imposer un modèle de Zipf de façon réglementaire peut aussi avoir des effets pervers insoupçonnés.

D'ailleurs, imaginons que les modèles Mandelbrotiens deviennent la pensée dominante de la finance, mais que certains trublions  découvrent que dans des situations aux limites du modèle, ils s'appliquent mal. Nul doute que la sociologie des groupes mandelbrotiens serait la même que celle des cliques gaussiennes: ils inventeraient leur propre équivalent du "coefficient de Kurtosis" créé par les gaussiens pour justifier leurs modèles envers et contre tout.

Dans ces conditions, on comprend que l'état n'est pas fondé à dire quel modèle doit servir de support à la réglementation. Une "sélection naturelle" des meilleurs modèles serait souhaitable. Oui, mais...

La faillite, seul outil efficace d'élimination des mauvais modèles

Revenons au sauvetage des caisses d'épargne américaines, puis à celui de LTCM ou encore celui d'AIG. Si, pour les caisses, les faillites du modèle mathématiques gaussien n'apparaissent pas forcément clairement comme un facteur essentiel de leur infortune (cf. cet article sur l'histoire de la réglementation bancaire US), cette faillite est en revanche évidente dans le cas de LTCM ou d'AIG. Dans les deux cas, le "risque systémique" a été invoqué pour justifier l'appel au contribuable américain pour sauver les créanciers de ces entreprises en faillite.

Mais alors, pourquoi se priver d'utiliser les modèles gaussiens, malgré les logiques court-termistes qu'ils induisent, puisque leurs plus grands profiteurs en période faste verront les conséquences de leurs défaillances absorbées par l'état ? Pourquoi, dans un monde où les premiers de la course touchent les meilleures primes, se priver de traverser l'Atlantique dans un catamaran instable mais rapide plutôt que dans un monocoque rassurant mais lent, si vous êtes à peu près certain qu'en cas de malheur, l'hélicoptère de l'oncle Sam ou son cousin européen viendront vous tirer de la noyade, à leurs frais ?

Certes, les gens ne sont pas heureux de faire faillite, surtout les salariés des entreprises financières défaillantes, mais si les dirigeants peuvent se garantir quelques années de gros bonus, puis voir leurs privilèges sauvés par le contribuable quand la tempête se déclare et menace d'emporter leurs frêles esquifs, pourquoi perdre du temps et de l'énergie à étudier les failles des modèles qui vous poussent à sous estimer le risque ?

La société du risque subventionné


Il me semble que le principal coupable dans la perpétuation de l'erreur gaussienne collective soit la culture du "sauvetage", pratiquée par tous les gouvernements envers nombre d'entreprises emblématiques depuis les années 70: Chrysler, GM, les caisses d'épargne, LTCM, et maintenant les grandes banques... En Europe aussi, les grandes institutions financières ont intégré une culture du sauvetage public.

Si les entreprises financières en faillite, leurs actionnaires et leurs créanciers, avaient dû assumer jusqu'au dernier sou les conséquences de l'incurie de leurs modèles de gestion du risque, nul doute qu'ils auraient été pressés d'en analyser les failles les plus criantes, et que les voix dissidentes des disciples de Mandelbrot se seraient fait mieux entendre. Et nous n'en serions pas sans doute aujourd'hui là où nous en sommes. Une gestion ordonnée et rigoureuse des faillites est de loin le meilleur moyen de réguler l'économie et de l'expurger de ses intervenants trop peu performants, ou trop exposés au risque.

Si les formules des Markovitz, Sharpe, Scholes and co, n'avaient pas existé, la culture du bailout, de la privatisation des profits et de la socialisation des pertes, qui constitue en fait une véritable subvention publique à la prise de risque, aurait poussé tout de même le monde de la finance à trouver d'autres outils justifiant l'adoption de leur modèle à haut risque. La finance gaussienne n'est pas la cause primaire du marasme financier, elle n'est "que" l'arme de destruction massive choisie par ses acteurs parce que le risque est subventionné.

Nos malheurs sont d'abord ceux d'une société où la privatisation des gains et la collectivisation des pertes est devenue... la loi normale des affaires !

 

 

Bref, "Finance, le nouveau paradigme" est un ouvrage hautement recommandable.

 

 

-------

 

 

Sur Amazon:

 

 

Philippe HERLIN, "Finance - Le nouveau paradigme"- Ed. Eyrolles, 205p. - Avril 2010

 

 

-------------

 

 

Autres lectures :Felix Salmon, "the formula that killed wall street" (and your 401k), article séminal sur la crise financière, début 2009.

 

 

Le site de Nassim Taleb

 

 

-------------

 

 

 

 

 

Poster un commentaire

2 commentaires

  • Lien vers le commentaire jymesnil jeudi, 13 mai 2010 20:52 Posté par jymesnil

    merci et encore bravo à Vincent Bénard ! en effet le bouquin de Philippe Herlin est très intéressant, comme d'ailleurs les travaux de Vincent Mandelbrot..

    j'ai du aller fouiller sur wikipedia et lire tout ce qui touche la loi de Zipf, je le conseille :-)

    cela dit, je suis un grand adorateur de la règle des 80/20 :-)