Vous n'êtes pas membre (devenir membre) ou pas connecté (se connecter)
Jacques SAPIR

Jacques SAPIR

Diplômé de l'IEPP en 1976, a soutenu un Doctorat de 3ème cycle sur l'organisation du travail en URSS entre 1920 et 1940 (EHESS, 1980) puis un Doctorat d'État en économie, consacré aux cycles d'investissements dans l'économie soviétique (Paris-X, 1986).
A enseigné la macroéconomie et l’économie financière à l'Université de Paris-X Nanterre de 1982 à 1990, et à l'ENSAE (1989-1996) avant d’entrer à l’ École des Hautes Études en Sciences Sociales en 1990. Il y est Directeur d’Études depuis 1996 et dirige le Centre d'Études des Modes d'Industrialisation (CEMI-EHESS). Il a aussi enseigné en Russie au Haut Collège d'Économie (1993-2000) et à l’Ecole d’Économie de Moscou depuis 2005.

Il dirige le groupe de recherche IRSES à la FMSH, et co-organise avec l'Institut de Prévision de l'Economie Nationale (IPEN-ASR) le séminaire Franco-Russe sur les problèmes financiers et monétaires du développement de la Russie.

Cahuc et Zylberberg révolutionnent la science (ou pas…)

Audience de l'article : 1563 lectures
Nombre de commentaires : 0 réactions
Les préjugés de l’économie dominante ont trouvé récemment deux hérauts, MM. Cahuc et Zylberberg. Dans un livre qui vient de sortir, ils assimilent toute pensée hétérodoxe à un « négationnisme économique »[1]. Passons sur l’usage odieux du terme « négationnisme », qui vise à assimiler tous ceux qui ne partagent pas ces dits préjugés à ceux qui nient les génocides. Cet usage discrédite largement ces deux auteurs et la thèse qu’ils prétendent défendre. Mais, on trouve chez eux surtout un profond mépris pour l’épistémologie et la méthodologie de l’économie. De nombreux économistes se sont d’ailleurs élevés contre la méthode et les arguments de ces deux énergumènes[2]. On retiendra le texte d’André Orléans à cet égard[3]. De fait, ce débat, si l’on peut parler de « débat » en l’occurrence, rejoue mais de manière bien plus violente celui de 2000, qui avait donné, suite à un véritable soulèvement des étudiants en sciences économiques, naissance à l’association Post-Autistic Economics qui s’est depuis transformée en une association mondiale (la World Economics Association) et qui publie une revue en ligne, la Real-World Economics Review[4]. J’ai publié de nombreux textes sur la méthodologie de l’économie, qu’il s’agisse de livre (comme Les trous noirs de la science économique[5]) ou d’articles[6]. Il y a donc largement une sensation de « déjà vu » dans ce débat, surtout en raison du niveau lamentable des arguments utilisés par Cahuc et Zylberberg.

Les « préjugés » ont donc une large place dans ce que l’on appelle la « science économique », et ne sont pas l’apanage des courants hétérodoxes, bien au contraire. Ils définissent une large part de la représentation traditionnelle des problèmes économiques, en en particulier son modèle de comportement de « l’hommo oeconomicus »[7]. Dans l’autodéfinition de cette discipline, telle qu’elle est pratiquée par les économistes du courant « orthodoxe » ou « standard », on peut en effet voir les effets d’un coup de force datant du XIXème siècle avec Léon Walras, qui prétend établir en « science » ce qui n’est que la transposition d’une vieille conception de la mécanique et de la physique[8]. En fait, il y a des démarches scientifiques, dont il faut définir les conditions, plus qu’il n’y a de science au sens normatif. Ceci implique une discussion sur les bases méthodologiques, terrain qu’évite soigneusement l’économie dite dominante et ses « théoriciens »[9]. Cette dernière développe alors des stratégies d’évitement et de contournement pour refuser de se confronter à la réalité, et ces stratégies ne sont ni neutres ni fortuites.

1. La très grande fragilité de la thèse de la « validation statistique » de modèles profondément idéologiques

La question de la validation d’une théorie par des vérifications statistiques soulève de nombreux problèmes, tant épistémologiques et méthodologiques, que techniques. Or, c’est bien cette validation dont se réclament Pierre Cahuc et André Zylberberg, sans savoir ce qu’ils manipulent en réalité comme notions et comme problèmes.

Il convient ici de se souvenir que la base théorique de l’inférence statistique est liée à la théorie des probabilités. Pourtant, les théoriciens de l’économie qui usent et abusent des méthodes statistiques rechignent traditionnellement à user de la théorie des probabilités[10]. Ce paradoxe est important non seulement pour comprendre l’économétrie de Frisch et d’Haavelmo dans laquelle s’inscrit la Nouvelle Econométrie de Lucas[11] et Sargent. Le développement de la validation statistique des théories économiques à partir de la fin du XIXe siècle s’est fait sur la base de la généralisation du calcul macroéconomique dans la statistique économique qui avait pris son essor une génération plus tôt dans les années 1860. C’est ce socle qui a permis la connexion de la théorie marginaliste individualiste avec la loi des grands nombres[12]. Il convient cependant de différencier dans la théorie économique, l’application a priori de probabilités non vérifiées de l’application a posteriori de probabilités statistiques[13]. C’est Tygve Haavelmo, qui accomplit finalement la révolution probabiliste[14]. Il montre que tant que la théorie des probabilités est en réalité au fondement des méthodes statistiques utilisées par les économistes. On ne peut utiliser ces méthodes en refusant la première sauf à travailler avec un schéma de probabilités informel qui reste impensé. Les problèmes de non indépendance des observations et de non homogénéité des conditions à travers les périodes temporelles, sont justement les problèmes qui appellent à appliquer la théorie des probabilités au traitement des données économiques. Le modèle devient donc une hypothèse a priori sur le vrai phénomène. Haavelmo distingue alors les dispositifs expérimentaux en deux classes, d’une part les expériences dites actives où l’on cherche à vérifier si un phénomène artificiellement isolé vérifie certaines hypothèses, et les expériences dites passives où l’on observe les production du laboratoire de la « Nature ». Dans le second cas on peut seulement ajuster la théorie à la réalité telle qu’elle se présente. En ce cas, comment mettre au point un dispositif expérimental si ce n’est en choisissant une théorie et un dispositif dont résulte des données. C’est là le problème fondamental de l’économétrie dans la mesure où la plupart des théories économiques requièrent des expérimentations du premier type, alors que les données économiques à disposition sont essentiellement du second type[15]. Mais dans les faits, cette technique laisse entier le problème Duhem-Quine[16].

Confrontée aux diverses objections provenant soit des écoles institutionnalistes, soit même de courants émanant du sein même de la TEG, ses partisans ont tenté un nouveau coup de force pour instituer l’économie comme science du même type que les sciences de la nature. Pour rompre avec les sciences sociales, ils ont eu recours à l’hypothèse ergodique[17]. L’emploi d’un métaphore empruntée à la mécanique et à la physique est ici parfaitement conscient. Il s’agit de renforcer la dimension mécaniste de la représentation de l’économie mais aussi, on peut le penser, de camoufler sous un outillage à priori complexe des a-priori idéologiques bien constitués. L’hypothèse ergodique a été formulée au tournant du XXème siècle pour trouver une solution à des problèmes relevant de la physique des gaz. Au sens de sa définition par H. Poincaré, elle implique que, dans un système donné on soit en présence d’une récurrence parfaite. Elle postule alors l’égalité des moyennes de phase dans une expérimentation où il n’est plus possible de mesurer un nombre suffisant de microphénomènes. Au sens donné par Von Neumann, elle signifie une convergence forte des résultats[18]. En économie, cette hypothèse permet de supposer que si les observations statistiques disponibles relèvent de processus stochastiques, alors il y a convergence à l’infini. Ceci donne une justification mathématiquement élégante à l’hypothèse des anticipations rationnelles[19]. Dans un environnement ergodique, le futur peut être saisi par la projection de statistiques récoltées sur le passé[20]. On suppose donc qu’il y a des lois en économie, au sens que l’on donne au terme de loi en physique. Même si elles ne nous sont pas directement accessibles, il est alors possible d’en déduire le mouvement par des observations statistiques, même imparfaites. L’hypothèse ergodique en économie revient, dans sa forme originelle, à postuler un déterminisme complet. Mais, quand on parle de tests économétriques, de “preuves” statistiques, il faut savoir que les statistiques ne sont pas la réalité, mais une traduction normalisée de la réalité. Elles ne sont pas, non plus, une pure manifestation de l’imagination du statisticien, personnage en réalité plus honnête qu’on ne le croit, et que les économistes ne veulent l’admettre.

Les statistiques ne font que traduire une certaine réalité en fonction d’une norme donnée. La question qu’il faut toujours se poser est de savoir si la norme utilisée a un sens compte tenu de la réalité que l’on veut traduire. Pour des pays dont le niveau de commercialisation des activités productives est comparable, il n’y a aucun danger à user du PIB. Mais, si les structures sociales et économiques sont hétérogènes, alors la question de la norme de traduction devient essentielle. Or, l’utilisation des statistiques économiques comme “preuves” implique que l’on se livre à des comparaisons étendues, pour que les résultats soient généralisables. On est donc obligé, d’emblée, d’inclure des situations fortement hétérogènes. C’est ce qui explique pourquoi on observe souvent de fortes rectifications en cours d’élaboration de modèles, car le niveau d’hétérogénéité des situations n’a pu être pris en compte.

2. Statistiques et « funny animals »

Il faut ensuite prendre en compte la nature des paramètres utilisés. Les statistiques économiques sont parfois des animaux bien étranges et bien malicieux pour celui qui n’y prend garde, ce que l’on appelle en anglais des « funny animals ». Un simple exemple permettra de saisir l’ampleur du problème.

Imaginons un pays dont les habitants, à la période initiale, produisent deux biens. le premier sert à leur consommation alimentaire, et il est produit dans le cadre d’exploitations familiales et non commercialisé. Le second est entièrement vendu à l’étranger et sert à payer les autres dépenses. Supposons que, dans une seconde période, les habitants de ce pays, considérant les prix relatifs de ces deux bien sur le marché mondial, décident de ne plus produire que le second, et d’acheter aussi à l’étranger leur consommation alimentaire. Si on calcule le PIB de ce pays, on mesurera une forte croissance de la première à la deuxième période, sans que cela implique que la richesse réelle du pays ait augmenté dans les faits. Le paradoxe vient de ce que le PIB (ou le PNB) ne mesure que la production commercialisée. Imaginons maintenant que, au lieu de deux périodes, nous ayons deux pays différents. Le premier, celui où une large partie de la production est autoconsommée, apparaîtra dans les statistiques internationales, comme bien plus pauvre que le second. Et l’économiste, qui voudrait mesurer ce que l’ouverture sur le marché mondial apporte en richesse aux économies nationales pourra conclure, s’il n’y fait garde, que cet exemple prouve indiscutablement les bienfaits de l’ouverture. Nombre de modèles sur le commerce international, en particulier ceux qui sont utilisés pour « démontrer » l’utilité d’accords comme le CETA ou le TAFTA, reposent sur ce genre de paradoxe.

Cet exemple permet de montrer un point fondamental pour la compréhension du discours économique. Il repose presque toujours sur des conjectures complexes ou emboîtées qui ne sont donc jamais directement testables. Pour pouvoir avancer, il faut désemboîter les conjectures, les déconstruire. Alors est-il possible d’en tester certaines. Mais cette possibilité est elle-même limitée. La testabilité des conjectures, dans un domaine ayant trait aux activités humaines, est toujours mise en cause par la multiplicité des paramètres et la nature de ces derniers.

Quand un enseignant en économie prononce devant ses élèves ou étudiants l’expression consacrée « toutes choses étant égales par ailleurs », il ne fait que nier, à des fins pédagogiques ou démonstratives, cette multiplicité. Il suppose en effet que l’on puisse, dans les activités humaines, modifier un paramètre sans que l’ensemble des relations en soit affecté. Autrement dit que les opérateurs humains cessent de s’interroger sur leur propre futur et de se demander ce que pourrait impliquer pour eux un tel changement. Écrivant cela, on ne récuse pas d’emblée la modélisation, qui repose bien entendu sur cette clause « toutes choses étant égales par ailleurs ». Comme outil pédagogique, elle a bien des attraits. Mais, s’il faut utiliser une comparaison, un modèle n’est jamais qu’un simulateur. Et tout pilote qui s’entraîne sur un simulateur sait que le vol réel peut lui réserver bien des surprises, aussi perfectionnée que soit la machine dans laquelle il s’entraîne. La distinction entre un formalisme mathématique assis sur une axiomatique rigoureuse, et une approche permettant de rendre opérationnels des résultats, a fait l’objet d’un certain nombre de travaux en économie[21]. Ce qui est en cause ici, c’est le passage de la pédagogie à la démonstration. Il n’est d’ailleurs pas innocent que l’on puisse glisser aussi facilement du registre de l’enseignement à celui de la discussion et de la conviction. Dans une démonstration, on prétend emporter l’adhésion de ses égaux, alors que dans un enseignement on transmet dans un cadre hiérarchique des propositions que l’on est en droit de simplifier à loisir. User des méthodes de la pédagogie là où il y a discussion, c’est implicitement nier l’égalité initiale des statuts, et donc subvertir le principe même de la discussion.

3. Nécessité de la méthodologie et stratégies d’évitement de ceux qui refusent cette nécessité

Les stratégies utilisées par les économistes dits soit « standards » ou soit « orthodoxes » pour éviter de se confronter à la réalité et pour maintenir une axiomatique largement dépassée, sont nombreuses. Mais, plus profondément, ces stratégies dénotent un total mépris pour l’épistémologie et la méthodologie économique. L’argument d’autorité n’est jamais loin.

Bruce Caldwell a ainsi répertorié cinq arguments qui sont utilisés par les économistes standards pour dénier aux discussions méthodologiques leur importance: (a) l’économie ne s’enseigne pas à partir de la méthodologie, (b) les spécialistes en méthodologie ne sont que des arrogants qui prétendent savoir mieux que les autres, (c) les débats méthodologiques sont stériles, (d) la méthodologie est une occupation de marginaux qui n’ont rien de mieux à faire et (e) la connaissance de l’économie rend la méthodologie superflue[22]. Caldwell montre que ces cinq arguments se réfutent sans problème. L’objet de la méthodologie n’est tout d’abord pas d’enseigner une discipline, quelle qu’elle soit, mais de permettre au scientifique d’avoir un regard sur sa pratique. En ce qui concerne l’arrogance, il est d’ailleurs clair que les économistes standards ne craignent personne, eux qui sont souvent suffisants mais rarement nécessaires. Par ailleurs, il est faux de dire que les débats méthodologiques sont stériles; on peut montrer qu’il y a des progrès, au moins sous la forme de détermination de problèmes spécifiques et d’évaluation de démarches différentes. On doit ici ajouter que ceux qui critiquent la méthodologie sont souvent les premiers à en faire, ne serait-ce que pour formuler des critères de « scientificité » dont ils se servent pour retirer toute légitimité à leurs contradicteurs. Enfin, on est sidéré par l’affirmation qu’il pourrait y avoir une connaissance sans critères de la validité de cette dernière. La connaissance de l’économie implique, par définition, que l’on ait une méthodologie, au moins implicite. Mais, si de telles normes et de tels critères sont nécessaires, alors en discuter devient légitime.

Une autre attaque contre la méthodologie est alors possible. Certes des normes sont nécessaires, mais elles sont toutes également justifiées. Telle est l’essence de l’argumentation de Deirdre (Donald) McCloskey dans son livre sur la rhétorique de l’économie[23]. McCloskey accepte l’idée générale que la méthodologie a pour objet, entre autres, l’évaluation de la solidité des argumentations en fonction de critères donnés. Mais elle défend deux thèses particulières, l’une selon laquelle l’adoption d’une méthodologie, quelle qu’elle soit, ne provoque aucun avantage en termes cognitifs, et l’autre qu’il ne saurait y avoir de bon raisonnement hors celui de la majorité. La Vérité étant pour lui une notion vide de sens, seul subsiste l’objectif rhétorique de convaincre le plus grand nombre. Toute argumentation qui a acquis cette capacité devient alors la vérité du moment. Feyerabend pousse cette thèse dans ses ultimes retranchement et prétend qu’il n’existe aucun argument pour choisir une norme ou un critère plutôt qu’un autre[24]. Cette vision contient un aspect instrumentaliste (qu’importe les bases de mon raisonnement si la conclusion est opératoire), démarche qui constitue justement une des bases de la méthodologie néoclassique[25].

Daniel Hausman a montré que le rejet du concept d’une Vérité transcendante n’implique nullement celui de la nécessité de procédures de vérification[26]. Ces dernières reposent bien entendu sur des partis-pris, mais elles contraignent alors celui qui les formule à un effort de cohérence. Il y a, en réalité, une vision dévoyée de l’activité scientifique dans les démarches qui se parent de l’image du postmodernisme et de la critique radicale. Dire que tout n’est pas testable, qu’il y a du contexte et de la représentation sociale dans toute norme d’évaluation, affirmations qui sont exactes bien entendu, n’implique nullement de dire que rien n’est testable et que tout se ramène au contexte et aux représentations sociales.

4. Le post-modernisme est-il l’ennemi ?

Mais il y a une autre manière de refuser de se confronter à la réalité, c’est ce que l’on appelle le « post-modernisme ». Appliquée à la méthodologie de l’économie, la démarche dite post-moderne se refuse de voir dans l’éclatement des normes et critères, dans les incohérences grandissantes au sein de certains argumentaires, un symptôme de la crise de cette discipline. Elle y voit au contraire un état normal des choses. Dès lors, seule compte l’opinion de la majorité, même si celle-ci est incohérente[27]. On peut ainsi proclamer le retour au consensus au sein des économistes, mais c’est au prix de la mutation de ce qui devrait être une démarche analytique en un conformisme idéologique.

Sheila Dow y voit alors une intolérance de la tolérance[28]. Au-delà, quand on mesure que l’économie n’est pas un espace de pure spéculation, mais un espace de pouvoir, au sein des institutions universitaires et assimilées ou dans la cité politique, on devine l’aspect profondément pervers de ces discours réfutant par avance la possibilité d’une critique minoritaire d’une orthodoxie dominante. Si, comme le prétend McCloskey, il n’est pas de méthodologie mais seulement une rhétorique, les minoritaires ont tort par essence; s’ils avaient raison, ils seraient majoritaires…Si, comme le prétendent les post-modernes, tout se vaut et tout s’équivaut, alors pointer des incohérences dans les raisonnements, chercher vérités et erreurs, sont des activités vides de sens. Les postures soi-disant hyper-critiques ne sont ainsi que des apologétiques, à peine honteuses, de l’ordre dominant. Pierre Bourdieu a bien montré comment positivisme naïf et relativisme ne sont que les deux faces d’une même erreur[29]. Ainsi, l’objectivité n’existe pas en elle-même mais doit s’établir, mais cet établissement, s’il est articulation avec des perceptions et des pratiques, ne s’y réduit nullement. Le texte de Bourdieu est par ailleurs fortement critique par rapport aux économistes, à qui il est reproché de tenir pour objectif ce qui n’est que qu’inconscient de classe, ou de fétichiser des formes spécifiques en leur attribuant une essence intangible, comme dans le domaine de la théorie des préférences[30]. Ces critiques sont à la fois justifiées et injustes. Justifiées dans le sens où elles visent des textes et morceaux d’argumentation bien connus et indéniables. Injustes par leur généralisation, en attribuant à l’économie ce qui n’est que l’erreur d’un de ses courants.

La thèse de Bourdieu peut cependant donner naissance à une forme de réfutation de la méthodologie, où on suppose que le processus conduisant des scientifiques à adopter des paradigmes centraux est le produit (a) de la volonté de maximiser un capital symbolique socialement défini par l’institution au sein de laquelle ils opèrent et (b) des facteurs sociaux qui déterminent le contenu d’une théorie reconnue et de ses paradigmes centraux. Cette thèse a été popularisée par Bruno Latour dans sa sociologie de la vie de laboratoire[31]. Le problème est qu’elle suppose un lien prévisible entre l’adoption d’une conjecture et des avantages, symboliques et matériels. Autrement dit, le scientifique (A), si il choisit le paradigme (X) et non (Y) entend ainsi maximiser sa réputation. Mais comment peut-il en être sur?

Une réponse paranoïaque est possible. La position dominante du paradigme (X) résulte d’un complot dominant (la « science officielle »). Ce paradigme, et les conjectures qui y sont liées, sont irréfutables au sens Poppérien car il y a suppression des résultats non-conformes, voire des chercheurs non-conformistes. D’un point de vue descriptif, une telle thèse est très rarement vraie, mais peut l’être dans certains cas. Même les paranoïaques ont des ennemis. Du point de vue méthodologique, elle est absurde, car elle suppose de considérer comme norme ce qui est clairement une situation pathologique.

On peut cependant tenter de répondre sur un autre plan en supposant que le système étudié vérifie une hypothèse ergodique. Si celle-ci est limitée, un chercheur peut raisonnablement supposer qu’il faudra une lente accumulation de données pour ébranler le paradigme (X). Il court donc un faible risque en le choisissant. Le problème cependant, comme le fait remarquer Uskali Mäki, c’est que dans ces conditions on explique uniquement la reproduction d’un courant dominant, et non son origine, et que de plus on ne peut comprendre pourquoi survivent des positions minoritaires[32]. Si tous les chercheurs sont des maximisateurs rationnels et si l’on confronté à une ergodicité, il est irrationnel de choisir (Y) contre (X). En fait, l’hypothèse faite en amont d’une crédibilité, ou d’une réputation, « objective » et dont l’évaluation est indépendante du contexte est plus que douteuse[33]. Des sociologues des sciences comme Callon et Law ont ainsi été conduits à contester la vision purement externaliste, la dissolution du noyau dur de toute découverte scientifique dans son contexte social, qui caractérise Bruno Latour. Pour eux, il y a dans l’activité scientifique du déterminisme et du compromis[34].

5. Préjugés et extinction du popperianisme (après 10h du soir…).

L’économie s’est en effet ralliée, du moins pour son courant standard, dès 1938 aux thèses de Karl Popper[35], et a voulu chercher dans le principe de réfutation, le falsificationisme, une garantie de scientificité. La démarche de Popper est en effet attrayante pour une économie découvrant les délices de l’économétrie et supposant qu’elle pourrait bientôt tester la totalité de ses conjectures. Ceci permettait aussi d’esquiver le débat sur le réalisme des hypothèses initiales, débat porté par les courants contestataires qu’ils soient institutionnalistes ou marxistes. Cette démarche était cohérente avec le parti-pris de rigueur axiomatique introduit par Walras à la fin du XIXème siècle [36]. La référence à Popper va donc rester un point obligé pour les quelques économistes de ce courant intervenant dans le domaine de la méthodologie[37]. Le modèle visé étant ici la science physique[38], avec en particulier la proposition de Paul Samuelson de prendre comme base de départ l’hypothèse ergodique[39], et l’objectif affiché celui d’obtenir pour l’économie le statut d’une science dite « dure ». Dans le même temps, elle fonde l’instrumentalisme de Milton Friedman, qui récuse d’emblée tout débat sur le réalisme des hypothèses[40]. On passe alors, pour reprendre la formule de Bruce Caldwell à un empirisme logique qui succède au positivisme logique[41].

Le falsificationisme poppérien soulève cependant de nombreux problèmes. Il se heurte tout d’abord à la conjecture de Duhem et Quine[42]. Pour que la testabilité soit robuste au sens de Popper, il faudrait que l’on puisse tester les conjectures seules et que les méthodes d’évaluation des résultats ne soient pas chargées en théorie. Ce problème, déjà important en physique, devient rédhibitoire en économie où les agrégats utilisés pour quantifier ne font que normaliser une réalité à partir de conjectures théoriques implicites[43]. Un second problème tient à la nature des prévisions par rapport au mode de testabilité. Dans la grande majorité des cas les prévisions sont qualitatives, alors que la vérification est quantitative[44]. Un troisième tient à la manière même dont Popper utilise la réfutation et la falsification. Pour lui la falsification doit engendrer un rapprochement des théories avec la réalité, et le progrès théorique doit se mesurer à la capacité à expliquer des faits nouveaux. Or, non seulement Popper lui-même admet que le premier critère est invalidable[45], mais de plus l’économie vérifie toujours ses conjectures sur des événements passés[46]. Dans ces conditions, on ne doit pas s’étonner d’une très large remise en cause de l’applicabilité de la méthodologie poppérienne[47].

Ces limites ont entraîné un certain nombre d’économistes qui refusent d’abandonner l’empirisme logique à se pencher vers Imre Lakatos[48]. Cet auteur a proposé de mettre l’accent sur des programmes de recherche qui seraient définis par un noyau dur d’hypothèses, réputées infalsifiables, et une ceinture protectrice d’hypothèses, elles falsifiables et réfutables, et pouvant être remplacées. La cohérence, et la scientificité d’un tel programme de recherche découlant de la capacité du noyau dur à engendrer des prévisions et de sa cohérence interne. Lakatos appelle ainsi dégénérescence d’un programme l’introduction, au sein du noyau dur, d’hypothèses ad-hoc. Une telle démarche présente tout à la fois des différences substantielles et des ressemblances avec celle de Popper. La notion de noyau dur, l’idée que le progrès scientifique puisse venir de la corroboration de conjectures et non de leur réfutation marquent les différences. Néanmoins, l’accent mis sur la testabilité, ou la falsification, ainsi que l’idée de prévision, renvoient clairement au cadre poppérien.

Les économistes du courant standard ont rapidement vu l’intérêt d’une telle approche. Le noyau dur du programme de recherche qualifié alors de scientifique (ce qui implique que les autres ne le sont pas…) est alors caractérisé par la théorie des préférences de l’agent, l’hypothèse d’individualisme méthodologique et la maximisation sous contrainte[49]. La définition d’un tel noyau dur est cependant loin d’être facile, compte tenu des tensions internes de ce courant[50]. De plus, il est confronté au fait que certaines de ses hypothèses, en particuliers celles concernant les préférences individuelles, sont en réalité testables et ont été invalidées.

Avant même que ces économistes aient commencé à se référer explicitement à Lakatos, d’autres travaux en avaient montré les limites. La part poppérienne chez Lakatos est tout aussi vulnérable que Popper lui-même à la conjecture de Duhem-Quine[51]. Il faut aussi ajouter que l’économie procède par relecture successive de problèmes et d’événements et non pas seulement, ni même principalement, par prévision et prédiction. Ceci rend inapplicable la méthodologie proposée par Lakatos[52]. Par ailleurs, si on applique cette méthodologie au courant dominant en économie, il est clair que ce dernier a procédé, depuis la fin des années soixante-dix, à l’introduction d’un certain nombre d’hypothèses ad-hoc dans son noyau dur, comme la prise en compte des institutions. En ce sens, on pourrait soutenir que, du point de vue de la démarche de Lakatos, le programme de recherche du courant standard est effectivement dégénéré !

6. Crise méthodologique et force des préjugés.

En fait, l’économie « standard » ou « orthodoxe » connaît depuis une bonne quinzaine d’années une profonde crise méthodologique. Sa nature profondément idéologique éclate de manière de plus en plus manifeste.

Le constat d’une crise méthodologique au sein du courant dominant semble devoir être évident. Sheila Dow montre[53] que les différents auteurs du « mainstream » s’opposent désormais entre un camp se réfugiant dans une axiomatique irréaliste, dans la tradition ouverte par Friedman en 1953, et un autre recourant à l’empirisme, mais sans garde-fous si ce n’est que techniques en matière de procédures de vérifications[54]. Dans un tel contexte, on comprend alors l’intérêt que suscitent au sein de ce courant les théories déniant toute importance à la méthodologie, qu’il s’agisse des thèses sur la pure dimension rhétorique de l’économie, défendue par McCloskey, ou des positions de type post-moderne se réfugiant dans l’hyper-critique[55]. Or, comme on l’a indiqué, ces deux approches ont pour effet immédiat de transformer l’économie en pure apologétique.

La robustesse d’un fait scientifique résulte d’un alliage entre des réseaux humains, des pratiques reconnues, un intérêt de la part d’un utilisateur potentiel. Cette robustesse est donc forcément temporaire, toujours susceptible d’être minée par le doute quand les réseaux se décomposent et se transforment, les pratiques évoluent, les intérêts se déplacent[56]. Une partie de l’incompréhension engendrée par le statut des résultats en économie, vérités révélées ou simples affirmations idéologiques, tient dans les illusions qu’engendre l’aveuglement volontaire sur les modes de vérifications. Pour en sortir, il faut accepter la séparation radicale entre le statut d’une discipline dans la typologie générale des sciences, et la nature des pratiques des chercheurs opérant au sein de cette discipline. Savoir si, oui ou non, l’économie peut prétendre au statut de science dite « dure » n’a en réalité aucun intérêt, si ce n’est, mais dans un autre contexte, celui de valoriser l’économiste dans ses relations avec le décideur politique. Par contre, la question des pratiques des économistes est, elle, absolument fondamentale.

Un regard rétrospectif sur l’épistémologie de Keynes s’avère ici nécessaire si on veut pratiquer la distinction entre science et pratique scientifique[57]. En économie, la part des « évidences disponibles », c’est à dire des énoncés qui font si ce n’est l’unanimité de la profession, du moins qui sont admis par un grand nombre de chercheurs, jouent un rôle déterminant[58]. Cette controverse, et l’histoire des controverses passées, permet de séparer le poids d’un énoncé de sa probabilité. Par poids, il faut entendre, à la suite de Keynes lui-même[59], la quantité d’évidences disponibles pertinentes à un argument donné, et leur cohérence réciproque. Soutenir ainsi un énoncé par des évidences disponibles issues de champs méthodologiques opposés diminue au lieu de l’accroître le poids de l’énoncé. La probabilité d’un énoncé renvoie quant à elle au degré de vérification des évidences disponibles. Avoir une démarche scientifique, pour un économiste, ne peut donc signifier n’émettre que des conjectures testables et vérifiables. A ce compte, il serait silencieux la plupart du temps. Cela veut dire dans un premier temps évaluer, par les controverses présentes et passées, le poids des énoncés dont il se sert ou qu’il veut réfuter. Puis, quand il le peut, soumettre les évidences disponibles à l’épreuve de la vérification, tout en sachant que, du fait même de la nature de la discipline, cette dernière ne peut être que limitée et imparfaite. La vérification joue donc ici moins le rôle de l’établissement d’une preuve que de l’invalidation de certaines conjectures. Si l’énoncé A, repose strictement sur les évidences x, y, z, qui elles mêmes sont liées à des conjectures a, b et g, et que l’une de ces conjectures soit testable, la validation de l’une ne prouverait pas l’énoncé, mais l’invalidation de l’une serait suffisante pour amener au rejet de l’énoncé. Se plier à cette discipline ne garantit nullement que les résultats soient « vrais », mais établit la distinction entre une pratique scientifique de l’économie et une pratique idéologique, où les énoncés visent d’abord et avant tout à justifier des options métaphysiques ou politiques sous-jacentes[60].

7. Ce que serait une véritable méthodologie scientifique (et ce que n’est pas la « méthode » Cahuc-Zylberberg)

Des éléments de critique de la méthodologie dominante, et de ses avatars, que l’on vient de présenter on peut dégager une direction alternative, aboutissant à un type de méthodologie ouverte. Pour y parvenir, il faut reprendre certains des problèmes évoqués, et en premier lieu celui de la sous-détermination, c’est à dire le fait que des données économiques peuvent être utilisées pour justifier des explications dans des cadres théoriques complètement différents. Uskali Mäki écrit ainsi: « La thèse de la sous-détermination proclame que les données et la logique sont insuffisantes pour contraindre le scientifique à une décision unique en terme d’adhésion ou de rejet d’une théorie donnée. Comme nous savons que de telles décisions sont prises dans les faits, nous devons admettre que d’autres contraintes se glissent ici, si nous ne voulons admettre que le procès est complètement aléatoire« [61].

Cette remarque est particulièrement importante, car elle renvoie en fait au statut double, analyste et acteur, de l’économiste. Mäki suggère que d’autres contraintes finissent par s’introduire dans le cadre conceptuel de l’économiste. Si nous considérons ce dernier dans sa fonction d’analyste, ceci pose le problème de la nature du système qu’il observe et analyse. Pour qui, à la suite de Samuelson, considère que l’économie est assimilable à un système ergodique au sens fort du terme, alors même si les observations ne sont pas directement révélatrices de lois du système, elles n’en engendrent pas moins une convergence, sous l’hypothèse que le comportement de l’analyste soit lui-même rationnel[62]. Dès lors la sous-détermination n’est que temporaire. Supposons, maintenant, que l’économie n’admette que des ergodicités limitées, soit qu’elle n’existe que sous la forme de systèmes locaux et temporaires. Alors, la sous-détermination résulte d’une incapacité à collecter assez de données dans les plages de stabilité, et de l’impossibilité de comparer directement les données provenant de systèmes différents. La sous-détermination est ici structurelle et la non-convergence des interprétations ne relève pas d’un manque de rationalité mais bien d’une incapacité de fait à trancher sur la simple base des données. Si, enfin, on accepte de se placer dans l’hypothèse où l’économie ne relèverait jamais d’une hypothèse ergodique, et ce sous quelque forme que l’on puisse l’exprimer, alors la sous-détermination serait fondamentale , et la non-convergence ne résulterait pas d’une incapacité de fait, mais d’une impossibilité de principe.

Une méthodologie ouverte doit pouvoir fonctionner dans ces trois cas de figure, car supposer une adéquation de la méthodologie avec une de ces hypothèses, c’est supposer que nous connaissons déjà le résultat de notre programme de recherche au moment où nous en établissons les règles de fonctionnement.

Maintenant, si on admet que l’économiste n’est pas seulement un observateur mais aussi un acteur, et qu’il peut, à travers les conseils qu’il prodigue à un gouvernement, ou à une puissance privée de grande importance, peser sur les règles de fonctionnement du système, le problème se déplace. D’une part la nature de la rationalité de l’économiste change, puisqu’il est à la fois dans une posture d’analyse et de justification. D’autre part, si l’ergodicité du système peut être affectée par des changements de règles et d’institutions (ou plus précisément si nous ne pouvons exclure qu’il puisse en être ainsi), alors le statut des données collectées change à son tour, et ce d’autant plus que le projet analytique peut être remplacé par un projet normatif (comment faire en sorte que le système fonctionne comme j’ai prédit qu’il devait fonctionner). On voit donc pourquoi le test par les données ne saurait être le critère, ni unique ni central, d’une méthodologie économique. Ceci plaide évidemment pour l’adoption de la cohérence interne et du réalisme comme normes d’évaluation.

Le rejet symétrique des thèses positivistes (le test est le critère suprême de scientificité) et relativistes (il n’est pas de vérité, rien que du discours) conduit à retenir l’articulation de trois critères pour définir une démarche scientifique en économie.

  1. Il faut tout d’abord que les hypothèses soient réalistes. Cette exigence découle directement de l’impossibilité dans laquelle nous nous trouvons d’être sur de pouvoir tester une hypothèse, ou d’être sur de pouvoir interpréter le résultat du test de manière indiscutable. Cette impossibilité découle de la prise en compte de trois arguments ci-dessus évoqués:
    1. le degré d’emboîtement des conjectures à tester,
    2. le problème de Duhem-Quine et la non-neutralité des données utilisées dans le test par rapport à la conjecture qu’elle doivent vérifier ou invalider,
    3. le caractère essentiellement qualitatif des prédictions et conjectures de l’économie, confronté au caractère quantitatif des données.
Ceci condamne radicalement l’instrumentalisme. Dire qu’une hypothèse doit être réaliste n’implique pas qu’elle soit vraie. Cela suppose simplement, mais ce simplement, on le verra, est lourd de conséquences, que l’on se refuse à axiomatiser dans le vide. Ainsi, supposer que les agents sont, en tout lieu, à toute heure, en mesure de calculer la totalité des conséquences possibles de l’interaction entre une décision et l’environnement, supposition qui est consubstantielle à l’hypothèse de rationalité maximisatrice, n’est pas réaliste. De même, supposer que le temps ne se manifeste pas sous la forme d’une contrainte dans le processus de traitement du signal avant qu’une décision soit prise, autrement dit qu’il est indifférent de prendre une décision donnée aujourd’hui ou demain, le premier ou le dernier, est une autre hypothèse irréaliste. L’exigence de réalisme est donc première; elle doit s’entendre au sens du réalisme processuel que l’on a évoqué plus haut.

  1. Il faut ensuite que le raisonnement soit cohérent. Un raisonnement cohérent est un discours construit dans lequel on ne fait pas entrer, sous prétexte d’une explication conjoncturelle, un élément qui soit incompatible avec les prémisses. Si on suppose les marchés imparfaits, on ne peut plus invoquer par la suite un marché parfait. Si on suppose la connaissance des agents limitée, on ne peut invoquer une règle de comportement qui impliquerait, sous une forme ou une autre, une connaissance parfaite. Un raisonnement cohérent n’est pas forcément juste. Il est des raisonnements cohérents qui, en raison du degré d’irréalisme des hypothèses de base sont évidemment faux. L’exigence de cohérence n’est en rien décisive ou suffisante; elle ne prend son sens que dans l’articulation avec l’exigence de réalisme.
  • Il faut enfin pratiquer une testabilité limitée. dire que l’on ne peut pas tout tester, ou que les résultats ne peuvent être tenus pour naturellement indiscutables, ne signifie pas qu’il faille renoncer à tester. Le chercheur doit pratiquer une testabilité limitée ou critique, qui repose sur deux préambules:
    • Il faut pouvoir décomposer un argument en conjectures simples. Ceci est loin d’être toujours possible, mais doit être tenté autant que faire se peut. Le simple processus de décomposition des argumentaires a déjà une valeur critique et analytique essentielle, en permettant la mise en évidence des interactions et rétroactions. La testabilité limitée s’oppose ici à l’emploi de la clause « toutes choses étant égales par ailleurs », qui implique que le système étudié soit simple, dans le sens où l’on puisse faire varier un élément sans modifier les relations de cet élément avec le reste. La testabilité limitée part du principe que les systèmes sont complexes et tente de les réduire en systèmes simples.
    • Il faut procéder à une construction explicite du test , c’est à dire à une analyse critique des sources des données, des processus qui les mettent à la disposition du chercheur, de leur contenu théorique implicite (par exemple dans l’utilisation des données de PNB/PIB), du degré de généralité du test et de la procédure du test. Cette construction doit être explicite, en ce sens qu’elle doit conduire à la formulation des hypothèses qui servent à tester et pas seulement des hypothèses que l’on teste.
La testabilité limitée ne peut pas être une procédure générale et systématique. Elle s’insère dans les deux précédentes exigences de réalisme et de cohérence comme forme de rapport entre le chercheur et la réalité de l’objet sur lequel il travaille. Une démarche qui associe et articule ces trois critères répond alors au méta-critère évoqué plus haut, la capacité à fonctionner quel que soit le degré d’ergodicité du système étudié. On rappelle que l’on peut être en présence de trois situations distinctes, celle où le système vérifie une hypothèse ergodique forte, celle ou n’est vérifiée qu’une hypothèse ergodique limitée et temporaire, et celle, enfin, de rejet de toute hypothèse ergodique[63]. C’est dans le premier cas que la testabilité limitée prendra le plus de poids. Par rapport à une démarche instrumentaliste, on est au pire à égalité, et plus probablement avec un léger avantage, car la déconstruction des conjectures et des procédures assure une vérification instantanée des pratiques du chercheur, que ne permet pas l’instrumentalisme traditionnel. Si nous sommes dans le second cas, l’instrumentalisme est incapable d’engendrer une convergence des prévisions. La testabilité doit nécessairement être reléguée au second plan au profit des critères de cohérence et de réalisme. Si nous sommes dans la troisième situation, alors l’instrumentalisme est impossible par nature. Pour autant, en raison de la présence du couple cohérence/réalisme, le chercheur n’est pas dépourvu de moyens d’intelligence et de critique de sa pratique. La testabilité limitée a, ici, l’utilité de vérifier son impossibilité, ce qui serait impossible pour une démarche se fiant seulement et uniquement à la cohérence ou au réalisme.

Notes

[1] Cahuc P. et Zylberberg A., Le Négationnisme économique, Paris, Flammarion, 2016.

[2] Voir : http://www.marianne.net/les-eco-att/contre-les-diafoirus-economie-pierre-cahuc-andre-zylberberg-100245738.html

[3] Orléans A., « Quand Messieurs Cahuc et Zylberberg découvrent la science », sur le site de l’AFEP, http://www.alterecoplus.fr/quand-messieurs-cahuc-et-zylberberg-decouvrent-la-science/00012139

[4] On peut consulter le n° 71 à https://rwer.wordpress.com/2015/06/08/issue-no-71-of-the-real-world-economics-review/

[5] Sapir J., Les trous noirs de la science économique – Essai sur l’impossibilité de penser le temps et l’argent, Albin Michel, Paris, 2000, 2001. (Ce livre a reçu en 2001 le prix Turgot du livre d’économie financière). Edition en collection de poche « Points Seuil » avec une nouvelle préface, Le Seuil, Paris, 2003. Voir aussi « Realism vs Axiomatics » in Ed. Fullbrook (ed.), The Crisis in economics, Routledge, Londres et New York, 2003, pp. 58-61.

[6] Sapir J., « Calculer, comparer, discuter: apologie pour une méthodologie ouverte en économie », in Économies et Sociétés, série F, n°36, 1/1998, numéro spécial, Pour aborder le XXIème siècle avec le développement durable, édité par S. Passaris et K. Vinaver en l’honneur du professeur Ignacy Sachs, pp. 77-89, ou « A l’épreuve des faits…Bilan des politiques macroéconomiques mises en oeuvre en Russie », in Revue d’études comparatives est-ouest, vol.30, n°2-3, 1999, pp 153-213, et « Sept propositions pour une économie réaliste » in Alternatives Economiques, Hors-Série n°57, pp. 54-56.

[7] Voir Sapir J., Quelle économie pour le XXIè siècle?, Odile Jacob, Paris, 2005, chapitres 1, 2 et 3.

[8] P. Mirowski, More heat than light- Economics as Social. Physics, Physics as Nature’s Economics, Cambridge: Cambridge. University Press, 1989.

[9] Voir ainsi E.R. Weintraub, « Methodology doesn’t matter, but history of thought might », in S. Honkapohja, (ed.), Wither Macroeconomics?, Basil Blackwell, Oxford, 1989.

[10] Morgan M.S., « Statistics without Probabilitiy and Haavelmo’s Revolution in Econometrics », in Lorenz Krüger, Gerg Gigerenzer, Mary Morgan (edits), The Probabilistic Revolution. Vol.2 Ideas and Sciences, MIT Press, Cambridge, London, 1990.

[11] Lucas R., « An equilibrium model of the business cycle », Journal Of political Economy, Vol. 83, 1975, pp.1113-1144.

[12] Horvath R.A., « The rise of Macroeconomic Calculation in Economic Statistic », in Lorenz Krüger, Gerg Gigerenzer, Mary Morgan (ed.), The Probabilistic Revolution. Vol.2 Ideas and Sciences, MIT Press, Cambridge, London, 1990.

[13] Edgeworth F.Y., « Application of Probabilities to Economics », Economic Journal, 387, june, 1910.

[14] Haavelmo T., « The Probability Approach in Economics », Econometrica, 12, 1944, pp.1-118

[15] Pour une présentation plus précise de la méthode de réduction des données de second type à des données de premier type, voir: Mary Morgan, op. cit., 1990, pp. 185-186.

[16] Duhem P., La théorie physique – son objet – sa structure, (1906), Paris, Vrin, 2nde édition, 1989

[17] P.A. Samuelson, “Classical and Neoclassical theory”, in R.W. Clower, (ed.),Monetary Theory, Penguin, Londres, 1969.

[18] Pour von Neuman, soit F une fonction complexe sur W de carré intégrable, la suite des fonctions:

n-1

1/n   S   f. qk converge en moyenne quadratique vers une fonction F de carré intégrable et q-invariante.

k=0

Voir, P.A. Meyer, “Théorie ergodique et potentiels”, in Annales Inst. Fourier , t. XV, fasc. 1, 1965.

[19] P. Billingsley, Ergodic Theory and Information, Kreiger Publishers, Huntington, 1978. Pour une application directe, R. Lucas et T.J. Sargent, Rational Expectations and Econometric Practices, University of Minnesota Press, Minneapolis, 1981, pp. XII – XIV.

[20] Voir la discussion sur ce point in P. Davidson, “Some Misunderstanding on Uncertainty in Modern Classical Economics”, in C. Schmidt (ed.), Uncertainty and Economic Thought, Edward Elgar, Cheltenham, 1996, pp. 21-37.

[21] Voir par exemple F.H. Hahn, « Keynesian economics and general equilibrium theory: reflections on some current debates » in G.C. Harcourt, (ed.), The Microfoundations of Macroeconomics , Macmillan, Londres, 1977. B.J. Loasby,The Mind ans Methods of the Economist: A critical appraisal of major economists in the XXth Century , Edward Elgar, Aldershot, 1989, en particulier chapitre 8. D.M. Haussman, The Inexact and Separate Science of Economics , op.cit..

[22] B.J. Caldwell, « Economic Methodology: Rationale, Foundation, Prospects », in U. Mäki, B. Gustafsson et C. Knudsen, (eds.), Rationality, Institutions & Economic Methodology, Routledge, Londres-New York, 1993, pp. 45-60. Idem, « Does Methodology matters? How should it practiced? », in Finnish Economic Papers, vol.3, n°1/1990, pp. 64-71.

[23] D. McCloskey, The Rhetoric of Economics, University of Wisconsin Press, Madison, Wisc., 1985.

[24] P. Feyerabend, Against Method: Outline of an Anarchistic Theory of Knowledge, Verso Edition, Londres, 1975.

[25] Pour une critique de la dimension instrumentaliste chez McCloskey, U. Mäki, « How to Combine Rhetoric and Realism in the Methodology of Economics », inEconomics and Philosophy, vol. 4, n°1/1988, pp. 89-109; Idem, « Realism, Economics and Rhetoric: a Rejoinder to McCloskey », in Economics and Philosophy, vol. 4, n°1/1988, pp. 167-169.

[26] D. Hausman, The Inexact and Separate Science of Economics, op.cit., pp. 264-268.

[27] M. Bleaney, « An Overview of Emerging Theory », in D. Greenaway et alii, (eds.), Companion to Contemporary Economic Thought, Routledge, Londres et New York, 1991.

[28] S.C. Dow, « Mainstream Economic Methodology »,op.cit, p. 87.

[29] P. Bourdieu, La Distinction – Critique sociale du jugement , Éditions de Minuit, Paris, 1979, p. 111.

[30] Idem, voir note 6, p. 194.

[31] B. Latour, La vie de laboratoire, La Découverte, Paris, 1988. B. Latour et S. Woolgar, Laboratory Life: The Construction of Scientific Facts, Princeton University Press, Princeton, NJ, 1979.

[32] U. Mäki, « Social Theories of Science and the Fate of Institutionalism in Economics », in U. Mäki, B. Gustafsson et C. Knudsen, (eds.), Rationality, Institutions & Economic Methodology, Routledge, Londres-New York, 1993, pp.76-109, p. 86-7.

[33] R. William et J. Law, « Beyond the Bounds of Credibility », in Fundamenta Scientiae , vol. 1, 1980, pp. 295-315.

[34] M. Callon et J. Law, « La protohistoire d’un laboratoire », in M. Callon, (sous la direction de), La Science et ses réseaux , La Découverte, Paris, 1989, chapitre 2, p. 67.

[35] Voir T.W. Hutchison, The Significance and Basic Postulates of Economic Theory, Macmillan, Londres, 1938.

[36] A. Insel, “Une rigueur pour la forme: Pourquoi la théorie néoclassique fascine-t-elle tant les économistes et comment s’en déprendre?”, in Revue Semestrielle du MAUSS, n°3, éditions la Découverte, Paris, 1994, pp. 77-94.

[37] Par exemple M. Blaug, The Methodology of Economics , Cambridge University Press, Cambridge, 1980. Voir aussi P. Mirowski, More Heat than Light, op.cit..

[38] P. Mirowski, « How not to do things with metaphors: Paul Samuelson and the science of Neoclassical Economics », in Studies in the History and Philosophy of Science, vol. 20, n°1/1989, pp. 175-191. Pour une critique plus générale sur le modèle de scientificité de la physique, P. Mirowski, More heat than light, Cambridge University Press, Cambridge, 1990.

[39] P.A. Samuelson, “Classical and Neoclassical theory”, in R.W. Clower, (ed.),Monetary Theory, Penguin, Londres, 1969.

[40] M. Friedman, « The Methodology of Positive Economics », in M. Friedman,Essays in Positive Economics, University of Chicago Press, chicago, 1953, pp. 3-43.

[41] B. Caldwell, Beyond Positivism: Economic Methodology in the Twentieth Century, op.cit.. Voir aussi W. Mason, « Some negative thoughts on Friedman’s Positive Economics », in Journal of Post-Keynesian Economics, vol. 3, n°2/1981, pp. 235-55.

[42] P. Duhem, The Aim and structure of Physical Theory, Princeton University Press, Princeton, NJ, 1954. W. Quine, « Two Dogmas of Empiricism », in W. Quine, From a Logical Point of View, Harvard University Press, Cambridge, Mass., 1953, pp. 20-46.

[43] D.W. Hands, « Popper and Lakatos in Economic Methodology », in U. Mäki, B. Gustafsson et C. Knudsen, (eds.), Rationality, Institutions & Economic Methodology, op.cit., pp. 61-75. J.J. Klant, « Refutability », in Methodus , vol. 2, n°2/1990, pp. 34-51.

[44] D.W. Hands, « Popper and Lakatos in Economic Methodology », op.cit., p. 64.

[45] K. Popper, Realism and the Aim of Science, Rowman & Littlefield, Totowa, NJ, 1983, p. xxxv.

[46] D.W. Hands, « Popper and Lakatos in Economic Methodology », op.cit., p. 65.

[47] D.W. Hands, Testing, Rationality and Progress: Essays on the Popperian Tradition in Economic Methodology, Rowman & Littlefield, Latham, NJ, 1992. D.M. Hausman, « An Appraisal of Popperian Methodology » in N. de Marchi, (ed), The Popperian Legacy in Economics, Cambridge University Press, cambridge, 1988, pp. 65-85. U. Mäki, « Economic Methodology: complaints and guidelines », in Finnish Economic Papers, vol.3, 1990, n°1, pp. 77-84.

[48] I. Lakatos, « Falsification and the Methodology of Scientific Research Programmes », in I. Lakatos et A. Musgrave, (eds.), Criticism and the Growth of Knowledge, Cambridge University Press, Cambridge, 1970, pp. 91-196.

[49] E.R. Weintraub, General Equilibrium Analysis, Studies in Appraisal, Cambridge University Press, Cambridge, 1985. M. Blaug, « Ripensamenti sulla rivoluzione keynesiana », in Rassegna Economica, vol. 51, n°3, 1987, pp. 605-634.

[50] G. Fulton, « Research Programmes in Economics », in History of Political Economy, vol. 16, n°2, 1984, pp. 27-55.

[51] R. Cross, « The Duhem-Quine thesis, Lakatos and the Appraisal of Theories in Macroeconomics », in Economic Journal, vol. 92, n°2, 1982, pp. 320-340.

[52] D.W. Hands, « Popper and Lakatos in Economic Methodology », op.cit., p. 68. Voir aussi D.W. Hands, « Second Thoughts on Lakatos », in , History of Political Economy, vol. 17, n°1, 1985, pp. 1-16.

[53] S.C. Dow, « Mainstream Economic Methodology »,op.cit, p. 80-81.

[54] Voir sur ce point la discussion in O. Hamouda et R. Rowley, « Ignorance and the Absence of Probabilities », in C. Schmidt, (ed.), Uncertainty in Economic Thought, Edwar Elgar, Cheltenham, 1996, pp. 38-64.

[55] J. Doherty, E. Graham et M. Malek, (eds.), Post-modernism in Social Sciences, Macmillan, Londres, 1992; voir en particulier l’introduction à ce volume. B. Barnes et D. Bloor, « Relativism, rationalism and the sociology of lknowledge », in M. Hollis et S. Lukes, (eds.), Rationality and Relativism , Basil Blackwell, Oxford, 1982, pp. 21-47.

[56] M. Callon, (sous la direction de), La Science et ses réseaux , op.cit., pp. 25-31.

[57] Sur cette épistémologie, on se réfèrera à A.M. Carabelli, On Keynes’s Method, Macmillan, Londres, 1988; R.M. O’Donnel, Keynes’s Philosophy, Economics and Politics: The Philosophical Foundations of Keynes’s Thought and their influences on his Economics and Politics , Macmillan, Londres, 1989.

[58] S.C. Dow, « The appeal of neoclassical economics: some insights from Keynes’s epistemology », in Cambridge Journal of Economics , vol. 19, n°5, 1995, pp. 715-733, p. 716.

[59] J.M. Keynes, A Treatise on Probability , republié in Collected Writings , vol. VIII, Macmillan, Londres, 1973; voir le chapitre 6.

[60] Sur ce point voir le grand ouvrage de Gunnar Myrdal dont les opinions, exprimées en 1929, restent parfaitement d’actualité aujourd’hui. G. Myrdal, The Political Element in the Development of Economic Theory , Transaction Publishers, New Brunswick et Londres, 1990; première édition en anglais, 1954; première édition en suédois, 1930.

[61] U. Mäki, « Social Theories of Science and the Fate of Institutionalism in Economics », op.cit., p. 80.

[62] Au sens donné par L. Laudan, Progress and its Problems, Routledge & Keagan Paul, Londres, 1977, voir en particulier pp. 188-9 et p. 222.

[63] Mirowski P., « How not to do things with metaphors: Paul Samuelson and the science of Neoclassical Economics », in Studies in the History and Philosophy of Science, vol. 20, n°1/1989, pp. 175-191.


Poster un commentaire