Les Prismes

du Centre Cournot

Prisme N°42

LE MOUVEMENT BROWNIEN FRACTIONNEL DANS LA MODÉLISATION DE LA VOLATILITÉ

Elisa Alòs

A paraitre

Prisme N°41

La concentration du pouvoir économique depuis la pandémie

Frédéric Marty

Prisme N°41 Octobre 2020.pdf

Prisme N°39

La surveillance de l’espace et l’évaluation des risques : l’économie du débris

George Papanicolaou

Prisme N°39 Novembre 2019.pdf

En savoir plus
En 2007, la Chine a mis en orbite un satellite chasseur de planètes afin de le faire rentrer en collision avec un autre satellite. Le choc a produit la plus grande quantité de débris de l’histoire. Cet incident a modifié la perception des dangers des débris spatiaux, qui sont devenus un sujet de préoccupation majeure pour les gouvernements impliqués dans les stratégies spatiales. La bonne connaissance, la prévention et l'élimination sont l'objet d'une planification intense et d’une activité économique soutenue depuis une douzaine d'années. Ce Prisme présente une vue d’ensemble de ces développements dans la perspective d’un mathématicien appliqué dont les travaux se sont développés dans le domaine spatial.
Prisme N°38

Fractional and Statistical Randomness

Charles Tapiero & Pierre Vallois

Prisme N°38 Mars 2019.pdf

Traduction française en cours.
Prisme N°37

Abstraction vs. Application: Itô’s Calculus, Wiener’s Chaos and Poincaré’s Tangle

Daniel Goroff

Prisme N°37 Octobre 2019.pdf

Traduction française en cours.
Prisme N°36

Réconcilier le pari et la mesure

Glenn Shafer

Prisme N°36 Octobre 2018.pdf

En savoir plus
Voilà trois siècles et demi, Blaise Pascal et Pierre Fermat proposaient des solutions rivales à un problème classique de la théorie des probabilités : le problème des partis. Tandis que Pascal s’intéressait aux différentes trajectoires possibles du jeu, Fermat en dénombrait les combinaisons possibles ; l’interaction entre pari et mesure est depuis lors inhérente aux probabilités.

Cette dualité se perçoit au milieu du vingtième siècle à travers les styles opposés de Paul Lévy et de Joseph Doob. Lévy adopte un point de vue qui est intrinsèquement et parfois explicitement celui de la théorie des jeux. Intuitivement, ses attentes sont celles d’un joueur : ses trajectoires sont déterminées par les résultats de paris successifs. Doob oppose aux intuitions de Lévy la froide rigueur de la mesure. Kiyosi Itô est parvenu quant à lui à réconcilier leurs points de vue en donnant à la pensée trajectorielle de Lévy la rigueur de la théorie de la mesure.

De nos jours, cette réconciliation s’interprète en termes de mesure. Les intuitions issues de la théorie des jeux sont tout de même régulièrement appliquées à la finance et de récents travaux ont démontré qu’une interprétation fondée sur la théorie des jeux pouvait être aussi rigoureuse que celle fondée sur la théorie de la mesure. Dans ce cadre, les martingales retrouvent leur identité de processus de valeur des portefeuilles, et elles suffisent comme telles pour définir la notion de probabilité un et pour développer une version du calcul d’Itô.
Prisme N°35

Les BIG DATA changent-ils la donne en finance ?

Mathieu Rosenbaum

Prisme N°35 Mars 2017.pdf

En savoir plus
La disponibilité croissante et massive de données numériques pose des questions nouvelles aux disciplines mathématiques. Si l’afflux de big data modifie l'accès et la gestion des données, les méthodes quantitatives restent, elles, largement inchangées, même si elles doivent s'appliquer en très grandes dimensions et sur un temps très court. L'enjeu de ce Prisme est de donner un sens à la reformulation que les mégadonnées imposent dans les mathématiques et aux approfondissements qu'elles rendent possibles en finance.
Prisme N°34

Saturation and Growth Over Time: When Demand for Minerals Peaks

Raimund Bleischwitz & Victor Nechifor

Prisme N°34 November 2016 (2,97mo).pdf

Traduction française en cours.

En savoir plus
Decoupling is at the core of the contemporary debate about economic growth and natural resources: will the delinking of economic growth and resource use happen at all given the dynamics in developing countries? Will it occur through an invisible hand of progress and improvements in resource efficiency? What lessons can be learned from a long-term international perspective?
This Prisme combines the analytical strands of resource economics and material flow analysis to answer those questions. It looks at materialspecific demand and stock build-up trends over an extended time horizon of a century. Four materials (steel, cement, aluminium and copper) are analysed for a group of four industrialized countries (Germany, Japan, the UK and the USA) together with China, as the most pre-eminent emerging economy. In analysing a new set of per capita and gross domestic product indicators, our research confirms the relevance of a saturation effect with a number of specifications. We cautiously expect decoupling processes to occur in China over the next few decades, and most likely in other developing countries as well. Forecasts and modelling efforts should take such saturation into account.
Prisme N°33

Une analyse temps-fréquence du prix de pétrole

Josselin Garnier & Knut Sølna

Prisme N°33 October 2017 (3,7 MiB)

Publication disponible uniquement en anglais.

En savoir plus
Les prix de pétrole ont une structure multi-échelle compliquée, qui peut varier avec le temps. Les auteurs utilisent une analyse temps-fréquence pour identifier les caractéristiques principales de ces variations et, en particulier, des changements de régime. L’analyse est fondée sur une décomposition en ondelettes et une étude du spectre d’échelle associé. L’estimation conjointe du coefficient de Hurst et de la volatilité permettent de détecter et d'identifier les déplacements et les changements de régime du prix du pétrole depuis le milieu des années 1980 jusqu’aujourd’hui.
Prisme N°32

Les raisons du (quasi-) succès du traitement automatique de la parole

Mark Liberman

Prisme N°32 Décembre 2017 (5,7 MiB)

Prisme N°31

Comment fuir le long d'une droite

Laure Dumaz

Prisme N°31 Aout 2016 (2,97mo).pdf

En savoir plus
Ce texte porte sur la trajectoire d’une marche aléatoire particulière, celle, par exemple, d’un fuyard qui tente d’échapper à ses poursuivants mais ne peut se déplacer que sur la droite réelle. Quelle est la trajectoire continue sur la droite qui laisse le moins d’information possible derrière soi ? Cette question est abordée dans le cadre de la théorie des marches aléatoires. Différents types de marches sont présentés, à commencer par le célèbre mouvement brownien. La limite d’échelle de la marche aléatoire auto-répulsive est ensuite exposée, avant que ne soit détaillé le processus auto-répulsif, qui constitue une stratégie optimale.
Prisme N°30

Les statisticiens ont-ils besoin d’une théorie de probabilité ?

Noureddine El Karoui

Prisme N°30 December 2014 (449 KiB)

En savoir plus
Élaboré à partir de l’expérience quotidienne et de la pratique professionnelle d’un enseignant spécialiste des statistiques, cet article a pour but de montrer en quoi le domaine des statistiques a connu une évolution constante, en particulier dans ses rapports avec la théorie des probabilités. Deux exemples permettent d’illustrer ce propos : dans le premier, la question porte sur la possibilité, à partir de l’observation de données relatives au marché de l’immobilier, de prévoir le prix de vente d’une maison à partir de ses caractéristiques ; dans le second, l'enjeu concerne la conception d'un filtre anti-pourriel pour un compte de messagerie électronique. Nous proposons une analyse des diverses techniques statistiques, des plus classiques aux plus contemporaines, qui peuvent être utilisées pour l’analyse de ces données et en particulier, nous étudions le rôle de la théorie des probabilités dans le développement et l’utilisation de ces techniques. L'analyse fait apparaître l’évolution des rapports entre la théorie des probabilités et les statistiques.
Prisme N°29

Comment se manifeste l’avènement du quantique ?

Elham Kashefi

Prisme N°29 Septembre 2014 (4.5mo)

En savoir plus
Ce texte retrace brièvement l’histoire de l’informatique quantique afin de replacer dans son contexte le champ nouveau de la technologie quantique, avec tous les défis qui l’accompagnent. L’un des défis particulièrement difficiles à relever dans le domaine de l’informatique quantique est celui de la vérification et de la validation : d’une part, dans la mesure où les méthodes de calcul classiques ne peuvent rivaliser avec la puissance de calcul de la mécanique quantique, il est difficile de vérifier l’exactitude d’un calcul de type quantique ; d’autre part, la structure quantique sous-jacente résiste aux analyses classiques. Le texte fait le point sur les derniers procédés mis en place en vue d’évaluer les dispositifs de calcul quantique d’aujourd’hui afin que nous soyons en mesure d’exploiter pleinement ceux de demain.
Prisme N°28

La dynamique des capitalismes et la participation des travailleurs : une analyse de long terme

Bernard Gazier & Olivier Boylaud

Prisme N°28 décembre 2013 (1.7 MiB)

Annexe Prisme 28 (138.5 KiB)

En savoir plus
Ce texte est en cours de traduction.
Prisme N°27

Pertinence et limites des partenariats public-privé : une analyse économique

Jean Bensaïd & Frédéric Marty

Prisme N°27 novembre 2013 (3.1 MiB)

En savoir plus
Les partenariats public-privé désignent des contrats administratifs globaux de long terme par lesquels une autorité publique confie à un contractant privé tout ou partie des missions de conception, construction, financement, exploitation et maintenance d’une infrastructure concourant de la fourniture d’un service public. Le contractant privé amortit son investissement initial et rémunère le service rendu au travers des péages acquittés par les usagers (en fonction du trafic) ou des loyers versés par la personne publique (en fonction de la disponibilité du service requis et de la satisfaction de critères de qualité et de performance).

Contestés pour leur coût, leur opacité et leur rigidité, dénoncés sur la base de certains échecs ou de difficultés dans leur mise en œuvre, les partenariats public-privé n’en constituent pas moins un outil pertinent pour porter certains projets et garantir une exploitation efficace d’actifs et d’infrastructures publiques. Ce Prisme livre une analyse dépassionnée de ces contrats en mettant en évidence les paramètres économiques et financiers qui peuvent conduire des collectivités publiques à opter pour cette voie contractuelle dans le cadre d’une démarche transparente et fondée sur l’exigence du bon usage des deniers publics.

En effet, le recours aux financements privés peut s’avérer indispensable, au vu des contraintes s’exerçant sur les finances publiques, pour répondre aux besoins d’investissement dans les infrastructures. De la même façon, le partenariat public-privé peut construire un cadre incitatif efficace pour protéger la personne publique contre les dérives de coûts et de délais et garantir un service de qualité tout le long de la durée du contrat.

Pour autant, le recours à ces contrats ne constitue pas une panacée, applicable pour tous les projets et en toutes circonstances. Notre Prisme montre dans quelle mesure et sous quelles conditions le partenariat public-privé peut tenir ses promesses. Il place un accent particulier sur la dimension financière qui constitue la clé de voûte de ces contrats tant en matière d’efficacité que de soutenabilité budgétaire. Il s’attache enfin aux évolutions que connaît ce modèle, notamment celles liées aux changements des conditions de financement.

Ce texte est inspiré de la présentation de Frédéric Marty Trente ans de développement des Partenariats public-privé : quel bilan macroéconomique ? et commentée par Jean Bensaïd le 20 juin 2013 dans le cadre du séminaire Cournot.
Prisme N°26

Les chances d’une codétermination à la française

Jean-Louis Beffa & Christophe Clerc

Prisme N°26 Janvier 2013 (1.6 MiB)

En savoir plus
Ce texte est inspiré de la présentation de Jean-Louis Beffa et de Christophe Clerc, Les chances d’une codétermination à la française le 17 octobre 2012 dans le cadre du séminaire Cournot.
Prisme N°25

Le bruit au crible des probabilités

Josselin Garnier

Prisme N°25 Novembre 2012 (650.3 KiB)

En savoir plus
Il existe depuis longtemps des techniques d’imagerie utilisant des ondes pour sonder un milieu inconnu. Classiquement, ces techniques se décomposent en une phase d’acquisition de données et une phase de traitement des données. Des ondes sont émises par une source ou par un réseau de sources dans la phase d’acquisition, puis sont enregistrées par un réseau de récepteurs après propagation dans le milieu. La phase de traitement consiste à extraire l’information recherchée à propos du milieu sondé, contenue dans les données enregistrées par le réseau de récepteurs. Récemment, de nouvelles idées ont émergé à partir des observations obtenues dans des expériences de retournement temporel. Fondées sur ces observations, des méthodes d’imagerie inédites ont été proposées, exploitant les corrélations croisées des signaux enregistrés par des réseaux de capteurs. L’analyse mathématique a montré que la corrélation croisée des signaux enregistrés par deux capteurs passifs contenait essentiellement autant d’information sur le milieu que le signal que l’on aurait acquis, si un des capteurs était actif (émetteur) et l’autre était passif (récepteur). Le point important démontré par cette analyse est qu’il est possible d’utiliser des sources incontrôlées de bruit ambiant au lieu de sources contrôlées pour calculer les corrélations croisées et les exploiter à des fins d’imagerie. Cette possibilité a attiré l’attention des chercheurs, en mathématiques dans le domaine des probabilités, pour des raisons théoriques profondes car l’idée que l’on puisse utiliser le bruit remettait en cause la distinction habituelle signal-bruit, et en sismologie, pour des raisons pratiques évidentes dues à la rareté des sources (les séismes), et l’impossibilité de les contrôler. Cet exposé a pour but de décrire comment l’idée d’exploiter le bruit ambiant en imagerie a pris forme.

Ce texte est inspiré de la présentation, Le bruit en probabilité, tenu par Josselin Garnier le 20 octobre 2011 dans le cadre du séminaire « Les Probabilismes » du Centre Cournot.
Prisme N°24

Ce que mesurent les probabilités

Mikaël Cozic & Bernard Walliser

Prisme N°24 Septembre 2012 (489.1 KiB)

En savoir plus
Les probabilités sont l’un des outils fondamentaux sur lesquels un modélisateur peut s’appuyer pour décrire et expliquer les phénomènes qu’il étudie. Il s’en sert pour représenter à la fois les propriétés d’événements de tous ordres (sociaux, psychologiques ou naturels) et les degrés de croyances des acteurs. La compréhension des probabilités soulève de redoutables difficultés conceptuelles, qui sont l’objet propre de la philosophie des probabilités. La définition des probabilités repose sur une ontologie souvent implicite et leur évaluation soulève des problèmes épistémologiques spécifiques. L’objectif de cet article est d’esquisser un cadre conceptuel dans lequel les catégories fondamentales des philosophes des probabilités comme des probabilistes puissent communiquer.

Ce texte est inspiré de la présentation, Les probabilités de probabilités, tenu par Bernard Walliser, avec Mikaël Cozic comme discutant, le 21 janvier 2010 dans le cadre du séminaire « Les Probabilismes » du Centre Cournot.
Prisme N°23

Sortir de la crise : les voies et les impasses de la macroéconomie

Xavier Timbeau

Prisme N°23 Mai 2012 (993.8 KiB)

En savoir plus
Ce texte est inspiré de la présentation, Un état de la macroéconomie : l’économie est-elle déjà probabiliste ?, tenu par Xavier Timbeau le 29 février 2012 dans le cadre du séminaire « Les Probabilismes » du Centre Cournot.
Prisme N°22

Comment s’enchaînent croissance et crise ?

Paul De Grauwe

Prisme N°22 Octobre 2011 (430.9 KiB)

En savoir plus
Le capitalisme se caractérise par des phases d’expansions suivies de récessions. Des périodes de forte croissance de la production alternent avec des phases de déclin de la croissance. Les théories macroéconomiques peinent à saisir les mécanismes de ces mouvements conjoncturels endémiques. Deux paradigmes tentent d’expliquer ces phases d’expansion et de récession : le premier est celui du modèle d’Equilibre général dynamique stochastique dans lequel les capacités cognitives des agents sont illimitées. Le second est celui du modèle comportemental dans lequel les agents sont dotés de capacités cognitives limitées. De ces deux types de modèles découlent des dynamiques macroéconomiques radicalement différentes. Ce Prisme analyse ces différences et présente l’incidence de ces deux paradigmes sur l’action des gouvernements.
Prisme N°21

Les marches de l’aléa

Michel Armatte

Prisme N°21 novembre 2012 (873.4 KiB)

En savoir plus
La trajectoire historique de l’aléa dans les pratiques scientifiques n’a pas été continue : quelles ont été les différentes étapes de son ascension et quelles sont les significations qui lui ont été attribuées ? La vision classique de la probabilité au XVIIIe siècle, puis l’émergence et les multiples enrôlements d’un hasard objectif à partir du deuxième tiers du XIXe siècle, ont conduit à la théorie des processus au XXe siècle. Les marches de l’aléa jalonnent la visite du champ des mathématiques du hasard au fur et à mesure de son entrée dans les disciplines qui lui doivent beaucoup : physique, biologie, économie et finance.

Ce texte est inspiré de la présentation, Les trois sources du calcul des probabilités au XVIIIe siècle, tenu par Michel Armatte le 28 octobre 2009 dans le cadre du séminaire Cournot.
Prisme N°20

Tout est-il stochastique ?

Glenn Shafer

Prisme N°20 décembre 2010 (348.3 KiB)

En savoir plus
Tout est-il aléatoire ? Kolmogorov a répondu non, Popper a dit oui. Ma propre sensibilité me rapproche de cet empiriste de la vieille garde qu’est Kolmogorov. Lorsque nous connaissons les résultats des coups précédents avant de faire de nouveaux paris, nous pouvons formuler des probabilités qui ont une valeur objective car elles passent avec succès les tests statistiques. Cela explique le succès de nombreuses méthodes adaptatives et présente un lien avec la notion de mesure a priori universelle de Levin. Celle-ci nous révèle qu’en effet, tout est aléatoire, mais qu’en un sens ce fait n’a pas de valeur empirique. Dès lors que l’on comprend que le succès des méthodes adaptatives n’est pas lié à un monde aléatoire au sens réfutable, on se montre sans doute plus mesuré à l’égard de la modélisation de la causalité et plus ouvert aux méthodes atypiques de jugement de probabilité.

Ce texte est inspiré de la présentation, Tout est-il aléatoire ?, tenu par Glenn Shafer le 13 octobre 2010 dans le cadre du séminaire « Les Probabilismes » du Centre Cournot.
Prisme N°19

Comment bien régresser : La statistique peut-elle se passer d’artefacts?

Jean-Bernard Chatelain

Prisme N°19 octobre 2010 (414.8 KiB)

En savoir plus
Cet article présente un cas particulier de régression non fondée, lorsqu’une variable dépendante a un coefficient de corrélation simple proche de zéro avec deux autres variables, qui sont en revanche très corrélées entre elles. Dans ce type de régressions, les paramètres mesurant la taille des effets sur la variable dépendante sont très élevés. Ils peuvent être « statistiquement significatifs ». Publier en priorité des résultats dans une revue scientifique qui ont cette propriété est l’une des raisons pour lesquelles les régressions fausses sont nombreuses, d’autant qu’il est facile de les construire avec des variables retardées, mises au carré, ou interagissant avec une autre variable. De telles régressions peuvent contribuer à la renommée des chercheurs, en stimulant l’apparition d’effets élevés entre variables. Les effets, souvent inattendus, sont fragiles. Ils dépendent souvent de quelques observations, ce qui donne l’occasion de lancer des controverses scientifiques. Ces controverses empiriques se soldent par la confirmation de l’absence d’un effet lors des méta-analyses faisant la synthèse statistique de la littérature évaluant cet effet entre deux variables. Nous donnons un exemple de ce phénomène dans la littérature empirique visant à évaluer l’effet de l’aide au développement sur la croissance économique.

Ce texte est inspiré de la présentation, Le rôle de la pifométrie dans l’économie aujourd’hui, tenu par Jean-Bernard Chatelain le 27 mai 2010 dans le cadre du séminaire « Les Probabilismes » du Centre Cournot.
Prisme N°18

L’impossible évaluation du risque

André Orléan

Prisme N°18 avril 2010 (269.6 KiB)

En savoir plus
Une très grande sous-estimation du risque des prêts de type subprime se trouve à l’origine de la crise financière actuelle. Comment comprendre ce qui a provoqué une telle erreur ? Le plus souvent, les économistes font valoir une structure perverse d’incitations pour expliquer ce fait. Cette explication est valide, mais partielle. Ce texte se fonde sur une autre hypothèse : la difficulté propre à l’exercice de prévision lorsque les acteurs sont confrontés à une incertitude telle que l’avait définie F. Knight ou J. M. Keynes. Le texte cherche à montrer que l’incertitude économique est de ce type. Elle est « non probabilisable ». Pour cette raison, elle échappe à la seule méthode disponible de prévision : l’inférence statistique. En conséquence, il n’existe pas d’estimation objective du risque dans un monde knightien, c’est ce qu’illustre un exemple tiré des élections présidentielles de l’année 2000 aux États-Unis.

Ce texte est inspiré de la présentation, L’approche keynesienne de l’incertitude, tenu par André Orléan le 25 novembre 2009 dans le cadre du séminaire « Les Probabilismes » du Centre Cournot.
Prisme N°17

Un moment de l’expérience probabiliste

Nicole El Karoui & Michel Armatte

Prisme N°17 novembre 2009 (2.3 MB)

En savoir plus
Les probabilistes sont souvent intéressés par l’histoire de leur discipline, plus rarement par les questions fondamentales qu’ils pourraient se poser autour des faits qu’ils modélisent. Un ouvrage comme La société du probable et notamment l’article de Glenn Shafer1 éclairent une partie de mon expérience dans le domaine des probabilités depuis exactement quarante ans, c’est-à-dire la fin de mon DEA de probabilité en 1968. Ils m’invitent à présenter mon propre point de vue.

J’ai eu la chance de participer à un moment extraordinaire du développement des probabilités, et plus précisément de la théorie des processus stochastiques. Cela reste une période inoubliable pour moi. J’avais à cette époque-là le sentiment de voir la science, les probabilités, en train de se faire. Un peu par hasard, il faut bien le dire, j’ai basculé il y a une vingtaine d’années du côté des utilisateurs des probabilités, en m’intéressant à un secteur particulier de la finance. Dans ce texte, j’essaie d’évoquer ce qui m’a intéressée dans la démarche et dans cet aspect de la finance sur lequel je continue à travailler aujourd’hui. Mon exposé est d’abord celui d’une probabiliste pure et dure, puis celui d’une probabiliste appliquée.

Ce texte est inspiré de la présentation, L’autonomisation des probabilités comme science : l’expérience d’une probabiliste, tenu par Nicole El Karoui le 18 septembre 2008 dans le cadre du séminaire « Les Probabilismes » du Centre Cournot.
Prisme N°16

Peut-on prendre des risques quand on n’est pas sûr de savoir ?

Pierre-Charles Pradier

Prisme N°16 octobre 2009 (327.7 KiB)

En savoir plus
Not Found
Prisme N°15

Une analyse économique de la « juste valeur » : la comptabilité comme vecteur de crise

Vincent Bignon, Yuri Biondi & Xavier Ragot

Prisme N°15 août 2009 (427.7 KiB)

En savoir plus
Le vote par le Parlement européen en juillet 2002 de nouvelles normes comptables, entrées en vigueur le 1er janvier 2005 pour les sociétés cotées, a orienté la comptabilité européenne vers un nouveau principe, celui de la « juste valeur ». Auparavant, la réglementation européenne s’inspirait essentiellement de la logique du coût historique : l’évaluation des actifs au bilan se fondait ainsi sur leurs « coûts d’acquisition amortis».

L’introduction du principe de juste valeur a imposé la détermination de la valeur des actifs par l’estimation des flux de profits anticipés actualisés dont ces actifs pouvaient être à l’origine. Il s’agissait d’établir la valeur de chaque actif selon sa contribution potentielle au profit de l’entreprise. La juste valeur ne constituait pas l’aboutissement de recherches contemporaines qui conduisaient à remplacer le coût historique amorti. Au contraire, les travaux récents analysant le processus de production des entreprises plaidaient pour la limitation de son utilisation. Ces travaux se fondaient sur trois concepts : asymétrie d’information, complémentarités et spécificité des actifs utilisés. Les entreprises créent de la richesse en rendant complémentaires des actifs parce qu’elles leur ajoutent des caractéristiques spécifiques au processus productif mis en oeuvre. Ces caractéristiques n’ont pas de valeur marchande et ainsi, la valeur de chaque actif pour l’entreprise est toujours supérieure à sa valeur de revente. La spécificité d’un actif se définit alors par la différence entre sa valeur pour l’entreprise et sa valeur marchande. La pérennité de l’avantage concurrentiel découlant de cette combinaison d’actifs spécifiques nécessite de garder secret ce type d’information : il existe donc une asymétrie d’information entre l’entreprise et son environnement.

Le critère de « juste valeur » pose dans ce cadre d’importants problèmes d’évaluation : la spécificité et la complémentarité entre actifs contraignent le comptable à utiliser des modèles d’évaluation pour déterminer la valeur des actifs. Les analystes financiers recourent à de tels modèles pour valoriser les entreprises. Leur utilisation à des fins comptables n’assure cependant pas la fiabilité des comptes ; en effet, des changements mineurs d’hypothèses peuvent conduire à une forte variation de leurs résultats. La finalité de la comptabilité est plutôt de constituer une source d’information indépendante, de sorte que leur évaluation par le marché financier soit pertinente. Au problème d’évaluation s’ajoute celui de la volatilité financière que l’application du principe de juste valeur peut introduire dans la comptabilité. L’existence d’une volatilité excessive des marchés financiers, qui se démontre théoriquement et empiriquement, engendre un risque inutile et tend à réduire la capacité de financement des entreprises. Enfin, la juste valeur renforce les critères financiers au détriment des autres critères de l’évaluation des équipes dirigeantes. L’ensemble des parties prenantes de l’entreprise, y compris les actionnaires et les investisseurs institutionnels, peut en être victime.

La crise financière qui a débuté à l’été 2007 a confirmé le défaut intrinsèque du modèle comptable de la juste valeur. Ce modèle n’a pas contribué à anticiper la crise et l’a même accentuée. La comptabilité doit garder pour objectif la constitution d’un instrument de contrôle et de régulation, indépendant du marché et centré sur l’entreprise comme entité, et non suivre les valeurs de marché au jour le jour. La comptabilité doit s’imposer ainsi comme une institution centrale des économies de marché, essentielle au fonctionnement des marchés eux-mêmes, conformément à l’intérêt général.
Prisme N°14

Faut-il des travailleurs pauvres ?

Bernard Gazier

Prisme N°14 décembre 2008 (643.8 KiB)

En savoir plus
Dans ce court essai, j’examine le paradoxe apparent des « travailleurs pauvres » − personnes qui demeurent pauvres malgré leur statut de travailleurs. Bien que l’existence des travailleurs pauvres semble être une conséquence inévitable du capitalisme, l’ampleur et les modalités de ce phénomène varient considérablement d’un pays à l’autre. La première section présente une analyse des diverses définitions du travailleur pauvre. Bien que de gros efforts aient été fournis pour parvenir à une approche statistique plus fine et plus précise des travailleurs pauvres, chercheurs et gouvernements sont loin d’avoir trouvé un accord sur une définition unique. Au contraire, il faut passer par une série d’approximations diverses prenant en considération bas salaires, composition du foyer et effets de l’imposition pour saisir ce qui constitue une réalité hybride. La deuxième section est consacrée à une évaluation critique de quelques études empiriques et comparatives portant sur l’Europe. Ces études confirment la forte disparité entre les diverses définitions possibles ainsi qu’entre les pays relativement à leur situation et à leur évolution. Elles indiquent en outre que les institutions jouent un rôle majeur, non seulement à travers les transferts, mais aussi à travers la segmentation et le fonctionnement du marché du travail. La dernière section présente différentes perspectives théoriques concernant les travailleurs pauvres. Elle met l’accent sur le rôle fonctionnel joué par les bas salaires et l’activation de certaines politiques sociales dans le contrôle qui s’exerce sur le marché du travail et sur la main d’oeuvre. La mise en place de certaines politiques publiques pourrait contrebalancer ce rôle fonctionnel.
Prisme N°13

Une crise tant attendue : leçons d’histoire pour économistes

Robert Boyer

Prisme N°13 novembre 2008 (1.6 MiB)

En savoir plus
La finance peut contribuer à la croissance à travers divers mécanismes : le transfert d’épargne d’agents en excédent vers des agents en déficit, le lissage au cours du temps des profils d’investissement et de consommation ou encore le transfert des risques. Les innovations financières ont cependant des caractéristiques propres : résultat de stratégies privées de recherche de profit, les nouveaux produits financiers peuvent se diffuser très rapidement car leur processus de production est immatériel. Les conséquences de cette diffusion sur la stabilité macroéconomique peuvent être majeures. L’histoire financière montre que c’est à travers la succession des crises et des efforts de réglementation qui visent à en éviter la répétition que se manifestent les effets finalement favorables à la croissance des innovations financières. L’histoire permet aussi de détecter l’émergence de crises financières, à l’opposé des théories qui postulent la stabilité et l’efficience des marchés financiers. La crise que déclenche la faillite des subprimes ne fait pas exception.

A partir des années 90 avance l’idée que des produits financiers adaptés seraient à même de résoudre la plupart des obstacles à la croissance : financement de l’éducation, garantie contre les risques de change, solution au problème du sous-développement, contribution à l’éradication de la pauvreté. Le rêve d’une finance omnipotente s’est réactualisé dans le financement de l’achat de logement par les plus pauvres des ménages américains qui n’en avaient pas les moyens. La titrisation du marché hypothécaire débouche sur la crise systémique qui se manifeste à partir de l’été 2007 et dont les effets atteignent leur paroxysme à l’automne 2008. L’histoire et la théorie keynésienne montrent cependant que la séquence : « innovation privée dans la finance puis diffusion, entrée dans une zone de fragilité financière, crise ouverte » ne tient pas à l’irrationalité du comportement des acteurs, elle est l’expression même de l’incertitude radicale qui préside à l’évaluation de tout actif financier. Pourquoi n’appliquerait-on pas aux innovations financières les procédures de certification qui sont nécessaires pour les produits alimentaires, les médicaments, la sécurité des automobiles, des moyens de transport collectifs, l’activité bancaire, les assurances ? La toute puissance de la finance interdisait jusqu’à présent une telle intervention publique.
Prisme N°12

Vers une théorie probabiliste du vivant

Thomas Heams

Prisme N°12 octobre 2008 (657.8 KiB)

En savoir plus
Longtemps, la biologie a été déterministe. L’existence d’un code génétique, voire d’un programme génétique, a fait ressembler les descriptions des processus biologiques à des événements finement régulés, précis et écrits à l’avance dans notre A.D.N. Cette approche a été féconde pour comprendre les grandes lignes des processus à l’oeuvre à l’intérieur de chaque cellule. De nombreux arguments expérimentaux remettent en cause les approches déterministes en biologie depuis quelques années. Une découverte récente a mis en évidence le caractère fondamentalement aléatoire de l’expression des gènes : l’enjeu est de la décrire et de la comprendre. Nous évoquons ici les causes moléculaires et topologiques qui l’expliquent, au moins en partie. Nous montrons que c’est un phénomène répandu, contrôlable, qui peut être transmis d’un gène à un autre et même de génération cellulaire en génération. Reste à savoir si cette expression aléatoire des gènes est un bruit de fond ou un paramètre biologique. Nous plaidons pour la deuxième hypothèse, en cherchant à comprendre comment ce désordre élémentaire peut donner de l’ordre. Les phénomènes probabilistes sont ainsi replacés au coeur du fonctionnement du vivant. Nous discutons en conclusion de la possibilité d’un dépassement de l’antagonisme apparent entre déterminisme et probabilisme en biologie.

Ce texte est inspiré de la présentation, L’expression aléatoire des gènes : aléa ou paramètre biologique ?, tenu par Thomas Heams le 20 mars 2008 dans le cadre du séminaire « Les Probabilismes » du Centre Cournot.
Prisme N°11

La relance budgétaire est-elle efficace ?

Edouard Challe

Prisme N°11 novembre 2007 (291.2 KiB)

En savoir plus
Comment les actions de politique budgétaire (variations des dépenses publiques et baisses d’impôts) affectent-elles les variables agrégées, comme le Produit intérieur brut, la consommation, l’investissement ou l’emploi ? La théorie économique distingue trois canaux de transmission potentiels de ces chocs: selon qu’ils relèvent d’effets de richesse, de demande agrégée, ou de liquidité. Le texte cherche ainsi à évaluer dans quelle mesure ces canaux sont compatibles avec l’impact empiriquement observé des relances budgétaires. Les effets de richesse et de demande agrégée, traditionnellement associés aux paradigmes « classiques » et « keynésiens », sont ceux qui ont traditionnellement retenu le plus l’attention des économistes, pourtant, des travaux récents sur le sujet indiquent que les effets de liquidité sont eux aussi importants. Enfin, la présence d’effets de demande agrégée et d’effets de liquidité implique qu’une relance budgétaire est d’autant plus efficace à court terme qu’elle est financée par émission de dette publique. Les gains de la relance par la dette peuvent cependant entrer en conflit avec les coûts sociaux associés à une dette publique de long terme trop élevée, ce qui soulève le problème spécifique de la cohérence dynamique de la politique budgétaire.
Prisme N°10

La spécificité renouvelée des entreprises japonaises

Masahiko Aoki

Prisme N°10 septembre 2007 (253.8 KiB)

En savoir plus
Comment analyser les changements intervenus dans la structure des entreprises japonaises depuis le début des années 1980 et leur impact sur l’économie du Japon ? Ce texte présente l’étude des éléments empiriques disponibles et un cadre théorique original, centré sur l’entreprise. Ce modèle permet de caractériser les transformations institutionnelles qui ont touché le contrôle des entreprises au Japon. Le cadre théorique comprend quatre modèles de contrôle des entreprises. Il indique, pour chacun, ses conditions de viabilité et permet d’examiner les forces directrices, comme les contraintes héritées de l’histoire, qui sont au coeur de la transformation économique en cours au Japon. Les changements institutionnels actuels relèvent d’une transition du modèle traditionnel japonais, centré sur la banque, vers un modèle hybride, de « Contrôle externe du lien interne » (CELI). Ce modèle combine trois éléments : le choix des gestionnaires relevant de la politique de l’entreprise ; le capital humain des salariés de l’entreprise ; l’évaluation de l’entreprise par les marchés financiers. Toutefois, le texte montre que les évolutions récentes n’ont pas fait émerger un modèle unique : une pluralité de structures de contrôle des entreprises s’est au contraire développée. Le texte se conclut sur l’importance des réformes garantissant la transparence et l’efficacité du système politique afin d’assurer un fonctionnement efficace des marchés financiers.
Prisme N°9

Les moyens d’action communautaire en matière fiscale

Évelyne Serverin

Prisme N°9 mars 2007 (215.9 KiB)

En savoir plus
Le droit communautaire a construit un espace fiscal, en recourant à une série de techniques juridiques prenant appui sur différentes parties du traité. Dans l’enchevêtrement des constructions juridiques européennes, ce texte propose de décrypter les fondements de la fiscalité de l’Union à partir de cinq verbes, qui déterminent la nature des actions en cause. Les techniques juridiques sont ainsi rangées en deux groupes, selon qu’elles se rattachent à la matière fiscale au sens strict, ou à d’autres droits et libertés. Trois verbes sont associés à la matière fiscale : interdire, harmoniser, rapprocher. Deux autres actions ne mettent pas en jeu le droit fiscal substantiel, mais influent sur son application : garantir l’exercice des libertés fondamentales, informer les États. C’est le poids relatif de ces deux groupes d’actions qui est ainsi mesuré dans ce texte, à partir d’une analyse des instruments communautaires et de la jurisprudence associée.
Prisme N°8

La construction européenne : finalités politiques, normes juridiques et biens publics ?

Robert Boyer & Mario Dehove

Prisme N°8 novembre 2006 (854.7 KiB)

En savoir plus
Dans la mise en place des normes techniques et de la libre circulation des biens et des personnes, comme dans l’harmonisation de la fiscalité indirecte ou dans la portabilité des droits sociaux, le principe de concurrence s’est imposé à tous les autres dans la construction européenne. Ce primat de la concurrence suscite la défiance d’une partie des citoyens à l’égard de l’Union et fait aujourd’hui obstacle à l’émergence de biens publics en Europe. Leur genèse pose d’ailleurs des problèmes à la théorie économique, qui propose pourtant des explications satisfaisantes de leur gestion. Ainsi, l’écart entre les prédictions de la théorie et l’observation de la distribution des pouvoirs est souvent important. Les théories de la justice insistent de leur côté sur la persistance de fortes traditions nationales en matière de relations professionnelles ou d’expression de la solidarité qui rendent plus difficile la construction de l’Europe sociale. L’analyse juridique souligne ainsi le rôle déterminant, dans tous les États, du juge et des tribunaux dont la jurisprudence délimite continûment et pratiquement le rôle et les prérogatives de l’ensemble des acteurs. Ils créent les conditions d’un réexamen de leur répartition par les pouvoirs politiques.

La reconstruction des institutions européennes qui s’impose doit alors anticiper la formation des biens publics aussi divers que la sécurité et la justice, la science ou la sécurité énergétique.
Prisme N°7

De Cournot à l’évaluation des politiques publiques : paradoxes et controverses à propos de la quantification

Alain Desrosières

Prisme N°7 avril 2006 (283.0 KiB)

En savoir plus
Cournot inaugure le traitement des nouveaux modes de raisonnement probabilistes et quantitatifs émergeants dans la première moitié du 19ème siècle. Dans un premier temps, le texte rappelle les postérités et la mise en oeuvre de ses intuitions sur, d’une part, la distinction entre des probabilités dites objectives et subjectives, et d’autre part, l’interprétation des catégories, organisées par les statisticiens selon des conventions d’équivalence.

L’exposé suggère des pistes pour des études empiriques sur les pratiques statistiques et, plus précisément, sur ce qui se passe dans cette zone de contact par laquelle s’échangent, d’une part, des énoncés quantifiés et inscrits dans des modèles plus ou moins formels, et d’autre part, des énoncés en langue naturelle, non quantifiés. Il s’agira notamment de la maîtrise des risques, du pilotage macroéconomique, et de l’évaluation de la gestion publique.

L’ambivalence de la pensée de Cournot rejoint, d’une certaine façon, les controverses soulevées par la sociologie des sciences récente, tendue entre diverses formes de « réalisme » et de « constructivisme ». Partant des interrogations suggérées par Cournot, on se demande ici dans quel sens on peut dire que la quantification crée de l’objectivité.

Le texte conclut que les questions que Cournot traitait en philosophe peuvent l’être maintenant en termes de sociologie des diverses formes de quantification et de modélisation, dans le monde de l’action et dans les sciences économiques et sociales.
Prisme N°6

La fièvre des brevets dans les pays développés et ses retombées sur les pays en voie de développement

Claude Henry

Prisme N°6 mai 2005 (292.4 KiB)

En savoir plus
Ce texte examine la relation entre l’innovation et les droits de propriété intellectuelle. Au cours des vingt-cinq dernières années, l’équilibre traditionnel entre la législation des brevets et la préservation de la connaissance en tant que bien public s’est déplacé progressivement en faveur de la première. L’approche globale mais fallacieuse du système des brevets, soutenue par les États-Unis, se reflète ainsi dans les accords sur les Aspects du droit de propriété intellectuelle touchant au commerce (ADPIC). Ces accords n’ont pas seulement des conséquences néfastes pour les pays en développement. Ce texte suggère que ces effets peuvent être infléchis par des instruments juridiques et une transposition cohérente de ces accords avec la législation nationale. Il défend l’idée que les fondements légaux et économiques qui sous-tendent les droits de propriété restent néanmoins valides. Les tendances récentes des analyses des droits de propriété intellectuelle, notamment de la prolifération des brevets et leur dispersion géographique, sont analysées de manière critique dans la perspective que défendent les États-Unis : lier la protection des brevets avec les accords de libre échange.

Les exemples en sciences de la vie et les biotechnologies, notamment, illustrent les problèmes de brevets injustifiés et de leur étendue excessive. Ils renforcent les doutes qui pèsent sur l’uniformisation de la protection des droits de propriété intellectuelle et mettent en lumière les risques qu’elle fait peser sur les politiques d’innovation et de développement. Dans sa dernière partie, ce texte présente les exemples de deux pays en développement qui ont fait appel aux remèdes proposés par les accords ADPIC. Ces mécanismes incluent la liberté d’interprétation, les procédures d’opposition et les licences obligatoires. Le texte conclut que, d’un point de vue Schumpetérien, l’« open source » est plus favorable à l’innovation que la protection fondée sur les brevets.
Prisme N°5

Du capitalisme financier au renouveau de la social-démocratie

Michel Aglietta & Antoine Rebérioux

Prisme N°5 octobre 2004 (387.4 KiB)

En savoir plus
Ce texte montre que les scandales entourant la gestion de grandes sociétés cotées depuis l’année 2000 ne sont pas les accidents de parcours d’un capitalisme dominé par la finance de marché. Ils sont au contraire la manifestation la plus évidente des contradictions qui sont au coeur d’un régime de croissance financiarisé. Fondement du capitalisme financier, le postulat selon lequel l’entreprise doit être dirigée dans le seul intérêt de ses actionnaires est précisément son talon d’Achille. La liquidité des marchés financiers et le développement de l’épargne contractuelle gérée dans un souci de performance purement financière rendent illusoire le contrôle des entreprises par les actionnaires. L’instabilité chronique de la finance aggrave les carences de ce contrôle. Elle ouvre des opportunités à l’enrichissement personnel des dirigeants, les détournant de leur responsabilité à l’égard du collectif de l’entreprise. L’entreprise doit être dirigée comme une institution, où s’élabore une finalité commune à l’ensemble de ses parties prenantes et non comme un objet de droits de propriété. Cette avancée démocratique devrait également se traduire dans la gestion de l’épargne collective, de manière à réduire l’instabilité macrofinancière. C’est à cette double condition qu’il est possible de remettre le capitalisme contemporain dans la voie du progrès social, conduisant ainsi à un renouveau de la social-démocratie.

Ce texte présente les conclusions du livre, Dérives du capitalisme financier, publié en octobre 2004 chez Albin Michel.
Prisme N°4

Une analyse économique de la « juste valeur » : l’évolution des principes comptables dans la réglementation européenne

Vincent Bignon, Yuri Biondi & Xavier Ragot

Prisme N°4 mars 2004 (251.5 KiB)

En savoir plus
En juillet 2002, le vote par le Parlement européen de nouvelles normes comptables entrant en vigueur le 1er janvier 2005 pour les sociétés cotées, a orienté la comptabilité européenne vers un nouveau principe, celui de la « juste valeur ». Jusqu’à présent, la réglementation européenne s’inspirait essentiellement de la logique du coût historique : l’évaluation des actifs au bilan se fondait ainsi sur leurs « coûts d’acquisition amortis ». L’introduction du principe de juste valeur impose la détermination de la valeur des actifs par l’estimation des flux de profits anticipés actualisés dont ces actifs pourraient être à l’origine. Il s’agirait donc d’établir la valeur de chaque actif selon sa contribution potentielle au profit de l’entreprise.

La juste valeur ne constitue pas l’aboutissement de recherches contemporaines qui conduiraient à remplacer le coût historique amorti. Les travaux récents analysant le processus de production des entreprises plaident, au contraire, pour la limitation de son utilisation. Trois concepts résument ces travaux : asymétrie d’information, complémentarités et spécificité des actifs utilisés. Les entreprises créent de la richesse en rendant complémentaires des actifs parce qu’elles leur ajoutent des caractéristiques spécifiques au processus productif mis en oeuvre. Ces caractéristiques supplémentaires n’ont pas de valeur marchande et ainsi, la valeur de chaque actif pour l’entreprise est toujours supérieure à sa valeur de revente. La spécificité d’un actif se définit alors par la différence entre sa valeur pour l’entreprise et sa valeur marchande. La pérennité de l’avantage concurrentiel découlant de cette combinaison d’actifs spécifiques nécessite de garder secret ce type d’information : il existe donc une asymétrie d’information entre l’entreprise et son environnement.

Le critère de « juste valeur » pose dans ce cadre d’importants problèmes d’évaluation : la spécificité et la complémentarité entre actifs contraignent le comptable à utiliser des modèles d’évaluation pour déterminer la valeur des actifs. Les analystes financiers recourent à de tels modèles pour valoriser les entreprises. Leur utilisation à des fins comptables n’assure cependant pas la fiabilité des comptes ; en effet, des changements mineurs d’hypothèses peuvent conduire à une forte variation de leurs résultats. La finalité de la comptabilité est plutôt de constituer une source d’information indépendante, de sorte que leur évaluation par le marché financier soit pertinente.

Au problème d’évaluation s’ajoute celui de la volatilité financière que l’application du principe de juste valeur peut introduire dans la comptabilité. L’existence d’une volatilité excessive des marchés financiers, qui se démontre théoriquement et empiriquement, engendre un risque inutile et tend à réduire la capacité de financement des entreprises. Enfin, la juste valeur renforce les critères financiers au détriment des autres critères de l’évaluation des équipes dirigeantes. L’ensemble des parties prenantes de l’entreprise, y compris les actionnaires et les investisseurs institutionnels, pourrait en être les victimes.

Il est difficile d’affirmer que la contribution nette de la juste valeur à l’amélioration des normes comptables est positive. Loin d’être idéale, la logique du coût historique amorti apparaît ainsi comme la moins mauvaise en présence d’asymétries d’information, de complémentarités et de spécificités.
Prisme N°3

L’Europe est-elle condamnée à la réforme conservatrice ?

Bruno Amable

Prisme N°3 janvier 2004 (257.5 KiB)

En savoir plus
Le thème de la réforme domine le débat économique contemporain en Europe. Dernier en date à le promouvoir, le « rapport Sapir » dénonce les institutions du modèle européen, qui empêcheraient l’Union européenne de croître à un rythme suffisant. Ces institutions constitueraient un frein au changement structurel, rendu indispensable par l’importance de l’innovation dans la période contemporaine. Il conviendrait donc d’opérer des réformes allant dans le sens d’une plus grande efficacité « micro-économique ». La présente note examine cet argument de façon critique. Les réformes structurelles dont il est question signifient pour les pays européens un changement de modèle de capitalisme. Il faudrait ainsi abandonner le modèle européen, caractérisé notamment par un certain degré de protection sociale et de protection de l’emploi, pour adopter le modèle néo-libéral, avec une protection sociale réduite et des marchés du travail flexibles. La note présente des comparaisons portant sur les performances de la France et de l’Allemagne opposées à celles de la Grande-Bretagne et des Etats-Unis ainsi que de la Suède et de la Finlande, en matière de croissance et d’innovation. Il en ressort que les affirmations de la supériorité incontestée du modèle néo-libéral méritent pour le moins d’être nuancées. Nous soulignons ensuite que même si les différents modèles sont susceptibles de fournir des performances globales comparables, ils n’ont pas les mêmes implications en terme de distribution du revenu et de couverture des risques sociaux. Il en résulte que le choix de modèle est par nature un choix politique. Le choix de la réforme est en fait celui de prolonger les changements intervenus depuis la révolution conservatrice dans les pays anglo-saxons. Le phénomène nouveau est que le projet politique de conversion au modèle néo-libéral est de nos jours porté non seulement par les partis conservateurs, mais aussi par les principaux partis de gauche. La note conclue en examinant deux scénarios de changement structurel. L’un est l’accomplissement de la réforme et la transformation du modèle européen en modèle néo-libéral. L’autre est la transition vers un modèle social-démocrate. Chaque scénario implique des coûts politiques non négligeables.
Prisme N°2

Les leçons de la réforme de l’aide sociale aux États-Unis

Robert Solow

Prisme N°2 novembre 2003 (227.7 KiB)

En savoir plus
Les objectifs de la loi de 1996, qui a réformé l’aide sociale aux États-Unis, étaient de réduire les programmes d’assistance et de remettre les gens au travail. Chaque état a pu décliner la loi suivant ses priorités. À l’heure de la remise en cause de cette réforme, le temps est venu d’en dresser un bilan. De nombreuses études économétriques laissent penser que les mesures ont considérablement réduit le nombre de bénéficiaires. Ces travaux conduisent à des résultats dont la robustesse dépend cependant de très nombreux facteurs : les différences d’application entre les états, la variété des modes d’accès à l’aide, la nature des sanctions ou des récompenses, l’existence de groupes–témoins. Par ailleurs, les analyses économétriques tiennent peu compte de l’impact de la politique économique ou de l’environnement macro-économique. Ce texte propose de les réévaluer et suggère quelques pistes pour une future réforme.
Prisme N°1

Comment interpréter la Directive O.P.A. ?

Jean-Louis Beffa, Leah Langenlach & Jean-Philippe Touffut

Prisme N°1 septembre 2003 (275.2 KiB)

En savoir plus
Lancée en 1974, l’idée d’harmoniser les législations des Offres Publiques d’Acquisition s’est concrétisée en 1985 dans un premier projet de Directive. Cette mouture a été rejetée de justesse en juillet 2001. Étayée par un ensemble de trente amendements, une deuxième version de la Directive a été adoptée le 16 décembre 2003. L’objectif initial de la Directive était de promouvoir un cadre commun aux acquisitions transfrontalières, de faciliter la restructuration des entreprises et de protéger les actionnaires minoritaires. Entre le rejet du premier projet et le vote de la deuxième proposition, de très vives tensions se sont exacerbées autour de trois articles litigieux : la neutralité du conseil d’administration en cas d’O.P.A., les restrictions aux transferts de titres et aux droits de vote multiples, et la consultation des représentants des salariés.

Les amendements adoptés sur ces questions par la commission juridique affaiblissent le contenu de la Directive. Il reviendrait ainsi aux États de rendre ou non applicables les articles sur la neutralité du conseil d’administration et sur l’exercice des droits de vote multiples en cas d’offre publique. À ce caractère optionnel s‘ajoute une clause inédite de « réciprocité ». L’esprit de la Directive est cependant inchangé : aucun n’a été retiré.

Une question est restée en dehors des débats : faut-il encourager les O.P.A. ? Les offres publiques d’acquisition sont l’un des principes constitutifs d’un mode de capitalisme dont le moteur est la dynamique des marchés financiers. En économie, les études théoriques sur les offres publiques ont été complétées par des études économétriques et des analyses de terrain. Elles constatent que celles-ci ne contribuent pas à la croissance économique. Au cours des trente dernières années, plus de deux-tiers des offres publiques ont entraîné une baisse de la productivité des entreprises et contribué à diminuer le taux de croissance d’ensemble de l’économie. Une Directive O.P.A. devait-elle, dans ce cas, s’accorder à la logique financière au détriment de la logique industrielle ? Selon, les recommandations des chercheurs, il faudrait au contraire construire les garde-fous nécessaires pour protéger les entreprises de l’instabilité de la finance.