Du rôle de l’incertitude dans l’économie de l’information

1 L’idée que le monde soit régi par le hasard nous a toujours effrayés. Nous avons cherché dans l’infinie variété des formes les traces d’un archétype éternel et, derrière la singularité des événements, l’expression d’une loi. La connaissance a été identifiée au repérage d’un ordre dans le chaos, à la nécessité de trouver une finalité orientant le devenir. Pourtant, malgré le progrès indubitable des théories, des modèles et des systèmes de calcul, l’inattendu ne cesse de surgir. Cependant, il nous semble intéressant de noter une différence importante par rapport au passé : si le lieu privilégié d’apparition de l’imprévisible était autrefois la nature, la matière dans sa résistance à l’idée et à la raison, il est de plus en plus évident que c’est à l’intérieur du monde humain que les bouleversements fortuits se produisent. Comme le sociologue Ulrich Beck [1] l’a remarqué, la modernité plus récente se démarque de la période classique par l’émergence soudaine des conséquences ni voulues ni anticipées du projet moderne de maîtrise de la nature. On se retrouve aujourd’hui face aux effets collatéraux des dispositifs techniques, mis en place pour se protéger contre les aléas d’origine naturelle et s’offrir ainsi le confort d’un espace artificiellement réglé et apte à la satisfaction des besoins et des désirs humains. Beck montre que, dans la situation présente, les risques majeurs pour la vie et le développement de nos sociétés viennent précisément de l’intérieur de ces sociétés elles-mêmes : pollution, dégâts écologiques, crises économiques et dysfonctionnements technologiques – des menaces endogènes qui ne cessent de se reproduire comme les conséquences non anticipées des innovations techniques introduites pour y remédier. On visait, à travers la connaissance, à produire pour l’humain un espace social prévisible où chacun pouvait compter sur les bonnes décisions des autres afin de prendre les siennes et où chacun pouvait faire confiance au développement des moyens adaptés pour combattre la pénurie et la souffrance ainsi que pour promouvoir la satisfaction des préférences individuelles. Néanmoins, les savoirs accumulés ne nous ont pas permis de prévoir leurs effets, et la connaissance s’est engagée dans une quête des correctifs à appliquer à ses propres stratégies, dans un cercle vicieux où les conséquences inattendues du savoir relancent un processus d’innovation et de transformation qui produit des contre-coups imprévisibles. Ainsi, pourrait-on dire qu’aujourd’hui le hasard – sous la forme de l’arrivée de nouvelles informations qui nous forcent à repenser nos plans d’action – ne se trouve pas tant du côté de la physique que de celui de l’organisation sociale.

2 Dans cet article, nous voudrions questionner plus précisément la nature de l’incertitude croissante à laquelle on est exposé aujourd’hui, pour montrer qu’il ne s’agit pas simplement d’une conséquence indésirable du développement technologique, mais de la condition fonctionnelle de ce dernier dans le cadre d’un marché compétitif où l’information est devenue le bien le plus rentable. Il s’agit ici d’examiner les effets collatéraux des nouveaux dispositifs techniques à la lumière de l’utilisation du calcul de la probabilité, et notamment du théorème de Bayes, en ce qu’il influe sur la théorie de la décision. Dans le cours de l’argumentation nous relierons la dimension politique de l’innovation technique à la question épistémique de l’agrégation de la croyance et de la préférence en économie, développée dans une première partie, avant d’approfondir dans une deuxième partie la question politique concernant l’extraction des données et l’utilisation de l’information dans les sociétés capitalistes.

Paradigme inductif et théorie de la décision

3 Pour comprendre la nature de l’incertitude qui nous concerne, il est d’abord important de reconstruire le cadre théorique où cette notion a été définie par opposition à celle de risque. Il faut ainsi mentionner un tournant important dans la conception du raisonnement inductif qui coïncide avec l’introduction de la méthode bayésienne dans le contexte de la naissance de la physique statistique où l’usage des probabilités se révèle essentiel.

4 Dans le débat concernant la signification des théories probabilistes, la position bayésienne s’oppose à la fois au réalisme des fréquentistes – qui justifient l’usage du calcul de la probabilité par l’existence de variables aléatoires – et à l’approche logique considérant la probabilité comme une mesure du degré de fiabilité d’une hypothèse qui se fonde de façon objective sur l’implication formelle entre prémisses (observations) et conséquences (prédictions). D’une part, il est évident qu’il n’est pas légitime de passer, comme le font les fréquentistes, des résultats obtenus en répétant une expérience de laboratoire à l’affirmation que la série réalisée est effectivement aléatoire, c’est-à-dire générée par une variable qui, comme un dé ou une roulette, peut comporter un nombre limité de valeurs dont l’ordre exact d’apparition est imprévisible (on dit que chaque résultat, parmi les possibles, a la même probabilité d’apparaître à chaque répétition et que, dans un temps infini, chacun doit forcément apparaître). Il s’agit du vieux problème de l’induction que les logiciens essaient de résoudre en considérant que la probabilité mesure le degré de confirmation d’une hypothèse probabiliste, la prédiction d’observer un certain résultat en répétant une expérience (par exemple 1/6) qui doit être considérée comme plus ou moins probable par rapport au nombre d’observations effectuées [2]. Ainsi, l’existence d’une variable aléatoire est-elle une hypothèse qui ne sera jamais certaine, mais dont la probabilité peut être calculée et recalculée au fur et à mesure que de nouvelles observations la confirment. Si la certitude inductive reste inatteignable, les logiciens peuvent affirmer qu’il est rationnel de se fier aux hypothèses prédictives qui sont logiquement impliquées par les définitions des termes observationnels les étayant. Ils font de cette façon la distinction entre les hypothèses prédictives qui conduisent à des décisions rationnelles – c’est-à-dire celles que la force de l’implication logique rend plus probables – et les hypothèses dont la faible probabilité ne justifie pas la prise de décision (par exemple, une hypothèse qui prédit qu’il est fort probable qu’il pleuvra demain à partir de l’observation du vol des oiseaux). Les hypothèses les plus probables permettent de calculer exactement le risque, puisqu’elles offrent une mesure objective de la probabilité du scénario de la réalisation duquel dépend le succès d’une décision (par exemple, je peux calculer mes chances de gagner lorsque l’hypothèse que, le dé avec lequel je suis en train de jouer est régulier, est logiquement impliquée par les observations effectuées). En revanche, les événements prévus par des hypothèses qui ne sont pas logiquement impliquées par les données disponibles sont incertains, et il est donc irrationnel de miser sur leur actualisation. L’incertitude se dit ainsi des événements dont la probabilité de réalisation ne peut pas être calculée puisque les observations disponibles sont insuffisantes pour étayer la croyance rationnelle [3]. L’interprétation logique de la probabilité épistémique ne permet donc pas de prendre des décisions dont le succès dépend de la réalisation de phénomènes incertains comme, par exemple, le gagnant de la coupe du monde de football, le prix d’un stock dans vingt ans, l’éclatement d’une guerre nucléaire, événements dont la prédiction n’est impliquée logiquement par aucune observation empirique.

5 L’interprétation bayésienne de la probabilité est, comme la logique, épistémique : elle considère en fait que la probabilité se dit du degré de croyance à attribuer aux hypothèses établissant les chances de réalisation d’un fait futur à partir de la description de la situation présente. Cependant, elle se veut une théorie de la décision dans l’incertitude et suppose qu’il soit possible d’attribuer une mesure de probabilité aux hypothèses, même dans les cas où l’information disponible (prémisse) n’implique pas logiquement la prédiction (conséquence). Selon les bayésiens, on peut aussi prendre des décisions parfaitement raisonnables (qui légitiment l’espoir mathématique de réaliser un certain résultat) dans des situations où les logiciens excluent la rationalité de la prise de décision. C’est donc le rapport entre rationalité et incertitude qui change radicalement dans le cadre de l’induction bayésienne. Pour comprendre comment, il faut rappeler d’abord les principes de cette approche. La probabilité mesure ici le degré de croyance subjective qu’un individu attribue à une hypothèse, c’est-à-dire qu’aucune contrainte logique ne force un agent à juger de façon univoque la pertinence des informations qui sont susceptibles d’étayer une prédiction. Par exemple, deux agents sont libres d’entretenir des croyances différentes sur la probabilité qu’il pleuvra le lendemain, car l’un attribue à une prévision météo plus de crédibilité qu’à une autre pour des raisons qui peuvent être très variées, comme le conseil d’un ami, la connaissance des modèles météorologiques employés, l’autorité de la chaîne qui propose la prédiction, etc. Or, le degré de croyance respectivement attribué aux hypothèses considérées comme plausibles se mesure par rapport aux décisions qu’on est disposé à prendre en s’appuyant sur elles. Par exemple, la décision d’organiser un pique-nique le lendemain révèle la probabilité élevée attribuée par un agent à l’hypothèse qu’il fera beau ; en revanche, le fait d’attendre et de renvoyer la décision indique une faible croyance qui pourrait se renforcer par l’observation du ciel le jour d’après. De toute façon, pour un bayésien, les deux décisions sont également rationnelles puisque l’agent est supposé agir d’après le degré de croyance permis par les informations dont il dispose. En outre, il est supposé prendre la décision qui lui offre des chances majeures de se retrouver dans le meilleur scénario possible (faire un pique-nique sous le soleil) et éviter le pire (voir sa sortie gâchée par le mauvais temps). Une décision rationnelle vise la maximisation de l’utilité espérée et elle dépend du degré subjectif de croyance étant donné que, pour un bayésien, il n’y a pas de moyen d’établir objectivement et définitivement quelles observations étayent quelles prédictions. Il est cependant important de noter que, afin de prendre une décision effectivement rationnelle (permettant de maximiser l’utilité), l’ensemble des croyances d’un agent doit être cohérent (non contradictoire) et ses préférences bien ordonnées, c’est-à-dire qu’il doit classer, selon leur désirabilité, les conséquences de ses décisions dans les situations futures qui peuvent se réaliser d’après les informations collectées. Ainsi, si l’on estime ne pas avoir assez d’informations, on prendra les décisions qui s’ensuivent, comme renvoyer la décision au moment où, après avoir collecté des informations supplémentaires, l’on se sentira assez confiant. C’est donc par rapport à la manière dont chacun évalue la pertinence de l’information disponible qu’une décision est raisonnable. Même si toute attente peut être légitime, il serait en même temps irrationnel de ne pas modifier son hypothèse lorsque des informations nouvelles renforcent ou affaiblissent la croyance. La formule de Bayes [4]

6
equation im1

7 est l’outil mathématique qui permet d’effectuer ce calcul de mise à jour des degrés de croyance sur la base des informations disponibles au fil du temps. Cela permet d’établir la manière dont la probabilité respective d’hypothèses plausibles sur les chances de réalisation du même événement doit évoluer, à la suite de l’arrivée d’informations qui peuvent rendre plus probable l’une et discréditer les autres, ce qui permet de faire évoluer les degrés de croyance jusqu’à la sélection de la prédiction jugée assez fiable pour orienter les décisions. Il est important de noter que, par l’application du théorème de Bayes, non seulement un agent arrive à sélectionner l’hypothèse plus fiable parmi celles qu’il considère comme plausibles, mais des agents, qui entretiennent au début des croyances différentes, arrivent à la même estimation de la probabilité des différentes prédictions évaluées à condition de partager leur ensemble de croyances et de mettre en commun les observations, c’est-à-dire les informations pertinentes pour mettre à jour (conditionnaliser) les degrés de croyance [5]. Autrement dit, tout en partant d’une évaluation subjective de la probabilité des hypothèses prédictives plausibles (ce qui dépend des informations disponibles pour chaque agent), la méthode bayésienne permet d’obtenir l’objectivité comme convergence des croyances des enquêteurs. En conséquence, la méthode bayésienne offre une solution inédite capable de répondre au problème de l’induction : grâce au partage de l’information et des croyances, on arrive collectivement à sélectionner les hypothèses prédictives qui méritent le plus haut degré de confiance, celles que tout le monde devrait rationnellement tenir pour vraies à un moment donné (rien n’empêche, en effet, que l’arrivée d’informations nouvelles force à recalculer les estimations). La méthode inductive bayésienne fournit une explication convaincante pour la constitution de la connaissance commune, c’est-à-dire la connaissance de l’ensemble des croyances qui caractérisent une communauté, ainsi que du processus historique d’évolution de la connaissance.

8 L’espace manque pour indiquer les étapes intermédiaires entre la probabilité bayésienne et celle de l’utilité espérée. Or l’agent rationnel [6] de la théorie des jeux est souvent façonné comme un décideur bayésien. Sur la base d’un ensemble d’hypothèses prédictives, sélectionnées au cours de l’histoire pour leur efficacité (connaissance commune), ainsi que des informations pertinentes pour conditionnaliser leur probabilité, les agents peuvent prendre les décisions qui leur permettent de maximiser l’utilité espérée, c’est-à-dire les meilleures par rapport au calcul des chances qu’un événement se réalise ou pas (calcul du risque). Mais la conséquence la plus importante est que ces agents, se sachant tous rationnels et sachant quelles sont les hypothèses que tout le monde doit raisonnablement tenir pour vraies, peuvent aisément prédire les décisions les uns des autres en supposant que chacun agira en vue de la maximisation de l’utilité, c’est-à-dire en vue d’obtenir le bien préféré tout en évitant de s’exposer à ce qu’il considère comme la pire des pertes. L’estimation des préférences des autres est donc essentielle afin d’en prédire les décisions ; à cet égard, il faut noter que l’observation des décisions prises dans le passé est supposée révéler les préférences, voire l’objectif auquel l’activité de chacun vise. Le modèle de l’agent rationnel ainsi construit trouve son application la plus importante dans la théorie économique néoclassique.

9 Le modèle de l’agent rationnel employé par Milton Friedman et les économistes de l’École de Chicago est inspiré par les travaux du mathématicien Leonard Savage [7] qui, à son tour, a réélaboré l’approche pragmatiste de Ramsey [8] et de de Finetti ainsi que la théorie des jeux de Von Neumann et Morgenstern [1940]. Selon Savage [1954], le succès d’une décision dépend de la capacité de calculer les conséquences de ses actions aux différents états du monde considérés comme possibles et plus ou moins probables par rapport à l’information disponible à un moment précis (les nouvelles informations permettent de recalculer la probabilité respective des hypothèses considérées par l’application du théorème de Bayés). On délibère ainsi en accord avec la probabilité attribuée aux différents scénarios envisagés d’une façon à agir de la manière qui apporte le bien le plus désirable dans la situation future qu’on estime avoir le plus de chances de se réaliser. Autrement dit, il s’agit de prendre la décision qui permet de maximiser l’utilité et de se retrouver ainsi dans la situation la plus souhaitable étant données certaines conditions – ou, au moins, d’éviter la moins satisfaisante (le futur le plus favorable pourrait, en effet, avoir des chances très minces de se vérifier). Il est intéressant de noter que, dans ce cadre, le degré de croyances entretenu par un agent envers les hypothèses plausibles peut se déduire en observant les décisions prises et en connaissant l’ordre de ses préférences – par exemple, si l’on voit quelqu’un avec un parapluie au soleil, on peut déduire qu’il pensait qu’il allait pleuvoir et que se mouiller est considéré comme moins souhaitable que subir l’encombrement d’un parapluie lorsqu’il fait beau. En reprenant la théorie de de Finetti, Savage postule qu’un agent rationnel maîtrise la méthode de conditionnalisation qui lui permet d’asseoir ses décisions sur les hypothèses qu’il estime les plus probables. Il suppose ainsi que, lorsqu’un agent reçoit une information discordante par rapport à l’hypothèse prédictive considérée comme la plus fiable, il n’est pas soudainement plongé dans le noir ; au contraire, cette information est immédiatement intégrée dans le calcul pour mettre à jour les degrés de croyances. Cette intuition a longtemps été la base de ce qu’on appelait longtemps le « laissez-faire » auquel Friedman a souvent été associé [9].

10 Friedman [10] soutient néanmoins que les marchés s’ajustent grâce à la rationalité des agents et à leur capacité d’adapter leurs stratégies en fonction des changements des conditions extérieures. Ce calcul consiste normalement dans l’application du théorème de Bayes pour évaluer les prédictions et prendre les meilleures décisions compte tenu de l’information sur les préférences de tous les autres acteurs. Généralement, cette information est transmise par les variations des prix, permettant à chaque individu de mettre en place la meilleure stratégie pour obtenir ce qu’il souhaite sans que ses choix soient contraints par des supposées vérités logiques [11]. Autrement dit, la rationalité des agents serait censée justifier l’obtention d’un équilibre du marché, situation optimale dont les agents n’ont pas intérêt à dévier [12].

11 Afin de se coordonner à l’équilibre, les agents doivent prendre les meilleures décisions par rapport à celles qui seront prises par les autres : ce sont ces décisions qui détermineront les variations des prix et ce sont les variations des prix qui communiqueront l’information, publique et gratuite, par rapport aux préférences. Les agents rationnels sont ainsi supposés être en mesure d’anticiper leurs décisions réciproques à partir de l’information communiquée par les prix et d’agir ainsi d’une manière conséquente. Il est cependant important de noter que les axiomes de la rationalité bayésienne des agents présupposent, comme condition de la convergence, l’efficience du marché. C’est la fameuse hypothèse introduite par Eugene Fama et qui justifie les modèles de calcul du risque lié aux activités des marchés de capitaux ainsi que les instruments pour s’en protéger. Selon Fama, les mouvements des cours suivent une marche aléatoire lorsque le marché est efficient, c’est-à-dire lorsque les prix transmettent toute l’information nécessaire pour prendre des décisions qui permettent de viser la maximisation de l’utilité. L’information transmise par le prix, publique et gratuite, produit ainsi la convergence des croyances des agents du marché vers une mesure de probabilité que l’on peut tenir pour « objective » et d’où découlent des décisions appropriées, voire rationnelles. Ainsi, dans un marché à l’équilibre, chacun a-t-il les mêmes chances de maximiser l’utilité, puisque chacun peut estimer correctement la probabilité de réalisation des prix futurs, c’est-à-dire l’amplitude de leur variation stochastique, exactement comme s’il jouait avec un dé régulier. Selon Fama, le test de la marche aléatoire des prix est susceptible de confirmer l’hypothèse d’efficience du marché. Lorsque les prix transmettent, de façon publique et gratuite, toute l’information nécessaire pour prendre des décisions qui permettent d’espérer de maximiser l’utilité, les croyances des agents à l’égard du futur convergent : leurs décisions respectives sont correctement anticipées, ce qui reproduit le mouvement aléatoire des prix et une volatilité constante (exactement comme si on jetait un dé). Pour cette raison, le marché à l’équilibre est comparé à un jeu équitable [13] où chacun a des chances égales de gagner à condition, bien sûr, d’agir rationnellement, c’est-à-dire d’une manière conforme aux principes du bayésianisme.

12 D’une part, l’équilibre est la conséquence de la rationalité des agents qui finissent par se coordonner grâce à la convergence des croyances à l’égard de l’hypothèse du mouvement aléatoire des prix, et d’autre part, le mouvement aléatoire des prix (qui caractérise un marché dit « efficient [14] ») est assuré par la croyance partagée dans l’informativité des prix, personne n’ayant ainsi besoin d’acquérir des informations supplémentaires afin de prendre les décisions optimales. Dans un marché à l’équilibre, il n’y a donc pas d’incertitude car l’arrivée d’information discordante (fluctuations anormales) est immédiatement utilisée pour mettre à jour la probabilité de l’hypothèse commune à l’égard des préférences (par exemple, certains produits perdent leur désirabilité et sont remplacés par d’autres). Cependant, comme nous allons le voir, l’incertitude rentre dans le système lorsque l’information devient elle-même une marchandise.

De l’impossibilité de conjuguer croissance économique et partage de l’information

13 Comme Leonard Savage l’a noté, si l’agent rationnel idéal est censé arriver toujours à prendre la décision optimale, cela est impossible pour les agents réels surtout en raison des limites de leur puissance de calcul. En effet, la procédure requise par la conditionnalisation bayésienne n’est faisable que lorsque le problème à résoudre est assez spécifié, c’est-à-dire lorsque les hypothèses à comparer sont en nombre très limité, ce qui rend possible le calcul des conséquences de ses actions dans les scenarii envisagés comme possibles. C’est seulement dans ces situations restreintes et définies, que Savage appelle « petits mondes [15]», que l’agent peut effectivement s’assurer de prendre les décisions optimales en un temps fini. C’est parce qu’on peut compter sur un ensemble de croyances sélectionnées au cours de l’histoire et culturellement transmises, qu’on est en mesure d’utiliser les informations pertinentes pour construire ses attentes sans devoir comparer un nombre illimité de futurs possibles. Par exemple, c’est parce qu’on considère qu’une baisse de la pression atmosphérique rend plus probable l’hypothèse qu’il va bientôt pleuvoir que pour planifier ses activités du week-end, on préfère consulter le baromètre plutôt que collecter l’infinité d’informations qui pourraient rendre ce phénomène plus probable (le vol des oiseaux, l’effectuation d’une danse, le rêve, etc.). De même, c’est parce que l’on considère que l’information transmise par les prix est suffisante pour anticiper l’état de l’offre et de la demande, qu’on ne cherche pas d’autres informations avant de prendre la décision qu’on juge la meilleure par rapport au scénario qui va plus probablement se réaliser. Ainsi, ayant présupposé un nombre d’hypothèses auxiliaires, comme notamment celle d’un marché en équilibre, l’on peut supposer la convergence des croyances des agents, c’est-à-dire la connaissance commune, comme condition de l’anticipation des décisions des agents avec lesquels on interagit. Cependant, comme Savage le souligne, la convergence des croyances n’est pas une nécessité, elle ne dérive pas automatiquement des axiomes de la théorie de l’agent rationnel [16] ; c’est plutôt la connaissance commune qu’il faut présupposer comme condition pour la réalisation de l’équilibre. En conséquence, l’équilibre – la situation où tout le monde a les mêmes chances de poser un pari gagnant – ne se réalise que si tout le monde conditionne la probabilité des hypothèses sur le mouvement des prix en considérant comme pertinente seulement l’information transmise par les prix, c’est-à-dire, seulement si tout le monde a déjà posé le problème dans les termes du même petit monde (où la même information est considérée comme pertinente pour évaluer la probabilité des prédictions tenues pour plausibles).

14 L’équilibre idéal devrait correspondre à un mouvement aléatoire à amplitude (volatilité) constante des prix (selon le modèle de Fama). Néanmoins, l’excès de volatilité et les crises économiques qui se sont répétées à partir des années quatre-vingt montrent qu’il n’y a peut-être jamais eu une croyance universelle et inébranlable à l’égard de la parfaite informativité des prix (efficience du marché). Ces fluctuations sont l’effet de décisions déviantes et prises sur la base d’informations autres que les prix publiquement observés, elles sont l’effet de la coprésence de croyances hétérogènes au sein du marché, ce qui rend les décisions non parfaitement anticipables. Notamment, ce sont ces stratégies déviantes, calculées sur la base d’informations autres que les prix, qui ne peuvent être prévues, avec leurs effets, par tous ceux qui continuent à penser que les prix sont informatifs. La conséquence est que le risque ne peut plus être correctement calculé par ceux qui continuent à se fier aux seuls prix, car les décisions des agents qui entretiennent des croyances différentes produisent des effets anormaux, des fluctuations inattendues. C’est ainsi que l’incertitude est produite comme une conséquence de la disparité de l’information et, donc, de l’hétérogénéité des croyances.

15 Pour comprendre ce phénomène, nous introduirons les études de Grossman et Stiglitz sur ce qu’ils appellent « équilibre du déséquilibre », ce qui montre l’incompatibilité du partage de l’information avec la croissance économique. Dans l’article « On the Impossibility of Informationally Efficient Markets[17]», Sanford Grossman et Joseph Stiglitz s’interrogeaient sur un apparent paradoxe : si les prix transmettent la totalité de l’information nécessaire pour prendre des décisions optimales, pourquoi les agents seraient-ils disposés à dépenser en vue d’acquérir de l’information supplémentaire ? Un tel investissement, courant chez les professionnels du monde de la finance, doit être motivé par l’espoir de retours plus importants que ceux que l’on peut réaliser en observant, gratuitement, les prix. Comme l’observent Grossman et Stigliz, le coût de la recherche d’information est la condition pour l’équilibre compétitif que l’on observe dans les marchés financiers, lorsque l’objectif est l’incrémentation indéfinie du profit plutôt que le maintien d’un équilibre qui offre à tous les mêmes chances d’obtenir des retours mesurés. En effet, ce qui rend possibles et rentables les opérations financières est la différence des croyances à l’égard des prix futurs. En conséquence, si l’hypothèse de l’efficience était vraie, et que les croyances étaient homogènes, on ne pourrait pas espérer obtenir des retours qui dépendent de la capacité à faire des prédictions plus précises que celles de la majorité. Si l’information était, dans sa totalité, également accessible par tous, les opérations financières n’apporteraient pas les bénéfices qui les motivent, ce que contredit manifestement le volume des transactions effectives. La compétition qui garantit la croissance économique trouve donc sa condition dans un degré d’inefficience (le décalage entre la marche au hasard et le mouvement effectif des prix) suffisant à justifier la dépense pour l’acquisition d’information, ce que Grossman et Stiglitz décrivent comme un « équilibre de déséquilibre [18]». La théorie de l’efficience informationnelle du marché est donc paradoxale, puisque, si la totalité de l’information était effectivement transmise par les prix, alors ces prix ne transmettraient aucune information à même de justifier l’existence d’un marché développé et productif. Il faut noter que le caractère imparfait de l’information n’empêche pas que les prix soient néanmoins partiellement informatifs, mais que les signaux sont transmis avec un certain « bruit » et sont, par conséquent, ambigus. Par exemple, la hausse du prix d’une option peut signifier plusieurs choses, d’où son ambiguïté : s’agit-il d’une augmentation de la demande de l’actif ou d’un incrément du risque ? En conséquence, pour bien interpréter le signal, il faut dépenser pour acquérir des informations supplémentaires. L’équilibre du déséquilibre de Grossman et Stiglitz définit le degré de bruit suffisant pour justifier la dépense pour acquérir de l’information supplémentaire. Contrairement à ce que soutient la théorie orthodoxe du marché, l’information pertinente afin de prendre des décisions ne se limite pas à la rareté (l’état de l’offre et de la demande communiqué par les prix), mais concerne un éventail beaucoup plus large de faits susceptibles d’influencer à la fois les prix et les comportements des agents du marché. Par exemple, des événements comme la panne d’une machine, la nomination d’un nouveau patron à la tête d’une grosse entreprise, une grève de travailleurs, etc., engendrent des prédictions différentes de celles obtenues par la seule observation des variations des cours de bourse. Lorsque les prix ne reflètent pas la totalité de l’information nécessaire pour prendre des décisions optimales, il faut alors dépenser pour éliminer le bruit. Cependant, plus il y a de bruit, plus l’information devient coûteuse et plus les croyances diffèrent, ce qui pousse à augmenter les dépenses afin d’obtenir de l’information privée. Autrement dit, l’incertitude (c’est-à-dire une situation où le risque n’est pas immédiatement calculable) motive la recherche d’information, le coût de cette recherche motive l’usage privé des connaissances acquises et l’exploitation privée de l’information augmente l’incertitude sous forme de dissymétrie des croyances. Le marché de l’information s’inscrit dans ce cercle, et sa rentabilité dépend du fait que plus on produit d’information à vendre, plus on crée le besoin d’en acheter.

16 C’est cette asymétrie d’information qui plonge les agents « ignorants » dans l’incertitude, situation dans laquelle ils ne peuvent pas prendre leurs décisions sur la base d’une anticipation correcte des décisions des plus informés. Les seconds se trouvent ainsi plongés dans un monde vaste où l’information dont ils disposent ne leur permet pas de prendre des décisions optimales, ce pour quoi on dit qu’ils sont caractérisés par une « rationalité limitée ». Cette limitation est la conséquence de l’incertitude où ils sont plongés par l’asymétrie d’information. Si l’hypothèse commune sur la rationalité des agents engendre des comportements conformes et une situation d’équilibre, la croyance des professionnels dans la rationalité limitée de la plupart des acteurs est confirmée par les effets de l’exploitation privée de l’information qu’ils arrivent à extraire par l’entremise de technologies coûteuses de collecte et de traitement des données. C’est la reproduction active de la disparité d’informations qui plonge les ignorants dans une situation où le calcul de maximisation est impossible à accomplir.

17 L’investissement dans la recherche d’information supplémentaire est donc fondamental afin de prendre des décisions efficaces. Ces informations ne se limitent pas à l’état de l’offre et de la demande, mais comprennent tout événement qui peut engendrer des changements du comportement des agents économiques. À notre époque, cet investissement dans la recherche d’informations est lié au développement des technologies prédictives qui permettent de prendre en compte des quantités impressionnantes de données, concernant l’impact des événements les plus divers sur les attentes et les décisions des agents. Cette recherche dispendieuse d’information continuellement mise à jour est finalisée à la vente de services qui permettent de mettre en place des stratégies visant à profiter de changements d’opinion ainsi qu’à les engendrer.

Incertitude et innovation technologique

18 Le cadre que l’on vient d’esquisser permet de comprendre l’importance des plateformes numériques dans l’actuelle économie de l’information. Les entreprises privées comme Google, Facebook ou Amazon réalisent des profits hors-norme grâce à l’information produite par l’exploration des données sur le comportement des utilisateurs. L’exploration algorithmique des données permet de repérer des patterns de comportements qui sont ensuite utilisés pour classifier les utilisateurs selon des types qui se caractérisent par leurs préférences et leurs croyances. Les hypothèses à l’égard de l’appartenance des individus à un type sont mises à jour par l’observation des décisions successives, et elles le sont par rapport à la proposition de contenus ciblés, c’est-à-dire des informations susceptibles de provoquer les réactions souhaitées. Par exemple, selon l’hypothèse qu’un usager aime un certain produit ou qu’il est intéressé par une certaine thématique, on lui propose des contenus susceptibles d’engendrer l’achat de l’article ou la participation à une discussion. Les réactions effectivement produites permettent au système intelligent de recalculer la probabilité des hypothèses initiales afin de prendre des décisions plus efficaces lors de l’interaction suivante. Il est intéressant de noter qu’ici les algorithmes sont des décideurs qui permettent des prédictions sur le comportement des agents à partir de l’exploration probabiliste, et parfois explicitement bayésienne, des données disponibles. Ces algorithmes intelligents apprennent en observant les résultats de leurs décisions (si un individu réagit comme prévu lorsqu’on lui fournit une information spécifique) et ils recalculent ainsi la probabilité respective des hypothèses plausibles à l’égard du type d’utilisateur. En revanche, les usagers sont modélisés comme des patterns de comportements, c’est-à-dire comme incarnant des règles qui organisent leurs actions et leurs réactions par rapport à l’information reçue. La collection et l’exploration de données produisent, à travers le processus d’apprentissage, des hypothèses plus ou moins fiables à l’égard de la classification des utilisateurs. Les hypothèses qui permettent des prédictions fiables des décisions sont utilisées comme de l’information privée fonctionnelle en vue de maximiser l’utilité de ceux qui la possèdent, par exemple les producteurs qui achètent le service de publicité offert par une plateforme, ou les gérants des plateformes qui essayent de fidéliser les usagers en leur proposant des contenus d’intérêt. Le profit des propriétaires de la licence des algorithmes de type bayésien repose sur l’exploitation privée de l’information gratuitement produite par les utilisateurs, information qui revient à ces derniers sous la forme de suggestions de décisions à prendre pour satisfaire leurs préférences supposées (les différentes options que la plateforme propose à chacun, comme des produits, des contenus, etc.). Les décisions des agents ignorants peuvent tout à fait mener à des expériences satisfaisantes ; cependant, elles conduisent à un gain sans doute inférieur au retour attendu par ceux qui anticipent leurs choix. Qu’une publicité, une application, un contenu ou une information (vraie ou fausse, peu importe) suscitent les réactions prévues représente un léger gain pour l’usager qui suit la suggestion, mais un retour largement supérieur pour celui qui, ayant anticipé la réaction positive, obtient assez de crédibilité « scientifique » pour s’assurer la possibilité de revendre très chers ses services ciblés, c’est-à-dire de l’information à exploiter de façon privée. Dans la situation actuelle, la connaissance produite par les algorithmes à travers l’exploration des données produites par les usagers de différents services, comme les plateformes numériques ou les médias sociaux, n’est pas immédiatement redistribuée comme information publique, ce qui permettrait à tous d’appuyer leurs décisions sur des hypothèses fiables ; au contraire, elle est le plus souvent utilisée de façon privée.

19 L’incertitude est l’effet du maintien de l’équilibre du déséquilibre nécessaire pour la rentabilité de l’évolution technologique, et les nouvelles technologies ne sont utiles que si elles produisent un surplus d’information privée. Il n’y aurait pas, en effet, d’investissement dans les technologies d’information si celles-ci ne permettaient pas de produire de l’information privée, c’est-à-dire exploitable à l’avantage des producteurs. Ceci signifie que l’information n’est ni complétement publique, ni complétement gratuite, ce qui a comme effet une augmentation de l’incertitude ; les usagers ne peuvent plus être assurés de prendre les meilleures décisions par rapport aux décisions des autres sans dépenser pour acquérir des informations supplémentaires. Ils sont ainsi obligés d’utiliser les services numériques et cette utilisation produit des informations nouvelles qui seront exploitées de façon privée en reproduisant l’incertitude qui rend la production technologique d’information rentable. Cela signifie que les agents qui peuvent payer pour obtenir les prédictions mises à jour par les algorithmes peuvent prendre des décisions optimales qui prennent en compte des attentes bien fondées sur les décisions qui seront prises par les autres. En revanche, les moins informés sont plongés dans une incertitude croissante dont ils ne peuvent sortir qu’en dépensant pour acquérir des informations nouvelles.

20 L’innovation qui a rendu possible la compétition imparfaite et productive du marché contemporain est la reproduction de la disparité d’information. L’investissement dans l’information est fondamental pour assurer non seulement des décisions plus efficaces que celles supportées par la simple observation des prix, mais aussi pour garantir l’hétérogénéité des croyances. Si les investissements dans la recherche et le développement technologique produisaient de la connaissance immédiatement partagée, on ne serait pas motivés à s’engager pour faire évoluer les infrastructures numériques et technologiques (or il s’agit du secteur qui s’est développé le plus au cours des dernières années). On pourrait dire que, paradoxalement, l’incertitude croissante à laquelle la majorité est aujourd’hui exposée est la contrepartie de la diffusion des technologies prédictives les plus sophistiquées. L’incertitude est l’effet du maintien de l’équilibre du déséquilibre nécessaire pour la rentabilité de l’évolution des technologies d’information desquelles dépend, en grande partie, la croissance économique. Ces technologies ne sont utiles que si elles produisent un surplus d’information privée en échange des services qui sont censés faciliter l’accès des usagers à l’information. Dans cet équilibre imparfait, les chances de s’enrichir ne sont pas également distribuées ; en revanche, la croissance économique semble être assurée avec les effets évidents d’une augmentation de l’inégalité des revenus.

21 L’information est aujourd’hui le bien le plus désirable, celui que les technologies algorithmiques produisent de façon industrielle, le bien qu’on ne cesse de reproduire en le consommant et qu’on est obligé de consommer pour réduire l’incertitude. À cet égard, il faut noter que l’information diffère en nature des autres biens : son prix est relatif à sa nouveauté et elle perd sa valeur lorsqu’elle devient connaissance commune. Cependant, il est impossible d’utiliser de l’information privée sans la rendre publique, puisque l’observation des décisions prises par un agent permet de comprendre les raisons qui se cachent derrière celle-ci. Ceci conduit non seulement à des stratégies d’opacité et de dissimulation, mais force aussi au renouvellement constant des recherches d’informations encore inexploitées. En outre, l’obsolescence rapide de l’information est liée aux effets collatéraux de son utilisation : d’un côté, elle devient connaissance commune et, de l’autre, sa diffusion produit des changements dans l’opinion collective et dans les comportements, ce qui rend nécessaire une mise à jour des hypothèses prédictives. L’exploitation de l’information modifie l’état de choses à l’égard duquel elle était « informative » et cette modification produit des données nouvelles à intégrer dans le calcul. L’évolution des stratégies et des croyances est engendrée et soutenue par les nouvelles technologies digitales de la production d’information, et cette nouvelle typologie de la production d’information est elle-même motivée par ses propres effets sur l’évolution des comportements. En conséquence, plutôt que la marche aléatoire des prix, ce qui rend possible le jeu du marché actuel est la marche aléatoire des croyances : il faut reproduire l’hétérogénéité des agents, au moins pour ce qui concerne l’état informationnel, voire les croyances. C’est la disruption de la convergence des croyances produite par l’introduction répétée d’hypothèses déviantes qui rend possible, à la place du jeu équitable, l’équilibre du déséquilibre qui assure la croissance en poussant à l’innovation permanente. Ainsi l’incertitude, comme disparité d’accès à l’information, est-elle à la fois la contrepartie de l’innovation permanente des systèmes de prédiction technologique et ce qui motive leur développement.

22 S’il est vrai, comme Beck le soutient, que nos sociétés sont aujourd’hui menacées par les conséquences non anticipées des innovations technologiques, il est vrai aussi que cette imprévisibilité, engendrée par l’innovation rapide des technologies, motive les investissements pour produire des modèles plus efficaces et des systèmes de calcul plus performants. Autrement dit, c’est l’incertitude comme asymétrie d’information continuellement reproduite qui soutient la croissance économique. Dans le cadre de l’économie de l’information, l’incertitude est ce qui motive la dépense pour l’acquisition du bien dont la production et la distribution sont l’apanage quasi monopolistique des géants comme Facebook, Google ou Amazon. Incertitude que les plateformes et les médias sociaux arrivent à reproduire d’une façon assez efficace par l’utilisation privée des données que tous contribuent à produire en se servant des dispositifs numériques sans lesquels ils se trouveraient dans une incertitude encore plus paralysante. La diffusion de ces techniques prédictives compétitives a pour effet une augmentation de l’incertitude systémique : le risque lié aux décisions n’est plus correctement estimable pour les moins informés qui se trouvent ainsi exposés à une situation qu’ils ne maîtrisent pas. Pour s’en sortir, ils sont obligés d’utiliser les services numériques, plateformes et applications, qui les aident à s’orienter dans une offre submergeante d’information, désormais produite comme un bien destiné à la consommation à une échelle industrielle sans précédent. L’utilisation de ces services, surtout gratuits, permet aux producteurs et aux distributeurs d’information d’en produire davantage. L’exploration des données relatives aux préférences, aux croyances et aux réactions des usagers leur permet en outre de formuler des hypothèses, voire de produire des informations à vendre pour des finalités manipulatoires. C’est ainsi que se nourrit le cycle, aujourd’hui très lucratif, de l’économie de l’information, qui s’alimente de l’incertitude continuellement reproduite par la disparité d’accès à l’information et par la privatisation des agences de production et de diffusion. Les nouvelles stratégies continuellement introduites ont pour effet d’augmenter l’incertitude qui oblige à consommer toujours plus d’information, par le biais de dispositifs algorithmiques qui en extraient davantage de données, pour les revendre ensuite à des agents privés. Ces derniers peuvent ainsi mettre en place des stratégies qui exploitent (l’ignorance continuellement entretenue et qui en bénéficient : la dissymétrie d’information se traduit ainsi en disparité de chances.

23 Lorsque l’innovation permanente est l’impératif du marché, lorsque le développement rapide des technologies d’information ne fait qu’accélérer l’introduction de stratégies d’exploitation toujours renouvelées et imprévisibles, lorsque, à côté de la production industrielle de connaissance (information privée), c’est l’ignorance qui se répand sous la forme de disparité d’accès à l’information, peut-on encore se réjouir de la créativité qu’on associe trop rapidement avec l’introduction de stratégies inattendues ? Comme Jacques Ellul [19] l’a noté, nous vivons désormais dans un milieu technique : nous sommes intégrés dans un système que nous ne maîtrisons pas mais qui oriente nos comportements. Ce système, qui nous impose un mode de vie orienté en fonction de l’optimisation productive, évolue de façon autonome et imprévisible. Le constat d’Ellul est donc que nous ne sommes plus désormais dans une société industrielle où l’objectif est limité à la production de biens matériels par le travail mécanique, mais dans une société technicienne où l’enjeu est l’innovation technologique qui s’opère à travers le traitement de l’information. D’une part, l’imprévisibilité des optimisations à venir donne l’impression que le système échappe au contrôle humain ; d’autre part, elle donne l’impression d’une liberté accrue : il semble que nous est offert un espace infini de possibles, un éventail inédit d’options et d’occasions à saisir. Néanmoins, comme le note Ellul, les transformations sociales, notamment la perception d’une libération des normes oppressives du passé, vont dans le sens d’une adaptation subreptice aux exigences de la rentabilité technique C’est au final l’adaptation de l’humain au système commercial des technologies de l’information qui rend l’imposition traditionnelle des normes de comportement superflue : le désir accru d’innovation est entretenu et orienté vers des comportements conformes aux intérêts de la rentabilité et de la productivité technique de l’information.

24 Nous apprenons non seulement à nous transformer en suivant les exigences de l’innovation technique, mais aussi à évaluer positivement la transformation sociale liée aux technologies de l’information, à la lire comme un signe de progrès et d’émancipation. Ainsi, plutôt que de percevoir l’adaptation comme une contrainte qui nous renvoie en dernière analyse aux critères de rentabilité du marché d’information, finissons-nous par percevoir l’exigence d’innover et de nous transformer comme quelque chose de positif, et l’attribuons-nous à l’expression de notre autonomie. Or, selon Ellul, « les conformismes sociaux sont d’autant moins apparemment pesants que les conformismes techniques s’étant intériorisés sont devenus plus objets d’évidence, car la structure sociale est devenue plus technique : c’est le conformisme à la technique qui est le vrai conformisme social [20] ». Autrement dit, on est contraint d’innover en suivant une logique fonctionnelle qui vise la production d’informations toujours nouvelles, au détriment d’autres paradigmes de production de connaissance. En effet, on ne fait que reproduire des informations dont la valeur est relative à la nouveauté, informations qui deviennent rapidement obsolètes (les prédictions d’hier ne sont plus valables demain). Cependant il y a une différence entre la production d’hypothèses prédictives et la production de « connaissances », voire de vérités ou de valeurs pérennes comme celle des arts, qui ont une valeur indépendante de leur utilité dans le cadre de la prise de décision dans un contexte donné.

25 En conséquence, plutôt que de célébrer naïvement ce qui, en première apparence, semble être un atout de créativité, synonyme d’innovation technique, ne devrions-nous pas repenser nos stratégies de résistance contre une industrie qui nous exploite comme une ressource naturelle d’informations perpétuellement mises à jour [21] ?

Notes

  • [1]
    U. Beck, La Société du risque : sur la voie d’une autre modernité, Paris, Aubier, 2001.
  • [2]
    Dans Logical Foundations of Probability, Carnap fait la distinction entre probabilité 1 et probabilité 2 : la première mesurant le degré de confirmation d’une hypothèse, c’est-à-dire l’implication logique entre la proposition sur les données par les observations collectées et la proposition prédictive ; la seconde exprimant la chance respective de réalisation des événements prévus par l’hypothèse. R. Carnap, Logical Foundations of Probability, Chicago, The University of Chicago Press, 1950.
  • [3]
    Comme Keynes l’expliqua clairement : By “uncertain” knowledge, let me explain, I do not mean merely to distinguish what is known for certain from what is only probable. The game of roulette is not subject, in this sense, to uncertainty; nor is the prospect of a victory bond being drawn [in a lottery]. (…) The sense in which I am using the term is that in which the prospect of a European war is uncertain, or the price of copper and the rate of interest twenty years hence, or the obsolescence of a new invention, or the position of private wealth owners in the social system in 1970. About these matters there is no scientific basis on which to form any calculable probability whatever. We simply do not know». J.M. Keynes, “The general theory of employment”, The quarterly journal of economics, Volume 51, Issue 2, February 1937, p. 213-214.
  • [4]
    Dans cette formule, h est une hypothèse, e un élément empirique, P (h/e) est la probabilité a posteriori (ex post ou posterior), P (h) est la probabilité initiale (ex ante ou prior) comme degré de croyance subjectif et P (e/h) la manière dont e est censé augmenter la probabilité de h.
  • [5]
    Comme l’explique Bruno de Finetti [1937] : « Quels que soient les degrés respectifs auxquels deux individus croient initialement une proposition donnée, si ces deux individus font les mêmes observations, alors les degrés actualisés auxquels ils croient cette proposition, tendant tous deux vers les fréquences observées, tendent l’un vers l’autre quand le nombre d’observations tend vers l’infini. » B. de Finetti, « La prévision : ses lois logiques, ses sources subjectives », Annales de l’Institut Henry Poincaré, tome 7, n° 1, 1937, p. 62
  • [6]
    Le modèle de l’agent rationnel comme décideur bayésien a été introduit par Leonard Savage in The Foundations of statistic (New York, Dover publications, 1954). Il s’agit du modèle sur lequel Milton Friedman fonde la théorie néoclassique de l’équilibre et l’économie néolibérale.
  • [7]
    Friedman et Savage ont corédigé deux articles sur la maximisation de l’utilité qui oriente les stratégies des agents du marché, c’est-à-dire des décideurs bayésiens opérant sur la base des informations transmises par les prix de façon publique et gratuite. M. Friedman et L. Savage, “The utility analysis of choice involving risk”, in The Journal of political economy, Vol 56, No. 4, 1948, p. 279-304. M. Friedman et L. Savage, “The utility analysis of choice involving risk”, The Journal of political economy, Vol 56, No. 4, 1948, p. 279-304.
  • [8]
    F.P. Ramsey, “Truth and Probability” in The Foundations of Mathematics and other Logical Essays, édité par R. B. Braithwaite avec une préface de G. E. Moore, Londres, Kegan Paul Trench Trubner, 1931.
  • [9]
    Il faut cependant remarquer que Friedman, contrairement aux économistes autrichiens, s’oppose à un tel laissezfaire dans le domaine de sa plus grande compétence, la gestion monétaire.
  • [10]
    M. Friedman, « La méthodologie de l’économie positive », in Essais d’économie positive, Paris, Litec, 1955.
  • [11]
    Il faut remarquer que dans le cadre de la pensée de Friedman, les prix transmettent déjà des informations quasi objectives sur les préférences des autres, ce qui veut dire que le rapport des agents aux informations relayées par les prix n’est pas forcément bayésien.
  • [12]
    Friedman ne compte pas parmi les défenseurs de l’hypothèse de l’équilibre général. Il défend au contraire l’équilibre partiel d’Alfred Marshall.
  • [13]
    Comme Eugene Fama l’explique “The ‘fair game’ model just says that the conditions of market equilibrium can be stated in terms of expected returns, and thus it says little about the details of the stochastic process generating returns. A random walk arises within the context of such a model when the environment is (fortuitously) such that the evolution of investor tastes and the process generating new information combine to produce equilibria in which return distributions repeat themselves through time. Thus, it is not surprising that empirical tests of the ‘random walk’ model that are in fact tests of ‘fair game’ properties are more strongly in support of the model than tests of the additional (and, from the viewpoint of expected return market efficiency, superfluous) pure independence assumption.” E. Fama, “Efficient Capital Markets : A Review of Theory and Empirical Work”, in The Journal of Finance, Vol. 25, No. 2, 1970, p. 387.
  • [14]
    Comme Fama l’explique : “The strong form tests of the efficient markets model are concerned with whether all available information is fully reflected in prices in the sense that no individual has higher expected trading profits than others because he has monopolistic access to some information.” Ibid. p. 409.
  • [15]
    Cfr. L. Savage, The Foundations of statistics, New York, Dover publications, 1954. Notamment le chapitre 5, §5 “Small worlds”, p. 82-91.
  • [16]
    Comme Savage le dit : « it is appealing to suppose that, if two individuals in the same situation, having the same tastes and supplied with the same information, act reasonably, they will act in the same way. Such agreement, belief in which amounts to a necessary (as opposed to a personalistic) view of probability, is certainly worth looking for. Personally, I believe that it does not correspond even roughly with reality, but, having at the moment no strong argument behind my pessimism on this point, I do not insist on it. But I do insist that, until the contrary be demonstrated, we must be prepared to find reasoning inadequate to bring about complete agreement.” Ibid., p. 7.
  • [17]
    S. Grossman & J. Stiglitz, “On the Impossibility of Informationally Efficient Markets”, The American Economic Review, vol. 70, n° 3, 1980, p. 393-408.
  • [18]
    Comme Grossman et Stiglitz [1980] le soulignent, “We propose here a model in which there is an equilibrium degree of disequilibrium: prices reflect the information of informed individuals (arbitrageurs) but only partially, so that those who expend resources to obtain information do receive compensation.” Ibid., p. 393.
  • [19]
    Ellul, « La technique considérée en tant que système », Les Études philosophiques, n° 2, La Technique, 2015, p. 41-42.
  • [20]
    Ibid.
  • [21]
    Pour des raisons d’espace, je ne tire pas ici toutes les conséquences de ces réflexions sur le rôle de l’incertitude dans l’économie de l’information actuelle et je renvoie à la lecture de mon livre [2022] pour la stratégie de résistance que j’envisage.