• Cosmologie et sagesse orientale


    Il est assez stupéfiant de constater que la science moderne rejoint dans de nombreux domaines les sagesses les plus anciennes de l'humanité. Le remarquable livre de Fritjof Capra intitulé "Le Tao de la physique" est consacré à ces étonnants rapprochements. La relativité et la physique quantique étaient déjà contenues en germe dans les cosmologies antiques ! Les mystiques hindous, bouddhistes, taoïstes avaient déjà l'intuition de tout ce que la science moderne commence seulement à nous faire entrevoir ! Ils y sont parvenus depuis plus de 2000 ans par une voie fort différente, celle de l'intuition contrôlée, autrement dit la méditation conduisant à l'éveil. Cette expérience dans laquelle l'individu cesse d'être distinct de l'univers est inexprimable par le langage. Ceux qui y sont parvenus ne peuvent en rendre compte que par des images symboliques. C'est d'ailleurs ce qui différencie cette approche directe de celle de la science occidentale qui veut tout expliquer rationnellement par des théories de plus en plus complexes....
    Malgré leurs légères différences, toutes les traditions spirituelles orientales ont en commun les idées suivantes :

     

  • L'unité de toutes choses
  • La complémentarité des contraires
  • La fusion de l'espace et du temps
  • Le dynamisme de l'univers
  • Le temps cyclique
  • La non-réalité de la matière: le vide est l'essence de toutes choses
  • L'impossibilité d'appréhender la réalité ultime par le langage 

    La relativité et la physique quantique n'aboutissent elles pas aux mêmes conclusions ? De nombreux physiciens ont d'ailleurs pris conscience de ces similitudes. Citons seulement le grand théoricien Niels Bohr dont le blason représente le Yin-Yang avec la devise suivante "contraria sunt complementa". Le Yin-Yang, représenté ci-contre, est le plus profond symbole de la pensée chinoise, et de la pensée humaine en général. Il symbolise les deux principes complémentaires de l'univers : le Yang est la lumière, l'énergie, la chaleur, le masculin, etc. Le Yin est l'obscurité, le repos, le froid, le féminin, etc...Le point blanc dans la zone noire (et inversement) montrent que le Yang contient aussi en germe le Yin (et inversement). Chaque chose engendre son contraire. La forme tourbillonnante du pictogramme suggère le mouvement perpétuel, le dynamisme qui est le moteur de l'univers.
    On peut aussi y voir une géniale représentation à deux dimensions, étrangement conforme au modèle que j'ai décrit précédemment. On y retrouve un univers quasi-sphérique avec la fontaine blanche originelle et le trou noir ultime. On y voit les cycles de création et de dissolution. Les anciens chinois ignoraient certes la manière de dessiner des formes à trois dimensions, ils ignoraient les géométries non euclidiennes et les propriétés topologiques des tores à trou nul, mais on ne peut qu'admirer la façon dont ils ont réussi à traduire graphiquement ce qu'ils avaient vu lors d'illuminations. Le Yin-Yang est en fait une représentation merveilleusement simple de notre continuum espace-temps complexe...


1 commentaire
  • Dieu joue t il aux dés ?

    Dieu joue-t-il aux dés ?


    La question n'est pas de savoir si Dieu existe ou non.
    Mais plutôt : qui est-Il, et à quoi joue-t-Il ? (Hubert Reeves)

    Et Dieu dans tout cela ? Tout d'abord attention aux effets pervers du langage. Derrière un mot aussi abstrait que "Dieu" il y a des définitions multiples, sources de tous les malentendus, y compris les plus graves et les plus massacrants ! L'histoire des hommes est remplie de massacres commis au nom de Dieu et l'actualité récente nous le rappelle hélas constamment...
    Voyons sur l'excellent site de cyberphilo les définitions usuelles de ce terme : 1. Dans les religions polythéistes, être surnaturel supposé présider à certaines catégories de phénomènes (exemple : Apollon, dieu grec de la lumière).
    2. Dans les religions monothéistes, le créateur du monde et des hommes, éternel et tout-puissant.
    3. En métaphysique, la cause première de toutes choses, l'Etre absolu, parfait, nécessaire et éternel.

    La religion à dieux multiples de la Grèce antique était une tentative d'explication du monde avant que la Science ne nous donne des explications plus rationnelles sur les divers phénomènes attribués à diverses divinités. D'ailleurs, déjà à ces époques lointaines, il y avait des philosophes, Héraclite entre autres, qui voyaient à travers ces diverses manifestations l'oeuvre d'un Dieu unique.
    La notion judéo-chrétienne de Dieu créateur du monde laisse entendre qu'il y a séparation entre l'univers et son créateur. Dans ce cas le Créateur serait extérieur à l'univers qui est par définition l'ensemble de tout ce qui existe. Le Dieu des grandes religions monothéistes m'a toujours semblé crée à l'image de l'homme ! Un vieux patriarche pas toujours très sympa ! Voltaire, bien qu'il fût très critique à l'égard des religions, avait en somme la même conception de Dieu en l'appelant le Grand Horloger ou Grand architecte de l'Univers.... La troisième définition semble la meilleure, mais finalement elle est peu différente de la seconde car elle implique une séparation entre cause et effets. Et on peut s'interroger à juste titre sur la cause de cette cause !
    La meilleure définition de Dieu est peut-être celle de Spinoza : Dieu se confond avec le tout de l'être ou du réel (Deus sive natura, «Dieu, c'est-à-dire la nature») ; infini, éternel, simple, indivisible, se suffisant à lui-même, il est l'unique substance. Voilà enfin un Dieu fréquentable, acceptable par tous ! On peut parfaitement remplacer nature par univers (sémantiquement équivalent) et établir l'équation suivante :




    Dieu = l'Univers

    Avec un U majuscule, de préférence... Une fois qu'on a accepté cette équivalence de mots, on voit que la question de l'existence ou de la non existence de Dieu est sans fondement. La question de croire ou de ne pas croire est sans objet. Nous savons que l'Univers existe, peu importe le nom qu'on lui donne : on peut l'appeler l'Univers pour éviter toute confusion, ou alors l'appeler par son petit nom : Dieu, pour les intimes !

    Einstein, qui partageait également cette conception scientifique de Dieu, déclara un jour "Dieu ne joue pas aux dés". Cette phrase souvent citée doit être remise dans son contexte. En fait, il voulait dire par là qu'il n'acceptait pas les théories quantiques récemment découvertes, théories qui introduisaient la notion de hasard dans les processus atomiques. On a donc tort de citer cette phrase d'Einstein comme une parole d'évangile, d'autant plus que l'avenir prouva qu'il avait tout faux dans ce domaine ! La physique quantique fonctionne réellement avec ses notions de hasard et d'incertitude. L'Univers joue aux dés ! Le Bon Dieu joue aux dés ! Est-ce à dire qu'il fait n'importe quoi ?
    En fait, si on considère l'immensité et l'éternité de l'univers, le hasard était certainement la meilleure tactique pour créer toutes les choses que nous observons dans la nature. Si on lance six fois un dé, on a statistiquement une chance de tomber sur un 6. Si on le lance un milliard de fois, il tombera 166666666 fois sur le 6 ! Ce qui n'est pas négligeable.... On peut donc penser que le hasard a joué un rôle important dans l'édification de la complexité. De l'atome d'hydrogène, le plus simple et le plus répandu dans la nature jusqu'à l'être humain, summum de la complexité, il semble bien que l'univers ait utilisé les propriétés du hasard et des grands nombres pour faire évoluer ses créations. Seuls les bons coups de dés ont été retenus. Les mauvais ont été éliminés par l'implacable "sélection naturelle" de l'environnement. Ce concept Darwinien qu'on applique généralement à l'évolution des espèces animales peut certainement être étendu à la complexification de la matière dans son ensemble, à partir même des particules élémentaires.
    Ce rôle essentiel du hasard ne signifie pas que Dieu n'a pas d'intention ! Cette question de l'intention restera toujours sans doute un profond mystère. Elle n'est pas du domaine de la science, mais de la religion. Mais en admettant que Dieu ait une intention, ce qui est tout de même plus réconfortant que l'idée d'un hasard pur et aveugle, il faut bien reconnaître que le hasard a été l'instrument le plus performant dans la réalisation de ses oeuvres admirables. Il n'aurait pas pu faire mieux en procédant autrement...


    4 commentaires
  • LA MECANIQUE QUANTIQUE COMME THEORIE DES PROBABILITES GENERALISEE

     



     



    Michel Bitbol

     


    in: E. Klein & Y. Sacquin (eds.), Prévision et probabilités dans les sciences, Editions Frontières, 1998


    Copyright: Michel Bitbol



     


    1-Prologue


    La thèse que je défendrai ici tient en deux propositions. Premièrement, la mécanique quantique n'est pas qu'une théorie physique faisant usage du calcul des probabilités; elle est elle-même une forme généralisée de calcul des probabilités, doublée d'un procédé d'évaluation probabiliste par l'utilisation réglée de symétries. Deuxièmement, la mécanique quantique n'a pas seulement une fonction prédictive comme les autres théories physiques; elle consiste en une formalisation des conditions de possibilité de n'importe quelle prédiction portant sur des phénomènes dont les circonstances de détection sont aussi des conditions de production.


    2-Probabilités, signes, et qualités secondaires


    Avant de développer et de justifier les propositions précédentes, je voudrais revenir rapidement sur la préhistoire du calcul des probabilités, au seizième et au dix-septième siècle. Ce retour nous aidera à surmonter des préjugés sur les probabilités qui sont issus d'une époque intermédiaire, disons le dix-huitième et le dix-neuvième siècle, et à aborder la mécanique quantique avec un esprit ouvert. Je vise en particulier le préjugé consistant à ne concevoir la probabilité que comme expression d'une ignorance au sujet de processus sous-jacents qui se déroulent d'eux-mêmes et obéissent à des lois déterministes.
    Quelles sont donc les conditions qui ont permis l'élaboration collective, à partir du dix-septième siècle , du calcul des probabilités? Ian Hacking en dresse une assez longue liste , mais il insiste sur l'une d'entre elles. Cette condition cruciale, c'est le développement au seizième siècle de sciences des signes ou des qualités secondaires.
    La distinction entre qualités primaires et qualités secondaires, autrement dit entre propriétés se montrant telles qu'elles sont intrinsèquement, et propriétés imputées aux corps matériels sur la foi d'impressions ou de signes résultant de leur interaction avec les organes des sens, est habituellement attribuée à Locke. On la fait éventuellement remonter à Galilée, à Descartes et à Robert Boyle. Mais on en retrouve en fait déjà la trace bien plus tôt, chez Jérôme Fracastor, un médecin de la première moitié du seizième siècle.
    Dès le moment où cette distinction était reconnue pouvait se développer une opposition entre les sciences des causes premières et des démonstrations exactes, comme l'astronomie, la géométrie, ou la mécanique, et les autres sciences, comme la médecine et la chimie, qui en étaient réduites au pronostic d'après les signes, les phénomènes, ou les qualités secondaires sensibles. C'était dans le champ de ces sciences dites «inférieures», de ces sciences des qualités secondaires, qu'allait se cristalliser la notion d'une opinion étayée par des signes d'où découle en partie le concept de probabilité. Les indices de la survenue d'une épidémie, ou encore les symptômes d'une maladie, qui sont secondaires par rapport aux causes premières supposées de l'épidémie ou de la maladie, sont par exemple appelés des «signes de probabilité» par Jérôme Fracastor dans son livre "Sur la contagion".
    Cette étroite association entre la naissance du concept de probabilité et l'élaboration du concept de qualités secondaires comporte une leçon implicite pour la compréhension du lien privilégié qu'entretiennent mécanique quantique et probabilités. Car, comme l'écrit Heisenberg , la physique quantique affronte une situation où même les variables spatio-cinématiques de position et de quantité de mouvement, qui étaient considérées du temps de Descartes et de Locke comme directes et «primaires», doivent être tenues pour des manifestations indirectes, relatives à un contexte instrumental, en somme secondaires. A l'universalisation de la notion de qualité secondaire, ou de relativité des phénomènes à l'égard d'un contexte, répondait en mécanique quantique l'universalisation du domaine de pertinence des probabilités.
    On devine cependant, d'après ce compte-rendu, la raison pour laquelle le concept de probabilité est resté embryonnaire et marginal dans la science de la nature de la première moitié du dix-septième siècle; une raison qui explique aussi, bien qu'avec un temps de retard, les réticences contemporaines à prendre pleinement au sérieux une théorie physique à l'armature probabiliste comme la mécanique quantique. Cette raison, c'est que dès le début, les probabilités ont été considérées comme un pis-aller prédictif dans une situation où l'on se trouve momentanément incapable d'offrir un compte-rendu descriptif s'appuyant sur des principes et des vérités fondées; des vérités concernant les causes efficientes si l'on est aristotélicien, ou les figures et mouvements si l'on est cartésien. On ne doit pas s'étonner dans ces conditions que tout l'effort des acteurs de la première révolution scientifique ait tendu à élucider des liens causaux ou à décrire un univers réel de qualités primaires par le biais de la géométrie, plutôt qu'à chercher à systématiser l'estimation de l'incertain dans la circonscription mouvante des qualités secondaires.


    3-L'incertain et le milieu des choses


    Comme le souligne à juste titre Catherine Chevalley , l'estimation de l'incertain n'a commencé à constituer un thème d'investigation à part entière que chez un penseur anti-cartésien, Pascal, pour lequel «la fin des choses et leurs principes sont pour (l'homme) invinciblement cachés dans un secret impénétrable» . Si l'homme doit se contenter, selon Pascal, «(...) d'apercevoir quelque apparence du milieu des choses dans un désespoir éternel de connaître ni leur principe ni leur fin» , alors il ne peut pas se contenter de dédaigner les apparences au profit d'un insaisissable arrière-monde gouverné par des principes. Il faut que l'homme apprenne à habiter dans son milieu; il faut qu'il sache focaliser son attention sur le jeu de ses manipulations expérimentales et des phénomènes qui en résultent; il faut qu'il admette le manque de consistance d'un découpage du monde en objets séparés et intrinsèquement existants puisque les phénomènes sont tellement liés les uns aux autres qu'on ne saurait en saisir un sans saisir le Tout; il faut qu'il comprenne aussi qu'aucune connaissance ne peut s'affranchir du nexus des inter-relations mais seulement se situer en son sein sans ignorer la perspective dont elle est tributaire. Il faut enfin que l'homme consente à faire l'effort de domestiquer l'incertain qui est son lot, en mathématisant directement les rapports entre les antécédents et les attentes, et entre les attentes et les constats.
    Bien sûr, le calcul des probabilités a pu se développer après Pascal en s'affranchissant de ce que certains appelleront un pessimisme épistémologique motivé par le vertige de l'impénétrabilité des desseins Divins. Le ton, dans l'Essai philosophique sur les probabilités de Laplace publié en 1814, est presque aux antipodes de celui-là, puisque Laplace y affirme la toute-puissance d'un principe de raison suffisante incarné par un Dieu à l'oeuvre transparente. Selon Laplace, «La courbe décrite par une simple molécule d'air ou de vapeurs est réglée d'une manière aussi certaine que les orbites planétaires; il n'y a de différence entre elles que celles qu'y met notre ignorance» . Et c'est seulement dans cet intervalle entre la détermination principielle de toutes choses et notre ignorance peut-être provisoire à leur sujet que prend place le concept de probabilité: «la probabilité, poursuit Laplace, est relative en partie à cette ignorance, et en partie à nos connaissances» .
    Une telle conception a parfaitement rempli son office dans le cadre de la physique classique, particulièrement en mécanique statistique classique, si l'on met à part la problématique plus récente de la sensibilité aux conditions initiales. Mais, face à la question récurrente du caractère essentiel ou non essentiel des probabilités en physique quantique, face aux difficultés qu'y rencontre la thèse de la probabilité-ignorance, il n'était pas inutile de remonter en deçà de Laplace et de se rappeler que le calcul des probabilités a fait l'une de ses premières apparitions sur un tout autre terrain philosophique. Il a surgi chez Pascal, nous l'avons vu, sur fond d'une reconnaissance des limites anthropologiques, d'une épistémologie proche de l'opérationalisme, d'un holisme généralisé, et d'un perspectivisme gnoséologique. On ne peut qu'être frappé de constater que tous ces traits sont présents dans les interprétations les plus courantes de la mécanique quantique, et qu'on ne peut pas trouver d'interprétation acceptable qui n'en comporte au moins un. Le trait le plus fréquemment rencontré, y compris dans les plus fiables des interprétations à variables cachées, est le holisme.


    4-Indéterminisme et contextualité


    Ces deux remarques historiques, l'une sur l'association du concept de probabilité au concept de qualité secondaire, et l'autre sur le calcul des probabilités conçu comme instrument de maîtrise prédictive de notre situation d'enchevêtrement dans le réseau des relations naturelles, vont à présent nous aider à défaire deux noeuds interprétatifs de la physique quantique, se rapportant l'un comme l'autre à l'indéterminisme.
    Le premier concerne la notion, très répandue depuis les travaux fondateurs de Heisenberg aux alentours de 1927-1930, d'une perturbation incontrôlable qu'est censée exercer l'agent de mesure sur l'objet microscopique mesuré. Il est intéressant de noter que cette «perturbation» s'est vue assigner un double rôle par ses concepteurs.
    D'une part, souligne Bohr à la fin des années 1920, la perturbation incontrôlable constitue la raison de l'indivisibilité du phénomène quantique, c'est-à-dire de l'impossibilité de séparer dans le phénomène ce qui revient à l'objet et ce qui revient à l'agent de mesure. La perturbation expliquerait en d'autres termes, empruntés cette fois à Heisenberg, que la physique quantique conduise à généraliser le modèle des qualités secondaires, avec leur référence obligée au contexte dans lequel elles se manifestent, au détriment de celui des qualités primaires intrinsèques.
    Mais d'autre part, selon l'article de 1927 où Heisenberg présente pour la première fois ses relations dites d'«incertitude», la perturbation est aussi ce qui rend compte de l'indéterminisme de la physique quantique. La perturbation incompressible et incontrôlable par l'agent de mesure est ce qui empêche de connaître complètement les deux groupes de variables qui composent l'état initial d'une particule; et par conséquent, conclut Heisenberg, le principe de causalité, qui lie de façon contraignante un état initial et un état final, reste inapplicable en physique quantique.
    Le modèle de la «perturbation» permet ainsi de mettre en évidence une étroite relation entre contextualité et indéterminisme, puisque la perturbation a pour conséquence aussi bien la contextualité des phénomènes que l'indéterminisme à leur sujet. Une relation dont la confluence des concepts de qualité secondaire et de probabilité à l'époque de leur naissance est peut-être la traduction historique. Malheureusement, l'image de la perturbation de l'objet par l'agent de mesure a aussi un inconvénient majeur qui n'a pas échappé à Bohr et à Heisenberg, et qu'a par la suite souligné Karl Popper. Au fond, cette image consiste à commencer par mettre en scène un univers d'objets dotés de qualités primaires spatiales et cinématiques, puis à invoquer leurs altérations mutuelles pour justifier après coup la mise à l'écart du concept de qualité primaire et la généralisation de celui de qualité secondaire . A travers elle, on ne suscite la représentation d'un univers de figures et mouvements que dans l'unique but d'en montrer l'inanité ou, ce qui revient au même dans une épistémologie vérificationniste, l'inaccessibilité de principe.
    L'image de la «perturbation» représente donc un moment méta-stable de la réflexion sur la mécanique quantique. Elle invite à son propre dépassement, dans deux directions opposées. Soit on prend pleinement au sérieux ses prémisses et on essaie de construire une théorie empiriquement adéquate des processus spatio-cinématiques inaccessibles qu'on postule; c'est là la stratégie des auteurs de certaines théories à variables cachées. Soit au contraire on prend pleinement au sérieux les conséquences holistiques de l'image de la perturbation, à savoir l'indivisibilité du phénomène quantique, son insurpassable relativité à un contexte expérimental, et on élabore une conception de la théorie physique qui ne fasse plus du tout appel à une représentation imagée des moments constitutifs supposés du phénomène; c'est là la stratégie que Bohr a adoptée à partir de 1935, non sans quelques affaiblissements.
    Il est rassurant pour ceux qui, comme moi, ont choisi de pousser la seconde stratégie jusqu'à ses ultimes conséquences, de constater qu'il est possible d'établir un lien formel direct entre l'indéterminisme et la contextualité, sans avoir besoin de l'intermédiaire fourni par l'image de la perturbation. Dès 1935, Grete Hermann publiait un opuscule dans lequel elle laissait entrevoir un tel lien . Cette jeune philosophe allemande remarquait en effet que les causes éventuelles d'un phénomène quantique ne peuvent servir à le prévoir, parce qu'elles ne sont jamais définies qu'après coup, relativement aux circonstances mêmes de la production de ce phénomène lors d'une mesure. Plus tard, au début des années 1950, Paulette Destouches-Février démontra de façon beaucoup plus rigoureuse un théorème selon lequel toute théorie prédictive portant sur des phénomènes définis relativement à des contextes expérimentaux dont certains sont mutuellement incompatibles, est «essentiellement indéterministe» .


    5-Idéaux déterministes, projections indéterministes


    Remarquons à présent qu'à travers ce qui précède, un deuxième noeud interprétatif concernant le rapport entre physique quantique et indéterminisme a été implicitement dissout. On se demandait souvent dans les années 1930 si la mécanique quantique, avec son caractère probabiliste, voire «statistique» comme le disait Einstein, pourrait un jour être rendue caduque par une théorie déterministe des processus individuels sous-jacents. La réponse que les recherches des quarante dernières années on apporté à cette interrogation est un peu sibylline, mais d'autant plus instructive philosophiquement.
    Le premier enseignement à retirer de ces recherches est qu'il n'est pas impossible de formuler des théories qui, tout en régissant par des lois déterministes les propriétés intrinsèques d'objets individuels, reproduisent exactement les prédictions de la mécanique quantique . Ces théories dites à variables cachées se trouvent simplement être soumises à quelques contraintes, dont les principales sont la non-localité (c'est-à-dire l'influence mutuelle instantanée des propriétés d'objets arbitrairement distants) et le contextualisme (c'est-à-dire l'influence du dispositif de mesure sur les propriétés postulées). Ces deux conditions ne vont cependant pas sans soulever des problèmes. Le concept non-local d'interactions instantanées à distance introduit un conflit formel (bien que sans conséquences pratiques) avec les axiomes de la théorie de la relativité . Le contextualisme a quant à lui pour conséquence que les mesures ne permettent pas d'accéder point par point aux processus continus et déterministes qui, d'après la théorie, se seraient déroulés d'eux-mêmes dans la nature si on ne les avait pas modifiés en cherchant à les mettre en évidence. Autrement dit, la théorie elle-même implique que les processus déterministes «indépendants» qu'elle décrit sont inaccessibles à l'expérience.
    La conclusion à tirer de cela n'est certes pas qu'il faut jeter l'anathème sur les théories à variables cachées, mais simplement qu'il est indispensable de réviser leurs ambitions à la baisse.
    Nous avons vu que l'un des principaux objectifs de leurs partisans était de rouvrir la question du déterminisme, contre ceux qui affirmaient hâtivement que cette question avait déjà été réglée dans un sens négatif par la mécanique quantique. La mécanique quantique standard avait beau être «essentiellement indéterministe» dans sa structure, si l'on pouvait reproduire ses résultats par une autre théorie comportant des processus déterministes, l'option déterministe récupèrerait tout son crédit. Il est vrai que la question ontologique de savoir si les lois ultimes de la nature sont ou ne sont pas déterministes est indécidable, parce que des apparences déterministes peuvent résulter d'une régularité statistique et qu'inversement des apparences indéterministes peuvent traduire un phénomène de chaos déterministe . Mais au moins pouvait-on encore espérer que le déterminisme retrouve sa valeur traditionnelle de guide pour la recherche. Or, cet espoir même a été déçu. Car, dans les théories à variables cachées, l'attitude déterministe semble bien avoir perdu jusqu'à sa fécondité épistémologique. L'attitude déterministe n'était en effet féconde que parce qu'elle poussait les chercheurs à concevoir des réseaux de liens univoques pouvant sous-tendre les phénomènes, à désigner un type d'expérience permettant de mettre ces liens en évidence, et à définir ainsi des classes souvent inédites de phénomènes. Malheureusement l'inaccessibilité principielle des liens sous-jacents aux phénomènes dans les théories à variables cachées contextualistes aptes à reproduire les prédictions quantiques, bloque ce processus dès le départ. Une fois tari le courant d'information réciproque entre le projet déterministe et la définition de nouveaux domaines d'expérimentation, la tentative de poursuivre formellement ce projet ne relève plus que d'un jeu de l'esprit, dont le principal (sinon le seul) intérêt est de servir de stimulant intellectuel aux spécialistes de fondements de la physique moderne.
    Cette situation ne justifie pas pour autant l'excès inverse, à savoir un dogmatisme indéterministe. Tout ce qu'on est en droit de constater c'est que désormais, dans les sciences physiques, l'avantage de la fécondité épistémologique appartient à l'attitude consistant à développer au maximum la capacité prédictive au détriment de l'ambition descriptive, le calcul des probabilités plutôt que les modèles d'évolution déterministe.
    Il est vrai que beaucoup de penseurs ne s'en tiennent pas là; qu'ils tendent à extrapoler le constat épistémologique de la fécondité de l'option indéterministe en une affirmation ontologique sur le caractère intrinsèquement stochastique des lois qui régissent le monde. Mais leur position s'explique aisément sur le plan méthodologique, sans qu'il soit nécessaire de les suivre dans les aspects métaphysiques de leurs conclusions. Comme l'a montré James Logue dans son livre récent Projective probability , tout système cohérent d'évaluations probabilistes peut s'interpréter de façon réaliste, c'est à dire qu'il peut se comprendre comme exprimant des propositions dont la valeur de vérité est indépendante de nos moyens de les tester. Et cette interprétation à son tour peut conduire les auteurs d'une évaluation probabiliste à la projeter sur le monde. Rien d'étonnant dans ces conditions que le système cohérent d'évaluations probabilistes de la physique quantique, non contrebalancé par un programme déterministe fécond, ait pu être conçu par des chercheurs aussi éminents que Popper (et même Heisenberg à sa façon), comme traduisant en partie ou en totalité une caractéristique «réelle», ou «existante», du monde . Popper estime par exemple que le monde est fait de capacités, de potentialités ou de propensions naturelles, qui se manifestent expérimentalement par des distributions statistiques particulières des phénomènes, et qui ont leur reflet dans la théorie quantique sous forme d'un algorithme probabiliste.
    Incontestablement, les partisans d'un indéterminisme ontologique se livrent ici, tout autant que les défenseurs des théories à variables cachées, à ce que Kant aurait dénoncé comme une tentative d'étendre l'application de nos concepts au delà des limites de l'expérience . Avec pour seul avantage par rapport aux partisans des théories à variables cachées qu'eux se contentent d'hypostasier directement le mode d'opération du formalisme quantique plutôt que de chercher à en élaborer un nouveau. Mais doit-on le leur reprocher? Puisque tout système cohérent d'évaluation probabiliste peut se lire sur un mode réaliste, puisque rien n'empêche de d'interpréter l'algorithme quantique de calcul des probabilités comme traduisant un ordre de propensions naturelles, pourquoi leur interdirait-on d'adhérer sans réticences à de telles interprétations? Pourquoi leur refuserait-on de croire sans arrière-pensées que la théorie quantique décrit une réalité faite de pures potentialités?
    Le genre de réponse que nous allons essayer de donner à ces interrogations est d'ordre épistémologique plutôt que métaphysique. Nous n'allons pas nous demander si la réalité est ou n'est pas faite de potentialités ayant la structure de l'algorithme probabiliste de la théorie quantique, mais seulement si nous perdons ou non quelque chose sur le plan de la connaissance en interprétant cet algorithme de façon réaliste.
    Disons tout de suite, et c'est là le sens de l'énoncé d'équivalence de James Logue, que ni le praticien de l'évaluation probabiliste, ni le physicien quantique, ne perdent quoi que ce soit à une telle façon de voir. Ils peuvent même y gagner quelque chose qui est au coeur de toute profession de foi réaliste, à savoir le sérieux avec lequel il considèrent leurs entités théoriques, et la motivation dans la recherche . En revanche, le philosophe a vraiment beaucoup à perdre à se laisser fasciner par le seul rapport de la théorie avec le monde. Car cette attitude ne l'incite guère à réfléchir sur ce que doit la théorie à la situation de l'homme dans le monde, et en particulier ce qu'elle doit à la pratique même de l'investigation expérimentale. A la différence du scientifique dans son travail quotidien, le philosophe ne peut se contenter d'occuper la situation pascalienne de l'homme dans le milieu qu'il explore; il doit penser cette situation et tâcher d'en énoncer les conséquences. Le chercheur scientifique peut d'ailleurs avoir aussi intérêt à adopter de temps à autre la posture réflexive, lorsqu'il aborde des périodes de réorientation de son travail. Et chacun sait qu'il se trouve presque inévitablement conduit à le faire pendant les époques révolutionnaires que traverse sa science.


    6-Une théorie des probabilités généralisée


    C'est à ce genre de retournement de l'attention que nous allons maintenant procéder. Nous allons suspendre le jugement au sujet d'un hypothétique isomorphisme partiel entre le réel dans lequel on expérimente et la mécanique quantique, et nous intéresser sélectivement à ce que doit la structure de cette théorie à la forme de l'activité expérimentale elle-même.
    Commençons par exposer rapidement, dans cet esprit, l'architecture de la mécanique quantique standard:
    (1) Le noyau formel de cette théorie consiste en un espace vectoriel défini sur l'ensemble des nombres complexes, et doté d'un produit scalaire; autrement dit un espace de Hilbert.
    (2) Sur cet espace sont définis des opérateurs spéciaux, appelés «observables», qui fournissent, à travers leurs «valeurs propres», la liste des résultats possibles d'une opération de mesure.
    (3) Un vecteur de l'espace de Hilbert, appelé vecteur d'état, est associé à chaque préparation (c'est-à-dire à ce qui, dans une expérience, fixe les conditions préalables à la mesure).
    (4) En appliquant la règle de Born à ce vecteur d'état, on obtient une fonction assignant des probabilités aux résultats d'une mesure quelconque effectuée à la suite de la préparation.
    (5) Comme un intervalle spatio-temporel variable et diverses circonstances physiques peuvent séparer la fin du fonctionnement de la préparation et l'opération de mesure, on en tient compte à travers une équation d'évolution des vecteurs d'état. Cette équation est celle de Schrödinger dans le cas non-relativiste, et celle de Dirac dans le cas relativiste.
    Ici, je voudrais insister sur la différence majeure entre les fonctions de probabilités de la théorie classique des probabilités, et celles qu'on obtient à partir des vecteurs d'état de la mécanique quantique en appliquant la règle de Born. Les fonctions classiques de probabilités associent un nombre compris entre 0 et 1 à chaque «événement» au sens large, défini par Kolmogorov comme un sous-ensemble d'événements élémentaires. L'ensemble de ces sous-ensembles-événements comprend l'ensemble vide et l'ensemble exhaustif, et il est doté d'une structure d'algèbre de Boole par les opérations de réunion et d'intersection. En d'autres termes, les fonctions classiques de probabilités sont définies sur une algèbre de Boole. Au contraire, compte tenu des propriétés des espaces de Hilbert, les fonctions quantiques de probabilités ne sont pas définies sur une algèbre de Boole; elles sont définies sur des structures différentes et plus riches qu'on appelle des «orthoalgèbres» . Je me garderai de donner le détail des axiomes d'une orthoalgèbre, et je me contenterai de signaler que le concept d'orthoalgèbre n'est pas sans rapport avec celui d'algèbre de Boole. On peut même considérer que les orthoalgèbres constituent une généralisation des algèbres de Boole, et que corrélativement les fonctions de probabilités quantiques généralisent les fonctions de probabilités classiques. En effet, une orthoalgèbre contient des algèbres de Boole comme sous-structures. Et d'autre part, la restriction d'une fonction quantique de probabilités sur ces sous-structures booléennes équivaut à une fonction classique de probabilités.
    Cette disparité structurale entre fonctions classiques et fonctions quantiques de probabilités justifie qu'on ne se contente pas de considérer que la mécanique quantique utilise la théorie des probabilités. La mécanique quantique consiste elle-même, pour une part, en une forme nouvelle et élargie de théorie des probabilités.


    7-Un formalisme prédictif méta-contextuel


    Il serait cependant dommage de s'en tenir à cet exposé superficiel et formaliste de la situation. Nous pouvons assez facilement comprendre les raisons de l'irruption d'une nouvelle sorte de théorie des probabilités en montrant qu'elle est une réponse pratiquement inévitable aux caractéristiques de la classe des phénomènes expérimentaux dont traite la mécanique quantique. La principale de ces caractéristiques, déjà signalée à plusieurs reprises par le biais d'une réflexion sur le concept de qualité secondaire, est la contextualité; autrement dit l'inséparabilité du phénomène et du contexte expérimental de sa manifestation. C'est elle qui impose un grand nombre des caractéristiques structurales de la théorie quantique.
    Mais pour bien mettre en évidence le lien très fort entre contextualité et mécanique quantique, il faut d'abord analyser ce qui rend la contextualité du phénomène quantique incontournable, et la différencie d'autres formes courantes, bénignes, et facilement surmontables, de relation des déterminations à un contexte.
    Dans toutes les sciences, comme dans beaucoup de situations ordinaires, on peut dire qu'à chaque contexte expérimental ou sensoriel correspond une gamme de phénomènes ou de déterminations possibles. Par exemple, à un contexte représenté par les cônes de la rétine correspond une gamme de couleurs, à un contexte représenté par une règle correspond une gamme de longueurs, à un contexte représenté par un thermomètre correspond une gamme de températures, etc. Mais aussi longtemps que les contextes peuvent être conjoints, ou que les déterminations sont indifférentes à l'ordre d'intervention des contextes, rien n'empêche de fusionner les gammes de possibles en une seule gamme relative à un seul contexte global, puis de passer ce contexte sous silence et de traiter les éléments de la gamme comme s'ils traduisaient autant de déterminations intrinsèques. La présupposition que rien n'empêche d'escamoter le contexte est automatiquement faite quand on se sert de propositions du langage ordinaire; car ces dernières permettent d'attribuer plusieurs déterminations au même objet comme si elles lui étaient propres. Il est important de noter qu'à cette présupposition et à ce mode de fonctionnement de la langue s'associent une logique classique, booléenne, et une théorie des probabilités classique, kolmogorovienne.
    Mais l'apparition d'obstacles à la conjonction des contextes, ou le constat d'une absence d'indépendance des phénomènes vis-à-vis de l'ordre d'utilisation des contextes, comme c'est le cas en physique microscopique lorsqu'on essaye de mesurer des variables canoniquement conjuguées, rendent ces méthodes traditionnelles inutilisables. La stratégie consistant à ne pas tenir compte des contextes expérimentaux échoue, et l'explicitation de la contextualité des déterminations devient impérative.
    Dans cette situation qu'affronte la physique quantique, la logique booléenne et les probabilités kolmogoroviennes ne subsistent en première analyse que fragmentées en plusieurs sous-logiques et plusieurs sous-structures probabilistes, chacune d'entre elles étant associée à un contexte particulier. A chaque contexte expérimental s'associe une gamme de déterminations possibles et une gamme de propositions attributives qui relèvent d'une sous-logique classique, booléenne; et à chaque détermination choisie parmi l'ensemble des déterminations possibles correspondant à un contexte donné, peut être attaché un nombre réel qui obéit aux axiomes de la théorie des probabilités de Kolmogorov. Mais ces sous-logiques et ces sous-structures probabilistes ne peuvent pas fusionner, car elles dépendent de contextes distincts qui ne peuvent en général être conjoints. On cherche dans ces conditions à les articuler les unes aux autres, respectivement dans le cadre d'une méta-logique et d'un formalisme probabiliste méta-contextuel. Ce qui est remarquable est que lorsqu'on construit une telle méta-logique, en tenant seulement compte de l'impossibilité de conjoindre les diverses gammes de possibles, on en arrive à des structures isomorphes à la célèbre «logique quantique» non-distributive de Birkhoff et von Neumann . Et par ailleurs, quand on essaie de construire un formalisme probabiliste méta-contextuel, en s'imposant seulement de respecter les axiomes de Kolmogorov séparément pour chaque gamme de possibles, et d'utiliser un unique symbole générateur de sous-fonctions de probabilités pour chaque préparation, on parvient à une classe de structures dont le formalisme de vecteurs dans des espaces de Hilbert de la mécanique quantique est un cas à peine particulier. La forme de l'équation d'évolution de la mécanique quantique est elle-même dérivable de conditions générales portant sur la stabilité temporelle du statut d'outil d'évaluation probabiliste du vecteur d'état .
    Dans sa fonction de théorie-cadre, la mécanique quantique n'est par conséquent autre qu'une forme méta-contextuelle de théorie des probabilités. Elle recueille les conditions de possibilité d'un système unifié de prédiction probabiliste portant sur des phénomènes inséparables de contextes parfois incompatibles. Il suffit ensuite de compléter cette théorie-cadre par diverses symétries pour en tirer autant de variétés particulières de théories quantiques.


    8-Décohérence et probabilités


    Nous avons vu que, sauf à affronter les graves difficultés épistémologiques des théories à variables cachées non-locales, les probabilités quantiques ne peuvent pas être tenues pour l'expression d'une ignorance au sujet de processus ou d'événements qui se dérouleraient d'eux-mêmes dans la nature. Le calcul quantique des probabilités porte sur des phénomènes dont l'occurrence est suspendue à l'intervention d'un contexte approprié. Le problème est qu'en tant que théorie physique, la mécanique quantique a une vocation à l'universalité. Le calcul des probabilités méta-contextuel, qui est son élément constitutif principal, devrait dans ces conditions pouvoir s'appliquer sans restriction et à toute échelle. Mais, dans notre environnement familier, la théorie classique (kolmogorovienne) des probabilités n'est-elle pas parfaitement utilisable? Et cette théorie classique ne fonctionne-t-elle pas, contrairement à son équivalent quantique, de telle sorte que rien n'interdit de considérer qu'elle exprime une ignorance partielle au sujet de propriétés intrinsèques et d'événements autonomes? Un problème de compatibilité se pose alors, entre le calcul quantique des probabilités, valable en principe à toute échelle, et le calcul classique des probabilités, valable en pratique à notre échelle.
    Les théories de la décohérence ont pour principal objet de prouver cette compatibilité. Elles permettent en effet de montrer qu'appliqué à des processus complexes faisant intervenir un objet, un appareil de mesure, et un vaste environnement, le calcul quantique des probabilités se ramène à une très faible approximation près au calcul classique des probabilités. Ceci se manifeste par une quasi-disparition de termes d'interférence typiques du calcul quantique des probabilités, et isomorphes à ceux d'un processus ondulatoire, au profit d'une quasi-validité de la règle classique d'additivité des probabilités d'une disjonction.
    Rares sont cependant les physiciens qui se sont contentés de cette formulation purement probabiliste et prédictive des théories de la décohérence. Quelques-uns d'entre eux ont même caressé l'espoir d'utiliser la décohérence comme moyen d'expliquer l'émergence d'un monde classique, à partir d'un monde quantique censément «décrit» par un vecteur d'état universel . L'obstacle majeur auquel ils se sont heurtés est que, pour parvenir à dériver à partir d'un calcul purement quantique les lois et les comportements classiques qui prévalent à l'échelle humaine, ils n'ont pu éviter d'introduire des hypothèses contenant déjà des éléments anthropomorphiques .
    Ces déconvenues incitent à ne rien demander de plus aux théories de la décohérence que d'assurer rétrospectivement une cohérence en pratique suffisante entre le calcul quantique des probabilités et le présupposé, à la fois fondamental et élémentaire, qui sous-tend son attestation expérimentale. Ce présupposé consiste à admettre que les événements macroscopiques (comme la déviation de l'aiguille d'un appareil) surviennent d'eux-mêmes au laboratoire, que leur trace est en permanence disponible pour n'importe quel chercheur qui désirerait en effectuer le constat, et que l'utilisation du calcul des probabilités à leur sujet ne fait par conséquent qu'exprimer une ignorance partielle sur ce qu'il sont.


    9-Théorie quantique des champs, intégrales de chemin, et formalisme prédictif méta-contextuel


    Les réflexions qui précèdent ont il est vrai de quoi surprendre certains physiciens contemporains. En effet, à force de manipuler un concept de champ parfois insuffisamment distingué de son équivalent classique, et à force de prendre au pied de la lettre les processus que figurent de façon imagée les diagrammes de Feynman, un nombre non-négligeable d'entre eux a fini par se comporter comme si les problèmes conceptuels que soulevait la mécanique quantique à sa naissance n'étaient plus qu'un mauvais souvenir. Si la physique «décrit» l'évolution des champs fondamentaux, et/ou si elle parvient à «décrire» également la dynamique des particules (considérées comme état d'excitation du champ) à travers le procédé des intégrales de chemin de Feynman, pourquoi se préoccuper encore de cette vieille lune bohrienne qu'est l'inséparabilité du phénomène et de ses conditions expérimentales de manifestation? Pourquoi mettre en avant une notion aussi opaque pour le physicien théoricien que celle de «mesure» ? Pourquoi insister de façon obstinée sur le statut prédictif plutôt que descriptif des théories quantiques? Ne peut-on pas penser que bien des perplexités philosophiques des créateurs de la mécanique quantique étaient liées à l'emploi d'un formalisme (celui des vecteurs dans un espace de Hilbert) qui est désormais surclassé dans les théories les plus avancées par le formalisme des intégrales de chemin?
    La réponse à ces questions est qu'en vérité, aucune des contraintes épistémologiques exercées par la mécanique quantique standard de 1926 n'a été relaxée par les variétés contemporaines de théories quantiques, et que de nouvelles contraintes du même ordre s'y sont même ajoutées. Quelles que soient les représentations qu'elles ont pu susciter, les théories quantiques actuelles opèrent toujours comme un instrument généralisé, méta-contextuel, de prédiction probabiliste, et cela vient de ce qu'elles sont toujours confrontées à des phénomènes inséparables de leur contexte de manifestation. Afin d'étayer cette réponse, il suffira d'évoquer rapidement le renouveau des réflexions philosophiques suscité par la théorie quantique des champs, puis de repréciser les relations entre le formalisme des vecteurs d'état dans un espace de Hilbert et celui des intégrales de chemin de Feynman.
    Le trait central des théories quantiques, qui est de consister en une structure méta-contextuelle de prédiction probabiliste, se retrouve non seulement intact mais amplifié par la théorie quantique des champs. Au terme d'une réflexion sur les formalismes d'espaces de Fock, Paul Teller conclut: «(...) les états (dans un espace de Fock) caractérisent simplement des propensions pour ce qui se manifestera sous diverses conditions d'activation. Parmi les choses pour lesquelles il peut y avoir des propensions de manifestation, il y a l'occurrence de divers nombres de quanta (...)» . Autrement dit, loin d'avoir rendu superflues des notions contextuelles comme celles d'état propensif, d'«observable», ou de conditions d'«activation», les théories quantiques des champs en ont généralisé l'application. Le concept de champ quantique dérive de celui de champ classique par la mise en correspondance d'observables locales aux fonctions locales, et par l'introduction de relations de commutation (ou d'anti-commutation) pour certains couples de ces observables. Quant aux vecteurs d'état dans un espace de Fock, ils permettent non pas de calculer la probabilité que telle ou telle «propriété» d'une particule se manifeste dans un contexte expérimental donné, mais bien la probabilité qu'un certain nombre de particules soit détecté dans des conditions instrumentales appropriées. Ce nombre lui-même est traité comme une observable, dont l'ensemble des valeurs possibles sous des conditions de détection appropriées s'identifie à l'ensemble des entiers naturels. A la contextualisation du prédicat des objets, typique de la mécanique quantique standard, s'ajoute par conséquent en théorie quantique des champs la contextualisation de la notion de supports dénombrables des prédicats.
    Qu'on doive désormais tenir le concept même de «particule(s)», et pas seulement celui de «propriété de la particule», pour relatif à un contexte de manifestation, est rendu particulièrement évident par le phénomène relativiste dit des «particules de Rindler». Ce phénomène s'observe en accélérant un détecteur dans le «vide» . Le détecteur accéléré répond, dans cet environnement où aucun détecteur au repos ne détecterait pourtant la moindre particule, comme s'il était plongé dans un bain thermique de particules . Il est donc clair ici qu'on ne peut pas traiter les particules comme des objets qui «sont» là, ou qui «ne sont pas» là, indépendamment des conditions de leur détection. On est seulement en droit de parler de phénomènes de détection qui impliquent de façon indissociable un milieu (disons «le vide quantique»), un détecteur, et l'état dynamique de ce détecteur. Les théories quantiques des champs apparaissent dès lors comme des élaborations particulières du cadre probabiliste méta-contextuel de la mécanique quantique: des élaborations adaptées à une classe élargie de phénomènes contextuels, appartenant au domaine relativiste, et touchant au concept formel de «support» par-delà celui de «propriété» .
    Venons-en à présent aux formalismes d'intégrales de chemin de Feynman, qui ont souvent supplanté les formalismes standard dans la pratique moderne des théories quantiques des champs . Bien que le fonctionnement des intégrales de chemin soit illustré par des diagrammes linéaires évoquant des trajectoires spatio-temporelles de particules, leur propos est seulement de permettre de calculer la probabilité d'un événement expérimental final (en un certain point) sous la condition de la survenue d'un événement expérimental initial (en un autre point). Ici, la dépendance du phénomène dont on calcule la probabilité à l'égard d'un contexte instrumental est seulement implicite, mais elle n'en joue pas moins un rôle capital dans le principe même du calcul effectué. Que fait-on en effet concrètement lorsqu'on évalue une intégrale de chemin? On somme des «amplitudes de probabilités», puis on prend le carré du module de la somme ainsi obtenue pour obtenir la probabilité qu'on cherche . Or, la distinction entre amplitudes de probabilités et probabilités recouvre d'assez près celle entre expériences virtuelles et expériences actuelles. Lue dans le cadre du formalisme standard, l'amplitude de probabilité n'est autre que le produit scalaire du vecteur d'état et d'un vecteur propre d'une observable correspondant à une expérience qui aurait pu être accomplie (mais qui ne l'a pas été) dans l'intervalle qui sépare les deux expériences effectives . Au contraire, la probabilité est calculée pour le résultat d'une expérience qui va effectivement être accomplie ou qui l'a déjà été. Le formalisme des intégrales de chemin manifeste ainsi, tout autant que celui des vecteurs dans un espace de Hilbert, la structure prédictive méta-contextuelle des théories quantiques. Il consiste à évaluer la probabilité d'un phénomène contextuel, en sommant des termes correspondant à des contextes virtuels intermédiaires distincts de celui dans lequel se manifeste effectivement le phénomène.
    Ajoutons à ceci deux autres circonstances qui suggèrent des relations étroites entre le mode de fonctionnement des théories quantiques utilisant un formalisme de vecteurs dans l'espace de Hilbert, et celles qui font usage d'intégrales de chemin. Tout d'abord, l'équivalence entre le formalisme de la mécanique quantique standard, qui met en oeuvre un opérateur Hamiltonien dans l'équation de Schrödinger, et le formalisme d'intégrales de chemin qui utilise la fonction Lagrangienne correspondante, a été démontrée par Feynman . Par ailleurs, de même que certains principes de symétrie déterminent la forme du Hamiltonien de l'équation de Schrödinger, ce sont des principes de symétrie qui permettent de fixer la densité de Lagrangien de chaque interaction, et de déterminer ainsi l'intégrale de chemin . L'utilisation de ce genre de principes de symétrie a plus concrètement pour conséquence de moduler les intégrales de chemin (et par conséquent les évaluations probabilistes qui en résultent), en annulant l'amplitude de certains des diagrammes qui interviennent dans la sommation .


    10-Epilogue


    Tout ceci nous amène à conclure par deux propositions valant indépendamment de la variété de théorie quantique ou de formalisme utilisés. Chaque théorie quantique combine un élément invariable, qui est une forme méta-contextuelle de théorie des probabilités, et un élément variable qui est un ensemble de symétries. L'association des deux éléments en fait un système d'évaluation probabiliste adapté à une classe de situations expérimentales dont l'extension dépend des symétries mises en oeuvre.


    2 commentaires
  • Rappels de mécanique quantique

    Description d'un système physique en mécanique quantique
    Le formalisme quantique utilise un ket pour décrire l'état d'un système. On peut en tirer une information probabiliste sur les grandeurs du système en faisant agir des observables.


    Prédiction de l'évolution du système par l'équation de Schrödinger
    Elle décrit l'évolution du ket en introduisant l'hamiltonien H du système qui représente son énergie :



    L' équation de Schrödinger stationnaire s'écrit et on en tire les états propres associés au énergies propres .


    Principe de superposition
    Du fait de la linéarité de l'équation de Schrödinger, tout état combinaison linéaire d'états propres est également solution, si bien que de manière générale, un état s'écrira : .


    Aspect probabiliste
    Dans une superposition d'états , les coéfficients et () s'interprêtent comme les probabilités d'avoir les états ou .


    Principe d'incertitude de Heisenberg
    Le principe d'incertitude d'Heisenberg stipule qu'on ne peut parfaitement localiser un système physique à la fois dans l'espace des positions et dans l'espace des impulsions :



    votre commentaire
  • Formalisme Quantique

    Mioara Mugur-Schächter *

    Le texte qui suit est le manuscrit d'un article envoyé à la revue Le Débat. Il y a été publié dans le N° 94, Mars-Avril, 1997, avec des modifications insignifiantes consistant surtout en une fragmentation en sous-chapitres portant des titres destinés à faciliter la lecture. 

    L'objectif de ce texte était de communiquer à un public plus large un constat et un but qui ont pu fédérer quelques chercheurs de compétences différentes pour constituer ensemble un Centre pour la Synthèse d'une Épistémologie Formalisée (CeSEF) qui travaille depuis 1994. Les premiers résultats de ces travaux pourront être trouvés dans un premier livre collectif intitulé Proposals in Epistemology : Quantum Mechanics, Cognition and Action, Kluwer Academic Press, Mioara Mugur-Schächter and Alwyn van der Merwe, eds., March 2002. 

    LES MODES DE CONCEPTUALISATION DU REEL CHANGENT

    Sur les frontières de la pensée on peut discerner des formes nouvelles. Certaines se sont installées depuis des dizaines d'années, d'autres sont en train d'émerger. On les étiquette par des termes comme "décidabilité", "auto-organisation", "systémique", "information", "chaos", "fractal", "complexité". Globalement, ces formes nouvelles manifestent certains changements dans les bases de nos conceptions. 

    Chez les mathématiciens s'est établie la notion que les possibilités de principe des actions mathématiques ont des limites (la cohérence formelle d'une assertion mathématique, avec les données explicites qui définissent le système formel où cette assertion est formulée, n'est pas toujours décidable à l'intérieur de ce système, etc.). 

    Les frontières entre le système étudié et le reste, son environnement, s'esquivent. Les biologistes attirent l'attention sur l'absence, dans une entité vivante, de tout support matériel invariant, et même de toute stabilité seulement fonctionnelle qui soit entièrement préétablie, "programmée", indépendamment du milieu. Ils parlent d'"organisation autopoïetique" et de "clôture organisationnelle" par quoi un système vivant reconstitue constamment sa matière, ses formes et ses fonctions, par des processus où la rétroaction sur le système, des effets de ses interactions avec le "milieu", joue un rôle aussi fondamental que les caractères propres du système. Ils parlent également d'ensembles de systèmes qui interagissent entre eux et avec le milieu commun, constituant ainsi des "réseaux auto-organisants" où les formes, les caractères et les fonctions - cette fois aussi de groupe tout autant qu'individuels - dépendent de façon cruciale des interactions.

    Dès qu'il s'agit du vivant l'artificiel dans la distinction entre cause et but devient frappant. La pensée "systémique" met en évidence l'importance décisive, pour tout être ainsi que pour ces méta-êtres que sont les organisations sociales, des modélisations pragmatiques, des "conceptions" induites par des buts subjectifs, qu'on place dans le futur mais qui façonnent les actions présentes. Ces buts, liés à des croyances et à des anticipations, rétroagissent sur l'action au fur et à mesure que celle-ci en rapproche ou en éloigne, cependant que l'action, en se développant, modifie les buts. Il en résulte une dynamique complexe dépendante de sa propre histoire et du contexte et qui requiert une approche cognitiviste et évolutionniste. 

    La théorie de (la communication de) l'information introduit, pour la description de la circulation des messages, une représentation probabiliste d'un type nouveau selon laquelle tout message reçu dépend inévitablement de la nature du "canal" de transmission des messages, pas seulement du message envoyé : selon l'approche informationnelle ce qu'on observe est posé explicitement comme étant foncièrement relatif à la modalité par laquelle on arrive à percevoir. La possibilité d'une absolutisation "objectivante" (reconstruction du message envoyé) est étudiée en second lieu et les conditions de sa réalisation sont établies indépendamment, et en fonction des modalités de l'observation. 

    Les investigateurs du "chaos" dissolvent une confusion millénaire en élaborant d'une part des exemples mathématiques abstraits et d'autre part des simulations, qui démontrent que le déterminisme n'entraîne pas la prévisibilité : côte à côte, les modélisations déterministes et la pleine reconnaissance du caractère marqué d'aléatoire des faits tels que nous les percevons directement, accèdent ensemble à l'indépendance. La croyance factice qu'il faudrait choisir entre un postulat de déterminisme ou un postulat de hasard, s'évapore, et tout un monde de questions nouvelles concernant les relations entre les bases de ces deux postulats, devient désormais visible. 

    Les philosophes de la "complexité" intègrent des paysages conceptuels où des boucles incessantes d'actions et rétroactions engendrent des hiérarchies inextricablement imbriquées de complexifications de matière, d'individus, de consciences, d'artefacts, d'organisations sociales, de savoirs. 

    On pourrait prolonger l'énumération. Partout les contours de séparations qu'on posait comme évidentes et absolues, se couvrent de tremblements et fissures. Mais déjà, par les exemples mentionnés, on sent qu'il s'agit là de changements qui, bien que distincts en surface, sont liés. On sent aussi que les implications de ces changements descendent très bas, qu'elles touchent et modifient les pentes de la toute première strate de notre conceptualisation, celles où s'est forgée la structure générale de notre façon actuelle de penser et de parler. Mais la nature de modifications de cette sorte, précisément parce qu'elles changent la manière établie de penser et parler, est très difficile à saisir en faisant travailler la manière établie de penser et parler. L'existence de telles modifications devient donc manifeste longtemps avant qu'on puisse discerner en quoi elles consistent. 


    QUESTION 

    Cette existence, en tant que telle, avant d'avoir essayé d'en expliciter le contenu, pose problème. La conceptualisation, par l'homme, de ce qu'il appelle le "réel", est elle-même un phénomène "réel". N'est-elle alors pas soumise à des lois, à des invariances ? En un certain sens, il doit en être ainsi, mais en quel sens, exactement ? 

    Comment infiltrer nos regards assez profondément et comment faire pour être sûrs de saisir et de fixer dans l'exprimé les contenus de la transmutation qui est en cours ? Sans avoir à attendre des dizaines d'années que le processus s'accomplisse par le cumul aléatoire des savoirs et de leurs interactions ? Comment élaborer une représentation intégrée ? 

    Il serait d'une cruciale utilité qu'on réussisse. Seul ce qui est connu d'une façon explicite et globalisée acquiert un contour et devient perceptible de l'"extérieur", et ce n'est qu'alors qu'on peut le détacher et en faire un véritable instrument, maniable délibérément. 


    LA MÉCANIQUE QUANTIQUE 

    Préalables

    Au début de ce siècle la théorie de la relativité a réduit - au sens où l'on réduit une fracture - la structure du concept d'espace-temps qui sous-tend les descriptions d'événements physiques de toute nature. Et à partir de 1924 la mécanique quantique a creusé des canaux formels-conceptuels-opérationnels qui permettent aux actes épistémiques de l'homme de s'appliquer directement sur de l'inobservable et d'en extraire des prévisions observables qui se vérifient souvent avec des précisions troublantes. Bien sûr, il s'agit là de révolutions confidentielles qui n'ont véritablement réorganisé que la pensée d'un nombre de gens relativement infime. Mais les philosophes et les épistémologues, aidés par les vulgarisations de quelques physiciens, ont engendré un processus de communication par lequel - à l'état informel et osmotiquement - des vues de la physique moderne ont infusé plus ou moins dans beaucoup d'esprits. Les nouvelles approches qui se développent actuellement ont germé sur ce terrain changé. 


    Je fais maintenant l'affirmation suivante - probablement surprenante - qui me paraît cruciale. 


    La mécanique quantique, comme un scaphandre, PEUT nous faire descendre jusqu'au niveau des actes véritablement premiers de notre conceptualisation du réel. Et, à partir de là, elle peut INDUIRE une compréhension explicite de certains traits fondamentaux de la nouvelle pensée scientifique


    La possibilité de cette descente et remontée est indiquée par les considérations suivantes. 


    Notre manière de concevoir l'"objet", ce qu'on sépare du "reste" afin de pouvoir examiner, raisonner, communiquer, marque toutes nos pensées et actions. Or, quasi unanimement, le mot d'"objet" est encore ressenti par le sens commun comme pointant vers un désigné qui est foncièrement lié à de l'invariance (matérielle, morphique et fonctionnelle) et à ce qu'on pourrait appeler une "objectité" intrinsèque qui préexisterait à tout acte d'observation et de conceptualisation. Tout notre langage, toute la logique et la pensée probabiliste classiques, sont fondés sur ce postulat, plus ou moins implicite. (Un tel postulat incline à réfléchir en termes simplifiés, de déterminations à sens unique, et de prédictibilité illimitée). Il semble clair qu'une telle conception de l'objet n'est pas cohérente avec l'essence des notions modernes d'information et d'auto-organisation, par exemple. Mais avec la mécanique quantique elle se trouve en contradiction directe, radicale, et spécifiable en termes simples (1). J'essayerai de le montrer en ce qui suit. 


    La mécanique quantique étudie les "états de microsystèmes". Ces mots désignent des entités dont nous affirmons l'existence mais qui ne sont pas directement perceptibles par l'homme. Pourtant la théorie quantique les qualifie, et en termes de prévisions qui se vérifient avec des précisions qui souvent dépassent l'imagination. Comment est-ce possible? Comment, tout d'abord, un état inconnu, d'un objet microscopique, peut-il être fixé en tant qu'objet d'étude ? Et si l'on y arrive, comment, exactement, agit-on pour étudier un tel objet ? Quelle sorte de description peut-on en faire ? 


    J'essaierai, en répondant, de mettre en évidence comment s'entrelacent inextricablement des concepts, avec des opérations et des données, et avec les mots et signes d'étiquetage ; comment émergent progressivement des structures de penser-et-dire ; comment des flous ou des glissements d'étiquetage peuvent créer des problèmes illusoires; et finalement, en quoi consiste l'importance épistémologique fondamentale et révolutionnaire du type de description construit. L'objet de l'exposé qui suit est ce processus de constitution d'un tissus cognitif particulièrement difficile à engendrer parce qu'il part de rien


    La stratégie descriptionnelle et l'émergence du formalisme 

    Le processus de description d'un micro-état peut être présenté en trois étapes : 

    - Une étape d'investigation expérimentale. 

    - Une étape d'expression des résultats expérimentaux en termes d'un algorithme mathématique prévisionnel. 

    - Une étape interprétative : le problème ontologique et sa solution minimale dynamique

    - La teneur et l'étendue de la révolution conceptuelle encryptée dans la mécanique quantique pourront être spécifiées ensuite. 


    L'étape d'investigation expérimentale 

     

    Comment fixer un micro-état en tant qu'objet d'étude? En le CRÉANT. Nous imaginons donc des entités non percevables que nous baptisons micro-états. Nous voulons les "connaître". Il faut alors mettre en place des appareils macroscopiques qui soient aptes à développer, à partir d'interactions avec ces objets présupposés, des marques qui, elles, soient percevables par nous. Mais une médiation de ce genre ne suffit pas. En effet comment savoir à quel micro-état assigner telle marque? En l'absence de quelque précaution appropriée, les marques observables que des micro-états produiraient sur un appareil, ne pourrait pas être assignées chacune à un micro-état spécifié. Ces marques ne seraient donc pas des descriptions, elles ne seraient que des données connaissables en tant que telles. Une description, par la définition du concept, concerne un objet spécifié. L'investigation doit donc débuter par une action qui, à partir du niveau macroscopique auquel l'homme est rivé, fixe de quelque façon un micro-état spécifié, quitte à le fabriquer. La phase de description arrive ensuite et elle pose d'autres problèmes.

    On est en général obligé de scinder tout processus de description d'un micro-état, en deux actions cognitives indépendantes, une première action de création de cet état, et une opération subséquente de qualification de l'état créé. 


    Donc tout d'abord, à l'aide d'objets et de manipulations macroscopiques, on accomplit une opération de préparation d'état" et on admet, on pose, que cette opération produit un micro-état "correspondant" qui est précisément l'objet d'étude fixé que présuppose toute tentative de description. Indiquons ce micro-état par la lettre grecque y. L'opération de préparation respective peut être alors indiquée par le symbole Py. Mais soulignons que le symbole y n'est rien de plus qu'un étiquetage, il ne pointe pas vers quelque connaissance. Ce symbole ne fait qu'Ancrer dans du langage le postulat que, dès qu'une opération donnée de préparation a été accomplie, un exemplaire du micro-état correspondant "existe" en un sens purement factuel. Que - factuellement - cet état a été extrait du continuum du réel, qu'il a été individualisé face à ce continuum, qu'il a été doté de certaines spécificités physiques imprimées par l'opération de préparation, et qu'en ce sens il constitue désormais un objet d'étude "spécifié". 


    Comment "étudier" un objet encore entièrement inconnu et qui ne peut être perçu? En le CHANGEANT par une opération qui en tire une qualification percevable. Une description n'exige pas seulement un objet spécifié, elle exige également un ou plusieurs modes spécifiés de qualification. Lorsqu'on qualifie un objet on le qualifie toujours relativement à quelque point de vue, quelque biais de qualification, couleur, forme, poids, etc. Une qualification dans l'absolu n'existe pas. Supposons alors qu'il s'agisse, par exemple, d'une qualification de couleur. Le mot couleur lui-même n'indique pas une qualification bien définie, il indique une "nature commune" à tout un ensemble ou spectre de qualifications, rouge, vert, jaune, etc. ; une sorte de dimension ou récipient sémantique où l'on peut loger toutes ces qualifications qui constituent le spectre. On pourrait alors dire, par exemple, que rouge est une valeur (pas numérique, en ce cas) que la dimension de couleur peut loger, ou qu'elle peut manifester ou prendre, et que la couleur ne peut se manifester que par les valeurs de son spectre. Il en va de même pour ce qu'on appelle forme, poids, position, énergie, bref, pour tout ce qui indique un biais de qualification. Si l'on voulait abréger et préciser le langage écrit, une notation convenable pour une valeur de couleur serait alors Cj où C indique la dimension sémantique générale de couleur et l'indice j indique la manifestation particulière de couleur considérée (pour vert on mettra j=v, pour rouge j=r, etc.); on peut alors indiquer le spectre de la qualification de couleur par la notation {Cj, j=r,v,...}. 


    Comment apprend-on quelle est la couleur d'un objet ? On assure une interaction de "mesure" entre l'objet et notre appareil sensoriel visuel, c'est à dire on le regarde. On peut indiquer cette interaction de mesure par le symbole M(C). L'interaction produit une sensation visuelle et celle-ci, par des apprentissages, est associée à un mot, par exemple rouge, qui exprime le "résultat" de la mesure, en ce cas donc ce que nous avons symbolisé par Cr. Mais un aveugle, comment peut-il procéder? Il peut mettre l'objet dans le champ d'un spectromètre de couleurs connecté à un ordinateur à voix qui annonce en noms de couleurs les résultats de l'analyse spectrale qu'il opère. Ainsi un effet produit par une interaction avec un appareil différent des appareils sensoriels biologiques de l'aveugle, est perçu par un appareil sensoriel biologique dont l'aveugle dispose, par son ouïe. Bref, en tout cas il faut produire une interaction de mesure M(C) dont l'effet soit perceptible, et soit traduisible en termes de la valeur Cj du spectre de la qualification de couleur. 


    Jusqu'à quel point ce schéma qui fonctionne dans notre vie courante peut-il s'appliquer lorsqu'on veut décrire un micro-état y spécifié par une opération de préparation Py? La question est loin d'être triviale. Il s'agit de qualifier un objet qui a été spécifié d'une manière strictement opérationnelle, A-COGNITIVE. L'étiquetage y pointe vers un objet physique encore confiné hors du domaine du connu, entièrement immergé dans la pure factualité. On n'est pas en présence d'un objet comme celui imaginé plus haut qui, en vertu d'une propriété dont on admet que d'ores et déjà elle est réalisée en lui, de façon intrinsèque, indépendamment de toute interaction (la propriété d'émettre des radiations d'une certaine longueur d'onde), est apte à produire le résultat dénommé "rouge" s'il interagit avec nos yeux ou avec un spectromètre. On ne peut pas agir à l'égard d'un micro-état comme l'aveugle qui veut obtenir un renseignement de couleur. En effet l'aveugle sait que l'objet dont il ne peut voir la couleur existe, car il peut le toucher, l'entendre tomber, etc., il en dispose déjà pour le manipuler, et il admet à l'avance que cet objet "possède" de la couleur. C'est sur la base de ces acquis qu'il soumet l'objet tel qu'il est, à une interaction avec un détecteur de couleur, i.e. un appareil qui identifie une qualité préexistante. Tandis qu'en ce qui concerne un micro-état on ne sait à l'avance RIEN, pas même qu'il existe. On pose qu'il existe. Et il s'agit justement de forger une toute première phase de connaissance à son égard, ce qui, chemin faisant, devrait aussi "prouver" son "existence" après coup. On manque donc de toute raison qui nous permette d'admettre qu'un micro-état posséderait une caractéristique intrinsèque quelconque. Le fait que c'est nous qui avons "spécifié" ce micro-état factuellement à l'aide d'une opération de préparation qui, elle, nous est connue, ne nous renseigne nullement sur la façon d'être du micro-état correspondant. 


    Or connaître veut dire être en possession de quelque description. Et décrire veut dire qualifier. Et qualifier veut dire spécifier des "valeurs" de quelque biais de qualification donné. Et lorsqu'il s'agit de qualifications par des interactions physiques, se donner un biais de qualification veut dire ceci et seulement ceci : spécifier un mode opératoire d'interaction et la structure des macro-objets impliqués, c'est à dire spécifier une "opération de mesure" et "l'appareil de mesure" correspondant. Et, bien sûr, il faut dénommer, étiqueter, organiser du langage, car il faut pouvoir communiquer et raisonner. 


    En ces conditions, afin de décrire un micro-état on procède de la façon suivante. On définit opérationnellement un biais (une dimension) de qualification, en spécifiant un mode opératoire d'interaction avec le micro-état à étudier, ainsi que l'appareil impliqué. Celui-ci étant tel que lorsque le mode opératoire d'interaction est appliqué au micro-état il se produit un effet perceptible (marque visible, déclic, etc.). On admet a priori qu'en général le micro-état à étudier, lorsqu'il est soumis au mode opératoire d'interaction, change, d'une façon qu'on ne connaît pas. Mais ce changement inconnu est défini factuellement, à savoir c'est "celui qui correspond au mode opératoire mis en action". Donc l'interaction ne détecte pas une propriété intrinsèque préexistante de l'objet, elle crée une propriété perceptible d'interaction. En même temps on introduit un langage correspondant, en prolongation du schéma qui fonctionne pour nos descriptions de tous les jours. Une dimension de qualification opératoire d'un micro-état y est rebaptisé observable quantique et les manifestations perceptibles d'une observable quantique sont dénommées ses valeurs propres. L'ensemble des valeurs propres possibles d'une observable quantique constitue son spectre. Le mode opératoire d'interaction qui définit l'observable quantique est dénommé (opération de) mesure de l'observable. Selon ce langage "la mesure d'une observable quantique crée une valeur propre perceptible de cette observable". Mais il ne faut pas oublier qu'une observable quantique n'est pas une propriété d'un micro-état, c'est une opération d'interaction d'un micro-état avec un appareil macroscopique, donc la valeur propre perceptible créée qualifie l'interaction. On peut indiquer une observable quantique quelconque par X, et une valeur propre particulière "j" de X, par Xj ; alors le spectre de X est l'ensemble des valeurs propres {Xj, j=1,2,..n...}. On peut indiquer par M(X) l'opération de mesure correspondant à X, et par A(X) l'appareil impliqué. Enfin, on organise un mode de repérage et de distinction mutuelle des effets perceptibles produits par les interactions de mesure. Chaque tel effet effet est étiqueté, selon une règle explicite de correspondance, par une valeur propre Xj, qui devient ainsi la "signification" de cet effet. Pour spécifier une observable quantique particulière on peut remplacer X par une autre majuscule, B, C, etc. 


    Bref : 


    Afin de qualifier un micro-état on définit des dimensions de qualification opératoires qui sont des interactions entre ce micro-état et un appareil macroscopique et qui créent des effets d'interaction perceptibles interprétés selon certaines règles en termes prédéfinis de "valeurs propres d'observables quantiques". 


    On voit que le but de connaître des micro-états oblige à une attitude descriptionnelle radicalement active

    On doit créer aussi bien les objets de description que les qualifications


    Suivons maintenant en détail le déroulement qui conduit à la description d'un micro-état. 


    Supposons que le micro-état y produit par une réalisation de l'opération de préparation Py est soumis à une opération de mesure M(B) correspondant à une observable quantique particulière B. Ceci change l'état de départ y jusqu'à ce qu'il produise l'enregistrement, par l'appareil A(B) mis en jeu, d'un effet perceptible qui "signifie" l'une, disons B4, parmi les valeurs propres de B. Au bout de cette opération : 


    - La manifestation perceptible B4 incorpore une inamovible relativité à l'opération de mesure M(B) qui a permis de l'obtenir. 


    - L'exemplaire individuel d'un micro-état y qui a été soumis à l'opération individuelle de mesure M(B), en général n'existe plus, il est détruit. 


    Imaginons maintenant que l'on refait d'un grand nombre de fois l'opération de préparation Py et que, à chaque fois, sur l'exemplaire respectif d'un micro-état y que l'on a obtenu, on réalise l'opération de mesure M(B). Si l'on trouvait à chaque fois le même résultat B4 que l'on avait trouvé la première fois, on se dirait ceci : "Le micro-état y est tel que, s'il est soumis à l'opération de mesure M(B) il conduit invariablement au résultat B4. Donc la caractérisation de y face à l'opération de mesure M(B) est accomplie, elle consiste dans la valeur propre B4. Il me reste maintenant à examiner y face aux autres opérations de mesure, M(C), M(D), etc. aussi". 


    Mais en fait ce n'est pas ainsi que les choses se passent en général. En général la réitération un très grand nombre de fois de la paire unique d'opérations macroscopiques [Py,M(B)] fait apparaître tout le spectre {Bj, j=1,2,...6,...} de valeurs propres de B : 


    La situation se révèle être statistique

    En ces conditions la valeur propre B4 à elle seule n'est pas caractéristique du micro-état y. D'autant plus que, puisqu'un micro-état y spécifié mais quelconque, comme celui de notre exemple, peut faire apparaître tout le spectre {Bj, j=1,2,...6,...}, il est clair que la valeur propre particulière B4 peut apparaître via l'opération de mesure M(B) à partir d'une infinité de micro-états différents, produits par des opérations de préparation Py différentes. En quoi peut alors consister la caractérisation du micro-état y face à l'opération de mesure M(B)? 

    La réponse n'est pas particulière aux cas examinés en mécanique quantique. Pour l'obtenir on peut penser à une situation statistique quelconque de la vie courante. Pensons par exemple à des échantillons de sable prélevés sur des plages différentes et mis en éprouvettes non étiquetées, une seule éprouvette pour chacune des plages, séparément. Imaginons qu'on veuille caractériser les contenus des éprouvettes les uns par rapport aux autres. Choisissons alors un biais de qualification, par exemple celui de "structure chimique" des grains de sable, et examinons ses "valeurs" (telle ou telle sorte de structure chimique). On peut retrouver dans un très grand nombre d'éprouvettes un grain isolé d'une même structure chimique donnée (tel ou tel composé de silicium, etc.). D'autre part, dans une éprouvette on trouve en général des grains de structures chimiques différentes. Donc en général la structure chimique d'un seul grain ne pourra en effet pas caractériser l'éprouvette. Mais comptons, dans chaque éprouvette, pour chaque sorte de structure chimique, le nombre de grains de cette structure-là, et rapportons le au nombre total des grains dans l'éprouvette. Nous établissons ainsi pour chaque éprouvette l'entière distribution statistique des fréquences relatives d'occurrence des valeurs du spectre de structure chimique. Si le nombre total des grains dans une éprouvette est assez grand, il est très improbable de trouver la même distribution pour deux éprouvettes distinctes. Il n'est pas tout à fait impossible que deux ou plusieurs éprouvettes montrent exactement la même distribution. Mais on sent bien que ceci est beaucoup plus improbable que de trouver un seul grain de même structure dans deux ou plusieurs éprouvettes différentes. On approche donc d'une caractérisation mutuelle des éprouvettes. 

    Pour un micro-état la situation est analogue. Bien entendu, en un certain sens l'exemple des grains de sable est faussant : les sortes de structures chimiques des grains préexistent telles quelles dans les grains, l'acte d'observation simplement les détecte, tandis que les valeurs propres d'une observable quantique sont des effets d'interaction créés au cours de cet acte. Pourtant cet exemple suffit pour indiquer pourquoi un nouveau pas vers une caractérisation d'un micro-état y consiste à établir la distribution statistique des fréquences relatives obtenues, à partir de y, pour l'entier spectre de valeurs propres {Bj, j=1,2,...} d'une observable quantique B. En termes imagés on peut dire que la distribution statistique des fréquences relatives du spectre de valeurs propres {Bj, j=1,2,...} est la forme de l'ombre que le micro-état y jette sur le plan du perceptible selon la "direction" de qualification B. 

    Soulignons tout de suite que la distribution statistique du spectre de valeurs propres {Bj, j=1,2,...} est elle aussi relative à l'opération de mesure M(B) mise un jeu. Cela veut dire ceci. Si le même micro-état y (produit par la même opération de préparation Py) est examiné via des de opérations de mesure M(C) correspondant à une autre observable quantique C, différente de B, on trouve en général une distribution probabiliste différente de celle trouvée pour B. 

    Repensons maintenant aux éprouvettes contenant des grains de sable. Il n'est pas absolument exclu que les grains de deux éprouvettes provenant de deux plages différentes fournissent la même distribution statistique des fréquences relatives des "valeurs" de composition chimique. Alors, afin d'augmenter la probabilité d'avoir véritablement caractérisé mutuellement les éprouvettes, on peut rechercher, pour chaque éprouvette, la distribution des fréquences relatives des "valeurs" de qualification pour deux biais de qualification différents, par exemple la composition chimique et la forme. 

    De même, la caractérisation du micro-état y n'est pas encore achevée lorsqu'on a établi pour cet état la distribution statistique des fréquences relatives des valeurs propres d'une seule observable quantique. Et l'on peut montrer ceci. Afin de caractériser sans ambiguïté un micro-état y il faut établir, à partir de y, les distributions statistiques des valeurs propres pour au moins deux observables quantiques différentes, B et C?B, telles que les opérations de mesure correspondantes M(B) et M(C) soient mutuellement exclusives, c'est à dire, qu'il ne soit pas possible de les réaliser toutes les deux à la fois sur un seul exemplaire de micro-état y. Ces deux distributions constituent en ce cas une pleine caractérisation de y. En termes imagés on peut dire que, afin d'obtenir une caractérisation d'un micro-état, il faut connaître les formes des ombres que y jette sur le plan du perceptible le long d'au moins deux "directions" de qualification faisant un "angle" non nul. 

    L'étape d'investigation expérimentale est alors accomplie. Elle peut se résumer ainsi. 

    Par un très grand nombre de réitérations de deux couples d'opérations macroscopiques [Py,M(B)] et [Py,M(C)] qui mettent tous en jeu une même opération de préparation d'état Py mais deux opérations de mesure M(B) et M(C) mutuellement exclusives, on peut acquérir concernant le micro-état y correspondant à Py une certaine connaissance globale, probabiliste, qui est un invariant observationnel associé à Py et qui, en ce sens, "caractérise" l'effet supposé de Py que nous appelons un micro-état y. 

    L'étape d'expression des résultats expérimentaux, par un algorithme mathématique prévisionnel

    L'investigation expérimentale esquissée plus haut admet une représentation abstraite par un algorithme mathématique prévisionnel. Pour chaque observable quantique la mécanique quantique définit un descripteur mathématique dénommé l'opérateur de cette observable. A l'aide de ces opérateurs il est possible de construire pour toute opération de préparation Py fixée, une fonction mathématique correspondante y(r,t) - fonction d'état ou fonction de probabilités - qui représente l'ensemble de tous les résultats expérimentaux obtenus en utilisant Py (r indique une position dans l'espace physique et t indique le temps). On dit que "y(r,t) représente le micro-état y produit par Py". Une fois que la fonction de probabilité correspondant à Py a été construite, des algorithmes simples impliquant cette fonction et les opérateurs quantiques permettent désormais de calculer des prévisions quantitatives concernant les résultats de toute opération de mesure subséquente accomplie sur le micro-état état y produit par l'opération de préparation Py. Des prévisions seulement probabilistes, globales, pas des prévisions individuelles affirmées chacune avec certitude. Mais - à leur propre niveau probabiliste - ces prévisions introduisent des précisions déconcertantes concernant des effets perceptibles de phénomènes non perçus, supposés seulement ; des précisions qui mettent en jeu des fractions infimes des unités macroscopiques de temps et de longueur ; et pourtant ces prévisions se vérifient souvent avec ces mêmes précisions déconcertantes. Désormais on saura donc à l'avance, par calcul, que, si c'est l'opération Py qui est accomplie et si en outre c'est telle évolution de mesure M(X) qui suit cette préparation, alors telle manifestation observable Xj émergera avec telle probabilité. On le saura pour toute observable quantique X et toute valeur propre Xj. 

    Ainsi le symbole y qui au départ n'était rien de plus qu'un simple étiquetage, subit finalement une transmutation en un outil mathématique y(r,t) de description probabiliste prévisionnelle

    L'opacité qui sépare le supposé niveau microscopique, du niveau de perception et d'action de l'homme, est - en ce sens - levée. A travers elle agit désormais une structure descriptionnelle complexe et cohérente d'opérations, concepts, mots et symbolisations, données expérimentales, et algorithmes calculatoires. Une structure descriptionnelle prévisionnelle et vérifiable. 

    Le domaine d'application du formalisme quantique 

    L'argument usuel selon lequel la mécanique quantique devrait pouvoir s'appliquer "universellement", i.e. aux macrosystèmes aussi, parce que tout système matériel est constitué de microsystèmes, est fallacieux. L'"universalité" du formalisme quantique, on le verra, se trouve ailleurs, pas là. L'exposé qui précède montre clairement à quel point les caractéristiques du mode de description quantique sont induites par les deux circonstances suivantes. En premier lieu, par les contraintes qu'impose une phase originelle des processus de conceptualisation, celle qui part du zéro absolu de connaissance. C'est la situation cognitive qui se réalise dans cette phase, spécifiquement, qui oblige de créer - en général - l'objet étudié, par une définition purement factuelle, indépendante de l'assignation de toute propriété spécifiée ; c'est cette situation cognitive qui oblige ensuite de créer aussi les qualifications que l'on peut observer ; c'est cette situation cognitive qui oblige d'accepter une caractérisation observationnelle probabiliste des micro-états. En outre, en deuxième lieu, le but de qualifier les micro-états dans les termes particulier d'un langage mécaniques (position, quantité de mouvement, moment de la quantité de mouvement, etc.) imprime lui aussi sa marque : Il induit la forme mathématique des opérateurs OX associés aux observables quantiques X (de même que le choix des appareils A(X) et de opérations de mesure M(X)). 

    C'est LA SITUATION COGNITIVE et le but descriptionnel - pas la structure interne de l'objet d'étude - qui délimitent le domaine de pertinence des descriptions quantiques face au domaine de pertinence des descriptions "classiques". Dès que la situation cognitive ou le but descriptionnel change la mécanique quantique - telle quelle - ne s'applique plus. Ici s'achève l'exposé schématique du procédé par lequel la mécanique quantique aboutit à "décrire l'état d'un microsystème". 


    Le problème ontologique 

    epuis sa création et à ce jour le formalisme quantique reste inséparable de ce qu'on peut appeler "le problème ontologique". Celui-ci est lié aux obscurités et oscillations qui marquent la signification de la fonction y(r,t) : S'agit-il vraiment d'une "description d'un micro-état"? Et si la réponse est positive, de quelle sorte de description peut-on parler? Quelle est, au juste, la relation entre la fonction y(r,t) et les micro-états "eux-mêmes "? 


    Revenons aux relativités qui marquent la connaissance globale représentée par une fonction y(r,t). J'ai souligné que les enregistrements observables auxquels se rapporte cette fonction ne peuvent être regardés comme des "propriétés" que le supposé micro-état étiqueté y, tel qu'on l'imagine avoir émergé de l'opération de préparation Py, possédait d'emblée, avant toute évolution de mesure, d'une façon déjà actuelle, réalisée, et réalisée pour lui, intrinsèquement, indépendamment de tout acte d'observation. Concernant l'ontologie des micro-états, leur façon d'être indépendamment de nos actions cognitives sur eux, la mécanique quantique paraît alors n'offrir strictement aucun renseignement. Elle paraît n'avoir forgé aucune sorte de modèle "intrinsèque" de ce qui est indiqué par le symbole y, avoir construit juste des outils de prévisions relatives à l'opération Py et à telle ou telle sorte M(X) d'opération de mesure. 


    En est-il vraiment ainsi ? Les structures de mots-et-concepts sont les conduits de la pensée et elles ont leurs propres lois de cohérence. Il faut respecter ces lois, sinon on égare la pensée. Mais n'est-il vraiment pas possible, en l'occurrence, d'exhiber une structure cohérente de mots-et-concepts qui permette d'affirmer que la mécanique quantique conduit aussi à des descriptions des micro-états ? Ne peut-on vraiment pas exhiber une ontologie cohérente avec le formalisme construit? Pas un modèle détaillé et mathématisé, comme celui de de Broglie-Bohm par exemple, juste une première "explication" ontologique minimale de la description transférée quantique, qui constitue un terrain ferme pour toute élaboration ultérieure plus détaillée ? 


    Certains nient l'existence du problème. Leur argument est le suivant. Il est possible de reformuler les résultats résumés plus haut d'une façon strictement opérationnelle-prévisionnelle-observationnelle. C'est à dire, les termes à signifié inobservable, "micro-état y", préparation d'"état", peuvent être éliminés. On obtient ainsi une sorte de pont fait de purs algorithmes d'opérations physiques et calculs mathématiques qui ne "touchent" plus aucun supposé microscopique : si j'opère d'abord de la façon Y (renotation de Py) et j'opère ensuite de telle façon Z (renotation de M(X)), je sais à l'avance par calcul que j'ai telle probabilité d'observer telle marque sur tel appareil. Je le sais à l'aide de la fonction y(r,t) et cela est tout ce que le micro-état correspondant comporte d'"objectif". L'invariant lié à Py constitué par l'ensemble des lois de probabilité déterminé par y(r,t) décrit complètement l'effet observationnel de Py et cette description-là, dit-on, suffit. On peut donc, disent certains, se débarrasser en fin de parcours de toute trace de pensée hypothétique, comme on se débarrasse des éléments d'un échafaudage quand la bâtisse est achevée. D'autres vont plus loin et décrètent l'interdiction positiviste des interrogations ontologiques parce qu'elles seraient des adultérations philosophiques de la démarche scientifique. 

    Mais je soutiens qu'une telle épuration est à la fois impossible et frustrante. Qu'on y fasse référence verbalement ou pas, de l'ontologie d'appoint a été utilisée tout au long de l'action de construction du formalisme quantique, notamment dans le fait et les modes de préparer et surtout dans les choix d'un nom, d'une représentation mathématique OX, et d'un mode M(X) de "mesurer" pour chaque observable X. En effet, pourquoi précisément le choix de telle association nom-représentation-mathématique-mode-de-mesurer, plutôt qu'une autre? Chaque étape s'est appuyée sur des modèles non déclarés, voilà pourquoi (pour s'en convaincre il suffit de penser au procédé du "temps de vol" pour mesurer l'observable de quantité de mouvement, et aux règles associées pour calculer les valeurs propres de cette observable à partir des données enregistrées). Ce n'est pas le formalisme qui impose les choix de M(X) et A(X), c'est le physicien qui doit les faire, hors de la théorie, réduit à l'usage de ses intuitions et modèles plus ou moins explicites. Et toutes ces adductions ontologiques se sont incorporées à la forme et à l'efficacité des algorithmes obtenus. Un certain contenu ontologique est là, dissous et assimilé dans les algorithmes même, inséparable, CONFIRMÉ. Alors quel intérêt y a-t-il à escamoter ce contenu ontologique dans les façons finales de dire, en coupant ainsi les ponts avec nos propres modes d'agir mentaux? Le problème n'est pas de masquer l'existence d'un contenu inexpugnable et d'éviter l'effort d'identification. Le problème est d'expliciter ce contenu et de bien le comprendre. Lorsqu'une théorie est efficace on souhaite avoir une explication de son efficacité, sinon cette théorie produit l'illusion déplacée d'un miracle. Jamais aucun argument pragmatique, ni aucun décret, n'empêcheront les interrogations ontologiques de travailler jusqu'à ce que l'entendement ait atteint un de ces fonds de vallées des reliefs intérieurs où il se sent en situation stable parce qu'il considère qu'il a compris, qu'il a forgé un bloc de cohérence. 


    Il faut donc affronter le problème ontologique. Reconsidérons l'étape d'investigation expérimentale. Les manifestations d'une paire unique d'opérations [Py,M(X)] se révèlent statistiques, et ceci oblige, afin de caractériser un micro-état y, de réaliser un très grand nombre d'enregistrements de valeurs propres, tous à partir de y. Or en général l'état représenté par y n'existe plus après l'enregistrement d'une marque traduisible en termes de telle ou telle valeur propre Xj. Donc chaque séquence [(préparation)-(évolution de mesure)-(enregistrement)] brise le processus global de constitution de l'information statistique. L'état y doit être recréé pour chaque nouvel enregistrement. En ces conditions, se dit-on, comment peut-on être certain que l'opération de préparation Py, à chaque fois qu'elle est réalisée, recrée factuellement le même micro-état y, "identiquement" ? 

    Cette question d'identité est cruciale. Mais elle est aussi insidieuse car elle introduit un certain glissement. Elle est cruciale pour la raison suivante. En absence d'une hypothèse d'identité de tous les micro-états y produits par les réitérations de l'opération de préparation Py - c'est à dire si l'on admettait que Py produit tantôt l'un de ces hypothétiques micro-états, tantôt un autre - on ne pourrait pas parler et raisonner en termes de "le (un) micro-état y spécifié correspondant à l'opération de préparation Py". Il n'y aurait alors aucun moyen de justifier un concept de "description d'un micro-état", car le concept de description exige la spécification de l'objet à qualifier. Nous serions renvoyés à la situation de départ, quand on se confrontait au problème de spécifier un objet d'étude, et cette fois notre pensée y resterait immobilisée. Nous resterions sans instrument mental pour faire une science du microphysique. L'alternative est donc la suivante. Ou bien on abandonne tout simplement le but de décrire des micro- états, ou bien on postule que toutes les réitérations d'une opération de préparation Py, telle que celle-ci se réalise par la reconstitution du même ensemble de paramètres macroscopiques, reproduisent "identiquement" la "même" entité "y". Cette alternative radicale est incontournable. 

    La mécanique quantique, puisqu'elle existe, a suivi la seule voie possible pour amorcer une action descriptionnelle : plus ou moins implicitement elle a admis un postulat d'identité. 


    D'autre part la question d'identité enlise dans des problèmes qui paraissent insolubles. On se demande : Pourquoi un micro-état, toujours identiquement reproduit et soumis à chaque fois à l'évolution de mesure M(X) de l'une et même observable quantique X, conduirait-il en général à des valeurs propres Xj différentes, au lieu d'engendrer toujours la même valeur propre? Ne serait ce pas à cause du fait qu'un état de microsystème est une entité dont la "nature" est "essentiellement aléatoire"? Mais aussitôt on réagit : Quoi, exactement, peut vouloir dire une "nature essentiellement aléatoire" d'un micro-état? Ne s'agit-il pas, en fait, seulement de la quasi-certaine incapacité opératoire, de notre part, de reproduire, à partir de contraintes seulement macroscopiques, exactement le même état microscopique ? Car la notion qu'un micro-état serait, de par lui-même, "essentiellement" aléatoire (ou alors peut-être intrinsèquement aléatoire?), paraît vraiment très obscure. D'autre part, s'il s'agit bien de l'incapacité opératoire de reproduire exactement le même état microscopique, qu'est-ce qui me donne le droit de retourner une telle incapacité, en affirmation ontologique, d'un caractère "essentiellement aléatoire"? Et que signifie alors le postulat d'identité ? Qu'est-ce qui est identique? Et "exactement le même micro-état" de quel point de vue? Dans l'absolu? N'est-ce pas là un non-sens? Etc., etc., etc. 


    Et voilà la genèse du débat incessant et confus sur l'indéterminisme "prouvé" par la mécanique quantique. On contemple là, à l'oeuvre, étalées, les forces chaotiques qui naissent sous un langage mal dominé, et comment elles peuvent étourdir la pensée et l'enfoncer dans une boue de sens mélangés. 


    Une modélisation minimale 

    Mais pourquoi cet accident? Et quel serait, en ce cas, un langage "dominé"? 

    Les quelques considérations qui suivent indiquent une solution minimale au problème ontologique, qui - de par sa minimalité - ne s'engage en aucune dispute d'interprétation. Elle ne spécifie que le début de la voie du traitement du problème ontologique, nécessaire et suffisant pour ne pas arrêter la recherche amorcée avant d'être vraiment certain qu'elle est impossible. Il me paraît essentiel de discerner explicitement cette solution minimale. Car si elle n'avait pas existé le formalisme quantique n'aurait pas eu la résistance qu'il a : il y aurait eu du creux sous la croûte d'algorithmes et la théorie aurait craqué comme une noix vide. Cependant que l'existence et la structure de cette solution me semblent constituer l'innovation majeure comportée par la stratégie cognitive de la mécanique quantique, et aussi la source d'une révolution de l'entière épistémologie. 


    Le postulat d'identité n'est pas un acte de description, c'est un acte MÉTHODOLOGIQUE qui débloque le démarche descriptionnelle

    On a commencé par vouloir caractériser de manière observationnelle des hypothétiques micro-états. Initialement on imaginait (a) une relation individuelle entre une opération de préparation Py et le micro-état y correspondant (chaque réitération de Py reconstitue identiquement le micro-état y) et (b) une caractérisation observationnelle du micro-état y, individuelle elle aussi (une correspondance biunivoque et réciproque entre [Py,M(X)] et une valeur propre Xj de X). Mais le fait de la fluctuation des valeurs propres individuelles Xj lors des réitérations d'une paire [Py,M(X)] fixée exclut la possibilité d'une caractérisation observationnelle individuelle de l'objet "y". Alors on abandonne le but impossible d'une caractérisation observationnelle individuelle et on déplace sur le niveau probabiliste la recherche d'une caractérisation observationnelle. D'autre part - puisqu'il faut associer un objet défini à ce qui sera (éventuellement) "décrit" - on postule "tentativement" que, en dépit des fluctuations des valeurs propres Xj produites par une paire fixée [Py,M(X)], il existe un objet "y" qui se reproduit identiquement lors de toute réitération de Py, mais sans RIEN préciser concernant cet objet. On libère entièrement le contenu ontologique du désigné de l'étiquette "y", on le met en blanc. Le postulat d'identité ainsi introduit n'exige que la forme vide d'un invariant ontologique lié à Py, remettant à plus tard l'obligation de spécifier le sens qu'il sera logiquement consistant de loger dans cette forme. On décide, en somme, d'assigner a posteriori la dénomination d'"état y correspondant à Py", à CE qui pourra être regardé comme un invariant ontologique lié à l'opération de préparation Py, tout en misant qu'un tel invariant ontologique pourra être trouvé. Si toutefois il s'avérait impossible de trouver l'invariant ontologique recherché, la description d'entités micro physique amorcée devrait être reconnue comme impossible à achever, faute d'un objet de description spécifiable, et abandonnée, car une description purement opérationnelle-observationnelle, sans aucun modèle ontologique associé, tout simplement ne touche plus du micro physique (ceci mesure l'importance d'un modèle ontologique, que les positivistes croient pouvoir escamoter). 


    Le postulat d'identité est un moule ontologique vide imposé a priori de manière exploratoire, par un acte méthodologique. Il agit comme un feu vert conditionnel


    La mécanique quantique a réagi implicitement au problème d'identité par une stratégie dynamique et réflexive de confiance a priori et confirmation ou infirmation a posteriori

    Puisqu'elle est là et travaille la mécanique quantique a dû gagner son pari et incorporer un certain invariant ontologique minimal lié à une opération de préparation donnée, étiquetable comme l'"état y correspondant à Py". Quel est cet invariant ? On peut l'exprimer convenablement à l'aide du mode suivant de dire-et-penser. 

    L'enregistrement d'une valeur propre de l'observable quantique X, disons X4, est une manifestation d'une potentialité de changement que l'état "y" possédait intrinsèquement dès sa création par l'opération Py, mais relativement au processus de mesure M(X) possible ultérieurement. Et l'accomplissement ultérieur effectif d'un tel processus de mesure peut, avec telle probabilité, actualiser cette potentialité préexistante. Ce qui n'est qu'une façon d'intégrer délibérément dans le signifié du signe y, une "cause" de l'enregistrement X4, postulée rétroactivement, relativisée à M(X), et hypostasiée. Pour une autre valeur propre de l'observable X, disons X13, on parlera d'une autre potentialité relative du même micro-état y produit par l'opération Py et d'une autre probabilité correspondante d'actualisation. Et quand il s'agira des valeurs propres d'autres observables X'?X on dira qu'il se manifeste une autre "classe" de potentialités relatives et de probabilités d'actualisation du même micro-état y. 


    Bref, un objet d'étude au sens de la mécanique quantique - le désigné du symbole "y" correspondant à l'opération de préparation Py et l'objet de la description observationnelle tirée de la fonction y(r,t) - peut être pensé comme un réservoir d'un ensemble de classes différentes de potentialités de changements générateurs d'observation de valeurs propres Xj d'observables quantiques X, chaque classe étant relative au type M(X) d'opération de mesure qui doit être mis en oeuvre pour actualiser ses éléments par des interactions de transfert sur l'enregistreur de l'appareil A(X) comporté par M(X). 


    Ce réservoir de POTENTIALITÉS RELATIVES D'ACTUALISATION et l'ensemble de leurs probabilités - chacune posée égale à la probabilité quantique observationnelle correspondante - constituent l'invariant ontologique associé à Py


    Cet invariant peut être regardé comme le modèle ontologique minimal "conjugué" à l'invariant observationnel lié à Py via la fonction y(r,t). 


    On se munit ainsi d'une organisation de concepts-et-langage qui rend pleinement pertinente l'assertion que la fonction y(r,t) est - au sens propre du terme - une description transférée de propriétés d'un micro-objet associable à l'opération de préparation Py: les propriétés potentielles et relatives qui rendent ce micro-objet accessible à notre connaissance. Ceci est juste une figuration ontologique causalisante, rétroactive et minimale. Rien de plus que l'assertion après coup de l'existence dans "y" de potentialités relatives conçues ad hoc. L'assertion de l'existence toute nue, épurée de toute spécification d'un mode d'existence, de toute modélisation plus détaillée. La manière d'être des propriétés potentielles dont on affirme l'existence reste toujours en blanc. 


    Il n'est affirmé ni que l'invariant ontologique constitué par l'ensemble de classes de potentialités relatives lié à Py se réalise tout entier lors de chaque réitération individuelle de Py, ni que, au contraire, il ne se constitue que progressivement, à un niveau probabiliste de conceptualisation, à la manière de l'invariant observationnel lié à Py via la fonction y(r,t). 

    Ceux qui choisiront la première possibilité placeront - par postulat - au niveau individuel cet invariant ontologique associé à Py. Pour eux la fonction y(r,t) devra faire toboggan entre, d'une part le niveau de conceptualisation - probabiliste - de la phase de conceptualisation observationnelle, transférée, qui est la phase PREMIÈRE, et d'autre part, le niveau de conceptualisation - individuel - de la phase de conceptualisation ontologique, intrinsèque, qui est la phase SECONDE. La fonction y(r,t) continuera donc de jouer pour eux un rôle oblique, ambigu, à la fois modèle-ontologique-mais-pas-tout-à-fait et outil pour le calcul de probabilités prévisionnelles d'observation. Afin de compenser de quelque façon la non homogénéité de niveau entre le bout ontologique qu'il posent être individuel et le bout observationnel qui est probabiliste, ils devront continuer de se débattre dans les filets du "probabilisme individuel essentiel". 


    Ceux qui choisiront la deuxième possibilité placeront - par postulat - au niveau probabiliste l'invariant ontologique associé à Py. Pour eux la manière d'être individuelle d'un micro-état, que l'on imaginait au départ sous le symbole "y", échappera ENTIÈREMENT au désigné final de "y". Le bout ontologique et le bout observationnel de la description quantique se trouvant d'une manière homogène au niveau de conceptualisation probabiliste, la mécanique quantique actuelle leur apparaîtra comme une théorie probabiliste des micro-états où la fonction y(r,t) joue le rôle canonique d'une fonction de probabilité. Le problème d'une nature "essentiellement" aléatoire d'un micro-état, avec toutes ses conséquences protéiques, partira en fumée. Par contre, ceux qui placeront au niveau probabiliste l'invariant ontologique associé à Py devront admettre le problème - extérieur à la mécanique quantique - d'une modélisation future individuelle des micro-états, à l'intérieur d'une métathéorie qui soit enfin vraiment satisfaisante. Toutefois, en ce stade atteint par la seule spécification d'un invariant ontologique minimal lié à Py, où la formalisation ultérieure n'est pas encore tentée, ils pourront d'ores et déjà parler-et-penser concernant des micro-phénomènes, d'une façon intelligible et "simple", "normale", c'est à dire semblable à notre façon ancestrale de parler-et-penser concernant des macro-phénomènes. 


    Mais ce confort est loin d'épuiser les conséquences du modèle ontologique minimal. J'indiquerai dans le paragraphe qui suit en quel sens précisément ce modèle contient le germe de la révolution épistémique encryptée dans la mécanique quantique. Et ici j'ajoute ceci. L'analyse qui précède est une goutte dans laquelle se reflète une essence de la pensée. L'esprit de l'homme bâtit ainsi ses plus efficaces matrices de pensée-et-langage : d'une manière "causalisante" a posteriori et ad hoc. Ce n'est pas un opportunisme intellectuel, c'est une méthode d'insertion des produits de conceptualisation, dans les réseaux du raisonnement déductif. Là ils sont véhiculés le long de trajets lissés, "géodésiques", et maximalement compréhensibles pour l'esprit de l'homme tel qu'il se trouve que cet esprit-là s'est constitué au cours de l'évolution biologique. Les modèles ontologiques n'"existent" pas hors de nous, dans l'espace, comme une étoile, et ils ne se "découvrent" pas. C'est nous qui les fabriquons. Et notre façon de fabriquer à partir de nos perceptions, une ontologie qui nous plaise, qui nous apaise, qui nous mette dans une situation d'équilibre psycho-intellectuel, est causalisante. Ce trait correspond probablement à certaines optimalités d'adaptation (peut-être des maximisations de la rapidité et l'adéquation des réponses au milieu) en l'absence desquelles l'espèce aurait périclité. Ce qui suggère d'une manière irrépressible une certaine harmonie avec l'inconnaissable réel-tel-qu'il-est. 

    Ceci épuise ce que je voulais dire ici concernant la stratégie descriptionnelle de la mécanique quantique. On peut clore l'esquisse exposée par une belle formulation de Michel Bitbol : "...l'explication.....d'un phénomène consiste


    votre commentaire