• Mioara Mugur-Schächter *

    Le texte qui suit est le manuscrit d'un article envoyé à la revue Le Débat. Il y a été publié dans le N° 94, Mars-Avril, 1997, avec des modifications insignifiantes consistant surtout en une fragmentation en sous-chapitres portant des titres destinés à faciliter la lecture. 

    L'objectif de ce texte était de communiquer à un public plus large un constat et un but qui ont pu fédérer quelques chercheurs de compétences différentes pour constituer ensemble un Centre pour la Synthèse d'une Épistémologie Formalisée (CeSEF) qui travaille depuis 1994. Les premiers résultats de ces travaux pourront être trouvés dans un premier livre collectif intitulé Proposals in Epistemology : Quantum Mechanics, Cognition and Action, Kluwer Academic Press, Mioara Mugur-Schächter and Alwyn van der Merwe, eds., March 2002. 

    LES MODES DE CONCEPTUALISATION DU REEL CHANGENT

    Sur les frontières de la pensée on peut discerner des formes nouvelles. Certaines se sont installées depuis des dizaines d'années, d'autres sont en train d'émerger. On les étiquette par des termes comme "décidabilité", "auto-organisation", "systémique", "information", "chaos", "fractal", "complexité". Globalement, ces formes nouvelles manifestent certains changements dans les bases de nos conceptions. 

    Chez les mathématiciens s'est établie la notion que les possibilités de principe des actions mathématiques ont des limites (la cohérence formelle d'une assertion mathématique, avec les données explicites qui définissent le système formel où cette assertion est formulée, n'est pas toujours décidable à l'intérieur de ce système, etc.). 

    Les frontières entre le système étudié et le reste, son environnement, s'esquivent. Les biologistes attirent l'attention sur l'absence, dans une entité vivante, de tout support matériel invariant, et même de toute stabilité seulement fonctionnelle qui soit entièrement préétablie, "programmée", indépendamment du milieu. Ils parlent d'"organisation autopoïetique" et de "clôture organisationnelle" par quoi un système vivant reconstitue constamment sa matière, ses formes et ses fonctions, par des processus où la rétroaction sur le système, des effets de ses interactions avec le "milieu", joue un rôle aussi fondamental que les caractères propres du système. Ils parlent également d'ensembles de systèmes qui interagissent entre eux et avec le milieu commun, constituant ainsi des "réseaux auto-organisants" où les formes, les caractères et les fonctions - cette fois aussi de groupe tout autant qu'individuels - dépendent de façon cruciale des interactions.

    Dès qu'il s'agit du vivant l'artificiel dans la distinction entre cause et but devient frappant. La pensée "systémique" met en évidence l'importance décisive, pour tout être ainsi que pour ces méta-êtres que sont les organisations sociales, des modélisations pragmatiques, des "conceptions" induites par des buts subjectifs, qu'on place dans le futur mais qui façonnent les actions présentes. Ces buts, liés à des croyances et à des anticipations, rétroagissent sur l'action au fur et à mesure que celle-ci en rapproche ou en éloigne, cependant que l'action, en se développant, modifie les buts. Il en résulte une dynamique complexe dépendante de sa propre histoire et du contexte et qui requiert une approche cognitiviste et évolutionniste. 

    La théorie de (la communication de) l'information introduit, pour la description de la circulation des messages, une représentation probabiliste d'un type nouveau selon laquelle tout message reçu dépend inévitablement de la nature du "canal" de transmission des messages, pas seulement du message envoyé : selon l'approche informationnelle ce qu'on observe est posé explicitement comme étant foncièrement relatif à la modalité par laquelle on arrive à percevoir. La possibilité d'une absolutisation "objectivante" (reconstruction du message envoyé) est étudiée en second lieu et les conditions de sa réalisation sont établies indépendamment, et en fonction des modalités de l'observation. 

    Les investigateurs du "chaos" dissolvent une confusion millénaire en élaborant d'une part des exemples mathématiques abstraits et d'autre part des simulations, qui démontrent que le déterminisme n'entraîne pas la prévisibilité : côte à côte, les modélisations déterministes et la pleine reconnaissance du caractère marqué d'aléatoire des faits tels que nous les percevons directement, accèdent ensemble à l'indépendance. La croyance factice qu'il faudrait choisir entre un postulat de déterminisme ou un postulat de hasard, s'évapore, et tout un monde de questions nouvelles concernant les relations entre les bases de ces deux postulats, devient désormais visible. 

    Les philosophes de la "complexité" intègrent des paysages conceptuels où des boucles incessantes d'actions et rétroactions engendrent des hiérarchies inextricablement imbriquées de complexifications de matière, d'individus, de consciences, d'artefacts, d'organisations sociales, de savoirs. 

    On pourrait prolonger l'énumération. Partout les contours de séparations qu'on posait comme évidentes et absolues, se couvrent de tremblements et fissures. Mais déjà, par les exemples mentionnés, on sent qu'il s'agit là de changements qui, bien que distincts en surface, sont liés. On sent aussi que les implications de ces changements descendent très bas, qu'elles touchent et modifient les pentes de la toute première strate de notre conceptualisation, celles où s'est forgée la structure générale de notre façon actuelle de penser et de parler. Mais la nature de modifications de cette sorte, précisément parce qu'elles changent la manière établie de penser et parler, est très difficile à saisir en faisant travailler la manière établie de penser et parler. L'existence de telles modifications devient donc manifeste longtemps avant qu'on puisse discerner en quoi elles consistent. 


    QUESTION 

    Cette existence, en tant que telle, avant d'avoir essayé d'en expliciter le contenu, pose problème. La conceptualisation, par l'homme, de ce qu'il appelle le "réel", est elle-même un phénomène "réel". N'est-elle alors pas soumise à des lois, à des invariances ? En un certain sens, il doit en être ainsi, mais en quel sens, exactement ? 

    Comment infiltrer nos regards assez profondément et comment faire pour être sûrs de saisir et de fixer dans l'exprimé les contenus de la transmutation qui est en cours ? Sans avoir à attendre des dizaines d'années que le processus s'accomplisse par le cumul aléatoire des savoirs et de leurs interactions ? Comment élaborer une représentation intégrée ? 

    Il serait d'une cruciale utilité qu'on réussisse. Seul ce qui est connu d'une façon explicite et globalisée acquiert un contour et devient perceptible de l'"extérieur", et ce n'est qu'alors qu'on peut le détacher et en faire un véritable instrument, maniable délibérément. 


    LA MÉCANIQUE QUANTIQUE 

    Préalables

    Au début de ce siècle la théorie de la relativité a réduit - au sens où l'on réduit une fracture - la structure du concept d'espace-temps qui sous-tend les descriptions d'événements physiques de toute nature. Et à partir de 1924 la mécanique quantique a creusé des canaux formels-conceptuels-opérationnels qui permettent aux actes épistémiques de l'homme de s'appliquer directement sur de l'inobservable et d'en extraire des prévisions observables qui se vérifient souvent avec des précisions troublantes. Bien sûr, il s'agit là de révolutions confidentielles qui n'ont véritablement réorganisé que la pensée d'un nombre de gens relativement infime. Mais les philosophes et les épistémologues, aidés par les vulgarisations de quelques physiciens, ont engendré un processus de communication par lequel - à l'état informel et osmotiquement - des vues de la physique moderne ont infusé plus ou moins dans beaucoup d'esprits. Les nouvelles approches qui se développent actuellement ont germé sur ce terrain changé. 


    Je fais maintenant l'affirmation suivante - probablement surprenante - qui me paraît cruciale. 


    La mécanique quantique, comme un scaphandre, PEUT nous faire descendre jusqu'au niveau des actes véritablement premiers de notre conceptualisation du réel. Et, à partir de là, elle peut INDUIRE une compréhension explicite de certains traits fondamentaux de la nouvelle pensée scientifique


    La possibilité de cette descente et remontée est indiquée par les considérations suivantes. 


    Notre manière de concevoir l'"objet", ce qu'on sépare du "reste" afin de pouvoir examiner, raisonner, communiquer, marque toutes nos pensées et actions. Or, quasi unanimement, le mot d'"objet" est encore ressenti par le sens commun comme pointant vers un désigné qui est foncièrement lié à de l'invariance (matérielle, morphique et fonctionnelle) et à ce qu'on pourrait appeler une "objectité" intrinsèque qui préexisterait à tout acte d'observation et de conceptualisation. Tout notre langage, toute la logique et la pensée probabiliste classiques, sont fondés sur ce postulat, plus ou moins implicite. (Un tel postulat incline à réfléchir en termes simplifiés, de déterminations à sens unique, et de prédictibilité illimitée). Il semble clair qu'une telle conception de l'objet n'est pas cohérente avec l'essence des notions modernes d'information et d'auto-organisation, par exemple. Mais avec la mécanique quantique elle se trouve en contradiction directe, radicale, et spécifiable en termes simples (1). J'essayerai de le montrer en ce qui suit. 


    La mécanique quantique étudie les "états de microsystèmes". Ces mots désignent des entités dont nous affirmons l'existence mais qui ne sont pas directement perceptibles par l'homme. Pourtant la théorie quantique les qualifie, et en termes de prévisions qui se vérifient avec des précisions qui souvent dépassent l'imagination. Comment est-ce possible? Comment, tout d'abord, un état inconnu, d'un objet microscopique, peut-il être fixé en tant qu'objet d'étude ? Et si l'on y arrive, comment, exactement, agit-on pour étudier un tel objet ? Quelle sorte de description peut-on en faire ? 


    J'essaierai, en répondant, de mettre en évidence comment s'entrelacent inextricablement des concepts, avec des opérations et des données, et avec les mots et signes d'étiquetage ; comment émergent progressivement des structures de penser-et-dire ; comment des flous ou des glissements d'étiquetage peuvent créer des problèmes illusoires; et finalement, en quoi consiste l'importance épistémologique fondamentale et révolutionnaire du type de description construit. L'objet de l'exposé qui suit est ce processus de constitution d'un tissus cognitif particulièrement difficile à engendrer parce qu'il part de rien


    La stratégie descriptionnelle et l'émergence du formalisme 

    Le processus de description d'un micro-état peut être présenté en trois étapes : 

    - Une étape d'investigation expérimentale. 

    - Une étape d'expression des résultats expérimentaux en termes d'un algorithme mathématique prévisionnel. 

    - Une étape interprétative : le problème ontologique et sa solution minimale dynamique

    - La teneur et l'étendue de la révolution conceptuelle encryptée dans la mécanique quantique pourront être spécifiées ensuite. 


    L'étape d'investigation expérimentale 

     

    Comment fixer un micro-état en tant qu'objet d'étude? En le CRÉANT. Nous imaginons donc des entités non percevables que nous baptisons micro-états. Nous voulons les "connaître". Il faut alors mettre en place des appareils macroscopiques qui soient aptes à développer, à partir d'interactions avec ces objets présupposés, des marques qui, elles, soient percevables par nous. Mais une médiation de ce genre ne suffit pas. En effet comment savoir à quel micro-état assigner telle marque? En l'absence de quelque précaution appropriée, les marques observables que des micro-états produiraient sur un appareil, ne pourrait pas être assignées chacune à un micro-état spécifié. Ces marques ne seraient donc pas des descriptions, elles ne seraient que des données connaissables en tant que telles. Une description, par la définition du concept, concerne un objet spécifié. L'investigation doit donc débuter par une action qui, à partir du niveau macroscopique auquel l'homme est rivé, fixe de quelque façon un micro-état spécifié, quitte à le fabriquer. La phase de description arrive ensuite et elle pose d'autres problèmes.

    On est en général obligé de scinder tout processus de description d'un micro-état, en deux actions cognitives indépendantes, une première action de création de cet état, et une opération subséquente de qualification de l'état créé. 


    Donc tout d'abord, à l'aide d'objets et de manipulations macroscopiques, on accomplit une opération de préparation d'état" et on admet, on pose, que cette opération produit un micro-état "correspondant" qui est précisément l'objet d'étude fixé que présuppose toute tentative de description. Indiquons ce micro-état par la lettre grecque y. L'opération de préparation respective peut être alors indiquée par le symbole Py. Mais soulignons que le symbole y n'est rien de plus qu'un étiquetage, il ne pointe pas vers quelque connaissance. Ce symbole ne fait qu'Ancrer dans du langage le postulat que, dès qu'une opération donnée de préparation a été accomplie, un exemplaire du micro-état correspondant "existe" en un sens purement factuel. Que - factuellement - cet état a été extrait du continuum du réel, qu'il a été individualisé face à ce continuum, qu'il a été doté de certaines spécificités physiques imprimées par l'opération de préparation, et qu'en ce sens il constitue désormais un objet d'étude "spécifié". 


    Comment "étudier" un objet encore entièrement inconnu et qui ne peut être perçu? En le CHANGEANT par une opération qui en tire une qualification percevable. Une description n'exige pas seulement un objet spécifié, elle exige également un ou plusieurs modes spécifiés de qualification. Lorsqu'on qualifie un objet on le qualifie toujours relativement à quelque point de vue, quelque biais de qualification, couleur, forme, poids, etc. Une qualification dans l'absolu n'existe pas. Supposons alors qu'il s'agisse, par exemple, d'une qualification de couleur. Le mot couleur lui-même n'indique pas une qualification bien définie, il indique une "nature commune" à tout un ensemble ou spectre de qualifications, rouge, vert, jaune, etc. ; une sorte de dimension ou récipient sémantique où l'on peut loger toutes ces qualifications qui constituent le spectre. On pourrait alors dire, par exemple, que rouge est une valeur (pas numérique, en ce cas) que la dimension de couleur peut loger, ou qu'elle peut manifester ou prendre, et que la couleur ne peut se manifester que par les valeurs de son spectre. Il en va de même pour ce qu'on appelle forme, poids, position, énergie, bref, pour tout ce qui indique un biais de qualification. Si l'on voulait abréger et préciser le langage écrit, une notation convenable pour une valeur de couleur serait alors Cj où C indique la dimension sémantique générale de couleur et l'indice j indique la manifestation particulière de couleur considérée (pour vert on mettra j=v, pour rouge j=r, etc.); on peut alors indiquer le spectre de la qualification de couleur par la notation {Cj, j=r,v,...}. 


    Comment apprend-on quelle est la couleur d'un objet ? On assure une interaction de "mesure" entre l'objet et notre appareil sensoriel visuel, c'est à dire on le regarde. On peut indiquer cette interaction de mesure par le symbole M(C). L'interaction produit une sensation visuelle et celle-ci, par des apprentissages, est associée à un mot, par exemple rouge, qui exprime le "résultat" de la mesure, en ce cas donc ce que nous avons symbolisé par Cr. Mais un aveugle, comment peut-il procéder? Il peut mettre l'objet dans le champ d'un spectromètre de couleurs connecté à un ordinateur à voix qui annonce en noms de couleurs les résultats de l'analyse spectrale qu'il opère. Ainsi un effet produit par une interaction avec un appareil différent des appareils sensoriels biologiques de l'aveugle, est perçu par un appareil sensoriel biologique dont l'aveugle dispose, par son ouïe. Bref, en tout cas il faut produire une interaction de mesure M(C) dont l'effet soit perceptible, et soit traduisible en termes de la valeur Cj du spectre de la qualification de couleur. 


    Jusqu'à quel point ce schéma qui fonctionne dans notre vie courante peut-il s'appliquer lorsqu'on veut décrire un micro-état y spécifié par une opération de préparation Py? La question est loin d'être triviale. Il s'agit de qualifier un objet qui a été spécifié d'une manière strictement opérationnelle, A-COGNITIVE. L'étiquetage y pointe vers un objet physique encore confiné hors du domaine du connu, entièrement immergé dans la pure factualité. On n'est pas en présence d'un objet comme celui imaginé plus haut qui, en vertu d'une propriété dont on admet que d'ores et déjà elle est réalisée en lui, de façon intrinsèque, indépendamment de toute interaction (la propriété d'émettre des radiations d'une certaine longueur d'onde), est apte à produire le résultat dénommé "rouge" s'il interagit avec nos yeux ou avec un spectromètre. On ne peut pas agir à l'égard d'un micro-état comme l'aveugle qui veut obtenir un renseignement de couleur. En effet l'aveugle sait que l'objet dont il ne peut voir la couleur existe, car il peut le toucher, l'entendre tomber, etc., il en dispose déjà pour le manipuler, et il admet à l'avance que cet objet "possède" de la couleur. C'est sur la base de ces acquis qu'il soumet l'objet tel qu'il est, à une interaction avec un détecteur de couleur, i.e. un appareil qui identifie une qualité préexistante. Tandis qu'en ce qui concerne un micro-état on ne sait à l'avance RIEN, pas même qu'il existe. On pose qu'il existe. Et il s'agit justement de forger une toute première phase de connaissance à son égard, ce qui, chemin faisant, devrait aussi "prouver" son "existence" après coup. On manque donc de toute raison qui nous permette d'admettre qu'un micro-état posséderait une caractéristique intrinsèque quelconque. Le fait que c'est nous qui avons "spécifié" ce micro-état factuellement à l'aide d'une opération de préparation qui, elle, nous est connue, ne nous renseigne nullement sur la façon d'être du micro-état correspondant. 


    Or connaître veut dire être en possession de quelque description. Et décrire veut dire qualifier. Et qualifier veut dire spécifier des "valeurs" de quelque biais de qualification donné. Et lorsqu'il s'agit de qualifications par des interactions physiques, se donner un biais de qualification veut dire ceci et seulement ceci : spécifier un mode opératoire d'interaction et la structure des macro-objets impliqués, c'est à dire spécifier une "opération de mesure" et "l'appareil de mesure" correspondant. Et, bien sûr, il faut dénommer, étiqueter, organiser du langage, car il faut pouvoir communiquer et raisonner. 


    En ces conditions, afin de décrire un micro-état on procède de la façon suivante. On définit opérationnellement un biais (une dimension) de qualification, en spécifiant un mode opératoire d'interaction avec le micro-état à étudier, ainsi que l'appareil impliqué. Celui-ci étant tel que lorsque le mode opératoire d'interaction est appliqué au micro-état il se produit un effet perceptible (marque visible, déclic, etc.). On admet a priori qu'en général le micro-état à étudier, lorsqu'il est soumis au mode opératoire d'interaction, change, d'une façon qu'on ne connaît pas. Mais ce changement inconnu est défini factuellement, à savoir c'est "celui qui correspond au mode opératoire mis en action". Donc l'interaction ne détecte pas une propriété intrinsèque préexistante de l'objet, elle crée une propriété perceptible d'interaction. En même temps on introduit un langage correspondant, en prolongation du schéma qui fonctionne pour nos descriptions de tous les jours. Une dimension de qualification opératoire d'un micro-état y est rebaptisé observable quantique et les manifestations perceptibles d'une observable quantique sont dénommées ses valeurs propres. L'ensemble des valeurs propres possibles d'une observable quantique constitue son spectre. Le mode opératoire d'interaction qui définit l'observable quantique est dénommé (opération de) mesure de l'observable. Selon ce langage "la mesure d'une observable quantique crée une valeur propre perceptible de cette observable". Mais il ne faut pas oublier qu'une observable quantique n'est pas une propriété d'un micro-état, c'est une opération d'interaction d'un micro-état avec un appareil macroscopique, donc la valeur propre perceptible créée qualifie l'interaction. On peut indiquer une observable quantique quelconque par X, et une valeur propre particulière "j" de X, par Xj ; alors le spectre de X est l'ensemble des valeurs propres {Xj, j=1,2,..n...}. On peut indiquer par M(X) l'opération de mesure correspondant à X, et par A(X) l'appareil impliqué. Enfin, on organise un mode de repérage et de distinction mutuelle des effets perceptibles produits par les interactions de mesure. Chaque tel effet effet est étiqueté, selon une règle explicite de correspondance, par une valeur propre Xj, qui devient ainsi la "signification" de cet effet. Pour spécifier une observable quantique particulière on peut remplacer X par une autre majuscule, B, C, etc. 


    Bref : 


    Afin de qualifier un micro-état on définit des dimensions de qualification opératoires qui sont des interactions entre ce micro-état et un appareil macroscopique et qui créent des effets d'interaction perceptibles interprétés selon certaines règles en termes prédéfinis de "valeurs propres d'observables quantiques". 


    On voit que le but de connaître des micro-états oblige à une attitude descriptionnelle radicalement active

    On doit créer aussi bien les objets de description que les qualifications


    Suivons maintenant en détail le déroulement qui conduit à la description d'un micro-état. 


    Supposons que le micro-état y produit par une réalisation de l'opération de préparation Py est soumis à une opération de mesure M(B) correspondant à une observable quantique particulière B. Ceci change l'état de départ y jusqu'à ce qu'il produise l'enregistrement, par l'appareil A(B) mis en jeu, d'un effet perceptible qui "signifie" l'une, disons B4, parmi les valeurs propres de B. Au bout de cette opération : 


    - La manifestation perceptible B4 incorpore une inamovible relativité à l'opération de mesure M(B) qui a permis de l'obtenir. 


    - L'exemplaire individuel d'un micro-état y qui a été soumis à l'opération individuelle de mesure M(B), en général n'existe plus, il est détruit. 


    Imaginons maintenant que l'on refait d'un grand nombre de fois l'opération de préparation Py et que, à chaque fois, sur l'exemplaire respectif d'un micro-état y que l'on a obtenu, on réalise l'opération de mesure M(B). Si l'on trouvait à chaque fois le même résultat B4 que l'on avait trouvé la première fois, on se dirait ceci : "Le micro-état y est tel que, s'il est soumis à l'opération de mesure M(B) il conduit invariablement au résultat B4. Donc la caractérisation de y face à l'opération de mesure M(B) est accomplie, elle consiste dans la valeur propre B4. Il me reste maintenant à examiner y face aux autres opérations de mesure, M(C), M(D), etc. aussi". 


    Mais en fait ce n'est pas ainsi que les choses se passent en général. En général la réitération un très grand nombre de fois de la paire unique d'opérations macroscopiques [Py,M(B)] fait apparaître tout le spectre {Bj, j=1,2,...6,...} de valeurs propres de B : 


    La situation se révèle être statistique

    En ces conditions la valeur propre B4 à elle seule n'est pas caractéristique du micro-état y. D'autant plus que, puisqu'un micro-état y spécifié mais quelconque, comme celui de notre exemple, peut faire apparaître tout le spectre {Bj, j=1,2,...6,...}, il est clair que la valeur propre particulière B4 peut apparaître via l'opération de mesure M(B) à partir d'une infinité de micro-états différents, produits par des opérations de préparation Py différentes. En quoi peut alors consister la caractérisation du micro-état y face à l'opération de mesure M(B)? 

    La réponse n'est pas particulière aux cas examinés en mécanique quantique. Pour l'obtenir on peut penser à une situation statistique quelconque de la vie courante. Pensons par exemple à des échantillons de sable prélevés sur des plages différentes et mis en éprouvettes non étiquetées, une seule éprouvette pour chacune des plages, séparément. Imaginons qu'on veuille caractériser les contenus des éprouvettes les uns par rapport aux autres. Choisissons alors un biais de qualification, par exemple celui de "structure chimique" des grains de sable, et examinons ses "valeurs" (telle ou telle sorte de structure chimique). On peut retrouver dans un très grand nombre d'éprouvettes un grain isolé d'une même structure chimique donnée (tel ou tel composé de silicium, etc.). D'autre part, dans une éprouvette on trouve en général des grains de structures chimiques différentes. Donc en général la structure chimique d'un seul grain ne pourra en effet pas caractériser l'éprouvette. Mais comptons, dans chaque éprouvette, pour chaque sorte de structure chimique, le nombre de grains de cette structure-là, et rapportons le au nombre total des grains dans l'éprouvette. Nous établissons ainsi pour chaque éprouvette l'entière distribution statistique des fréquences relatives d'occurrence des valeurs du spectre de structure chimique. Si le nombre total des grains dans une éprouvette est assez grand, il est très improbable de trouver la même distribution pour deux éprouvettes distinctes. Il n'est pas tout à fait impossible que deux ou plusieurs éprouvettes montrent exactement la même distribution. Mais on sent bien que ceci est beaucoup plus improbable que de trouver un seul grain de même structure dans deux ou plusieurs éprouvettes différentes. On approche donc d'une caractérisation mutuelle des éprouvettes. 

    Pour un micro-état la situation est analogue. Bien entendu, en un certain sens l'exemple des grains de sable est faussant : les sortes de structures chimiques des grains préexistent telles quelles dans les grains, l'acte d'observation simplement les détecte, tandis que les valeurs propres d'une observable quantique sont des effets d'interaction créés au cours de cet acte. Pourtant cet exemple suffit pour indiquer pourquoi un nouveau pas vers une caractérisation d'un micro-état y consiste à établir la distribution statistique des fréquences relatives obtenues, à partir de y, pour l'entier spectre de valeurs propres {Bj, j=1,2,...} d'une observable quantique B. En termes imagés on peut dire que la distribution statistique des fréquences relatives du spectre de valeurs propres {Bj, j=1,2,...} est la forme de l'ombre que le micro-état y jette sur le plan du perceptible selon la "direction" de qualification B. 

    Soulignons tout de suite que la distribution statistique du spectre de valeurs propres {Bj, j=1,2,...} est elle aussi relative à l'opération de mesure M(B) mise un jeu. Cela veut dire ceci. Si le même micro-état y (produit par la même opération de préparation Py) est examiné via des de opérations de mesure M(C) correspondant à une autre observable quantique C, différente de B, on trouve en général une distribution probabiliste différente de celle trouvée pour B. 

    Repensons maintenant aux éprouvettes contenant des grains de sable. Il n'est pas absolument exclu que les grains de deux éprouvettes provenant de deux plages différentes fournissent la même distribution statistique des fréquences relatives des "valeurs" de composition chimique. Alors, afin d'augmenter la probabilité d'avoir véritablement caractérisé mutuellement les éprouvettes, on peut rechercher, pour chaque éprouvette, la distribution des fréquences relatives des "valeurs" de qualification pour deux biais de qualification différents, par exemple la composition chimique et la forme. 

    De même, la caractérisation du micro-état y n'est pas encore achevée lorsqu'on a établi pour cet état la distribution statistique des fréquences relatives des valeurs propres d'une seule observable quantique. Et l'on peut montrer ceci. Afin de caractériser sans ambiguïté un micro-état y il faut établir, à partir de y, les distributions statistiques des valeurs propres pour au moins deux observables quantiques différentes, B et C?B, telles que les opérations de mesure correspondantes M(B) et M(C) soient mutuellement exclusives, c'est à dire, qu'il ne soit pas possible de les réaliser toutes les deux à la fois sur un seul exemplaire de micro-état y. Ces deux distributions constituent en ce cas une pleine caractérisation de y. En termes imagés on peut dire que, afin d'obtenir une caractérisation d'un micro-état, il faut connaître les formes des ombres que y jette sur le plan du perceptible le long d'au moins deux "directions" de qualification faisant un "angle" non nul. 

    L'étape d'investigation expérimentale est alors accomplie. Elle peut se résumer ainsi. 

    Par un très grand nombre de réitérations de deux couples d'opérations macroscopiques [Py,M(B)] et [Py,M(C)] qui mettent tous en jeu une même opération de préparation d'état Py mais deux opérations de mesure M(B) et M(C) mutuellement exclusives, on peut acquérir concernant le micro-état y correspondant à Py une certaine connaissance globale, probabiliste, qui est un invariant observationnel associé à Py et qui, en ce sens, "caractérise" l'effet supposé de Py que nous appelons un micro-état y. 

    L'étape d'expression des résultats expérimentaux, par un algorithme mathématique prévisionnel

    L'investigation expérimentale esquissée plus haut admet une représentation abstraite par un algorithme mathématique prévisionnel. Pour chaque observable quantique la mécanique quantique définit un descripteur mathématique dénommé l'opérateur de cette observable. A l'aide de ces opérateurs il est possible de construire pour toute opération de préparation Py fixée, une fonction mathématique correspondante y(r,t) - fonction d'état ou fonction de probabilités - qui représente l'ensemble de tous les résultats expérimentaux obtenus en utilisant Py (r indique une position dans l'espace physique et t indique le temps). On dit que "y(r,t) représente le micro-état y produit par Py". Une fois que la fonction de probabilité correspondant à Py a été construite, des algorithmes simples impliquant cette fonction et les opérateurs quantiques permettent désormais de calculer des prévisions quantitatives concernant les résultats de toute opération de mesure subséquente accomplie sur le micro-état état y produit par l'opération de préparation Py. Des prévisions seulement probabilistes, globales, pas des prévisions individuelles affirmées chacune avec certitude. Mais - à leur propre niveau probabiliste - ces prévisions introduisent des précisions déconcertantes concernant des effets perceptibles de phénomènes non perçus, supposés seulement ; des précisions qui mettent en jeu des fractions infimes des unités macroscopiques de temps et de longueur ; et pourtant ces prévisions se vérifient souvent avec ces mêmes précisions déconcertantes. Désormais on saura donc à l'avance, par calcul, que, si c'est l'opération Py qui est accomplie et si en outre c'est telle évolution de mesure M(X) qui suit cette préparation, alors telle manifestation observable Xj émergera avec telle probabilité. On le saura pour toute observable quantique X et toute valeur propre Xj. 

    Ainsi le symbole y qui au départ n'était rien de plus qu'un simple étiquetage, subit finalement une transmutation en un outil mathématique y(r,t) de description probabiliste prévisionnelle

    L'opacité qui sépare le supposé niveau microscopique, du niveau de perception et d'action de l'homme, est - en ce sens - levée. A travers elle agit désormais une structure descriptionnelle complexe et cohérente d'opérations, concepts, mots et symbolisations, données expérimentales, et algorithmes calculatoires. Une structure descriptionnelle prévisionnelle et vérifiable. 

    Le domaine d'application du formalisme quantique 

    L'argument usuel selon lequel la mécanique quantique devrait pouvoir s'appliquer "universellement", i.e. aux macrosystèmes aussi, parce que tout système matériel est constitué de microsystèmes, est fallacieux. L'"universalité" du formalisme quantique, on le verra, se trouve ailleurs, pas là. L'exposé qui précède montre clairement à quel point les caractéristiques du mode de description quantique sont induites par les deux circonstances suivantes. En premier lieu, par les contraintes qu'impose une phase originelle des processus de conceptualisation, celle qui part du zéro absolu de connaissance. C'est la situation cognitive qui se réalise dans cette phase, spécifiquement, qui oblige de créer - en général - l'objet étudié, par une définition purement factuelle, indépendante de l'assignation de toute propriété spécifiée ; c'est cette situation cognitive qui oblige ensuite de créer aussi les qualifications que l'on peut observer ; c'est cette situation cognitive qui oblige d'accepter une caractérisation observationnelle probabiliste des micro-états. En outre, en deuxième lieu, le but de qualifier les micro-états dans les termes particulier d'un langage mécaniques (position, quantité de mouvement, moment de la quantité de mouvement, etc.) imprime lui aussi sa marque : Il induit la forme mathématique des opérateurs OX associés aux observables quantiques X (de même que le choix des appareils A(X) et de opérations de mesure M(X)). 

    C'est LA SITUATION COGNITIVE et le but descriptionnel - pas la structure interne de l'objet d'étude - qui délimitent le domaine de pertinence des descriptions quantiques face au domaine de pertinence des descriptions "classiques". Dès que la situation cognitive ou le but descriptionnel change la mécanique quantique - telle quelle - ne s'applique plus. Ici s'achève l'exposé schématique du procédé par lequel la mécanique quantique aboutit à "décrire l'état d'un microsystème". 


    Le problème ontologique 

    epuis sa création et à ce jour le formalisme quantique reste inséparable de ce qu'on peut appeler "le problème ontologique". Celui-ci est lié aux obscurités et oscillations qui marquent la signification de la fonction y(r,t) : S'agit-il vraiment d'une "description d'un micro-état"? Et si la réponse est positive, de quelle sorte de description peut-on parler? Quelle est, au juste, la relation entre la fonction y(r,t) et les micro-états "eux-mêmes "? 


    Revenons aux relativités qui marquent la connaissance globale représentée par une fonction y(r,t). J'ai souligné que les enregistrements observables auxquels se rapporte cette fonction ne peuvent être regardés comme des "propriétés" que le supposé micro-état étiqueté y, tel qu'on l'imagine avoir émergé de l'opération de préparation Py, possédait d'emblée, avant toute évolution de mesure, d'une façon déjà actuelle, réalisée, et réalisée pour lui, intrinsèquement, indépendamment de tout acte d'observation. Concernant l'ontologie des micro-états, leur façon d'être indépendamment de nos actions cognitives sur eux, la mécanique quantique paraît alors n'offrir strictement aucun renseignement. Elle paraît n'avoir forgé aucune sorte de modèle "intrinsèque" de ce qui est indiqué par le symbole y, avoir construit juste des outils de prévisions relatives à l'opération Py et à telle ou telle sorte M(X) d'opération de mesure. 


    En est-il vraiment ainsi ? Les structures de mots-et-concepts sont les conduits de la pensée et elles ont leurs propres lois de cohérence. Il faut respecter ces lois, sinon on égare la pensée. Mais n'est-il vraiment pas possible, en l'occurrence, d'exhiber une structure cohérente de mots-et-concepts qui permette d'affirmer que la mécanique quantique conduit aussi à des descriptions des micro-états ? Ne peut-on vraiment pas exhiber une ontologie cohérente avec le formalisme construit? Pas un modèle détaillé et mathématisé, comme celui de de Broglie-Bohm par exemple, juste une première "explication" ontologique minimale de la description transférée quantique, qui constitue un terrain ferme pour toute élaboration ultérieure plus détaillée ? 


    Certains nient l'existence du problème. Leur argument est le suivant. Il est possible de reformuler les résultats résumés plus haut d'une façon strictement opérationnelle-prévisionnelle-observationnelle. C'est à dire, les termes à signifié inobservable, "micro-état y", préparation d'"état", peuvent être éliminés. On obtient ainsi une sorte de pont fait de purs algorithmes d'opérations physiques et calculs mathématiques qui ne "touchent" plus aucun supposé microscopique : si j'opère d'abord de la façon Y (renotation de Py) et j'opère ensuite de telle façon Z (renotation de M(X)), je sais à l'avance par calcul que j'ai telle probabilité d'observer telle marque sur tel appareil. Je le sais à l'aide de la fonction y(r,t) et cela est tout ce que le micro-état correspondant comporte d'"objectif". L'invariant lié à Py constitué par l'ensemble des lois de probabilité déterminé par y(r,t) décrit complètement l'effet observationnel de Py et cette description-là, dit-on, suffit. On peut donc, disent certains, se débarrasser en fin de parcours de toute trace de pensée hypothétique, comme on se débarrasse des éléments d'un échafaudage quand la bâtisse est achevée. D'autres vont plus loin et décrètent l'interdiction positiviste des interrogations ontologiques parce qu'elles seraient des adultérations philosophiques de la démarche scientifique. 

    Mais je soutiens qu'une telle épuration est à la fois impossible et frustrante. Qu'on y fasse référence verbalement ou pas, de l'ontologie d'appoint a été utilisée tout au long de l'action de construction du formalisme quantique, notamment dans le fait et les modes de préparer et surtout dans les choix d'un nom, d'une représentation mathématique OX, et d'un mode M(X) de "mesurer" pour chaque observable X. En effet, pourquoi précisément le choix de telle association nom-représentation-mathématique-mode-de-mesurer, plutôt qu'une autre? Chaque étape s'est appuyée sur des modèles non déclarés, voilà pourquoi (pour s'en convaincre il suffit de penser au procédé du "temps de vol" pour mesurer l'observable de quantité de mouvement, et aux règles associées pour calculer les valeurs propres de cette observable à partir des données enregistrées). Ce n'est pas le formalisme qui impose les choix de M(X) et A(X), c'est le physicien qui doit les faire, hors de la théorie, réduit à l'usage de ses intuitions et modèles plus ou moins explicites. Et toutes ces adductions ontologiques se sont incorporées à la forme et à l'efficacité des algorithmes obtenus. Un certain contenu ontologique est là, dissous et assimilé dans les algorithmes même, inséparable, CONFIRMÉ. Alors quel intérêt y a-t-il à escamoter ce contenu ontologique dans les façons finales de dire, en coupant ainsi les ponts avec nos propres modes d'agir mentaux? Le problème n'est pas de masquer l'existence d'un contenu inexpugnable et d'éviter l'effort d'identification. Le problème est d'expliciter ce contenu et de bien le comprendre. Lorsqu'une théorie est efficace on souhaite avoir une explication de son efficacité, sinon cette théorie produit l'illusion déplacée d'un miracle. Jamais aucun argument pragmatique, ni aucun décret, n'empêcheront les interrogations ontologiques de travailler jusqu'à ce que l'entendement ait atteint un de ces fonds de vallées des reliefs intérieurs où il se sent en situation stable parce qu'il considère qu'il a compris, qu'il a forgé un bloc de cohérence. 


    Il faut donc affronter le problème ontologique. Reconsidérons l'étape d'investigation expérimentale. Les manifestations d'une paire unique d'opérations [Py,M(X)] se révèlent statistiques, et ceci oblige, afin de caractériser un micro-état y, de réaliser un très grand nombre d'enregistrements de valeurs propres, tous à partir de y. Or en général l'état représenté par y n'existe plus après l'enregistrement d'une marque traduisible en termes de telle ou telle valeur propre Xj. Donc chaque séquence [(préparation)-(évolution de mesure)-(enregistrement)] brise le processus global de constitution de l'information statistique. L'état y doit être recréé pour chaque nouvel enregistrement. En ces conditions, se dit-on, comment peut-on être certain que l'opération de préparation Py, à chaque fois qu'elle est réalisée, recrée factuellement le même micro-état y, "identiquement" ? 

    Cette question d'identité est cruciale. Mais elle est aussi insidieuse car elle introduit un certain glissement. Elle est cruciale pour la raison suivante. En absence d'une hypothèse d'identité de tous les micro-états y produits par les réitérations de l'opération de préparation Py - c'est à dire si l'on admettait que Py produit tantôt l'un de ces hypothétiques micro-états, tantôt un autre - on ne pourrait pas parler et raisonner en termes de "le (un) micro-état y spécifié correspondant à l'opération de préparation Py". Il n'y aurait alors aucun moyen de justifier un concept de "description d'un micro-état", car le concept de description exige la spécification de l'objet à qualifier. Nous serions renvoyés à la situation de départ, quand on se confrontait au problème de spécifier un objet d'étude, et cette fois notre pensée y resterait immobilisée. Nous resterions sans instrument mental pour faire une science du microphysique. L'alternative est donc la suivante. Ou bien on abandonne tout simplement le but de décrire des micro- états, ou bien on postule que toutes les réitérations d'une opération de préparation Py, telle que celle-ci se réalise par la reconstitution du même ensemble de paramètres macroscopiques, reproduisent "identiquement" la "même" entité "y". Cette alternative radicale est incontournable. 

    La mécanique quantique, puisqu'elle existe, a suivi la seule voie possible pour amorcer une action descriptionnelle : plus ou moins implicitement elle a admis un postulat d'identité. 


    D'autre part la question d'identité enlise dans des problèmes qui paraissent insolubles. On se demande : Pourquoi un micro-état, toujours identiquement reproduit et soumis à chaque fois à l'évolution de mesure M(X) de l'une et même observable quantique X, conduirait-il en général à des valeurs propres Xj différentes, au lieu d'engendrer toujours la même valeur propre? Ne serait ce pas à cause du fait qu'un état de microsystème est une entité dont la "nature" est "essentiellement aléatoire"? Mais aussitôt on réagit : Quoi, exactement, peut vouloir dire une "nature essentiellement aléatoire" d'un micro-état? Ne s'agit-il pas, en fait, seulement de la quasi-certaine incapacité opératoire, de notre part, de reproduire, à partir de contraintes seulement macroscopiques, exactement le même état microscopique ? Car la notion qu'un micro-état serait, de par lui-même, "essentiellement" aléatoire (ou alors peut-être intrinsèquement aléatoire?), paraît vraiment très obscure. D'autre part, s'il s'agit bien de l'incapacité opératoire de reproduire exactement le même état microscopique, qu'est-ce qui me donne le droit de retourner une telle incapacité, en affirmation ontologique, d'un caractère "essentiellement aléatoire"? Et que signifie alors le postulat d'identité ? Qu'est-ce qui est identique? Et "exactement le même micro-état" de quel point de vue? Dans l'absolu? N'est-ce pas là un non-sens? Etc., etc., etc. 


    Et voilà la genèse du débat incessant et confus sur l'indéterminisme "prouvé" par la mécanique quantique. On contemple là, à l'oeuvre, étalées, les forces chaotiques qui naissent sous un langage mal dominé, et comment elles peuvent étourdir la pensée et l'enfoncer dans une boue de sens mélangés. 


    Une modélisation minimale 

    Mais pourquoi cet accident? Et quel serait, en ce cas, un langage "dominé"? 

    Les quelques considérations qui suivent indiquent une solution minimale au problème ontologique, qui - de par sa minimalité - ne s'engage en aucune dispute d'interprétation. Elle ne spécifie que le début de la voie du traitement du problème ontologique, nécessaire et suffisant pour ne pas arrêter la recherche amorcée avant d'être vraiment certain qu'elle est impossible. Il me paraît essentiel de discerner explicitement cette solution minimale. Car si elle n'avait pas existé le formalisme quantique n'aurait pas eu la résistance qu'il a : il y aurait eu du creux sous la croûte d'algorithmes et la théorie aurait craqué comme une noix vide. Cependant que l'existence et la structure de cette solution me semblent constituer l'innovation majeure comportée par la stratégie cognitive de la mécanique quantique, et aussi la source d'une révolution de l'entière épistémologie. 


    Le postulat d'identité n'est pas un acte de description, c'est un acte MÉTHODOLOGIQUE qui débloque le démarche descriptionnelle

    On a commencé par vouloir caractériser de manière observationnelle des hypothétiques micro-états. Initialement on imaginait (a) une relation individuelle entre une opération de préparation Py et le micro-état y correspondant (chaque réitération de Py reconstitue identiquement le micro-état y) et (b) une caractérisation observationnelle du micro-état y, individuelle elle aussi (une correspondance biunivoque et réciproque entre [Py,M(X)] et une valeur propre Xj de X). Mais le fait de la fluctuation des valeurs propres individuelles Xj lors des réitérations d'une paire [Py,M(X)] fixée exclut la possibilité d'une caractérisation observationnelle individuelle de l'objet "y". Alors on abandonne le but impossible d'une caractérisation observationnelle individuelle et on déplace sur le niveau probabiliste la recherche d'une caractérisation observationnelle. D'autre part - puisqu'il faut associer un objet défini à ce qui sera (éventuellement) "décrit" - on postule "tentativement" que, en dépit des fluctuations des valeurs propres Xj produites par une paire fixée [Py,M(X)], il existe un objet "y" qui se reproduit identiquement lors de toute réitération de Py, mais sans RIEN préciser concernant cet objet. On libère entièrement le contenu ontologique du désigné de l'étiquette "y", on le met en blanc. Le postulat d'identité ainsi introduit n'exige que la forme vide d'un invariant ontologique lié à Py, remettant à plus tard l'obligation de spécifier le sens qu'il sera logiquement consistant de loger dans cette forme. On décide, en somme, d'assigner a posteriori la dénomination d'"état y correspondant à Py", à CE qui pourra être regardé comme un invariant ontologique lié à l'opération de préparation Py, tout en misant qu'un tel invariant ontologique pourra être trouvé. Si toutefois il s'avérait impossible de trouver l'invariant ontologique recherché, la description d'entités micro physique amorcée devrait être reconnue comme impossible à achever, faute d'un objet de description spécifiable, et abandonnée, car une description purement opérationnelle-observationnelle, sans aucun modèle ontologique associé, tout simplement ne touche plus du micro physique (ceci mesure l'importance d'un modèle ontologique, que les positivistes croient pouvoir escamoter). 


    Le postulat d'identité est un moule ontologique vide imposé a priori de manière exploratoire, par un acte méthodologique. Il agit comme un feu vert conditionnel


    La mécanique quantique a réagi implicitement au problème d'identité par une stratégie dynamique et réflexive de confiance a priori et confirmation ou infirmation a posteriori

    Puisqu'elle est là et travaille la mécanique quantique a dû gagner son pari et incorporer un certain invariant ontologique minimal lié à une opération de préparation donnée, étiquetable comme l'"état y correspondant à Py". Quel est cet invariant ? On peut l'exprimer convenablement à l'aide du mode suivant de dire-et-penser. 

    L'enregistrement d'une valeur propre de l'observable quantique X, disons X4, est une manifestation d'une potentialité de changement que l'état "y" possédait intrinsèquement dès sa création par l'opération Py, mais relativement au processus de mesure M(X) possible ultérieurement. Et l'accomplissement ultérieur effectif d'un tel processus de mesure peut, avec telle probabilité, actualiser cette potentialité préexistante. Ce qui n'est qu'une façon d'intégrer délibérément dans le signifié du signe y, une "cause" de l'enregistrement X4, postulée rétroactivement, relativisée à M(X), et hypostasiée. Pour une autre valeur propre de l'observable X, disons X13, on parlera d'une autre potentialité relative du même micro-état y produit par l'opération Py et d'une autre probabilité correspondante d'actualisation. Et quand il s'agira des valeurs propres d'autres observables X'?X on dira qu'il se manifeste une autre "classe" de potentialités relatives et de probabilités d'actualisation du même micro-état y. 


    Bref, un objet d'étude au sens de la mécanique quantique - le désigné du symbole "y" correspondant à l'opération de préparation Py et l'objet de la description observationnelle tirée de la fonction y(r,t) - peut être pensé comme un réservoir d'un ensemble de classes différentes de potentialités de changements générateurs d'observation de valeurs propres Xj d'observables quantiques X, chaque classe étant relative au type M(X) d'opération de mesure qui doit être mis en oeuvre pour actualiser ses éléments par des interactions de transfert sur l'enregistreur de l'appareil A(X) comporté par M(X). 


    Ce réservoir de POTENTIALITÉS RELATIVES D'ACTUALISATION et l'ensemble de leurs probabilités - chacune posée égale à la probabilité quantique observationnelle correspondante - constituent l'invariant ontologique associé à Py


    Cet invariant peut être regardé comme le modèle ontologique minimal "conjugué" à l'invariant observationnel lié à Py via la fonction y(r,t). 


    On se munit ainsi d'une organisation de concepts-et-langage qui rend pleinement pertinente l'assertion que la fonction y(r,t) est - au sens propre du terme - une description transférée de propriétés d'un micro-objet associable à l'opération de préparation Py: les propriétés potentielles et relatives qui rendent ce micro-objet accessible à notre connaissance. Ceci est juste une figuration ontologique causalisante, rétroactive et minimale. Rien de plus que l'assertion après coup de l'existence dans "y" de potentialités relatives conçues ad hoc. L'assertion de l'existence toute nue, épurée de toute spécification d'un mode d'existence, de toute modélisation plus détaillée. La manière d'être des propriétés potentielles dont on affirme l'existence reste toujours en blanc. 


    Il n'est affirmé ni que l'invariant ontologique constitué par l'ensemble de classes de potentialités relatives lié à Py se réalise tout entier lors de chaque réitération individuelle de Py, ni que, au contraire, il ne se constitue que progressivement, à un niveau probabiliste de conceptualisation, à la manière de l'invariant observationnel lié à Py via la fonction y(r,t). 

    Ceux qui choisiront la première possibilité placeront - par postulat - au niveau individuel cet invariant ontologique associé à Py. Pour eux la fonction y(r,t) devra faire toboggan entre, d'une part le niveau de conceptualisation - probabiliste - de la phase de conceptualisation observationnelle, transférée, qui est la phase PREMIÈRE, et d'autre part, le niveau de conceptualisation - individuel - de la phase de conceptualisation ontologique, intrinsèque, qui est la phase SECONDE. La fonction y(r,t) continuera donc de jouer pour eux un rôle oblique, ambigu, à la fois modèle-ontologique-mais-pas-tout-à-fait et outil pour le calcul de probabilités prévisionnelles d'observation. Afin de compenser de quelque façon la non homogénéité de niveau entre le bout ontologique qu'il posent être individuel et le bout observationnel qui est probabiliste, ils devront continuer de se débattre dans les filets du "probabilisme individuel essentiel". 


    Ceux qui choisiront la deuxième possibilité placeront - par postulat - au niveau probabiliste l'invariant ontologique associé à Py. Pour eux la manière d'être individuelle d'un micro-état, que l'on imaginait au départ sous le symbole "y", échappera ENTIÈREMENT au désigné final de "y". Le bout ontologique et le bout observationnel de la description quantique se trouvant d'une manière homogène au niveau de conceptualisation probabiliste, la mécanique quantique actuelle leur apparaîtra comme une théorie probabiliste des micro-états où la fonction y(r,t) joue le rôle canonique d'une fonction de probabilité. Le problème d'une nature "essentiellement" aléatoire d'un micro-état, avec toutes ses conséquences protéiques, partira en fumée. Par contre, ceux qui placeront au niveau probabiliste l'invariant ontologique associé à Py devront admettre le problème - extérieur à la mécanique quantique - d'une modélisation future individuelle des micro-états, à l'intérieur d'une métathéorie qui soit enfin vraiment satisfaisante. Toutefois, en ce stade atteint par la seule spécification d'un invariant ontologique minimal lié à Py, où la formalisation ultérieure n'est pas encore tentée, ils pourront d'ores et déjà parler-et-penser concernant des micro-phénomènes, d'une façon intelligible et "simple", "normale", c'est à dire semblable à notre façon ancestrale de parler-et-penser concernant des macro-phénomènes. 


    Mais ce confort est loin d'épuiser les conséquences du modèle ontologique minimal. J'indiquerai dans le paragraphe qui suit en quel sens précisément ce modèle contient le germe de la révolution épistémique encryptée dans la mécanique quantique. Et ici j'ajoute ceci. L'analyse qui précède est une goutte dans laquelle se reflète une essence de la pensée. L'esprit de l'homme bâtit ainsi ses plus efficaces matrices de pensée-et-langage : d'une manière "causalisante" a posteriori et ad hoc. Ce n'est pas un opportunisme intellectuel, c'est une méthode d'insertion des produits de conceptualisation, dans les réseaux du raisonnement déductif. Là ils sont véhiculés le long de trajets lissés, "géodésiques", et maximalement compréhensibles pour l'esprit de l'homme tel qu'il se trouve que cet esprit-là s'est constitué au cours de l'évolution biologique. Les modèles ontologiques n'"existent" pas hors de nous, dans l'espace, comme une étoile, et ils ne se "découvrent" pas. C'est nous qui les fabriquons. Et notre façon de fabriquer à partir de nos perceptions, une ontologie qui nous plaise, qui nous apaise, qui nous mette dans une situation d'équilibre psycho-intellectuel, est causalisante. Ce trait correspond probablement à certaines optimalités d'adaptation (peut-être des maximisations de la rapidité et l'adéquation des réponses au milieu) en l'absence desquelles l'espèce aurait périclité. Ce qui suggère d'une manière irrépressible une certaine harmonie avec l'inconnaissable réel-tel-qu'il-est. 

    Ceci épuise ce que je voulais dire ici concernant la stratégie descriptionnelle de la mécanique quantique. On peut clore l'esquisse exposée par une belle formulation de Michel Bitbol : "...l'explication.....d'un phénomène consiste


    votre commentaire



  • 1 - Thèse de l'attitude naturelle

    Que je sois cartésien, kantien ou hegelien, je suis toujours en face d'un monde. Quelque soit ma façon de le penser, la façon de me considérer, j'ai beau fermer les yeux, lorsque je les ouvre, le monde reste là. D'ailleurs, j'ai une foi naturelle dans le monde, je me déplace dedans avec confiance, je retrouve les mêmes choses aux mêmes endroits. C'est la thèse du monde. Le terme "thèse" est assez intéressant, il faut le comprendre comme poser quelque, comme lorsque l'on pose une thèse, puis une antithèse. Le monde est là, quoique je fasse, il restera là.


    2 - Épokhè, suspension de la thèse

    Pour Husserl, il n'est nullement question d'élaborer une philosophie qui met en doute ce monde. Le doute cartésien, lui, va mettre en doute l'existence du monde. Le doute cartésien est une antithèse, une destruction du monde. Or, pour Husserl, il n'en n'est pas question. Husserl, lui, va suspendre cette question. C'est l'épokhè.

    L'épokhè, c'est la mise entre parenthèse, la mise en suspens. Le monde est là, soit. Mais je ne décide pas de son existence, ni de son inexistence. Le monde est un là, et c'est comme tel que je dois le prendre. Que je sois solipsiste ou matérialiste, je suis engagé dans ce là du monde, dans cette attitude naturelle. L'épokhè n'altère en rien cette attitude naturelle, elle suspend simplement la thèse du monde. L'épokhè est plus profonde que le doute, car elle est avant la négation. Le monde peut être ou n'être pas.

    Maintenant que j'ai suspendu la question de l'existence du monde, que me reste t-il ?


    3 - Après réduction : reste la conscience d'un monde

    Je viens de suspendre la thèse du monde par l'épokhè. Par là, j'ai mis hors circuit tout un ensemble de chose, il s'agit d'une réduction phénoménologique. Conclusion : "Je suis, je pense" et "j'ai un monde en face de moi".

    La sphère du Cogito subsiste. Il faut bien entendre le Cogito comme un ensemble de vécu propre à une sphère consciente (je perçois, je me souviens, j'imagine, je juge, je sens, je désire, je veux...). C'est l'ensemble du flux du vécu. Et ce Cogito est en face d'un monde, qui est là, en face de lui, permanent.

    Maintenant peut s'ouvrir la nouvelle science : l'investigation éidétique de ce Cogito et de son monde. C'est-à-dire, la recherche de l'essence de la conscience en face de ce là, une fois la réduction opérée.


    *


    II - L'investigation éidétique de la région "conscience"


    1 - Cogito / Cogitatio / Cogitatum

    Je suis à mon bureau, face à une feuille blanche et à mes livres. Je perçois ce bureau sous un certain angle, selon une certaine luminosité. Je suis assis, et je ne vois pas ce qu'il y a derrière la face cachée de ce bureau. Cet angle de vue, cette visée perceptive qui m'est propre, c'est la Cogitatio.

    À ce bureau que je perçois s'oppose l'objet de ma perception. Ce bureau tel qu'il est dans l'espace physique, tel qu'il est dans l'étendue face à d'autres objets.





    2 - Objet explicite actuel / Fond implicite inactuel

    Toujours à notre bureau, analysons notre Cogitatio. Il y a livre, en face de moi, un livre de Husserl . Ma conscience porte toute son attention à cet objet. Elle est dite actuelle, explicite. Pourtant, la pièce n'a pas disparu. Quand bien même je ne porte mon attention qu'à ce livre de Husserl, il y a d'autres livres à côté, des feuilles, mon ordinateur... Bref, un arrière plan, un fond à cet objet. Si une feuille s'envole, je la percevrai, car j'ai une forme de conscience de cet arrière. Cette conscience est dite inactuelle, implicite. À tout moment, je peux ballader mon attention et renverser l'inactuel en actuel. L'arrière fond inactuel est donc un potentiel.




    D'ailleurs, je me rend vite compte en analysant cette Cogitatio que cela n'est pas valable que pour la perception mondaine, la perception d'un objet du monde. Si je me remémore un souvenir, un rêve, ou que j'imagine une scène fantaisiste, ma conscience va porter son attention sur un objet avec son arrière plan. Très vite, je m'aperçois qu'il s'agit d'une propriété générale de la conscience, d'être tournée vers un objet. Je découvre l'intentionnalité.

    L'intentionnalité consiste en ceci : toute conscience est conscience de quelque chose. Quelque soit le vécu, quelque soit la clareté de la perception, la conscience est tournée vers un objet.


    3 - L'objet intentionnel et les Data des sens

    Mais c'est très étrange lorsque l'on y réfléchit. Je prend en main ce livre de Husserl, et je le tourne dans tous les sens. J'en vois différentes faces, différents aspects, et pourtant, pourtant ce livre reste le même. Je peux le contourner, le voir de différents endroits, ce livre garde cette unité profonde. Je viens de découvrir une autre propriété éidétique de la conscience : elle est synthétique. C'est-à-dire, qu'elle unifie le flux de la perception.

    Car la perception, lorsque l'on y réfléchit, consiste en premier lieu en des matériaux sensoriels. Ce livre frappe par sa blancheur. Je le touche, et le papier est rugueux mais la couverture est lisse (hummm j'aime la collection Tel gallimard). Bref, la perception en son fond consiste en des Data de sensations / affections. Les Data pour Husserl, sont la matière de la perception. Matière saisit par mon corps. Ma conscience intentionnelle va appliquer sa forme, synthétiser le divers du flux en un seul et unique objet.





    4 - Cogitatio immanent

    Seulement voilà, avec toutes ces découpes éidétiques, il ne faut pas perdre de vue l'expérience empirique. Avant que je prenne conscience de ma perception du livre, lorsque je contemplais encore innocemment sa couverture sans me soucier des caractéristiques éidétiques de cette expérience, lorsque j'étais immergée dans l'attitude naturelle, est-ce que cette cogitatio consistait en un objet intentionnel pour la conscience qui résulte de la synthèse du flux sensoriel ?

    Et bien non. Ce livre était un, total. C'était juste un livre. Si ma conscience unifie le flux du divers et qu'elle impose sa forme, tout cet ensemble de mécanismes transcendantaux est immanent à l'objet. Ma conscience du livre est immanente à son objet.







    Citation:
    La perception et le perçu forment par essence une unité sans médiation, l'unité d'une cogitation concrête unique.
    Husserl, Ideen, p.123.

    Bref, ma conscience est profondément entrelacée au monde. La perception est immanente au perçu.

    Je peux à présent effectuer une première esquisse de cet ordre éidétique de la conscience d'un objet (sans oublier son immanence empirique) :





    5 commentaires
  •  Korzybski est devenu fameux en inventant la Sémantique Générale. Cette dernière s'est construite comme un non-aristotélisme, notamment par le rejet partiel de la logique aristotélicienne.
    Korzybski s'inquiète notamment des dangers de la prédication. En effet, il relève qu'une telle association ne rend nullement compte de ce qu'il appelle les niveaux silencieux de la pensée.
    Ainsi dire que l'homme est un animal reviendrait à ignorer toutes les conséquences induites par l'apparition de la conscience chez l'être humain : Korzybski note simplement que l'homme ne peut se résoudre à la simple addition de "animal" + "conscient" car la conscience, contrairement à l'animalité est une prédication dynamique, c'est à dire qu'elle engendre des mutations d'une génération à une autre. De la même manière, toute affirmation de notre part ne rend pas compte des inférences que nous y associons. Korzybski exprime ainsi ses prémisses, via une analogie, celle de la carte et de son territoire :

    1) Une carte n'est pas le territoire.


    2) Une carte ne représente pas tout le territoire.


    3) Une carte est auto-réflexive, en ce sens qu'une carte "idéale" devrait inclure une carte de la carte et ce à l'infini.


    C'est la conscience de ces prémisses qui permet d'aboutir à la conscience d'abstraire et donc à à une maturité intellectuelle et sociologique.


    Dans cette approche, il n'y a pas d'ignorance, tout du moins pas d'ignorance passive, mais seulement une cognition qui infère dogmatiquement une cause aux effets observés. C'est ainsi que naissent les mythologies primitives. L'esprit scientifique n'apparaît qu'avec la connaissance du rôle de l'inférence : on pourrait parler d'hypothèse.


    Les niveaux silencieux et inconscients de la pensée d'un terroriste, par exemple, sont certainement un puits insondable d'inférences inexprimées...


    Toutefois, les cartes de Korzybski et le territoire ont en commun, par delà la représentation ou même l'idée, de participer d'une forme commune. Si ce n'était le cas, plus rien ne relierait carte et territoire, et quand bien même Korzybski affirmerait la primauté de la relation, il devrait bien admettre au final que la relation lie deux éléments. Par ailleurs, la prédication aristotélicienne est alternativement une compréhension (une chose comprend, possède telle caractéristique) et de l'extension (une chose fait partie d'un ensemble). Elle ne se résoud donc pas à une simple addition. Ainsi, assurément, le territoire n'est pas la cause efficiente de la carte, c'est le cartographe, pas sa cause matérielle, c'est le papier ou le carton, pas non plus sa cause formelle, c'est la géographie, mais plus vraisemblablement sa cause finale car il est ce pour quoi elle existe. Isoler les causes, c'est ignorer que l'on ne peut disjoindre les quatre causes aristotéliciennes.





    votre commentaire
  • Ce blogg n'a  d'autre ambition que de me faire plaisir en partageant quelques bribes de savoir  et susciter en retour des commentaires éclairés (je l'espère) sur ces sujets.
    J'essaierai d'aborder pour partie (mathématique musique et physique )  les thèmes de réflexion sous l'angle du formalisme.
    Au début du XXeme siècle,



    David Hilbert pensait que le formalisme des mathématiques
    apportait une preuve irréfutable de la véracité des descriptions quantifiées. Mais en 1931, Gödel bouscula cette convention. Il démontra qu'un système formel qui pouvait faire l'objet d'une description finie était incomplet et ne pouvait démontrer sa consistance (à la fois sa véracité et sa négation).


    Mais existe-t-il une information minimale capable d'élaborer une théorie précise, le monde est-il compressible algorithmiquement parlant ?
    Quelle réalité soutend la physique Quantique ?


     


     


    votre commentaire
  • La mécanique quantique utilise des objets mathématiques abstraits, qui semblent étranges au premier abord. Nous sommes des êtres macroscopiques, notre perception du monde au moyen de nos organes sensoriels est macroscopique et il nous paraît donc naturel de décrire la Nature avec les outils de la physique classique. En inventant de nouveaux appareils de mesure, les physiciens ont augmenté la sensibilité et le domaine de mesure de nos organes sensoriels. Par des expériences nouvelles, ils découvrent des phénomènes nouveaux, qu'ils ne peuvent pas expliquer avec le formalisme de la physique classique. C'est pourquoi ils sont amenés à émettre de nouvelles hypothèses et à bâtir de nouvelles théories. La mécanique quantique semble contraire à l'intuition, mais elle explique un grand nombre de phénomènes et n'a jamais été prise en défaut, du moins jusqu'à présent.



    En mécanique classique, l'état d'une particule est décrit par les coordonnées de la position et de la vitesse. En mécanique quantique, il est décrit par un vecteur d'état dans un espace mathématique abstrait appelé espace de Hilbert. En mécanique quantique, la position, la vitesse et certaines autres grandeurs physiques (énergie, impulsion, etc.) sont décrits non pas par un nombre mais par des opérateurs (un opérateur est un objet mathématique qui agit sur un vecteur d'état pour le transformer en un autre vecteur d'état).


    votre commentaire


    Suivre le flux RSS des articles de cette rubrique
    Suivre le flux RSS des commentaires de cette rubrique