• 1 - Thèse de l'attitude naturelle

    Que je sois cartésien, kantien ou hegelien, je suis toujours en face d'un monde. Quelque soit ma façon de le penser, la façon de me considérer, j'ai beau fermer les yeux, lorsque je les ouvre, le monde reste là. D'ailleurs, j'ai une foi naturelle dans le monde, je me déplace dedans avec confiance, je retrouve les mêmes choses aux mêmes endroits. C'est la thèse du monde. Le terme "thèse" est assez intéressant, il faut le comprendre comme poser quelque, comme lorsque l'on pose une thèse, puis une antithèse. Le monde est là, quoique je fasse, il restera là.


    2 - Épokhè, suspension de la thèse

    Pour Husserl, il n'est nullement question d'élaborer une philosophie qui met en doute ce monde. Le doute cartésien, lui, va mettre en doute l'existence du monde. Le doute cartésien est une antithèse, une destruction du monde. Or, pour Husserl, il n'en n'est pas question. Husserl, lui, va suspendre cette question. C'est l'épokhè.

    L'épokhè, c'est la mise entre parenthèse, la mise en suspens. Le monde est là, soit. Mais je ne décide pas de son existence, ni de son inexistence. Le monde est un là, et c'est comme tel que je dois le prendre. Que je sois solipsiste ou matérialiste, je suis engagé dans ce là du monde, dans cette attitude naturelle. L'épokhè n'altère en rien cette attitude naturelle, elle suspend simplement la thèse du monde. L'épokhè est plus profonde que le doute, car elle est avant la négation. Le monde peut être ou n'être pas.

    Maintenant que j'ai suspendu la question de l'existence du monde, que me reste t-il ?


    3 - Après réduction : reste la conscience d'un monde

    Je viens de suspendre la thèse du monde par l'épokhè. Par là, j'ai mis hors circuit tout un ensemble de chose, il s'agit d'une réduction phénoménologique. Conclusion : "Je suis, je pense" et "j'ai un monde en face de moi".

    La sphère du Cogito subsiste. Il faut bien entendre le Cogito comme un ensemble de vécu propre à une sphère consciente (je perçois, je me souviens, j'imagine, je juge, je sens, je désire, je veux...). C'est l'ensemble du flux du vécu. Et ce Cogito est en face d'un monde, qui est là, en face de lui, permanent.

    Maintenant peut s'ouvrir la nouvelle science : l'investigation éidétique de ce Cogito et de son monde. C'est-à-dire, la recherche de l'essence de la conscience en face de ce là, une fois la réduction opérée.


    *


    II - L'investigation éidétique de la région "conscience"


    1 - Cogito / Cogitatio / Cogitatum

    Je suis à mon bureau, face à une feuille blanche et à mes livres. Je perçois ce bureau sous un certain angle, selon une certaine luminosité. Je suis assis, et je ne vois pas ce qu'il y a derrière la face cachée de ce bureau. Cet angle de vue, cette visée perceptive qui m'est propre, c'est la Cogitatio.

    À ce bureau que je perçois s'oppose l'objet de ma perception. Ce bureau tel qu'il est dans l'espace physique, tel qu'il est dans l'étendue face à d'autres objets.





    2 - Objet explicite actuel / Fond implicite inactuel

    Toujours à notre bureau, analysons notre Cogitatio. Il y a livre, en face de moi, un livre de Husserl . Ma conscience porte toute son attention à cet objet. Elle est dite actuelle, explicite. Pourtant, la pièce n'a pas disparu. Quand bien même je ne porte mon attention qu'à ce livre de Husserl, il y a d'autres livres à côté, des feuilles, mon ordinateur... Bref, un arrière plan, un fond à cet objet. Si une feuille s'envole, je la percevrai, car j'ai une forme de conscience de cet arrière. Cette conscience est dite inactuelle, implicite. À tout moment, je peux ballader mon attention et renverser l'inactuel en actuel. L'arrière fond inactuel est donc un potentiel.




    D'ailleurs, je me rend vite compte en analysant cette Cogitatio que cela n'est pas valable que pour la perception mondaine, la perception d'un objet du monde. Si je me remémore un souvenir, un rêve, ou que j'imagine une scène fantaisiste, ma conscience va porter son attention sur un objet avec son arrière plan. Très vite, je m'aperçois qu'il s'agit d'une propriété générale de la conscience, d'être tournée vers un objet. Je découvre l'intentionnalité.

    L'intentionnalité consiste en ceci : toute conscience est conscience de quelque chose. Quelque soit le vécu, quelque soit la clareté de la perception, la conscience est tournée vers un objet.


    3 - L'objet intentionnel et les Data des sens

    Mais c'est très étrange lorsque l'on y réfléchit. Je prend en main ce livre de Husserl, et je le tourne dans tous les sens. J'en vois différentes faces, différents aspects, et pourtant, pourtant ce livre reste le même. Je peux le contourner, le voir de différents endroits, ce livre garde cette unité profonde. Je viens de découvrir une autre propriété éidétique de la conscience : elle est synthétique. C'est-à-dire, qu'elle unifie le flux de la perception.

    Car la perception, lorsque l'on y réfléchit, consiste en premier lieu en des matériaux sensoriels. Ce livre frappe par sa blancheur. Je le touche, et le papier est rugueux mais la couverture est lisse (hummm j'aime la collection Tel gallimard). Bref, la perception en son fond consiste en des Data de sensations / affections. Les Data pour Husserl, sont la matière de la perception. Matière saisit par mon corps. Ma conscience intentionnelle va appliquer sa forme, synthétiser le divers du flux en un seul et unique objet.





    4 - Cogitatio immanent

    Seulement voilà, avec toutes ces découpes éidétiques, il ne faut pas perdre de vue l'expérience empirique. Avant que je prenne conscience de ma perception du livre, lorsque je contemplais encore innocemment sa couverture sans me soucier des caractéristiques éidétiques de cette expérience, lorsque j'étais immergée dans l'attitude naturelle, est-ce que cette cogitatio consistait en un objet intentionnel pour la conscience qui résulte de la synthèse du flux sensoriel ?

    Et bien non. Ce livre était un, total. C'était juste un livre. Si ma conscience unifie le flux du divers et qu'elle impose sa forme, tout cet ensemble de mécanismes transcendantaux est immanent à l'objet. Ma conscience du livre est immanente à son objet.







    Citation:
    La perception et le perçu forment par essence une unité sans médiation, l'unité d'une cogitation concrête unique.
    Husserl, Ideen, p.123.

    Bref, ma conscience est profondément entrelacée au monde. La perception est immanente au perçu.

    Je peux à présent effectuer une première esquisse de cet ordre éidétique de la conscience d'un objet (sans oublier son immanence empirique) :





    5 commentaires
  •  Korzybski est devenu fameux en inventant la Sémantique Générale. Cette dernière s'est construite comme un non-aristotélisme, notamment par le rejet partiel de la logique aristotélicienne.
    Korzybski s'inquiète notamment des dangers de la prédication. En effet, il relève qu'une telle association ne rend nullement compte de ce qu'il appelle les niveaux silencieux de la pensée.
    Ainsi dire que l'homme est un animal reviendrait à ignorer toutes les conséquences induites par l'apparition de la conscience chez l'être humain : Korzybski note simplement que l'homme ne peut se résoudre à la simple addition de "animal" + "conscient" car la conscience, contrairement à l'animalité est une prédication dynamique, c'est à dire qu'elle engendre des mutations d'une génération à une autre. De la même manière, toute affirmation de notre part ne rend pas compte des inférences que nous y associons. Korzybski exprime ainsi ses prémisses, via une analogie, celle de la carte et de son territoire :

    1) Une carte n'est pas le territoire.


    2) Une carte ne représente pas tout le territoire.


    3) Une carte est auto-réflexive, en ce sens qu'une carte "idéale" devrait inclure une carte de la carte et ce à l'infini.


    C'est la conscience de ces prémisses qui permet d'aboutir à la conscience d'abstraire et donc à à une maturité intellectuelle et sociologique.


    Dans cette approche, il n'y a pas d'ignorance, tout du moins pas d'ignorance passive, mais seulement une cognition qui infère dogmatiquement une cause aux effets observés. C'est ainsi que naissent les mythologies primitives. L'esprit scientifique n'apparaît qu'avec la connaissance du rôle de l'inférence : on pourrait parler d'hypothèse.


    Les niveaux silencieux et inconscients de la pensée d'un terroriste, par exemple, sont certainement un puits insondable d'inférences inexprimées...


    Toutefois, les cartes de Korzybski et le territoire ont en commun, par delà la représentation ou même l'idée, de participer d'une forme commune. Si ce n'était le cas, plus rien ne relierait carte et territoire, et quand bien même Korzybski affirmerait la primauté de la relation, il devrait bien admettre au final que la relation lie deux éléments. Par ailleurs, la prédication aristotélicienne est alternativement une compréhension (une chose comprend, possède telle caractéristique) et de l'extension (une chose fait partie d'un ensemble). Elle ne se résoud donc pas à une simple addition. Ainsi, assurément, le territoire n'est pas la cause efficiente de la carte, c'est le cartographe, pas sa cause matérielle, c'est le papier ou le carton, pas non plus sa cause formelle, c'est la géographie, mais plus vraisemblablement sa cause finale car il est ce pour quoi elle existe. Isoler les causes, c'est ignorer que l'on ne peut disjoindre les quatre causes aristotéliciennes.





    votre commentaire
  • Raisonnement 

     

    Georges Vignaux  

    Les modes de l'inférence  

     

    Le raisonnement naturel est souvent assimilé à la forme la plus classique du syllogisme, celle dite du démonstratif : « Un discours tel que certaines choses étant posées, quelque chose d'autre que ces données en résulte nécessairement par le seul fait de ces données. »1 La réaction immédiate consiste à s'interroger sur la nature de ce lien qui peut relier prémisses et conclusions. Est-ce l'habitude qui consiste à nous faire associer certaines choses à d'autres ? Est-ce un effet affectif qui nous fait expliquer des situations ou des faits, par le recours à certaines notions ?2 Ou est-ce un simple rapport de probabilité que nous établirions entre des circonstances et ce qu'elles pourraient amener comme conséquences logiques qui seraient inscrites dans la nature des choses ? La conclusion d'un raisonnement n'est pas toujours la conséquence directe de ce qui a été posé dans les prémisses de ce raisonnement. Il peut même y avoir inversion de cette conséquence : affirmer, c'est alors le moyen tactique de poser comme vrai.

     

    Le raisonnement peut même tirer origine de prémisses reconnues comme fausses ; c'est le cas du raisonnement par l'absurde. Dans le discours ordinaire, raisonner consiste à inférer à partir de certaines choses d'autres choses, qui pourront être aussi bien des situations, des valeurs que des jugements.

    Tout raisonnement peut être ainsi traduit en schéma d'inférence comme le font les logiciens : « Tout A est B et tout C est A donc tout C est B. »

    Le problème, c'est qu'on ne sait jamais ce qui vient garantir la validité d'une telle inférence.

     

    En logique, cela se fait au moyen de lois, dérivées d'un petit nombre d'axiomes, lesquels garantissent que telle ou telle inférence est légitime dans un système. Il n'en va pas de même dans le raisonnement naturel.  Ces remarques amènent à distinguer entre l'acte d'inférence et ce qui peut légitimer cet acte. Un bon raisonnement n'est souvent pas autre chose que celui qui atteint son but. C'est la relation qui attache la conséquence au principe posé et qui permet d'inférer de ce principe à cette conséquence :

     

    la vérité d'une proposition entraîne la vérité de sa conséquence. Réciproquement, la fausseté de la conséquence laisse présupposer la fausseté du principe puisque le faux ne peut découler du vrai. Il s'agit là de ces formules mises en place dès les origines de la logique et qu'on nomme le modus ponens (p implique q, alors s'il y a p, on a q) et le modus tollens (p implique q, alors s'il y a non-q, on a non-p). Encore faut-il distinguer entre cette relation de principe à conséquence et la relation d'implication, du type p implique nécessairement q. Cette implication stricte est une écriture à l'intérieur d'un système logique formel (abstrait).

     

    L'inférence naturelle, parfois dite implication, relève simplement de relations posées entre objets et situations du monde, donc concrètes. L'inférence naturelle signifie que d'un principe découle une conséquence, mais que cette conséquence n'est pas toujours une obligation. C'est pourquoi, il y a toujours complémentarité entre le vrai et le faux, entre l'affirmation et la négation et la relation d'inférence peut être orientée dans l'un ou l'autre sens. C'est pourquoi encore, on peut parler de bons et de mauvais raisonnements. Sophismes et paralogismes  

     

    On n'étudie plus beaucoup aujourd'hui les raisonnements jugés fautifs. Or pourtant, l'étude de ces derniers est à l'origine de la réflexion logique : chez Aristote, les Réfutations sophistiques ont précédé la constitution des Analytiques. Aristote distingue deux sortes de sophismes qui proviennent du langage. Dans un premier type de cas, on a l'amphibolie, l'ambiguïté, la combinaison des mots ; dans le second, la confusion qui consiste à prendre pour accordé ce qui est toujours en discussion ou à voir une cause là où il n'y en a pas. Un sophisme serait un raisonnement vicieux qui vise à abuser autrui ; il a l'air vrai mais il ne fait qu'illusion ou aboutit à des conclusions trompeuses. C'est en réalité, un raisonnement de capture qui vise à faire admettre une certaine conclusion à un auditoire. L'étude de ces paralogismes fait partie d'un certain nombre de programmes d'enseignement outre-atlantique. Tout un courant de recherches y existe, consacré à cette logique informelle, lequel courant témoigne de l'évolution historique du concept même de paralogisme.  

     

    Pour Aristote, il ne s'agissait pas d'assimiler tromperie à paralogisme, mais d'examiner comment une argumentation pouvait se révéler non valide bien qu'ayant toutes les apparences de <?xml:namespace prefix = st1 ns = "urn:schemas-microsoft-com:office:smarttags" /><st1:PersonName w:st="on" ProductID="la validité. Précisément">la validité. Précisément</st1:PersonName> : dans le cadre de sa théorie du syllogisme où la conclusion découle nécessairement des prémisses, une formule du type « P, donc P » n'est pas un syllogisme, mais un paralogisme. En revanche, nous l'accepterions aujourd'hui bien volontiers ; il suffit d'entendre ces genres de lieux communs fréquents :

    « Un homme, c'est un homme » ; «

     une femme, c'est une femme ».

     

    Préoccupé des manières de vérifier la validité des syllogismes, Aristote a surtout construit l'appareil de <st1:PersonName w:st="on" ProductID="la réfutation. Pour">la réfutation. Pour</st1:PersonName> lui, une réfutation est un syllogisme dont la conclusion est la contradictoire d'une certaine proposition que cette réfutation vient tester, mais elle ne permet pas de conclure à la fausseté de la proposition qu'elle contredit.

    Par exemple, comme l'expliquent Woods & Walton3, si <st1:PersonName w:st="on" ProductID="la proposition P">la proposition P</st1:PersonName> est une thèse, et s'il y a une argumentation du type « A, B donc non P », cela ne signifie pas que P soit fausse.

     

    En effet : il est possible que P soit fausse, mais il est aussi possible que les propositions A ou B soient elles aussi fausses. Par principe, la réfutation laisse indéterminée la vérité ou la fausseté de la proposition qu'elle réfute, sauf le cas où la réfutation de P est une preuve que P est fausse, à condition que A et B soient vraies.

     

    Une réfutation sophistique n'est donc pas une réfutation. C'est un  syllogisme qui semble valide, mais qui ne l'est pas. Pour Aristote, les paralogismes n'avaient pas le statut de syllogismes, c'étaient des argumentations de type logique ne visant pas à <st1:PersonName w:st="on" ProductID="la vérité. On">la vérité. </st1:PersonName>

    <st1:PersonName w:st="on" ProductID="la vérité. On"> </st1:PersonName>

    <st1:PersonName w:st="on" ProductID="la vérité. On">On</st1:PersonName> comprend que Lewis Carroll s'en soit moqué dans Logique sans peine 4 où le lecteur trouvera quelques exemples savoureux de ce genre : 


    Aucun docteur n'est enthousiaste  

    Vous êtes enthousiaste  

    Vous n'êtes pas docteur  

     

    ou encore :  

    Tout homme prudent évite les hyènes  

    Aucun banquier n'est imprudent  

    Aucun banquier ne manque jamais d'éviter les hyènes  

     

    Au moyen âge, le raisonnement sophistique était qualifié de paradoxal et la nature du paradoxe, elle-même objet de nombreux débats. Souvent, il s'agissait d'argumentations en forme de sorites comme celle selon laquelle on peut démontrer qu'une personne parfaitement chauve demeure une personne chevelue si auparavant, elle a effectivement porté des cheveux !

     

    De nos jours, on dira en français, d'un tel raisonnement qu'il est fallacieux au sens qu'il est trompeur ; le terme anglais fallacy peut signifier aussi bien une erreur logique qu'une impropriété dialectique.

     

    L'opposition est plus tranchée en allemand où Trugschluss désigne l'intention de tromper lors d'un échange tandis que Fehlschluss signifie une inférence logiquement non valide. Les avis divergent : un raisonnement est-il logiquement acceptable quand sa construction est correcte même avec une conclusion trompeuse ? Un raisonnement est-il trompeur parce qu'il porte sur des choses dont on ne peut attester ni de l'existence ni des relations qu'elles entretiennent entre elles ?  Aristote rangeait les raisonnements fallacieux dans la catégorie des éristiques, c'est-à-dire des duels oratoires ou des exercices en école.

     

    Le moyen âge les a utilisés sous forme de jeux. L'histoire a laissé des exemples déconcertants de ces syllogismes où l'on part de propositions reconnues comme vraies et où, selon un raisonnement irréprochable, on aboutit cependant à une conclusion absurde. Le fait est là : la rigueur et la persuasion d'un raisonnement peuvent être impressionnantes et totalement indépendantes des propositions qui le constituent. Le problème est difficile ; la solution n'est pas dans l'examen des principes posés au départ, mais dans l'analyse des constructions du discours, des lieux qu'il vient occuper et des situations qu'il investit.   

     

    Fonctions et usages du raisonnement  

     

    Prouver ou réfuter, contredire ou mettre en doute, sont des fonctions fondamentales du discours. C'est pourquoi il est difficile d'imaginer qu'un discours ne soit pas une argumentation même s'il prend les allures de la simple déclaration : déclarer, c'est se poser face à quelque chose ; affirmer, c'est s'affirmer face à autrui ou au contradicteur. Tout discours s'inscrit dans un contexte où des thèses s'opposent.

     

    Cela signifie que tout raisonnement peut être considéré comme argumentation : autant comme enchaînement d'inférences dérivant l'une de l'autre que sous forme de ces procédures en sauts de puces dont le discours quotidien sait plus ou moins relier les étapes. Tout repose sur ce qui aura été choisi comme points de départ ; là réside l'ambiguïté de la notion d'invention : a-t-on découvert par le discours une autre conséquence ou ajouté quelque chose de nouveau ? Plutôt que d'invention, je choisirai de nommer constructions, ces tâtonnements sur un fait ou une idée auxquels s'essaient les processus de preuve dans le discours.

     

    C'est ici que parler d'une logique de l'argumentation prend sens, s'il s'agit de dire que toute argumentation s'appuie sur un certain raisonnement et qu'elle vise à mettre au jour des éléments à considérer dans une intention de preuve ou de réfutation. Logique d'action et logique pratique, logique naturelle aussi, dans la mesure où elle s'inscrit sur du concret, cette logique de l'argumentation nécessite d'interroger autrement les formes classiques du raisonnement : déduction, induction et analogie.  

     

    La déduction  

     

    Durant longtemps, le syllogisme fut considéré comme la forme parfaite de <st1:PersonName w:st="on" ProductID="la déduction. La">la déduction. La</st1:PersonName> forme déductive du discours mathématique était ainsi assimilée à une succession de syllogismes. Cette idée persistera longtemps, puisque selon Robert Blanché5, le mathématicien Leonhard Euler (1707-1783) considérait encore que « tous les raisonnements par lesquels on démontre tant de vérités dans la géométrie se laissent réduire à des syllogismes formels ». Ce n'est qu'au 19e siècle qu'on opposera la rigueur du raisonnement mathématique à la pauvreté mécanique du syllogime. Depuis nous demeurons tributaires de cette opposition.

     

    A tort, car la distinction entre interprétation catégorique et interprétation hypothétique des systèmes déductifs est en fait, l'héritage qui subsiste de la distinction aristotélicienne. Dans la déduction catégorique, on part de principes certains et le but est de transférer cette certitude aux conséquences : on démontre. Dans un système hypothético-déductif, on ne s'interroge pas sur la valeur de vérité des propositions, mais sur ce qu'elles peuvent impliquer. L'utilisation de la méthode expérimentale est typique de ce second cas. La logique d'Aristote est fondée sur l'existence de substances auxquelles on peut prédiquer des essences.

     

    Les Stoïciens sont au contraire nominalistes et traitent des faits temporels. Pour Aristote, ce qui compte, c'est l'être ; pour les Stoïciens, c'est l'événement. La différence entre la théorie aristotélicienne et la conception stoïcienne est que la première traite des qualités des substances alors que la seconde s'attache aux événements. Cela est indépendant bien sûr de la forme du raisonnement. Les syllogismes hypothétiques conduisent à une conclusion factuelle soit par une loi nécessaire soit par un ensemble d'observations :  

     

    S'il y a du soleil, il fait jour  

    Si une personne est atteinte d'un cancer grave, elle ne guérira pas  

     

    La théorie de la déduction est cependant plus qu'une syllogistique à partir du moment où il s'agit de traiter les variables propositionnelles en termes de relations. Cela veut dire qu'on va considérer non plus la qualité qui peut être attribuée à un sujet, mais surtout la relation pouvant être établie entre deux sujets. Dans tout raisonnement déductif, ce qui compte, c'est le lien logique qui garantit la vérité d'une conséquence à la condition que les principes soient vrais sans que pour autant il s'agisse d'identité ou d'inclusion entre les termes : la conclusion dépend des prémisses, mais n'est pas contenue dans celles-ci. La fonction du lien logique est d'établir une connexion telle que, des propositions étant admises, l'esprit soit conduit à en admettre d'autres.

     

    De ce point de vue, la déduction est au coeur de l'argumentation quotidienne, dans la mesure même où partant de principes donnés, elle vise à des conclusions d'apparence rigoureuse, mais le paradoxe est là : cela n'est possible que localement et dans des contextes toujours relatifs. En conséquence, la déduction, prisonnière des modes de l'inférence et des objets sur lesquels elle porte, est souvent plus proche de l'induction ou de l'analogie que de l'implication.  

     

    L'induction  

     

    L'induction se définit comme le passage du particulier au général, à l'universel. Cet universel est ce qui va fournir l'explication du fait initial considéré ; il est en quelque sorte <st1:PersonName w:st="on" ProductID="la loi. Les Premiers">la loi. Les Premiers</st1:PersonName> Analytiques (II, XXIII) d'Aristote donnent l'exemple de l'inférence obtenue à partir de deux faits d'observation :  L'homme, le mulet et le cheval sont sans fiel et vivent longtemps : on peut donc en inférer que les autres sans fiel vivent longtemps.  Aristote ajoute qu'il est nécessaire que l'énumération des animaux dotés de la première propriété soit complète et que « tous » ces animaux soient bien ceux dénombrés à propos du deuxième fait d'observation.

     

    C'est ce qu'il nomme un syllogisme par induction, en d'autres termes, un syllogisme renversé. Cela veut dire que l'induction n'apporte pas plus de connaissances que celles qu'on possède déjà.  Longtemps, on a vu dans l'induction un élément moteur de la démarche scientifique. Poincaré6 voyait en elle la fécondité des mathématiques. Mais Claude Bernard7 a longuement insisté sur ce fait que la méthode expérimentale est bien plus que de l'induction fondée sur la simple observation des faits, et qu'il y a tout un travail de conception de la loi à partir des faits et de déduction des conséquences de cette loi. Deux types de démarches scientifiques peuvent ainsi être distinguées. L'une n'affirme que ce qui a été expérimentalement contrôlé.

     

    L'autre s'efforce d'élaborer des propositions susceptibles de fournir le principe explicatif des observations opérées. En fait, les deux fonctionnent de façon complémentaire. Pour le scientifique, un phénomène c'est d'abord un objet et un lieu de relations. Ces relations s'organisent à l'intérieur d'une loi parce qu'il faut, comme l'écrit F. Jacob8 trancher « entre la nécessité des phénomènes et la contingence des événements ». Cette loi, une fois argumentée, deviendra un fait jugé nécessaire pour les objets scientifiques qu'elle sera censée gouverner. Le raisonnement prend alors la forme du déductif. Cela ne doit pas faire oublier toutes les étapes inductives ou analogiques qui ont précédé.  

     

    L'analogie

     

    Jusqu'au 19e siècle, l'analogie constituait avec l'induction et la déduction, une sorte de trilogie des modes du raisonnement. On distinguait trois démarches : du particulier au général (induction), du général au particulier (déduction) et du particulier au particulier (analogie).

     

    La seule justification à cette division discutable était qu'il y aurait en commun aux trois processus, la même progression de principe à conséquence ou son inverse ou encore, comme dans le cas de l'analogie, le fait de rester sur un même plan. La question de l'analogie est en fait celle de savoir comment analyser la façon dont chacun de nous va utiliser ce système de ressemblances qui lui permet de rapprocher des objets ou des situations en vue de les rendre comparables. Question ambiguë.

     

    Chez Aristote, c'est l'égalité de rapports comme dans la proportion mathématique : « A est à B comme C est à D » (Topiques, A, 108a). Aujourd'hui, on parle d'analogie dès qu'on perçoit une similitude entre des faits, des êtres, des situations. Le flou de la définition permet toutes sortes d'applications paradoxales. Ainsi, Georges Perec9 donnait l'exemple paradoxal d'une classification dite chinoise : « A) appartenant à l'Empereur, B) embaumés, C) apprivoisés, D) cochons de lait, E) sirènes, F) fabuleux, G) chiens en liberté, H) inclus dans la présente classification, etc. »  En science, l'analogie peut à l'occasion, jouer un rôle.

     

    C'est ainsi qu'au début du 19e siècle, s'est développée l'anatomie comparée grâce à l'analogie entre organes et fonctions. Mais en regardant de plus près ce qui est souvent donné comme analogie véritable — à savoir le rapport entre deux proportions tel que, connaissant ce rapport et trois des termes -, je peux en conclure le quatrième -, on s'aperçoit que ceci s'apparente tout autant à la déduction qu'à ce qui est appelé induction.

     

    Ces comparaisons que le biologiste utilise ou que le juriste emploie sont plus proches de la déduction que de l'analogie, à la réserve près que cette déduction interviendra localement et selon différents niveaux de rigueur. Aristote lui-même ramenait, dans les Analytiques, les deux formes fondamentales du raisonnement à la déduction syllogistique et à son inverse, l'induction.  Le vrai problème en résumé n'est pas de savoir si l'argumentation naturelle, à savoir le discours quotidien, doit ou non respecter les formes d'une rigueur ailleurs définie pour les besoins de <st1:PersonName w:st="on" ProductID="la science. L">la science. </st1:PersonName>

    <st1:PersonName w:st="on" ProductID="la science. L"> </st1:PersonName>

    <st1:PersonName w:st="on" ProductID="la science. L">L</st1:PersonName>'opposition entre argumentation et démonstration, c'est-à-dire entre vraie et fausse rigueur, contrairement à ce que pensait Perelman, n'est pas de grande utilité. Ce qui importe, c'est de comprendre et d'analyser les opérations mises en jeu par un sujet qui argumente et les types d'ancrages sur lesquels ces opérations vont porter : individus, faits, objets, notions, situations. 10  1 . Aristote, Premiers Analytiques,

     

    P

    aris, Vrin 1962, I, 1, 24 b 15. 2 . « ...

    l'dée de nature est exemplaire. A la différence des concepts d'herbe, d'arbres, de fleur, de ciel ou de nuage, l'idée de nature ne nous met en présence d'aucune réalité individuelle », D. Bourg, Nature et technique, Paris, Hatier, « Optiques-Philosophie », 1997, p. 33.   3 . J. Woods et D. Walton, Critique de l'argumentation. Logiques des sophismes ordinaire. Paris, Kimé, 1992.  4 . Paris, Hermann, 1966. 5 . Le raisonnement, Paris, PUF, 1973, p. 137.  6 . Science et méthode, Paris, Flammarion, 1908. 5 commentaires
  • Ce blogg n'a  d'autre ambition que de me faire plaisir en partageant quelques bribes de savoir  et susciter en retour des commentaires éclairés (je l'espère) sur ces sujets.
    J'essaierai d'aborder pour partie (mathématique musique et physique )  les thèmes de réflexion sous l'angle du formalisme.
    Au début du XXeme siècle,



    David Hilbert pensait que le formalisme des mathématiques
    apportait une preuve irréfutable de la véracité des descriptions quantifiées. Mais en 1931, Gödel bouscula cette convention. Il démontra qu'un système formel qui pouvait faire l'objet d'une description finie était incomplet et ne pouvait démontrer sa consistance (à la fois sa véracité et sa négation).


    Mais existe-t-il une information minimale capable d'élaborer une théorie précise, le monde est-il compressible algorithmiquement parlant ?
    Quelle réalité soutend la physique Quantique ?


     


     


    votre commentaire
  • Pour les premiers Grecs, la géométrie était considérée comme la forme la plus haute du savoir, une puissante clé pour les mystères métaphysiques de l'univers. Elle était plutôt une croyance mystique, et le lien entre le mysticisme et la religion était rendu explicite dans des cultes comme ceux des Pythagoriciens. Aucune culture n'a depuis déifié un homme pour avoir découvert un théorème géométrique! Plus tard, les mathématiques furent considérées comme le modèle d'une connaissance a priori dans la tradition aristotélicienne du rationalisme. 
        


    L'étonnement des Grecs pour les mathématiques ne nous a pas quitté, on le retrouve sous la traditionnelle métaphore des mathématiques comme « Reine des Science ». Il s'est renforcé avec les succès spectaculaires des modèles mathématiques dans la science, succès que les Grecs (ignorant même la simple algèbre) n'avaient pas prévus. Depuis la découverte par Isaac Newton du calcul intégral et de la loi du carré inverse de la gravité, à la fin des années 1600, les sciences phénoménales et les plus hautes mathématiques étaient restées en étroite symbiose — au point qu'un formalisme mathématique prédictif était devenu le signe distinctif d'une « science dure ».


    Après Newton, pendant les deux siècles qui suivirent, la science aspira à ce genre de rigueur et de pureté qui sembraient inhérentes aux mathématiques. La question métaphysique semblait simple ; les mathématiques possédaient une connaissance a priori parfaite, et parmi les sciences, celles qui étaient capables de se mathématiser le plus parfaitement étaient les plus efficaces pour la prédiction des phénomènes . La connaissance parfaire consistait donc dans un formalisme mathématique qui, une fois atteint par la science et embrassant tous les aspects de la réalité, pouvait fonder une connaissance empirique a postériori sur une logique rationnelle a priori. Ce fut dans cet esprit que Condorcet entreprit d'imaginer la description de l'univers entier comme un ensemble d'équation différentielles partielles se résolvant les unes par les autres. 
         
    La première faille dans cette image inspiratrice apparut dans la seconde moitié du 19ème siècle, quand Riemann et Lobachevsky prouvèrent séparément que l'axiome des parallèles d'Euclides pouvait être remplacé par d'autres qui produisaient des géométries consistantes. La géométrie de Riemann prenait modèle sur une sphère, celle de Lobachevsky, sur la rotation dun hyperboloïde. 


    L'impact de cette découverte a été obscurci plus tard par de grands chamboulements, mais sur le moment, il fut un coup de tonnerre dans le monde intellectuel. L'existence de systèmes axiomatiques mutuellement inconsistants, et dont chacun pouvait servir de modèle à l'univers phénoménal, remettait entièrement en question la relation entre les mathématiques et la théorie physique. 


    Quand on ne connaissait qu'Euclide, il n'y avait qu'une géométrie possible. On pouvait croire que les axiomes d'Euclide constituaient un genre de connaissance parfaite a priori sur la géométrie dans le monde phénoménal. Mais soudain, nous avons eu trois géométries, embarrassantes pour les subtilités métaphysique. 


    Pourquoi aurions-nous à choisir entre les axiomes de la géométrie plane, sphérique et hyperbolique comme descriptions de la géométrie du « réel » ? Parce que toutes les trois sont consistantes, nous ne pouvons en choisir aucune comme fondement a priori — le choix doit devenir empirique, basé sur leur pouvoir prédictif dans une situation donnée. 


    Bien sûr, Les théoriciens de la physique ont longtemps été habitués à choisir des formalismes pour poser un problème scientifique. Mais il était admis largement, si ce n'est inconsciemment, que la nécessité de procéder ainsi ad hoc était fonction de l'ignorance humaine, et, qu'avec de la logique ou des mathématiques assez bonnes, on pouvait déduire le bon choix à partir de premiers principes, et produire des descriptions a priori de la réalité, qui devaient être confirmées après coup par une vérification empirique. 


    Cependant, la géométrie euclidienne, considérée pendant deux cents ans comme le modèle de la perfection axiomatique des mathématiques, avait été détrônée. Si l'on ne pouvait connaître a priori quelque chose d'aussi fondamental que la géométrie dans l'espace, quel espoir restait-il pour une pure théorie « rationnelle » qui embrasserait la totalité de la nature ? Psychologiquement, Riemann et lobachevsky avaient frappé au cœur de l'entreprise mathématique telle qu'elle avait été conçue jusqu'alors. 
         
    De plus, Riemann et Lobachevsky remettaient la nature de l'intuition mathématique en question. Il avait été facile de croire implicitement que l'intuition mathématique était une forme de perception — une façon d'entrevoir le noumène platonicien derrière la réalité. Mais avec deux autres géométries qui bousculaient celle d'Euclide, personne ne pouvait plus être sûr de savoir à quoi le noumène ressemblait. 


    Les mathématiciens répondirent à ce double problème avec un excès de rigueur, en essayant d'appliquer la méthode axiomatique à toute les mathématiques. Il fut progressivement découvert que la croyance en l'intuition mathématique comme à une sorte de perception d'un monde nouménal avait encouragé la négligence ; dans la période pré-axiomatique, les preuves reposaient souvent sur des intuitions communément admises de la « réalité » mathématique, qui ne pouvaient plus être considérées automatiquement comme valides. 


    La nouvelle façon de penser les mathématiques conduisait à une série de succès spectaculaires, parmi lesquelles la théorie des ensembles de Cantor, l'axiomatisation des nombres de Frege, et éventuellement, la monumentale synthèse des Principia Mathematica de Russell et Whitehead. 


    Pourtant cela avait aussi un prix. La méthode axiomatique rendait la connexion entre les mathématiques et la réalité phénoménale toujours plus étroite. En même temps, des découvertes comme le paradoxe de Balzano suggéraient que les axiomes mathématiques qui semblaient être consistants avec l'expérience phénoménale pouvait entraîner de vertigineuses contradictions avec cette expérience. 


    La majorité des mathématiciens devinrent rapidement des « formalistes », soutenant que les mathématiques pures ne pouvaient qu'être considérées philosophiquement comme une sorte de jeu élaboré qui se jouait avec des signes sur le papier (c'est la théorie qui sous-tend la prophétique qualification des mathématiques de « système à contenu nul » par Robert Heinlein). La croyance « platonicienne » en la réalité nouménale des objets mathématiques, à l'ancienne manière, semblait bonne pour la poubelle, malgré le fait que les mathématiciens continuaient à se sentir comme les platoniciens durant le processus de découverte des mathématiques. 


    Philosophiquement, donc, la méthode axiomatique conduisait la plupart des mathématiciens à abandonner les croyances antérieures en la spécificité métaphysique des mathématiques. Elle produisit aussi la rupture contemporaine entre les mathématiques pures et appliquées. 


    La plupart des grands mathématiciens du début de la période moderne — Newton, Leibniz, Fourier, Gauss et les autres — s'occupaient aussi de science phénoménale (c'est à dire de « philosophie naturelle »). La méthode axiomatique avait couvé l'idée moderne du mathématicien pur comme un super esthète, insoucieux de la physique. Ironiquement, le formalisme donnait aux purs mathématiciens un mauvais penchant à l'attitude platonicienne. Les chercheurs en mathématiques appliquées cessèrent de côtoyer les physiciens et apprirent à se mettre à leur traîne. 
         
    Ceci nous emmène au début du vingtième siècle. Pour la minorité assiégée des platoniciens, le pire était encore à venir. 


    Cantor, Frege, Russell et Whitehead montrèrent que toutes les mathématiques pures pouvaient être construites sur le simple fondement axiomatique de la théorie des ensembles. Cela convenait parfaitement aux formalistes ; les mathématiques se réunifiaient, du moins en principe, à partir d'un faisceau de petits jeux détachés d'un grand. Les platoniciens aussi étaient satisfaisaits ; s'il en survenait une grande structure, clé de voûte consistante pour toutes les mathématiques, la spécificité métaphysique des mathématiques pouvait encore être sauvée. 


     Malheureusement, il s'avère qu'il existe plus d'une façon d'axiomatiser la théorie des ensembles. En particulier, il y a au moins quatre façons différentes de combiner les propositions sur les ensembles infinis, qui conduisent à des théories des ensembles qui s'excluent (l'axiome de choix ou sa négation, l'hypothèse de continuité ou sa négation.)


    C'était encore et toujours Riemann/Lobachevsy, mais à un niveau beaucoup plus fondamental. Les géométries riemanniennes et lobachevskiennes pouvaient fonctionner avec des modèles finis, dans le monde ; vous pouviez décider empiriquement, à la limite, laquelle convenait. Normalement, vous pouviez considérer les trois comme des cas particuliers de la géométrie des géodésiques sur les variétés, ce faisant les intégrer à la superstructure érigée sur la théorie des ensembles. 


    Mais les axiomes indépendants dans la théorie des ensembles ne paraissent pas conduire à des résultats qui puissent être modélisés dans le monde fini. Et il n'y a aucun moyen d'affirmer à la fois l'hypothèse de continuité et sa négation dans une théorie des ensembles unique. Comment un pauvre Platonicien choisit-il quel système décrit les mathématiques « réelles » ? La victoire de la position formaliste semblait complète.
         
    D'une façon négative, pourtant, un platonicien eut le dernier mot. Kurt Godel mit son grain de sable dans le programme formaliste d'axiomatisation quand il démontra que tout système d'axiomes assez puissant pour inclure les entiers devait être soit inconsistant (contenir des contradictions) soit incomplet (trop faible pour décider de la justesse ou de la fausseté de certaines affirmations du système). 


    Et c'est plus ou moins où en sont les choses aujourd'hui. Les Mathématiciens savent que de nombreuses tentatives pour faire avancer les mathématiques comme une connaissance a priori de l'univers doivent se heurter à de nombreux paradoxes et à l'impossibilité de décider quel système axiomatique décrit les mathématiques « réelles ». Ils ont été réduits à espérer que les axiomatisations standard ne soient pas inconsistantes mais incomplètes, et à se demander anxieusement quelles contradictions ou quels théorèmes indémontrables attendent d'être découverts ailleurs, cachés comme des champs de mines dans la noosphère. 


    Cependant, sur le front de l'empirisme, les mathématiques étaient toujours un succès spectaculaire en tant qu'outil de construction théorique. Les grands succès de la physique du 20ème siècle (la relativité générale et la mécanique quantique) poussaient si loin hors du royaume de l'intuition physique, qu'ils ne pouvaient être compris qu'en méditant profondément sur leurs formalismes mathématiques, et en prolongeant leurs conclusions logiques, même lorsque ces conclusions semblaient sauvagement bizarres. 


    Quelle ironie. Au moment même où la « perception » mathématique en venait à paraître toujours moins fiable dans les mathématiques pures, elle devenait toujours plus indispensable dans les sciences phénoménales. 
         
    À l'opposé de cet arrière-plan, la fameuse citation d'Einstein sur l'applicabilité des mathématiques à la science phénoménale pose un problème plus épineux qu'il n'apparaît d'abord. 


    Le rapport entre les modèles mathématiques et la prédiction des phénomènes est complexe, pas seulement dans la pratique mais dans le principe. D'autant plus complexe que, comme nous le savons maintenant, il y a des façons d'axiomatiser les mathématiques qui s'excluent!


    les relations entre un modèle prédictif et un formalisme mathématique. Ce qui trompa Einstein est combien D conduit souvent à des conceptions nouvelles. 
         
    Nous commençons à avoir quelques prises sur le problème si nous le formulons plus précisément, c'est à dire, « Pourquoi un bon choix de C donne si souvent de nouvelles connaissances via D. 


     La réponse la plus simple consiste à inverser la question et la traiter comme une définition. Le « bon choix de C » est celui qui conduit à une nouvelle prédiction. Le choix de C n'est pas tel qu'il puisse être fait a priori ; on doit choisir, empiriquement, comment dresser une carte de la réalité avec les objets mathématiques, puis l'évaluer en voyant si cette cartographie prédit bien. 


    Par exemple, les entiers positifs sont un bon formalisme pour compter des billes. Nous pouvons prédire avec confiance que si nous mettons deux billes dans une jarre, et puis trois billes dans une jarre, et puis si nous associons empiriquement l'ensemble de deux billes avec l'entité mathématique 2, et de même si nous associons l'ensemble de trois billes avec l'entité mathématique 3, et puis si nous supposons que l'agrégation physique est modélisée par +, alors le nombre de billes dans la jarre correspondra avec l'entité mathématique 5. 


    Ce qui précède peut sembler être une remarquable accumulation de pédanterie pour emballer une association évidente, telle que nous pouvons en faire sans devoir les penser. Mais souvenez-vous que les petits enfants doivent apprendre à compter... et considérez comment vous échoueriez plus haut si nous avions mis dans la jarre, plutôt que des billes, des mottes de vase ou des volumes de gaz. 


     On pourrait arguer qu'il n'y a de sens à s'émerveiller sur l'utilité des mathématiques que si l'on suppose que C, pour tout système phénoménal, est une donnée a priori. Mais nous avons vu que ce n'est pas le cas. Un physicien qui s'émerveille de l'applicabilité des mathématiques a oublié ou ignore la complexité de C ; il reste en réalité perplexe devant l'aptitude humaine à choisir empiriquement les modèles mathématiques appropriés. 


     Mais en formulant la question ainsi nous avons à moitié terrassé le dragon. Les être humains sont des singes ingénieux et obstinés qui aiment jouer avec les idées. Si un formalisme mathématique adapté à un système phénoménal peut être trouvé, des humains finiront par le découvrir. Et la découverte paraîtra finalement « inéluctable », car ceux qui essayeront et échoueront seront généralement oubliés. 
         


     Mais il y a une question plus profonde derrière celle-ci : pourquoi existe-t-il seulement de bons choix de modèle mathématique  ? C'est à dire, pourquoi y a-t-il un formalisme mathématique, par exemple pour la mécanique quantique, si productif qu'il prédit réellement la découverte de nouvelles particules observables ? 


     Pour « répondre » à cette question on observera qu'elle peut, aussi bien, fonctionner comme une sorte de définition. Pour beaucoup de système phénoménaux, de tels formalismes prédictifs exacts n'ont pas été trouvés, et aucun ne semble plausible. Les poètes aiment marmonner sur le cœur des hommes, mais on peut trouver des exemples plus ordinaires : le climat, où le comportement d'une économie supérieure à celle d'un village, par exemple — systèmes si chaotiquement interdépendants que la prédiction exacte est effectivement impossible (pas seulement dans les faits mais en principe). 


    Il y a beaucoup de choses pour lesquelles la modélisation mathématique conduit au mieux à des résultats statistiques confus et contingents et, pour le moins, ne prédit jamais avec succès de « nouvelles entités ». Ainsi la réponse correcte à cette question « Pourquoi les mathématiques sont-elles si merveilleusement applicables à ma science ? » est-elle simplement « Parce que c'est la sorte de science que vous avez choisi d'étudier! »

     Eric S. Raymond






    Traduit par Jean-Pierre Depétris
    Revu par P. N. Van Minh, mars 2002.
    texte original en Anglais



    votre commentaire