• Erwin Schrödinger (1887-1961), physicien autrichien, professeur aux universités de Berlin, Oxford et à l'Institute of Advanced Studies de Dublin. Il pose les bases de la mécanique quantique en postulant l'équation qui porte son nom. Il est versé aussi dans la philosophie et la littérature. En 1944, il publie Qu'est-ce que la vie ?, où il tente d'expliquer l'hérédité biologique par les lois de la physique ; ce livre aura une grande influence dans la découverte du code génétique. Prix Nobel de physique en 1933.


  • Hier conference de G. Veneziano Le reve d'einstein serait-il en passe de se realiser?


    Né à Florence en 1942, Gabriele Veneziano a été notamment professeur au Wiezmann Institute (Israël) et chef de la Division de physique nucléaire du CERN (Genève). Il est à l'origine de la théorie des cordes et, depuis 2004, professeur au Collège de France, chaire des Particules élémentaires, gravitation et cosmologie.


    Debut de son expose


  • Georg Cantor (1845 - 1918)

     

    Georg Cantor est célèbre avant tout pour sa construction des Nombres Réels, pour sa Théorie des ensembles, et sa Théorie des infinis. il a fait également des découvertes sur les séries trigonométriques, en Topologie Générale, dans la théorie de la mesure. On peut citer l'ensemble triadique de Cantor, sorte de poussière de points (totalement discontinu, sans points isolés, non dénombrable, de mesure nulle), que l'on pourrait appeler, à la suite de Benoît Mandelbrot, un ensemble fractal.


  • Kurt Gödel (1906 - 1978) )


    Kurt Gödel est né le 28 avril 1906 à Brno, à 180 km au sud-est de Prague (Empire Austro-Hongrois, aujourd'hui situé en république tchèque). Il est le fils cadet de deux enfants de Rudolf et Marianne Gödel, des allemands expatriés travaillant dans l'industrie textile.


    Énoncé simplifié du théorème d'incomplétude


    Dans toute branche des mathématiques suffisamment complexe (par exemple l'arithmétique), il existe une infinité de faits vrais qu'il est impossible de prouver en utilisant la branche des mathématiques en question.

    Bien évidement le théorème tel qu'il a été écrit par Gödel est plus précis, de même que la preuve qu'il en a donné. L'idée de cette preuve est néanmoins accessible, et nous en donnons plus loin une esquisse.


    Qu'a fait Gödel avec son théorème ?


    Jusqu'au début du siècle les mathématiciens étaient persuadés qu'on pouvait, un peu à la manière des écoliers en géométrie, démontrer toutes les vérités mathématiques par déduction.


    Gödel a démontré en 1931 deux résultats mathématiques :



    • Il se peut que dans certains cas, on puisse démontrer une chose et son contraire (inconsistance).
    • Il existe des vérités mathématiques qu'il est impossible de démontrer (incomplétude)

    Le plus célèbre de ces résultats est le second, qu'on appelle théorème d'incomplétude de Gödel.


     


    Une preuve simplifiée du théorème


    Malgré les performances et la diversité des ordinateurs actuels, tous ont un modèle théorique commun appelé machine de Turing. On peut donner à une machine de Turing un programme arbitrairement long, mais évidemment de taille finie, qui répond VRAI ou FAUX à une affirmation qu'on lui donne, sans jamais se tromper.
    La question est:
    Si un humain est capable de savoir si la phrase qu'il donne à la machine est vraie ou fausse, la machine est-elle aussi capable de découvrir la vérité ?


    Gödel donne alors la phrase suivante à la machine:
    "La machine ne répondra jamais VRAI à cette phrase"

    Que fait la machine ?


    • Si elle répond VRAI, elle affirme que "La machine ne répondra jamais VRAI à cette phrase" est une affirmation vraie. Or ce n'est pas le cas, puisqu'elle vient justement de répondre VRAI à la phrase. Si la machine ne se trompe pas, elle ne peut donc pas répondre VRAI.
       
    • Si elle répond FAUX, elle affirme que "La machine ne répondra jamais VRAI à cette phrase" est une affirmation fausse. Or l'affirmation n'est pas fausse puisque la machine vient justement de répondre FAUX. Si la machine ne se trompe pas, elle ne peut donc pas répondre FAUX.

     


    Et nous, pouvons nous répondre à la question ?...
    La phrase dit : "La machine ne répondra jamais VRAI à cette phrase". Nous venons de voir qu'en effet, la machine ne peut pas répondre VRAI. Nous savons donc que cette phrase est une vérité. Pourtant la machine ne pourra pas la découvrir...






    Tout sur le théorème



    La géométrie d'Euclide

    Tous les écoliers le savent, la géométrie est une discipline déductive. Elle se différencie en cela des sciences physiques, par exemple, qui sont une science en partie expérimentale car on peut vérifier la véracité de ce que l'on affirme par l'expérience.


    D'aucun répondront qu'on peut faire de même en géométrie : mesurer un angle, les côtés d'un triangle...Eh bien, oui et non... Ce qui a fait le succès de la géométrie et le malheur de nombreux écoliers depuis les Grecs c'est la méthode axiomatique utilisée par Euclide, qui permet de démontrer en géométrie des théorèmes en utilisant uniquement la logique de l'esprit et des axiomes de base (axiomes d'Euclide par exemple) comme le fameux :


    "Par deux points, on ne mène qu'une droite"


    Ce type de démonstration se passe de vérification par l'expérience. Le côté évidement vrai des axiomes et la logique normalement implacable de la déduction font que le résultat obtenu ne peut être que vrai, ce qui a fait de la géométrie Euclidienne un modèle de connaissance scientifique pendant 2000 ans.


    On pensait encore, il y a 200 ans, que toutes les branches des mathématiques, à l'instar de la géométrie, pouvaient être axiomatisées et qu'on pouvait déduire logiquement de ces axiomes toutes les vérités concernant la discipline en question.


    Mais au 19ème siècle, certains scientifiques ont remplacé un des axiomes d'Euclide :






    "par un point donné, on fait passer exactement une parallèle à une droite donnée"

    par un autre énoncé, comme par exemple celui de Riemann :






    "par un point hors d'une droite, on ne peut faire passer aucune parallèle à cette droite"

    En utilisant le nouveau jeu d'axiomes comme vérités de base, on peut déduire, comme en géométrie Euclidienne, des théorèmes, dont certains seront faux dans notre monde, puisqu'ils sont déduis d'un axiome faux dans notre monde (ce qui n'exclu pas qu'ils soient justes dans un monde imaginaire dans lequel les axiomes seraient vrais).


    Ce phénomène a fait prendre conscience aux mathématiciens que la géométrie était une chose "palpable", dont les affirmations, énoncés et théorèmes n'étaient pas vides de sens, et que ce sens "intuitif" pouvait les gêner dans leur tâche qui consiste à déduire une chose de certaines autres, sans forcément se soucier de la véracité des faits démontrés.
    Or on sait qu'il faut se méfier de l'intuition et du « C'est clair ! » des profs de maths, comme le montre l'exemple suivant dû à Russel :






    Il y a deux sortes d'ensembles, les ensembles normaux, qui ne se contiennent pas eux même, comme l'ensemble des mots de ce texte, et les ensembles non-normaux, qui se contiennent eux même, comme l'ensemble des choses dont on parle dans ce texte (en effet, je viens d'en parler). Considérons à présent N, l'ensemble des ensembles normaux. La question est : N est-il normal ?

    • Si N est normal, alors, il est dans N puisque N est l'ensemble des ensembles normaux. N se contient donc lui-même et par conséquent N est non-normal.
    • Au contraire, si N est non-normal, alors il se contient lui-même, or les éléments de N sont les ensembles normaux, donc N est normal.
    Où est passée l'intuition...?

    La tentative de Hilbert

    Afin de trouver une solution à un certain nombre de ces problèmes, Hilbert a proposé au début du siècle un programme de recherche visant entre autres à formaliser les mathématiques, c'est à dire à définir les termes utilisés de façon non ambigu et sans faire appel à l'intuition.


    Un des buts de Hilbert était d'obtenir des théories formelles en mathématiques, c'est à dire :



    • un ensemble de règles pour écrire les formules
    • un ensemble d'axiomes (formules de base qui représentent ce qu'on juge vrai) écrits dans le système formel
    • un ensemble de règles de transformation qui permettent de passer d'une formule à une autre, c'est à dire de déduire d'un axiome ou d'un théorème, un nouveau théorème

    Les règles doivent être suffisamment précises pour être applicables mécaniquement, par une machine par exemple, sans faire appel à l'intelligence.
    On pourrait ainsi programmer un ordinateur en lui donnant les règles et les axiomes, puis en lui demandant d'appliquer successivement toutes les règles à tous les axiomes, dans un processus éventuellement infini. L'ordinateur serait alors capable de lister tout ce qu'on peut déduire des axiomes, c'est à dire tous les théorèmes possibles de la théorie formelle.
    Imaginons à présent que nous voulions savoir si une certaine formule F est un théorème, c'est à dire si elle peut être déduite des axiomes en utilisant une suite de déductions. Quatre cas peuvent se présenter si nous utilisons l'ordinateur en question :



    1. Il listera la formule F , et pas la formule non F
    2. Il listera la formule non F , et pas la formule F
    3. Il listera la formule F et la formule non F
    4. Il ne listera ni la formule F , ni la formule non F

    Dans le cas 1, cela signifie que la formule F est un théorème. Dans le cas 2, que la formule non F est un théorème. Que dire des autres cas ? Dans le cas 3, on dit que la théorie est inconsistante, c'est à dire qu'on peut à la fois prouver une chose et son contraire. Dans le quatrième cas, on dit que la théorie est incomplète, c'est à dire qu'il existe des choses dont on ne peut savoir si elles sont vraies ou non.


    Un exemple concret de système formel, avec redéfinition des termes consistance et complétude est accessible ici.


    La deuxième partie du programme de Hilbert consistait justement à démontrer que les théories formelles des mathématiques étaient consistantes.


    Si beaucoup de travail a été réalisé en ce qui concerne la formalisation des mathématiques (des théories formelles pour de nombreuses branches des mathématiques ont été développées à partir du 19ème siècle, avant même le programme de Hilbert), il a fallu attendre les résultats de Gödel, assez inattendus, pour répondre entre autres à la deuxième partie du programme.



    La réponse de Gödel

    En 1931, dans un article intitulé "Über formal unentscheidbare Sâtze der Principia Mathematica und verwandter Systeme" (Sur les propositions formellement indécidables des Principia Mathematica et des systèmes apparentés) Gödel a démontré qu'il était impossible de prouver la consistance d'un certain nombre de théories formelles (dont l'arithmétique) en utilisant ces théories, contrairement à ce que semblait croire Hilbert. Ce premier résultat, très inattendu pour l'époque s'est accompagné d'un deuxième, plus célèbre, le théorème d'incomplétude qui énonce que la plupart des théories formelles (dont l'arithmétique), si elles sont consistantes, sont incomplètes, c'est à dire qu'il existe des résultats effectivement vrais qui ne peuvent pas être prouvés dans cette théorie.


    Pour en revenir à notre ordinateur qui déduit des théorèmes, les résultats de Gödel prouvent que pour la plupart des théories formelles, il existe des formules F pour lesquelles l'ordinateur sera confronté au 3ème ou au 4ème cas.


    On pourra en premier lieu consulter une démonstration simplifiée du théorème avant de lire ce qui suit.


    Très basiquement, la démonstration de Gödel a consisté à écrire le paradoxe du menteur (Tous les crétois sont des menteurs, c'est un crétois qui le dit...) en utilisant l'arithmétique. Plus précisément, il a construit une formule de l'arithmétique qui affirme d'elle même qu'elle est indémontrable.


    Le système formel qu'a utilisé Gödel pour sa démonstration est voisin de celui des Principia Mathematica de Whitehead et Russell. Ce système formel permet d'exprimer les relations arithmétiques courantes.
    Nous ne referons pas bien sûr dans la suite la démonstration complète de Gödel qui est longue et difficile, mais nous essaierons d'en indiquer clairement les étapes.

    La numération de Gödel et les métamathématiques

    La première étape a consisté à assigner à chaque symbole du sytème formel un nombre différent. Puis Gödel a trouvé le moyen d'affecter un nombre à chaque formule (en faisant le produit des premiers nombres premiers élevés à la puissance du nombre représentant les symboles qui y figurent), puis à chaque suite de formule.
    L'important est de comprendre qu'un nombre de Gödel étant donné, on peut déterminer si c'est une suite de formules (et si oui de quelles formules elle est composée), une formule (et si oui laquelle) ou un symbole.
    Inversement, étant donné un symbole, une formule ou une suite de formules, on peut facilement calculer le nombre de Gödel associé.


    Tous ces nombre qui représentent des formules ou des suites de formules représentent donc des faits de l'arithmétique, mais nous pouvons aussi nous intéresser à la méta-arithmétique, qui consiste à parler des faits qui concernent l'arithmétique. Par exemple, dire que






    "Pour tout x, il existe y tel que y > 2x"

    est un fait arithmétique, c'est à dire un fait qui concerne les nombres entiers. D'un autre côté, dire que






    La formule "Pour tout x, il existe y tel que y > 2x" est démontrable en arithmétique

    est un fait meta-arithmétiquen, c'est à dire un fait qui concerne l'arithmétique.


    Les formules et suites de formules étant représentés par Gödel sous forme de nombres, celui-ci a ainsi pu exprimer des faits méta-arithmétiques par des formules arithmétiques... Par exemple, dire qu'une formule de nombre de Gödel g1 contient la formule de nombre de Gödel g2 revient plus ou moins, avec la méthode de Gödel à affirmer que g2 est un diviseur de g1, ce qui une propriété arithmétique, exprimant un fait méta-arithmétique.
    Gödel a ainsi réussi à exprimer, en utilisant les nombres de Gödel et l'arithmétique (mais la formule reste assez complexe) que :






    La formule de nombre de Gödel g1 est démontrable par la suite de formules de nombre de Gödel g2.

    Dans la suite, nous appellerons cette formule G.

    La preuve d'incomplétude

    La suite du raisonnement a été de montrer que si G était était démontrable, alors la négation de G le serait aussi, et inversement. On aurait alors la possibilité de démontrer une formule et son constraire, ce qui est la définition de l'inconsistance vue plus haut. Par conséquent, si on suppose que le système formel employé est consistant (i.e. que l'arithmétique est consistante), alors on ne peut pas démontrer la formule G ni son contraire. On dit que G est indécidable. Or, la formule G dit que la formule G est indémontrable (rappellons la formule)






    n : Il n'existe aucun nombre de Gödel qui représente une suite de formule qui soit la démonstration de la formule portant le nombre de Gödel n .

    Cette affirmation métamathématique (disant que G est indémontrable) est manifestement vraie, comme nous venons de le voir. Et elle est representée par une formule arithmétique, selon la methode de Gödel, qui est donc vraie elle aussi...


    Gödel a donc au final construit une fomule arithmétique qui est vraie, et qu'on ne peut pas démontrer en utilisant un système formel de l'arithmétique si celui-ci est consistant.


    En allant un peu plus loin, Gödel a montré que même en posant comme axiome que G soit vraie, on pourrait toujours trouver une formule vraie et indémontrable, ce qui signifie que si l'arithmétique est consistante, non seulement elle est incomplète, mais le sera toujours même si on y ajoute des axiomes supplémentaires.

    Inconsistance de l'arithmétique ?

    Par un raisonnement un peu similaire, Gödel a construit une formule, exprimée dans le système formel qui affirme que :






    Si l'arithmétique est consistante, alors la fomule G est vraie.

    Puis il démontre cette affirmation, toujours en utilisant le système formel. Ceci implique que si on pouvait démontrer dans le système formel, que l'arithmétique est consistante, alors, en utilisant la preuve donnnée par Gödel, il s'en suivrait que G serait démontrable dans le système formel. Or nous venons de voir que ce n'était pas le cas. Par conséquent, c'est qu'il est impossible de démontrer dans le système formel que l'arithmétique est consistante, ce qui a apporté une réponse au problème de Hilbert...



  •   (constitué par Serge DIEBOLT à partir des travaux de Jean-William LAPIERRE et Jean-Louis LE MOIGNE ;
      qu'ils en soient remerciés)



    • Algorithme : procédé de calcul, série d'énoncés indiquant les opérations à faire pour obtenir un certain résultat recherché
    • Ambivalence : propriété consistant à unir deux valeurs contraires. Exemple : l'amour et la haine dans les relations avec autrui (ambivalence des sentiments) ; le bien et le mal dans une action (conduite ambivalente) ; des dispositions favorables et défavorables dans une attitude (attitude ambivalente) ;  la conservation et la destruction du système dans une stratégie double ; une prescription dont la réalisation entraîne sa satisfaction et sa contrariété ("soyez spontané")
    • Anomie : terme employé par Durkheim pour signifier l'absence, la confusion ou la contradiction des règles sociales, sont résulte une désorientation des cellules individuelles et collectives, et une désorganisation du groupe
    • Anthropomorphisme : représentation sous une forme humaine des dieux, animaux, phénomènes naturels. Exemple : représenter une ruche d'abeilles comme une société humaine, avec une "reine", des "ouvrières".
    • Asynchronisme : décalage dans le temps, manque ou absence de synchronisation. Tous les systèmes sociaux d'une même société ne changent pas en même temps (voir synchronique)
    • Axiologie : réflexion sur les valeurs ; étude des axiomes ; affirmation et justification d'un système de valeurs et de normes. Un processus orienté vers des valeurs peut être dit axiologique.
       
    • Behaviourisme : théorie selon laquelle on ne peut connaître scientifiquement que les comportements individuels ou collectifs objectivement observables et on doit les expliquer comme des réponses ou réactions à certaines excitations (stimuli) provoqués par des agents extérieurs. Cette explication établit un rapport de cause à effet entre le stimulus et le comportement étudié. Elle exclut la rétroaction et la téléonomie.
       
    • Complexité : Définition usuelle
        Ce n'est pas tant la multiplicité des composants, ni même la diversité de leurs interrelations, qui caractérisent la complexité d'un système : tant qu'ils sont pratiquement et exhaustivement dénombrables on sera en présence d'un système compliqué (ou hypercompliqué), dont un dénombrement combinatoire pourrait permettre de décrire tous les comportements possibles (et par là de prédire son comportement effectif à chaque instant dès que la règle ou le programme qui les régit est connue) : en termes mathématico-informatiques on dit alors qu'on est en présence d'un "problème polynomial" ("P. Problem").
        C'est l'imprévisibilité potentielle (non calculable a priori) des comportements de ce système, liée en particulier à la récursivité qui affecte le fonctionnement de ses composants ("en fonctionnant ils se transforment"), suscitant des phénomènes d'émergence certes intelligibles, mais non toujours prévisibles. Les comportements observés des systèmes vivants et des systèmes sociaux fournissent d'innombrables exemples de cette complexité. Pendant deux siècles, la science positive a semblé "baisser les bras" devant ces phénomènes, préférant ne vouloir connaître que le "scientifiquement prévisible" ou calculable, avant que G. Bachelard ne lui rappelle "son idéal de complexité" qui est de rendre le merveilleux intelligible sans le détruire. En introduisant le concept de "complexité organisée" en 1948, W. Weaver allait réouvrir de nouvelles voies à "l'intelligence de la complexité" que P. Valéry avait déjà définie comme "une intelligible imprévisibilité essentielle". Edgar Morin, à partir de 1977 ("La Méthode", T. I) établira le "Paradigme de la complexité" qui assure désormais le cadre conceptuel dans lequel peuvent se développer nos exercices de modélisation des phénomènes que nous percevons complexes ("point de vue") : une complexité à la fois organisée et, récursivement, organisante.
    • Cybernétique : science et technique des systèmes capable d'autorégulation programmée grâce à des processus de réception et de traitement de l'information, et à des boucles de rétroaction. L'appareil de pilotage automatique des avions, le thermostat d'une chaudière ou le régulateur d'une centrale sont des machines cybernétiques (voir servomécanisme)
       
    • Décision : Définition usuelle
        La décision est entendue d'abord comme "une activité de l'esprit et son résultat" (Action de décider quelque chose, de ce décider après délibération), parfois comme une disposition de l'esprit ("agir avec décision"). Elle décrit aussi le seul résultat, sous la forme d'une instruction ou d'un arrêté.
        Mais l'usage confond souvent le processus d'élaboration de la décision avec son moment final, le choix pour la signature. C'est pourquoi, l'anglo-saxon distingue volontiers le processus de son résultat (H.A. Simon ne parle que du "Decision-making Process"), alors que les théories dites mathématiques de la décision ne portent que sur le "choix final" (théorie du choix rationnel).
    • Diachronique : adjectif signifiant ce qui se prolonge, évolue ou se transforme dans le temps (par opposition : synchronique)
    • Dialectique : démarche de la pensée consistant à confronter des opinions, des assertions, des idées ou des thèses logiquement contraires ou contradictiores et à montrer comment elles sont liées en réalité par des relations de complémentarité, d'unité ou d'identité. Le concept de stratégie double est dialectique en ce qu'il désigne une manière d'agir qui, tout en conservant ou développant un système, tend à le détruire
    • Dysfonctionnement : perturbation de fonctionnement d'un organisme vivant ou d'un système social qui cesse de satisfaire à sa finalité (voir téléonomie) parce que certaines de ses fonctions sont mal remplies, voire plus du tout
       
    • Efficacité/Effectivité : Définition usuelle
        Bien que le mot "effectivité" apparaisse dans le dictionnaire français avec la mention "rare" : "caractère de ce qui est effectif" ou en logique mathématique, caractérisant "un procédé effectif", il n'est pas encore complètement entré dans l'usage pour traduire, fort correctement, l'anglais "effectiveness". Sans doute parce que les dictionnaires français-anglais ont longtemps traduit "effectiveness" par efficacité ! Traduction qui a suscité et qui suscite encore bien des confusions car le mot efficacité traduit aussi un autre mot anglais, au sens sensiblement différent : "efficiency" (que l'on traduit parfois par "efficience", en précisant qu'il est alors synonyme d'efficacité !).
        Il vaut mieux actuellement demander à l'étymologie plutôt qu'à l'usage, des repères stables pour définir ces deux mots qui expriment deux dimensions différentes de l'évaluation du comportement d'un système :
        Effectivité : exprime la qualité de l'adéquation entre ce que l'on fait effectivement et ce que l'on voulait faire : l'effet est rapporté à la finalité (interprétation téléologique).
        Efficacité : exprime la qualité de l'adéquation entre ce que l'on a fait ou produit (le résultat) et ce que l'on a consommé ou utilisé pour le faire (la ressource). L'effet du moyen est ici rapporté à sa cause (interprétation mécaniciste ou causaliste), sans égard aux finalités du système considéré. Rendement, productivité, rentabilité, efficience, sont les modalités usuelles de description de l'efficacité selon les domaines : ingénierie, gestion, finance, économie,...
        Les deux définitions sont en quelque sorte "orthogonales" : l'effectivité évalue l'action par rapport à ses buts ; évaluation qui sera souvent qualitative ; alors que l'efficacité évalue le résultat de l'action par rapport à l'économie de l'action elle-même, évaluation qui pourra généralement être quantitative.
        Ainsi on pourra simultanément manifester une grande efficacité (consommer 5 litres au cent lors d'un déplacement en automobile) et une piètre effectivité (se retrouver à Reims alors qu'on voulait aller à Rouen !). Le risque, on le voit, est de croire que l'on évalue une performance globale (effectivité) en ne mesurant que l'efficacité.
    • Endogène : adjectif désignant tout ce qui vient de l'intérieur, ce qui a son origine au-dedans de l'objet, de l'organisme, du système ou de l'ensemble étudié. Par opposition : exogène
    • Entité : l'essence (abstraite) d'un genre ou d'une catégorie d'êtres concrets. Exemple : un individu, un groupe existent concrètement ; un acteur dans un système est une entité. Ce qui est "essentiel" pour l'analyse est que l'individu ou le groupe agit, participe aux processus de la dynamique du système
    • Entropie : dans les transformations d'énergie, c'est la tendance vers un état de désordre moléculaire où l'énergie n'est plus utilisable sous forme de travail. Le deuxième principe de thermodynamique, établi par Carnot et Clausius, énonce cette tendance à la dégradation de l'énergie, le premier affirmant la conservation de la quantité d'énergie à travers les transformations ; si la quantité se conserve, la qualité (au point de vue de l'ingénieur) se dégrade car de plus en plus d'énergie se disperse en chaleur inutilisable. Ce concept a été emprunté à la physique par la biologie, l'économie, la sociologie où il a pris le sens général de tendance à la désorganisation ou à la déstructuration
    • Épistémologie : réflexion critique sur la connaissance, notamment sur la science, ses conditions de possibilité et de développement, ses principes et ses règles de méthode, ses limites. Le mot grec epistémè qui signifie "connaissance" est parfois employé en français pour signifier : mode de connaissance, manière de mener une recherche scientifique
    • État d'un système : étymologiquement, un état est une matière d'être à un moment donné. L'état d'un système se définit comme l'ensemble des valeurs de ses variables d'entrée, d'état ou de sortie à un moment donné du temps. C'est aussi la manière dont ses sous-systèmes interagissent à un moment donné. Les deux définitions sont liées : de l'interaction entre les sous-systèmes dépend la production de ce qui sort et la réception de ce qui entre. État stable : voir stabilité 
    • Ethnocentrisme : tendance à interpréter et à évaluer les comportements et les rapports sociaux observés dans une autre société en se référant aux valeurs et aux normes de sa propre société considérée comme universelles.
    • Evolution : Définition usuelle
        Transformation graduelle ou suite de transformations au fil du temps, conçues en général comme assez lentes. La définition implique qu'elle peut concerner tous les types de phénomènes pouvant être considérés, mais, en pratique, elle concerne le plus souvent les systèmes vivants ou animés observables par leurs formes (morphologie).
        Cette expression des caractéristiques temporelles d'un phénomène s'est souvent exprimée par leur inscription spatiale (le mouvement des troupes sur le terrain ou la trajectoire d'un avion dans l'espace se décrivent par leur "évolution").
        Le mot Evolution recouvre deux types de transformations temporelles : les évolutions discontinues telles que mutations ou changement de phases, sont perçues plus imprévisibles dans leurs résultats que les évolutions "continues" de type développement ou vieillissement. La "théorie des bifurcations" (qui interprète une "continuité visible" par une éventuelle "discontinuité invisible" dont l'issue est rarement prévisible) permet peut-être de relier ces deux conceptions.
    • Exogène : désigne ce qui vient de l'extérieur, ce qui a son origine en dehors de l'objet, de l'orgnisme, de l'ensemble ou du système étudié. Par opposition : endogène
    • Extrant : traduction française de l'anglais output, pour signifier ce qui sort (la plupart du temps un flux) du système (synonyme : variable de sortie)
       
    • Finalisation : Définition usuelle
        Les dictionnaires contemporains ignorent encore ce substantif verbal, comme ils ignorent le verbe (et l'action de) finaliser, qui lui a donné naissance. Ils ne se réfèrent qu'au résultat de cette action : la finalité qui exprime l'adaptation de moyens à une fin. Définition qui ne précise pas lequel des deux termes doit ou peut s'adapter à l'autre, même si, dans les contextes usuels, il est tacitement entendu que la fin est donnée et invariante.
        Le concept a pourtant une longue histoire dans nos cultures, depuis Aristote, pour qui "les fins occupaient une place centrale dans la logique" (dixit J. Dewey) à Kant, qui insistait : "un produit organisé de la nature est celui par lequel tout est fin et réciproquement aussi moyen". Il réapparaît progressivement grâce à la restauration du concept connexe de "téléologie" par la cybernétique (N. Wiener, 1943) : en 1974 le philosophe et épistémologue J. Ladrière introduisait le concept "d'auto-finalisation" ("... C'est une téléologie qui se construit. Il n'y a pas un "télos" posé à l'avance... un processus d'auto-organisation...". Depuis le concept de finalisation (et les concepts connexes d'auto-éco-finalisation) se développe progressivement, en particulier dans le champ de la modélisation systémique, accompagnant et illustrant celui de téléologie que les pragmatistes et les systémiciens ont restauré à partir de sa définition fondatrice par Kant. (Une science critique des processus de finalisation, démarche souvent tâtonnante d'interaction récursive transformant les fins et les moyens : "un système finalisé est finalisant" : c'est cette interaction complexe qui définit la finalisation.
    • Frontière : Définition usuelle
        Initialement, la notion de frontière est définie par une limite ou une lisière "naturelle", observée dans un espace géographique limite dont le "franchissement" implique une décision délibérée ("Le Rubicon"). Le sens s'est très vite généralisé, et de "naturel", le sens du mot frontière est devenu conventionnel, caractérisant un franchissement entre deux domaines (concrets ou abstraits) perçus différents. Symboliquement la frontière "délimite" alors un domaine d'activité spécifique.
        L'usage a alors développé deux interprétations, l'une de type ensembliste (quel que soit le modélisateur, tel élément ou composant est tenu pour intérieur ou extérieur à "la frontière"), l'autre de type systémique : la frontière est alors dessinée par le projet du modélisateur, elle n'est plus supposée "dans la nature", mais dans une représentation, a priori contingente. (L'exemple classique est celui des "frontières de l'entreprise" : inclut-elle ses personnels dans leur totalité, vie familiale ou civique incluse ?).
        Il est difficile de parler de frontière temporelle, a priori toujours arbitraire. En revanche, il est souvent commode de parler d'horizon temporel, et les deux mots sont parfois échangés l'un pour l'autre.
       
    • Génome : ensemble des chromosomes et donc des gènes qui commandent l'organisation héréditaire d'un organisme vivant ou d'une espèce (le génotype)
    • Gouverne : vieux terme de marine signifiant l'ustensile, ancêtre du gouvernail et l'acte de s'en servir. Employé également par les politologues québécois comme Gérard Bergeron pour désigner l'action de gouverner un État en la distinguant de l'acteur (le gouvernement)
    • Graphe : ensemble de points et de lignes qui figurent des objets quelconques ayant entre eux, deux à deux, des relations quelconques (orientées ou non). La théorie des graphes est une branche de la théorie des mathématiques des ensembles qui étudie les propriétés formelles de cette sorte d'ensembles dans laquelle les éléments sont couplés. D'où la définition : la théorie des graphes est le domaine des la théorie des ensembles qui concerne les relations binaires d'une ensemble dénombrable avec lui-même. La théorie des graphes a connu des prolongements, notamment la théorie des hypergraphes, qui autorise des relations multiples sur un même plan ou au sein de couches hiérarchisées
    • Holistique : désigne la manière de considérer globalement une totalité au lieu de la considérer comme un assemblage de parties. Le postulat est que le tout a des propriétés irréductibles à la somme des propriétés de ses parties
    • Homéostasie : mot forgé par Walter B. Cannon pour signifier la capacité qu'a un organisme vivant de maintenir dans un état stable certaines de ses variables internes malgré les variations du milieu extérieur grâce à des processus prysiologiques de régulation. L'exemple classique est celui de la température interne du cops humain ; elle varie au cours de la journée mais ses variations sont limitées à quelques dixièmes de degrés  au-dessus et au-dessous de 37°. "Peut-être une étude comparative montrerait que toute organisation complexe doir avoir des ajustements autocorrectifs afin de prévenir un arrêt de son fonctionnement ou une rapide désintégration de ses parties quand elle est sujette à un fort stress"
       
    • Information : Définition usuelle
        Avant d'être définie comme un "produit" ou un "fait", l'information est d'abord définie comme une action (un "faire") :
        - Action de donner ou de recevoir une forme.
        - Action d'une personne qui fait savoir à d'autres quelque chose sur... quelque chose ou quelqu'un.
        - Action de s'informer, de recueillir des renseignements sur...
        Par extension l'information devient "l'ensemble des activités de collecte, de traitement et de diffusion de "nouvelles"... qu'on appelle récursivement des informations !
        L'action devient alors "produit", connaissances concernant un sujet déterminé, lesquelles sont susceptibles d'être re-présentées à l'aide de conventions (qui sont à leur tour des connaissances !) afin d'être conservées, traitées ou communiquées.
        Cette définition complexe et pourtant familière conduit à caractériser l'information entendue dans sa généralité par un schéma ternaire, une forme (physique ou syntaxique) qui, émise intentionnellement par au moins un émetteur qui lui attribue une signification (sémantique) est susceptible de transformer la représentation du contexte donc dispose son récepteur (pragmatique). G. Bateson, dans une formule succincte devenue célèbre, dira "l'information est une différence qui engendre une différence" (signe physique, objet qui transforme, pragmatique, une connaissance représentée, sémantique, le modèle mental du receveur).
        Ces trois composantes sont distinguables mais ne sont pas séparables. Le récepteur peut privilégier telle ou telle d'entre elles, il ne peut éliminer les autres. C'est ainsi que le même objet perçu forme (signe physique) (par exemple une commande client) sera tenu pour une banale "donnée" (ou data) sans intérêt par ce directeur général, pour une connaissance (ou savoir) intéressante par tel collaborateur, et pour une information décisive ("feed back informationnel") appelant une action immédiate par tel autre.
        On ne peut donc déterminer a priori à laquelle de ces trois composantes telle information doit être exclusivement attachée.
        La théorie mathématique de la communication de C. Shannon a permis en outre de mettre en valeur le fait que le mode de transmission de l'information (le canal) affectait sa forme physique et par là concernait potentiellement sa signification et son interprétation : l'introduction de W. Weaver qui met cet argument en valeur est perçu si important qu'on désigne depuis 1948 cette théorie sous les noms conjoints de "Shannon et Weaver".
        Cette complexité du concept d'information est devenue plus intelligible par les développements récents des théories de l'organisation et de la complexité (E. Morin...) :
        "L'organisation, informée, devient informante" (autrement dit engendre des informations qui potentiellement la trans-formeront) ;
        "L'information forme l'organisation qui la forme".
        Interprétations qui incitent à privilégier la production et l'action de l'information plutôt que son état (et qui a connu d'importantes généralisations analogiques dans le domaine de la biologie génétique).
        Les travaux sur la mesure de la quantité et de la valeur de l'information (pour la plupart dérivés des interprétations thermodynamiques suggérées par C. Shannon puis L. Brilloin), n'ont à ce jour suscité que des illustrations métaphoriques n'autorisant pas de mesure quantitative opérationnelle. En revanche, bien sûr, on a su très vite mesurer le "poids" de la composante physique (le nombre de bits), mais cette indication, précieuse pour traiter des questions de débits de transmission et de volumes de mémorisation, ne dit rien quant à la "quantité" ou la valeur de l'information entendue dans sa complexité.
    • Input : voir intrant
    • Interdisciplinarité : selon Basarab Nicolescu, "concerne le transfert des méthodes d'une discipline à l'autre... (mais dont) la finalité reste aussi inscrite dans la recherche disciplinaire" (La transdisciplinarité, Manifeste, Ed. du Rocher, 1996) - à distinguer de la pluridisciplinarité et de la transdisciplinarité
    • Intrant : traduction française de input désignant ce qui entre dans un système (sysonyme : variable d'entrée)
       
    • Modèle : Définition usuelle
        Initialement le modèle fut "la référence" à imiter ou à reproduire, l'exemple ; puis il devint progressivement le résultat de cette imitation : du "modèle du peintre" on passe au "modèle" (ou à l'image, ou à la re-présentation ! que le peintre a établie... du "modèle du peintre". Bien que les deux significations soient aujourd'hui en usage elles ne se concurrencent guère. La recherche scientifique s'est progressivement approprié le concept de modèle au cours du XXe siècle par l'intermédiaire sans doute de son usage dans les "arts et métiers" : modèle réduit, ou maquette), et elle l'utilise couramment aujourd'hui pour désigner les "représentations" des phénomènes qu'elle cherche à comprendre ou à expliquer. Le modèle est alors un "système de symboles" (indifféremment et simultanément graphique, discursif, mathématique, iconique) dont l'extrême souplesse potentielle permet de rendre compte de la plupart des perceptions dont on dispose lorsqu'on souhaite décrire un phénomène (observé ou imaginé) afin de l'interpréter intelligiblement : des systèmes de notation mathématiques aux systèmes de notation musicale ou chorégraphique par les systèmes de notation chimique comme par les systèmes d'écriture les plus divers, chacun d'eux se dotant de règles d'articulation ou de grammaires aisément connaissables, la "méthode des modèles" ouvre des espaces immenses à l'investigation de type scientifique, sans contraindre la représentation par un langage trop "fermé". Plutôt que de "commencer par simplifier", l'observateur peut aujourd'hui "commencer par modéliser", et ceci de façon intelligible, reproductible et communicable, dès que l'on veille à expliciter "les règles du jeu de la modélisation" ("les principes de la modélisation systémique", ou les "préceptes de la modélisation analytique, par exemple"), le premier d'entre eux étant d'expliciter toujours le projet de l'observateur concepteur qui élabore ou qui interprète le modèle considéré. Les développements des méthodes de programmation informatique et la prodigieuse ouverture de l'espace symbolique permis par la technique des écrans-fenêtres (libérant de la symbolique pauvre et limitée du "clavier" traditionnel), ouvre à la méthode des modèles le champ des simulations les plus diverses, permettant de concevoir et d'évaluer les comportements spatio-temporels des phénomènes modélisés.
    • Mobilité sociale : passage d'une personne d'un rang de la hiérarchie sociale à un autre, d'une position de stratification sociale à une autre, supérieure (mobilité ascendante), ou inférieure (mobilité descendante). Statistiquement, dans une population donnée, on peut calculer le taux de mobilité, soit d'une génération (position des pères) à l'autre (position des fils et filles), soit dans une même génération (changement de position des mêmes personnes au cours de leur vie)
    • Modélisation : Définition usuelle
        Opération par laquelle on établit un modèle d'un phénomène, afin d'en proposer une représentation ? interprétable, reproductible et simulable.

    Modélisation systémique : Définition usuelle
      La modélisation systémique caractérise une des grandes méthode de modélisation contemporaine, ("modéliser un phénomène perçu ou conçu complexe comme et par un système en général"). Elle veille à expliciter "les points de vue" que se propose l'observateur-concepteur qui la met en oeuvre et à souligner son propre projet, qui est de proposer une des formes de compréhension intelligible du phénomène sans prétendre "l'expliquer" (cela se passe "comme si", et non : cela se passe "comme cela, et seulement comme cela"). Elle est donc "explicitement fondée sur deux hypothèses de base :
      - phénoménologique : elle cherche à rendre compte des fonctions et fonctionnements du phénomène : attitude du physiologiste plutôt que de l'anatomiste.
      - téléologique : elle cherche à expliciter les finalités (qui peuvent être de type causal strict, le système ayant alors pour fin d'obéir aux lois externes qui le commanderaient !) qu'elle attribue au phénomène modélisé en veillant à les différencier explicitement des finalités de l'observateur-concepteur. Elle sera donc plus attentive à la "cohésion" (ou congruence) sémantique qu'à la "cohérence" formelle du système modélisé. (Exemple classique de la "double négation", le contraire du contraire d'un énoncé peut n'être pas exactement ni uniquement cet énoncé d'origine).


  • Morphogénèse : éthymologiquement, naissance d'une forme. En biologie, ensemble des processus de formation et de transformation des tissus, des organes au cours de la vie d'un organisme depuis la cellule reproductrice. En sociologie, processus d'autotransformation par lequel est crée une nouvelle forme d'organisation
  • Multistabilité : capacité qu'a un système de se maintenir en état stable de plusieurs manières différentes, par diverses modifications des interactions entre sous-systèmes
     
  • Néguentropie : littéralement, entropie négative. Évolution d'un système des transformation d'énergie donc l'entropie diminue, contrairement au deuxième principe de la thermodynamique, soit par un apport d'énergie nouvelle, soit par un apport d'énergie organisatrice. Plus généralement : tendance à l'organisation, par opposition à l'entropie, tendance à la désorganisation
     
  • Organisation : Définition usuelle











    Action d'organiser et de s'organiser et résultat de cette action : la définition des dictionnaires rappelle en peu de mots la richesse... et l'intelligible complexité de ce concept formé par la médecine du XVe siècle pour rendre compte de l'activité multiforme de ce "système d'organes" qu'est un système vivant. Depuis le mot s'est déployé dans toutes les disciplines, se stabilisant parfois pour ne désigner que "la chose organisée" (la structure, ou l'ensemble structuré d'une machine ou d'une institution sociale). Mais il apparaissait vite que l'organisé, s'il se "désorganisait" souvent lorsqu'on n'y prenait pas garde, était aussi "organisant" et même "s'organisant" : l'idée d'auto-organisation était déjà dans les premiers usages du mot, en particulier au début du XIXe siècle, avant que les théories de "l'organisation dite scientifique du travail" (OST) ne semblent la pétrifier au début du XXe : l'essor de la cybernétique puis de la systémique allait redonner à l'usage du concept d'organisation la vigueur et la complexité qu'on lui connaît aujourd'hui.


    "Quelle est cette énigme dans cet univers de catastrophes, de turbulences, de dispersion, et qui apparaît dans la catastrophe, la turbulence, la dispersion ? L'organisation.

    E. Morin. 1977.


     


    La définition synthétique la plus complète dont nous disposions aujourd'hui est celle formulée par E. Morin dans "La Méthode" : propriété d'un système capable à la fois de maintenir et de se maintenir, et de relier et de se relier, et de produire et de se produire. Définition fonctionnelle et systémique, qui permet d'échapper aux descriptions de la "structure" présumée invariante et quasi indépendante de l'activité du système, que privilégiaient les définitions analytiques ou anatomiques classiques ; définition qui incite à considérer les structures dans leur permanente genèse, ainsi qu'y invitait J. Piaget ; définition qui permet aussi de rendre compte de la dualité de cette "génétique organisationnelle" : l'organisation est conjonction de "différenciation" (en composants fonctionnels spécifiques) et de "coordination" (ou d'"intégration"), construisant son "identité-intégrité" dans cette conjonction.


    "L'organisation, la chose organisée, le produit de cette organisation et l'organisant sont inséparable".

    P. Valéry (1920).


    Les représentations de l'organisation seraient donc toujours des "coupes" à l'instant t, dans une histoire dont l'organisation peut souvent garder mémoire : les réseaux articulés des processeurs en interrelation par lesquels on la représente commodément devant s'entendre dans cette "chronique".

     


  • Output : voir extrant
     


  • Paradigme : éthymologiquement : exemple à imiter. En grammaire française, le verbe "aimer" est le paradigme de la conjugaison de tous les verbes du premier groupe dont l'infinitif se termine en -er ; tous les verbes du premier groupe ont donc une conjugaison similaire à celle du verbe "aimer". L'épistémologie contemporaine emploit ce mot pour désigner, soit une manière de concevoir les phénomènes par analogie avec un objet technique (l'horloge, paradigme de la conception mécaniste de l'explication) ; ou bien des concepts ou des énoncés théoriques transposés par analogie d'une discipline à une autre (l'homéostasie, paradigme des sciences sociales transposé de la biologie) ; ou bien d'un ensemble de postulats et de principes qui orientent la pensée scientifique pendant une certaine période vers son développement (le paradigme du rationalisme cartésien). Edgar Morin l'emploie dans le sens d'une sorte de point de vue subjectif à partir duquel l'individu s'informe du monde qui l'entoure et l'informe à son tour rétroactivement. C'est donc à la fois un contenu et un contenant, un résultat et un processus créateur.
  • Pluridisciplinarité : Selon Basarab Nicolescu, "concerne l'étude d'un objet d'une seule et même discipline par plusieurs disciplines à la fois" (La transdisciplinarité, Manifeste, Ed. du Rocher, 1996) - à distinguer de l'interdisciplinarité, mais aussi de la transdisciplinarité.
  • Polysémie : propriété qu'a un signe ou un mot de pouvoir prendre plusieurs significations
  • Potlatch : distribution ostentatoire de biens d'un groupe à un autre au cours d'une fête ; ce don est un défi : il implique pour celui qui le reçoit l'obligation de donner plus tard à son tour l'équivalent sous peine de perdre la face et de descendre dans la hiérarchie de prestige. Des pratiques analogues ont été observées par les ethnographes dans beaucoup de sociétés à travers le monde : c'est une forme d'échange liée à une rivalité pour le prestige. Un vestige dans nos sociétés est une obligation de "rendre une invitation".
  • Proaction : opération par laquelle ce qui sort du système dépend moins des variables d'entrée et des boucles de rétroaction que de la capacité d'anticiper ce qui va de cet extrant dans l'environnement et pour le système (par opposition à rétroaction)
  • Problématique : ensemble des questions qu'un chercheur se pose sur les objets ou phénomènes qu'il a choisi d'étudier et des réponses hypothétiques qu'il va mettre à l'épreuve d'une vérification méthodique.
  • Processus : séquence de phénomènes dynamiques (mouvements, réactions chimiques, activités cellulaires, opérations techniques, actions ou comportements, interactions humaines) menant à des résultats déterminables. En analyse des systèmes : tout changement dans le temps de matière, d'énergie ou d'information qui  se produit dans le système, traitant ces variables d'entrée et les menant aux variables de sortie.
  • Programme : liste ou séquence d'instructions codées par lesquelles un utilisateur commande à une machine de traiter l'information dont il dispose afin d'aboutir à un résultat donné. Un processus ou un système programmé sont commandés par un programme exogène ; ils exécutent des instructions dont ils ne sont pas les auteurs ; ils ne décident pas.
  • Propriété émergente : propriété nouvelle et non triviale (c'est-à-dire non dérivable d'une série d'axiomes donnés a  priori) d'un système plus complexe par rapport aux systèmes moins complexes qui en sont dépourvus
     
  • Représentation : Définition usuelle
      Action de représenter et résultat de cette action.
      Le mot se prête ainsi, par sa puissance métaphorique à de très nombreuses définitions selon les contextes où il est utilisé.
      On ne retiendra ici que celle retenue par la théorie de la connaissance et les sciences de la cognition, qui en fait un proche synonyme du concept de modélisation, tout en lui donnant plus de généralité : une formule de P. Ricoeur en rend compte :
      "Pour qu'un mouvement soit volontaire, il faut que sa représentation précède son exécution".
      Même dans ce cadre relativement spécifique, le mot reste sémantiquement très riche :
      Son interprétation sera donc attentive à une distinction, introduite par le philosophe et logicien J. Ladrière, entre la "représentation diplomatique" (passive, si transparente) et la "représentation théâtrale (active, le rôle du médiateur ou de l'acteur étant considéré comme essentiel à la qualité de la représentation entendue comme une interprétation plutôt que comme une duplication ou une imitation.
  • Rétroaction : traduction de l'anglais feed back. Action des variables de sortie d'un système sur ses variables d'entrée, soit directement (flux autonome), soit indirectement par l'intermédiaire de l'action de ses variables de sortie sur les variables d'entrée de certains systèmes de son environnement, sous condition d'entrée d'information sur le résultat de cette action. La boucle de rétroaction est la séquence :

    1. variable de sortie  du système considéré
    2. variable d'entrée d'un système de l'environnement modifié par 1.
    3. variable de sortie de ce système modifié par 2.
    4. variable d'entrée du système considéré  modifié par 3. + information sur la relation entre 1. et 3.
       

  • Schyzophrénie : maladie mentale par laquelle le malade perd le contact avec le monde extérieur et vit dans un monde intérieur plus ou moins cohérent créé par lui sans référence au réel
  • Sémantique : branche de la linguistique qui étudie le sens des mots et son évolution (par opposition à la phonétique qui n'étudie que leur son)
  • Servomécanisme : ensemble mécanique asservi à une information extérieure qui lui permet de corriger ses erreurs
  • Stabilité : capacité qu'a un système de ne pas trop s'écarter d'un état (voir état d'un système) normal, c'est-à-dire conforme à la téléonomie, quelles que soient les variations de son environnement.  La sélection des variables d'entrée, avec rejet de celles  qui seraient trop  perturbantes, est une des conditions de la stabilité. Un état stable n'est donc pas un état statique ou stationnaire ; il peut varier dans certaines limites autour d'une norme (au sens de valeur normale).
  • Stratarchie : éthymologiquement, commande par une strate ou couche ou d'une stratification sociale ou politique. Ce mot est employé par Vincent Lemieux pour désigner une des formes de connexité de la structure d'un système politique : la forme dans laquelle certains acteurs liés ou coalisés (par exemple, une majorité parlementaire composée de plusieurs partis alliés), qui ont entre eux des relations de pouvoir bilatérales, exerce un  pouvoir (relation unilatérale) sur d'autres acteurs (par exemple, les partis de la minorité). L'éthymologie bâtarde de ce mot prête à confusion : avec une éthymologie uniquement grecque, Cornélius Castoriadis emploie ce mot signifier un régime dans lequel le pouvoir réel est exercé par l'armée (stratos, en grec).
  • Stratégie : plan des opérations nécessaires pour atteindre un objectif. Cette notion peut être étendue à l'art politique, à la gestion d'entreprises et généralement à la conduite des acteurs d'un système social. Une stratégie double est celle où, paradoxalement, les actions menées pour atteindre un objectif contribuent aussi à en atteindre un autre qui est contraire au premier. "La stratégie est double non seulement parce qu'elle combine les conduites contraires, mais parce qu'elle est d'une même élan stratégie de reproduction et stratégie de destruction du système" (Yves Barel). Peut être réalisée par des tactiques parfois localement contre-productives.
  • Synchronie : désigne les phénomènes ou processus se produisant en même temps, ne se succédant pas (par opposition à diachronie).
  • Stratificaiton sociale : par analogie avec les couches ou strates géologiques d'un terrain, on peut représenter une société comme divisée en couches ou strates superposées, depuis les couches supérieures (dominantes, dirigeantes, prestigieuses) jusqu'aux couches inférieures (dominées, dirigées, humbles ou modestes) en passant par les couches dites moyennes. Cette division de la société s'opère selon divers critères qui ne se correspondent pas toujours : économiques (richesses), politiques (pouvoir), culturels (savoir, maîtrise des rites et des symboles), voire biosociaux (sexe, âge). La position sociale d'une personne est son appartenance à une couche sociale. La mobilité consiste à en changer.
  • Système : Définitions usuelles (le pluriel est nécessaire car il y en a plusieurs !).


    • "Constructions de l'esprit agençant propositions, principes et conclusions qui forment un corps de doctrine, ou une construction théorique qui rend compte d'un vaste ensemble de phénomènes".



    • "Ensemble de concepts présentés sous une forme coordonnée selon une règle donnée".



    • "Méthode de classification fondée sur l'emploi d'un nombre restreint de critères.



    • "Ensemble de méthodes ou d'appareillages organisés et de pratiques et procédés, permettant d'assurer des fonctions définies (en vue de résultats)".
        Depuis Condillac ("Traité des Systèmes", 1754), "le système est ce qui permet à l'esprit humain de saisir l'enchaînement des phénomènes"). Mais l'audience du concept d'ensemble mathématique depuis un demi siècle a fréquemment conduit l'usage récent à une "réduction" de la notion de système à la notion d'ensemble ("un système est un ensemble ordonné d'éléments abstraits..."), ce qui a souvent stérilisé en pratique les développements contemporains d'une théorie puis d'une science des systèmes : si "le système est un ensemble, on n'a nul besoin d'une théorie des systèmes : la théorie des ensembles est bien construite et elle fera l'affaire sans s'encombrer de synonymes redondants !). Un retour aux sources des définitions usuelles (l'Encyclopédie de Diderot d'Alembert y consacrait un long article de 40 pages !) s'avèrera en pratique fort bienvenu, surtout si l'on souhaite prendre en compte les développements récents des sciences de la complexité (récursivité, émergence, auto-organisation, évolutivité, imprévisibilité, etc.).


  • Système général : Définition usuelle
      Concept fondateur de la systémique qui apparaît dès le XVIIIe siècle (Encyclopédie de Diderot d'Alembert) pour désigner les "systèmes symboliques de notation musicale"). Le mot sera repris et relancé à partir de 1950 par le biologiste théoricien L. Von Bertalanffy qui voulait rendre compte dans le même langage des systèmes artificiels (ou mécaniques, fermés disait-il) et des systèmes naturels (biologique ou ouverts). On prendra conscience peu à peu que ce concept est directement héritier de la rhétorique antique, science de l'argumentation, et plus particulièrement de sa composante principale : "L'inventio". On la présente aisément sous sa forme canonique : représenter un phénomène perçu complexe en posant les 4 questions inséparables :
      - il fait quoi ?
      - dans quoi ?
      - pour quoi ?
      - devenant quoi ?
      autrement dit en interrogeant les interrelations qui le constituent :
     
      Définition SAGACE
      SAGACE reprend cette forme canonique pour guider l'exercice de la "systémographie".
  • Système quasi-décomposable : Définition SAGACE
      Un système complexe n'est pas directement décomposable sous peine de détruire son intelligibilité. Il est quasi-décomposable, lorsqu'on peut y identifier des sous-systèmes quasi isolés reliés entre eux et avec l'environnement.
      Il est alors défini par :
      • le réseau d'interrelations entre sous-systèmes, et les relations entrées-sorties de chaque sous-système,
      • les relations liant les entrées-sorties du système aux relations des sous systèmes avec l'environnement.
      Les interrelations entre sous-systèmes peuvent être matérielles, énergétiques ou informationnelles. Les relations délocalisées ne sont pas affectables à des sous-systèmes particuliers et concernent l'ensemble du système.
      Deux types de propriétés peuvent être distinguées :
      • microscopiques : spécifiques de chacun des sous-systèmes,
      • macroscopiques : définies au niveau global du système ; résultent de la conjonction des propriétés microscopiques et de celles du réseau.
      Simon (La sciences des systèmes, 1974) montre que la plupart des systèmes naturels ou artificiels sont quasi-décomposables, c'est-à-dire que le comportement à courte période d'une partie est indépendant de celui des autres parties.
      Une raison fondamentale de l'apparition et de la survie de tels système réside dans leur capacités de stabilité et d'adaptation.
  • Système quasi-isolé : Définition SAGACE
      Système dont le comportement est influencé par son environnement, au travers de relations d'interaction et de couplage.
      Un tel système possède les propriétés suivantes :
      • il effectue des transactions avec l'environnement, mais seulement selon certains processus que l'on appelle entrées* (ou stimuli, ou afférences ou admissions), et sorties* (ou réponses, ou efférences ou émissions)
      • il fait subir aux entrées des modifications internes (transformation qualitative ou quantitative, commutation, stockage ou transport) afin de produire les sorties.
      Lorsque ces conditions sont remplies, le système se "détache" nettement de son environnement et son comportement propre peut être étudié.
  • Systémique (JLLM) : Définition usuelle
      La systémique (le mot apparaît en 1977 et les premières sociétés scientifiques portant ce nom apparaissent à partir de 1979) est devenue le nom usuel de "la science des systèmes" ("systems science" ou "general system science" en anglais). Elle se définit, à partir de la double expérience modélisatrice de la cybernétique et des sciences de l'homme et de la société "structuralistes" — J. Piaget, 1968 —, comme "la discipline dont le projet est l'élaboration et le développement des méthodes de modélisation des phénomènes perçus ou conçus complexes comme et par un système en général" : l'usage condense volontiers par "la systémique" la "modélisation systémique", usage handicapé parfois par la rémanence du libellé d'origine anglo-saxonne "systems approach" ("Approche système", voire "analyse-système"), qui introduit beaucoup de confusion et n'introduit aucune rigueur dans la formulation (ce qui a contribué à retarder l'audience de la systémique dans les institutions académiques, qui craignent beaucoup, à juste titre, les charlatans.
      Science des méthodes de modélisation systémique, la discipline ne va donc pas chercher à "résoudre" autrement et mieux les problèmes dont on dit qu'ils "résistent" à la modélisation analytique : elle va chercher à les formuler différemment. Son projet épistémique n'est pas d'expliquer ni de prescrire, mais de décrire intelligiblement (selon le mot de P. Valéry, qui fut certainement un des pionniers fondateurs de la systémique, ses "cahiers" maintenant disponibles en témoignent).
      En se développant, la systémique s'est aisément différenciée de la "systématique", science de la classification des espèces naturelles, devenue la taxonomie au XXe siècle ; puis elle a suscité une ample réflexion sur ses propres fondements paradigmatiques ("Paradigme de la complexité, E. Morin) et épistémologiques ("épistémologies constructivistes"), qui se poursuit aujourd'hui en s'enrichissant des multiples expériences de la modélisation des systèmes complexes qui s'accumulent dans tous les domaines du savoir : sciences des éco-systèmes, sciences de l'ingénierie, sciences de la cognition, de la communication, de l'éducation, etc.).
  • Systémique (JWL) : adjectif qui désigne tout ce qui se rapporte à l'analyse des systèmes, ou parfois, nom désignant cette analyse elle-même (la systémique). A distinguer de systématique, qui signifie tout ce qui est ordonné méthodiquement, notamment dans un discours, l'exposé d'une philosophie, voire un comportement. Selon la systémique, l'organisation d'un système comporte de l'ordre mais aussi du désordre : en ce sens, un système n'est pas systématique.
  • Systémographie : Définition de J.L. Le Moigne
      Procédure de conception-construction de modèles de phénomènes perçus complexes, modélisé comme et par un "système général" actif et se transformant dans un environnement par rapport à quelques finalités.
     
  • Tactique : manoeuvres par lesquelles on s'efforce d'exécuter une stratégie. S'éloigner d'un objectif pour contourner un obstacle peut être une manoeuvre tactique pour réaliser une stratégie.
  • Téléologie : Définition usuelle
      Bien que la téléologie soit entendue comme une discipline scientifique depuis 1728 ("Le traité" de Ch. Wolff), et que Kant l'ait anoblie au statut éminent de "science critique" (à ne pas confondre donc avec la théologie !) dans "La critique de la faculté de juger", 1797 (consacrée pour l'essentiel à l'étude de ce mode de "connaissance réfléchissante" qui est le "jugement téléologique"), la discipline a longtemps eu mauvaise presse dans les cultures scientifique et philosophique : positivismes et scientismes voulaient ignorer cette science qui, par sa seule existence, remettait en question leur dogme fondateur, celui du déterminisme causal et efficient qui caractériserait toutes les lois de la Nature (et donc, ajoutait déjà Descartes, "toutes les choses qui peuvent tomber sous la connaissance des hommes". Les dictionnaires français sont encore laconiques ou prudents, se limitant pour l'essentiel à une définition étymologique banale : "Télos" traduit le grec "fin", et la téléologie sera "l'étude des fins"... Une brève allusion à la théorie des "causes finales" d'Aristote servant de caution à cette incursion qui risque de rappeler au lecteur les discours charlatanesques sur le finalisme.
      Ce n'est qu'avec la naissance des "nouvelles sciences de l'information et des systèmes" que la téléologie va réapparaître dans le discours, puis peu à peu, dans la culture scientifique contemporaine. En fondant explicitement la cybernétique naissance sur le concept de "téléologie" (par un article célèbre de 1943 cosigné avec Rosenblueth et M. Gigelow), N. Wiener rejoignant (à son insu, semble-t-il) les grands pragmatistes nord-américains (J. Dewey puis N. Rescher...), va susciter un courant d'attention dont nous bénéficions aujourd'hui. Praticiens et chercheurs perçoivent aisément qu'ils peuvent disposer d'une discipline sans doute encore dans sa gangue sémantique, discipline dont ils expérimentent la légitimité et qu'ils s'efforcent de dégager progressivement des confusions et du verbiage dont elle fut parfois entourée. Heureusement pour eux, les fondations posées par Kant (après Aristote) sont solides (... "Dans la Nature, tout est fin et réciproquement moyen"), et les développements sur les sciences de la cognition comme sur les sciences de la conception nous font progresser dans une voie décrivait dès 1974 le philosophe et logicien J. Ladrière : "C'est une téléologie qui se construit. Il n'y a pas un télos posé à l'avance, il y a comme un processus d'apprentissage à la faveur duquel une démarche d'abord tâtonnante réussit à dessiner de façon de plus en plus précise son propre cheminement. Processus interne d'auto finalisation".
      Qu'on le découvre dans les textes d'H.A. Simon ("Rationality and téléology... the mean is the end...", 1983) ou d'E. Morin ("une auto-éthique, sans fondement, en émergence... qui soit éthique de la compréhension", 1994), et de bien d'autres, la téléologie prend aujourd'hui sa définition usuelle :
      "Science des processus de finalisation" : comment, en fonctionnant et en se transformant, et en se formant des représentations de leurs comportements (informés, et par là, informant), les systèmes élaborent-ils en permanence leurs propres processus de finalisation ? Certes, ils peuvent parfois s'entendre dans le cas limite des systèmes automatiques, "goal seekink". Mais cette indépendance absolue du but, tenu pour invariant, et du comportement, est-elle fréquente, et est-elle même nécessaire ? Oui dans le cas des systèmes de pilotage automatique... mais leur concepteur ne souhaite-t-il pas qu'il y ait quand même "un pilote dans l'avion" ? Ne doit-il pas alors s'intéresser au caractère auto-éco-finalisateur de ce système complexe qui est l'avion piloté et se pilotant en vol ?
  • Téléonomie : ensemble des finalités qui orientent l'ensemble des processus d'un système. Elles ne se confondent  pas nécessairement (ni même freéquemment) avec les buts consciemment désirés ou voulus par les acteurs du système.
  • Transdisciplinarité : selon Basarab Nicolescu, peut être définie, ainsi que "le préfixe "trans" l'indique, (comme) ce qui est à la fois entre les disciplines, à travers les différentes disciplines et au-delà de toute discipline. "(Et elle a comme) finalité la compréhension du monde présent, dont un des impératifs est l'unité de la connaissance" (La transdisciplinarité, Manifeste, Ed. du Rocher, 1996)
     
  • Ultrastabilité : capacité qu'a un système, fortement perturbé par des variations inhabituelles ou excessives de ses variables d'entrée, de limiter les variations de  ses variables de sortie (pour qu'elles restent conformes à sa téléonomie) grâce à une autotransformation de son organisation.
     
  • Viabilité : Définition usuelle
      Avant que la "théorie mathématique de la viabilité" ne restaure l'usage du mot dans la modélisations systémique, la viabilité ne définissait que la qualité d'une voie ("via : chemin, voie"), et le mot concernait plus le génie civil que le génie informatique.
      On trouvait pourtant ce substantif pour caractériser l'aptitude de "ce qui est viable, ou apte à vivre" ("viabilité d'un foetus"), définition embarrassante puisque "vivre" se définit par "être en vie" et "vie" par "fait de vivre" !
      Mais l'usage ne souffre pas de ces embarras et ces mots sont devenus si familiers qu'on ne tente même plus de rappeler leur définition : les analogies qu'ils autorisent sont innombrables... et bien pratiques !
      La "théorie mathématique de la viabilité" (Aubin) renvoie à des considérations sur la computation qui ont vite intéressé les recherches en sciences de la cognition, en Intelligence artificielle puis en ingénierie artificielle : ne peut-on identifier les conditions qui permettent à un système, artificiel ou naturel, de vivre, c'est-à-dire de "fonctionner" dans un environnement de façon non totalement aléatoire, donc "téléologique" ?
    Il semble aujourd'hui que l'usage du mot "viabilité" s'infléchisse en direction du sens de "durabilité du développement". L'écologie, en relançant le concept de "sustainability" vers 1987 (concept que l'on traduit actuellement par "développement durable") a probablement étendu le sens et l'usage du mot "viabilité", en incitant à l'interpréter au sens de "adaptabilité", voire "d'intelligence" ("un système intelligent est un système capable de s'adapter téléologiquement dans des contextes imprévisibles").