Contrairement à notre ressenti subjectif, ce ne sont pas les concepts eux mêmes que nous traitons en mémoire de travail, ce sont leurs identifiants. Sous forme du nom des termes en général. Ce nom renvoie au nœud relationnel ayant généré une identité au terme. La boite noire de notre fonctionnement inconscient se charge à la fois de la synthèse identitaire globale, actualisée sous forme de signe dans c et de l'extraction de données sélectives à la demande. Nous n'avons pas accès d'une façon exhaustive à cette architecture complexe de théorèmes ; magma en perpétuelle mouvance qui plus est !...
Le " flou ", au sens d'un potentiel de données liées au nœud relationnel concerné, s'avère ainsi inhérent à notre fonctionnement mental ! Il apparaît aussi comme un outil nécessaire et incontournable sans lequel notre Savoir serait excessivement figé. Ce flou génétique ne vient pas altérer la rigueur du besoin de constance des termes à l'intérieur d'un discours donné ; sous réserve de confiner convenablement le domaine de ce discours. Le flou permet d'adapter un concept à des discours différents, de conserver la validité du traitement formel dans c tout en maintenant une identité aux multiples acceptions des termes. En notant bien, au passage, que la question de l'existence d'un noyau minimaliste stable aussi bien que d'un degré maximal de précisions ne se pose pas. Ne devrait pas se poser ; ce serait une quête mythique bien vaine. Par contre, ce qui devrait s'imposer c'est la vérification perpétuelle (sous forme de théorèmes) de la cohérence globale des composantes significatives des termes soumis à notre attention.
Cet impératif de cohérence, base esssentielle de notre stratégie intelligente, appelle à opérer une distinction fondamentale entre théories et modèles.
D'autant plus importante qu'aujourd'hui on se gargarise de modélisations à tout va et qu'on nous assomme de modèles à propos de tout et de rien. Ainsi vont les modes... dopées, qui plus est par un furieux appétit de modélisations numériques.
La modélisation est un art majeur qu'il ne s'agit en aucun cas de déconsidérer. Mais cela ne doit pas se faire au détriment du Savoir généraliste.
Théorie doit ici pris au sens mathématique du terme : structure explicite à base d'axiomes et de schémas.
Il faut absolument distinguer théories et modèles. Distinction d'autant moins évidente à première vue qu'un modèle utilise la même structure formelle qu'une théorie (axiomatique, logique, etc.).
C'est l'usage envisagé qui diffère absolument :
Dans les deux cas les impératifs de constance des termes s'exercent dans un cadre contextuel à la fois donné et en interaction avec cette obligation logique.
Pour des raisons ad hoc d'utilisation, les modèles opèrent dans des contextes simplificateurs, artificiels et fermés.
On confère aux termes une individualité de circonstances entièrement spécifique au modèle. On se satisfait pleinement d'une exhaustivité artificielle des désignations et des axiomes qui les lient. Le modèle repose essentiellement sur le nominalisme. Le modèle est toujours simplificateur. Il élimine les paramètres importuns, dont la prise en compte interdirait les calculs.
Car il s'agit de se donner les moyens d'effectuer les calculs que l'on sait faire.
Le modèle se moque de décrire véritablement ou non le réel, aussi bien que d'être contradictoire avec d'autres modélisations.
Par exemple :
Ainsi, les modèles peuvent sans dommage se contredire ou être incohérents les uns avec les autres. Les termes constants sont des fictions qui appartiennent exclusivement au modèle considéré ; même si plusieurs modèles utilisent des désignations homonymiques. Des homonymes qui ne sont pas des synonymes !
Elles sont soumises à une obligation de cohérence globale :
Je rappelle que la structuration de nos connaissances en théories est inhérente à la méthode axiomatique. Nous la pratiquons explicitement en maths, et plus ou moins implicitement dans d'autres disciplines, avec des variantes de vocabulaire. Prémisses de développements philosophiques, accord de l'auditoire en argumentation rhétorique, données sûres en bien d'autres domaines, etc. Nous ne pouvons raisonner qu'à partir d'une base d'hypothèses de départ (donc toujours falsifiables et modifiables) tenant lieu de certitudes subjectives avérées. C'est l'unique approche rationnelle dont nous disposons. La vérité absolue n'existe pas !
J'ai montré également dans "Intelligence Mathématique" que, techniquement, l'axiomatique fournissait un procédé démonstratif local très commode et élégant, notamment dans les méthodes de l'hypothèse auxiliaire ou de la réduction à l'absurde. Mais aussi que l'on pouvait s'en passer au prix de circonlocutions convenues du type "supposons que la relation A soit vraie..."; maladroites à mon sens mais qui reviennent au même dans la pratique.
J'ai montré aussi que Théorie était un terme contextuel, et que c'était une erreur de le considérer comme constant pour générer des structures au sens de Bourbaki ...
L'arborisation des théories axiomatiques représente également une stratégie très utile pour tenter de localiser la source de contradictions qui se feraient jour lors de développements ultérieurs. Il faut cependant relativiser cet outil de recherche d'erreurs : certaines contradictions pourraient ne se révèler que bien tardivement au sein d'un enchevêtrement complexe d'enrichissements théoriques (apports de nouveaux axiomes) plus ou moins complémentaires. Trouver le ou les axiomes défaillants ne sera pas toujours facile... Par exemple, le fait que les schémas soient générateurs d'une multitudes d'axiomes implicites et que les postulats de constance des termes transcendent le découpage en théories immergent l'activité mathématique dans une réelle complexité.
Cette remarque impose la recommandation de ne pas axiomatiser à la légère. Il ne s'agit pas d'un jeu. Chaque introduction d'axiome, de schéma et de terme constant représente un engagement lourd de conséquences. Il devrait être soigneusement réfléchi, argumenté et commenté.
Du fait de leur interdépendance globale aussi quasiment complète que largement implicite, la constance des termes n'est jamais acquise dans l'absolu. Un terme peut se lier avec d'autres sous formes de théorèmes qui figurent dans des théories plus fortes, voire peut être non encore développées. Le contexte des Énoncés est là pour indiquer quels liens sont significatifs dans le cadre du discours logique considéré. Il n'en reste pas moins que cet impératif de constance transcende (au sens de dépasser largement) les découpages théoriques et impose à ces derniers une obligation de cohérence globale. Ainsi, les théories ne peuvent se contredirent l'une l'autre. Elles ont vocation à fusionner sans fin dans une Théorie globalisante, plus forte que chacune d'entre elles. Cette Théorie est toujours en évolution, jamais achevée, et se doit d'être non contradictoire. On ne peut évidemment jamais être certain qu'aucune contradiction ne se fera jour lors de développements futurs. Ce qui obligerait alors à des remaniements plus ou moins profonds et difficiles à détecter. Cette considération est une évidence d'ordre méthodologique, et vouloir la démontrer en arithmétisant les démonstrations au sein de la logique linguistique ne fait que démontrer la futilité du logicisme.
Des choix stratégiques axiomatiques diversifiés sont tout à fait légitimes pour introduire et développer certains concepts, mais doivent fournir des théories équivalentes. La diversification des approches théoriques apparaît ainsi comme un moyen de mettre à l'épreuve la cohérence globale de notre Savoir C . C'est de toute façon l'unique approche rationnelle dont nous disposons pour faire progresser véritablement la Connaissance.
Il n'y a pas de compétition entre les deux concepts, qui devraient au contraire profiter chacun des avancées de l'autre.
Pour fabriquer ou gérer du concret : avions, fusées, bateaux, ordinateurs, etc. , pour planifier des déplacements spatiaux comme pour se projeter dans l'avenir en fonction des connaissances acquises et agir dans l'immédiat, etc. , les modèles s'imposent. Modéliser représente un art véritable. Trouver les bons modèles pour des innovations technologiques est une nécessité. Ils doivent correspondre aux buts recherchés et supporter la mathématisation des structures et des calculs. Être à la fois novateurs et suffisamment simples pour permettre les calculs. Il n'est pas question de dévaloriser ces conditions préalables au savoir faire.
Par contre, pour ce qui est de la connaissance en soi, de l'intellection globale et cohérente du monde, seule la voie théorique est concevable. Il n'y a qu'elle pour assigner les modélisations à leur juste place et garder le contrôle de nos savoirs.
Il est simplement regrettable que ces appellations soient si mal contrôlées ! Les modélisations qui n'hésitent pas à usurper le nom de théories envahissent un espace intellectuel inapproprié.
Ainsi : une théorie des cordes (car il y en a des milliers) repose sur des modélisations de l'espace et bien des paramètres que l'on ajuste à la main par simple convenance pragmatique. De la même façon que l'on invente une profusion de "matière noire" et d'"énergie noire" pour conserver coûte que coûte des modélisations inadéquates du cosmos. La mécanique quantique relève de la modélisation. Cela fonctionne d'ailleurs très bien au niveau des résultats, avec des prédictions étonnamment précises, mais n'apporte aucune lueur quant à une compréhension du réel...
On trouve aussi, par contagion, chez des logiciens-métalogiciens (sic) des modélisations de la théorie des ensembles, ou même de la logique, qui représentent conceptuellement de véritables inepties !
Ces confusions contribuent malheureusement à brouiller les cartes et à accroître l'idée d'une profusion de domaines bien distincts de la pensée. L'idée de ce gigantesque amas disparate décourage l'intelligence et favorise l'acceptation de la spécialisation de l'entendement en tant que fatalité. La soumission à ce joug mythique est un véritable fléau de notre monde "moderne" !