Des frontières et du virtuel

Des frontières et du virtuel 1

Nous avons beaucoup parlé de « couches » et de « séries ». Ce langage trouvera ses formulations plus appropriées dans l’exercice de la pensée. Ce que nous voulons suggérer, c’est que l’épistémologie, articulée par les modes de contraires entre théorie et expérience, entre le fondamental et l’appliqué, ou encore par l’observation selon un mode de grandeur unique.
La modélisation apporte quelque chose de nouveau aux sciences, qui ne détruit absolument pas la réalité de la théorie, mais au contraire l’enrichit de nouvelles tâches. Ce en quoi consiste ce nouveau, ce n’est pas seulement une attention aux objets, aux « langages orientés objets », à tout ce qu’on appelle dans la pratique des sciences actuelles l’ontologie, c’est-à-dire les objets et les relations que l’on pose entre eux. Cet aspect est évidemment très important, il nous apprend en particulier que ce qu’on appelle communément l’« application » d’une théorie n’est pas équivalente à sa particularisation, à la façon d’une déduction de l’universel à une conséquence utile dans les sciences appliquées. Il s’agit d’autre chose, qui n’est pas toujours incompatible avec cette déduction, c’est une sorte de présentation de l’objet, qui ne se réduit pas à un langage formel. Il y a une forme de réalité qui apparaît avec l’objet qui n’est pas contenue dans le langage formel, l’objet est chargé de quelque chose d’une nature autre que linguistique, nous ne sommes pas exactement sur les mêmes échelles ontologiques. Franck Varenne a très clairement montré comment, dans la modélisation et la simulation, on arrivait à un degré de précision telle qu’elle ne permet plus de décider entre le langage et le réel, un peu comme il est difficile de distinguer entre l’heure astronomique et l’heure atomique 2. Mais, d’une certaine façon, tout cela, nous le savons déjà par les travaux récents sur la modélisation, fait par exemple autour du laboratoire GEMAS 3, ainsi qu’au Séminaire du « Petit Collège » 4. Nous développerons néanmoins une conséquence de cette propriété des modèles, est que plus la charge ontologique est présente, plus la démarche scientifique s’apparente à ce que l’on peut appeler une « fiction ». Le langage n’y est plus le « reflet » d’un paysage déterminé par un horizon théorique réalisé par la plaine des faits, il est aussi cela, c’est entendu. Les objets sont déterminés par des « paramètres » ont les combinaisons demandent la construction à la fois d’une nouvelle « gamme » pour leur combinaison. D’une certaine façon, le modèle et ses relations aux théories se composent, comme se compose un morceau de musique contemporaine, où les « notes » ne sont plus des composants de mélodies et d’harmonies, mais des attracteurs pour de nouveaux groupements dont le compositeur construit les dimensions à chaque fois.
Nous aimerions montrer qu’avec les distinctions entre théories et modèles, nous avions affaire non seulement à une autre approche de la précision, mais, plus généralement, et cela est moins dit, à ce que l’on appelle en mécanique des fluides des « problèmes raides », c’est-à-dire des problèmes qui exigent de tenir compte dans le même problème d’échelles très différentes. D’un point de vue épistémologique, cela signifie que les « faits », corrélatifs des théories, ne sont plus les bons témoins de tous les ordres de grandeur. Les « faits » sont les bons corrélatifs des concepts théoriques et de leurs combinaisons en lois et en principes, qui marquent ainsi les frontières des domaines théoriques.

Pour comprendre les modèles, nous avons besoin d’un autre « grain » de la science que celui des faits et des théories. Il nous faut une notion qui rende compte de la construction fictionnelle que suppose le modèle et de son ordre de grandeur ou de pertinence. Soit l’idée de « virtuel » : notre hypothèse est qu’elle concentre en elle quelque chose qui permet le passage entre ordres de grandeur dans un problème épistémologique « raide », il est la décomposition du « fait » en paramètres, il est ce qui reste des « faits » lorsque on a laissé tombé les frontières et l’opposition philosophique entre faits et théories.
Pour construire un point de vue qui tienne compte de toutes ces couches et ces ordres de grandeur, il faut revenir sur l’épistémologie et le projet d’une épistémologie quantique ou d’une non-épistémologie, qui porte non directement sur les sciences, mais sur les représentations que l’on forme à l’occasion des sciences. L’épistémologie met en relation et sépare des représentations à l’occasion des sciences. Par là, elle est une sorte de [i]sens commun[/i] qui permet de passer d’une spécialité à l’autre, ou d’un ordre de pertinence à l’autre. Elle est l’élément qui permet de construire des interfaces en tout point des représentations sur les sciences. L’éthique qui accompagne les sciences et les technologies est aussi une part de ce sens commun, et son objet est la maîtrise des frontières, comme celui de l’épistémologie est leur détermination. Toute cela demandera évidemment une critique de la notion de « frontière », très importants du point de vue de l’épistémologie ou de l’éthique, mais inexistante pour le générique, si ce n’est comme fiction.

Le « virtuel » également est une « unité » qui échappe à la distinction entre science et sens commun, de même qu’entre les ordres de grandeurs de la théorie et du modèle. Le « virtuel » est partagée entre les sciences et le sens commun, mais aussi entre les sens communs dans la pratique des sciences et le sens commun « sur » les sciences, d’une tout autre façon que ne l’a été le « théorique ».

Tout ce que nous avons présenté sous la forme de convergence des séries théoriques et modélisatrices, suppose que l’épistémologie doit être déplacée, de la notion centrale de théorie à une idée plus minimale du concept de science, qui permette de réunifier épistémologie des théories et épistémologie des modèles. Cette démarche suppose, nous l’avons déjà dit, l’hypothèse que le réel précède la science, mais aussi la philosophie, ce qui est moins commun, puisque celle-ci est vue à travers le concept de Logos qui est une synthèse et une co-appartenance entre le réel et la pensée. Cette méthode rapporte au réel les problèmes sous la forme d’identités. Une vision non exclusive des sciences actuelles donne à nouveau de l’importance à l’identité, développée autrefois par Emile Meyerson en particulier, mais en un sens nouveau. Cette identité n’est pas déterminée par l’unité d’un contenu, mais par le rapport de celui-ci au réel. Mais cela modifie considérablement le positivisme classique par lequel on cherchait à trouver la « spécificité » des sciences.
Cela ne signifie pas qu’il n’y ait plus de relation entre l’identité d’un problème et les universaux, mais ces relations sont profondément changées et rendues indirectes. Cette identité ne peut être expliquée par l’extension d’une théorie que l’on particularise. Il ne suffit pas d’avoir une théorie, même mathématique, pour que l’on puisse l’appliquer directement à un matériau empirique 5. Cette question avait bien été vue dans l’épistémologie classique, en particulier par Karl Popper et par Larry Laudan, lorsqu’ils soulignaient l’importance du « problème », qui justement suppose une forme d’identité, dans la pratique scientifique, mais ils en étaient restés l’un et l’autre à une épistémologie organisée de façon principielle par la théorie. Avec la modélisation, l’ordre de pertinence épistémologique change, il n’est plus explicité par le rapport « théorie/fait », ou plutôt, il y a une variété d’ordre de pertinence épistémologique. L’opposition « positif/spéculatif » n’est plus la seule à articuler les relations entre le donné et le construit, il faudrait y ajouter l’opposition paramètre/description qui est de l’ordre du « virtuel », et s’expliciterait dans le rapport « virtuel/réel ». Le « grain » de la science n’est plus seulement le fait. C’est l’attachement implicite au premier couple qui, en France, a organisé la méfiance à l’égard de la modélisation et l’interdisciplinarité.
Une autre façon de dire la différence entre théorie et modèle est de différencier leur rapport à la philosophie. Au niveau de la théorie scientifique, la philosophie apparaît lorsqu’on la développe comme « explication », permettant de comprendre la « cause » des phénomènes étudiés. Emile Meyerson avait bien distingué ces démarches, et c’est dans cette distinction qu’il avait élaboré le concept d’identité. Nous allons également faire usage du concept d’identité, mais dans les rapports entre les sciences et les philosophies, en cherchant une identité, une [i]constante[/i] 6 qui puisse rendre compte des relations entre philosophies et sciences dans le cadre des théories et dans celui des modèles. Dans le cadre de la modélisation, nous avons vu que la résolution d’un problème supposait l’articulation de divers modèles comme autant de paramètres de la modélisation. Or certains de ces modèles peuvent avoir un effet sur les paramètres choisis : ce sont ceux qui concernent tout ce qui vient « après » le produit ou la résolution du problème, soit le recyclage, l’écologie, le développement durable, ou tous les scénarios qui peuvent aller avec la résolution d’un problème. On peut dire en ce sens que la philosophie apparaît sous forme de [i]paramètre[/i] dans la modélisation. C’est là une représentation de la philosophie très simple, comme non-dédoublée, elle est juste un terme qui pourra nous donner des indications sur la notion d’identité. D’une certaine façon, la modélisation nous oblige à donner une image plus « simple » de la philosophie. Comment articuler cette nouvelle image de la philosophie, maintenant assez courante, et celle qui accompagne les théories ? Nous tenterons par les notions de « générique » 7, par celle d’« ordre de pertinence », de mettre en relation ces deux accompagnements philosophiques de la science 8.
Pour comprendre ce qui s’est passé en sciences, il faut d’autres termes que ceux de théorie et de fait. Nous proposons celui de virtuel — qui pourrait être compris comme le fait dépouillé de toutes ses caractéristiques théoriques. Il n’y a plus besoin de « fait brut », mais juste de l’identité d’un problème ou d’un objet. Le grain de la science est fait d’identités 9 dont les éléments ne peuvent plus être compris comme le double spéculatif des contenus théoriques. Il y avait quelque chose de cela dans l’hypothèse géométrique pour la compréhension des couleurs chez Descartes : leur structure n’était pas « en couleurs ». Pour faire comprendre cette idée par une autre métaphore, on pourrait dire que les sciences sont organisées comme les images par millions de pixels, comme on le dit pour la photographie numérique. Aucun des pixels n’est un morceau de l’image, et pourtant se voit finalement une image. Une couche, très en deçà des contenus théoriques, contribue à constituer la science, et ne contient aucun double ou symétrique des concepts théoriques. C’est cette couche que nous présentons comme le « virtuel ». Ce terme vient de ce que lorsque l’on décrit un objet concret, on le reconstitue par des moyens venant de disciplines théoriques différentes. Dans un tel contexte, l’interdisciplinarité devient une règle naturelle. Le virtuel est ce qui ôte au fait son origine théorique et disciplinaire. Le langage ordinateur a permis de telles généralisations. Le virtuel est une généralisation du fait hors de tout champ disciplinaire. La discipline devient alors une sorte d’apparence objective pour regrouper un ordre de pertinence. Le fait est le virtuel vu sous l’angle de la théorie, ou encore le virtuel dont le caractère fictionnel a été effacé.

Les théories et les disciplines restent essentielles, comme garantes de la cohérence ou d’une cohérence. En effet, un travail scientifique a de la validité dans la mesure où il est possible de le mettre en relation avec les connaissances fondamentales. Les révolutions scientifiques elles-mêmes tiennent compte des connaissances acquises, même si c’est pour les rendre valides dans un champ plus étroit.

Le thème de la complexité relève des mêmes configurations épistémologiques. Un phénomène est dit complexe lorsqu’il ne peut être déterminé que par une conjonction de fragments de sciences et de disciplines. Ce n’est pas la seule définition possible de la complexité, mais c’est celle qui permet de rendre compte à la fois de la modélisation et de l’interdisciplinarité. Là aussi, il nous faut comme une constante qui nous permet de passer d’un régime disciplinaire à un autre, et qui nous garantisse l’identité du problème à résoudre.

Il nous faut donc une philosophie des sciences génériques. Elle ne se substitue pas à la philosophie des sciences classiques, mais la complète de façon à défaire les hiérarchies qui font obstacle à la compréhension des sciences contemporaines. Il faut conserver les distinctions classiques, mais en les rendant plus mobiles, en les mettant dans de nouvelles combinaisons, en défaisant les relations de contraires spontanées auxquelles elles donnent lieu d’ordinaire. Cela suppose une épistémologie capable de reconstruire des liens entre des espaces apparemment éloignés des sciences, une épistémologie flexible, mais aussi une épistémologie capable de distinguer des ordres de pertinence : fait/spéculatif et vituel/réel. Les problèmes que nous examinons nous ferons voir les relations entre la fiction et le virtuel, entre l’interdisciplinarité, qui est une sorte de fiction, et le virtuel.
Il y a des liens entre le virtuel et le générique, comme il y en a entre le théorique et le générique et c’est bien une philosophie des sciences génériques qui rendra compte du virtuel et de ses relations au théorique. Le générique a tout d’abord été une place particulière et exceptionnelle dans la pratique de la science, de fragments de théories utilisables partout, dans des cadres où la théorie ou la discipline d’origine n’est plus du tout ce qui donne le ton. Le générique permet une polyphonisation de la science.

Dans cette perspective, où nous distinguons à la fois des ordres de savoir et des ordres de pertinence, nous considérons que l’épistémologie ne porte pas directement sur les objets, mais sur les opérations sur les objets. Nous recherchons une sorte d’épistémologie quantique, qui ne porte qu’indirectement sur ses objets. L’unification de l’épistémologie des théories et de celle de la modélisation suppose un tel passage. Il y a une sorte de dissociation entre l’épistémologie et ses objets qui n’entraîne pas une moindre objectivité des sciences, mais une critique de l’objectivité comme ne passant que par la validation de la théorie.


1- Sous presse l’ouvrage d’Academos, [i]Epistémologie des frontières[/i], Paris, Pétra, 2009.
2- Franck Varenne, [i]Les notions de métaphore et d’analogie dans les épistémologies des modèles et des simulations[i], précédé de « La situation de l’épistémologie, la question des modèles et de la simulation », Préface d’Anne-Françoise Schmid, Pétra, collection « Acta Stoïca », 2006.
3- Denis Phan, Anne-Françoise Schmid et Franck Varenne, « Appendix 1 - Epistemology in a Nutshell: Theory, Model, Simulation and Experiment », in : [i]Agent-based Modelling and Simulation in the Social and Human Sciences[/i], Edited by Denis Phan and Frédéric Amblard, GEMAS Studies in Social Analysis Series, Oxford, The Bardwell Press, September 2007, £90; hardback, 448 pp. ISBN 978-1-905622-01-6.
4- « [i]Le Petit Collège[/i] » est dirigé par Nicole Mathieu et Anne-Françoise Schmid de l’association NSS-Dialogues, avec Jean-Yves Béziau, Yves Guermond, François Laruelle, Franck Varenne, Léo Coutellec. Il se consacre à un séminaire: « Les disciplines face à la modélisation et à l’interdisciplinarité», dont l’argument de départ est le suivant :
[i]À la fin des années 1960, s’est dessinée une opposition tout à fait explicite aux modèles (Althusser), dans la mesure du moins où ceux-ci ne correspondaient pas à la définition que peut en donner la logique mathématique (Badiou). Elle faisait système avec une critique de l’interdisciplinarité. Depuis ces années, beaucoup de types de modélisation ont été faits et celle-ci n’est plus discutée en tant que telle. Mais il y a une carence de réflexion entre la discussion première et les réalisations actuelles.
Il importe donc de réélaborer ce pourquoi intellectuellement nous nous engageons et/ou dans la modélisation et/ou dans l’interdisciplinarité. La multiplicité des ingrédients de la démarche scientifique, théorie, modèle, modélisation, expérience, observation, simulation, mesure, recherche-action, etc., oblige à repenser les fonctions propres de la modélisation et à comprendre en quoi celle-ci favorise la relation avec d’autres disciplines pour aborder le réel et les objets complexes. Penser le rapport entre modélisation et interdisciplinarité suppose l’élaboration des principes de constitution d’une telle culture et de ses liens avec les disciplines et les philosophies. La modélisation pourrait alors être prise pour un objet scientifique à part entière, et non pas seulement être mise en usage de façon pragmatique et gestionnaire.
C’est à cet effort de pensée que voudrait contribuer ce séminaire, où nous nous essayerons à réévaluer la situation contemporaine dans les disciplines interrogées et dans leurs interrelations.[/i]
Méthode :
Pour tenter de construire une épistémologie générale de la modélisation dans son rapport avec l’interdisciplinarité, plusieurs grands témoins seront interrogés dans les séances qui jalonneront les années 2007 et 2008 par les membres du « petit collège » qui seront présents à chacune d’elle. Il s’agit d’organiser autour de chaque discipline un ensemble de dialogues qui pourraient aboutir à un ouvrage prenant la suite de la Philosophie de l’interdisciplinarité, de Jean-Marie Legay et Anne-Françoise Schmid (Pétra, 2004). Un ouvrage sortira en 2009 de ce séminaire.
5- Sur cette question, voir le livre de Franck Varenne [i]Du modèle à la simulation informatique[/i], Paris, Vrin, 2007. Varenne souligne les fonctions de la simulation informatique pour une application des mathématiques à la biologie. Nous avions proposé une idée semblable concernant la philosophie selon laquelle on ne peut l’appliquer directement à l’empirique (sans couper des têtes, comme on l’avait fait à la Révolution française au nom de Rousseau). Il faut une « modélisation » pour que l’on puisse « appliquer » (en un autre sens) la philosophie à l’empirique.
6- C’est le terme utilisé par François Laruelle dans son Séminaire 2007-2008 au Collège International de Philosophie.
7- Il y a trois philosophes qui ont fait un usage important du terme de générique : Feuerbach, [i]L’Homme générique[/i], dans son opposition à Hegel, Alain Badiou et François Laruelle.
8- Nous mettons en jeu pour l’instant deux ordres de pertinence, mais il pourrait y en avoir plus. Le premier, classique, lié à la théorie, est le couple fait/spéculation qui caractérise la théorie, Le second, dont on ne parle encore presque jamais, serait le couple paramètre/description, de l’ordre de pertinence des modèles. La question est de pouvoir dégager une constante qui permette de passer de l’un de ces ordres de pertinence à l’autre. L’élaboration de cette constante permet un tout autre équilibre de l’épistémologie, et un nouvel usage de ses distinctions dans des contextes de modélisation ou de simulation.
9- Cette notion d’identité a valeur à la fois philosophique et scientifique. Du point de vue philosophique, elle permet de mettre en évidence les rapports entre les couples, elle est un « point » quasi-réel à partir duquel les apercevoir et les démonter. Du point de vue scientifique, elle est un gage de précision par rapport au réel, comme peut l’être la simulation informatique. Le générique est une sorte de constante permettant de passer d’un registre scientifique à un registre philosophique. Pour cela, il faut être bien persuadé de la différence fondamentale entre les deux logiques.

Anne-Françoise Schmid