Désastreuse victoire de l’adaptation

Par Nicolas Bouleau, mathématicien et philosophe

 

L’adaptation n’a pas de sens en soi, mais en fonction de la réduction globale des émissions, et de la part d’une nation dans cet effort de réduction.

 

Les effets des émissions de gaz à effet de serre sont globaux. L’atmosphère terrestre est brassée. De sorte que si l’objectif global est de diminuer le total des émissions pour que la température en moyenne spatiale n’excède pas x degrés à l’échéance T, cet objectif se traduit pour chaque nation par une courbe de résultats à atteindre de l’instant présent jusqu’à T. Chaque nation sait qu’elle doit limiter ses émissions. Si elle émet plus elle freine le processus collectif, si elle émet moins, elle va plus vite que le résultat global dû aux autres.

L’adaptation n’a pas du tout la même signification dans les deux cas. Car si les émissions de la nation A sont supérieures aux autres, et si elle mène une politique vigoureuse d’adaptation, elle profite de l’énergie sale qu’elle utilise pour prendre une avance technologique, économique, et aussi quant à la gestion des êtres vivants sur son espace.

Au contraire si la nation B est bonne élève et émet moins que les autres, sa politique d’adaptation est une transformation visant à soigner les dégâts faits par les autres sur son espace de vie. C’est complètement différent.

Ce point est fondamental. Jérôme Fenoglio directeur du journal Le Monde écrit dans l’éditorial du 13 juin 2023 « Pour donner de la consistance à cette notion-clé [l’adaptation] une centaine de nos journalistes ont parcouru la France de ces premiers mois de 2023… ». C’est passionnant, mais je ne comprends pas que les compétences mobilisées pour publier une grande enquête sous le titre générique ADAPTATION, n’aient pas fait l’objet d’une clarification de cadrage par ce distinguo absolument crucial.

Le raisonnement de bon sens ci-dessus, peut être quantifié. Et la multiplicité des façons de faire cette quantification ouvre, comme il est normal, un champ de discussion teinté de prises de positions politiques. On peut rapporter les comparaisons

  1. a) aux habitants,
  2. b) à la superficie de terre occupée par pays

On a parfois argué que la contribution à l’économie avait son importance et qu’il fallait rapporter les comparaisons aux PIB des pays. Mais cette méthode — dans la situation de détérioration dans laquelle nous sommes, rappelons que les émissions globales de CO2 sont reparties à la hausse en 2022 par rapport à 2021, et que cela signifie que non seulement on ne traite pas le problème mais on l’aggrave plus que l’année précédente — cette méthode donc revient à considérer que les riches sont possesseurs d’un droit d’abimer davantage les conditions de vie de la planète que les pauvres ce qui est inadmissible. Insérer des considérations économiques dans les ratios comparatifs revient à justifier la force pour faire la justice, et cela risque d’avoir des conséquences extrêmes à terme.

Les États-Unis, pays leader du monde occidental, peuvent être pris à titre d’exemple : en chiffres arrondis de tonnes de CO2 /hab/an ils émettent 14,6 et la planète 4,6 donc trois fois plus que la moyenne.

L’Europe et la Chine font aussi partie des sur-émetteurs. La Chine émet 6,7 t/hab/an et l’Europe des 27 émet 7,5 t/hab/an. En Europe, le pays le plus vertueux la Suède, émet 5,2 t/hab/an alors que la valeur mondiale est 4,6 t/hab/an. Le Luxembourg émet par habitant plus que les États-Unis.     

En superficie les États-Unis émettent 484 t/km2/an soit deux fois plus que la planète continentale qui n’en émet que 236. La Chine émet 965 t/km2/an soit le double des États-Unis, l’Europe 800 t/km2/an.

Quant à l’idée des droits d’émission négociables, présentée comme géniale, qui allait réconcilier l’économie de marché avec l’environnement, elle a été introduite historiquement comme une simple facilité opérationnelle, et s’est révélée défaillante pour plusieurs raisons 1°) le flou inhérent aux contrats à termes concernés : les marchés de compensation (offset markets) permettent des avantages immédiats contre des promesses vagues[1], 2°) le cadre sacro-saint des marchés financiers est inadapté pour ce type de problème à cause de la volatilité inhérente qu’ils engendrent par eux-mêmes qui vient rajouter du flou au flou.[2]

D’ailleurs j’ajoute — comme je le répète depuis une vingtaine d’années — que le capitalisme tel qu’organisé actuellement sous le règne des marchés financiers est en soi un obstacle à la transition écologique, car contrairement à ce que l’on continue à affirmer dans les manuels, la rareté des ressources fossiles qui s’amenuisent est trop mal indiquée par les marchés à cause de leur incontournable volatilité.

 

Par quels mécanismes les habitants des pays riches jouent-ils double jeu sans parfois le savoir ?

En matière de changement climatique tout le monde a compris que la planète était en train de se fâcher gravement, que des souffrances étaient distribuées très irrégulièrement devant nous, et qu’il fallait prendre cela tout à fait au sérieux. Mais se comporter écologiquement, manger bio plus cher, et prêter son argent à des entreprises vertes qui ne rapportent pas grand-chose, tout le monde a compris qu’il valait mieux faire semblant que de le faire vraiment.

  1. a) La marche en crabe

On ne peut dénouer le dilemme des intérêts divergents qu’en séparant clairement les pays sur-émetteurs et les pays sous-émetteurs.

L’activité économique du pays sur-émetteur A est pilotée en encourageant les entreprises à s’orienter vers des objectifs verts, qui seront atteints lorsque les composts industriels chaufferont les villes, lorsque le polyéthylène nécessaire à l’isolation sera fabriqué, lorsque les avions voleront grâce au plastique retraité retiré des océans, lorsque les forêts seront replantées par des investisseurs « verts » avec des arbres OGM faisant génétiquement davantage de bois, etc.

Mais cet objectif n’est pour l’instant pas atteint puisque le pays A est en sur-émission. Tout cet argumentaire justifie un progrès économique qui maintient la situation de sur-émission par rapport à la moyenne.[3]

  1. b) Qui sont les actionnaires ?

Autrement dit il ne faut pas croire Total énergies lorsqu’elle dit qu’elle fait effort pour la planète. Et les manifestants avaient raison d’ennuyer les actionnaires qui venaient à l’Assemblée générale défendre leurs dividendes, car ce sont des profiteurs du désastre, comme les actionnaires des fabriques d’armement profitent des guerres.

Il faut imposer la transparence nominale des actionnaires même pour les petits actionnaires. Les montants investis peuvent rester confidentiels mais la liste complète des actionnaires doit être publique car il est normal qu’on sache qui est la cause de ce qui se passe. C’est un facteur majeur d’influence politique.

  1. c) La participation aux affaires est aussi une participation aux émissions.

En économie libérale les échanges se font selon un prix de marché. De sorte qu’un pays B qui serait un élève moyen juste à la moyenne de ce qui se passe globalement n’est pas dans une situation fair play s’il commerce avec un pays A en sur-émission car celui-ci fonctionne suivant des règles plus laxistes qui facilitent la production. En faisant des échanges avec A elle contribue au maintien de la sur-émission de A.

A quoi peut mener cette cécité ?

En revanche Jérôme Fenoglio a peut-être raison lorsqu’il écrit en reprenant un argument célèbre de Jean-Pierre Dupuy « Il faut être capable de concevoir le pire pour qu’il ne puisse arriver ». Seulement voilà, Dupuy publia Pour un catastrophisme éclairé en 2002. Le problème de cet argument est qu’il vaut aussi bien, sans modification aucune, aujourd’hui vingt ans après. Une telle assertion n’a aucune portée réelle sans échéance explicite faute de quoi l’assertion est glissante (demain j’arrête de fumer)[4]. C’est parce que les échéances sont incertaines, probabilistes, que la procrastination fonctionne.[5]

Et dans cinquante ans lorsque la région équatoriale entre les tropiques sera invivable parce que trop chaude et trop humide, que le Groenland aura fondu ainsi que le permafrost sibérien, l’humanité aura-t-elle encore assez de moyens d’action pour éviter pire encore ?

Ma vision est la suivante. Elle n’est qu’une lecture interprétative des informations dont je dispose qui sont tout à fait partielles.

Les masses populaires des pays pauvres vont voir les usages des classes aisées des pays avancés comme à la fois injustes, et impossibles à changer. Une évolution historique inexorable parce qu’il sera hors de portée des gouvernements de faire valoir l’intérêt « général », aucun n’ayant mandat pour cela.

Cette fatalité qui déprécie, de fait, sans que cela soit son but avoué, la valeur héréditaire de populations entières va nécessairement faire naître un ressentiment profond. Cette réaction peut être d’une violence extrême. A mon avis, le capitalisme globalisé pousse l’humanité vers une société de plus en plus fracturée entre pays riches et continents pauvres où, malgré la misère, la population s’accroit à un rythme jamais atteint dans l’histoire. Si les égoïsmes géopolitiques perdurent, l’absence d’avenir pour ces populations de plus en plus dans l’indigence, les poussera collectivement à bout.

Certains n’hésiteront pas à ravager la Nature pour nuire à ceux qui gagnent, car ce sera probablement leur seul moyen d’action dans ce qu’ils percevront comme une guerre de survie. Pourquoi les talibans cassent-ils les vestiges historiques ? Parce qu’ils considèrent que cela affaiblit leurs ennemis. C’est vraisemblablement ce que feront les pauvres devant un avenir de détresse pour eux et leurs enfants en commençant évidemment par les grands animaux prédateurs qui sont gênants pour l’élevage. Il faut se représenter, de générations en générations, le fardeau d’une condition humaine dépassée, obsolète, bornée, sans horizon par rapport à ceux-là mêmes qui profitèrent des ressources de la planète et détraquèrent le climat. Tuer la nature est la façon la plus facile de mettre l’humanité en péril. C’est la puissance de ceux qui ne disposent pas des armes modernes. 

Le rapport de mai 2019 de la Plateforme intergouvernementale sur la biodiversité et les services écosystémiques (IPBES) indique que la nature est soumise à une pression croissante face à l’exploitation des terres et des ressources en particulier dans les zones qui abritent les communautés les plus pauvres au monde. Les peuples autochtones sont clairement des gardiens de la nature. Le rapport souligne l’importance de les mettre à contribution, prendre en compte leurs points de vue, leurs droits ainsi que leurs pratiques afin d’améliorer leur qualité de vie, tout en œuvrant pour la conservation, la restauration et l’utilisation durable de la nature.

 

[1] Voir sur mon blog les articles  » Second rapport stratégique du Green Finance Observatory » et « La transition ».

[2] Cf. N. Bouleau Le mensonge de la finance, Les mathématiques le signal-prix et la planète, L’Atelier 2018,

[3] Ajoutons que les droits accordés à l’innovation par les brevets mis au point dans une situation de sur-émission reviennent à valider juridiquement  l’avantage de « jouer des coudes » durant la période difficile.

[4] C’est la grave faiblesse de l’accord de Paris, due semble-t-il au remplacement d’un « shall » par un « should » pour que les Américains acceptent de signer.

[5] Voir sur mon blog l’article « L’économisation du catastrophisme ». Cf. aussi N. Bouleau Le mensonge de la finance, Les mathématiques le signal-prix et la planète, L’Atelier 2018, chapitre 16.




Le hasard postulé

Par Nicolas BOULEAU, mathématicien et épistémologue

 

 

 

 

Très souvent admise dans les articles de biologie et plus encore dans les vulgarisations, l’interprétation courante de la philosophie de Jacques Monod considère que le processus de l’évolution réside en des mutations aléatoires de l’ADN qui sont indépendantes entre elles et indépendantes du contexte moléculaire et environnemental. Nous relevons ici le manque d’arguments de ce postulat et montrons que cette vision, par son apparente simplicité, devient pour certains un slogan, alors que de nombreux travaux en cours portent justement sur des correctifs à lui apporter.

L’article présente d’abord par un parcours historique des prises de position sur cette question, puis est discuté le cadre méthodologique dans lequel cette vision prend place. Enfin nous en tirons quelques conséquences quant à la distinction OGM versus non-OGM et sur une certaine éthique scientifique de l’imprudence.

 

  1. Jalons historiques

Les quelques passages où Charles Darwin évoque le hasard ne sont pas assez formels, selon nos critères contemporains, pour trancher sur le rôle qu’il attribuait à l’aléa :

« J’ai jusqu’à présent, parlé des variations […] comme si elles étaient dues au hasard. C’est là, sans contredit, une expression bien incorrecte ; peut-être, cependant, a-t-elle un avantage en ce qu’elle sert à démontrer notre ignorance »[1].

Dès L’origine des espèces il rencontre un problème clé qui restera jusqu’à nos jours :

« il est difficile de déterminer, cela d’ailleurs nous importe peu, si les habitudes changent ordinairement les premières, la conformation se modifiant ensuite, ou si de légères modifications de conformations entraînent un changement d’habitude ; il est probable que ces deux modifications se présentent souvent simultanément ».

Darwin cite Lamarck plutôt positivement. Il ne pouvait guère en être autrement à l’époque puisque son grand livre paraît en même temps que la controverse à l’Académie des sciences française sur la génération spontanée et que les atomes ne sont encore qu’une hypothèse, refusée jusqu’au début du 20e siècle par d’éminents savants y compris des chimistes.[2]

Une longue période s’ouvre alors dont on peut marquer le début également par l’importante formule de Boltzmann en thermodynamique statistique (1875) et qui se prolongera jusqu’à la découverte de la double hélice après la seconde guerre mondiale et celle des équilibres métastables des systèmes ouverts. Elle est marquée par un développement prodigieux de la physique qui encourage les vues réductionnistes et, a contrario, par des observations de plus en plus nombreuses et fines des naturalistes et des physiologistes sur lesquelles s’appuient d’illustres penseurs pour défendre un « principe vital » ou du moins une insuffisance des causalités physiques et chimiques pour comprendre le vivant. Le philosophe Henri Bergson prend l’exemple de l’Œstre du cheval, une espèce de mouche qui pique l’animal qui en se léchant avale des œufs de l’insecte dont les larves transiteront dans son système digestif jusqu’à donner de nouveaux adultes, et celui du coléoptère Sitaris qui parasite le nid de certaines abeilles, pour étayer la pertinence d’une créativité du vivant distincte de ce qui relève de la science qu’il range dans la catégorie du « mécanistique ».[3]

Au tournant des 19e et 20e siècles la science traverse des révolutions successives, au sens de Thomas Kuhn, qui prennent souvent la forme d’impossibilités, croissance de l’entropie, non transmissibilité des caractères acquis (August Weismann), non additivité des vitesses proches de celle de la lumière. Quant aux dernières réticences devant l’abstraction de la théorie atomique (Pierre Duhem, Louis Le Chatelier) elles sont surmontées grâce aux dénombrements méticuleux de Jean Perrin et Léon Brillouin fournissant le nombre d’Avogadro. La redécouverte en 1900 des travaux de Gregor Mendel, complètement ignorés, donne à la biologie ses premières bases quantitatives, qui se développeront ensuite par l’école anglaise de statistique mathématique avec les premières dynamiques de population (Francis Galton, Ronald Fisher, et Sewal Wright aux États-Unis).

Après la première guerre mondiale, alors que la physique opère une métamorphose engendrant la mécanique quantique qui mobilise des outils mathématiques avancés comme les espaces de Hilbert, les statistiques apparaissent comme une méthode bien adaptée aux sciences humaines et du vivant. C’était déjà l’avis de Condorcet et de Buffon, elles permettent des classifications rigoureuses grâce au concept de corrélation sans que soit mobilisée nécessairement une relation de causalité.[4] Les observations des naturalistes et des physiologistes s’accumulent qui font connaître la prodigieuse richesse des plantes et des animaux ainsi que leurs curieux modes de vie.

Le fossé entre les outils méthodologiques de la physique et ceux de la biologie a certainement contribué à faire voir les inventions créatives de la nature vivante comme une énigme. Comment les fonctions d’onde et les algèbres de Von Neumann pourraient-elles expliquer la fabrication d’un œil ou la construction d’un nid d’oiseau. Si l’on écarte toute intention divine, dans quel jeu le hasard pourrait-il tirer des cartes aussi variées ? Lucien Cuénot après avoir rassemblé une impressionnante collection de cas où l’évolution semble suivre intentionnellement une direction, en vient à chercher quelle serait la consistance philosophique d’un anti-hasard pour corriger le désordre de l’aléatoire.[5] Il voit ce registre du côté de ce qui fait sens pour nous humains :

« il y a une évidente opposition […] d’un côté déterminisme aveugle, sans dessein, et exclusion de finalité : de l’autre déterminisme téléologique orientant vers un but le déterminisme mécanique. D’un côté le hasard, de l’autre l’anti-hasard. […] Nous ne connaissons les espèces végétales, animales et nous-mêmes que par le phénotype, c’est-à-dire par le résultat de la réaction du substratum héréditaire aux actions de milieu, qui peuvent modifier plus ou moins intensément l’expression du génotype ».

Faudrait-il admettre une sorte de hasard truqué ? Du hasard qui voudrait dire quelque chose ? Mais, si cela fait sens, ce ne peut être le pur hasard. Le physicien Charles-Eugène Guye, quant à lui, se lance dans des calculs de probabilité pour montrer combien l’improbabilité du vivant est évidente.[6] A cet égard l’ouvrage d’Erwin Schrödinger What is life ? qui postule la nature cristalline du maintien de la permanence dans l’hérédité apparaît comme une piste prometteuse vers la causalité en biologie.[7]

La découverte de la structure en double brin de l’ADN par Francis Crick, James Watson, Maurice Wilkins et Rosalind Franklin, peu après la seconde guerre mondiale est une rupture épistémologique majeure qui donne au livre de Schrödinger une valeur prémonitoire, fortifie le courant réductionniste, et fait rapidement naître une vulgarisation schématique fondée sur l’informatique. Au demeurant le questionnement sur l’importance du vécu subsiste et Conrad Waddington introduit le concept d’assimilation génétique qui vise à donner un cadre mieux circonscrit à une forme de lamarckisme. Ces idées sont débattues lors d’un célèbre colloque animé par Arthur Koestler et J. R. Smythies, Beyond Reductionism, New perspectives in the Life Sciences (1969), où sont mentionnés les travaux anciens de l’Américain Walter Baldwin (1896). Même si d’après Waddington cette référence est discutable, l’usage répété de cette citation a construit le concept d’effet Baldwin qui désigne aujourd’hui le fait que lors d’un changement d’environnement il se peut que certains individus d’une population présentent des traits qui les avantagent sélectivement même si ces caractères n’étaient pas antérieurement observables.

Peu après le prix Nobel attribué à Jacques Monod, François Jacob et André Wolf (1965), Jacques Monod publie sont très célèbre ouvrage sur lequel nous nous arrêtons un instant. Ainsi que Laurent Loison le montre bien[8], ce livre confirme un tournant dans la vision épistémique de Monod. Partant d’une conception répandue où le microscopique ne pouvait avoir d’effet direct macroscopique que de façon statistique[9], il défend dorénavant un déterminisme moléculaire fondé sur les « complexes stéréospécifiques non covalents » et il dénoue l’opposition avec la thermodynamique statistique en faisant appel à l’interprétation de Léon Brillouin et les notions d’information et de néguentropie. Il range l’ouvrage de Koestler et Smythies dans « les écoles organicistes ou holistes qui telles un phénix renaissent à chaque génération » et se détourne de l’idée d’une « théorie générale des systèmes » de Von Bertalanfy.

Mais la thèse la plus forte de son livre, ainsi que le titre l’indique, réside dans le rôle qu’il fait jouer au hasard dans l’évolution (chap. 7). S’appuyant sur les travaux de Brenner et Crick il énumère différents types d’altérations accidentelles discrètes que peut subir la double fibre d’ADN et énonce ce célèbre postulat :

« Nous disons que ces altérations sont accidentelles, qu’elles ont lieu au hasard. Et, puisqu’elles constituent la seule source possible de modifications du texte génétique, seul dépositaire à son tour des structures héréditaires de l’organisme, il s’ensuit nécessairement que le hasard est la seule source de toute nouveauté, de toute création dans la biosphère. Le hasard pur, le seul hasard, liberté absolue, mais aveugle, à la racine même du prodigieux édifice de l’évolution. » (p.147).

Le livre de Monod est clairement écrit et n’esquive aucune radicalité : « cette notion centrale de la biologie moderne n’est pas aujourd’hui une hypothèse, parmi d’autres possibles ou au moins concevables. Elle est la seule concevable, comme seule compatible avec les faits d’observation et d’expérience » (p.148). Il dépeint l’évolution (chap. 7) comme le résultat de « la roulette de la nature » (p. 159).

Plusieurs auteurs ont rapidement réagi à cette affirmation dont le caractère provocateur pour une part du monde intellectuel, ne constituait pas en soi une validation, et ont pointé sa faiblesse en tant qu’apriori épistémologique, notamment Ernest Schoffeniels et Albert Jacquard qui soulignèrent que l’appel au hasard est une facilité qui peut faire obstacle à la recherche de nouvelles compréhensions.

Il convient de souligner qu’au-delà d’une image vulgarisatrice la notion de « roulette de la nature » a une signification épistémologique fondamentale, je dirais même mathématique. Elle signifie que les mutations non seulement sont soumises à un aléa mais que cet aléa est comme celui de la roulette : ne dépendant d’aucun cadre, d’aucune influence, indépendant au sens stochastique de tout autre hasard, de toute mutation chez un autre individu, hors de tout contexte. Tout au plus accordera-t-on que ce hasard-roulette dépende de l’ADN auquel il est appliqué, l’ADN comme texte abstrait sans repliements, sans états quantiques métastables, sans corrélation avec quoi que ce soit.[10]

Parmi les critiques de Monod, celle du statisticien Georges Matheron (Matheron 1978) est particulièrement intéressante parce qu’elle se situe à la juste place où le problème est épistémologiquement difficile. En tant que statisticien il observe que les acides aminés ne sont pas répartis dans la nature comme s’ils avaient été tirés au hasard. Quand bien même nous considérerions que les phénomènes biologiques sont le résultat du hasard, de ce hasard nous n’avons qu’un seul tirage, une seule trajectoire ; et ce qu’est la nature aujourd’hui – et ce qu’elle fut dans le passé – induit une foule de déterminismes, de sorte que le problème est de partager les sources de hasard s’il y en a, et les causalités multiples et contextuelles. Il n’y a effectivement qu’une seule nature avec un seul parcours, si divers et riche fût-il, et sur une seule planète. La comparaison avec le hasard de la roulette à multiples tirages indépendants est ainsi une pure abstraction. On voit que la question concerne la méthode elle-même des sciences de la nature.

Le cas de René Thom est plus compliqué. Il faut distinguer un pamphlet dirigé contre l’abus des modèles probabilistes dans beaucoup de disciplines (Thom 1980) parce qu’ils sont peu informatifs et difficilement réfutables, et l’application de la théorie des catastrophes à la biologie qui fit l’objet de plusieurs livres (cf. Thom 1972 et Thom 1991) qui, malgré un accueil réservé de certains biologistes, ouvrent une voie très nouvelle et mieux acceptée maintenant pour l’élaboration d’un discours au niveau de l’embryogenèse et du phénotype qui aille plus loin qu’un simple descriptif statistique. La démarche est platonicienne et typiquement celle d’un mathématicien de construire des notions plus abstraites, mais plus simples que ce qui est observé et mesuré.

A la même époque que le livre de Monod paraissait l’article de Kimura et Ohta (1971) qui mettait l’accent sur l’existence de mutations sans effet visible sur le phénotype et soulignait le phénomène de dérive par effacement d’allèles dans les populations restreintes. Dans un de ses nombreux livres Stephan Jay Gould (Gould 1987), narrateur hors pair, se positionne en faveur de la théorie neutraliste de Kimura plutôt que pour l’organicisme de Koestler.

Une autre façon de parler de l’inventivité de la nature est celle de François Jacob qui parle de « bricolage » ou d’Antoine Danchin (Danchin 1991) qui emploie le terme d’opportunisme et prend l’exemple de l’œil chez divers animaux où les tissus employés pour les corps transparents sont des protéines différentes trouvées à l’occasion, issues d’autres usages.

Mentionnons également le mathématicien et linguiste Marcel Schützenberger (Schützenberger 1992) collaborateur de Noam Chomsky qui discute la « convergence » du processus de sélection naturelle comme forme d’algorithme du recuit simulé (simulated annealing).

 

  1. La dialectique de Jean-Claude Milner

Il n’est pas étonnant que la dualité soulignée par Cuénot et bien d’autres entre phénotype et génotype ait intéressé des linguistes car le langage est typiquement le jeu d’un formel susceptible d’interprétation : le signifiant et le signifié.

A cet égard, dans un article fort intéressant, « Hasard et langage », le linguiste Jean-Claude Milner (Milner 1991) pointe ce qu’on peut appeler une dialectique de l’approche scientifique du langage. Dans un premier temps la connaissance se place sous le règne du hasard, c’est ce que Ferdinand de Saussure appelle l’arbitraire du signe. Et Milner de faire remarquer que le mot hasard lui-même, venu de l’arabe où il désigne un jeu de dés, pourrait être différent, ce qui donne un sens fondateur au célèbre poème de Mallarmé « Un coup de dé jamais n’abolira le hasard ». Il ajoute :

Mais, ce premier temps, on ne peut rien en faire. A partir du moment où l’on a dit que les configurations linguistiques sont totalement aléatoires, donc qu’elles pourraient être entièrement autres que ce qu’elles sont, le problème de la science du langage n’est pas d’expliquer comment elles pourraient être autres, mais comment elles sont. Le second temps consiste donc à recouvrir, à oblitérer le premier […] il reste à montrer que tel ou tel caractère s’explique en liaison avec tel autre. Cette mise en relation prendra, dans le meilleur des cas, la forme d’une déduction.

La posture radicale de Monod s’apparente au premier temps, dont on ne peut rien faire, d’où les reproches d’Albert Jacquard[11] et d’autres qui réclament une autre approche pour la biologie. N’oublions pas que ce hasard-roulette est sensé gouverner le choix des fonctions et des formes qui, lors de l’évolution, viendront se mettre en relation avec celles des phénotypes existants.

Ouvrons ici une parenthèse pour évoquer une situation se rapportant à notre question, et qui est plus qu’une anecdote.

Elle concerne Ferdinand de Saussure, le célèbre philologue, qui durant les mêmes années où il enseignait à Paris son magistral Cours de linguistique générale, se livrait à des recherches sur la poésie antique dont le fil conducteur et la motivation étaient qu’il devinait des noms de dieux par la musique des vers sans que ces noms soient explicitement écrits. Pourquoi n’a-t-il pas publié ces travaux, très approfondis, dont il a couvert plusieurs dizaines de cahiers conservés à la bibliothèque de Genève ? Parce que ce grand savant a craint qu’on dise que ses trouvailles étaient dues au hasard. On mesure, par ce cas, la pression idéologique que peut exercer la notion de hasard.[12]

Récemment cette problématique des influences mutuelles du génome, de l’épigenèse et du développement ont pris une place considérable dans les recherches et les publications et on doit mentionner les synthèses remarquables de Mary Jane West-Eberhard (2003) et de David Pfennig et al. (2021).

 

  1. Les synthèses de Mary Jane West-Eberhard et de David Pfennig et al.

L’ouvrage de Mary Jane West-Eberhard est une somme de 800 pages d’une richesse impressionnante tant par l’analyse de la littérature scientifique que par les idées et les éclairages personnels qu’elle donne sur les questions délicates. C’est passionnant et ce livre a, sans conteste, largement contribué à réorienter les motivations des chercheurs sur les questions liées à la plasticité du développement.

Une notion clé qu’elle avance est celle d’accommodation génétique, qui élargit celle d’assimilation génétique introduite par Waddington. Elle la définit de la façon suivante :

L’accommodation génétique améliore un nouveau phénotype d’au moins trois manières différentes : (a) en ajustant la régulation, pour changer la fréquence d’expression du trait ou les conditions dans lesquelles il est exprimé ; (b} en ajustant la forme du trait, en améliorant son intégration et son efficacité ; et (c) en réduisant les effets secondaires désavantageux. L’accommodation génétique se produit qu’un nouveau trait soit induit par mutation ou par l’environnement, car elle dépend de la variation génétique à de nombreux loci apportés sous un nouveau régime sélectif par le changement phénotypique induit.

Notons que cette définition n’est pas complètement explicite en ce qui concerne le procédé qui va réaliser cette accommodation. En effet si le nouveau trait, supposé avantageux, est dû à la plasticité du développement et n’est pas inscrit génétiquement au départ, on comprend que le génome de cet individu va se répandre dans la population si son porteur est prolifique. Mais comment ce génome, une fois plus répandu, va-t-il «savoir» quelle mutation il faut faire pour fixer le trait ? Les mutations qui vont se produire chez les individus issus du nouveau génome ont toute chance de ne pas trouver quelle modification du génome il faut faire pour obtenir le trait. Car que le trait vécu soit enregistré ou pas sur le génome cela ne se voit pas sur le développement donc cela n’est pas soumis à sélection.

Ajoutons que — en restant dans l’hypothèse de hasard-roulette — les mutations sur une descendance d’un individu ne vont pas partout. Dans l’hypothèse de hasard-roulette à la Monod, les mutations induisent tous les changements. Cela veut dire qu’elles sont à l’origine de toutes les modifications héréditaires du phénotype. Mais cela n’est pas contradictoire avec le fait que si on se donne un changement fixé à l’avance les mutations successives peuvent passer à côté sans jamais l’atteindre. Ce phénomène très important peut se comprendre par similarité avec le fait qu’une promenade aléatoire en dimension 3 et au-delà s’en va à l’infini sans avoir eu le temps de visiter toutes les éventualités (cf. Kesten 1978) en tenant compte de ce qu’un phénotype, si simple soit-il, évolue toujours dans un espace d’état de grande dimension.

Le texte de Mary Jane West-Eberhard (p148 et seq.) qui explique l’accommodation génétique décrit un phénomène et donne des exemples où le génome change en prenant en compte un trait avantageux découvert par plasticité du développement. Mais ce texte n’explique pas comment cette inscription dans le génome se fait dans le cas hasard-roulette, de sorte que cette rédaction peut être comprise comme une critique de l’hypothèse hasard-roulette, plutôt que comme une confirmation de cette hypothèse, selon les avancées futures des connaissances. C’est habile, ou plutôt disons prudent. Cela laisse entendre qu’elle ne souscrit pas aveuglément à l’hypothèse de Monod et qu’elle considère que les explications détaillées viendront des recherches et pourraient varier suivant diverses circonstances expérimentales (elle cite le changement d’allèles à une pluralité de loci, etc.).

L’ouvrage collectif coordonné par David Pfennig reprend cette problématique une vingtaine d’années plus tard. Il est d’une rigueur toute britannique. On a l’impression de lire Bertrand Russell. En particulier la contribution de Pfennig lui-même est d’une limpidité exemplaire.

A la 4e de ses «questions clés» sur la plasticité phénotypique David Pfennig montre que selon la «synthèse moderne», qui réconciliait la théorie de Darwin et la génétique mendélienne, la plasticité ne pouvait affecter l’évolution puisque celle-ci requiert un changement héréditaire. Mais il apporte deux correctifs à cet argument : d’abord que la plasticité peut avoir un impact sur l’évolution même si la réponse plastique spécifique n’est pas elle-même héritée, ensuite que, en fait, certaines réponses plastiques sont transmises héréditairement. Et il dégage trois cas où la plasticité facilite l’évolution :

Premièrement, la plasticité peut faciliter l’évolution indirectement en favorisant la persistance de la population dans des environnements nouveaux, permettant ainsi aux populations de rester viables jusqu’à ce que l’évolution adaptative puisse se produire (l’hypothèse de « l’achat de temps »). Deuxièmement, la plasticité peut faciliter l’évolution directement en exposant à la sélection des variations génétiques auparavant inexprimées, ce qui alimente l’évolution adaptative (hypothèse de l' »évolution induite par la plasticité »). Enfin, la plasticité peut faciliter l’évolution directement en formant la base d’un système d’héritage alternatif sur lequel l’évolution adaptative peut se déployer (hypothèse de l' »évolution non génétique »).

Il illustre ces situations par des cas détaillés. Je renvoie pour cela au livre où également les travaux de ses collègues sont riches de connaissances factuelles et d’observations qui précisent des comportements où se joue une influence du développement vers l’hérédité. C’est la question cruciale du «vécu d’abord» (development first).

N’importe quelle situation particulière peut souvent être lue comme «une mutation au hasard d’abord», (cf. la crainte de Saussure), mais cette facilité devient de plus en plus artificielle car les cas s’accumulent et certaines expériences apportent des confirmations. Le cas des Daphnies, ces petits crustacés d’eau douce, est assez spectaculaire. En présence de certains prédateurs dans leur eau ils prennent un aspect différent avec une sorte de casque et ce trait s’avère transmissible héréditairement s’ils sont dans une eau changée sans prédateurs. Parmi les « trouvailles » célèbres de la nature citons : la moule perlière des rivières qui parvient à ne pas disparaître entrainée par le courant parce que les germes qu’elle disperse dans l’eau s’accrochent aux branchies des truites ou des saumons qui les font remonter en amont où elles éclosent; également le fait que le phacochère qui se met à genou pour fouiller a transmis à ses rejetons une callosité aux genoux qui apparaît sur les embryons avant même leur naissance; les «chaines de vacances» du Bernard l’Hermite qui quitte sa coquille pour une plus grande libérant l’ancienne qui peut ainsi accueillir un autre Bernard l’Hermite et ainsi de suite en chaîne; Cuénot mentionne aussi certains animaux inoculateurs dont le dard au lieu de présenter un trou à l’extrémité possède un orifice sur le côté permettant à la pointe de pénétrer plus aisément. Il y a des conduites de détour, des formes d’opportunisme dont un exemple est que les substances transparentes de l’œil, cet ustensile fondamental, sont souvent faites de protéines spécifiques qui existaient pour des animaux différents pour d’autres fonctions.

On peut interpréter, sinon tous, du moins plusieurs de ces exemples, en suggérant que, par un processus dont on n’a pas le détail et peut-être de plusieurs façons, le développement dessiné par un vécu dans la plasticité phénotypique intervient sous la forme d’un biais favorisant, au moins légèrement, les mutations qui modifient peu ce même développement.

Contrairement à ce qui se passe dans l’hypothèse hasard-roulette où rien, sinon un hasard nouveau étranger à la scène, ne peut jouer sur les mutations, on voit bien qu’une simple influence corrélative entre l’épigenèse et le génome aurait un effet déterminant sur l’adaptation et le gradualisme car elle soumettrait les mutations appuyant le vécu à une sélectivité favorable.

Un tel principe suivrait l’influence imaginée par Raymond Hovasse il y a une cinquantaine d’années (Hovasse 1972, p1679) :

Le fait qu’un organisme donné peut réagir à une action du milieu par une somation, implique, dans son cytoplasma, indépendamment de ses gènes, la possibilité d’un mécanisme réalisateur, déviation d’un mécanisme génique, ou peut-être plasmagénique. Ce mécanisme une fois réalisé ne peut-il être déclenché à nouveau plus facilement ensuite par un phénomène génique ? La somation amorcerait, en quelque sorte, la mutation.

Il y a dans les publications récentes des investigations qui montrent a minima que l’épigenèse peut à la fois être influencée par le vécu et influencer le génome par une qualification du type de hasard qui y intervient : biais, corrélation, mémoire, etc.

Toutes ces recherches montrent que nous sommes maintenant clairement dans la deuxième phase de la dialectique de Milner.      

             

  1. Les deux préceptes de Jacques Monod

Pour comprendre les aspects éthiques, il faut nous replacer dans cette situation historique extraordinaire où les découvertes sur l’ADN semblent apporter enfin une réponse à la grande question de la vie sur laquelle les religions avaient construit des sentiments et des croyances, et où s’ouvre une nouvelle activité scientifique, la biologie moléculaire, prometteuse d’aborder vraiment concrètement les mécanismes du vivant. Tout un programme. Il faut repenser les idées vagues de Darwin dans une nouvelle réalité opérationnelle pour l’agriculture, l’élevage et la médecine. Les interprétations façonnées par la culture, l’empathie avec les êtres vivants que nous sommes aussi, la ressemblance entre nos nourrissons et des petits animaux, toute cette intuition qui constituait ce qui s’appelait la vie, la nôtre, et notre mort également, et se trouvait au cœur des plus hautes philosophies, tout cela reste mais change de rôle, cela devient les sources du questionnement biologique, non plus les bases de la vérité mais le décor où se joue la pièce scientifique. C’est en cet instant historique unique que Jacques Monod prend la parole, légitimé par sa connaissance reconnue des techniques concernées et qu’il pose des mots sur l’aventure et les éventuels devant lesquels se trouve l’humanité.

Son discours a deux piliers : 1°) le hasard règne en maitre, et 2°) la conscience du scientifique peut tenir lieu d’éthique pour l’avenir.

Mais contrairement à ce qu’il a supposé, l’évolution ne fonctionne pas avec des mutations purement au hasard, indépendantes entre elles et indépendantes du contexte comme tirées à la roulette. C’est au contraire un vaste sujet d’étude de comprendre les influences, les biais induits, leur degré de causalité ou seulement de corrélation entre les changements du génome et ceux de la matrice épigénétique et du développement. Monod cherchant un discours percutant contre toute forme de spiritualisme a saisi le hasard comme arme absolue et, ce faisant, a ouvert en grand l’autorisation morale de faire n’importe quoi. En proclamant une explication facile et caricaturale de la nature, il a rendu sa préservation plus difficile et donné un slogan tout trouvé aux manipulateurs moléculaires sans scrupule éthique.

Le dernier chapitre de son traité intitulé « Le royaume et les ténèbres » constitue, en vingt pages, un véritable manifeste d’une éthique tirée de la « conception moderne de la science ». Pour répondre à l’angoisse de l’Homme devant sa destinée, il s’agit de garder un « discours authentique » qui consiste à relier la vérité scientifique et les valeurs mais en les gardant distinctes sans les confondre. C’est une discipline que s’impose l’homme de science pour l’authenticité de tout discours ou action. « L’éthique de la connaissance, créatrice du monde moderne, est la seule compatible avec lui, la seule capable, une fois comprise et acceptée, de guider son évolution« .

Mais cette foi en l’homme de science est-elle fondée ? Si dieu n’existe pas, l’homme de science prudent et désintéressé est une plus grande fiction encore. Pensons à la naissance en 2018, en catimini, des fillettes génétiquement modifiées par l’équipe chinoise de He Jiankui [13], pensons aux nombreux laboratoires privés qui font commerce d’informations tirées de bases de données de génomes humains pour aider à la sélection d’embryons au niveau du blastomère, n’omettons pas la Darpa qui finance de la biologie de synthèse, sans parler des pays où l’information est contrôlée et qui mènent nombres d’essais tenus secrets. Cette science immaculée conception n’existe pas. Le laisser croire, revient à absoudre à l’avance tous les dérapages.

Monod se faisait une idée assez schématique du social, et cela l’a trompé sur l’avenir de sa propre discipline. Il écrivit en effet : « Sans doute pourra-t-on pallier certaines tares génétiques, mais seulement pour l’individu frappé, non dans sa descendance. Non seulement la génétique moléculaire moderne ne nous propose aucun moyen d’agir sur le patrimoine héréditaire pour l’enrichir de traits nouveaux, pour créer un « surhomme » génétique, mais elle révèle la vanité d’un tel espoir : l’échelle microscopique du génome interdit pour l’instant et sans doute à jamais de telles manipulations ». Cependant, avec les modifications du génome humain, les limites dont il parle sont déjà dépassées et les recommandations éthiques faites lors de la conférence d’Asilomar de 1975 ne sont plus adaptées.

 

  1. Conclusion

Dans le monde entier des chercheurs sont préoccupés de comprendre les passages, nombreux mais circonstanciés, que la nature nous montre entre le vécu des êtres vivants et leur l’ADN. Il n’y a pas que le cas étonnant des Daphnies, en Californie c’est à propos des lézards, etc. En France un groupement de recherche (GDR) a été créé sous l’égide du CNRS comprenant 37 laboratoires sur le thème de la plasticité phénotypique.[14] C’est un courant de recherche immense, j’ajoute aux mentions précédentes les travaux de Jonathan B. Losos, Kevin J. Parsons, Ammon Cori, et Blair W. Perry. On a commencé à comprendre qu’il y a comme une continuité entre la permanence de la matrice épigénétique et celle du génome, ainsi qu’une relation progressive entre les changements de l’une et de l’autre. Dans quelle mesure, à quelle échelle ? Work in progress

Néanmoins les instances institutionnelles de sagesse collective sont tardives à se mettre en place. Dernièrement la Cour de justice de l’Union européenne (CJUE) n’a pas classé parmi les OGM réglementés les produits de mutagenèse aléatoire in vitro qui pourtant modifient le cadre cellulaire de l’ADN (Arrêt du 7 février 2023).

Résumons : Jacques Monod a construit une doctrine qui valide le message aux scientifiques : « vous pouvez tout essayer » ; et dont la morale pour le monde entier est : « faites confiance aux scientifiques ».

Là se trouve l’origine principale du blanc-seing déontologique qui s’est répandu en biologie. Celle-ci doit maintenant se dégager de ces visions radicales et imprudentes.

 

Références

  1. M. Baldwin, 1896. « A new factor in evolution » American Naturalist 30, 441–451.
  2. Bergson L’évolution créatrice, Alcan 1907.
  3. Bouleau Ce que Nature sait, Presses Universitaires de France, 2021.
  4. Bouleau La biologie contre l’écologie ? Le nouvel empirisme de synthèse, Spartacus-idh 2022.
  5. Bouleau, D. Bourg, Science et prudence, Du réductionnisme et autres erreurs par gros temps écologique, Presses Universitaires de France 2022.
  6. Cori et al.  » The Genetic Basis of Adaptation following Plastic Changes in Coloration in a Novel Environment », Current Biology 28, 2970–2977, 2018.
  7. Cuénot Invention et finalité en biologie, Flammarion 1941.
  8. Cuénot « L’anti-hasard« , Revue scientifique, n°3235, 1944 (paru en mars. 1946), p.339.
  9. Danchin « Hasard et biologie moléculaire » in E. Noël Le hasard aujourd’hui Seuil 1991.

Ch. Darwin L’Origine des espèces, (1876), Garnier-Flammarion, 1992.

  1. Gayon, Th. Pradeu, Philosophie de la biologie, Explication biologique, hérédité, développement, Vrin 2021.

St. J. Gould « Un hérisson dans la tempête » (1987) Grasset 1994.

Ch. E. Guye, L’évolution physico-chimique, Rouge et Cie 1941.

  1. Hovasse Adaptation et évolution, Hermann 1950.
  2. Hovasse « La réalité de l’évolution organique », in Biologie Gallimard 1972, pp1547-1696.
  3. Jaccard « Hasard et génétique des populations » in E. Noël Le hasard aujourd’hui Seuil 1991.
  4. Jolivet « Le principe de Baldwin ou l’effet Baldwin en biologie, Une bonne explication ou une échappatoire des darwinistes ? » L’Entomologiste, t. 63, 2007, n° 6 : 315-324.
  5. Kesten «Erickson’s conjecture on the rate of escape of ad-dimensional random walk»,Trans. of the American Math. Soc. Vol.240, (1978) 65-113.
  6. Kimura, T. Ohta, « Protein polymorphism as a phase of molecular evolution », Nature 229, 467-469, (1971).
  7. Kimura « The neutral theory of molecular evolution: A review of recent evidence » Japan. J. Genet.66 (1991), 367-386.
  8. Koestler, J. R. Smythies, Beyond reductionism, New perspectives in the life sciences, Hutchinson 1969.
  9. Le Chatelier Leçons sur le carbone, la combustion, les lois chimiques, Dunod/Hermann, 1908.
  10. A. Levis, D. W. Pfennig, « Evaluating ‘Plasticity-First’ Evolution in Nature: Key Criteria and Empirical Approaches » Trends in Ecology & Evolution, July 2016, Vol. 31, No. 7
  11. Loison “Why did Jacques Monod make the choice of mechanistic determinism?” Comptes Rendus Biologies, Elsevier Vol.338, 6, (2015), 391-397.
  12. B. Losos Destinées improbables : Le hasard, la nécessité et l’avenir de l’évolution, (Riverhead Books 2017) La découverte 2021.
  13. Matheron, Estimer et choisir, Ecole des Mines 1978; Estimating and Choosing, Springer 1989.
  14. Mayr « Cause and effect in biology » Science 134, (1961), 1501-1506.

J.-Cl. Milner « hasard et langage » in E. Noël Le hasard aujourd’hui, Seuil 1991.

  1. Monod Le hasard et la nécessité, Seuil 1970.
  2. J. Parsons et al. « Does phenotypic plasticity initiate developmental bias? » Evolution & Development. Wiley 2020; 22: 56–70.
  3. Perrin Les atomes, Alcan 1913.
  4. W. Perry et al. « Evolution: Plasticity versus Selection, or Plasticity and Selection? » Current Biology 28, R1096–R1119, 2018.
  5. W. Pfennig, « Evolution and the flexible organism, Do environmentally induced changes to individuals affect natural selection, and if so, how? Amer. Scientist 110, 94-101, (2022).
  6. W. Pfennig, ed., Phenotypic Plasticity and Evolution: Causes, Consequences, Controversies. CRC Press. (2021).
  7. Prigogine Physique, temps, devenir, Masson 1980
  8. Schoffeniels L’anti-hasard, Gauthier-Villars 1973.
  9. Schrödinger What is Life ? The Physical Aspect of the Living Cell, 1944.
  10. Schützenberger, « Le hasard peut-il produire la complexité du vivant ? », in L’Homme face à la science, Critérion, 1992.
  11. Thom Stabilité structurelle et morphogenèse, Benjamin 1972.
  12. Thom « Halte au hasard, silence au bruit », Le Débat, Gallimard, 31, (1980), 119-132.
  13. Thom Prédire n’est pas expliquer, Eshel 1991.
  14. H. Waddington « The theory of evolution today », in Koestler-Smythies Beyond reductionism Hutchinson 1969.
  15. Weismann Essais sur l’hérédité et la sélection naturelle, Reinwald, 1892.
  16. J. West-Eberhard Developmental Plasticity and Evolution, Oxford Univ. Press 2003.

[1] Charles Darwin 1876.

[2] Cf. Henry Le Chatelier 1908.

[3] Henri Bergson 1907.

[4] La biologie devrait-elle se limiter à un rôle descriptif ? La question de la place de la causalité pour les sciences du vivant est permanente (Ernst Mayr 1961, Jean Gayon et Thomas Pradeu 2021).

[5] Lucien Cuénot 1941 et 1944.

[6] Charles-Eugène Guye 1941, p213 et seq.

[7] Erwin Schrödinger 1944.

[8] Laurent Loison 2016.

[9] Ce point de vue est bien exprimé par Ch. E. Guye : « Si donc l’on admet l’hypothèse selon laquelle l’origine de la vie coïnciderait avec l’apparition, dans la constitution moléculaire, d’une fluctuation dissymétrique d’espèce relativement très rare, on conçoit d’emblée pourquoi nous avons toujours été jusqu’ici dans l’impossibilité de faire sortir la vie autrement que de la vie elle-même. Cela résulte immédiatement du fait que nous ne sommes pas le démon de Maxwell et que nous sommes impuissants à agir sur les fluctuations individuelles par le moyen grossier de nos manipulations physico-chimiques (statistiques) que seules nous sommes capables d’effectuer. »

[10] On comprend mieux au dernier chapitre de son livre pourquoi Monod adopte cette position. Elle semble d’ailleurs contredire le rôle qu’il fait jouer, en s’appuyant sur ses propres travaux, aux « complexes stéréospécifiques non covalents », notion qui dépasse « l’hypothèse d’Anfinsen » que l’action des protéines n’interviendrait que par leurs séquences d’acides aminés.   

[11] « Je crois que Jacques Monod nous a rendu un très mauvais service, en donnant l’impression, à la suite de Démocrite, qu’il y avait soit le hasard, soit la nécessité, et que tout dépendait d’eux. Ce service est d’autant plus mauvais qu’il a donné l’image d’un hasard tel un petit dieu grec. » (Jacquard 1991).

[12] Ces recherches ont été publiées et commentées par J. Starobinsky, Les mots sous les mots, Gallimard 1971.

[13] Il s’agit de trois fillettes sur lesquelles on a d’ailleurs peu d’information (cf. H. Morin Le Monde 19 avril 2022).

[14] https://plasticite-phenotypique.cnrs.fr/




La prolifération des laboratoires de haute sécurité sur les pathogènes mortels pour l’homme et l’animal

Par Nicolas Bouleau, mathématicien et épistémologue

 

 

 

 

Enfin un outil clair et factuel pour une prise de conscience de la dangerosité de la biologie moléculaire : un tableau bien fait de la réalité internationale sur la façon de gérer la sécurité dans les labos dangereux ! C’était un vide béant que vient occuper, partiellement, ce rapport. Évidemment le sujet

est très politique et il faut tenter de ne pas tomber dans la naïveté. Même bien documenté ce travail montre qu’on ne dispose que d’informations très lacunaires et que le chemin vers la transparence est encore long. L’option prise par l’équipe Global Biolabs est de décrire ce qui est observable et de tenter d’influencer les organisations internationales pour que celles-ci établissent des recommandations, des normes et des directives sur la sûreté et la sécurité.  

Intitulé Global Biolabs Report 2023, le document, d’une vingtaine de pages, a été réalisé par une petite équipe d’universitaires du King’s College à Londres et de l’Université George Mason près de Washington. J’encourage la lecture complète du rapport 2023 dont les conclusions insistent sur l’idée de transparence comme enjeu majeur.

Précision de vocabulaire : le terme biosûreté (biosafety) désigne plutôt les bonnes manières, disons les règles de l’art de ces activités à risque, alors que la biosécurité (biosecurity) concerne la lutte contre les mauvais usages. Évidemment les notions se recouvrent pour partie : c’est la question du double usage (dual-use) relevé à plusieurs reprises dans le rapport.

Ici dans ce billet je donne à lire d’abord le résumé introductif fourni dans le rapport, puis livre quelques commentaires personnels. 

 

Résumé et propositions

Tendances et messages clés

Depuis son lancement en mai 2021, l’initiative Global BioLabs a permis d’identifier des tendances dans les données mondiales sur les laboratoires de niveau de sécurité biologique 4 et 3+ et sur la gestion des risques biologiques, tant au niveau national qu’international. Dans l’ensemble, plusieurs tendances sont inquiétantes en matière de biosûreté et de biosécurité, compte tenu de l’essor mondial de la construction de laboratoires de niveau de sécurité biologique 4 et 3+, en particulier là où la surveillance de la gestion des risques biologiques est insuffisante.

Laboratoires BSL4

Le nombre de laboratoires BSL4 augmente rapidement, la plupart des nouvelles constructions ayant lieu en Asie. L’Inde, à elle seule, a annoncé la construction de quatre nouveaux laboratoires BSL4. En outre, environ 75 % des laboratoires BSL4 opérationnels existants sont situés dans des villes où la densité de population pourrait aggraver l’impact d’une libération accidentelle.

Plus de la moitié des laboratoires BSL4 qui travaillent avec des animaux infectés (les laboratoires ABSL4) se trouvent aux États-Unis.

Nous avons également identifié deux caractéristiques spécifiques des laboratoires de niveau de sécurité biologique 4. Tout d’abord, environ la moitié des laboratoires de niveau 4 ont une superficie inférieure à 200 mètres carrés, et seuls neuf d’entre eux ont une superficie supérieure à 1 000 mètres carrés. En d’autres termes, environ la moitié des laboratoires BSL4 ont une superficie inférieure à celle d’un court de tennis. Deuxièmement, en ce qui concerne l’équipement de protection individuelle, la majorité des laboratoires BSL4 exigent que le personnel travaille dans des combinaisons à pression positive couvrant tout le corps et disposant de leur propre alimentation en air. Seuls sept laboratoires de niveau de sécurité biologique 4 travaillent uniquement dans des enceintes de sécurité biologique.

Laboratoires BSL3

 

 

 

 

 

 

 

 

 

 

 

 

Les laboratoires « BSL3+ » et « BSL3 amélioré » sont des laboratoires BSL3 qui prennent des précautions physiques et/ou opérationnelles supplémentaires en matière de biosûreté et de biosécurité lorsqu’ils mènent des recherches particulièrement risquées, mais où les risques ne justifient pas nécessairement des précautions de niveau BSL4.

Il existe très peu de directives nationales en matière de biosécurité, et aucune directive internationale, sur ce qui constitue le niveau de sécurité biologique 3+, et peu ou pas de recherches démontrant que ces perfectionnements offrent réellement un niveau de sécurité supplémentaire adéquat pour les recherches plus risquées menées dans ces laboratoires.

Les laboratoires BSL3+ sont principalement utilisés par les institutions de santé publique et les universités, et se concentrent davantage sur la recherche en santé animale que les laboratoires BSL4. La majorité des laboratoires BSL3+ se trouvent en Europe, dans des centres urbains.

Gestion des risques biologiques et contexte national

Les scores de gestion des risques biologiques sur la base de la législation nationale révèlent que la gouvernance de la biosûreté est beaucoup plus forte que celle de la biosécurité. Toutefois, la composante la plus faible de la gestion des risques biologiques est la recherche à double usage qui est préoccupante. Un seul des 27 pays disposant de laboratoires de niveau de sécurité biologique 4 dispose d’une législation nationale complète en matière de surveillance de la recherche à double usage.

L’essor de la construction de laboratoires de niveau de sécurité biologique 4 ne semble pas encore s’être accompagné d’un renforcement de la surveillance de la gestion des risques biologiques. En outre, la plupart des laboratoires BSL4 en projet se trouveront dans des pays dont les résultats en matière de gouvernance et de stabilité sont relativement faibles.

Gouvernance internationale de la gestion des risques biologiques

Les réseaux internationaux jouent un rôle important dans la gouvernance de la biosûreté et de la sécurité biologique. Plusieurs groupes multinationaux informels, dont le Groupe international d’experts des organismes de réglementation de la biosécurité et de la biosûreté (IEGBBR), l’Agenda mondial pour la sécurité sanitaire (GHSA), le groupe de travail sur la biosécurité (BSWG) du Partenariat mondial et la Fédération internationale des associations de biosécurité (IFBA) mettent l’accent sur la gestion des risques biologiques dans le cadre de leurs missions, mais leurs membres sont peu nombreux ou n’ont pas l’autorité et/ou les ressources nécessaires pour imposer des changements significatifs à l’échelon national ou international.

Les organisations internationales disposant de plus de ressources, d’une composition plus large et de mandats officiels qui pourraient couvrir la gestion des risques biologiques, notamment l’Organisation mondiale de la santé (OMS), l’Organisation mondiale de la santé animale (OMSA) et Interpol, placent la gestion des risques biologiques plus bas dans leur liste de priorités. Avec un éventail diversifié d’acteurs aux agendas concurrents, il est souvent difficile de coordonner l’action et de parvenir à un accord sur les questions clés.

Principales recommandations

Les recommandations suivantes proposent des mesures concrètes que les laboratoires, les autorités nationales, les entités non gouvernementales et les organisations internationales peuvent prendre pour renforcer la gestion des risques biologiques.

1°/ Les laboratoires qui effectuent des travaux à haute conséquence avec des agents pathogènes devraient adopter la norme internationale pour la gestion des biorisques : ISO 35001.

2°/ Les États devraient intégrer les normes mondiales volontaires sur la gestion des risques biologiques dans la législation et les orientations, notamment le Cadre d’orientation mondial de l’OMS pour l’utilisation responsable des sciences de la vie (2022), les lignes directrices de l’OMSA pour une conduite responsable dans la recherche vétérinaire (2019) et les lignes directrices de Tianjin sur la biosécurité à l’intention des codes déontologiques.

3°/ Les États devraient élaborer des normes nationales pour la biosécurité sur le terrain.

4°/ Les États et leurs laboratoires biologiques à haut risque devraient mettre en œuvre et partager les meilleures pratiques et participer à l’examen par les pairs des pratiques de gestion des risques biologiques dans les laboratoires homologues.

5°/ Les États qui n’ont pas encore d’association nationale de biosécurité devraient encourager et soutenir la création d’une telle association par des professionnels de la biosécurité et de la sûreté biologique.

6°/ Les États devraient fournir des rapports complets, réguliers et transparents, comme l’exigent les mesures de confiance annuelles de la convention sur les armes biologiques et la résolution 1540 du Conseil de sécurité des Nations Unies.

7°/ L’OMS devrait prendre trois décisions concrètes pour renforcer la surveillance internationale de la gestion des risques biologiques :

  1. Élaborer des critères et des orientations pour les laboratoires BSL3+.
  2. Fournir des orientations sur la biosécurité sur le terrain.
  3. Créer des centres de collaboration pour la gestion des risques biologiques en Afrique, en Asie du Sud-Est, en Méditerranée orientale et dans le Pacifique occidental, afin que chaque région de l’OMS dispose d’au moins un centre de ce type.

8°/ Les États devraient s’appuyer sur les organisations internationales de gestion des risques biologiques existantes, telles que l’IFBA, l’Infrastructure européenne de recherche sur les agents hautement pathogènes (ERINHA), le Réseau de laboratoires de lutte contre les zoonoses de niveau de biosécurité 4 (BSL4ZNET) et l’IEGBBR, afin de renforcer les capacités mondiales de gestion des risques biologiques, et l’IEGBBR, pour renforcer la gestion des risques biologiques au niveau mondial en fournissant des informations, des formations et des bonnes pratiques en vue de l’adoption généralisée de la norme ISO 35001 et d’un mécanisme international de vérification de la conformité à cette norme.

 

Commentaires

Le double usage est sans nul doute une difficulté majeure. L’enfer est pavé de bonnes intentions. Le rapport donne la définition suivante du double usage : Nous définissons la recherche à double usage comme la recherche en sciences de la vie menée à des fins pacifiques et bénéfiques, susceptible de fournir des connaissances, des informations, des méthodes, des produits ou des technologies qui pourraient également être intentionnellement détournés de leur finalité pour mettre en danger la santé des êtres humains, des animaux non humains ou de l’environnement.

Cette définition s’appuie sur la notion d’intention, notion juridiquement délicate. Ici le registre du double usage est l’ambivalence qui peut exister entre la science et le terrorisme, compte tenu de ce que certains pathogènes peuvent être à la fois redoutables et faciles à utiliser.

Mais il y a une autre zone grise qui est à peine évoquée dans le rapport, c’est le conflit entre l’intérêt général et l’intérêt privé. Il faudrait parler de triple usage. L’absence de toute mention de la question des brevets, interroge sur un biais politique auquel souscrirait implicitement l’équipe et fragiliserait sa légitimité. Il est mentionné que deux laboratoires BSL4 sont privés ainsi que quatre de niveau BSL3+. Certes le terrorisme est une grave question, mais il est aussi des agissements secrets dans les laboratoires gouvernés par le profit qui peuvent engendrer des risques par des essais dont les dommages possibles sont dissimulés.

Dès lors que la classification BSL de 1 à 4 n’a pas de consistance claire au niveau international, il est évident que certains régimes politiques ont intérêt à faire croire à des recherches anodines du niveau BSL1 ou 2. Et qu’on le veuille ou non, on est obligé de dépasser la seule référence aux produits, et classer certaines méthodes récentes comme dangereuses parce qu’elles sont faciles à employer et qu’elles ouvrent potentiellement tout le champ des possibilités d’innovation biomoléculaire du vivant. On rencontre nécessairement pour la sûreté et la sécurité le même problème, zone de conflit juridique, entre l’importance primordiale du produit ou de la méthode, problème qui est posé en ce moment pour les nouveaux OGM.[1] Car le produit, ses caractéristiques, ses effets sur la santé et sur l’environnement ne seront connus qu’une fois les dommages constatés. Tandis que la méthode peut à l’avance commander les degrés de précaution.

La méthodologie du rapport est critiquable aussi parce qu’elle ambitionne de décrire le flou des mauvaises gouvernances au niveau des nations par des indicateurs chiffrés très réductionnistes. On a l’impression que les auteurs veulent avoir raison grâce à des nombres et des pourcentages. Mais ce qu’ils mesurent n’est-il pas plutôt leur propre ignorance de la réalité ? Et dès lors, la présentation chiffrée et les pourcentages dissimule une part de leur subjectivité.

Je relève aussi un point de détail. Le seul scientifique dont le nom figure pour ses travaux est le statisticien Karl Pearson, parce que le rapport fait usage du « coefficient de corrélation de Pearson ». Quelle maladresse ! C’est typiquement anglo-saxon d’avoir un penchant non questionné pour les savants anglais. Pearson était un eugéniste sans scrupules et son invention d’un paramètre statistique banal ne justifie pas qu’on l’honore encore. C’est lui qui écrivit notamment « que toute personne qui est née a le droit de vivre, mais ce droit de vivre ne se convertit pas de lui-même en un droit de reproduire son espèce ».[2] En matière de déontologie il eût mieux valu ne pas citer ce savant-là.

Mais je conclurai en disant que ces critiques sont, à mon avis, secondaires aujourd’hui parce qu’il s’agit bien d’amorcer une mise en place de contrôles et de transparence au niveau international avant qu’un cataclysme ne se produise. Néanmoins les discussions politiques devront par la suite prendre en compte les biais dus aux agissements privés et aux risques écologiques, sinon, comme pour le climat, les injustices seront telles qu’il ne s’agira que de belles paroles.

 

  

[1] Cf. Arrêt de la CJUE du 7 février 2023.

[2] Cf. M. Armatte « Invention et intervention statistiques ». Une conférence exemplaire de Karl Pearson (1912) » Politix, vol. 7, n°25, 1994. « L’imagination statistique », pp. 21-45.




Production du savoir par bricolage et tâtonnement en biologie moléculaire et risques majeurs : le cas de la COVID19

Et si ne s’était non seulement échappé des laboratoires de Wuhan un coronavirus génétiquement modifié, responsable de la pandémie de Covid19, mais encore et possiblement d’autres matériaux génétiques, ce qui aurait expliqué d’un côté la politique d’opacité des autorités chinoises sur les origines de la pandémie et de l’autre celle insensée de zéro Covid par peur d’un danger inconnu ? Telle est l’hypothèse que soulève ici Nicolas Bouleau. Mais cet accident potentiel est surtout l’occasion d’attirer l’attention sur la nouveauté de la fabrication des connaissances caractéristique de cette science combinatoire qu’est la biologie moléculaire : la connaissance avance par bricolage et tâtonnement, par combinaison inédite pour découvrir ce qui en découle (voir N. Bouleau & D. Bourg, Sciences et prudence, Puf, 2022). C’est inséparablement une fabrique inédite des dangers et risques, ceux qu’on ne saurait pas même dessiner à l’avance. Un défi inédit à la sagesse présumée des sociétés. Ce face à quoi les science studies tournent à vide : elles se font fort de débusquer les intérêts sociaux qui déterminent ex ante les découvertes, les anticipations d’applications qui les régiraient ; or, il n’en est aucune, puisqu’il n’est possible, en raison de ce fondement combinatoire, de les connaître qu’ex post ; d’où une nature fondamentalement nouvelle des dangers pour la société. LPE

 

Dominique Bourg : L’année 2022 a apporté un grand nombre d’informations à propos de l’origine de la Covid19 à Wuhan. Un rapport provisoire du Sénat américain a été rendu public en février et les fichiers accessibles sur les sites internet en chinois des laboratoires de Wuhan ont été méthodiquement analysés par des spécialistes indépendants (notamment le chercheur américain Toy Reid qui est parvenu à accéder aux dépêches archivées sur le site Web de l’Institut de virologie de Wuhan).

Sans que ces éléments nouveaux récusent clairement la thèse d’un virus porté par un animal vendu sur le marché de Wuhan, l’hypothèse d’un accident devient de plus en plus plausible. On comprend mieux également pourquoi la communauté scientifique fut largement en faveur de la thèse animale durant les années 2020-2021 : il y eut plusieurs coopérations scientifiques entre Wuhan et les États-Unis avant novembre 2019, et une des responsables du laboratoire BSL-4 de Wuhan, Mme Shi Zhengli, avait été formée au laboratoire BSL-4 Jean Mérieux de Lyon. En plus, la proclamation tranchée faite par le président Donald Trump qu’il savait que c’était un accident sans pouvoir citer ses sources a disqualifié cette hypothèse.

C’est en vérité l’accumulation de faits de détails qui dépeignent un paysage où les conditions de sécurité n’étaient pas réunies, et où l’administration de tutelle faisait une forte pression pour des résultats nouveaux, plutôt que sur les règles de prudence, qui fait pencher en faveur de l’accident.[1] Quelle est ton interprétation ?

Nicolas Bouleau : Le déclenchement de la Covid19 eut lieu fin 2019. Mon livre Ce que Nature sait était rédigé, j’y insistais sur la nature particulière des risques engendrés par le nouvel empirisme de la biologie de synthèse. Quand j’ai appris l’épidémie, j’ai ajouté sur le manuscrit que dans ce cas particulier on n’avait pas les éléments pour trancher.

Mais tout ce qu’on apprend maintenant fait de cet événement une situation exemplaire qui a de bonnes chances de se renouveler, et pas seulement en Chine.

Il est certain que l’application de la biologie moléculaire au génome avec la découverte de l’ADN dans les années 1950 a bouleversé complètement la pensée rationnelle et les caractéristiques du progrès de la connaissance dans la société. Pour bien s’en rendre compte, il faut garder à l’esprit que jusqu’à la fin du 19e siècle les hommes vivaient dans un monde sans atomes. Toute la science reposait sur les notions de précision et d’approximation. Les atomes étaient des idées philosophiques abstraites, la physique et même la chimie s’en passaient. La méthode scientifique était très avancée et par son long héritage imprégnait la morale et la vie politique. Les savants cherchaient à dégager des lois. Elles s’exprimaient par des formules mathématiques ou en sciences humaines par des structures et des concepts.

Nous ne sommes pas aujourd’hui capables de vivre socialement ni de penser politiquement les conséquences de la révolution qui apparut au milieu du 20e siècle. L’hérédité – partiellement – combinatoire du vivant ouvre une nouvelle rationalité qui hiérarchise autrement des problèmes. Remarquons que, dans la raison courante, l’immense domaine que sont les religions avec leurs usages et leurs croyances et les enjeux sur la nature pouvaient se développer dans un monde sans atomes. La nouvelle logique apparaît clairement par le fait que la recherche en chimie et en biologie synthétique se fait essentiellement par la voie de tâtonnements, de tentatives pour voir ce que ça fait, comme les dangereux « gains de fonction » par exemple. Rappelons que l’on entend par « gain de fonction » une technique consistant à infecter certains animaux, dits sentinelles, chez lesquels le virus fera apparaître des mutants contagieux qui serviront à anticiper ce qui se passe chez l’homme pour élaborer des vaccins. Il ne s’agit plus dès lors de formuler des lois mais d’essayer. Ensuite le vivant perturbé en fera son affaire. Soit il sera modifié dans un sens qui nous avantage contre certains virus, soit il sera mutilé inutilement et irréversiblement. On ne sait pas le dire a priori, et les instances de sagesse collective ne sont pas encore constituées. Les cas du type de la Covid19 où même après le déclenchement on ne parvient pas à savoir ce qui s’est passé, seront monnaie courante en raison de la logique combinatoire de l’investigation elle-même.

En plus évidemment le capitalisme est friand « d’essayer pour voir », il nous entraîne joyeusement dans ces zones où l’anodin est fissuré de catastrophes, en méprisant la prudence comme un trait de caractère de l’homme de Cro-Magnon.

 

DB : Si la thèse de l’accident prend le dessus on peut se dire que la Covid19 avec ses sept millions de morts dans le monde servira peut-être de leçon pour fonder une nouvelle prudence.

NB : Ça n’en prend pas le chemin pour l’instant. Le bricolage est partout.

En Chine on voit bien avec la naissance des deux fillettes génétiquement modifiées par l’équipe de He Jiankui que la hiérarchie scientifique est dans un entre-deux qui rend la prudence gênante. Il s’agissait en fait de trois fillettes sur lesquelles on a peu d’information (cf H. Morin Le Monde 19 avril 2022).

Mais, ne nous voilons pas la face, c’est la même chose dans les labos européens ou américains. Il est très difficile de savoir ce que font réellement les chercheurs. Ils ont la liberté d’initiative, cela fait partie de l’ancienne éthique. Et pour le savoir, il faut comprendre, or la biologie moléculaire est extrêmement complexe, chaque phénomène y est circonstancié par des réactions chimiques pensées en termes phénotypiques : telle enzyme atténue tel effet, etc. Les responsables et sommités scientifiques ne comprennent pas les détails. Ils sont en revanche de pieux défenseurs des progrès de la technique comme on l’a vu lors de l’appel de Heidelberg avant le Sommet de la Terre de Rio en 1992 où une série de Nobel ont mis en garde contre l' »idéologie écologique ».

Personnellement je ne serais pas étonné que la très curieuse politique « zéro Covid » adoptée par le gouvernement chinois qui constitue une véritable énigme, puisqu’elle n’était pas tenable à terme, s’explique parce que les autorités du parti ont eu connaissance d’une portée plus large de l’accident de Wuhan. On sait que des expériences de gain de fonction ne portaient pas uniquement sur le coronavirus de la Covid19. Si des révélations en interne sont remontées disant que des déchets douteux sont partis à l’extérieur, dans la ville, il convenait d’éteindre absolument les nouveaux départs de feu qui pouvaient être potentiellement catastrophiques. Les règles de confinement ayant été levées début décembre 2022 de façon soudaine pour l’ensemble de la Chine, on peut penser qu’il n’y avait plus de raison de continuer, les risques spécifiquement chinois ayant disparu. 

On voit bien que la disproportion entre la dimension des dommages qui sont facilement mondiaux et la « légèreté » initiale, pour parler comme Milan Kundera, réclame absolument des instances nouvelles. La transparence est indispensable, et elle n’est pas envisagée par la morale du chercheur tel qu’on le forme aujourd’hui. Un regard collectif pour des protocoles explicites et par étapes va à l’encontre de l’idée de société ouverte de Karl Popper.

 

DB : Derrière cette cécité il y a des intérêts économiques puissants, y compris en Chine évidemment, qui se traduisent en Occident par des stratégies d’acteurs très fines comme l’ont analysé ensuite les science studies. On a clairement montré maintenant que la « science de l’influence » – la science produite à dessein pour détourner le regard public de certains dangers – était à l’œuvre dans la production pharmaceutique et dans l’industrie du tabac avant que la sociologie des sciences n’en face son cheval de bataille. Les thèses en sociologie des sciences sur ce qu’on fait dans les labos expérimentaux étaient le plus souvent ex post, incapables d’entrer dans le détail et d’alerter sur les dangers ex ante.

NB : Oui c’est un point de fond que je souhaiterais expliciter sous l’angle épistémologique.

Dans Dialogues autour de la création mathématiques (Spartacus-idh, 1997) j’ai recueilli plusieurs témoignages de la pratique intuitive des mathématiciens, de Laurent Schwartz, de Paul Malliavin, de Gustave Choquet, de Paul-André Meyer, et d’autres. Il en ressort une impression tout à fait différente de ce qu’ont dégagé les études de sociologie des sciences.  Il est intéressant par exemple de faire la comparaison avec la lecture anthropologique de l’activité d’un laboratoire proposée par Bruno Latour et Steve Woolgar dans La vie de laboratoire (1979, tr. f. 1988). Ces auteurs soulignaient que les faits élaborés étaient finalement fixés en effaçant la matrice sociale qui les avait engendrés et les questionnements qui avaient permis la construction des observations : « L’activité scientifique est faite de la construction […] de points de vue d’abord fictionnels qui sont parfois transformés en objets stabilisés » ; lorsqu’il est transformé en objet de vérité « l’énoncé se débarrasse de tous les déterminants de lieu et de temps et de toute référence à ceux qui l’ont produit ainsi qu’au processus de production ».

Une telle interprétation peut avoir un intérêt descriptif dans certains cas. Mais elle a été brandie comme explicative en dernier ressort de toute la fabrication de connaissance. Or nous avons, notamment en mathématiques – et nous verrons pourquoi ailleurs également –, bien des exemples où la construction de réel se fait hors des enjeux économiques ou sociaux.

Le cas des mathématiques financières est frappant et symptomatique. Le courant si important d’étude des martingales, avec le calcul différentiel d’Ito et les équations différentielles stochastiques, s’est fait tout au long du 20e siècle entièrement sans aucun rapport avec les marchés financiers qui y ont trouvé exactement en 1973 ce qui pouvait servir aux traders, une fois que les marchés à terme eurent été mis en place selon les idées de Arrow et Debreu des années 1950.

Il apparaît qu’on peut facilement déconstruire l’activité d’une équipe de recherche, au sens de la ramener à des motifs économiques et sociaux. Mais cette référence sociologique ne met pas pour autant en situation de pouvoir atteindre une réalité éventuelle anticipée. Pour ce qui est de réaliser un projet (qui serait autre que ce que donne la technoscience actuelle) l’affaire est beaucoup plus difficile, et particulièrement pour ce qui est des conséquences sociales de l’innovation que l’on cherche à mettre en place. Sur les retombées sociales de la technique les « faiseurs de doutes » ont montré la performativité de la critique méthodologique soigneusement entretenue. Mis à part des actions exemplaires où elle encourage des orientations nouvelles des recherches, la sociologie des sciences, le plus souvent, n’a pas les moyens de transmuer sa lecture en politique, elle reste à l’extérieur de son objet comme à l’époque « moderne », comme se plaçaient Durkheim, Tarde ou Weber.

Pour ma part je crois que le sociocentrisme est une posture dont la principale conséquence est de faire valoir que changer la nature est aussi légitime que de changer la société en démocratie.

S’il est un domaine de connaissance qui est socialement situé c’est bien la sociologie. Je conçois que ce puisse être le programme d’un parti politique de modifier l’agriculture et l’élevage en utilisant la biologie synthétique, c’est ce qui se passe dans plusieurs pays par la pression économique sans souci des conséquences globales sur la faune et la flore au-delà de leurs frontières, mais c’est idéologique de croire la sociologie capable, en s’appuyant sur des savoirs qu’elle n’a pas, de nous enseigner que ce que nous pensons de la nature n’est qu’un caprice socialement situé et daté, modifiable au gré de la politique.     

Qu’il y ait une forte influence du social sur la direction que prend la recherche et par voie de conséquences sur les contenus, cela peut être démontré par certains exemples comme celui particulièrement frappant du San Gaku. Durant l’ère de l’Edo où le Japon était coupé du monde occidental, des mathématiques très différentes se sont en effet développées comme offrandes dans les temples shintoïstes.[2]

Malgré cela, très souvent le facteur social n’est pas ce qui est déterminant, ni consciemment ni inconsciemment, car fréquemment il n’y a pas d’événement social qui pourrait être mis en relation avec l’avancée de la connaissance. Ce sont notamment les cas de trouvailles fortuites dans l’embrouillamini de problèmes complexes comme la combinatoire en donne beaucoup d’exemples.

Le premier penseur qui mit le doigt sur l’importance de ce phénomène est Aristote. Il s’est attaché à préciser la classe des phénomènes où il se passe quelque chose d’inattendu par rapport aux fins poursuivies. La tyche concerne les cas où quelqu’un poursuivant un but, se trouve rencontrer un évènement favorable ou défavorable pour lui, étranger à l’objectif qu’il visait. « Par exemple si un homme va au marché́ et là, tombe sur quelqu’un qu’il avait souhaité rencontrer mais qu’il ne comptait pas trouver là, la raison de sa rencontre est qu’il voulait faire ses courses »[3].

Or, un phénomène majeur bouleversa récemment la place du fortuit dans la connaissance : la prise de conscience de l’importance de la combinatoire. Ceci se produisit par deux vagues successives : la formalisation des mathématiques au début du 20e siècle avec les résultats logiques fondamentaux des années 30, et la découverte de l’ADN et de la double hélice au début des années 50 comme élément central de l’hérédité de quasiment tous les êtres vivants, depuis les bactéries jusqu’aux animaux supérieurs.

Cette phénoménologie changea radicalement la nature même de la fabrication de connaissance en chimie et cela installa la toute nouvelle biologie moléculaire sur des problématiques inédites concernant la prospection de molécules et les risques afférents aux modifications du vivant. La combinatoire est le champ où se fait la recherche en chimie et en biologie moléculaire. La trouvaille d’une molécule, d’un virus, ou d’un ADN, une fois rencontrée s’impose comme une réalité dont il faut tenir compte, elle est un élément du paysage pour la suite. De sorte que Latour et Woolgar dans leur laboratoire de neuroendocrinologie en se focalisant sur les conditions sociales d’une avancée sous-estiment le bouleversement intrinsèque dû à la découverte elle-même. Ils voient le social comme matrice, mais sont gênés par leurs aprioris méthodologiques pour voir le social comme victime potentielle de la découverte, à cause des circonstances que cette trouvaille rend possibles. Le sociocentrisme est un obstacle pour penser les conséquences des découvertes par hasard où l’économique n’est pas dans les causes, mais uniquement dans les conséquences éventuelles.

Il s’agit d’un immense domaine qui se révèle de plus en plus crucial aujourd’hui. Il englobe : a) la malveillance et les nouvelles armes biologiques ; b) les accidents de laboratoires sur les manipulations dangereuses comme les gains de fonction ; c) les perturbations des équilibres écologiques avec les techniques de forçage génétique ; d) les dérives du nouvel eugénisme par modification génomique de la progéniture.

 

DB : Après le projet Manhattan et le bombardement d’Hiroshima et de Nagasaki plusieurs physiciens dont Robert Oppenheimer suggérèrent dans le rapport Acheson-Lilienthal (printemps 1946) un contrôle des installations nucléaires, leur exploitation sous l’autorité d’une entité internationale, la réduction graduelle des capacités de fabrication des bombes atomiques et le partage public des connaissances accumulées. Par la suite les philosophes Günther Anders et Karl Jaspers ont dénoncé le nucléaire et analysé la myopie des scientifiques. On sait ce qu’il en est advenu.

Néanmoins, il y a des différences catégoriques entre le nucléaire et la biologie qui font que les choses ne se passeront pas nécessairement de la même manière.

NB : Il y a des ressemblances : le secret qui règne au-dessus des projets facilité par l’ésotérisme technique ; dans les deux cas une porosité entre le civil et le militaire ; et d’un côté comme de l’autre, des enjeux économiques forts, énergétiques pour le nucléaire, de santé pour la biologie.

Mais il y a aussi des différences qui font que les menaces ne sont pas de même nature : d’une part la spécificité de la radioactivité, et d’autre part les dangers de contagion et de contamination chez les humains et parmi les animaux et les plantes. Et surtout l’échelle des installations : d’un côté l’affaire se situe au niveau des nations, de l’autre des équipes relativement petites sont suffisantes avec les méthodes actuelles pour provoquer des dommages planétaires.

Ajoutons que la science mobilisée n’est pas du tout distribuée socialement de la même manière. Il existe incontestablement une pulsion individuelle au bricolage moléculaire qui pousse à des essais pour voir ce que ça fait, avec de graves conséquences largement impensées. Mais en plus, le paysage social est très embrouillé : étant donné que les méthodes d’investigation, les corps chimiques avec lesquels on mène des expériences, mais aussi les méthodes de contrôle à partir de l’être-vivant qui est le résultat pour détecter ce qui a été fait, tout cela est en permanence en cours de perfectionnement, il devient difficile de savoir si telle plante ou tel animal a été obtenu par des voies naturelles, des croisements à l’ancienne, ou des techniques génomiques. On ne sait pas concrètement si les connaissances que l’on cherche à perfectionner sont utiles pour l’économie des producteurs d’aliments, pour les organismes de contrôle de la sécurité sanitaire, ou pour le traçage des consommables. Il est souvent hors de portée de savoir réellement ce qui se passe dans les divers pays.

Les articles, très nombreux, exposent des travaux et prétendent en faire une description claire, alors qu’on n’a pas en général les moyens de vérifier si ce qui est dit est exact. On n’est pas en mathématiques, le referee est dans une position inconfortable qui le pousse instamment à faire confiance. La vérification complète de ce qui est écrit coûterait cher et prendrait plusieurs semestres de travail, alors que les auteurs trouveront facilement à marquer leur antériorité en publiant dans une autre revue.

Nous abordons une nouvelle dimension de l’éthique et de ses racines historiques et sociales. Après les barbaries du 20e siècle plusieurs penseurs ont souligné que les désastres les plus abominables ont résulté d’idéologies visant un Bien collectif. On peut dire aussi que la poursuite du Bien, politiquement affichée, a permis à certains de donner libre cours à leurs pulsions destructrices. Ces germes de violences exterminatrices existent encore bien sûr, et pas seulement en Corée du Nord. Mais voilà que le Mal prend une forme plus subtile, non intentionnelle, juste de curiosité, pour jouer, pour voir ce que ça fait. L’homme, une fois adulte, a-t-il le droit, au nom d’un prétexte de liberté, de se comporter comme un enfant ?

 

 

 

[1] Voir les deux articles de Y. Sciama Le Monde 7 nov. 2022, ainsi que K. Eban, V. Fair, and J. Kao, « COVID-19 Origins: Investigating a ‘Complex and Grave Situation’ Inside a Wuhan Lab »  ProPublica Oct. 28, 2022.

[2] Voir N. Bouleau, Introduction à la philosophie des sciences, Spartacus-idh, 2017, chapitre III.

[3] Physique, livre II, chap. IV.




SPECULER SUR LA FIN DU PETROLE : MADAME PANNIER-RUNACHER ET LES LOGIQUES DE L’INACTION

L’affaire Pannier-Runacher vaut largement l’affaire Cahuzac. Frauder soi-même le fisc quand on a la charge de lutter contre la fraude fiscale est moralement scandaleux. Mais spéculer familialement sur la raréfaction du pétrole, avec un montage grand-père-petits-enfants qui vous exonère, quand on a la charge d’organiser la transition de la société vers l’après-pétrole, sous pression climatique, ne l’est pas moins. Tenter de protéger ses concitoyens contre la menace climatique, faire front face aux lobbies pétroliers d’un côté, et tenter de l’autre la fortune en acquérant force puits sur le déclin, ne font pas bon ménage. A quoi s’ajoute que la nomination de Cahuzac à son poste s’était faite en ignorance de cause. En revanche la nomination de la ministre de la transition énergétique a eu lieu en connaissance de cause : sa nomination n’est probablement pas étrangère à son savoir-faire en matière de création de valeur économique, à son appartenance à un monde qui n’est pas celui des gens ordinaires.

LPE

 

Par Nicolas Bouleau, mathématicien et essayiste

 

 

 

 

 

Que le problème du climat soit un jeu à intérêts divergents où chacun doit freiner mais où celui qui accélère est quand même en meilleure position, tout le monde l’a compris depuis longtemps. C’est une des raisons pour lesquelles il ne se passe rien vraiment, les émissions de CO2 dans l’atmosphère continuent globalement d’augmenter ([1]). Cela explique aussi la grande différence entre la diminution des rejets et l’adaptation. Une réduction ne peut résulter que d’accords collectifs contraignants établis lors des COP, nous en sommes à la COP27. Par rapport aux politiques d’adaptation qui sont des stratégies coûteuses mais nationales, la réduction est un effort qui porte à conséquence sur le monde entier donc une forme de générosité de la part des pays riches économiquement dynamiques.

            C’est la raison profonde véritable pour laquelle il ne se passe rien. La sagesse collective n’est pas là, la générosité encore moins.

            A mon avis la générosité ne réapparaîtra pas, même devant des dommages environnementaux énormes. Au contraire, les habitants des pays riches, vont continuer à perfectionner les techniques pour s’adapter à la violence des intempéries, et à penser sans le dire que les autres n’ont qu’à faire de même.

La situation s’est néanmoins modifiée récemment. Jusqu’à l’année 2021 il était admis d’après les rapports du GIEC que pour respecter l’objectif de un degré et demi afin d’éviter des dommages extrêmes, il était impératif de laisser une bonne proportion du pétrole et du gaz dans le sol. Seuls des politiciens et économistes libéraux très confiants dans la poursuite du progrès technique défendaient la thèse que le long terme donnerait raison au business as usual. Les réserves fossiles finissant par s’épuiser, il suffisait de tenir le coup jusque-là, position défendue par exemple par le président Valéry Giscard d’Estaing ([2]).

            Cependant malgré la prospection active de nouveaux gisements, nous arrivons dans une phase où la ressource d’énergie fossile commence à montrer ses bornes. Les restrictions dues aux sanctions liées à la guerre en Ukraine font comprendre que les réserves de pétrole et celles du gaz de schiste ne sont pas infinies et que déjà elles sont sensibles aux aléas politiques.

            Ces circonstances exceptionnelles constituaient une rare opportunité de regrouper les deux problèmes et de se servir de cette gêne sur les ressources fossiles pour aller dans le sens d’une économie moins dispendieuse d’énergie et moins productrice de CO2. Mais ce n’est apparemment pas le choix fait par le gouvernement d’Élisabeth Borne puisqu’il a séparé un ministère de la transition écologique et cohésion des territoires aidé de trois ministres délégués et deux secrétaires d’État et un ministère de la transition énergétique.

            Certes la biodiversité n’est pas cotée en tant que telle sur les marchés financiers et sa dégradation ne s’y lit pas directement. Mais les marchés sont-ils réellement une facilité pour une politique de sagesse énergétique ? La perspective de l’épuisement du pétrole a plutôt tendance à affoler les marchés que de les faire monter tranquillement comme un bon indicateur de rareté ([3]).

            Des anticipations contradictoires entrent en conflit. La rareté de la ressource fait monter les cours mais les mutations technologiques au niveau de la consommation et au niveau de la prospection agissent à la baisse. Tous les spécialistes reconnaissent que le flou de la date d’épuisement accroît l’incertitude et donc la volatilité du cours augmente.

            Vers la fin d’une ressource cotée les instruments financiers à terme, les options, qui normalement jouent un rôle d’assurance pour les risques, deviennent couteux car leur valeur est liée à la volatilité, ils ne remplissent plus la fonction qu’ils devraient avoir, pour laquelle les marchés organisés à terme ont été historiquement inventés. Une forte volatilité pourrait même empêcher l’organisme gestionnaire du marché de maintenir la cotation.

            Dans une telle situation rendue artificiellement complexe par la spéculation sur les marchés, seule une politique environnementale globale claire peut être comprise et justifier les efforts demandés.

Maintenant pour certains acteurs économiques une autre stratégie est possible : devant l’agitation désordonnée des marchés, il est profitable de pouvoir agir sur les facteurs concrets qui font cette agitation, en possédant un grand nombre de gisements proches d’être taris où des technologies spéciales pourront être utilisées.

            D’après l’enquête menée par le média d’investigation Disclose, Il semble que le groupe Perenco, auquel la ministre de la transition énergétique, Madame Pannier-Runacher, est liée de façon indirecte, soit spécialisé dans le rachat de gisements en fin de vie dont les majors du secteur cherchent à se débarrasser, donc positionné spécialement pour profiter de la pénurie, avec 3 000 gisements d’hydrocarbures dans quatorze pays et un chiffre d’affaires estimé à 7 milliards d’euros.

            Suffit-il de dire que rien de ce qu’a fait la ministre n’est interdit ? N’importe quel béotien peut comprendre qu’avec la création d’une société idoine (dénommée Arjunem) la famille a bien configuré sa niche économique, ce qui est hors de portée aujourd’hui de la plupart des agents économiques grands et petits.

            La question politique qui dès lors se pose est pourquoi Emmanuel Macron et Élisabeth Borne ont fait ce choix pour le ministère de la transition écologique. L’exemplarité clame ici clairement : dans le jeu à intérêts divergents de la préservation du climat soyez les plus malins sans vous faire prendre. Est-ce que le président et la première ministre ont bien compris ce qu’est la transition écologique ? C’est sûrement une affaire autrement plus grave que des habiletés d’acteurs.

            Le décret de nomination a été retouché de sorte que la ministre ne « connaisse » pas les firmes où sa famille serait mentionnée. Mais le conflit d’intérêt fait aussi problème dans l’autre sens, la ministre par ses déplacements, ses contacts internationaux, pourrait avoir des informations sur les tendances ou les décisions en préparation dans le secteur pétrolier, précieuses pour le réseau professionnel de son père.

Ce qui touche la sensibilité du citoyen c’est l’absence de solidarité pour les efforts, parfois les drames, pour surmonter les tracas imprévus et complexes qu’engendre la transition écologique pour les gens ordinaires. On ne sauve pas un paquebot avec un hors-bord.

 

 

 

[1] Cf. N. Bouleau, « Un, deux, trois, soleil… » Esprit, décembre 2009.

[2] « Dès lors que ces énergies fossiles sont sorties du sol, elles seront de toute manière consommées, et produiront des émissions de gaz carbonique. Si ce n’est pas fait par nous ce sera fait par d’autres et les émissions de gaz carbonique resteront au même volume. » Préface à Ch. Gerondeau, CO2 : un mythe planétaire, Toucan 2009.

[3] Sur les marchés la volatilité est toujours assez forte pour empêcher les anticipations sans risques, la rareté indique que le cours va plutôt monter mais on ne sait pas assez précisément de combien pour pouvoir en tenir compte dans les projets. Cf. N. Bouleau Le mensonge de la finance, les mathématiques, le signal-prix et la planète, L’Atelier, 2018.




Le hasard selon Monod, Thom et Matheron

Par Nicolas Bouleau

 

 

 

 

 

Peu de temps après la parution du premier rapport au Club de Rome (1972), et du très célèbre livre de Jacques Monod où celui-ci posait que l’évolution procédait par le hasard, dès 1978, Georges Matheron publiait un essai — Estimer et choisir — dans lequel il prenait le contrepied du grand biologiste affirmant que celui-ci avait commis une grave erreur, fréquente dans les interprétations des statistiques. La vision de Monod, qui s’est répandue en véritable dogme fondateur de la biologie de synthèse, rencontre aujourd’hui de plus en plus de critiques sur la confusion qu’elle fait entre le modèle probabiliste et la réalité, notamment en sous-estimant le contexte et les circonstances. Il s’agit surtout ici de présenter la pensée de Matheron et de mettre en lumière sa portée épistémologique.

 

I/ Pour bien faire sentir que la vision de Georges Matheron est une position modérée, disons d’abord quelques mots du point de vue de René Thom.

            Celui-ci publie en 1980 dans la revue Le Débat un article intitulé « Halte au hasard, silence au bruit«  dans lequel il dénonce la « fascination de l’aléatoire qui témoigne d’une attitude antiscientifique par excellence ».

            « Affirmer que « le hasard existe », écrit-il, c’est prendre cette position ontologique qu’il y a des phénomènes naturels que nous ne pourrons jamais décrire, donc jamais comprendre » ; « en quoi l’appel au hasard pour expliquer l’évolution serait-il plus scientifique que l’appel à la volonté du Créateur ? »

            L’article de Thom est très véhément mais assez confus, il rejette même l’idée que le hasard soit une représentation asymptotique dans des situations idéales. Il considère que c’est la recherche des déterminismes qui est intéressante dans la science : « Que gagne-t-on à enrober le squelette du déterminisme dans une couche de graisse statistique »…

            Pour Thom introduire le hasard dans les représentations de la nature est une solution de facilité qui signifie : pas la peine d’aller plus loin dans notre recherche de compréhension.

 

II/ Une dizaine d’années auparavant, Jacques Monod dans Le hasard et la nécessité avait proposé la thèse que toute la nature était le résultat du hasard, la fameuse « roulette de la nature », avec cette célèbre phrase provocante :

             » Nous disons que ces altérations sont accidentelles, qu’elles ont lieu au hasard. Et, puisqu’elles constituent la seule source possible de modifications du texte génétique, seul dépositaire à son tour des structures héréditaires de l’organisme, il s’ensuit nécessairement que le hasard est la seule source de toute nouveauté, de toute création dans la biosphère. Le hasard pur, le seul hasard, liberté absolue, mais aveugle, à la racine même du prodigieux édifice de l’évolution. »

            Et nombreux sont ceux qui se sont levés contre cette idée, y compris des scientifiques. Thom est loin d’être le seul à critiquer Monod, on peut citer Albert Jacquard, le biologiste Schoffeniels, et beaucoup d’autres, qui dénoncèrent cet appel au hasard qui dit au fond « ne cherchez pas à comprendre, inutile d’aller plus loin ».

 

III/ Parmi les critiques de Monod, celle de Georges Matheron est particulièrement intéressante parce qu’elle se situe à la juste place, là où le problème est épistémologiquement difficile. Quand bien même nous considérerions que les phénomènes biologiques sont le résultat du hasard, de ce hasard nous n’avons qu’un seul tirage, une seule trajectoire ; et ce qu’est la nature aujourd’hui  – et ce qu’elle fut dans le passé – induit une foule de déterminismes, de sorte que le problème est de partager les sources de hasard s’il y en a, et les causalités multiples et contextuelles. Il n’y a effectivement qu’une seule nature avec un seul parcours, si divers et riche fût-il, et sur une seule planète. La comparaison avec le hasard et sa roulette à multiples tirages est ainsi une pure abstraction. On voit que la question est très générale et concerne la méthode elle-même des sciences de la nature.

        Georges Matheron (1930-2000) est considéré comme le fondateur des statistiques spatiales (Agterberg 2004), du moins fondateur avec les moyens conceptuels du 20e siècle, car au niveau de l’artisanat il y eut évidemment Buffon avec ses « Probabilités géométriques » dès le 18e siècle. Ce dernier écrit dans son Essai d’Arithmétique morale [1] : « L’Analyse est le seul instrument dont on se soit servi jusqu’à ce jour dans la science des probabilités, […] la géométrie paraissait peu propre à un ouvrage aussi délié ; cependant si on y regarde de près […] le hasard selon qu’il est modifié et conditionné, se trouve du ressort de la Géométrie aussi bien que de celui de l’Analyse » ; et de prendre l’exemple d’une pièce jetée sur un carrelage puis d’une aiguille sur un parquet.

           En 1954 Georges Matheron commence à travailler sur les variables régionalisées, généralisant les méthodes de prospection géologiques de l’ingénieur Danie Krige. En 1968 il fonde le Centre de géostatistiques de l’École des Mines à Fontainebleau. Son livre Random Sets and Integral Geometry (1975) introduit plusieurs nouveaux concepts sur les répartitions aléatoires, les mesures aléatoires de Poisson et leurs transformées.

           Il est connu aussi pour ses clarifications en philosophie des sciences notamment par son essai Estimer et Choisir (1978) (Estimating and Choosing, 1989) sur lequel nous allons nous appuyer.

 

IV – Estimer et choisir

A) Matheron commence son essai par un chapitre intitulé : « Le hasard chez J. Monod ou comment on franchit les limites de l’objectivité ».

            Il est curieux que Matheron critique un manque d’objectivité chez Monod, car la démarche de Monod peut être considérée comme dissimulant des phénomènes complexes intéressants (Schoffenhiels, Jacquard), mais le hasard ne semble pas privilégier un point de vue subjectif. Dire qu’un phénomène se produit au hasard, c’est adopter un point de vue universaliste et objectif, sans égard à quelque subjectivité que ce soit.[2]

            C’est là qu’apparaît déjà la profondeur du propos de Matheron. Rappelons qu’il est de multiples hasards et modèles afférents possibles, et qu’il est dépourvu de sens de parler de hasard sans préciser de quel hasard on parle. C’est le choix d’adopter un modèle au hasard qui n’est pas objectif, mais culturel et social, car l’expérience nous révèle une réalité qui ne parle pas comme un modèle au hasard, mais comme une singularité tout à fait spécifique.

            Il souligne d’abord que le hasard est un « concept métaphysique », alors que lui se place du point de vue empirique. Il écrit :

« Dans le domaine des disciplines empiriques, nous ne pouvons pas extrapoler à l’infini une théorie, si bien corroborée soit-elle, sans sortir ipso facto des limites à l’intérieur desquelles cette théorie possède un sens opératoire et a reçu la sanction de l’expérience ».

            La remarque est très proche – et je crois indépendante – de la célèbre thèse de Quine sur la sous-détermination des théories par l’expérience.[3]

            Il reprend le « paradoxe » du couvreur qui fait tomber une tuile juste sur le médecin qui sort de chez lui pour une visite, anecdote ancienne qui soi-disant fournit un « hasard absolu », parce que les événements n’ont « rien à voir ». Il explique que pour objectiver, il faut replacer l’ouvrier dans une stationnarité et le médecin aussi. Et qu’alors la relation d’indépendance p(AB)=p(A)p(B) est surement fausse parce que durant la nuit les deux sont inactifs. Couvreur et médecin dorment; s’ils sortent, c’est au matin, etc. Il y a donc bien des corrélations de part et d’autre.

            Il prend ensuite le cas des chaines polypeptidiques où se succèdent dans un ordre variable certains des 20 acides aminés formant ainsi une protéine. Il arrive à la conclusion que les acides aminés ne sont pas répartis comme s’ils avaient été tirés au hasard. Il utilise un argument d’ordre de grandeur.

            « Il est vraisemblable, écrit-il, que J. Monod a conçu sa philosophie, avant tout, comme une machine de guerre contre celle de Teilhard de Chardin. C’est ce qui explique leur parenté. Le hasard de Monod est le frère ennemi du point Omega du bon père. Son ennemi certes, mais essentiellement son frère. Ils sont bien de la même famille. »

            Matheron dégage de ce chapitre le concept de « seuil d’objectivité » qui se comprend de la façon suivante :

« un modèle donné, aussi bien testé et corroboré qu’il ait pu être, contient toujours et nécessairement des théorèmes qui ne correspondent plus à des énoncés empiriques contrôlés, ni même contrôlables au-delà d’une certaine limite ».

            Il faut distinguer le mathématicien qui est capable de faire vivre beaucoup de propriétés du modèle et le physicien qui tente de les valider par l’expérience et qui n’y parvient que pour certains d’entre eux. (On peut penser, par exemple, à un modèle de tirage aléatoire des chiffres d’un nombre réel et aux propriétés asymptotiques des décimales qui sont dans la préoccupation du mathématicien, alors que l’expérimentateur n’en étudiera qu’un nombre fini, qu’un échantillon fini observable).

B) « Pourquoi nous ne sommes pas d’accord avec les Étrusques, ou De l’objectivité dans les modèles probabilistes » avec cette splendide citation de Sénèque

 » Voici en quoi nous ne sommes pas d’accord avec les Étrusques, spécialistes de l’interprétation des foudres. Selon nous, c’est parce qu’il y a collision des nuages que la foudre fait explosion. Selon eux, il n’y a collision que pour que l’explosion se fasse. Comme ils rapportent tout à la divinité, ils sont persuadés, non pas que les foudres annoncent l’avenir parce qu’elles ont été formées, mais qu’elles se sont formées parce qu’elles doivent annoncer l’avenir. »

         Il discute l’opposition entre subjectivistes et objectivistes, sans aller à ce stade jusqu’au développement des probabilités subjectives de Ramsey, de Finetti et Savage, juste pour souligner que les subjectivistes accordent du sens à la probabilité d’un fait unique et non les objectivistes. Mais au lieu de partager : les faits uniques pour les subjectivistes et les faits répétables pour les objectivistes, Matheron veut justement étudier « dans quelle mesure un phénomène unique peut faire l’objet d’une estimation sur la base d’une information fragmentaire ». Ici Matheron a probablement à l’esprit le phénomène des chaînes de Markov : une plante peut se trouver comme elle est à la suite de circonstances au hasard, il n’est reste pas moins vrai que le « comme elle est » resserre les possibilités à venir de cette plante.

            Il souligne que « Le modèle, jamais, n’est identique à la réalité. D’innombrables aspects du réel lui échappent toujours, et inversement le modèle contient d’innombrables propositions parasites, sans contrepartie dans la réalité ».

            Dire que ce qu’on voit a été tiré au hasard est un non-sens car de ce tirage on ne peut pas reconstruire le triplet de base (Ω, A, P), ni la loi de probabilité qui gouverne ce tirage.

            Il attribue à Popper le critère d’objectivité selon lequel l’énoncé a résisté à beaucoup de tentatives d’invalidation, critère que Matheron adopte. Ce critère est dû en fait à John Stuart Mill, et ne concerne que la science nomologique.[4]

            « Il n’y a pas de probabilité en soi, écrit-il. Il n’y a que des modèles probabilistes. La seule question qui se pose réellement, dans chaque cas particulier, est celle de savoir si un tel modèle probabiliste, en relation avec un tel phénomène réel, présente ou non un sens objectif. Comme nous l’avons vu, cela revient à se demander si ce modèle est falsifiable ». Matheron est proche de Popper mais plus concret, il ne se place pas en épistémologue, mais en statisticien.

            Il décrit quelques modèles probabilistes simples dont le modèle des épreuves répétées, comme le lancement d’un dé. Pour ces modèles discrets, le modèle est réfuté si un événement de probabilité nulle se produit dans la réalité (ou presque nulle si le modèle est complexe).

            Pour faire comprendre l’importance du choix des modèles, il prend comme réalité une suite binaire :

00100100001111110110101010001000100001011010001100

Il discute la prévision de la suite sur 10000 tirages, et le travail du statisticien qui fait un modèle d’épreuves répétées  i.i.d. (indépendantes identiquement distribuées) avec la probabilité p estimée par la fréquence et l’erreur prise à 2 écarts-types. Le statisticien fait ainsi une hypothèse falsifiable, donc objective.

            Mais la « réalité » c’est aussi de savoir ou d’ignorer comment on a obtenu cette suite et si on est en mesure de la prolonger par quel dispositif. Et il fait remarquer que la suite choisie est en binaire les 15 premières décimales de π ; donc sous cet angle, il est facile de la prolonger. D’où un « motif de croire » que c’est le début de π. Et là on touche le problème du rôle de l’interprétation, du sens, on quitte le génotype pour le phénotype.

            Il propose de mettre du côté des objectivistes les modèles scientifiques généraux ou panscopiques, et du côté des subjectivistes les modèles pluri- ou monoscopiques destinés à la décision opératoire. Le modèle théorique est réfuté dès qu’un exemple le rejette. « Le modèle monoscopique doit être jugé au seul but qu’il poursuit », Matheron a visiblement en tête l’exemple d’un modèle de sous-sol géologique où l’on s’intéresse à la vertu prédictive du modèle en vue de forages.

C) La forêt poissonnienne

Là apparaît clairement le schéma épistémologique de Matheron.

            A propos d’une forêt, d’un gisement minier ou d’une chaine de montagnes, il considère deux situations épistémiques :

  1. a) l’étude de cette famille d’objets : les forêts, comment sont-elles, etc.

Les gisements de cuivre, leurs structures… c’est l’approche scientifique objective externe avec des modèles pan-scopiques, donc on s’intéresse à l’ensemble des objets d’un même type.

  1. b) les outils de décision pour la gestion d’un exemple unique : la forêt de Mervent-Vouvant, une mine de cuivre au Chili, etc. « Le mineur doit estimer les différentes parties de son gisement avant de décider lesquelles exploiter, lesquelles laisser en place, comme trop pauvres. » Il s’agit alors de modèles mono-scopiques.

Dans le cas d’une forêt, les arbres sont des points et ils sont répartis selon une mesure poissonienne d’intensité constante sur l’aire considérée. C’est le modèle. Le caractère poissonnien du modèle exprime deux choses concrètes :

  1. i) la densité moyenne d’arbres à l’hectare ne semble pas présenter de variations systématiques dans l’espace ;
  2. ii) le fait qu’une zone soit très (ou très peu) fournie en arbres n’implique pas en moyenne qu’une zone voisine soit plus ou moins fournie que les autres. « Il ne s’agit plus du problème classique de la statistique qui consisterait à estimer la densité d’un processus ponctuel de Poisson, mais plutôt du choix d’un modèle adéquat pour une réalité physique donnée ».

Matheron dégage pour cela certaines étapes épistémologiques, et insiste sur le fait que la méthode dépasse la statistique classique ou étroite de tester une hypothèse, parce qu’il y a de l’interprétatif dans le choix de la famille de modèle et cela conditionne l’intérêt prédictif de la méthode. Le talent du géostatisticien réside dans l’art de choisir le modèle le plus prédictif.

D) Le choix et la hiérarchie des modèles

Matheron précise les étapes ainsi dégagées pour le cas général d’une réalité régionalisée, i.e. une fonction z(x) définie dans une zone bornée de R3 ou R4.

            Il mentionne la classe importante de modèles des processus spatialement stationnaires (avec une représentation spectrale par un processus à accroissement orthogonaux et une mesure spectrale) et d’autres outils.       

Dans toute la suite de son traité, Matheron développe la méthode fondée sur la pratique du centre de Géostatistiques de Fontainebleau, qui est toujours de faire des déductions sur une réalité unique partiellement connue à l’aide d’un modèle probabiliste choisi grâce à des critères d’objectivités internes.[5]

            Il explicite un outil technique particulier : le krigeage, qui est entouré d’un certain mystère, longtemps une spécificité du centre de Fontainebleau, qui est une méthode de linéarisation pour approcher une espérance conditionnelle inspirée de papiers de l’ingénieur Danie Krige.

E) Discussion

Quelques remarques pour dégager les points forts de la philosophie de Matheron et les mettre en discussion.

1) Premier point souligné par Matheron : ce n’est pas parce qu’un phénomène unique est irrégulier qu’il doit être pensé comme un tirage aléatoire dans une famille de cas similaires. Exemple la ligne du rivage d’un continent est ce qu’elle est. La côte bretonne est ce qu’elle est, on ne peut dire qu’elle résulte d’un tirage au hasard.

2) Mais Matheron va plus loin : il développe l’idée qu’à partir d’une situation unique les propriétés mêmes de cette situation (critères micro-ergodiques etc.) permettent de choisir un modèle probabiliste qui épouse bien la réalité et duquel on peut tirer des conséquences confrontables à l’expérience. Il explicite des problèmes de répartition spatiale ou dans R4.

3) Il s’ensuit que sa critique véhémente de Monod porte sur le fait que le modèle de la mutation au hasard de Monod est mauvais pour des raisons internes (une molécule ne casse pas au hasard, mais se brise en des points de fragilité dans les circonstances considérées). Le modèle est théorique et non objectif (les acides aminés ne sont pas répartis comme s’ils avaient été tirés au hasard).       

4) L’idée fructueuse des critères d’objectivité internes pour étudier une réalité unique comme un gisement, peut-elle s’appliquer au cas de la nature ? L’objectivité externe n’est évidemment pas complètement accessible, nous n’avons pas toutes les natures possibles à disposition. Il faut donc considérer que c’est la nature vivante et physique qui est la réalité unique. Adapter un modèle probabiliste sur une réalité aussi vertigineusement complexe est forcément très grossier.

            Ce serait moins utopique pour un écosystème. Mais il faudrait alors qu’on sache pour les espèces étudiées passer du génotype au phénotype même pour les êtres microscopiques et leurs mutants.

5) Dernier point qui se réfère à mes propres travaux : La philosophie de Matheron (telle que rédigée en 1978) ne s’applique qu’à certaines réalités. Ce serait une faute de tenter de l’appliquer à des phénomènes dont l’étrangeté est combinatoire. On commettrait la même faute que si au vu de la répartition statistique des nombres premiers jusqu’à un million on en déduisait par un modèle probabiliste les nombres premiers suivants (cf. Bouleau 2021 et 2022).

La philosophie de Matheron peut être schématisée en :

            – d’une part, une critique de l’immersion brutale d’une situation unique comme tirage au hasard. La réalité est ce qu’elle est et le modèle probabiliste ne peut être tiré que d’hypothèses et de compréhension des circonstances ;

            – d’autre part, le développement de nouvelles techniques pour extraire de certaines situations déterministes, du hasard qu’elles ont en elles-mêmes. Ceci est exploré surtout pour la géophysique.

 

Références

P. Agterberg, « Georges Matheron, Founder of Spatial Statistics » Earth sciences history, – Meridian allenpress 2004.

M. Bilodeau, F. Meyer, M. Schmitt, eds, Space, Structure and Randomness, Contributions in Honor of Georges Matheron, Springer 2005.

N. Bouleau, La modélisation critique, Quae 2014.

N. Bouleau, Ce que Nature sait, La révolution combinatoire de la biologie et ses dangers, PUF 2021.

N. Bouleau, La biologie contre l’écologie ? Le nouvel empirisme de synthèse, Spartacus-idh 2022.

N. Bouleau et D. Bourg, Science et prudence, Du réductionnisme et autres erreurs par gros temps écologique, PUF 2022.

A. Jacquard « Hasard et génétique des populations » in Le hasard aujourd’hui, Seuil 1991.

D. Jeulin « Morphology and effective properties of multi-scale random sets: A review » Note CRAS Mécanique, 340, 219-229, 2012.

N. Lind, M. Pandey, J. Nathwani, « Assessing and Affording the Control of Flood Risk » Structural Savety 2009.

G. Matheron, Estimer et choisir, Ecole des Mines de Paris 1978; Estimating and Choosing, Springer 1989.

G. Matheron et J. Serra, « The Birth of Mathematical Morphology » Proc. 6th Intl. Symp. Mathematical Morphology, 2002.

G. Matheron, « Kriging, or Polynomial Interpolation Procedures, a Contribution to polemics in mathematical Geology » Transactions Vol LXX, 240-244, 1967.

J. Monod, Le hasard et la nécessité, Seuil, 1970.

E. Schoffeniels, L’anti-hasard, Gauthier-Villars 1973.

J. Serra « Is pattern Recognition a Physical Science ? » Proc. 15th International Conf. on Pattern Recognition 2000.

René Thom, « Halte au hasard, silence au bruit », Le Débat, n°31, 119-132, Gallimard 1980.

R. Webster, « Is soil variation random ? » Geoderma, 07, 149–163, 2000.

Notes

[1] Le traité de Buffon porte ce titre quoiqu’il s’agisse de probabilités exclusivement, mais elles sont appliquées à la société, aux jugements des hommes, et ce sera encore l’ambition de Condorcet au sujet des préférences électorales.

[2] Monod en effet ne se place pas du tout du point de vue des probabilités subjectives chères aux économistes, développées par de Finetti, Ramsey et Savage au début du 20e siècle.

[3] Voir N. Bouleau La modélisation critique chapitre 5, Quae 2014.

[4] Voir pour « science nomologique », N. Bouleau et D. Bourg, Science et prudence, Paris, Puf, 2022.

[5] Il s’agit de palier le fait que la réalité n’est pas un tirage d’un modèle ergodique. Il faut donc extraire de cette réalité une certaine généricité. Il parle de micro-ergodicité.

 

 

 

 

 

 

          

           

           

           

 




Le sol, ce grand inconnu

 

Par Nicolas Bouleau

 

La partie superficielle de la part émergée des continents, ce qu’on appelle le sol, est d’une richesse biologique prodigieuse. Il vit là un monde microscopique, de bactéries et d’archées, en grande abondance, couramment de l’ordre de 10’000 bactéries par gramme et bien davantage. Cette couche de terre est en relation forte avec les êtres vivants supérieurs à cause des animaux fouisseurs et de l’activité des racines des plantes. Depuis quelques décennies le sol a fait l’objet de nombreuses investigations pour quantifier cette abondance microbienne et tenter de mieux appréhender sa diversité.

Biodiversité dans le sol

Une première difficulté vient du fait que les bactéries se multiplient par fission et non par accouplement ce qui écarte le critère commode d’interfécondité utilisé habituellement pour les êtres vivants sexués pour définir les espèces. Le concept d’espèce pour les procaryotes a fait, et fait encore, l’objet de nombreux débats. La descendance chez les bactéries fournit d’abord des cellules identiques – des clones – mais leur nombre est limité par leurs mutations naturelles et par le phénomène important de transfert horizontal de gènes qui lui-même peut se dérouler suivant plusieurs scenarios. Selon l’un de ces schèmes, en fonction de propriétés des pores et des poches d’eau présents dans le sol, des molécules d’ADN peuvent se trouver libres dans le sol entre des cellules vivantes.

Compter exhaustivement toutes les molécules d’ADN dans un gramme de sol, est un programme qui reste théorique. D’après certains travaux cela donnerait un nombre entre 10’000 et plusieurs millions, mais cela ne fournirait d’information que sur ce gramme localisé, et non sur la diversité vraiment. Si on considère deux « tas » de mots T1 et T2, il y a beaucoup de façons différentes de quantifier la disparité entre T1 et T2 par une distance. Et a fortiori si on ne connaît qu’un échantillon t1 de T1 et un échantillon t2 de T2. La voie principalement suivie pour appréhender la diversité microbienne consiste à quantifier les ressemblances des séquences ADN à un certain niveau de similarité qu’on fait varier par la suite. Par exemple on définit un taxon comme un groupe d’ADN ayant en commun 97% au moins de leurs génomes. On peut alors regrouper les séquences d’un échantillon en tas qu’on peut appeler taxons au niveau de dissemblance 3%. On s’affranchit ainsi d’avoir à trancher sur la bonne notion d’espèce microbienne. Ceci a été fait à partir de bases de données stockant des séquencements issus de prélèvements en des sites précis de divers continents. On bute sur deux limitations : d’abord que les espèces abondantes sont surreprésentées alors que les espèces rares restent invisibles (Angel et al. 2010), ensuite l’éloignement spatial, métrique, kilométrique, et lointain montre une grande disparité des génomes rendant difficile de relier les échelles locales et régionales de la diversité microbienne (Fierer et al. 2006). L’hypothèse que l’éloignement aurait peu d’influence, évoquée sous le vocable de cosmopolitisme des communautés microbiennes, est contredite par les études récentes qui révèlent l’importance des évolutions particulières de ces communautés suivant les localisations.  (Green et al. 2006)

Plusieurs méthodes statistico-probabilistes ont été utilisées dont l’esprit est d’extrapoler une qualification de la diversité sur un échantillon lorsque son nombre cardinal augmente. Cette qualification de la diversité peut être la loi de probabilité d’une répartition épousant au mieux les données à un certain seuil de vraisemblance. Lorsque le cardinal de l’échantillon croît le nombre d’unités taxonomiques trouvées augmente aussi, mais en général  moins vite et on peut dans certains cas inférer une asymptote qui fournirait l’information sur la diversité ultime micro-locale.

Les auteurs de l’article (Roesch et al. 2007) mentionnent que si le nombre d’espèces de bactéries (en un sens taxonomique à préciser) était de 10 millions par gramme comme (Gans et al. 2005) l’avancent, alors ce nombre est trop grand pour qu’on puisse le vérifier avec les technologies actuelles ([1]). Leur étude montre aussi que les métagénomes obtenus dans la forêt boréale au Canada participent à davantage de grandes subdivisions (phylum) que ceux du Brésil tout en étant moins diversifiés. Autrement dit ces génomes forestiers ont une dispersion plus faible mais plus ancienne.

Cependant d’autres auteurs sont beaucoup plus optimistes et considèrent (Quince et al. 2008) que l’accélération du perfectionnement de l’informatique et des méthodes de séquençage rapide, fait qu’on peut raisonnablement espérer une modélisation complète du micro-biote du sol. Il suffira pour cela que le séquençage aille 10’000 fois plus vite qu’actuellement !

Est-on sur le point de connaître la combinatoire intime de la planète ?

Il s’agit d’une perspective scientiste totalement illusoire comme il y en a beaucoup. Car le microbiote du sol évolue, se transforme, en permanence. Et même rapidement pour certaines bactéries courantes comme les streptomyces (Tidjani 2020). C’est toujours cette pensée schématique qui consiste à réduire la nature à un algorithme. Avec l’idée qu’on tiendra alors la règle du jeu (voir ma vidéo Ce que Nature sait n°4).

Lorsqu’il y a mutation, transfert de gènes, par contact ou par le véhicule d’un virus, la réalité change, alors que les bases de données restent ce qu’elles sont. Une copie de la nature ? Idée naïve. La copie d’un fragment de terre évoluera selon des règles artificielles et divergera tout de suite de l’évolution du vrai fragment.

Une des erreurs de cette pensée réductionniste qui motive tant d’articles dans les revues de biologie, est de croire que la difficulté tient à ce nombre considérables d’ADN à séquencer pour déjà un gramme du sol et à celui plus grand encore à l’échelle de la prairie, de la forêt, de la région etc. Ces nombres sont en effet très grands. Et on ne les connaît pas.

Mais ce qui est définitivement inaccessible c’est le nombre des éventualités combinatoires parmi lesquelles la nature choisit quand elle évolue. Là ce n’est pas quelques ordres de grandeur de plus, c’est hors de portée de ce que l’informatique fera jamais (cf. Bouleau 2021, p158-160 et 168-174). Autrement dit l’évolution naturelle dans un site naturel est nécessairement une surprise au niveau moléculaire pour le modélisateur. C’est dire qu’on ne sait pas du tout aujourd’hui quelles molécules sont dans le sol, comment elles peuvent réagir aux pesticides sophistiqués et aux OGM en culture ou en élevage en interaction avec l’air et l’eau à la surface du sol à grande échelle. On néglige ce qu’on ne comprend pas, ce qui conduit à des décisions étayées sur une science apodictique qui prétend savoir plus qu’elle ne sait.

La forme des interstices du milieu, leur texture, leur composition chimique, les dispositions des bactéries et archées entre elles, la structure des ces grappes, les détritus de la vie microbienne ancienne, le rôle des enzymes, les réseaux trophiques, les symbioses bactériennes et mycologiques, l’activité de la rhizosphère, la provenance des spores, tout cela fait une richesse naturelle dont les copies seront toujours maladroites et incomplètes.

Cette notion d’incomplétude est fondamentale, nous devons maintenant faire avec. C’est à propos de l’arithmétique qu’elle a été démontrée, on ne fait pas de l’arithmétique avec des algorithmes. Mais cela vaut aussi pour la combinatoire biologique qui est encore plus complexe. Seulement les biologistes – mis à part quelques-uns – n’ont pas encore intégré cette incomplétude. Elle se traduit très simplement dans le rapport concret à ce qui nous entoure, le monde microscopique nous impose cette évidence : un peu plus loin c’est radicalement nouveau, et un peu après c’est fondamentalement différent.

Le temps et l’espace sont là, comme ils sont, comme ils vont, avec leur propre potentialité, à côté, en dehors, de ce que nous savons. 

Comment peut-on affirmer l’innocuité d’une molécule qu’on répand largement dans l’environnement alors qu’on ignore la composition moléculaire de la nature ?

Remarquons que dans chaque motte de terre l’effet collectif complexe de la coévolution est tellement présent qu’on a l’impression que l’évolution naturelle spontanée y est en régime routinier. Parce que les bactéries et archées sont peu mobiles, l’essentiel des changements semble n’avoir de conséquences que locales.

Néanmoins les interactions proches et lointaines de la motte avec le reste du vivant sont permanentes. Sans en faire ici un tableau (cf. Coleman et al. 2018), il n’est que de citer le vaste monde des acariens, des insectes et de leurs larves, les autres arthropodes, les spores, les maladies telles que le charbon, le tétanos, etc.

Il y a donc une relation durable à établir avec le sol muni de sa créativité spontanée. Et d’ailleurs le même phénomène d’incomplétude pourrait être illustré en ville. La zone urbaine n’est pas propre. C’est une promiscuité avec un monde microscopique en évolution, réparti différemment que dans le sol végétal. Cela demande de compenser notre ignorance par une veille, une écoute et un suivi, pour une « gestion » dans le temps long.

Bibliographie :

Angel R.,  M. I. M. Soares, E. D. Ungar, O. Gillor, Biogeography of soil archaea and bacteria along a steep precipitation gradient, The ISME Journal (2010) 4, 553–563.

Bouleau N., Ce que Nature sait, La révolution combinatoire de la biologie et ses dangers, Presses Universitaires de France 2021.

Coleman D. C., Mac A. Callaham, Jr. D. A. Crossley, Jr.  Fundamentals of Soil Ecology Acad. Press 2018.

Fierer N, Jackson RB.. (2006). The diversity and biogeography of soil bacterial communities. Proc Natl Acad Sci USA 103: 626–631.

Gans J, Woilinsky M, Dunbar J. (2005). Computational improvements reveal great bacterial diversity and high metal toxicity in soil. Science 309: 1387–1390.

Green J, Bohannan BJM. (2006). Spatial scaling of microbial biodiversity. Trends Ecol Evol 21: 501–507.

Quince C., Th. P. Curtis, W. T. Sloan, The rational exploration of microbial diversity, The ISME Journal (2008) 2, 997–1006
.

Tidjani A.-R., Évolution génomique au sein d’une population naturelle de Streptomyces
, Thèse Univ. de Lorraine 2020, HAL tel-02461512.

van Elsas J.D., A. Hartmann, M. Schloter, J. T. Trevors, J. K. Jansson, The Bacteria and Archaea in Soil,  in Modern Soil Microbiology, p49-64, Taylor & Francis 2019.


[1] D’autres études avancent jusqu’à 2 milliards de cellules bactériennes par gramme (Coleman et al. 2018). Les auteurs de ce traité font remarquer que « la distribution et l’abondance des microorganismes sont si variables qu’il est très difficile de déterminer avec précision leurs abondances moyennes sans tenir compte d’une très grande variance autour de cette moyenne, lorsqu’on se place à une échelle macroscopique ». Il est vrai que les estimations dans la littérature sont elles-mêmes très dispersées. Et certains auteurs (von Elsas 2019) soulignent qu’on est très loin de la connaissance exhaustive de la diversité bactérienne dans le sol.




Le hasard… une modélisation biologique qui n’est pas naturelle

Dominique Bourg poursuit le dialogue avec Nicolas Bouleau sur son livre : Ce que Nature sait, La révolution combinatoire de la biologie et ses dangers

Reproduction d’une toile (Vibrations) de TUNG-WEN MARGUE

Dominique Bourg

Après un premier dialogue ici même, nous allons chercher à cerner ce que vous avez voulu faire dans votre livre. Ma première question concerne le public cible de votre livre. Tel que je l’ai compris, vous vous adressez en premier lieu, mais non exclusivement, aux biologistes de synthèse, en vue de les conduire à interroger leur démarche, les conséquences possibles de leurs travaux sur la société en général. Vous montrez que lorsqu’ils prétendent agir comme la nature elle-même le fait, c’est faux. La notion de hasard brut qu’ils revendiquent alors est en effet erronée. La seconde critique que vous leur adressez concerne leur méthodologie réductionniste.

Une seconde série de questions m’importe. Vous montrez encore dans votre livre qu’au cours de ses plus de trois milliards et demi d’années d’existence, la nature a acquis une forme d’expérience, et ainsi des connaissances qui nous sont à jamais inaccessibles. Quel est le statut de ces connaissances ?

Nicolas Bouleau

Dans ce livre je m’adresse en effet plus particulièrement aux scientifiques et parmi les scientifiques aux biologistes de synthèse, parce que je pense que ma position de scientifique me permet de parler plus en profondeur de ce sur quoi ils croient pouvoir s’appuyer. Donc c’est effectivement mon propos. Je pense néanmoins que ce type d’approche peut également concerner les gens qui s’intéressent à l’écologie en général, parce que cela a des répercussions dans ce domaine. Alors je peux expliquer plus en détail le problème de la nature et du hasard. C’est un point très important parce que c’est l’argument principal de ceux des biologistes de synthèse qui sont en faveur des OGM. Pour dire les choses rapidement, il y a deux grandes branches de la biologie moléculaire aujourd’hui. L’une, qu’on peut appeler l’usine cellulaire, consiste à bien comprendre le fonctionnement d’une cellule pour essayer de lui faire fabriquer des produits, comme les levures transforment le sucre en alcool puis en acide. C’est ainsi qu’on a synthétisé l’artémisinine qui est un produit contre le paludisme ou bien l’hydrocortisone. C’est l’usine cellulaire. Et puis il y a une autre branche très importante lorsqu’on coupe, qu’on enlève, ou qu’on rajoute des segments à des ADN, c’est la biologie qui se focalise sur les molécules de l’hérédité des êtres vivants. Alors ça évidemment c’est nouveau, et l’argument principal qui est donné consiste à dire : la nature procède au hasard alors que nous nous ne procédons pas au hasard, nous avons une intention et cette intention est valide parce qu’elle est humaine et sociale etc. Il faut, à ce point, dire quelques mots sur le hasard.

Dominique Bourg

Rappelons que vos propres travaux académiques, en tant que mathématicien, concernent le domaine des probabilités et du hasard.

Nicolas Bouleau

Alors si on prend une pièce et qu’on la jette en l’air, elle tombe sur pile ou face, et c’est au hasard parce que son mouvement est si compliqué qu’on n’arrive pas à savoir si elle va tomber sur pile ou sur face. De même la bille de la roulette tombe entre 1 et 36, et dans ces deux cas on peut vérifier statistiquement que les lois du hasard sont satisfaites en répétant l’expérience un grand nombre de fois. Mais la nature, en fait, est surtout constituée de situations très circonstanciées, d’une certaine façon il n’y a pas de hasard dans la nature, sauf à aller vers le hasard quantique ou le hasard de l’agitation thermique, c’est-à-dire des choses qui sont ultra microscopiques. Macroscopiquement, on n’a que des situations particulières. En biologie, il y a évidemment un phénomène qui est très souvent cité, c’est la méiose qui est ce partage de la cellule pour faire des cellules germinales, avec une partie du patrimoine paternel et une partie du patrimoine maternel qui feront celui du rejeton. Peut-être y a-t-il une certaine forme de hasard, mais je pense que même dans cette situation c’est très circonstancié ; ça ressemble beaucoup plus à ce qu’on appelle les nombres pseudo-aléatoires qui sont fabriqués par des mécanismes déterministes et qui néanmoins ont quelques propriétés du hasard. En tout cas la thèse que je défends est la suivante : il faut deux choses pour faire du hasard, il faut un champ, le champ des éventuels, et un dispositif pour piquer dans ce champ d’éventuels. C’est une notion duale. Or, si on s’intéresse aux molécules qui sont produites par de la synthèse réussie, le mot « réussie » a beaucoup d’importance : il s’agit des molécules qui ont une stabilité suffisante pour exister un certain temps dans les êtres vivants ; cela ne constitue pas un champ sur lequel le hasard puisse s’appliquer. Pourquoi ? Parce que cet ensemble des molécules qui sont réussies, on ne le connaît pas, il n’est pas à disposition, on l’aborde progressivement par des expériences ; et donc, c’est un abus de langage que de parler de hasard, parce qu’on n’a pas l’effectivité d’une situation au hasard. Ce champ des molécules qui sont obtenues par la synthèse chimique et qui sont réussies, on ne le connaît pas. En plus, la nature procède très lentement, et avec des sélections. Elle sélectionne en fonction de ce qui se passe, c’est-à-dire en fonction de ce qui fait sens, on peut dire sens sous l’angle darwinien, c’est-à-dire du phénotype, des fonctions, à quoi ça sert, et avec toute la complexité de la nature, les parasites, les êtres qui sont autotrophes, ceux qui sont hétérotrophes, etc. Donc elle fonctionne avec le sens, et là le parallèle avec la linguistique est tout à fait frappant. Je pense qu’il faut citer ici Georges Matheron. Un mathématiciens et statisticien, fondateur du centre de géostatistique de Fontainebleau, qui a été le premier je crois à pointer ce phénomène. Il explique très clairement dans son ouvrage (Estimating and Choosing, 1989) que dire qu’une situation est au hasard, ce n’est pas dire autre chose que nous ne disposons pas des moyens statistiques pour réfuter le modèle probabiliste. Donc dire que nature est au hasard, c’est une abstraction formidable. C’est tout à fait comparable à l’idée d’arbitraire du signe de Saussure. Le signe chez Saussure, c’est la correspondance entre le signifiant et le signifié, correspondance très complexe dans le cas de la nature entre les gènes et le phénotype, donc entre une inscription littérale et puis du sens. Il y a les fameux phénomènes d’épistasie et de pléiotropie qui font que cette correspondance ne peut pas être biunivoque, évidemment, de toute façon ce n’est pas vraiment une correspondance, puisque du côté du sens on ne sait pas très bien ce qu’il y a. Le fait est que la nature procède par le sens et si on fait comme Saussure en disant que le signe est arbitraire, ça revient à dire que la nature est arbitraire. Mais dans le domaine des langages le signe n’est pas arbitraire, c’est une vision structuraliste du langage tout à fait similaire à la vision axiomatique de la nature qu’on a dans le courant réductionniste. Si on prend le mot chêne qui désigne cet arbre qui a des glands, chêne vient de quercus en latin et d’une racine indo-européenne qui voulait dire solide, dur, avant que ça porte sur un arbre ; donc les mots ont une histoire et d’une certaine façon dire que la nature est au hasard c’est un peu comme si on disait que l’histoire est au hasard, ça revient à se positionner comme si nous mêmes nous étions en dehors de la nature et que nous la regardions comme quelque chose qui n’a aucun sens ; c’est une vision axiomatique de la nature, je crois qu’il faut absolument en avoir conscience et la dépasser.

Dominique Bourg.

Précisons pour bien vous comprendre, on pourrait dire qu’il y a une analogie entre le sens d’un mot, et les fonctionnalités d’une molécule, le fait qu’elle contribue au bon « fonctionnement » d’un être vivant : tel serait le sens dans la nature.

         Donc si j’ai une vision purement abstraite, celle de l’arbitraire du signe du signe en linguistique, ou celle du hasard en biologie, je fais comme si le jeu de différenciation entre les signes était dû au pur hasard, alors que pas du tout, il est lié à un référentiel, il est lié à la construction dans le temps d’un sens, à la relation à ce référent et aux autres signes. Dans la nature, c’est la même chose. Mais alors cette question du sens, on l’a compris, est inséparable du contexte, ce qui fait le sens c’est la relation au contexte et c’est la pertinence par rapport à contexte.

Nicolas Bouleau

Et le contexte lui même évolue…

Dominique Bourg

Il y a une interaction permanente entre les éléments qui peuvent se combiner et l’évolution du contexte lui-même. Alors ça voudrait dire que la nature elle-même, comme un locuteur, possède ce sens – c’est une façon de parler, on fait comme si – et donc en possédant ce sens, si on suit la comparaison avec le locuteur, elle ne les combine pas plus au hasard qu’on ne combine au hasard les signes d’une langue. Alors qu’un locuteur n’associe pas les signes au hasard – il les associe parce qu’il cherche un sens –, la nature quant à elle, d’une certaine manière, va chercher la molécule qui perdure, elle va chercher la molécule qui offre un intérêt fonctionnel dans un contexte donné. Ce que je comprends, c’est qu’elle dispose aussi des possibles, mais cet infini des possibles elle le lie avec le sens, de même que nous construisons nos phrases en tension vers un contexte référentiel.

Nicolas Bouleau

Je ne suis pas sûr qu’on puisse dire qu’elle ait à sa disposition l’infinité des possibles, je ne pense pas qu’on puisse dire cela.

Dominique Bourg

Justement c’est pour cela que je pose la question.

Nicolas Bouleau

Comme pensaient un certain nombre de critiques du livre très célèbre de Jacques Monod, en particulier le biologiste Schoffeniels et également Albert Jacquard, je dis que nous ne connaissons pas les mécanismes très fins qui font les mutations. Les mutations se produisent dans un contexte qui est le noyau et il y à là tout un système de petits rouages que nous ignorons et qui produisent des choses assez variées. Il n’est pas certain que la nature ait à disposition tous les changements qui sont envisageables dans l’axiomatique de la vision réductionniste de la cellule. Mais, en effet, il semble qu’elle puisse produire une grande variété et qu’ensuite cette variété soit sélectionnée en fonction du contexte comme vous venez de dire.

Dominique Bourg

Et donc, quand on parle de hasard, c’est parce qu’on se situe à un niveau d’abstraction énorme et précisément parce qu’on méconnaît ces mécanismes plus fins. Donc si nous prenons par exemple la critique de Bergson dans l’Évolution créatrice, quand il parle de la larve de l’œstre du cheval, l’idée est la même, c’est-à-dire qu’en fait le système présuppose une connaissance qui va largement au delà effectivement de la larve elle-même, puisque pour que ça fonctionne tout se passe comme si la nature avait connu et prévu par avance tout le parcours que la larve va faire. Et donc en disant cela, on met simplement en défaut la possibilité de comprendre par un mécanisme très simple, conçu à une échelle macro, qu’on appelle le hasard. Après Bergson va parler d’évolution créatrice, mais ce qui est intéressant c’est qu’on peut trouver bien d’autres exemples comme ça, où effectivement on est confronté à des phénomènes complexes et où on met en évidence que le niveau d’abstraction dont on prétend qu’il est en lui-même explicatif, en fait ne l’est pas.

Nicolas Bouleau

Oui, mais je ne crois pas qu’on puisse transposer la pensée de Bergson dans la situation dans laquelle nous sommes après la seconde guerre mondiale, où on a effectivement la combinatoire qui vient modifier la plupart des repères épistémologiques. En particulier toute cette façon de s’exprimer : la nature sait, la nature ne sait pas, ce sont des façons de parler. Moi, ce que je dis, c’est qu’il y a de l’ignorance et de l’ignorance définitive. Et ça je l’explique d’une façon très concrète en prenant l’exemple des algorithmes d’apprentissage, d’une certaine façon avec tout le vivant la nature fait une sorte d’apprentissage et évolue en tenant compte de ce qui se passe pour chaque être vivant dans son contexte. Et dans cette évolution évidemment, il s’est produit des drames, il s’est produit des catastrophes, des chutes vers le bas, c’est-à-dire des périodes où les êtres vivants évolués ont été détruits, où beaucoup d’entre eux ont disparu ; et donc l’idée qui me paraît vraiment forte, c’est que le bilan de toute cette évolution – catastrophe évolution catastrophe évolution catastrophe, etc. – n’est pas sans intérêt, n’est pas neutre, il y a là une sorte de capital, de savoir parmi les êtres vivants qui sont les héritiers de ceux qui ont résisté à toutes ces catastrophes ; il y a là une certaine forme de savoir entre guillemets. Ça n’est pas savoir avec une pensée, savoir par une représentation.

Dominique Bourg

Seulement quand vous parlez d’algorithmes d’apprentissage, pour affiner les choses par rapport à la pure expression « la nature sait », on n’a en fait, par rapport au problème de fond, pas progressé d’un iota. Ce que je veux dire par là, c’est qu’un algorithme d’apprentissage, c’est un dispositif construit par des sujets conscients, et ils le conçoivent de telle sorte qu’il puisse engranger une expérience et s’affiner. Mais l’idée, si vous voulez du sujet connaissant fait qu’il ne fonctionne pas tout seul, il a été conçu et donc on recule d’un cran, mais par rapport au problème que pose l’expression « la nature sait », ça ne change rien ; simplement on a affiné en termes de présuppositions, on est parti de la présupposition très générale « la nature sait » et là on a trouvé une image un peu plus fine qui est celle de l’algorithme auto-apprenant, mais la question ontologique est la même, c’est-à-dire celle d’un savoir sans sujet.

Nicolas Bouleau

Avec une nuance : dans les algorithmes d’apprentissage il n’y a pas de catastrophe. Ce sont les algorithmes avec lesquels on fait de la reconnaissance de la parole, plus on leur donne des choses, plus ils apprennent, c’est une espèce de croissance continue ; et d’ailleurs, c’est tout à fait dans la ligne de ce que disaient Fisher, Hamilton et Dawkins. C’est plus ou moins ce qu’on appelle l’algorithme du recuit simulé. C’est croissant et cela se relie effectivement à une certaine philosophie de la science : que tout ça progresse, et que le réel est même fabriqué par ce que nous connaissons etc. Là, le fait tout à fait nouveau, c’est qu’il y a des effondrements, et il y a de l’effacement. Et ce qui existe aujourd’hui, parmi les êtres vivants, ce n’est pas le résultat de l’accumulation continue de ce qui s’est passé : ça ressemble à un algorithme d’apprentissage un peu boiteux, saccadé. Il a subi un très grand nombre de désastres et en même temps il a essayé des choses que nous ne connaissons pas, parce que ça a été effacé. Le fait que ce soit effacé est très important, parce que c’est ça la raison du fait que certaines molécules ne peuvent être obtenues par la synthèse qu’en passant par des molécules beaucoup plus compliquées ; et donc ça veut dire que la molécule ne témoigne pas en elle-même du trajet qui a été fait pour la concevoir. Il y a des boucles.

         Mais en effet tous les propos que je développe sous ce registre sont dans le but de contester une certaine vision scientifique conquérante et simpliste, en effet, mais je n’aborde pas les problèmes, je dirais, de la morale et l’éthique vis-à-vis du vivant.

Dominique Bourg

Dans votre livre, vous finissez pourtant par les aborder. Mais affinons le propos. La différence énorme avec un algorithme d’apprentissage, vous venez de le dire, c’est que là où on a une continuité, une simple accumulation, on ne l’a plus. C’est-à-dire qu’effectivement, il y a des catastrophes, il y a des ruptures, et c’est ce qui fait que nous ne pouvons pas remonter la chaîne, c’est-à-dire qu’il y a des éléments, des connaissances qui nous manquent à jamais. Mais, la nature quant à elle, dans ce qu’elle permet aujourd’hui, a en quelque sorte enregistré certains acquis de ces catastrophes ? Est-ce cela ?

Nicolas Bouleau

Le mot enregistré est trop fort. Je dis des choses très simples, c’est que les catastrophes, c’est toujours vers le bas ; c’est-à-dire que ce sont des catastrophes qui diminuent ce que j’appelle la diverxité, la diversité-complexité, de la nature et ça ramène vers des êtres qui sont plus proches des bactéries, des archées, des êtres monocellulaires ou des métazoaires les plus simples. Donc on ne peut pas dire enregistré… Après une catastrophe ça recommence, et ça repart dans une direction qui est différente de celle qui a échoué, et puis de nouveau il va y avoir des petites, puis des grandes catastrophes, etc. Et donc, ce à quoi ça fait penser, c’est que ça n’est pas n’importe quoi. Parce que précisément cette expérience a été extrêmement longue, là les ordres de grandeurs sont fondamentaux, et donc nous devons en tenir compte et nous pouvons dire que ça donne une valeur à ce trajet qui a été fait. Ça donne une valeur à ce trajet, et là il y a deux arguments : le fait qu’il y a des catastrophes, mais également le fait qu’il y a des boucles qui donnent du simple à partir du complexe, et ça aussi c’est un phénomène qui nous échappe, parce que ces boucles nous ne les avons plus.  Quand on regarde les bactéries qui sont fossiles on n’a que leur forme, on n’a pas leur ADN, et donc la paléontologie et la phylogénie moléculaire sont incomplètes, il manque un grand nombre d’éléments. Résumer cela de façon simple, je ne pense pas que ce soit évident. Ce savoir de la nature, non seulement on peut dire que nous l’ignorons, mais nous n’avons pas en plus les outils pour le qualifier davantage, parce que c’est simplement une sorte de constat.

Dominique Bourg

Mais amusons-nous à reprendre l’image de Galilée : le grand livre de la nature. Si on regarde du côté du vivant, et non pas du côté de l’astronomie, on a affaire à un livre qui a été réécrit plusieurs fois. Dans ce livre il nous manque des pages extrêmement importantes, et en fait, quand on dit, par exemple, la nature agit au hasard, on veut simplement dire par là, que nous ne comprenons pas le livre en question. On va réussir à comprendre des morceaux de phrases isolés. C’est une façon de dire un peu imagée. En revanche la nature elle est a une forme de mémoire, je dis bien une forme de mémoire, des livres antérieurs, et donc il y a une espèce de prétention, comment dire, qui est terrible, quand on passe du savoir, de la partie qu’on connaît, à l’agir. Parce que là on fait un saut. Et qu’on ne comprenne qu’une partie des choses, soit, mais ce que cherche à faire le scientifique quand il devient biologiste de synthèse, c’est de faire comme s’il comprenait ce livre et les livres antérieurs en prétendant lui même insérer dans ce livre des phrases, et en plus en améliorer le contenu général.

Nicolas Bouleau

Oui, et je pense qu’à ce point de discussion, ce serait intéressant que j’expose mon idée de Rn-isme, parce qu’on est en plein dessus. Le plus simple c’est de prendre la cellule. Je pense qu’il faut aller un peu au détail. Les microscopes optiques ont un pouvoir séparateur de l’ordre de la dizaine de microns, or c’est à peu près la taille des plus petites cellules vivantes ; et donc on a commencé l’étude des cellules, et puis après la guerre, les microscopes électroniques sont allés jusqu’à un pouvoir séparateur d’une dizaine d’Angströms. Et là on a commencé à voir la silhouette des grosses molécules, alors dans l’étude de la cellule, qui s’appelle la cytologie générale, qu’est ce qu’on fait ? Eh bien on regarde ce qu’il y a dans le protoplasme : il y a toutes sortes de produits, des glucides, des lipides, des protides, il y a des acides aminés, l’acide glutamique, aspartique, etc. une vingtaine, et puis il y a des ribosomes, des mitochondries, et puis il y a une membrane extérieure et une autour du noyau pour les eucaryotes, et il y a un certain nombre de dynamiques, le système de Golgi, le cycle de Lippmann etc. Et on étudie tous ces phénomènes. Qu’est ce que ça veut dire comprendre la cellule ? Cela veut dire trouver le rôle de chacun de ces produits, de chacun de ces systèmes, dans l’ensemble du métabolisme de la cellule en fonction de l’énergie et des produits qu’elle reçoit, et de ce qu’elle rejette pour le métabolisme général, avec des rôles qui sont conformes à ce que disent les lois de la physique et les lois de la chimie. C’est ça comprendre la cellule. Et alors qu’est ce qu’il se passe ? Il se passe que il y a des petites choses qui ne servent à rien. Parce que les cellules c’est d’une variété phénoménale, il n’y en a pas deux pareilles, ou bien alors il faut les prendre vraiment dans le même tissu du même être vivant. Si on les prend dans les tissus différents, elles sont différentes, si on prend chez des êtres vivants différents, elles sont différentes ; il y en a une variété formidable, et donc quand on dit comprendre la cellule, c’est faire fonctionner une certaine rationalité avec ce que nous avons observé, et il y a toujours des formes, des dispositifs, des choses qui ne servent à rien. Ça veut dire quoi « ne servent à rien », ça veut dire que la rationalité du modèle n’est pas affectée si on les enlève. Ça fait un peu penser à la philosophie de Malthus, à des gens qui sont inutiles, qui n’ont pas de place autour de la table au banquet de la nature. Malthus parle bien de la nature.

         Mais en fait tout ce que je raconte là pour la cellule vaut aussi pour un écosystème. Un écosystème on va le penser avec les êtres vivants qu’on va répertorier, on va regarder les déséquilibres, les flux, l’énergie, les produits qui entrent et les produits qui sortent, on va essayer de comprendre les êtres vivants qui se nourrissent des autres qui sont hétérotrophes, ceux qui sont qui se nourrissent par la photosynthèse et finalement on va avoir un modèle à n dimensions dans Rn, c’est ce que j’appelle le Rn-isme. On a représenté l’écosystème. Evidemment, ça va représenter que ce qu’on aura compris, ce qu’on aura mis dans la liste. Et on est exactement dans la situation où certains écologistes ont fait un parallèle avec l’économie lorsqu’ils disent qu’une fonction biologique, c’est un métier en économie. Ils ont fait une traduction. Cela témoigne vraiment d’une démarche qu’il faut ramener à sa place : en fait on pense l’écosystème comme une entreprise, avec sa fonction de production, éventuellement une fonction de Cobb-Douglas, c’est-à-dire une fonction de production qu’il faut essayer d’optimiser comme on optimise le fonctionnement d’une entreprise en économie néoclassique. Donc là on voit qu’avec cette modélisation dans Rn, on laisse passer l’essentiel de ce dont nous parlions tout à l’heure, que nous appelons « le savoir » de la nature. Et donc on a une situation d’une nature axiomatisée. Et ce n’est plus sur la nature qu’on expérimente, mais c’est sur le modèle.

Dominique Bourg

Une caractéristique très forte du modèle, c’est que lui ne connaît pas d’histoire, il est intemporel absolument, c’est comme la philosophie analytique.

Nicolas Bouleau

Oui. Alors on peut éventuellement rajouter aux n dimensions une n-plus-une-ième avec des vitesses d’évolution, des vitesses de réactions etc.

Dominique Bourg

Le problème c’est que sur la base de connaissances parcellaires, on prétend néanmoins interagir puissamment avec le milieu. On s’aperçoit alors qu’on n’a pas la compréhension générale, parce qu’on génère des surprises et au bout du compte on génère beaucoup de destructivité. Le problème est que cette destructivité rapporte de l’argent.

Nicolas Bouleau

C’est important, et tout à fait important de le dire. Et le fait que ce courant de l’écologie odumienne qui finalement prend similitude avec l’économie, il faut en prendre conscience pour comprendre les limites de cette approche. Plutôt que de dire le modèle c’est ce que nous comprenons, donc c’est ce qui est important parce que c’est ce qui concerne de l’homme, il faut au contraire adopter une attitude d’écoute beaucoup plus ouverte aux choses qui sont révélées par la vie elle-même, tout en étant vigilant éventuellement sur certains déséquilibres qui peuvent être dus d’ailleurs à ce que fait l’homme ; parce que dans notre conversation nous n’avons pas insisté là-dessus, mais la nature, avec ce savoir délicat à définir, en tout cas il y a des choses qu’elle ne sait pas du tout, c’est réagir aux artefacts, parce que sur ce point-là elle est complètement démunie.

Dominique Bourg

Là nous sommes au cœur du sujet, est-ce que vous pouvez expliciter. Parce que c’est précisément la pointe de votre critique. Le biologiste de synthèse prétend « je vais faire ce que fait la nature, mais je le ferai mieux parce qu’elle procède au hasard et moi j’ai un savoir d’une certaine manière ».

Nicolas Bouleau

Oui c’est le discours qui est tenu. Et je crois que c’est d’une naïveté formidable, c’est confondre le modèle qu’on a construit, fini-dimensionnel, qui est très réducteur et qui oublie un grand nombre de choses, avec la nature véritable ; et en particulier, c’est gommer complètement ce qui s’est passé. On n’est pas dans une salle blanche à essayer de refaire la nature. Non, là n’est pas le problème, on n’est pas du tout dans cette situation. On est dans une situation où il y a beaucoup de bactéries, beaucoup de virus, des molécules, et il y a une histoire qui s’est déroulée. Votre formulation très résumée est tout à fait typique en effet de ce qui est dit et écrit, même par de grands scientifiques.

         Le fond de ma pensée c’est que nous sommes très influencés dans le type de science que nous fabriquons par notre système économique, c’est vraiment cela qui se passe. Notre système économique adore les petits modèles qui sont des modèles fini-dimensionnels où on peut optimiser, parce que, en économie, il y a quelque chose qu’on optimise, c’est le profit, c’est l’argent, et donc là il y a une grandeur scalaire qui permet de tout ramener à des optimisations. Alors que dans la nature, qu’est ce qu’on optimise, ce n’est pas clair, on a cru pendant un moment que ça optimisait l’énergie, mais les systèmes ouverts c’est beaucoup plus compliqué que cela, il y a des flux, il y a des formes en dehors de l’équilibre, c’était des travaux de Prigogine, etc.

         J’ai l’habitude de bien distinguer deux grands volets de la science qui sont : la science nomologique faite de lois, de nomos la loi, on trouve une régularité, et on essaie ensuite de voir sur une circonstance particulière, si on est dans le champ ou en dehors de cette régularité, et donc on précise le champ de la loi. C’est la science telle qu’elle a été faite sur la physique au 19e siècle.

Dominique Bourg

C’est la poursuite de Galilée Newton.

Nicolas Bouleau

Oui tout à fait, le système solaire est une espèce de système avec des lois (encore que bien sûr et là il y aurait beaucoup à dire avec la matière noire aujourd’hui, il y a toute une partie de l’univers qui est inconnue, enfin nous n’allons pas rentrer dans cette histoire tout à fait frappante ici), mais il y a une autre dimension de la science qui est la science de la précaution, la science interprétative sur les éventuels. J’ai pas mal travaillé là-dessus, je crois que c’est très important et j’ajoute que pendant longtemps j’ai pensé que c’était la grande dualité dans la construction de connaissances jusqu’à ce que je me rende compte qu’il y avait une troisième dimension, la science combinatoire, qui est vraiment d’une nature différente et qui probablement, si j’ai raison, explique le fait que la démarche des biologistes de synthèse est une démarche qui utilise une science qui n’était pas adaptée à ce sujet. Ils utilisent la science nomologique de façon aveugle, sans tenir compte des particularités essentielles de la combinatoire.

Dominique Bourg

Est-ce que vous pourriez nous rappeler ces particularités qui font qu’on ne peut pas justement plaquer le modèle nomologique classique de la science du système solaire ?

Nicolas Bouleau

Je dirais que la science classique est une science qui est faite de lois et d’approximations. Approximations et précision, c’est vraiment cela la science du 19e siècle et du début du 20e siècle, y compris la mécanique quantique. Je prends souvent l’exemple des intempéries. La météo, c’est très intéressant. Les anciens ne comprenaient pas les intempéries et donc ils les ont attribuées à des entités savantes, la foudre c’était Zeus, le vent c’était Eole, les tempêtes c’était Poséidon. Agamemnon, d’après la légende, était même prêt à sacrifier sa fille pour obtenir du vent pour ses bateaux. Et puis on a constaté des régularités, aussi dans d’autres civilisations, on a dégagé des climats régionaux, climat continental, climat océanique. Et puis vers le 18e siècle on a compris le rôle de la lune qui n’est pas si évident, parce que les marées sont toutes les douze heures et non toutes les 24 heures etc. Et puis le rôle du soleil, et puis au 20e siècle on a commencé à résoudre les équations de la mécanique des fluides, c’est-à-dire les équations de Navier-Stokes, et on a développé la météorologie contemporaine. Il se trouve que ce sont des équations sensibles aux conditions initiales. Quand on fait de la modélisation c’est intéressant, parce que ça diverge et donc plus on s’éloigne par rapport à l’instant présent et plus on est à côté de ce qui se passe effectivement, parce que ce qui se passe n’est jamais qu’une trajectoire parmi toutes les trajectoires divergentes. Et alors qu’est ce qu’on a fait ? On a installé des observatoires sur le territoire et des dispositifs qui captent les différentes grandeurs de la météorologie, et on a procédé à ce qu’on appelle de l’assimilation numérique : on recale en permanence le modèle sur les observations qui sont recueillies par les observatoires. Donc on voit que dans cette science les mots clés ce sont précision et approximation. Bien sûr c’est un domaine qu’on ne connaît pas au détail la météorologie, mais on l’approche par la précision et l’approximation.

Dominique Bourg

La même chose avec le climat. C’est important parce qu’en général on distingue toujours météo et climat mais en fait la démarche est la même.

Nicolas Bouleau

Absolument et donc pour répondre à votre question, la combinatoire c’est complètement différent : il s’agit de nombres entiers. Pourquoi des nombres entiers parce qu’il y a des atomes avec des valences et puis il y a des configurations spatiales de molécules, il y a la stéréochimie, il y a des problèmes dans l’espace un peu comme les polyèdres qui intéressaient déjà les Anciens. Il y a des nombres entiers un peu comme les cristaux dont parlait Schrödinger dans Qu’est ce que la vie? Il le disait avant de le savoir véritablement. Et donc la combinatoire, ce n’est plus une question de précision et d’approximations, on est dans une situation nouvelle, des constructions qui viennent se caler dans des situations particulières, et là je dis que la science habituelle, la science nomologique faite de lois, est extrêmement démunie. Ça fait un troisième volet de la connaissance.

Dominique Bourg

Ça c’est un point très important, c’est que le domaine combinatoire est très différent de la science nomologique, on n’a pas de lois.

Nicolas Bouleau

Enfin peu de lois. Ou bien on pourrait dire un très grand nombre de toutes petites lois très circonstanciées. On est très contents d’en trouver, parce que c’est la science qu’on a l’habitude de faire.

Dominique Bourg

L’économie c’est de nouveau cela. Dans ce qu’elle a de plus sérieux c’est souvent des approches plutôt micro. Les grands modèles ne marchent pas mais en revanche elle a acquis un savoir sur l’enchaînement de petits phénomènes.

Nicolas Bouleau

Oui et c’est lié à ce qu’on disait tout à l’heure sur le Rn-isme, elle a des modèles, elle a simplifié la notion d’entreprise pour lui donner un certain nombre de paramètres en capital, en salaires, etc. Et une fois qu’elle a ce petit modèle de l’entreprise, qui a simplifié beaucoup de problèmes, elle est capable d’optimiser ou de proposer des optimisations pour ce type de concepts qu’elle a fabriqués. De la même façon pour comparer les objets qui sont à vendre sur un marché, elle les standardise parce que sinon les comparaisons ne sont pas possibles. Ceci dit, quand on a une pomme particulière qui vient d’un verger en permaculture ou autre, en regardant la pomme, on n’a pas par l’économie les détails des constitutions de l’objet, précisément parce que c’est un objet naturel. Donc là on voit bien, en effet, ce que vous dites des liens très forts entre notre construction de connaissances classique et notre économie contemporaine.

Dominique Bourg

Ce qui a été conçu avec le rêve de Walras d’être le Newton des sciences sociales.

Nicolas Bouleau

Oui, Léon Walras le fils, parce que Auguste son père était beaucoup moins formaliste.

Dominique Bourg

Malheureusement c’est le fils qu’on a suivi… Bon nous sommes restés du début à la fin sur la question épistémologique, avec les distinctions entre sciences combinatoire nomologique, et interprétative. Mais vous avez donné peu d’exemples sur ce que vous appelez la science de précaution ou la science interprétative. Est-ce que c’est vraiment une science ? N’est-ce pas plutôt une espèce de mélange entre science nomologique et sagesse pratique ?

Nicolas Bouleau

Dans un précédent livre je prends l’exemple du permafrost que j’évoque aussi dans celui-ci. Je crois que l’approche de Hans Jonas est très métaphysique, mais on peut lui donner un contenu concret très intéressant, c’est-à-dire qu’il me semble que très fréquemment il y a un germe de connaissance qui nait quelque part d’une crainte. Nous sommes ainsi constitués que la crainte nous fait réfléchir, nous fait penser, et d’ailleurs cela je l’ai expérimenté moi-même pour ma recherche en mathématiques. Il y a une vraie anxiété de savoir si telle chose était vraie ou non, qui engendre une forte motivation pour le travail intellectuel. Les craintes ne sont pas des choses qu’il faut balayer, elles ont une certaine valeur, seulement elles sont subjectives, elles sont locales, – à notre époque où il y a plein de baratin et de fausses nouvelles sur internet il faut faire très attention – elles naissent parfois dans des situations qui sont très locales, mais qui peuvent avoir une certaine valeur, et alors là, il y a un vrai travail scientifique qui consiste à voir si elles peuvent déboucher sur un contenu désintéressé, c’est-à-dire sur un contenu qui concerne la collectivité dans son ensemble, et ça je pense qu’il y a pas mal d’exemples. D’une certaine façon la naissance du prion lorsque l’on discutait de la vache folle et qu’on regarde toute cette affaire on s’aperçoit qu’effectivement il y a la naissance de préoccupations qui ensuite prennent une tournure plus collective. Donc ça ressemble un peu à ce que Michel Callon appelait les groupes concernés et l’accompagnement des scientifiques sur une préoccupation. Il se plaçait sous un angle plus sociologique, moi je pense que d’un point de vue épistémologique de la connaissance il y a là le germe d’une procédure, d’une tentative pour essayer, qui donne de la valeur à la connaissance d’éventuels, des éventuels construits qui ont une sorte de solidité. C’est ce que font – voilà le meilleur exemple j’aurais dû y penser dès le début – c’est ce que font les climatologues qui font des anticipations sur ce qui va se passer à 2 degrés ou un degré et demi, c’est de l’éventuel dont ils parlent, mais c’est un éventuel qui est travaillé, qui est construit, auquel on a donné toute la force de son propos. Or là, il ne s’agit pas de science nomologique, il s’agit effectivement d’une construction d’une science qui reste interprétative, mais avec une valeur de la construction interprétative.

Dominique Bourg

Alors arrêtons-nous là, parce que ça c’est très intéressant, c’est très important parce que justement si vous regardez la réaction, en fait, du cœur hiérarchique et du moteur économique de la société, s’il y a une science qu’il n’entend pas, c’est celle là. La seule science qui l’intéresse, c’est la science réductionniste en harmonie avec les petites optimisations économiques, alors que précisément on s’aperçoit que la somme des petites optimisations économique ça donne le désoptimal absolu sur le plan de l’insertion des sociétés humaines dans leur milieu naturel. Et c’est là où j’ai un peu des doutes si vous voulez, non pas sur le fond, mais sur la pertinence non épistémologique, mais effective, de votre démarche, parce que vous-même vous montrez que les conditions fondamentales d’acceptation de la visée très réductionniste, ce sont des conditions économiques et c’est l’appât du gain. Comment voulez-vous avec un raisonnement fragiliser l’appât du gain ? Pour moi si vous voulez, ça relève de ce que j’appelle un paradigme. On voit bien dans la manière dont s’est imposée l’approche mécaniste du monde, qu’elle est paradigmatique, c’est-à-dire que c’est une façon de voir qui à un moment donné, au même moment, sur le continent européen, va s’imposer de la même manière à tout un tas de figures fondamentales, qui vont créer la science moderne, dont aucune n’a décidé et aucune n’a décidé évidemment plus encore de le remettre en question. Et c’est un bouleversement de ce type-là qui nous permettrait de changer, alors peut-être que c’est la hauteur des dégâts qu’on va engendrer qui va finir par faire bouger.

Nicolas Bouleau

Vous mettez le doigt, en effet, sur une certaine faiblesse, je le reconnais, de ma démarche, d’un certain point de vue. Mais a contrario, je dirai que le discours qui consiste à s’émerveiller de la nature, avoir de l’empathie avec les êtres vivants, les animaux, les plantes, un peu comme ça se passe actuellement, c’est aussi un discours d’une très grande faiblesse, parce que ça conduit plus ou moins à privilégier dans les parcs zoologiques les animaux qui ont un public, ça consiste à dire : les chats c’est très gentil, ça caresse les jambes pour demander à manger, mais en fait il y a plein de chats dans les périphéries des villes qui n’arrêtent pas de tuer les oiseaux sans les manger. C’est très faible aussi parce que ça favorise les faux dévots de l’écologie.

Dominique Bourg

Ça c’est important, que et qui sont ces faux dévots ? Est-ce que vous pouvez préciser ? Et peut être on pourra clore cette séquence là-dessus.

Nicolas Bouleau

C’est la raison pour laquelle ma démarche a été d’employer des matériaux argumentaires qui sont proches de ceux qu’utilisent les scientifiques et les biologistes de synthèse, c’est pour ça que j’ai suivi cette démarche. Parce que j’ai pensé que lorsqu’il s’agit d’un discours dans le registre des émotions, ce discours-là existe depuis longtemps, en fait depuis l’Antiquité déjà. Et c’est vrai que nous avons de l’émotion avec la nature. Ceci dit les tartuffes de l’écologie, ce sont ceux qui ont compris que c’était plaisant, et qu’en effet on pouvait avoir un public avec ça, et que c’était tout à fait compatible avec ce qui se passait, et avec la « bienveillance » du capitalisme. Il faut quand même savoir que le mot écosystème, là où il est le plus employé, c’est dans les écoles de commerce et dans les MBA, où l’on explique que le commerçant a son écosystème, avec ses clients, et avec ses producteurs. Et les faux dévots, ils utilisent la facilité avec laquelle on peut adopter ce point de vue, qui ne changera rien à la réalité économique.




Ce que Nature sait,

Discussion entre Dominique Bourg et Nicolas Bouleau sur les points majeurs du livre Ce que Nature sait, La révolution combinatoire de la biologie est ses dangers, PUF janvier 2021




Du savoir de la Nature

Cet entretien avec Nicolas Bouleau reprend l’essentiel des développements du podcast mis en ligne précédemment. C’est une manière d’entrer dans le livre, à mes yeux fondamental, qu’il publiera le 27 janvier prochain. Ce livre étaie l’affirmation selon laquelle la nature a forgé au cours des 3,5 milliards de l’histoire de la vie, un « savoir » qui encadre ses choix combinatoires, et auquel nous n’accéderons jamais. Le montrer exigeait une quadruple culture : celle d’origine du mathématicien, celle acquise concernant la biologie moléculaire en général et la biologie de synthèse en particulier, mais encore une culture philosophique, et pour finir économique, tant la vision économique a influencé et influence les biologistes. Ce livre nous permet de revenir sur la place qui nous échoit au sein de la nature, sur la destructivité unique qui caractérise sapiens sapiens.

Dominique Bourg

Nicolas Bouleau

Quelle est la nature du savoir de la Nature ?

La révolution combinatoire de la biologie et ses dangers

Dominique Bourg : Votre investigation portant frontalement atteinte à la vision aventurière de la connaissance scientifique, il serait opportun d’esquisser le paysage de l’épistémologie dans l’après-guerre : les épistémologies centrées sur la physique, la sociologie des sciences et les sciences studies. Et l’émergence d’un nouveau scientisme avec la biologie du génome dont nous allons parler dans cet entretien.

Nicolas Bouleau : La pensée sur la science au 20e siècle fut marquée par une synthèse remarquable qui peut être vue comme l’aboutissement de l’épistémologie classique et comme point de référence des problématiques plus récentes. Il s’agit de l’ouvrage célèbre Criticism and the Growth of Knowledge (1965) où Karl Popper développait l’idée que la science se distinguait des idéologies parce que ses thèses étaient réfutables par l’expérience. Notons que le biologiste Jacques Monod contribua à l’audience de cette philosophie en France. Thomas Kuhn étudiait les révolutions scientifiques et montrait l’importance des exemples clés ou paradigmes en période normale, jusqu’à ce que la nécessité impose des révolutions conceptuelles. Paul Feyerabend défendait l’idée qu’aucune épistémologie générale ne légiférait la progression du savoir, et préconisait aussi un empirisme pluraliste. Enfin, Imre Lakatos plaidait pour des programmes de recherche.

            Ces auteurs raisonnaient comme s’il était évident que faire avancer la science de quelque manière que ce soit était toujours et forcément une bonne chose. On était juste avant le premier rapport au Club de Rome. Ces visions ne tenaient pas compte de l’imbrication de la science et de la technique : la science utilise les dispositifs techniques novateurs, mais surtout elle élargit la technique par des innovations physiques et chimiques qui sont accueillies favorablement si elles dynamisent l’économie. D’ailleurs durant le 20e siècle, un autre courant de pensée important s’était développé montrant que la technique nous entraîne sans que nous sachions où. Clairement la science est mise en face de problèmes nouveaux : l’épuisement des ressources naturelles, le réchauffement climatique, la mutilation de la nature vivante. On a appris ce mois de novembre 2020 que les vertébrés ont chuté de 68% depuis 1970. Les thèses de nos quatre épistémologues apparaissent aujourd’hui quelque peu stratosphériques.

            Quant au courant de la sociologie des sciences : on constate que le socio-relativisme de la connaissance marche trop bien comme procédé opérationnel, ce qu’ont parfaitement compris les firmes, les marchands de doute et les climato-sceptiques. Aujourd’hui dans le brouhaha des égos, les vérités de base de la science sont capitales et ce courant apparaît sous sa vraie nature : une préciosité universitaire incapable de fonder une pensée collective, sans armes devant l’économie de consommation.

            Il se trouve qu’à peu près en même temps que les débats que nous venons de mentionner s’est développé un scientisme nourri des nouvelles perspectives de la biologie. C’est ce que j’ai tenté d’approfondir. Beaucoup de scientifiques croient qu’on peut refaire la nature en mieux. Je crois qu’ils ont mal mesuré les dangers de cette ambition.

DB : Votre démarche n’est pas seulement critique, elle propose un véritable fondement nouveau à notre pensée de la nature en s’appuyant sur la phénoménologie particulière de la chimie et de la biologie. Peut-être peut-on commencer par cela. Vous expliquerez ensuite les conséquences que vous en tirez sur la biologie de synthèse en termes de dégâts possibles.

NB : Il faut prendre conscience du bouleversement que constitue la révolution combinatoire. Le fait que les êtres vivants sont le résultat de combinaisons moléculaires maintenues en équilibre transitoire dans des systèmes ouverts qui reçoivent et évacuent énergie et matière.

            L’ADN était déjà pointé comme molécule à la fin du 19e siècle, mais il faut se souvenir qu’à cette époque, et encore au début du 20e siècle, plusieurs grands savants ne croyaient pas à l’existence des atomes. La structure en double hélice fut découverte dans les années 1950, ainsi que le code génétique : les 4 nucléotides s’alliant 2 à 2 par liaison hydrogène adénine-thymine et cytosine-guanine. De sorte que l’ADN est un mot formé de 4 lettres de longueur de quelques dizaines ou centaines de millions. Il y a 220 millions de paires pour le premier chromosome humain.

            Le premier soubassement de mon argumentation réside dans le fait que les risques qui s’attachent à une nouvelle molécule lancée dans la nature ne sont pas probabilisables. Ils ne relèvent pas d’une pensée classique sur les risques, comme les ingénieurs et les économistes l’ont perfectionnée jusqu’à présent. Le concept d’incertitude (phénomènes dont la loi de probabilité est mal connue) ne convient pas non plus. Il ne s’agit pas de hasard mais d’ignorance pure et simple. Pour bien le comprendre, il est bon de simplifier le fonctionnement des combinaisons où intervient l’énergie, la température, le potentiel chimique, les catalyseurs, etc., pour ne garder que la combinatoire proprement dite. Oublier toute la thermodynamique, et on a pour cela une combinatoire qui est toute trouvée : l’arithmétique.

            Dans cette simplification les énoncés sont les molécules. Les théorèmes, c’est-à-dire les énoncés démontrés par des chaînes logiques à partir des axiomes, sont les molécules qu’on sait synthétiser. On peut dire qu’en arithmétique on essaie de synthétiser des énoncés avec la combinatoire logique, comme en biologie on tente de synthétiser des molécules.

            Seulement là ce qu’on sait est très éclairant : on sait que l’on peut démontrer des théorèmes avec un ordinateur, mais il les fournit alors dans un ordre qui est sans rapport avec ce qu’ils signifient. Et si on se donne un énoncé, il n’y a pas d’algorithme pour dire si c’est un théorème ou non. C’est la phénoménologie de l’indécidable et de l’incomplétude découverte dans les années 1930 par Gödel, Church et Turing.

            Par exemple l’hypothèse de Riemann est soit vraie, soit fausse, soit indécidable, il n’y a pas de probabilité là dedans. On ne sait pas. On peut résumer ces travaux des logiciens en disant qu’il n’existe aucune axiomatique donnant toutes les propriétés des nombres entiers. Les nombres entiers nous réservent des surprises.

            On peut montrer que la complexité de la combinatoire biologique fait qu’elle présente nécessairement elle aussi ces phénomènes où l’indécidable apparaît. Certains auteurs l’ont fait remarquer. Il reste cependant une différence importante : dans le cas de l’arithmétique, le contexte, qui est la logique des prédicats, n’est pas perturbé lorsqu’on produit un théorème nouveau, alors que le contexte naturel est quant à lui évidemment perturbé par l’évolution.

            Comme les nombres entiers, la combinatoire moléculaire apporte du nouveau tout à fait fondamental. Elle révèle des assemblages qui peuvent n’avoir jamais été rencontrés par la nature dans son évolution. Nous allons y revenir. Pour l’instant notons que l’expression employée plus haut « sans rapport avec ce qu’ils signifient » veut dire, du côté de la biologie, que des modifications réalisées de façon automatique seraient a priori sans rapport avec les fonctions des êtres vivants, leur phénotype et leurs avantages pour se nourrir et se multiplier. Le biologiste comme le mathématicien doit travailler sur le sens.

            Il est intéressant à ce sujet de relire L’évolution créatrice de Bergson car celui-ci s’est trompé, mais avait une intuition très proche de la vérité. Il mit toute la science du côté de ce qu’il appelle le mécanistique, par opposition à la nature qui elle est du côté créatif. C’est une erreur, il a mal placé la césure. L’arithmétique est du côté du créatif et le vivant est créatif par sa combinatoire. Il faut mettre la césure juste au-dessous de l’arithmétique. Si on retire à celle-ci la multiplication en ne conservant que l’ordre de la succession et l’addition, alors c’est décidable et complet, c’est mécanistique, les algorithmes sont alors capables de dire si les énoncés sont des théorèmes.

            Nous allons y revenir mais je voudrais insister d’abord sur des conséquences plus concrètes. Le non-probabilisable explique aussi que la nature ne se modélise pas avec une optimisation dans l’espace à n dimension. C’est très important. Un écosystème ce n’est pas un système avec entrées et sorties et des paramètres que l’on peut contrôler.  Ces modèles à n dimensions sont l’abus de langage permanent des optimisateurs, ce que j’appelle le Rn-isme (prononcer errènisme). On mesure tout ce qui est mesurable dans une zone, ce qui rentre, ce qui sort, en énergie, en produits chimiques et en espèces vivantes, en fonction des paramètres de température, de pression, d’hygrométrie, etc. et ensuite on pense être capable de dire ce qui va se passer si on change les paramètres, si on construit des immeubles autour de la zone, etc.  C’est le Rn-isme. Bien des thèses en environnement tombent dans ce travers. On a négligé toute la part du vivant qu’on ne connaît pas : les êtres microscopiques et les propriétés cachées du vivant macroscopique. Et c’est l’antichambre de l’économisation de la nature, calculer ce qu’elle apporte comme choses qui ont de la valeur marchande et comment l’optimiser.

DB : Pouvez-vous expliquer à partir de ce point de départ comment votre raisonnement vous conduit à ta thèse de l’existence d’un savoir de la nature ?

NB : Pour moi la nature sait des choses que nous ne saurons jamais. Ce savoir nous concerne parce que nous sommes des êtres vivants de chair et d’os baignés dans un microbiote bactérien, et parce que nous vivons dans une biosphère maintenue vivante par ce savoir de la nature.

            Il y a plusieurs approches. D’abord les ordres de grandeurs : le temps long et la combinatoire.

            La très longue expérience de la nature, de disons de 3,5 milliards d’années, lui a permis d’expérimenter des combinaisons extrêmement nombreuses, tellement nombreuses que jamais dans le temps d’une civilisation humaine nous ne pourrons fabriquer toutes les molécules qui ont été essayées.

            Mais ce faisant il faut dire aussi qu’elle n’a exploré qu’une infime partie des possibles. C’est très important, car cela fait comprendre le type de risque de l’innovation combinatoire en biologie : on saute facilement dans un espace jamais visité par la nature.

            Par ailleurs, c’est un point essentiel, la nature a expérimenté, mais elle a aussi effacé définitivement certaines expériences qu’elle a menées. L’effacement est dû à plusieurs phénomènes : les mutations par délétion, les disparitions d’allèles sans mutation dans les populations hétérozygotes peu nombreuses, les extinctions locales ou massives qui se sont produites dues aux maladies, aux cataclysmes divers, et aux instabilités de la sélection naturelle.

            Il en résulte que la nature actuelle est une zone privilégiée des combinatoires possibles. Elle est faite des combinaisons, disons des ADN, qui sont les survivants d’une très longue expérience, qui sont donc issus de ceux qui ont résisté par le passé. Mais il faut dire aussi que ces survivants ne sont pas des archives cumulatives, ils sont des témoignages partiels du travail de la sélection. La phylogénie moléculaire perfectionne certes la paléontologie comparative, mais reste lacunaire par le fonctionnement même de la combinatoire.

            Donc la nature est dotée d’un savoir dont la typologie est particulière, que l’on peut décrire en disant qu’elle a acquis une capacité de réaction aux perturbations qui apparaissent chez les êtres vivants actuels, perturbations qui sont viables compte tenu des autres êtres vivants. Cette résilience lui vient de son expérience que nous ignorons dans son déroulement exact car le contexte où se sont produites les mutations est inconnu. En revanche elle ne sait rien sur les perturbations dues à des artefacts.

            Et la plupart des molécules que l’on peut fabriquer avec les molécules d’ADN actuelles par scissions et recollements n’ont jamais été rencontrées par la nature. Si une telle molécule apparaît dans une coupelle, elle doit rester confinée. Si elle s’échappe, on ne saura pas d’où elle vient et on ne saura pas quels dégâts elle peut faire. Par exemple certains chercheurs ont fait des expériences avec un ADN artificiel comprenant deux bases nouvelles supplémentaires portant ainsi à six le nombre de nucléotides. Là on saute très loin en dehors de tout ce qui s’est passé depuis le début du système solaire.

            D’un point de vue philosophique, je pense fondamentalement que pour les molécules nouvelles, leurs propriétés, non seulement ne peuvent pas être connues, mais ne peuvent pas être énoncées comme des propriétés de ce petit bout de mécano en tant que tel, parce que les propriétés seront découvertes en même temps que les combinaisons qui auront lieu avec des choses qui existent. Autrement avec les six nucléotides, on est dans le vide cognitif absolu.

            Évidemment les biologistes ont pris conscience de certains de ces dangers, d’où les recommandations éthiques d’Asilomar et de Cartagène, mais malheureusement elles restent aujourd’hui actuellement au statut de vœux pieux, pour de multiples raisons dont la principale à mon avis est que cette prudence va à l’encontre de la compétition économique pour des productions plus performantes.

            Il faut dénoncer aussi les approches réductionnistes à la Fisher-Hamilton-Dawkins-Valiant [Ronald A. Fisher (1890-1962), William Donald Hamilton (1936-2000), Richard Dawkins (1941- ) Leslie Valiant (1949- )]. Il s’agit d’un courant qui sur-interprète la portée d’une modélisation mathématique du processus de l’évolution par un processus d’apprentissage. On voit assez bien ce que peut être ce processus, si on traduit les idées de Darwin de la survie du plus apte en les actualisant par les mécanismes de l’hérédité connus aujourd’hui : il y a du hasard mais aussi des fonctions à améliorer. L’algorithme du « recuit simulé » (simulated annealing en anglais) est le plus simple de ce genre et peut être décrit de la façon suivante : pour trouver le maximum d’un massif montagneux irrégulier on progresse en tirant un point dans un disque centré sur le point précédent (c’est le hasard), et on regarde si l’altitude en ce point est supérieure ou non à celle du point précédent (c’est l’optimisation des fonctionnalités), et on recommence. Ce type d’algorithme peut être élargi à plusieurs fonctions pour représenter celles du vivant et tenir compte des lois de la dynamique des populations, on arrive ainsi à des modélisations puissantes pourvu qu’on soit en mesure de caler les données pour alimenter le programme, et c’est là que le bât blesse. Si l’on suit les travaux de ces auteurs, on s’aperçoit que les facteurs de groupe d’une part, les facteurs de contexte d’autre part, passent progressivement du statut de choses difficiles à connaître au statut de choses que l’on néglige.

            C’est un point capital : le contexte est toujours négligé par les réductionnistes. Et ceci nous fait déjà toucher du doigt une question fondamentale qui se pose de façon récurrente autour de la biologie de synthèse. Les nouveaux êtres vivants fabriqués sont-ils la même chose que s’ils avaient été inventés par la nature ? Cela repose sur la croyance qu’existe un ensemble des natures possibles auquel on peut se référer et sur lequel s’appuyer pour raisonner. C’est croire que les êtres vivants actuels sont une sorte de « société vivante », comme il pourrait y en avoir beaucoup d’autres engendrées par le jeu des combinaisons génomiques tirées au hasard, puis sélectionnées parmi les viables. Toutes ces sociétés vivantes constituant des natures alternatives aussi légitimes et intéressantes que la nature que nous avons.

            Mais ces natures alternatives n’existent que dans l’inconscient onirique de biologistes rêveurs. Le monde n’est pas une salle blanche où l’on pourrait connaitre exhaustivement les êtres vivants qui participent à l’expérience ; ce n’est pas non plus une chaîne de Markov qui se promène dans son « espace d’état » que l’on connaîtrait. Là est la tare fondamentale de l’évolution pensée par Fisher-Hamilton-Dawkins et consorts.

DB : Nous touchons ici une des formes les plus envahissantes et arrogantes du scientisme contemporain.

NB : Dès le début des années 1970 Alexandre Grothendieck dénonce le scientisme comme une nouvelle religion, il écrivait : « … la seule religion qui ait poussé l’arrogance jusqu’à prétendre n’être basée sur aucun mythe, quel qu’il soit, mais sur la Raison seule, et jusqu’à présenter comme « tolérance » ce mélange particulier d’intolérance et d’amoralité qu’il promeut. »

On peut citer également Roger Godement, autre mathématicien, qui écrivait dans Le Monde en 1970 : « Le vrai problème, qui regarde les scientifiques en face depuis Hiroshima, est le suivant : comment transformer une société que ses dirigeants orientent vers la puissance, la mort et la destruction de la nature, la mise en carte de l’homme, en une autre qui serait, elle, orientée vers l’amitié, la vie, la conservation et la libération. »

DB : Je voudrais que vous nous expliquiez pourquoi les mathématiciens se sont trouvés parmi les premiers à s’élever contre cet optimisme technique joyeux et irresponsable ?

NB : Il y a évidemment dans le fonctionnement ordinaire de la science de l’incertitude à accepter, si on avance, c’est qu’on ne savait pas tout (pensons à la situation actuelle de la médecine avec la pandémie). Mais au-delà de l’incertitude, on doit accepter aussi une ignorance définitive, et cela est dû à la combinatoire.

            L’origine de cette prise de recul est une belle histoire qui mérite d’être contée. Lors du congrès international de 1900 à Paris, le grand mathématicien David Hilbert fit une des plus mémorables interventions en proposant 23 problèmes irrésolus à la sagacité des mathématiciens pour le siècle qui s’ouvrait. Ils donnèrent lieu à des recherches intenses qui ont fourni maintenant presque toutes les réponses. C’est ce que pensait Hilbert. Dans la rédaction écrite de son exposé, il explique que toutes les conjectures tomberont les unes après les autres, soit montrées exactes, soit montrées fausses. Il écrivit que jamais les mathématiciens n’accepteront de dire ignorabimus, nous ne saurons jamais.

​            Que les mathématiciens aient été à l’avant garde de cette prise de conscience n’est pas surprenant. En mathématiques, on peut démontrer qu’il y aura ignorance définitive. Dans les autres disciplines on rencontre cette éventualité, mais on ne dispose pas des outils pour la démontrer. L’origine de cette ignorance fondamentale est due à ce que la combinatoire nous réserve des surprises. La dangerosité d’une nouvelle molécule lancée dans la nature est strictement inconnaissable, avant qu’on constate ses combinaisons.

            Une vingtaine d’années plus tard, dans les années 1950, lors de la révolution combinatoire de la biologie, les biologistes se sont empressés d’oublier les limitations internes des formalismes. Pierre Samuel écrivait en 1971 : « L’oubli des limitations de la science est la cause directe de plusieurs des mythes qui constituent le credo du scientisme. »

            Et pourtant c’est ce qui fut démontré trente ans plus tard par Kurt Gödel, Alonzo Church et Alan Turing. Il y a de l’indécidable. L’arithmétique est incomplète.

​Et dès lors que la limitation n’est pas démontrée à l’intérieur des disciplines, on s’emploie à minimiser sa portée. Aussi n’est-il pas surprenant que les arguments d’autorité pour le progrès se multiplient.

            Le prix de la banque de Suède d’économie a été décerné en 2018 à William Nordhaus qui s’était fait connaître en critiquant le premier rapport au Club de Rome, selon l’argument qu’ils avaient oublié le progrès. Jean-Marie Lehn, prix Nobel, signataire à la fois de l’appel de Heidelberg qui, rappelons-le, tentait de saper la pensée écologique juste avant le sommet de la Terre de Rio, et de la lettre ouverte pour les OGM contre Greenpeace, plaide contre tous les freins aux OGM dans un article intitulé « Le chercheur ne croît pas, il pense », question pourtant déjà visitée par Heidegger qui pensait au contraire que la science n’avait pas les moyens de sa propre gouverne. Et maintenant Emmanuelle Charpentier et Jennifer Doudna sont nobélisées sur Crispr-cas9 pour avoir trouvé ces outils soi-disant pour soigner, en fait qui facilitent les agissements des bricoleurs et de ceux qui veulent nuire. Dans le magazine Nature, (22 Dec. 2015), celle-ci explique qu’un jeune doctorant a créé un virus qui, une fois respiré par des souris, provoque des mutations dans leurs poumons. Elle souligne qu’une minuscule erreur de conception aurait pu permettre que ce virus fonctionne aussi chez l’homme : « Il m’a semblé incroyablement effrayant, écrit-elle, qu’il y ait des étudiants qui travaillent sur une telle chose. Il est important que les gens commencent à comprendre ce que cette technologie peut faire« . Quelle naïveté de croire que les biologistes adultes soient plus sages que les jeunes !

            Ceci se relie aux biais de notre société médiatisée, on fait volontiers parler le savant qui dit « je sais », ça fait une émission, tandis qu’on ne voit pas l’intérêt d’inviter celui qui dit « je ne sais pas et je pense que nous ne saurons jamais ».

DB : A cet égard il est frappant qu’avec le climat les scientifiques qui prêchaient la prudence n’étaient pas écoutés et ne le sont toujours pas ; alors qu’en biologie, c’est l’inverse, les scientifiques se sont approprié une communication triomphaliste.

NB : Oui, au point qu’ils laissent diffuser sans réagir des propos purement fantasmagoriques.

            En janvier 2016 le magazine Science et Vie déroule un long article à propos de Crispr-cas9, avec des illustrations faisant illusion d’une présentation scientifique, dont les têtes de chapitre sont les suivantes :

– Optimiser les gènes pour doper les individus « rien ne sera plus facile que de modifier les gènes qui régulent nos muscles et nos globules rouges ».

– Soigner toutes les maladies « même des maladies non génétiques comme le cancer et le sida pourraient être traitées par des cellules mutées ».

– Éradiquer les espèces nuisibles.

– Corriger le patrimoine génétique de toute sa descendance – Inventer de nouveaux animaux de compagnie.

– Etc.

– Ressusciter des animaux disparus.

– Sauver les espèces en danger.

Quel effet ces mensonges peuvent-ils faire sur les jeunes ? Il s’agit de manipulation pure et simple. Je pense aux pauvres professeurs qui ont à contenir ces flots de boniments par des moyens désintéressés !

            La prudence est aux antipodes du profit économique, il est maintenant indispensable de la réhabiliter. D’autant plus que l’eugénisme rampant auquel on a déjà entr’ouvert la porte est une vigoureuse force économique qui va s’enflammer sans aucune sagesse. Si Marx et Freud ont comparé les religions à de la drogue, l’addiction sera là bien plus forte et inscrite dans les gènes. J’en ai évoqué les raisons précises sur mon blog (http://www.nicolasbouleau.eu/lincendie-eugeniste-qui-couve-est-il-resistible/).

            Il y a évidemment une croyance à la providence derrière le scientisme fonceur de beaucoup de biologistes, selon le principe « on peut tout essayer ça s’arrangera ». Je consacre une partie de mon livre à une histoire de la providence dans la pensée philosophique et scientifique, assez convaincante je crois.           

            Mais il faut laisser le lecteur découvrir d’autres aspects que je développe dans l’ouvrage liés à ce savoir très particulier de la nature, savoir partiel et en même temps le plus précieux qu’on puisse avoir sur ces questions de combinatoire.

DB : Pouvez-vous revenir sur un point pour être bien clair, sans dévoiler les autres thèmes que vous abordez dans le livre, il serait bon de mieux expliquer l’importance que vous accordez à l’ignorance définitive ?

NB : Oui, l’ignorance qu’elle soit définitive ou provisoire, on pourrait dire que ça ne change rien. Ça veut simplement dire qu’on ne sait pas. Je pense au contraire que c’est un changement radical de vision. Ce dont les scientistes nous rebattent les oreilles, c’est cela : on ne sait pas, mais on est sur le point de savoir. Ce qui signifie « continuons comme avant », selon la méthode « essayer pour voir ». La doctrine sous-jacente n’est pas proclamée, mais elle est appliquée : les OGM sont acceptés et se répandent pour des raisons économiques, et il en sera de même pour l’eugénisme qui est à portée de main.

            Ma conviction — j’ai écrit plusieurs essais sur ce thème — est que la prudence est un champ de préoccupation où les scientifiques ont un rôle majeur à jouer, d’ailleurs passionnant, bien plus intéressant que l’intelligence artificielle ou le boson de Higgs. C’est un domaine clé qui s’appuie sur l’écologie et touche la psychologie et la politique. Les scientifiques qui sont compétents aujourd’hui sur les problèmes d’environnement, de biodiversité, d’écologie ne sont pas indissolublement liées à ce scientisme. Ils ont une écoute, une sensibilité qui accueille comme des matériaux légitimes les éventualités, les possibles, et tentent de dégager derrière des craintes subjectives apportées par des témoins particuliers, des domaines d’investigation désintéressés et collectifs, qui portent sur les dégâts éventuels ou les risques. Donc il y a dans cette communauté la possibilité de construire effectivement des démarches de prudence. Ce n’est pas parce qu’il y a de l’inconnu définitif qu’on ne peut rien faire, au contraire cela est une provocation puissante à côté de laquelle bien des agissements des biologistes apparaissent immatures et compulsifs. A la marge de cette nature, à condition qu’on la respecte et à condition que l’on tienne compte de son savoir, il y a la possibilité d’agir avec elle et ça je pense que beaucoup d’écologistes l’ont compris.