311 19 3MB
French Pages [189] Year 2007
LA NÉCESSITÉ DU HASARD
LA NÉCESSITÉ DU HASARD
Vers une théorie synthétique de la biodiversité Alain PAVÉ
17, avenue du Hoggar Parc d’activités de Courtabœuf, BP 112 91944 Les Ulis Cedex A, France
Conception graphique de la couverture : Béatrice Couëdel Illustration de couverture : Musée des Tissus et des Arts décoratifs Photo de Pierre Verrier
Imprimé en France
ISBN : 978-2-86883-942-8
Tous droits de traduction, d’adaptation et de reproduction par tous procédés, réservés pour tous pays. La loi du 11 mars 1957 n’autorisant, aux termes des alinéas 2 et 3 de l’article 41, d’une part, que les « copies ou reproductions strictement réservées à l’usage privé du copiste et non destinés à une utilisation collective », et d’autre part, que les analyses et les courtes citations dans un but d’exemple et d’illustration, « toute représentation intégrale, ou partielle, faite sans le consentement de l’auteur ou de ses ayants droits ou ayants cause est illicite » (alinéa 1er de l’article 40). Cette représentation ou reproduction, par quelque procédé que ce soit, constituerait donc une contrefaçon sanctionnée par les articles 425 et suivants du code pénal.
© EDP Sciences 2007
De l’une des discussions juridico-mathématiques des Babyloniens surgit la conjecture suivante : si la loterie est une intensification du hasard, une infusion périodique du chaos dans le cosmos, ne conviendrait-il pas que le hasard intervînt dans toutes les étapes du tirage et non plus dans une seule ? J.L. Borges, La Loterie de Babylone, in Fictions.
Avant-propos Au début de la rédaction de ce texte, l’objectif était de défendre une nouvelle fois l’idée, déjà évoquée par Darwin et bien d’autres après lui, en particulier Jacques Monod, selon laquelle le hasard, dont, le plus souvent, nous aimerions bien diminuer l’importance, voire l’évacuer, intervient de façon essentielle dans l’évolution des êtres vivants. Puis, en avançant dans la réflexion, il est apparu qu’il en est un principe indispensable et qu’en duo avec la nécessité, dont la sélection naturelle est une des facettes, il joue la tragi-comédie de cette évolution. Il serait donc un élément déterminant, sinon le facteur primordial, à prendre en compte dans ce qu’on appelle aujourd’hui la dynamique de la biodiversité, à savoir la diversification, la disparition ou le maintien des systèmes vivants de notre planète. En progressant encore, il est apparu raisonnable de supposer que des processus propres à ces systèmes engendrent du hasard et qu’ils seraient apparus spontanément et auraient été, eux aussi, sélectionnés au cours du temps. C’est ce que nous appelons des « roulettes biologiques », car, à l’image des dispositifs mécaniques, ils produisent des phénomènes à caractère aléatoire. Il faut donc en tenir compte, y compris dans des aspects très pratiques de manipulation, de gestion ou d’ingénierie des systèmes vivants. Nous sommes donc passés d’une vision strictement contingente d’un hasard imposé, d’une espèce d’entité externe qui agite le monde de la vie, à une conception qui distingue d’une part les aléas environnementaux perturbant ce monde et, d’autre part, un hasard intrinsèque
7
LA NÉCESSITÉ DU HASARD
engendré par des mécanismes biologiques et écologiques sélectionnés durant l’évolution. Ce dernier hasard est au centre de notre discussion, il est le facteur essentiel de la diversification et de la dispersion des êtres vivants. Or diversification et dispersion constituent une réponse aux aléas environnementaux qui peuvent mettre en danger de nombreuses formes de vie comme le montre l’histoire des grandes extinctions sur notre planète. Le hasard intrinsèque est donc une sorte de réaction au hasard subi, celui des aléas. Le procédé est d’autant plus efficace qu’on trouve des mécanismes, les roulettes biologiques, produisant ce hasard intrinsèque à tous les niveaux d’organisation, du gène à l’écosystème. Aussi, le hasard produit par ces roulettes et générateur de diversité biologique est-il une sorte d’assurance pour la vie. Ces idées peuvent s’exprimer rapidement, une page suffit… Mais si on souhaite établir une démonstration pour convaincre le lecteur et en explorer les différents aspects, on ne peut s’en contenter. Au bout du compte, le texte obtenu est à la fois une reprise de connaissances bien établies, mais nécessaires pour étayer le raisonnement, et une présentation de résultats récents, voire de questions encore en débat, non moins indispensables pour avancer dans la démonstration. Il y avait peut-être d’autres solutions, mais c’est celle qui s’est imposée progressivement au cours de la rédaction. Elle a eu au moins une utilité pour l’auteur, celle de revisiter une partie de ses connaissances et d’avoir l’impression de progresser dans une vision intégrée de la biologie. Si l’on peut être convaincu que le hasard joue un rôle important, sinon essentiel, dans l’évolution et le fonctionnement de beaucoup de systèmes vivants, et si des processus biologiques et écologiques engendrent ce hasard, il reste à formuler des hypothèses sur ces roulettes biologiques. C’est ce que nous avons tenté de faire dans un chapitre dévolu à la modélisation. À cette fin, nous avons supposé qu’à l’image des systèmes mécaniques engendrant des résultats distribués au hasard, les processus biologiques impliqués sont des « systèmes dynamiques » au sens des mathématiciens. Dans certaines conditions, ces systèmes exhibent des comportements chaotiques ; on peut alors se demander dans quelles mesures ce chaos ressemble à du hasard. Cette hypothèse est raisonnable, si on examine les modèles classiques de la biochimie, de la biologie ou de l’écologie. C’est ainsi qu’on a pu montrer que des variables chaotiques peuvent avoir des propriétés analogues à celles qui sont connues pour les variables aléatoires. Cette observation montre que des
8
Avant-propos
mécanismes parfaitement déterministes de type biologique peuvent engendrer des résultats ayant de fortes similarités à ceux produits par des processus stochastiques. Au cours de l’évolution, il est alors loisible de penser que de tels mécanismes soient apparus et aient été sélectionnés. Cependant, les organismes sont des « machines vivantes », exhibant de fines régulations qui semblent laisser peu de place au hasard, sauf peutêtre pour faire face à certains imprévus, comme l’ingestion d’agents infectieux inconnus qui seront détectés et combattus par des systèmes immunitaires faisant large place à des combinatoires. Pour eux, la nécessité du fonctionnement « de tous les jours » limiterait le rôle du hasard et sa production à seulement quelques fonctions, encore que l’on en découvre de plus en plus. On constate aussi qu’aux autres niveaux d’organisation, le hasard et les mécanismes qui le produisent jouent un rôle important ; ils apparaissent même prépondérants, voire nécessaires pour le maintien de la vie elle-même. Enfin, la « question de la biodiversité » est beaucoup plus vaste que le domaine couvert par cet ouvrage. L’objectif n’était pas d’en envisager toutes les facettes, notamment humaines (sociales, culturelles ou économiques). Depuis quelques années d’excellents ouvrages leur sont consacrés. Il s’agit ici de faire le point sur les aspects biologiques et écologiques, du gène à l’écosystème, afin de tracer les grandes lignes d’une théorie « biologique » de la biodiversité et d’en tirer des conséquences pratiques. En effet, il est de la responsabilité première des scientifiques d’essayer de construire des édifices théoriques et de ne pas se limiter à des « listes à la Prévert » de résultats ponctuels. Cette voie est la plus efficace pour élaborer des règles et des techniques utiles, notamment pour l’ingénierie et la gestion des systèmes vivants. Ainsi pour nombre d’entre eux, notamment les systèmes écologiques, il semble que la prise en compte du hasard et des mécanismes qui l’engendrent permet de mieux expliquer leur fonctionnement spontané, alors qu’on ne prête pas une attention suffisante pour les décrypter et en tirer des conséquences pratiques. C’est ce que nous avons essayé de faire ici1. 1. J.-C. Mounolou a cité ce travail en « avant-première » lors de la réunion inaugurale des sessions de l’année 2005 de l’Académie d’agriculture de France qui marquait également le début de son mandat de président de cette Académie. Une version résumée a été publiée à l’époque sous l’intitulé : « Hasard, nécessité et biodiversité : une assurance pour la vie » sur le site web http://www.academie-agriculture.fr/ (publications/notes de conjoncture), janvier 2005.
9
Sommaire Avant-propos ..........................................................................
7
1. Le hasard en question ......................................................... I. Introduction............................................................................... II. Différentes utilisations du mot « hasard » en sciences ......... Encadré 1. Génération de nombres pseudo-aléatoires................
15 15 18 24
2. Le hasard dans les systèmes vivants ............................... I. Le hasard et la nécessité ............................................................ II. Mécanismes connus de diversification génétique ................. Encadré 2. Brassage du génome : représentation schématique des principaux mécanismes connus ..................... III. La cellule et l’organisme : un hasard limité........................... Encadré 3. Compétition et coopération ....................................... IV. Lignées, populations et espèces : au hasard des rencontres, des accouplements et des perturbations ........... Encadré 4. Populations, métapopulations, espèces .................... V. L’évolution et ses théories : au hasard des modifications génétiques ...................................................................................... VI. Le hasard écologique : vivre et subsister ensemble, faire face aux risques environnementaux ................................... Encadré 5. Exclusion compétitive................................................. Encadré 6. La coévolution............................................................. Encadré 7. Frugivorie et dissémination des graines : l’exploitation de Cecropia obtusa par la chauve-souris Artibeus jamaicensis.......................................................................
31 32 36 42 49 53 58 59 62 67 68 77
80
11
LA NÉCESSITÉ DU HASARD
VII. Hasard, chaos et complexité ................................................ VIII. Hasard et niveaux d’organisation du vivant ..................... Encadré 8. Comment les systèmes vivants s’organisent-ils ? ......... IX. Conclusion............................................................................... 3. Des enseignements pour la gestion des systèmes vivants ................................................................. I. Les organismes ........................................................................... II. Les populations et les écosystèmes.......................................... III. La biodiversité ......................................................................... IV. L’information et le patrimoine génétiques ........................... V. La conservation des ressources génétiques............................. VI. Les modifications génétiques : hybridation et sélection...... VII. Les manipulations génétiques : insertion de gènes ............ VIII. Le clonage ............................................................................. IX. Les molécules actives d’origine biologique .......................... X. Les limites et les conséquences de l’intervention de l’Homme sur les systèmes vivants........................................... XI. Les technologies bio-inspirées et biomimétiques ................ 4. L’apport des modèles et de la modélisation : quelques exemples ..................................................................... I. Génétique et calcul des probabilités : lois élémentaires, évolution dans le temps de la constitution génétique d’une population........................................................................... II. Du chaos au hasard : les roulettes biologiques – exemple à partir du modèle logistique en temps discret............ III. Le modèle logistique en temps continu et l’évolution de la biodiversité .......................................................................... IV. Vers un schéma général de la modélisation des systèmes vivants et de leurs diversités ................................... Annexe À propos de l’évaluation de la biodiversité : exemple de la Guyane française............................................... I. Une grande diversité.................................................................. II. La diversité spécifique et son évaluation : données, certitudes et incertitudes ..............................................................
12
92 99 100 103
109 110 111 112 113 114 114 116 118 119 121 122
123
124 129 137 146
149 150 151
Sommaire
III. La biodiversité à grande échelle physique ............................. IV. Observations multiéchelles et multiniveaux : du gène à l’écosystème.................................................................. V. Un terrain très favorable pour les recherches sur la biodiversité et sa dynamique..............................................
159
Glossaire ......................................................................................
167
Références bibliographiques ....................................................
175
Remerciements ...........................................................................
185
159 161
13
CHAPITRE
1
Le hasard en question … que se él fuera de su consejo al tiempo de la general criación del mundo, i de lo que en él se encierra, i se hallá con el, se huvieran producido i formado algunas cosas mejor que fueran hechas, i otras ni se hicieran, u se emmendaran i corrigieran. Alphonse X le Sage, Roi de Castille et de Léon, 1221-12841.
I Introduction Quand on s’intéresse à la biologie et à l’écologie, il est étonnant de constater le rôle tenu par le hasard dans beaucoup de phénomènes vitaux, souvent dans une subtile alliance avec des déterminismes bien solides. 1. Version originale donnée par Jim Murray dans l’un de ses ouvrages (2001) ; traduit en français moderne courant, cela donne à peu près : « Si le Dieu Tout-Puissant m’avait consulté avant de planifier sa création, je lui aurais recommandé quelque chose de plus simple. » Elle aurait été émise lorsque ce souverain remarquablement curieux et cultivé fut initié au système de Ptolémée. Cette idée semble intéressante, d’autant plus que ce livre procède du contraire : ce monde marche peut-être parce qu’il est sinon compliqué du moins complexe… On peut aussi penser que c’est non pas au monde, mais au modèle de Ptolémée auquel Alphonse X fait allusion, qui n’est pas facile à comprendre et c’est toute la qualité de Nicolas Copernic d’avoir élaboré une représentation plus simple et conforme au réel. Cette référence historique est tirée de Koestler (1968).
15
LA NÉCESSITÉ DU HASARD
La présence souvent soupçonnée de régimes chaotiques ou intermittents, quelquefois assimilés à du hasard, est aussi une surprise. En effet, une vision sans doute naïve laisserait supposer que pour assurer un bon fonctionnement, le hasard, l’erratique, le chaotique doivent être bannis, ainsi qu’on essaie de le faire dans les systèmes technologiques2. Cette constatation débouche sur plusieurs questions : pourquoi l’évolution, qui par ailleurs a produit tant de résultats étonnants, n’a-t-elle pas abouti à la sélection de systèmes vivants purement déterministes ? De fait, le hasard semble jouer un rôle essentiel, mais lequel ? Alors les processus engendrant du hasard n’auraient-ils pas été sélectionnés ? Dans le couple formé par le hasard et la nécessité, le hasard ne serait-il pas aussi nécessaire ? Les systèmes vivants changent au cours du temps, quelle que soit l’échelle où l’on se place, de celle de l’évolution des êtres vivants, jusqu’au temps de la vie des organismes et à celui des processus cellulaires. Ces systèmes sont aussi de différentes dimensions, de celle, microscopique, des cellules à celle, planétaire, de la biosphère, en passant par les tailles petites ou moyennes (géographiques) des populations et des écosystèmes. Les échelles de temps et d’espace qui caractérisent ces systèmes sont en gros corrélées : aux processus les plus rapides correspondent les tailles les plus petites, aux plus lents les dimensions les plus grandes. Or, le hasard joue dans l’espace et dans le temps, à toutes ces échelles, par des successions d’évènements et des distributions spatiales aux allures plus ou moins aléatoires. C’est particulièrement vrai dans les niveaux d’organisation supérieurs à celui des organismes, c’est-à-dire dans ceux de la population à l’écosystème, voire de la biosphère dans son ensemble. Curieusement encore, la prise en compte par les biologistes des dimensions spatiales et temporelles dans l’étude du vivant est relativement récente. Cela mérite quelques précisions.
2. Cependant, la sensibilité aux conditions initiales, qui caractérise les systèmes chaotiques, permet quand même des prévisions à court terme et même de modifier à moindre coût la dynamique d’un tel système. En effet, comme nous pouvons le voir plus loin (cf. figure 2.7), deux trajectoires voisines au départ ne divergent pas immédiatement. Ainsi, si l’on dispose d’un bon modèle, il est possible de prévoir l’état du système chaotique au bout d’un intervalle pas trop long. C’est ce que tentent de faire les météorologues. Dans le cas de systèmes technologiques à comportements chaotiques, on peut aussi calculer l’impulsion à donner pour arriver au bout d’un moment au voisinage d’une valeur choisie à l’avance et donc contrôler un tel système sur des intervalles de temps courts. On imagine sans peine l’algorithme de contrôle.
16
Le hasard en question
Le temps est la première dimension considérée. Les modèles démographiques de Malthus et de Verhulst datent l’un de la fin du XVIIIe siècle et l’autre du milieu du XIXe. Les processus de ramification ont vu le jour à la fin de ce même XIXe siècle. Cependant, la dynamique des populations n’émerge véritablement que dans les années 1920-1930 avec la redécouverte du modèle logistique par Pearl, les modèles de Lotka-Volterra, puis grâce à l’apport de l’école soviétique sur les systèmes dynamiques (Gause, 1935, Kostitzin, 1937). En outre, les premiers modèles démographiques en temps discrets sont publiés dans la revue Biometrika (Leslie, 1945)3. On retiendra enfin deux contributions majeures, celle de Georges Teissier et de Jacques Monod. Teissier est d’abord connu pour ses travaux sur la croissance des organismes et sur la théorie synthétique de l’évolution. Dans les années 1930, il fait aussi éditer beaucoup des travaux contemporains d’écologie théorique, notamment ceux de l’école soviétique. Quant à Monod, il propose dans sa thèse, soutenue en 1942, un modèle de la dynamique de populations bactériennes qui s’est révélé d’une grande utilité théorique et pratique. L’élaboration et la vérification expérimentale de ce modèle constituent le premier véritable exposé méthodologique sur la modélisation en biologie. Enfin, il intègre le temps long, celui de l’évolution, dans son ouvrage ultérieur Le Hasard et la Nécessité, en 1970, sur lequel nous reviendrons. La prise en compte de l’espace est plus récente, sans doute parce que l’on est resté longtemps démuni pour analyser et modéliser les distributions spatiales aussi bien que les processus à l’origine de ces distributions4. 3. Plus tard, il a été démontré que ces modèles étaient en fait les modèles moyens de processus stochastiques, les processus de ramification, ou de Galton-Watson (Lebreton, 1981). Nous avons aussi mis en évidence les relations avec la théorie des langages de Lindenmayer utilisée pour représenter les formes et surtout les processus morphogénétiques (Pavé, 1979). On en trouvera l’exposé didactique dans Pavé (1994). 4. On ignore encore trop souvent que les distributions spatiales, et plus généralement les formes que nous observons, que ce soient celles d’organismes ou celles de paysages, ou encore de répartition de la végétation sur les continents, et même celle des continents euxmêmes, résultent de processus temporels. Ces formes changent dans le temps à des vitesses variables. Comme le disait Bergson : « Toute forme a son origine dans le mouvement qui la trace. La forme n’est que le mouvement enregistré » (cité fort justement par Y. Souchon et al., en 2002, à propos de la forme des cours d’eau). Mais selon l’échelle d’observation, le niveau d’organisation considéré et la nature des processus, on pourra négliger ou non ces changements. Par exemple, si on regarde la couverture végétale des continents qui varie de l’échelle décennale à l’échelle millénaire, on pourra négliger la dérive des continents. Cela n’est plus vrai si l’on fait de la paléoécologie à l’échelle du million d’années.
17
LA NÉCESSITÉ DU HASARD
Certes, la répartition des êtres vivants dans l’espace géographique est l’objet de la biogéographie, née au début des années 1950. La géostatistique est alors en partie développée pour ce type d’analyse. Dans cet arsenal, on trouve des méthodes de représentations (analyse des données) et des tests, par exemple pour vérifier le type de répartition spatiale. Le modèle du hasard est le plus souvent la distribution uniforme dans l’espace. On signalera aussi des approches d’océanographie biologique, par exemple l’adaptation du modèle théorique de Fisher à la dynamique de populations halieutiques. Mais dans tous les cas et jusqu’à récemment, on peine à prendre en compte l’espace physique et surtout à associer espace et temps, à spatialiser les processus et les dynamiques biologiques et écologiques, à coupler les processus géo-physico-chimiques, qu’ils soient déterministes ou stochastiques. Mais revenons au hasard. Avant de discuter de l’utilisation de ce mot dans les sciences du vivant et de la réalité qu’il recouvre, il est souhaitable de rappeler son statut dans d’autres disciplines. Ce n’est pas par souci d’érudition, mais parce que la façon de le voir dans les autres champs disciplinaires peut susciter des idées nouvelles pour les sciences de la vie.
II Différentes utilisations du mot « hasard » en sciences Le « hasard » qualifie des phénomènes qu’on ne peut prévoir a priori. Par exemple, lorsqu’on lance un dé, le numéro qui sortira n’est pas connu à l’avance si le lancé est correct et le dé bien équilibré. De même certains phénomènes naturels apparaissent imprévisibles : foudre, chute de météorites, pluies anormalement abondantes… Au fond, le hasard fait partie de notre vie quotidienne et nous avons pris l’habitude de vivre avec. Dans un ouvrage intitulé Les Probabilités et la vie paru en 1943, Émile Borel en a parlé très concrètement (entendre par « vie », notre vie de tous les jours et non pas la vie au sens biologique). Mais examinons son utilisation dans les sciences. On distingue cinq grandes acceptions : – le « hasard » du physicien des particules qui intervient, par exemple, dans l’interprétation de la relation d’incertitude d’Heisenberg ;
18
Le hasard en question
– le « hasard » du statisticien qui est rangé dans un terme d’erreur, une espèce de « corbeille à papier », dans laquelle on met ce qui échappe au contrôle de l’expérimentateur ou de l’observateur ; – le « hasard » du probabiliste qui intervient pour discuter des expériences à issues incertaines, par exemple des « jeux de hasard » ou d’autres situations pouvant se ramener à un tel schéma ; – le « hasard » du numéricien et de l’informaticien, simulé par des algorithmes engendrant des nombres pseudo-aléatoires (des « roulettes » numériques) qui permet notamment de résoudre des problèmes déterministes ; – le « hasard » du spécialiste des risques qui s’intéresse aux phénomènes aléatoires ou aléas de l’environnement, principalement d’origines naturelles, comme les inondations, les séismes ou les avalanches. Certains résultent de régimes plutôt chaotiques, par exemple en météorologie. On parle de « risque » lorsque l’occurrence d’un tel événement peut mettre en danger les biens ou les personnes. Le terme est aussi utilisé dans d’autres aspects de la vie courante, par exemple lorsqu’on parle de « risque économique ». On peut encore élargir ces notions à d’autres perceptions qu’humaines. Ainsi les systèmes vivants sur la Terre subissent des aléas environnementaux, qui peuvent les altérer et même qui risquent de les faire disparaître. Contrairement à ce que pourrait laisser croire une première intuition, toutes ces façons d’approcher l’imprévisibilité d’un résultat d’une expérience ou d’un phénomène diffèrent profondément. Cependant, le merveilleux point commun est de pouvoir en traiter mathématiquement et avec pratiquement les mêmes outils théoriques. Enfin, la situation se complique quelque peu depuis la découverte du « chaos déterministe », c’est-à-dire de successions d’événements qui semblent se produire au hasard, mais qui résultent de l’application d’algorithmes qui sont, par définition, parfaitement déterministes. Et les faits sont encore plus curieux lorsqu’on constate que d’autres algorithmes peuvent simuler du hasard.
1. La relation d’incertitude d’Heisenberg Dans les années 1920, s’intéressant notamment aux mesures sur l’électron « tournant » autour du noyau d’un atome, Heisenberg postule qu’on ne peut pas déterminer simultanément sa position et sa quantité
19
LA NÉCESSITÉ DU HASARD
de mouvement avec la précision que l’on désire. Si l’on augmente la précision d’une des mesures, on en perd autant sur l’autre. Ainsi, si l’on détermine a priori une quantité de mouvement, on ne peut définir qu’un domaine de l’espace dans lequel la particule a « de grandes chances de se trouver », ce qui se traduit mathématiquement par « une densité de probabilité » de présence. Plus généralement, d’après E. Balibar et P. Macherey (E.U. 2003) : « Les incertitudes sur les deux variables “conjuguées” p et q [correspondant respectivement à la vitesse et la quantité de mouvement] ne sont pas indépendantes. On ne peut pas poursuivre la détermination de l’une d’elles avec une précision croissante sans rendre par là même de plus en plus grande l’erreur portant sur l’autre. À la limite, une précision absolue dans la localisation de la particule correspondrait donc à une quantité de mouvement complètement indéterminée, et réciproquement. Il est donc impossible de définir ici, d’une façon qui ait un sens théorique, “l’état initial” du mouvement d’une particule d’une façon qui permette la prévision selon le schéma déterministe de la mécanique classique. » Cette incertitude « fondamentale » a fait couler beaucoup d’encre et de salive. Il n’est pas de notre propos d’en discuter plus avant, sauf pour préciser qu’elle est spécifique au monde de l’infiniment petit, celui des particules. Or notre propos est de discuter de « hasard » aux échelles du vivant, c’est-à-dire de celles de la biologie moléculaire à celles de l’écologie. Néanmoins, cette idée jette un trouble dans les certitudes du déterminisme.
2. Le hasard du statisticien Le statisticien s’intéresse aux mesures ou événements selon l’idée qu’ils résultent d’un phénomène fondamental et d’une combinaison de facteurs « incontrôlés » perturbateurs. Si bien qu’en répétant les observations, toutes choses égales par ailleurs, les résultats successifs diffèreront « plus ou moins ». Le schéma le plus simple est le « modèle linéaire » (ou additif). Il peut se compliquer (multiplicatif ou autre), mais rien ne change au fond. Il est donc suffisant pour comprendre le problème du hasard du statisticien. Ainsi, une mesure m est vue comme le résultat d’un phénomène « principal », donnant une valeur µ à laquelle s’ajoute une « erreur » e, produite par des facteurs « non contrôlés » : m = µ + e (la quantité e peut être positive ou négative). La
20
Le hasard en question
question fondamentale de la statistique est « d’estimer » µ et de pouvoir dire quand une mesure ou une estimation diffère d’autres obtenues dans des conditions voisines. Le hasard intervient donc dans le terme e. Ce terme est analogue au terme d’erreur des physiciens et l’on retrouve ici la vision laplacienne du hasard résultant d’un ensemble de facteurs non connus. Prenons un exemple classique issu de l’agronomie, en soulignant qu’en majeure partie la statistique s’est développée à partir de problèmes très concrets dont beaucoup ont été fournis par ce domaine scientifique et technique5. Supposons que l’on veuille savoir si un produit chimique est un engrais, s’il agit sur la productivité végétale en augmentant le rendement d’une culture. Pour cela on peut réaliser une expérience simple : une parcelle témoin, sans engrais, et une parcelle traitée, avec engrais, sont cultivées en même temps. On obtiendra deux rendements m0 et m1. Mais peut-on assurer que m1 est « significativement différent », de m0 ? Et que l’engrais a un effet, même si m1 est supérieur à m0 ? En effet, on s’aperçoit vite que si plusieurs témoins sont réalisés, des valeurs différentes seront obtenues. Il en est de même pour les parcelles traitées. Sauf dans les cas extrêmes, par exemple si les rendements mesurés sur les parcelles expérimentales sont tous supérieurs à ceux des témoins, il sera difficile de conclure. Les différences entre parcelles témoins ou entre parcelles traitées sont interprétées comme résultant de « facteurs non contrôlés » – seules les quantités respectives de semences et d’engrais sont connues – par exemple des sols naturellement plus ou moins fertiles ou une hétérogénéité génétique des semences ou encore des conditions microclimatiques légèrement différentes. Pour dire si les différences observées peuvent ou non être attribuées au traitement, les statisticiens élaborent des tests statistiques. Le principe de base consiste à construire un modèle mathématique de la dispersion des résultats, sous ce que l’on nomme « l’hypothèse nulle », c’est-à-dire que les différences sont supposées « non significatives », seulement dues
5. Sir Ronald Fisher, sans doute l’un des plus célèbres statisticiens du XXe siècle, a effectué une grande part de ses travaux à partir de tels exemples. Il fut aussi un généticien des populations et l’un des premiers auteurs de la théorie synthétique de l’évolution (cf. chapitre 2, section V). Il a longtemps travaillé à la station agronomique de Rothamsted en Grande-Bretagne.
21
LA NÉCESSITÉ DU HASARD
au hasard, à un « bruit de fond » induit par la multiplicité des effets des facteurs non contrôlés. Ces différences sont interprétées comme des erreurs de mesure. Le modèle permet d’évaluer la probabilité du résultat observé. Si cette probabilité est faible, par exemple inférieure à 0,05, seuil fixé a priori, l’hypothèse nulle est rejetée et l’on conclut à la différence significative entre les valeurs testées et donc à l’effet du traitement. On notera au passage que, même en dehors de la statistique, beaucoup de nos raisonnements et de nos modèles de « décision » se fondent sur l’équivalent des modèles de la statistique construits sous cette hypothèse nulle. Ils sont puissants face au rejet de cette hypothèse. C’est par exemple le cas dans les enquêtes judiciaires où la personne interrogée est supposée a priori innocente (hypothèse nulle). Le juge d’instruction rejettera cette hypothèse si au moins un fait la met en défaut. En fait, le hasard du statisticien est bien une espèce de « corbeille à papier » dans laquelle on range tout ce qu’on ne connaît pas ou ce qu’on a décidé d’ignorer et supposé du « deuxième ordre » par rapport au phénomène principal qu’on étudie. Ce « deuxième ordre » agit de manière apparemment erratique, aléatoire, une sorte de bruit de fond. Cela étant, même si ce point de vue sur le hasard est encore largement majoritaire, les statisticiens s’intéressent aussi aux processus dits « stochastiques », c’est-à-dire des événements se produisant dans le temps et dans l’espace. C’est par exemple le cas des variations des cours de la Bourse ou de la distribution d’individus dans un espace géographique. Les méthodes qu’ils mettent au point permettent de tester par exemple les hypothèses d’indépendance des tendances journalières des cours ou l’uniformité de la distribution spatiale des individus (hypothèses nulles). Ils rejoignent ainsi d’une autre façon le point de vue des probabilistes. De plus, ils peuvent aussi apporter une contribution déterminante pour l’estimation des paramètres de ce type de processus ou même de modèles déterministes (on trouvera un exemple dans le chapitre 4).
3. Le hasard du probabiliste Le hasard du probabiliste est construit à partir d’expériences supposées parfaites donnant des résultats non prédictibles. Le « plus grand des hasards » est obtenu lorsque les expériences ont plusieurs résultats possibles avec la même probabilité. C’est le cas par exemple des jeux de hasard,
22
Le hasard en question
le plus simple étant celui de pile ou face. Si on lance « parfaitement » une pièce de monnaie « parfaitement » équilibrée (et pour les tatillons, avec une tranche infiniment mince), on a une chance sur deux d’obtenir l’un des deux résultats possibles. Et de fait, cela concorde assez bien avec ce qu’il advient avec une pièce réelle. Cela veut dire que si l’on répète un grand nombre de fois l’expérience, « en moyenne » une fois sur deux on obtiendra pile, et une fois sur deux on obtiendra face à l’exclusion de tout autre résultat. On est donc sûr d’avoir de façon certaine l’un quelconque des deux résultats. Par convention, on considère que la probabilité de pile ou face, c’est-à-dire d’obtenir l’un ou l’autre des deux résultats possibles, est égale à 1, si bien que la probabilité de chacune des issues, pile ou face, est égale à 1/2. On en déduit aisément les règles élémentaires du calcul des probabilités. Celui-ci est fondé sur le schéma de jeux de hasard « virtuels », même si la plupart ont leurs pendants réels. Mais la grande difficulté avec les jeux réels est de fabriquer du bon hasard, par exemple de bien battre des cartes, de bien tailler des dés et de les jeter aussi parfaitement que possible, de bien équilibrer une roulette et de lancer tout aussi parfaitement la boule. Comme nous l’avons déjà dit le hasard de référence est celui pour lequel tous les résultats possibles ont la même probabilité. Par exemple, pour le dé qui a 6 faces et 6 numéros différents sur ces faces, la probabilité de sortir l’un des numéros est de 1/6. On dit que les résultats sont équirépartis ou que leur distribution est uniforme. Ici le hasard conçu intellectuellement ou fabriqué matériellement à l’aide d’un dispositif ou d’une manipulation permet la réalisation d’une expérience qui approche ce hasard idéal. Enfin, comme le signale Émile Borel, dans la plupart des applications concrètes, notamment en biologie, nous n’avons des probabilités qu’une estimation statistique : « Toute probabilité concrète est en définitive une probabilité statistique définie seulement avec une certaine approximation. Bien entendu, il est loisible aux mathématiciens, pour la commodité de leurs raisonnements et de leurs calculs, d’introduire des probabilités rigoureusement égales à des nombres simples, bien définis : c’est la condition même de l’application des mathématiques à toute question concrète ; on remplace les données réelles, toujours inexactement connues, par des valeurs approchées sur lesquelles on calcule comme si elles étaient exactes : le résultat est approché, de même que les données » (E. Borel, Le Hasard, cité par D. Dugué, 2003).
23
LA NÉCESSITÉ DU HASARD
4. Le hasard du numéricien et de l’informaticien Ici on est face à un autre exemple de hasard construit. Il est d’abord utilisé pour simuler des expériences où interviennent des probabilités. L’avantage est que la simulation est bien plus rapide que l’expérience réelle. Elle peut donc être répétée un très grand nombre de fois. Ce hasard est aussi utilisé pour résoudre des problèmes parfaitement déterministes qu’on ne sait pas traiter analytiquement, que ce soit par la voie formelle ou par la voie du calcul numérique. La base du simulateur est un « générateur » de nombres au hasard, c’est-à-dire un algorithme donnant une répartition uniforme des résultats. Par exemple, les décimales du nombre /, prises par paquets arbitraires de n chiffres, sont distribuées de façon uniforme. En d’autres termes, si l’on prend 4 chiffres, la fréquence d’occurrence des nombres compris entre 0 (0000) et 9 999 est, pour chacun d’eux, de 1/10 000. Il existe une grande variété de générateur de nombres aléatoires. Beaucoup d’entre eux utilisent les restes de divisions entières, mais présentent une certaine périodicité : avant toute simulation, il faut s’assurer que la quantité de nombres tirés est inférieure à la période (cf. encadré 1).
Encadré 1 Génération de nombres pseudo-aléatoires Des algorithmes engendrant des nombres pseudo-aléatoires ont été conçus par les numériciens, d’abord pour simuler des phénomènes et processus aléatoires, ensuite pour résoudre des problèmes déterministes par des méthodes stochastiques. Parmi les générateurs connus, celui déjà signalé engendrant les décimales du nombre / est efficace. Cependant, le temps d’exécution de l’algorithme lui fait souvent préférer d’autres générateurs plus rapides, notamment ceux fondés sur les restes de divisions entières. Nous en donnons un bref aperçu ci-après, une présentation récente plus détaillée peut être trouvée dans l’article récent de Benoît Rittaud (2004). Considérons deux nombres a et b entiers et premiers entre eux avec a < b et a > 1 ; la suite xi = reste [(a xi-1/b)], ou xi = a xi-1 mod b , avec 0 < x0 < b est une suite aléatoire uniformément distribuée, mais cette suite est
24
Le hasard en question
périodique. Par exemple, si l’on prend a = 7, b = 11 et x0 = 5, on a la suite suivante : 2, 3, 10, 4, 6, 9, 8, 1, 7, 5, la période est au plus égale à b – 1, comme ici, et en général inférieure. Il faut donc avoir au départ des nombres assez grands si on veut éviter la périodicité. Par ailleurs, il peut exister des autocorrélations entre nombres successifs avec un décalage plus ou moins grand (rang 1 entre xi et xi-1, rang 2 entre xi et xi-2, etc.) Plusieurs solutions ont été proposées pour éviter ce type de problème et l’on arrive souvent à engendrer un « bon hasard ». Néanmoins, il est conseillé de vérifier le caractère aléatoire des suites ainsi obtenues par des tests statistiques appropriés (cf., par exemple, Chassé et Debouzie, 1974). On trouve ainsi dans la littérature des informations sur le choix de a et b. Par exemple, on peut prendre b = 231 – 1 (dans la plupart des machines actuelles, le « mot », unité élémentaire de stockage numérique, est de 32 bits) et a = 75 ou a = 513, cité par J.D. Rouault dans : « La casualisation des modèles » (V. 01/2004) sur son site internet6. Une fois un générateur sélectionné donnant des séquences suffisamment longues de nombres pseudo-aléatoires uniformément distribués sur [0, 1], on sait tirer des échantillons d’autres lois de probabilités, par exemple de la loi de Gauss, par inversion de la fonction de répartition. À ce propos, on notera une curiosité : l’expression analytique de la fonction de répartition de cette loi pour une seule variable n’est pas connue, mais la connaissant pour deux variables, les générateurs classiques d’échantillons de cette distribution fournissent des couples de nombres indépendants distribués selon cette loi.
Lorsqu’il s’agit de la résolution, par le hasard, de problèmes déterministes, par exemple le calcul d’une surface ou d’un volume limité par une fonction ou un ensemble de fonctions connues, mais compliquées, on parle de méthodes de Monte-Carlo. Enfin, des approches accordent une large part à des analogies avec l’évolution des êtres vivants considérant des mutations, dues au hasard, suivies de la sélection des individus les mieux adaptés à leur milieu. Ces algorithmes sont particulièrement efficaces pour résoudre des problèmes d’optimisation, les valeurs les « mieux adaptées » s’approchant d’un optimum. On parle d’algorithmes 6. http://www.u-psud.fr/orsay/recherche/ibaic/idc.nsf/IDC130.htm!OpenPage
25
LA NÉCESSITÉ DU HASARD
génétiques7. Très généralement, les méthodes informatiques, dont la conception est fondée sur des analogies avec des processus ou des systèmes biologiques, sont dites « bio-inspirées ». Ce terme a été largement repris, plus généralement on parle de « technologies bio-inspirées » pour celles qui proviennent de l’observation et de l’analyse de systèmes biologiques (cf. chapitre 3, section XI). De fait, dans ce texte, nous retournons l’analogie en supposant que l’évolution a sélectionné des mécanismes produisant du hasard, pour résoudre le problème du maintien de la vie sur la Planète. Le hasard est une forme d’assurance pour la vie.
5. Hasard, aléas et risques Nous sommes sensibles à la notion de risque. Les événements qui conduisent à des risques sont d’origine naturelle ou anthropique. On connaît leur existence, mais ils sont imprévisibles. Ils semblent se produire au hasard dans le temps. Cette notion est aussi anthropocentrée, on parle de risque lorsque l’intégrité de biens et de personnes est en question. Pour distinguer l’événement imprévisible de ses conséquences éventuelles, le risque, on parle d’aléa. Les aléas naturels sont engendrés par les dynamiques planétaires et circumplanétaires physico-chimiques (pluies, sécheresses, cyclones, météorites, éruptions solaires, séismes, éruptions volcaniques, etc.) ou biologiques (invasions, émergence et prolifération d’agents pathogènes conduisant à des épidémies ou pandémies). On sait cependant que la part de l’imprévisibilité peut être réduite, d’abord par une meilleure connaissance des processus qui engendrent ces risques et ensuite par une étude de la partie aléatoire qui subsiste à un moment donné. Cette étude permet, par exemple, de calculer une probabilité d’occurrence d’un aléa et de son amplitude, dans un intervalle de temps donné. C’est ainsi qu’on peut prévoir presque sûrement un séisme dans une région donnée, ou encore qu’on parle de la probabilité d’occurrence d’une inondation décennale ou centenaire, c’est-à-dire dont l’amplitude ne s’enregistre, en moyenne, que tous les 10 ans ou 100 ans. C’est 7. Pour une présentation des algorithmes génétiques, on pourra de référer par exemple aux sites : http://w3.toulouse.inra.fr/centre/esr/CV/bontemps/WP/AlgoGene.html ou http://www.rennard.org/alife/french/gavintr.html. Ce deuxième site présente aussi les automates cellulaires, la vie artificielle, etc. Tous sont de bons exemples d’informatique « bio-inspirée ».
26
Le hasard en question
l’occurrence accélérée de tels phénomènes qui fait suspecter des évolutions climatiques. On peut étendre la notion de risque à d’autres aspects qu’anthropiques. Ainsi, comme nous allons le voir, la vie elle-même a couru des risques dans le passé et en court toujours…
6. La vie à l’épreuve des aléas de l’histoire En examinant le passé de la Terre depuis le Cambrien, on trouve les traces d’événements catastrophiques et de leurs conséquences, principalement des variations brutales de la biodiversité (cf. figure 1.1 et tableau 1.1). Ainsi plusieurs grandes extinctions se sont produites. Elles ont été suivies par de nouvelles diversifications « explosives ». Cela montre l’extraordinaire « vitalité » de la vie. Elle résiste et elle rebondit malgré des catastrophes gigantesques. La vie court des « risques », mais a manifestement les moyens d’y faire face. La figure 1.1 montre que les variations enregistrées de la biodiversité sont importantes. On les attribue à des perturbations et à des évolutions environnementales. La courbe « moyenne » est la représentation graphique d’un modèle logistique par morceaux enchaînés8. Le graphe est très réducteur, aussi est-il utile de signaler qu’avant la grande explosion cambrienne, une première émergence d’organismes multicellulaire a eu lieu : la radiation d’Ediacara, du nom des collines au nord d’Adélaïde en Australie où l’on a trouvé les premiers fossiles de ces organismes. Ces organismes ont tous disparu, ou du moins n’en a-t-on pas trouvé de formes plus récentes qui puissent leur être apparentées. C’est la première grande extinction que l’on ait détectée. Bien sûr, il ne faut pas confondre ce qui est observé avec ce qui s’est effectivement passé. Certains événements ont pu se produire sans laisser de traces. Il peut également exister des archives naturelles que l’on ne sait pas encore lire ou qui peuvent mener à diverses interprétations. Pour ne prendre qu’un exemple récent, on pourra se référer au débat sur la météorite de Chicxulub au Mexique, censée avoir été à l’origine de la dernière grande extinction, celle des dinosaures (cf. entre autres, le dossier de La Recherche, dans son numéro d’octobre 2004).
8. Dans le chapitre 4, on trouvera un bref exposé sur cette modélisation et les hypothèses que nous suggère l’utilisation du modèle.
27
LA NÉCESSITÉ DU HASARD
Figure 1.1. Évolution de la biodiversité au cours des âges géologiques depuis le pré-Cambrien telle qu’on peut l’évaluer à partir des informations provenant de la base de données paléontologiques développée par Sepkoski concernant les fossiles d’origine marine (cf. Courtillot et Gaudemer, 1996 et Pavé et al, 2002).
La figure 1.1 et le tableau 1.1 méritent quelques précisions à propos des termes utilisés. Les espèces forment l’unité taxonomique fondamentale. L’ensemble des individus des populations constituant une espèce présente une homogénéité génétique, qui, pour les populations sexuées, autorise les croisements reproductifs. C’est la seule unité taxonomique qui ait une définition biologique fonctionnelle. Les genres sont un regroupement d’espèces voisines et les familles un assemblage de genres, donc aussi d’espèces. Pour le lecteur familier de la théorie des ensembles, on peut dire que les genres constituent une partition de l’ensemble des espèces et que les familles sont une partition de l’ensemble des genres. Cette classification hiérarchique a été établie principalement sur des critères morphologiques, c’est-à-dire des ressemblances et dissemblances
28
Le hasard en question
Tableau 1.1. Estimations des taux d’extinctions (d’après Hallam A. et Wignall P.B., 1997). Que ce soit à partir du nombre de familles ou du nombre de genres, les estimations de la proportion d’espèces disparues sont voisines. Familles
Genres
Observé (%)
Estimation du pourcentage d’espèces disparues
Observé (%)
Estimation du pourcentage d’espèces disparues
Fin Ordovicien
26
84
60
85
Dévonien tardif
22
79
57
83
Fin Permien
51
95
82
95
Fin Trias
22
79
53
80
Fin Crétacé
16
70
47
76
Extinctions
entre les individus de ces groupes. À présent des données génomiques et des méthodes de classifications statistiques sont utilisées. Des unités d’ordre supérieur ont été aussi définies, par exemple les ordres et les classes, jusqu’aux « règnes » végétaux et animaux desquels, suivant les écoles, on distingue ou non les protistes9. On comprend alors les données du tableau. Il suffit qu’une seule espèce d’un genre et d’une famille survive pour que ces unités taxonomiques soient présentes. Cela explique que le taux d’extinction de l’unité de plus bas niveau, en l’occurrence l’espèce, soit le plus important. En quelques sortes, les espèces courent plus de risques que les genres et les familles. Enfin, on peut d’ores et déjà noter que la classification taxonomique recoupe en grande partie la classification historique, preuve première de l’évolution. Ainsi, les poissons précèdent les batraciens et les reptiles, qui, eux-mêmes, précèdent les mammifères à la fois dans les taxinomies, classements établis sur des critères de ressemblances morphologiques, et dans les archives paléontologiques, qui permettent d’établir les successions temporelles d’apparition des grands groupes taxinomiques. Il est aussi remarquable de noter que les grandes tendances morphologiques dessinées dès le Cambrien soient toujours présentes. 9. Aujourd’hui, sur des arguments provenant principalement de l’analyse moléculaire des génomes, on propose trois règnes : les archéens, les procaryotes et les eucaryotes.
29
CHAPITRE
2
Le hasard dans les systèmes vivants Quelque invraisemblable que cela paraisse, personne n’avait tenté jusque-là une théorie générale des jeux. Les Babyloniens sont peu spéculatifs. Ils acceptent les décisions du hasard, ils lui livrent la vie. J.L. Borges, La Loterie de Babylone, in Fictions.
Le hasard fait partie intégrante de certains processus biologiques et écologiques, et cela depuis près de 4 milliards d’années d’évolution des systèmes vivants. En effet, comme nous allons le voir, les processus engendrant du hasard, du niveau du gène à celui de l’écosystème, produisent de la diversité biologique. C’est le « hasard créateur » (Lestienne, 1993) et c’est peut-être aussi grâce à cette diversification que la vie a pu se maintenir sur la Terre, malgré les risques encourus, avérés par les catastrophes qui ont parsemé l’histoire de notre planète. Il est ici nécessaire de reprendre la magistrale discussion menée par Jacques Monod sur le Hasard et la Nécessité dans le monde du vivant. L’interrogation fondamentale est de savoir si le hasard est nécessaire. Et si oui, alors se pose le problème de la sélection de processus l’engendrant pour produire de la diversité afin, tout simplement, de permettre le maintien de la vie dans un environnement lui-même aléatoire.
31
LA NÉCESSITÉ DU HASARD
I Le hasard et la nécessité La question des parts respectives du hasard et de la nécessité est ancienne ; une citation en première page du célèbre livre de Jacques Monod la fait remonter à Démocrite. Les mathématiciens et les physiciens en ont discuté, entre autres les plus grands : Pascal, Leibniz, Laplace, Boltzmann, Einstein, Poincaré. Beaucoup étaient aussi des philosophes. Les biologistes, notamment les généticiens et les dynamiciens des populations, ont eu besoin du hasard pour leurs modèles. Ce fut le cas, par exemple, de Mendel, qui d’ailleurs enseignait la statistique. De son côté, Monod synthétise l’approche du couple (hasard, nécessité) par le biologiste et en tire une magistrale vision d’une philosophie du vivant (Monod, 1970). Les êtres vivants sont soumis au hasard des mutations et des transformations génétiques. Ils répondent également à une double nécessité : d’une part, interne, l’organisme est et reste fonctionnel (ses paramètres physiologiques ont un domaine limité de variations ; ils sont régulés, comme la glycémie ou la température chez l’Homme), et, d’autre part, externe, il doit résister à la pression de sélection imposée par son environnement biophysique (prédateurs, compétiteurs, paramètres chimiques et physiques du milieu). Cela vaut aussi pour ses descendants. L’occurrence d’un événement de probabilité quasiment nulle, l’apparition de la vie sur une planète, la Terre, engendre ensuite un enchaînement de phénomènes déterministes physico-chimiques, ponctué d’interventions du hasard à travers les « mutations »10. Les conséquences en sont la 10. Bien que n’ayant pas de preuve directe, on est de plus en plus tenté de penser que l’apparition de la vie n’est pas aussi rare que le postulait Monod. C’est pourquoi une discipline, l’exobiologie, qui étaient encore du domaine de la science-fiction dans les années 1970, s’est développée ces dernières années. Par exemple, il est de moins en moins exotique de penser que la vie a existé (et existe peut-être encore) sur la planète Mars. En effet, on sait maintenant qu’il y eut de l’eau en surface en grande quantité (condition nécessaire pour l’apparition de systèmes vivants de « type terrestre », notamment pour le développement d’une chimie exubérante, comme celle du carbone ; sans doute la seule, celle du silicium quelquefois évoquée est bien plus pauvre). D’autre part, la couleur rouge de la planète est due à des oxydes, notamment de fer. On sait maintenant qu’une part importante de la formation de ces oxydes, sur la Terre, résulte du dégagement d’oxygène dans l’atmosphère par des organismes photosynthétiques. Bien que d’autres mécanismes puissent être évoqués, la présence massive de ces oxydes est un argument supplémentaire. Envisager d’explorer Mars avec l’objectif de découvrir les traces de vie passée ou actuelle n’est donc pas farfelu.
32
Le hasard dans les systèmes vivants
rareté de la vie dans l’Univers, une évolution soumise à un jeu permanent de « roulette » engendrant beaucoup de pertes (non-viabilité de beaucoup des mutations et élimination par un processus de sélection), mais aussi des succès. Tous les systèmes vivants de la Planète – dont nousmêmes – seraient la résultante de ces réussites et de ces échecs.
1. La théorie neutraliste de l’évolution : une nécessité douce Introduisant le couple mutation-sélection, Monod adopte une explication néodarwinienne de l’évolution. La théorie neutraliste, proposée par M. Kimura et T. Ohta (1971), postule que les organismes actuels proviennent bien d’une suite de mutations au hasard. Mais prises individuellement elles sont supposées neutres, c’est-à-dire qu’elles n’affectent pas de façon notable le fonctionnement et la structure des organismes descendants de celui qui a muté. Cette théorie donne donc peu de prises à la sélection. La contrainte est alors de maintenir un état fonctionnel. C’est ce que nous pourrions appeler une « nécessité douce » comparée au schéma darwinien. L’accumulation de ces mutations au cours de générations successives, conséquences du hasard, mais toujours « externalisé », explique alors l’apparition progressive de génotypes suffisamment originaux pour être « détectables » dans l’histoire de la vie, c’est-à-dire présentant des phénotypes (des formes et des fonctionnements) nouveaux et suffisamment pérennes. L’un des arguments qui relativise cette théorie, c’est que l’Homme a utilisé avec succès le schéma néodarwinien dans les processus agronomiques d’amélioration des espèces cultivées ou élevées, dont nous reparlerons dans le chapitre 3. On peut aussi souligner les résultats expérimentaux probants obtenus en laboratoire par les tenants de la théorie synthétique de l’évolution. Nous en reparlerons également. Enfin, on peut souligner que cette théorie a été bâtie principalement sur des données moléculaires (chaînes protéiques et nucléiques) et ne dit rien des cibles effectives des processus de sélection : les organismes et les populations.
2. Le couple hasard-nécessité En accord avec Monod, nous avons vu qu’il y a nécessité d’un bon fonctionnement de la machine vivante et cela dans un environnement qui
33
LA NÉCESSITÉ DU HASARD
varie dans le temps. Tous les résultats du hasard, les mutations et surtout leurs expressions phénotypiques dans des organismes, ne sont pas « viables » immédiatement ou à long terme. C’est-à-dire que ces expressions doivent être fonctionnelles, qu’elles doivent permettre de résister aux contraintes environnementales, et qu’elles et les descendances des organismes en question doivent s’intégrer positivement dans le processus de sélection. Si bien que l’ensemble des possibles est souvent immensément plus grand que les réalisations observées. Nécessité oblige. C’est donc le couple « hasard-nécessité » qui joue la tragi-comédie de l’évolution sur la scène du « théâtre de la vie ». Comment ce couple a-t-il engendré des systèmes vivants, de la cellule à l’écosystème, complexes, fonctionnels, adaptables et diversifiés ? On comprend, au moins dans les grandes lignes, comment peut jouer la nécessité. Rappelons-le, elle intervient au niveau des contraintes internes, l’organisme doit être fonctionnel, et des pressions externes : l’individu est contraint d’entrer dans le jeu de la sélection et de s’y maintenir. On commence aussi à saisir comment les êtres vivants ont tendance à se complexifier, si du moins on suppose que c’est un facteur de stabilité. En revanche, le rôle, la nature et l’origine de ce qu’on appelle hasard est moins évident. Ici, nous défendons la thèse suivante : le hasard n’est pas uniquement un fait imposé de l’extérieur ou résultant de notre ignorance, il n’est pas totalement contingent, mais résulte pour une large part d’une sélection. Le hasard est nécessaire. La sélection des mécanismes qui l’engendrent est une obligation pour le maintien de la vie sur notre planète. Enfin, effet indirect, ce hasard a produit de la complexité, elle-même facteur d’adaptation et de résilience11 des systèmes vivants.
3. Hasard et évolution : la nécessité du hasard Les éléments présentés ici n’ont rien d’original pris séparément, mais c’est leur articulation qui semble apporter du nouveau. Ainsi, pour avancer dans notre démonstration, il faut analyser les degrés d’intervention du hasard, les processus concernés, leurs effets et leurs conséquences. 11. Ce terme vient de la mécanique, il désigne la capacité d’un objet de ne pas se briser en amortissant les chocs et en revenant ensuite à son état initial ou dans un état proche de cet état initial. Il a été étendu à des systèmes naturels, et même aux êtres humains, en physiologie mais aussi en psychologie. Il traduit la possibilité de résister à des perturbations.
34
Le hasard dans les systèmes vivants
Cette présentation est faite dans l’ordre des niveaux d’organisation du vivant : gène et génome, organisme, population, communauté, écosystème. C’est ce qui nous est apparu le plus pertinent. Ensuite, la distribution des êtres vivants dans l’espace superficiel et hétérogène de notre planète apporte la nécessaire dimension écologique. On introduit également le temps, le temps long, celui de l’évolution. Il nous permet de mieux comprendre la nécessité du hasard et aussi pourquoi des mécanismes qui l’engendrent auraient été sélectionnés. On essaie aussi de saisir comment ce temps et cette distribution ont pu jouer pour accroître la complexité, et de là aboutir à cette organisation hiérarchique des systèmes vivants, sur laquelle précisément notre exposé repose12. Et enfin, on se demande comment cela peut se traduire pour mieux gérer notre avenir commun sur la Planète, celui de l’Homme et celui des autres êtres vivants constituant la biosphère.
4. Du gène à l’écosystème, le hasard dans les niveaux d’organisation du vivant Là où le hasard joue, la diversité est engendrée. Fondamentalement, la biodiversité est liée à la diversité des génomes. De multiples mécanismes la produisent. Ils existent du niveau du gène et du génome à celui d’ensembles de génomes portés par les organismes constituant une population. On peut même généraliser à l’ensemble des populations constituant une espèce. Mais cette diversité ne s’exprime durablement que si les organismes, engendrés et regroupés dans une ou plusieurs populations, révèlent quatre aptitudes principales. D’abord, ils peuvent survivre dans un environnement donné, c’est-àdire dans un écosystème avec ses composantes biologiques (les autres êtres vivants qui le peuplent), chimiques (les corps et espèces chimiques), physiques (les états de la matière et les paramètres comme la température), géologiques (les minéraux et leur organisation) et édaphiques (les sols). Ensuite, ils savent aussi s’adapter à la distribution de ces composantes dans l’espace et à leurs fluctuations dans le temps, comme les variations saisonnières ou l’arrivée d’organismes exotiques. C’est ce que certains appellent la « plasticité phénotypique ».
12. En espérant ne pas faire une tautologie. Encore qu’en utilisant le compas tautologique, on puisse trouver quelques nouveaux caps.
35
LA NÉCESSITÉ DU HASARD
Ils ont aussi la capacité de résister à des conditions « exceptionnelles », telles des saisons « chaudes et sèches », ou des phénomènes accidentels, comme des inondations, ou encore l’apparition de pathogènes (robustesse). Enfin, ils peuvent se reproduire pour laisser une marque durable. Parfois, ils sont à l’origine d’autres populations, plus ou moins différentes de celle d’origine (reproductibilité). La sexualité est une cause importante de diversité. Une part essentielle est laissée au hasard et « La sexualité fournit ainsi une marge de sécurité contre les incertitudes du milieu. C’est une assurance sur l’imprévu » (Jacob, 1981). C’est sans doute la meilleure interprétation évolutive de la sexualité. Mais ce n’est pas le seul processus impliqué établissant les termes de ce « contrat d’assurance ». Au niveau régional ou local, ces populations doivent avoir la possibilité de se répartir au mieux dans un espace écologique convenable (un habitat), qui permet à une espèce de se maintenir en évitant qu’un accident ponctuel (un feu, une inondation, un impact météoritique) ne mette en cause son existence. Mais il reste à expliquer le maintien de la diversité. En effet, l’un des résultats de l’écologie théorique montre qu’à terme, l’espèce la mieux adaptée à un milieu donné devrait avoir tendance à exclure les autres ; c’est l’exclusion compétitive. Comment donc expliquer que des systèmes diversifiés se soient installés et maintiennent leur diversité sur le long terme à l’instar de la plupart des récifs coralliens et des forêts intertropicales humides ? Et même qu’un système écologique laissé à lui-même a tendance à se diversifier ? Nous allons donc examiner les mécanismes de diversification, les mécanismes d’installation et les mécanismes de maintien de la biodiversité aux principales échelles et niveaux d’organisation du vivant.
II Mécanismes connus de diversification génétique 1. La diversification au niveau du gène : au hasard des mutations ponctuelles Les mutations ponctuelles peuvent modifier un gène en changeant le sens d’un codon par modification d’un nucléotide (cf. figure 2.1). La
36
Le hasard dans les systèmes vivants
protéine qui en résulte est peu changée, quelquefois pas du tout si le codon muté est un synonyme du codon originel. En revanche, la suppression (délétion) ou l’addition (insertion) d’un codon peuvent perturber profondément la traduction de ce gène en introduisant un décalage dans la transcription. On attribue ces mutations ponctuelles à des facteurs physiques, telles les radiations naturelles, ou chimiques, comme les produits mutagènes. Ces facteurs sont aléatoires et externes. Par exemple, l’occurrence des radiations naturelles est, au moins en un lieu et pendant un assez long intervalle de temps, un processus stationnaire et homogène dans le temps. Ce processus porte le nom de son inventeur, le mathématicien Poisson13. Cependant, pour « limiter les dégâts », des mécanismes de réparation existent au niveau cellulaire, en prenant comme référence la séquence complémentaire portée par l’autre brin de l’ADN. Les fréquences de persistance des mutations au niveau de l’ADN, après réparation, sont de l’ordre de 10-10 entre deux réplications14. Les erreurs au niveau de la transcription et de la traduction ont des fréquences plus élevées, mais les protéines produites sont rapidement dégradées. Heureusement, les modifications sont souvent mineures. Elles ne changent que faiblement l’activité de la protéine codée. Dans d’autres cas, plus rares, l’activité de la protéine peut être très diminuée, voire complètement différente. Il arrive même qu’elle ne soit plus synthétisée. Les diverses formes d’un gène, résultant de cette différentiation, sont appelées allèles de ce gène. Ces allèles vont donc conduire à des protéines différentes plus ou moins efficaces et donc avoir une incidence sur le fonctionnement ou la structure d’un organisme. Les organismes supérieurs sont pour la plupart diploïdes, c’est-àdire portant un nombre donné de paires de chromosomes (23 paires chez l’Homme, donc 46 chromosome ; 22 paires sont constitués de chromosomes deux par deux morphologiquement identiques, les autosomes,
13. Parmi les lois de probabilité connues, celle donnant la probabilité du nombre d’occurrences de tels événements dans un intervalle de temps ou d’espace est appelée loi de Poisson. 14. Dans l’ouvrage collectif Qu’est-ce que la diversité de la vie ? édité par l’Université de tous les savoirs, sous la responsabilité d’Yves Michaud (2003), on pourra trouver de nombreuses données et réflexions sur la biodiversité et les mécanismes d’émergence de cette biodiversité. Pour ce qui concerne le rôle évolutif du hasard, il est évidemment mis en avant mais sans mention d’une possible sélection des mécanismes le produisant.
37
LA NÉCESSITÉ DU HASARD
et une paire de chromosomes caractéristiques du sexe, identiques, notés XX, pour le sexe féminin ou différents, notés XY, pour le sexe masculin ; ces notations viennent de la forme des chromosomes en question qui ressemblent à ces lettres). Conséquences de la reproduction sexuée, les chromosomes appariés correspondent à deux copies du génome provenant des parents. Ces copies ne sont pas tout à fait identiques. En particulier, un même gène peut se présenter sous des formes alléliques différentes qui seront ultérieurement transmises à la descendance. C’est l’étude de l’expression de ces formes alléliques, de leur traduction au niveau de l’organisme, caractérisant ce qu’on appelle son phénotype, qui a conduit aux premières études génétiques. Enfin, de nombreuses mutations sont extérieures aux parties codantes de l’ADN. En principe, elles sont sans effet.
Figure 2.1. Exemples de mutations ponctuelles. Les mutations ponctuelles ne portent que sur un nucléotide, mais peuvent engendrer de grands bouleversements dans les cas des délétions ou des insertions. Pour un gène exprimé, le décalage dans la transcription engendre des modifications dans la traduction et change profondément la structure de la protéine produite. Les mutations sur les codons d’initiation ou d’arrêt de la traduction (non représentés ici) peuvent aussi avoir des conséquences importantes. Dans la partie droite de la figure, les étapes du passage de l’ADN à la protéine ont été figurées (transcription de l’ADN en ARN messager puis traduction en protéine, c’est-à-dire une chaîne d’acides aminés).
38
Le hasard dans les systèmes vivants
Rappel L’information génétique est portée par une chaîne d’ADN, Acide DésoxyriboNucléique, contenue dans le noyau et dont les éléments sont des nucléotides. Les parties signifiantes de ces monomères sont des molécules organiques azotées, notées : A, C, G et T (A = adénine, C = cytosine, G = guanine et T = thymine). Une telle chaîne peut s’écrire comme une suite de lettres, dont un morceau peut être noté, par exemple : …GCTACTAATA… (les « … » signifient que la chaîne se poursuit à gauche et à droite). Sans entrer dans les détails, retenons que des morceaux d’ADN sont transcrits sous forme de chaînes d’ARN, Acide RiboNucléique, où, du point de vue de la séquence, la thymine (T) est remplacée par une autre molécule, l’uracile (U). Ces molécules lorsqu’elles sont utilisées pour produire des protéines sont notées ARNm (ARN messager, l’Hermès de la cellule). Lors de la synthèse des protéines, ces morceaux seront traduits en suites d’acides aminés constituant ces protéines. Ainsi, le morceau pris comme exemple sera transcrit en : …GCUACUAAUA… Si l’on prend des groupes de 3 lettres depuis le début de la séquence, à chaque groupe ou codon correspond au plus un acide aminé, ainsi le groupe GCT (de l’ADN) transcrit en GCU, dans l’ARN, correspond à l’alanine. En outre, trois groupes dits « non sens » ponctuent la séquence, notamment pour signaler le début et la fin. Pour les 20 acides aminés courants, il y a donc 61 codons possibles. L’application de l’ensemble des codons, moins les 3 de ponctuation, dans l’ensemble des acides aminés n’est donc pas bijective. Il y a donc des codons « synonymes » qui codent pour le même acide aminé. Une mutation ponctuelle se traduit par une modification au niveau d’un nucléotide (modification de la molécule azotée, délétion ou insertion). Une telle modification peut avoir des conséquences différentes illustrées par la figure 2.1 (les parties modifiées sont en gras, les espaces entre codons ne sont ajoutés que pour faciliter la lecture). On notera que la séquence choisie en exemple comporte 10 nucléotides : 3 codons plus un nucléotide à droite, premier d’un quatrième codon. Ce nucléotide (A) a été inclus dans l’exemple pour illustrer l’influence d’une délétion.
39
LA NÉCESSITÉ DU HASARD
2. Organisation et plasticité du génome : les aléas des mutations par morceaux Les mécanismes identifiés au niveau du codon concernent aussi de plus grandes parties d’ADN : morceaux de gènes, gènes entiers ou ensembles de gènes. On distingue la délétion (suppression d’un morceau d’ADN), l’insertion (addition d’un morceau d’ADN à un endroit du génome), la transposition (changement de position), la duplication (un morceau d’ADN est copié et inséré), quelquefois des invasions (de multiples copies sont faites et insérées). Dans le cas de l’insertion, les morceaux ajoutés peuvent venir du génome lui-même, d’un autre génome de la même espèce, voire d’une espèce différente. C’est ce qu’on appelle le « transfert horizontal » de gènes. Ce mécanisme a été « domestiqué ». C’est celui qui, couplé à l’excision (une délétion contrôlée), permet d’obtenir ce qu’on appelle des organismes génétiquement modifiés, les fameux OGM. Ces modifications se produisent spontanément et « naturellement ». Elles ont toutes une faible probabilité d’intervenir et, pour des raisons fonctionnelles, encore une plus faible de se maintenir, comme certaines mutations ponctuelles. En effet, beaucoup d’entre elles ne permettent pas une activité cellulaire correcte et donc oblitèrent celle de l’organisme. Si les mécanismes moléculaires ont été largement identifiés et sont utilisés en génie génétique, en revanche le déterminisme de leur activation naturelle est peu connu et souvent cette activation apparaît comme se faisant au hasard dans le temps.
a. Les procaryotes Les procaryotes, essentiellement des bactéries, sont des organismes unicellulaires où l’on ne distingue pas de structures nucléaires au microscope, contrairement aux eucaryotes. Mais ils portent, comme tout organisme vivant, un génome sous la forme d’un double brin d’ADN, cette chaîne étant fermée sur elle-même et formant une boucle. On le désigne sous le terme générique de « chromosome » bactérien. Les mécanismes de brassage de ce génome sont ceux qui viennent d’être décrits. Chez certains micro-organismes, des gènes, appelés gènes SOS, sont dévolus à la réparation des mutations ponctuelles. Mais ils peuvent voir leur activité changer et au contraire accélérer les modifications. Ce changement d’activité, qui peut être de plusieurs ordres de grandeur (multiplié par 10, 100, 1 000 voire même 1 million) s’observe lorsque ces organismes sont plongés dans des milieux hostiles. Cette accélération conduit à élever
40
Le hasard dans les systèmes vivants
la fréquence des mutations et ainsi à accroître rapidement la diversité génétique de la population. Il en résulte une augmentation de la probabilité d’apparition d’un variant résistant ou même adapté au milieu. Il existe aussi des mécanismes d’échange d’ADN entre cellules bactériennes, en particulier de morceaux d’ADN : les facteurs F (dits de fertilité), appelés plus généralement des épisomes, dont l’intégralité ou seulement une partie peuvent s’intégrer au chromosome bactérien et inversement s’en extraire. Ils sont dupliqués avec le génome. Les plasmides sont des unités circulaires d’ADN, qui se répliquent de façon autonome et qui ne s’intègrent pas dans le chromosome bactérien. Des échanges avec le chromosome bactérien sont cependant possibles, par exemple par des mécanismes de type « crossing-over »15. Ces mécanismes sont une source importante de variabilité génétique et c’est par l’intermédiaire des plasmides que passent des gènes de résistance aux antibiotiques.
b. Les eucaryotes Chez les eucaryotes, le noyau est identifiable. Lors de la division cellulaire apparaît une structuration du génome en chromosomes. Un chromosome est une structure interne au noyau cellulaire. Il est composé d’une molécule d’ADN double brin et de protéines. Un organisme diploïde porte n paires de chromosomes (par exemple, 23 paires chez l’Homme), soit 2n chromosomes (46, chez l’Homme). À l’exception des chromosomes sexuels, les deux d’une paire portent des gènes identiques, mais, comme nous l’avons vu précédemment, le plus souvent sous formes de deux allèles différents. Pour cette raison, l’on parle de chromosomes homologues, et non identiques, pour les désigner. Ils se déduisent l’un de l’autre, à la composition allélique près. C’est une forme de redondance supplémentaire qui améliore la fiabilité de l’expression du génome et de sa transmission. Cependant, des « accidents » chromosomiques, concernant donc de larges morceaux du génome, peuvent se produire, par exemple, des translocations, des inversions, des duplications, des crossing-overs. Ceux qui conduisent à des individus viables et fertiles sont transmissibles à la descendance. Ces accidents participent donc à l’accroissement de la diversité.
15. Ce mécanisme est présenté plus loin pour les organismes supérieurs.
41
LA NÉCESSITÉ DU HASARD
Encadré 2 Brassage du génome : représentation schématique des principaux mécanismes connus Délétion Un morceau peut être perdu, réinséré ailleurs dans le génome ou même transféré à un autre génome de la même espèce ou d’une autre.
Insertion Un morceau peut provenir d’un autre endroit du même génome, d’un autre génome de la même espèce ou d’une autre. Transposition Un morceau est coupé et inséré ailleurs dans le génome. C’est donc la composition d’une délétion et d’une insertion. Duplication Un morceau est dupliqué sur place (délétion et double insertion).
c. Cas particulier de la duplication des gènes La duplication est un mécanisme important si l’on en juge par la fréquence des séquences répétées. Par exemple dans le génome humain elles représentent environ 50 %de ce génome. Parmi celles-ci les séquences répétées d’un même gène jouent un rôle fonctionnel particulier. La duplication de gènes semble se produire de façon aléatoire au cours du temps dans un phylum. Une duplication peut être simple ou multiple. Les gènes dupliqués peuvent être adjacents ou non. Les séquences dupliquées correspondantes portent des traces de mutations
42
Le hasard dans les systèmes vivants
Figure 2.2. Arbre de duplication décrivant l’histoire évolutive des 9 gènes variables du locus du récepteur Gamma des cellules T humaines. L’ordre est déterminé grâce aux petites différences qui sont apparues au cours du temps entre les diverses séquences V1, V2, …, V8. On notera la duplication double intervenue la dernière. La construction de ce type d’arbres fait appel à des algorithmes sophistiqués (figure tirée de Bertrand et Gascuel, 2005).
ponctuelles. En analysant ces séquences et en détectant les différences résultant de ces mutations, on peut reconstituer les événements successifs et l’histoire de la séquence finale. Ainsi, la figure 2.2 montre l’histoire des 9 gènes variables du locus du récepteur Gamma des cellules T humaines. Dans cette histoire, l’événement le plus récent implique une double duplication où 2 gènes contigus ont été dupliqués simultanément pour produire 4 copies adjacentes. Cet événement n’a pas été fixé dans certaines populations humaines, qui donc ne portent que 7 copies sur ce locus. Cela correspond au polymorphisme majeur de ces populations ; elle a une forte prévalence au Moyen-Orient. Ces résultats ont été obtenu grâce à des approches bioinformatiques par l’équipe d’Olivier Gascuel à Montpellier (Bertrand et Gascuel, 2005). La multiplication des copies d’un gène conduit le plus souvent à une amplification de l’expression de ce gène et à des possibilités de modulation de cette expression par des répressions partielles, d’où leur importance fonctionnelle. Dans cet exemple des échelles de temps et des niveaux d’organisation différents sont impliqués : de l’échelle de l’évolution, de la duplication et
43
LA NÉCESSITÉ DU HASARD
de sa fixation correspondant à de multiples générations et populations (voire espèces), à celle, physiologique, des conséquences de l’expression des gènes dans un organisme particulier. On notera enfin que d’autres types de séquences répétées se trouvent dans le génome : celles qui correspondent à des transposons et celles qui forment l’ADN dit « micro ou minisatellite » de répétition de courtes séquences de nucléotides. Ces deux derniers types de séquences répétées peuvent avoir un effet délétère.
d. Épigénétique Ce domaine de recherche maintenant très actif concerne ce qui est héritable et qui ne suit pas les schémas classiques, en impliquant d’autres facteurs de diversification dont l’émergence semble encore une fois aléatoire. Citons : la méthylation réversible de l’ADN, les prions, les petits ARN interférants. Ainsi, l’ARN produit du gène HAR1 (Human Accelerated Region 1, Pollard et al., 2006) de la région non codante de l’ADN humain, marque la différence Homme/Chimpanzé. e. Conclusion : diversité des mécanismes de modification du génome On remarque donc une pluralité de mécanismes pouvant participer aux modifications du génome et à différentes échelles, du nucléotide à des ensembles de gènes ou de séquences nucléotidiques non traduites. Ces mécanismes semblent se déclencher de façon aléatoire et les recherches de déterminismes sous-jacents n’ont pas apporté de résultats convaincants, sauf évidemment quand ils sont activés volontairement au laboratoire, par exemple par l’utilisation de radiations ionisantes ou de produits mutagènes. On peut se demander pourquoi une telle variété de mécanismes existe. Cela étant, ces mécanismes constituent la première source de la diversité biologique. Elle s’exprime dans la descendance. Son étude demande donc d’examiner les processus mis en u œvre dans la reproduction, puis son expression au niveau des populations. 3. La reproduction et la transmission de l’information génétique : le brassage des cartes La sexualité est donc considérée comme une machine à faire du différent. F. Jacob, Le Jeu des possibles.
La reproduction est le mécanisme fondamental qui caractérise les systèmes vivants. Elle se fait quasiment à l’identique, à de subtiles variations près. Pour les cellules et les organismes, l’information génétique est
44
Le hasard dans les systèmes vivants
transmise aux descendants. Elle peut également être modifiée lors du processus, en particulier chez les organismes supérieurs sexués. La reproduction des procaryotes et des eucaryotes monocellulaires se fait par division cellulaire ou « scissiparité ». Lors de la duplication du matériel génétique, des modifications peuvent se faire, notamment le changement de position de morceaux du génome. Cependant, les cellules filles portent un génome très voisin de celui de la cellule mère au moment où elle se divise. Les modifications les plus importantes du génome sont faites avant.
a. La reproduction sexuée : production des gamètes La reproduction des eucaryotes multicellulaires, ou « métazoaires », se fait de différentes façons, mais la plus répandue est la reproduction sexuée. C’est celle qui peut engendrer la plus grande diversité puisque la reproduction asexuée engendre des clones, très proches génétiquement du parent. Ces organismes sont diploïdes, c’est-à-dire, comme nous venons de le voir, portent un nombre pair de chromosomes 2 à 2 homologues, sauf pour une paire chez le mâle : les chromosomes sexuels (cf. figure 2.3). La moitié des chromosomes vient de chacun des parents de l’individu en question. Chez les végétaux, il y a possibilité de formules chromosomiques polyploïdes, c’est-à-dire qu’ils portent plus de 2n chromosomes (par exemple, les tétraploïdes, avec 4n chromosomes). C’est un mécanisme supplémentaire de diversification. La plupart des cellules d’un organisme sont dites somatiques, elles assurent la structure et le fonctionnement de cet organisme. Leur division est appelée mitose. Elle produit deux cellules filles génétiquement très proches de la cellule mère. Cependant des modifications infimes peuvent produire de grands désordres, voire des pathologies comme les cancers. Lors du développement d’un organisme, suivant les lignées cellulaires, le génome est partiellement exprimé, ce qui mène à une différentiation en types cellulaires ayant des fonctions précises. Elles forment des organes. Des mutations somatiques sur des points sensibles du génome peuvent désorganiser ce processus de développement. Mais ces mutations ne sont pas transmises dans la descendance. D’autres cellules sont dites germinales, elles sont spécialisées dans la reproduction. Lors d’une division, la « méiose », le noyau parental peut engendrer 4 noyaux différents. Chacun de ces noyaux porte n chromosomes (cellules haploïdes). Au cours de la division, il peut se produire un « crossing-over », c’est-à-dire un échange entre morceaux de chromosomes
45
LA NÉCESSITÉ DU HASARD
Figure 2.3. Exemple d’une transmission génétique sur trois générations. Conventionnellement les chromosomes de chaque individu de la génération G-1 (les ascendants dans le texte) ont été représentés de façon homogène pour chaque individu, avec distinction du sexe (XX = femelle, XY = mâle). Les différences entre individus sont traduites par le type de caractères et le niveau de gris. Le processus de production des gamètes haploïdes est détaillé entre la génération G0 et la génération G1. On a supposé l’occurrence d’un crossing-over entre les chromosomes X pour le parent de droite (sexe féminin). Pour simplifier on a encore supposé qu’un seul descendant a été engendré ; a priori il n’y avait qu’une chance sur 16 d’avoir cette configuration génétique particulière. Quand on ajoute les autres sources de diversité (allèles, mutations diverses), on comprend la diversité des descendants provenant des mêmes parents, mais en restant dans une gamme limitée de configurations possibles et viables. Cette figure illustre aussi la double tendance à la diversification et à la dilution des gènes des ascendants. Le rôle « diversificateur » de la reproduction sexuée apparaît ainsi clairement. Enfin, les chromosomes X et Y sont, dans cet exemple, les chromosomes sexuels (XX pour le sexe féminin, XY pour le sexe masculin) et les chromosomes I représentent les autosomes qui ne présentent pas de différences morphologiques deux à deux entre les deux sexes.
homologues, si bien que les 4 cellules filles possibles ont alors des chromosomes dont le contenu génétique diffère de celui de la cellule mère. En effet et dans ce cas, il y a eu des échanges entre chromosomes homologues qui peuvent porter des allèles différents d’un même gène. Ces cellules issues de la méiose sont des gamètes, ce sont des cellules reproductrices haploïdes (ovocytes et spermatozoïdes). Concrètement, un
46
Le hasard dans les systèmes vivants
nombre important de gamètes est produit conduisant par le biais de remaniements chromosomiques, comme le crossing-over, à un grand nombre de génotypes différents dans le détail. Par le jeu des multiples crossing-overs et d’autres modifications, la constitution génétique des gamètes diffère plus de la structure génétique de l’individu qui les produit que les cellules somatiques. Les gènes sont les mêmes, aux mutations près, mais leur distribution chromosomiques peut être modifiée. En effet, les chromosomes homologues se distribuent de façon aléatoire dans les gamètes, indépendamment de l’origine ascendante. Ainsi, une partie des chromosomes provient de l’un des ancêtres de cet individu, l’autre partie de l’autre ascendant. Le génome haploïde produit est transmis dans la descendance. C’est la deuxième source de production de la diversité biologique chez les organismes supérieurs16.
b. La reproduction sexuée : fécondation et fusion des gamètes Le développement d’un nouvel individu commence après la fécondation et la fusion des gamètes. Lors de cette fusion, deux génomes sont associés, l’un provenant de la mère, l’autre du père. En remontant d’une génération, les chromosomes proviennent pour une partie aléatoire du grand-père et l’autre, évidemment aussi aléatoire, de la grand-mère. Certains d’entre eux peuvent aussi avoir une origine mixte. La mise en commun de deux patrimoines génétiques différents est la troisième source de diversité biologique. c. Autres modes de reproduction Comme nous l’avons déjà souligné, il existe d’autres modes de reproduction, des « essais » qui semblent fonctionner et durer bien que certains ne produisent pas le brassage du génome auquel conduit la reproduction sexuée. On en trouve chez les animaux (exemple de la parthénogenèse) et chez les végétaux (exemples de la reproduction végétative ou de l’apomixie). Mais dans la plupart des cas connus, il y a des phases sexuées qui justement permettent de redistribuer le jeu ou des mécanismes de régulation pour ménager un brassage génétique.
16. On estime à 1 nucléotide sur 500 la différence entre deux brins d’ADN d’un même organisme, l’un apporté par le père et l’autre par la mère, et à 1/185 la différence entre deux brins provenant d’individus de la même espèce, c’est ce qu’on appelle la variabilité intraspécifique (d’après Stephens et al., 2001).
47
LA NÉCESSITÉ DU HASARD
d. Les transferts horizontaux et verticaux Nous venons de voir comment se fait la reproduction au sein d’une espèce. Le passage de l’information génétique se fait « verticalement » de parents à enfants. Les chromosomes et l’ADN qu’ils contiennent portent cette information. On peut aussi signaler un mécanisme particulier chez les métazoaires sexués, à savoir le passage d’une information génétique par les « mitochondries ». Ces petits organites cellulaires contiennent en effet de courts segments d’ADN. Or, au moment de la reproduction seul l’ovocyte contient ces organites. Il s’agit d’un transfert vertical de gènes provenant uniquement de la mère. Nos mitochondries portent donc une information génétique provenant uniquement de nos ancêtres maternels. Les modifications génétiques de ces organites ne procèdent à notre connaissance que de mécanismes analogues à ceux de micro-organismes symbiotiques dont on suppose qu’ils descendent. Une espèce n’est pas homogène génétiquement, il existe des groupes formant des variétés génétiques identifiables, ou « variants ». Ces derniers peuvent se croiser ou être croisés et ainsi créer d’autres variétés. Quelquefois aussi des croisements sont possibles entre espèces voisines. On appelle hybridation ceux qui sont réalisés entre variétés ou espèces voisines (exemple du mulet, résultat du croisement entre un âne et une jument). Cette hybridation peu fréquente chez les animaux, et pour eux le plus souvent non fertile, est en revanche largement répandue chez les plantes, notamment grâce à la possibilité de polyploïdie. Par ailleurs, on a pu mettre en évidence des transferts de gènes entre individus d’une même espèce qui ne passent pas par les mécanismes de reproduction. On peut également observer des transferts spontanés de gènes entre individus d’espèces différentes. Nous y avons déjà fait allusion. In natura, ce transfert est souvent assuré par un « vecteur », par exemple un virus, suivi d’une insertion dans le génome. On rappelle que ce transfert de gène est dit « horizontal ». Par opposition on appelle un transfert « vertical » les gènes qui passent par la reproduction. Soulignons que le transfert horizontal peut se produire à n’importe quel moment de la vie d’un individu. S’il s’agit d’un individu monocellulaire la modification correspondante est transmise à la descendance. Pour un métazoaire, elle ne touche la lignée que si les cellules germinales sont concernées. En fait, les transferts verticaux et horizontaux apparaissent lorsque les conséquences de manipulation génétiques opérées par l’Homme sont observées. Il s’agit de la sélection variétale et de la création d’hybrides,
48
Le hasard dans les systèmes vivants
opérées depuis les origines de l’agriculture et de l’élevage, et plus récemment de la création de nouveaux variants par transfert de gènes, pour obtenir ce qu’on appelle les « organismes génétiquement modifiés ». Il faut cependant souligner que ces mécanismes existent spontanément dans la « nature ». L’Homme n’a fait que les comprendre, les utiliser, les amplifier et tenter de les contrôler. Il n’est pas de notre propos de discuter ici de cette question qui fait l’objet d’âpres débats. Il est seulement nécessaire de souligner que, dans l’activation et l’occurrence spontanées de ces mécanismes, le hasard joue aussi. Concernant les hybrides, le mode de création est celui de la reproduction. On ne peut pas à proprement parler d’autres sources de diversité génétique, sauf de souligner que l’Homme en forçant cette hybridation est lui-même créateur de diversité. Mais là, le hasard ne joue plus sauf au niveau de la méiose avec des modifications possibles de l’ordre des gènes sur les chromosomes. En revanche, le transfert horizontal de gènes constitue une quatrième source de diversité génétique. Dans ses tentatives actuelles pour effectuer ce type de transfert, l’Homme participe encore activement à la diversification, mais là aussi le hasard ne joue quasiment plus, sauf dans les aléas de la manipulation. Les inquiétudes actuelles portent sur les risques potentiels que font courir ce type d’expériences et surtout sur les applications qui pourraient en résulter17…
III La cellule et l’organisme : un hasard limité L’expression du génome conduit à une cellule. Les cellules peuvent s’assembler en organes et organismes. Ces assemblages dépendent aussi de l’expression du génome. Un organisme est une entité vivante identifiable avec une frontière bien définie entre le monde extérieur, son environnement, et son intérieur. Un organisme est monocellulaire ou
17. C’est du moins une question prégnante au moment où ces lignes sont écrites. Cependant le débat social, et même celui mené par la communauté scientifique, a du mal à ne pas mélanger risque économique et politique, d’une part, et risque biologique et écologique, d’autre part, sans ignorer non plus le risque « idéologique ».
49
LA NÉCESSITÉ DU HASARD
multicellulaire. L’expression du génome définit les traits fondamentaux de sa morphologie et les éléments essentiels à son fonctionnement, à sa physiologie. On distingue d’une part la structure, c’est-à-dire la « carrosserie » et le « moteur » de la « machine vivante », et, d’autre part, les principaux mécanismes de contrôle du fonctionnement de cet organisme.
1. Une machine vivante Un organisme est une machine dynamique qui s’auto-construit et s’autoentretient. Elle se développe à partir d’une seule cellule. Ensuite et, pour sa plus grande partie, elle est en constant renouvellement. Des cellules meurent, d’autres leur succèdent. Des macromolécules sont dégradées, d’autres sont synthétisées. Ces processus résultent de l’expression du génome, modulée par l’état et la dynamique de l’individu, ainsi que par des facteurs environnementaux. Ces changements constituent une véritable évolution de l’organisme au cours de sa vie, qui lui permettent de s’adapter à des variations internes ou environnementales. L’expression du génome peut aussi conduire à des phénotypes un peu différents à partir d’un même génotype, comme on le constate pour les clones végétaux ou pour des vrais jumeaux animaux, humains en particulier, qui exhibent des différences phénotypiques. L’organisme et son fonctionnement dépendent de son génome, mais de façon plus subtile que l’application d’un simple algorithme numérique et du schéma classique de la biologie moléculaire comme le montre l’épigénétique. C’est pourquoi la seule donnée de la séquence d’ADN ne suffit pas à déterminer et à comprendre la structure et le fonctionnement d’un organisme. C’est pour cela aussi que la biologie actuelle s’intéresse à l’expression de ce génome, à ses changements au cours du temps, suivant une dynamique propre ou conditionnée par des facteurs environnementaux.
2. Homogénéité individuelle, diversité des organismes Ainsi la multiplicité des facteurs internes et externes introduit une sorte de « bruit », de « hasard », dans l’expression du génome et contribue ainsi à une diversification des formes et des physiologies, même pour des individus ayant un même génome. Mais cette diversité est très faible. Elle est un peu plus importante pour les individus d’une même lignée, c’est-à-dire ayant les mêmes parents, mais provenant de fécondations différentes. Elle est encore plus importante entre les individus d’une même population,
50
Le hasard dans les systèmes vivants
puis entre ceux d’une même espèce. Progressivement la diversité augmente avec la distance familiale, puis populationnelle et spécifique. Si l’on regarde maintenant l’ensemble des organismes vivants, on observe une grande diversité phénotypique, en particulier de formes et de fonctions, notamment de métabolismes. Les grandes classifications du vivant ont été établies à partir des ressemblances et dissemblances entre les morphologies, si bien que l’on confond souvent la diversité biologique avec celle des formes des différents organismes. Depuis peu on utilise les génomes ou certains fragments pour analyser à nouveau ces classifications et en établir éventuellement de nouvelles (cf. note 9). L’évolution moléculaire replace ces analyses dans un schéma historique. Les études récentes de la biologie du développement montrent que des mécanismes morphogénétiques sont communs à de nombreuses espèces pouvant être très éloignées sur le plan phylogénétique. C’est le cas, par exemple, pour l’axe de symétrie bilatéral, et pour les axes de développement dorsoventral et antéropostérieur. On les retrouve aussi bien chez des insectes comme la drosophile, chez les oiseaux ou encore chez les mammifères, telles des « variations sur un même thème ». On observe également une diversité fonctionnelle, c’est-à-dire des métabolismes et des physiologies très différentes. Cette diversité s’organise cependant autour de grandes fonctions métaboliques (production d’énergie, assimilation, dégradation et synthèse des structures biologiques, activités électriques et mécaniques, reproduction) et sur un nombre limité de grands schémas. Ainsi le monde végétal est largement photosynthétique, et le monde animal uniquement chimiosynthétique. Rappelons que les organismes photosynthétiques tirent leur énergie de la lumière et le carbone du gaz carbonique atmosphérique. Les photoautotrophes, contraction de photosynthétiques et autotrophes, sont photosynthétiques tout en tirant du monde minéral les éléments supplémentaires dont ils ont besoin. Pour les photo-hétérotrophes, de la matière organique leur est en plus nécessaire. Les chimiotrophes tirent leur énergie de substances puisées dans le milieu, inorganique ou organique. On distingue aussi les chimio-autotrophes, qui extraient leur carbone du gaz carbonique et leur énergie par oxydation de substances inorganiques du milieu (par exemple d’hydrogène sulfuré pour les bactéries des grands fonds océaniques), et les chimio-hétérotrophes, qui tirent leur énergie et leur carbone de substances organiques du milieu (par exemple de sucres et d’acides aminés pour les animaux). Cette classification est simple, mais
51
LA NÉCESSITÉ DU HASARD
lors de l’évolution, une grande diversité de mécanismes a été mise en place pour assurer ces fonctions de base, y compris des mécanismes écologiques (par exemple, les relations « mangeurs-mangés » dans les chaînes trophiques). Elle se fonde essentiellement sur des relations coopératives. Par exemple, des bactéries capables de fixer de l’azote atmosphérique s’associent à des végétaux auxquels elles fournissent des produits azotés assimilables. En retour, elles obtiennent des métabolites qui leur permettent des « économies d’énergie ». Ainsi l’association entre les bactéries du genre Rhizobium, fixatrices d’azote, et le soja a été très étudiée pour des raisons économiques mais aussi scientifiques, car il s’agit d’un bon « modèle biologique ». Enfin, comme nous l’avons signalé précédemment, il semble que les mitochondries proviennent de microorganismes symbiotiques qui se sont intégrés dans les cellules des organismes supérieurs. C’est une relation coopérative poussée à l’extrême.
3. Une structure coopérative Au niveau de l’organisme, à part dans le processus de reproduction, le hasard apparaît plutôt dans les mécanismes de réponse aux aléas du milieu. C’est le cas du système olfactif et du système immunitaire que nous présentons à la section suivante. En effet, une perturbation aléatoire (un antigène ou une odeur) va enclencher une réponse physiologique qui va intégrer et traduire cet aléa externe. Cependant, des résultats récents montrent que d’autres processus, notamment moléculaires, font aussi appel au hasard, par exemple dans l’expression aléatoire de certains gènes bactériens (Kupiec, 2006). Dans sa diversité, on connaît l’extraordinaire précision du développement embryonnaire et la finesse des processus de régulation physiologique ultérieurs. Quelle que soit la solution sélectionnée, la machine doit être bien construite. Elle ne peut se permettre un fonctionnement trop aléatoire. Elle est aussi adaptable. Depuis l’article fondateur de Norbert Wiener (1947), on sait que l’observation des systèmes vivants est une source d’inspiration pour les ingénieurs, par exemple avec le développement de la cybernétique dans les années 1950. En sens inverse, les progrès sur la théorie du contrôle automatique ont permis de mieux étudier les régulations physiologiques. C’est au niveau des organismes que le paradigme technologique convient le mieux. Il serait bon que les ingénieurs aient une culture biologique…
52
Le hasard dans les systèmes vivants
L’organisme, machine vivante, n’a pu s’édifier que sur la base de la coopération entre des structures biologiques assurant des fonctions complémentaires : entre macromolécules pour les cellules, entre cellules pour les organes et entre organes pour les organismes multicellulaires. L’importance de ce type de mécanismes dans les processus évolutifs doit être fortement soulignée (Michod, 2000, Ferrière, 2003). Il est parfaitement compatible avec une vision darwinienne. On retrouve ce type de relation au niveau écologique et nous avons déjà insisté dans un autre ouvrage sur son importance (cf. encadré 3). Néanmoins, certains aléas peuvent jouer lors des processus de développement et de renouvellement d’un organisme. L’ADN des cellules somatiques est susceptible de mutations et de brassages. D’autres sont presque invisibles. Une génétique des cellules somatiques reste encore largement à faire et pas seulement sur les pathologies apparentes, même si on peut y voir à juste titre une priorité. Dans cette optique, les travaux actuels sur la biologie du développement sont aussi essentiels. Au bout du compte, pourquoi trouve-t-on, chez les organismes supérieurs, une différence marquée entre les lignées cellulaires germinales et les lignées somatiques ? Quelles sont les différences entre dynamiques du génome ? Les processus de brassage sont-ils comparables ? Jouent-ils ou non le même rôle ? Ces questions doivent être posées et des réponses données, alors que nous atteignons un stade du développement technique autorisant le clonage, c’est-à-dire la reproduction d’un individu à partir de noyaux de cellules somatiques.
Encadré 3 Compétition et coopération (adapté de Pavé, 2006a) Pendant longtemps, particulièrement depuis l’ouvrage de Charles Darwin, la compétition a été considérée comme l’un des principaux mécanismes d’interaction entre des entités vivantes (c’est-à-dire, la compétition intraspécifique entre individus de la même espèce, la compétition interspécifique entre individus d’espèces différentes ; comme exemple de compétition on peut prendre l’accès à des ressources nutritives identiques). Les mécanismes de coopération ont été curieusement négligés. On peut prendre
53
LA NÉCESSITÉ DU HASARD
comme exemple le plus achevé la symbiose où deux organismes différents produisent des composés utiles à l’autre (par exemple, un composé azoté produit par des bactéries, utile à des plantes comme le soja, et la fourniture aux bactéries, par exemple des rhizobiums, de composés biochimiques qui leurs sont nécessaires). On a pu montrer à partir d’études théoriques que si les relations se limitent à des compétitions, un écosystème tend vers la simplification : les espèces, voire l’espèce, les plus compétitives « gagnent le jeu de la vie » en excluant les autres. On observe donc une diminution de la diversité biologique. Parmi les mécanismes de conservation de la diversité, la coopération joue sans doute un rôle important. En se plaçant au niveau cellulaire, R. Michod a réaffirmé récemment que cette organisation ne peut pas être expliquée seulement par la compétition entre entités subcellulaires, mais surtout par des mécanismes de coopération (par exemple, la coopération entre macromolécules pour dessiner les voies métaboliques). Il a aussi montré que cette hypothèse coopérative n’est pas en contradiction avec la théorie darwinienne. Il parle de « dynamique darwinienne ». Elle peut expliquer les phénomènes d’organisation du vivant, au moins jusqu’au niveau des organismes. Nous avons proposé que de tels mécanismes aient aussi contribué à l’augmentation de la biodiversité à l’échelle géologique (Pavé et al, 2002). Ce type de mécanismes est de plus en plus trouvé dans la nature. Mais comment peut-on expliquer le temps mis par la communauté scientifique pour apprécier l’importance de la coopération ? On peut penser à deux raisons principales : – les idéologies des sociétés humaines, qui mettent la compétition sur le devant de la scène de la « comédie de la vie » comme facteur de progrès, en suivant les idéaux du libéralisme économique ; – la diversité et la complexité des mécanismes coopératifs qui les rend difficiles à identifier. En pratique, il ne faut pas par un phénomène de retour de balancier négliger la compétition, mais considérer que les deux ensembles de mécanismes, coopératifs et compétitifs, jouent simultanément. Leurs importances relatives peuvent varier dans le temps et l’espace. On notera cependant que les mécanismes de coopération, poussés à l’extrême comme les symbioses obligatoires, introduisent une nécessité. Pour avoir un panorama des mécanismes de coopération, on pourra consulter l’ouvrage collectif édité par Harmmerstein (2003).
54
Le hasard dans les systèmes vivants
Pour les aspects fonctionnels, ce sont les potentialités d’adaptation physiologique au milieu et à ses variations, les possibilités de survie et de maintien des capacités reproductrices, qui conditionnent la transmission héréditaire. C’est cette capacité de réponse et de résistance d’une part aux aléas environnementaux et, d’autre part, aux variations autour d’un « point de fonctionnement » des organismes18, qui va assurer le maintien sur le long terme d’un ensemble d’individus semblables constituant une espèce. Les grandes extinctions historiques sont interprétées comme une traduction – catastrophique – de la sensibilité des organismes aux aléas environnementaux. Ceux qui ont survécu le doivent d’une part à leur capacité d’adaptation physiologique protégeant contre ces aléas, et d’autre part à leur capacité d’évolution vers des formes et fonctions adaptées aux nouveaux environnements, c’est-à-dire à la possibilité de brasser leurs génomes pour engendrer suffisamment de génotypes possibles parmi lesquels se trouveront des traductions phénotypiques adaptées à ces environnements. Cette évolution se fait au sein de l’ensemble des individus des populations représentant une espèce.
4. Un hasard limité, mais efficace : le système immunitaire et le système olfactif Pour les organismes, nous venons d’insister sur les aspects fonctionnels en soulignant que la part de l’aléatoire semble très limitée. Il existe cependant des mécanismes qui mettent en cause des phénomènes combinatoires, et pour cela produisent du hasard, ou sont conçus pour répondre aux aléas. C’est le cas des réactions immunologiques et du système olfactif. Pour le système immunitaire, devant la multiplicité des antigènes possibles, une véritable combinatoire permet de synthétiser des anticorps spécifiques. Des gènes ou des portions de gène sont transcrits, les morceaux sont rassemblés puis traduits, produisant des protéines différentes et cela dans des millions de cellules. Il est ainsi fabriqué et de façon permanente des millions de molécules au hasard. Lorsqu’un corps
18. Le maintien autour d’un point de fonctionnement, par exemple assurer une température à peu près constante chez les homéothermes, est appelé « homéostasie ». C’est vrai aussi pour de nombreux paramètres biochimiques. Un écart trop grand par rapport au repère homéostatique traduit généralement un état pathologique. Les états normaux sont maintenus grâce à de nombreux mécanismes de régulation, qui évitent notamment des fonctionnements erratiques, chaotiques là où ils seraient néfastes pour l’organisme.
55
LA NÉCESSITÉ DU HASARD
étranger est reconnu, la voie de synthèse sélectionnée est amplifiée. Le couple « hasard-sélection »19, hasard de la production des protéines potentiellement antigéniques en très grand nombre et sélection d’une d’entre elles en cas de signal positif, est une bonne « assurance-vie » pour l’organisme. Autre exemple, les mécanismes de reconnaissance olfactive, chez l’Homme, mettent en u œvre un nombre limité de récepteurs (de l’ordre de 300) alors que nous sommes potentiellement capables de reconnaître un nombre beaucoup plus grand d’odeurs, dont des odeurs nouvelles. En fait, le système de reconnaissance est fondé sur un « codage combinatoire flou », selon l’expression utilisée par les spécialistes20. D’une part, les récepteurs sont peu spécifiques et peuvent détecter plusieurs types moléculaires et, d’autre part, une substance peut activer plusieurs récepteurs (au hasard des récepteurs possibles). Finalement, c’est l’association des signaux nerveux correspondants qui assure la spécificité de la reconnaissance puis de la mémorisation de cette odeur. Nous avons mis en avant le paradigme technologique de la « machine-organisme ». D’aucuns pourraient dire que le cas des réactions immunitaires est un contre-exemple. En fait, une roulette21, produisant du hasard, est un dispositif physique, battre des cartes est une technique pour la même fin. Par analogie, les mécanismes qui produisent du hasard, donc de la diversité, permettant à l’organisme de survivre et de fonctionner, sont aussi des éléments de la machine vivante : là aussi, nécessité du hasard et de ce qui le produit. Comme nous l’avons vu dans le cas de la résolution de problèmes numériques complexes, de tels processus sont très efficaces. Mais d’autres ont des stratégies analogues et expriment ainsi des propriétés pathogènes. Ainsi des micro-organismes, des protozoaires comme le plasmodium du paludisme, des bactéries et surtout des virus sont à même d’engager une course contre le système
19. On pourra se référer à l’ouvrage de Kupiec et Sonigo (2000). On trouvera dans ce livre les références à la théorie « darwinienne » du système immunitaire, en particulier les travaux de Jerne puis de Burnett et Talmage. 20. On pourra consulter le compte rendu de la séance du 14 mars 2004, de l’Académie d’agriculture de France, sur le site internet de cette académie : http://www.academie-agriculture.fr/. 21. Précisons que ce mot a été utilisé par d’autres auteurs, mais dans un contexte plus limité, ainsi Carlton et Geller (1993) parlent de roulette écologique à propos du transport d’espèces marines, potentiellement invasives.
56
Le hasard dans les systèmes vivants
immunitaire et parfois de la gagner. Dans le cas des virus, on peut prendre l’exemple du VIH qui a des mécanismes de diversification efficaces, une « roulette » bien rodée et qui tourne vite. L’une des voies de lutte contre ce type de virus serait d’inhiber cette roulette biologique pour ralentir, voire même bloquer, le processus de diversification. À condition, bien sûr, de ne pas agir de la même façon sur la production des anticorps.
5. Utiliser les aléas de l’environnement Nous venons de voir comment les organismes mettent en u œvre des « roulettes biologiques » pour répondre à certains aléas de l’environnement. Ces mécanismes et les structures vivantes correspondantes ont été sélectionné au cours de l’évolution. D’autres caractères ont aussi été sélectionnés afin d’utiliser les aléas de l’environnement, c’est le cas de la forme de graines végétales. Nous verrons plus loin que la distribution aléatoire des végétaux et un large étalement dans l’espace des individus sont des facteurs de résistances à des aléas du milieu pouvant mettre en danger les populations et espèces correspondantes (cf. section VI.3). Cette distribution et cet étalement dépendent des processus de distribution des graines et à cette fin l’utilisation des aléas de l’environnement de ces plantes est une bonne solution : turbulences atmosphériques et hydrologiques, déplacements des animaux, parmi eux l’Homme lui-même. C’est ainsi qu’on peut expliquer la sélection de caractères comme la forme des graines (par exemple, des graines ailées, des crochets sur la surface pour s’accrocher sur les animaux, lire à ce sujet l’article très bien illustré de Thivent, 2006), ou l’appétence du fruit pour ces animaux qui consommeront la pulpe et rejetteront les graines au hasard de leurs déplacements.
6. Organismes et changements de l’environnement Enfin, l’aspect fonctionnel n’est pas limité aux organismes. En effet, les organismes sont des systèmes ouverts qui tirent ressources et énergie du milieu dans lequel ils vivent, qui y rejettent des sous-produits de leur métabolisme et, ce faisant, en modifient la composition chimique. Ils le changent aussi par leur activité mécanique. Ainsi, ils le transforment et comme ils peuvent se reproduire en grand nombre, un impact à large échelle peut en résulter, comme des modifications des cycles biogéochimiques. Ce fut, par exemple, le cas quand les premiers organismes photosynthétiques sont
57
LA NÉCESSITÉ DU HASARD
apparus sur la Terre, et ont changé progressivement et profondément la composition chimique de l’atmosphère. Enfin, leur présence et leur développement, et encore plus s’ils sont envahissants, modifient les composantes biologiques et écologiques de cet environnement avec lesquelles les autres populations doivent compter. Les aléas environnementaux ne sont donc pas tous d’origine météoritique, météorologique ou tellurique. Les systèmes vivants y contribuent largement.
IV Lignées, populations et espèces : au hasard des rencontres, des accouplements et des perturbations Les individus ayant une même ascendance constituent une lignée. Le brassage génétique est obtenu suivant les mécanismes déjà présentés. Dans le cas de la reproduction sexuée, les possibilités de choix du partenaire, dans un ensemble d’individus possibles, donc d’un génotype, constitue une cinquième source de diversité biologique. Les lignées, prises ensembles, forment des populations (cf. encadré 4). Elles s’entremêlent. Ces lignées ne sont pas « linéaires », mais elles peuvent être représentées par des arborescences ascendantes ou descendantes, en partant d’un individu pris à un moment donné en établissant l’arbre de ses ancêtres ou de celui de ses descendants, ou bien un treillis si l’on représente l’ensemble des apparentés. Dans de nombreuses populations, le choix du partenaire au moment de la reproduction n’est pas déterminé a priori, même s’il peut y avoir des préférences, en particulier chez les animaux supérieurs où existe une structure sociale et plus encore chez l’être humain. Cette non-détermination ne va pas de soi. On pourrait imaginer des espèces où le choix serait réglé à l’avance. De tels schémas existent, mais ils sont l’exception et non la règle générale (exemple des mâles dominants dans certains groupes animaux). Cependant, un facteur important joue : la répartition spatiale des individus. Dans les populations sexuées, la probabilité de rencontre de deux partenaires et de croisement entre eux, ou dans les populations asexuées un transfert de gènes, dépend de la distance entre les individus et des possibilités de déplacement. Ces dernières sont limitées par la
58
Le hasard dans les systèmes vivants
mobilité des individus et par ce qu’on pourrait appeler la « viscosité du milieu » et sa topographie. Chez les animaux, la rencontre directe est nécessaire. Les végétaux doivent utiliser des vecteurs, soit passifs (vent, eau), soit actifs (par exemple les animaux pollinisateurs). Mais dans les deux cas, une large part est laissée au hasard, le « hasard des rencontres », même dans les fortes spécialisations, par exemple, si certains insectes pollinisateurs sont spécialistes d’espèces végétales. En revanche, le choix d’un individu particulier dans un ensemble de possibles de la même espèce reste en bonne partie aléatoire.
Encadré 4 Populations, métapopulations, espèces Les populations sont des ensembles d’individus se reproduisant entre eux, c’est-à-dire assurant un flux et un brassage génétique endogènes. En fait, une population est rarement isolée, il peut y avoir des échanges avec d’autres. C’est pour cette raison, et pour « fermer le système », que le concept de métapopulation a été introduit. Il s’agit d’un ensemble de populations, où le flux endogène est prédominant à l’intérieur de chacune, mais avec des échanges possibles entre elles. Les oiseaux donnent de bons exemples de telles structures. Partir de cette notion de population permet d’introduire la notion d’espèce, c’est-à-dire un ensemble constitué des populations actuelles, passées et futures d’individus ayant de grandes similarités phénotypiques et génétiques, pouvant, potentiellement, se reproduire entre eux. Une espèce nouvelle peut apparaître lorsque les flux de gènes avec les populations parentes s’annulent. En fait et pour des raisons pratiques, l’appartenance de spécimens à une espèce donnée ne peut se faire sur ce critère biologique, aussi utilise-t-on des critères morphologiques (approche classique) ou des critères moléculaires en analysant des séquences spécifiques discriminantes (on citera par exemple, l’ADN dit « microsatellite », séquences trouvées dans le génome, dont la fonction n’est pas connue, mais très utile pour la cartographie du génome, l’ARN ribosomal, une des molécules constituant des ribosomes, des organites cellulaires impliqués dans la synthèse protéique ou les séquences codant pour certaines protéines, comme le gène du cytochrome C). Ces techniques peuvent également permettre de caractériser des populations et ainsi d’estimer les flux géniques entre populations.
59
LA NÉCESSITÉ DU HASARD
Schéma de principe : populations, métapopulations et espèces. Un des principes de la spéciation est montré entre les temps t0 et t2 quand une population est isolée, et où, progressivement, une dérive génétique s’installe pouvant mener à l’apparition d’une nouvelle espèce. Parmi les processus génétiques chez les plantes, la possibilité d’hybridation interspécifique et de polyploïdie est un facteur de diversification et d’apparition de nouvelles espèces, même sans isolement géographique. Enfin, les processus intrapopulationnels pertinents à ce niveau concernent la dynamique de ces populations et ses aspects démographiques et génétiques (reproduction, survie, mutations) ayant une forte composante aléatoire.
60
Le hasard dans les systèmes vivants
Enfin, suite aux mutations, à leur transmission et au brassage génétique au moment de la reproduction, la composition génique d’une population change dans le temps et s’éloigne de la composition observée à un moment donné. Cet éloignement est progressif, mais il peut s’accélérer soit suite à des perturbations environnementales, soit par des processus endogènes, comme l’activation des transposons, ces morceaux d’ADN qui sont susceptibles de changer de place dans le génome, ou un fort degré de parenté entre individus (taux de consanguinité très important). Parmi les résultats de cette « dérive génétique », on peut enregistrer l’apparition d’une nouvelle espèce. En résumé, les brassages génétiques sont les mécanismes fondamentaux de diversification des êtres vivants. Beaucoup produisent des résultats aléatoires analogues à la donne d’un jeu de cartes après les avoir battues. Le nombre de résultats possibles du brassage génétique est énorme en comparaison à l’infime partie qui se réalise22. De plus, ne survivent que ceux qui sont viables par nécessité fonctionnelle ou physiologique ; il faut pouvoir « jouer le jeu de la vie ». Ces organismes, un peu différents des parents, doivent pouvoir subsister assez longtemps dans le milieu dans lequel ils sont plongés (nécessité écologique), en particulier pouvoir se reproduire pour laisser une trace dans l’histoire de la vie. Alors, de générations en générations, l’accumulation des modifications génétiques conduit à des lignées qui vont se différentier progressivement de celles de départ, jusqu’à produire de nouvelles variétés et espèces. Elles vont ainsi conduire à une diversité d’organismes puis d’ensembles d’organismes (populations), qui interagiront dans des systèmes écologiques (communautés et écosystèmes). Ces changements sont le plus souvent progressifs, mais on sait maintenant, notamment chez les micro-organismes, qu’ils peuvent s’accélérer, tantôt sous l’influence de processus endogènes (dont l’activation est peu connue), tantôt en réponse à des modifications de l’environnement (exemple du rôle des gènes SOS, qui modifient le processus de réparation de l’ADN).
22. On peut illustrer sur un exemple simple le nombre astronomique de résultats possibles auquel on peut arriver : prenons une espèce diploïde portant 23 paires de chromosomes et exactement 100 gènes par chromosomes, chacun d’entre eux ayant exactement 2 allèles. Un calcul simple montre que le nombre de génotypes possibles est de 24 600, soit de l’ordre de 101 385 (4 600 log10 2 = 1 384,738). Par ailleurs, on estime le nombre de particules de l’univers connu à 10100, on voit donc l’énormité du nombre de génotypes possibles, que l’on pourrait qualifier « d’hyperastronomique ».
61
LA NÉCESSITÉ DU HASARD
V L’évolution et ses théories : au hasard des modifications génétiques Rappelons le : l’évolution n’est pas une hypothèse ; elle est un fait. Les théories essayent de l’expliquer, mais elles ne la remettent pas en cause. Sinon on sort du champ scientifique. Il n’est pas de notre propos de détailler les différentes théories, sauf de signaler que la théorie darwinienne, à travers ses différentes adaptations au cours du XXe siècle, notamment par la prise en compte de la dimension génétique23, est toujours la référence. Darwin fait une part au hasard dans les changements auxquels succède une sélection des mieux adaptés. Il est donc bien question du duo « hasard-sélection », auquel succèdera le non moins célèbre couple « hasard-nécessité » de Monod. Mais le hasard de Darwin reste contingent ; il n’est pas lui-même fruit de l’évolution. À ce propos, on soulignera que l’expression simple des bases de cette théorie permet d’établir des liens entre les niveaux génétiques, organismiques et écologiques. On remarquera aussi que le terme « sélection » inclut une large gamme de mécanismes possibles et que la réduction à la compétition n’est pas idéologiquement neutre (cf. encadré 3). C’est là encore tout l’intérêt des travaux de R. Michod qui montre que les mécanismes de coopération sont aussi sélectifs. Bien qu’il s’arrête au niveau cellulaire, on peut sans peine imaginer l’extension aux niveaux populationnels et écologiques. Dans les années 1940 la théorie synthétique de l’évolution unifie le champ en supposant : (1) que les grands traits de la théorie de Darwin sont valables, (2) qu’il est possible de faire des approches expérimentales en un temps infiniment court par rapport à la durée réelle et que les résultats de ces micro-évolutions restent valables à l’échelle de la macroévolution, (3) que les dimensions génétiques et plus tard moléculaires sont des bases essentielles pour comprendre la dynamique du phénomène évolutif24. Les principaux auteurs sont Dobzhansky, Teissier et L’Héritier, Mayr et Simpson et plus tard les courants représentés par
23. On peut rappeler que C. Darwin avait reçu l’ouvrage de G. Mendel, mais ne l’avait pas lu. 24. R. Lewontin affirma, avec juste raison, que les traces de les plus marquantes et objectives de l’évolution se trouvent au niveau moléculaire (le génome, ses transcriptions sous forme de divers ARN et ses traductions protéiques).
62
Le hasard dans les systèmes vivants
Ayala et par Lewontin. Par ailleurs, les progrès de la génétique des populations, dont les pionniers sont Fisher et Haldane, conduisent à une vision populationnelle de l’évolution. Les mécanismes invoqués font largement appel au « hasard » des modifications du génome. Mais ce hasard est toujours contingent, on ne recherche pas à proprement parler de mécanismes biologiques qui le produisent, ni la signification évolutive de ces mécanismes. À la fin des années 1960, Kimura et Ohta font les premières analyses évolutives au niveau moléculaire, sur des protéines, et proposent la « théorie neutraliste » de l’évolution, que nous avons déjà évoquée. Les changements génétiques se feraient progressivement sur la base de mutations « neutres » c’est-à-dire ne conférant pas d’avantage sélectif. Les populations nouvelles s’écartent progressivement et lentement des populations originelles. Cette théorie est parfois vue comme une alternative au darwinisme. Son gros intérêt est de conduire à des modèles mathématiques, probabilistes, et donc de se prêter à des comparaisons formelles et quantitatives. D’une certaine façon la théorie neutraliste joue le rôle de l’hypothèse nulle du statisticien (cf. chapitre 1, section II sur le hasard des statisticiens) : à l’issue d’une expérience, on suppose que l’écart observé par rapport à une valeur attendue est simplement dû au hasard ; dans le cas de la théorie neutraliste, le fait que les modifications enregistrées ne donnent pas prise à un mécanisme de sélection est l’hypothèse de base, correspondant à cette hypothèse nulle. Cette théorie, fondée sur des analyses au niveau moléculaire (acides nucléiques et protéines), n’intègre évidemment pas d’aspects phénotypiques, expression du génome au niveau de l’organisme, qui sont eux sensibles aux mécanismes sélectifs. C’est pour cette raison que cette théorie est très discutée, mais elle peut servir de référence. L’une des difficultés réside dans l’approche expérimentale de l’évolution. Certes elle n’est pas impossible. En effet, on peut vérifier certaines hypothèses en laboratoire sur des populations à générations rapides, comme des bactéries, ou parmi des organismes supérieurs tels la drosophile ou la souris. Cette approche reste néanmoins très locale dans le temps et dans l’espace eu égard à la dimension du phénomène (cf. figure 2.4). L’autre difficulté est de faire converger les arguments moléculaires, populationnels, écologiques et paléontologiques. Cela étant dit, on peut penser que dans le « grand bricolage » de l’évolution une série de phénomènes ont joué, chaque théorie apportant une pierre
63
LA NÉCESSITÉ DU HASARD
Figure 2.4. Échelle de temps de l’évolution. On notera que les premiers pas ont été très lents et que tout s’est accéléré à partir du Cambrien (vers – 550 millions d’années). La place de la figure 1.1 est repérée à droite du schéma. On met aussi en évidence un phénomène important, à savoir l’extension des organismes photosynthétiques qui ont modifié complètement les conditions de vie sur la Planète. Cette transformation s’est traduite lentement au niveau atmosphérique, très probablement parce que, dans un premier temps, des matériaux de surface ont été oxydés (par exemple, l’oxydation du fer, donnant les banded iron formations, entre 2,5 et 2 milliards d’années, Crowley et North, 1991). Ensuite, il a fallu que la couche d’ozone soit bien installée pour que la colonisation des continents soit possible (fin du Silurien et début du Dévonien).
à l’édifice. Mais la pierre angulaire reste encore la mécanique néo-darwinienne et la théorie synthétique de l’évolution25. Dans les progrès futurs, on peut attendre une meilleure prise en compte du couple « hasardsélection » (la sélection, ou plutôt la « sélectivité », étant l’expression évolutive de la nécessité), des mécanismes d’expression du génome et des relations avec l’environnement pour opérer une synthèse encore plus large. En particulier, il faut se garder de tout ramener au gène, même au pluriel (Kupiec et Sonigo, 2000). En effet, si l’évolution imprime sa
25. Signalons cependant, la théorie des équilibres ponctués, proposée par Gould et Eldredge en 1972 (Gould, 1977) qui postule que la spéciation n’est pas progressive, mais que des espèces apparaissent lors de « crises » brutales. Mais ce mécanisme supposé est très contesté. De toute façon il ne change pas sur le fond notre discours sur le rôle du hasard bien au contraire.
64
Le hasard dans les systèmes vivants
marque au niveau génétique, et si les mécanismes de brassage du génome jouent un rôle essentiel dans les processus de diversification, on sait que l’expression du génome qui façonne un organisme, qui lui permet de fonctionner, et qui conditionne les relations écologiques qu’il pourra établir, n’est pas réductible à la structure d’un ensemble de gènes isolés. Cette expression met en cause de très nombreux gènes en interaction. Elle est modulée par l’état interne des cellules et de l’organisme. Elle dépend des variations de l’environnement. L’extrême lenteur du phénomène évolutif à ses débuts est étonnante. Alors que la vie apparaît assez tôt dans l’histoire de la Terre, il faut près de 2 milliards d’années avant de voir émerger les eucaryotes, encore que cette « date » ancienne fasse toujours objet de débats, puis encore un peu plus de 1 milliard d’années pour que les premiers métazoaires se manifestent dans l’océan (radiation d’Ediacara, à la fin du Vendien, âge qui précède le Cambrien). Il s’agit là des premières grandes expressions majeures des modifications du génome. Ensuite, les événements s’accélèrent, évidemment rapportés à l’échelle de temps, avec les diversifications cambriennes et post-cambriennes26. Il nous semble alors raisonnable d’exprimer l’hypothèse que les mécanismes de modification du génome sont apparus progressivement. Ils n’étaient pas acquis dans les cellules primordiales, à l’image de beaucoup d’autres mécanismes cellulaires. En l’absence d’un schéma prévisionniste (et finaliste !) – la vie ne sait pas ce qui l’attend – ces mécanismes produisent du hasard, donc de la biodiversité et conduisent alors à un ensemble de réponses possibles à des variations environnementales non connues a priori, ni dans leurs natures, ni dans leurs amplitudes, ni dans leurs occurrences temporelles, ni dans leur durée. Ils auraient été sélectionnés pour
26. On estime à 3 millions d’années le moyen temps nécessaire pour qu’une espèce donne naissance à deux espèces (Kirchner et Weill, 2000, Bonhomme, 2003). Or si le nombre d’espèce dépasse 3 millions, ce qui est probablement le cas aujourd’hui (on parle même de 10 fois plus) et si on suppose que ce processus est stationnaire, il apparaît, en moyenne, au moins une espèce nouvelle sur la Planète chaque année. Le stock existant et le flux de création de nouvelles espèces est à mettre en balance avec le nombre de celles qui disparaissent, qu’on a du mal à chiffrer globalement, mais qui est au moins d’un ordre de grandeur supérieur. Cela étant, toutes ces estimations sont très grossières et l’un des objectifs urgents est d’en obtenir de plus précises et de rendre plus cohérent, et donc plus convainquant, le discours sur la biodiversité en s’appuyant sur des acquis incontestables.
65
LA NÉCESSITÉ DU HASARD
assurer la survie des êtres vivants justement par cette grande diversification. Les algorithmes génétiques nous fournissent un excellent paradigme de l’efficacité d’un tel schéma pour trouver une (ou des) solution(s) dans une topographie spatio-temporelle complexe, et celle de l’environnement, continuellement changeant, de notre planète, l’est tout particulièrement. La croissance de la biodiversité présentée figure 1.1 pour les organismes marins est une observation qui se retrouve chez d’autres organismes, terrestres en l’occurrence, à partir du Dévonien, période de grande colonisation des continents (Carroll, 2001). On peut penser que les risques environnementaux sont plus grands et plus brutaux sur les continents y compris sur les marges littorales, où une grande partie de la vie maritime s’est développée, que dans le milieu marin très « tamponné » et amortissant les aléas. La colonisation des continents aurait conduit à accélérer la sélection des mécanismes de diversification et pourrait expliquer, a contrario, la lenteur de l’évolution pendant toute la longue période précambrienne où la vie était essentiellement marine. Nous venons de présenter un schéma évolutif, dont nous cernons les mécanismes moléculaires, dont nous pouvons imaginer l’expression phénotypique et l’occurrence temporelle, et dont nous connaissons les traductions populationnelles. Mais il manque à ce schéma une meilleure appréhension écologique et une réelle vision spatiale. Car somme toute, tout cela se passe sur la couche superficielle de la Planète, avec ses hétérogénéités écologiques (climatiques, géo-physico-chimiques et biologiques) et leur positionnement dans cet espace. Or ce dernier a changé à l’échelle géologique au gré des déplacements des surfaces continentales et les conditions de vie, même en l’absence d’accident majeur, ont été largement modifiées au cours du temps. Il faut donc continuer à bâtir la théorie synthétique de l’évolution en prenant en compte ces nouvelles dimensions. C’est ce qui est esquissé ici. Cependant, il ne faut pas oublier de hiérarchiser les choses : toute évolution a une base génétique et les mécanismes de cette évolution font largement appel à des processus aléatoires qui auraient été sélectionnés pour trouver des solutions aux variations locales ou globales de l’environnement.
66
Le hasard dans les systèmes vivants
VI Le hasard écologique : vivre et subsister ensemble, faire face aux risques environnementaux Les systèmes vivants occupent l’espace géographique, mais pas d’une façon homogène. Ils changent dans le temps, de l’échelle de la vie des organismes à celle de l’évolution de la vie sur la Terre. L’écologie est la discipline qui traite de la façon dont les individus, les populations, les communautés se distribuent, en fonction du temps, dans cet espace hétérogène avec ses propriétés topologiques, géo-physico-chimiques et biologiques, comment ils entretiennent des relations entre eux et avec leur milieu, et modifient ce milieu par leur activité mécanique et biochimique. Par exemple, les animaux et plus encore les plantes sont répartis selon des zones biogéographiques, latitudinales et altitudinales, très liées aux conditions climatiques, caractérisées principalement par la température et la pluviosité. Plus localement, les propriétés du milieu jouent aussi, par exemple les propriétés édaphiques (liées aux sols) et topographiques (liées au relief), voire la dynamique du fluide, eau ou air dans lequel vivent les organismes, et ses propriétés physicochimiques. C’est en remarquant cette dépendance que la notion de niche écologique a été énoncée. Précisons cette notion clé. Une niche écologique est caractérisée par un ensemble de paramètres géo-physico-chimiques et biologiques du milieu, favorables au développement des populations d’une espèce. Cette niche n’est pas forcément constituée de zones spatialement uniques ou connectées. En effet, on peut retrouver ces conditions favorables dans des endroits distincts (Vandemeer, 1972). On appelle habitat une réalisation spatio-temporelle d’un niche écologique : un endroit et un intervalle de temps où et pendant lequel des organismes d’une espèce peuvent vivre et se reproduire. L’expression concrète de la niche est alors la réunion de ces habitats. L’émergence de l’écologie et de la biogéographie, l’évidence des dépendances d’une espèce par rapport au milieu, et du fait évolutif, a été rendue possible lorsque les « savants » ont pu se déplacer au cours de leur vie sur des distances qui leur permettaient de voir, d’observer et de comparer des situations très différentes. L’exemple de Darwin et de son voyage sur le Beagle en est la meilleure illustration. Par ailleurs, on peut montrer théoriquement, sur des modèles simples de Lotka-Volterra (cf. encadré 5), que lorsque plusieurs populations,
67
LA NÉCESSITÉ DU HASARD
Encadré 5 Exclusion compétitive Pour présenter cette théorie, dite de l’exclusion compétitive, on peut s’appuyer sur le modèle mathématique dit de Lotka-Volterra. Prenons deux espèces caractérisées par les variables x et y, représentant les effectifs ou les densités de deux espèces vivant dans un même milieu. On peut penser qu’elles soient en compétition pour l’occupation de l’espace et pour l’accès aux ressources. Ce modèle s’écrit :
Les paramètres r1, r2, K1, K2 caractérisent la démographie des populations des deux espèces. Si elles sont isolées (c = 0), la dynamique de ces populations suit un modèle logistique, l’un des plus élémentaires du domaine pour représenter la croissance ou la décroissance de populations, ou plus généralement de situations où l’on rencontre ces deux phénomènes ; il est présenté dans la section III du chapitre 4. Les variables x et y représentent donc des effectifs ou des densités de populations et le paramètre c caractérise la compétition. L’étude de ce système dynamique conduit aux conclusions suivantes : le résultat le « plus vraisemblable » est que l’espèce la plus compétitive va « gagner la compétition » et éliminer l’autre (par exemple, y peut éliminer x). La coexistence est « moins fréquente ». En entrant plus dans le détail, quand on étudie ce système, suivant les valeurs des paramètres, pour les valeurs positives des variables x et y, on observe les issues suivantes : (1) x disparaît au bénéfice de y ou (2) y disparaît au bénéfice de x, quelles que soient les effectifs initiaux, (3) suivant les conditions initiales, x ou y disparaît, (4) x et y cohabitent. Mais la cohabitation nécessite des relations quantitatives très précises entre les paramètres du modèle qu’on a peu de chance de trouver réalisées « dans la nature » sans hypothèses supplémentaires (Pavé, 1994). C’est ce qui fait dire à de nombreux auteurs que cette situation est « peu probable », bien qu’en l’occurrence, il ne soit pas question de probabilité.
68
Le hasard dans les systèmes vivants
partageant les mêmes ressources, occupent un même espace, c’est-à-dire qu’elles sont mises en compétition, à terme c’est la mieux adaptée qui occupe tout cet espace. Ce résultat peut s’étendre à la notion de niche. Si toutes les populations d’une même espèce occupent la même niche écologique que des populations d’autres espèces plus compétitives, les premières vont disparaître et, réciproquement, si une espèce, dans l’ensemble de la niche est plus compétitive que toutes les autres alors, à terme, elle va l’occuper toute entière. Cette notion est efficace pour analyser certaines situations. Mais il s’avère que celles-ci sont extrêmes et ne correspondent pas à la majorité des zones habitées par les êtres vivants. Ainsi, on trouve des populations naturelles homogènes de sapins ou de bouleaux dans les zones froides. En dehors de ces zones, la tendance est plutôt à la diversité et les peuplements homogènes sont principalement l’œ uvre de l’Homme (par exemple, les plantations monospécifiques). De plus, lorsqu’on laisse le système fonctionner plus spontanément (exemple des friches) la tendance est à la diversification et non pas au maintien d’une situation monospécifique ou à son émergence avec une nouvelle espèce. Enfin, c’est dans la zone intertropicale qu’on trouve la plus grande diversité biologique, en particulier dans les forêts denses humides. Même s’ils ont connu des fluctuations dans le passé, par exemple, pendant l’holocène, ces écosystèmes sont installés depuis au moins 10 000 ans et aucun processus d’appauvrissement spontané de la diversité spécifique n’est enregistré. Il y a des variations locales dans les espèces présentes, mais la richesse spécifique est très voisine d’un endroit à l’autre. Ou bien la compétition n’a pas l’importance qu’on lui accorde, ou bien il existe des mécanismes qui empêchent ou évitent l’exclusion compétitive. C’est ce que nous allons examiner maintenant.
1. La théorie neutraliste de la biodiversité La théorie neutraliste de la biodiversité est émise par Hubbell (2001). Alors que les conceptions précédentes n’évoquent que superficiellement les aspects populationnels et écologiques, Hubbell se pose la question de l’apparition et surtout du maintien de la biodiversité dans un écosystème donné. En effet et comme on l’a déjà vu, d’après Darwin et dans les théories écologiques postérieures ne se maintiennent et ne se développent que les espèces les mieux adaptées. La célèbre expression « Struggle for life » (lutte pour la vie) et l’exclusion compétitive marquent la biologie
69
LA NÉCESSITÉ DU HASARD
des populations, l’écologie et l’évolution (cf. encadré 3). Le modèle de Lotka-Volterra de la compétition est l’une des pierres angulaires de l’édifice (cf. encadré 5). Pour rester cohérent avec ces théories, très schématiquement Hubbell propose que les paramètres démographiques des populations en question ne diffèrent pas « significativement ». Cette théorie est au départ fondée sur la théorie de la biogéographie insulaire. Elle affirme que pour une communauté écologique insulaire, ou locale, la richesse spécifique est à l’état quasi stationnaire quand il y a un équilibre entre l’immigration des espèces à partir d’une métacommunauté provenant
Figure 2.5. Vue aérienne d’une forêt tropicale humide (Guyane française). À cette échelle, la biodiversité apparaît déjà importante et la distribution des arbres est très hétérogène. C’est une mosaïque d’individus voisins mais d’espèces différentes. Cela contribue à considérer ces forêts comme complexes si on les compare aux forêts tempérées. Dans sa théorie neutraliste de la biodiversité, Hubbell explique principalement le maintien d’une telle biodiversité par les démographies voisines des espèces en question (taux de croissance, de fécondité, de mortalité très voisins, ou pouvant se compenser). Cependant, cette théorie ne prend pas en compte la nature apparemment aléatoire de la distribution des arbres dans l’espace alors que c’est peut-être là l’une des clés du problème. Photo : A. Pavé.
70
Le hasard dans les systèmes vivants
d’une aire géographique plus grande, et l’extinction locale des espèces. La dynamique d’une population locale est gouvernée par les processus de naissance, de mort et de migration aussi bien pour les modèles neutre et non neutre. Mais sous l’hypothèse de neutralité, à des larges échelles de temps et d’espace, et à l’état stationnaire, les abondances relatives des espèces sont réparties suivant une distribution en série logarithmique de Fisher, si dans la métacommunauté l’équilibre entre la spéciation et l’extinction est atteint. C’est-à-dire si les taux de naissance et de mort par espèce sont indépendants de la densité et identiques pour toutes les espèces, tout en introduisant la spéciation27. La figure 2.6 illustre et résume cet ensemble théorique. D’autres contributions montrent aussi que des variations de l’environnement, qui influent sur ces paramètres, peuvent aller à l’encontre de l’effet attendu, comme des mécanismes de consommation des ressources (Lobry et Harmand, 2006). En fait, Chave dans une brillante démonstration et à partir d’estimations fiables de paramètres démographiques d’arbres d’écosystèmes diversifiés, trace les limites de l’hypothèse de Hubbell (Chave, 2004, Chave et al. 2006). Clark et MacLachlan (2003) montrent, à partir de données paléo-écologiques, que la variance de la distribution spatiale des espèces forestières sur une longue échelle de temps, en l’occurrence depuis la fin de la dernière période glaciaire, ce qu’on appelle l’Holocène, traduit une forte et rapide stabilisation des écosystèmes incompatible avec la théorie neutraliste. Ce résultat a été contesté par le groupe Hubbell. Par ailleurs, la théorie neutraliste a été présentée comme contredisant la théorie de la niche écologique (par exemple, Whithfield, 2002). En fait, comme nous l’avons déjà signalé, cette notion explique quand même les grandes distributions spatiales : on ne trouve pas de cocotiers sur les côtes norvégiennes, sinon dans des serres, et plus localement aussi, on connaît le rôle des sols et de leur hydrologie sur la composition de la végétation. Mais, là où Hubbell a raison, une vision trop schématique de la théorie de la niche est contradictoire avec le maintien d’une grande biodiversité dans beaucoup d’endroits. Les hétérogénéités locales, créant des micro-habitats, ne permettent pas de l’expliquer.
27. Cette brève présentation nous a semblé bien résumer les principales hypothèses de cette théorie. Elle est tirée de : Volkov et al. (2004). C’est une réponse à l’article de Clark et MacLachlan (2003).
71
LA NÉCESSITÉ DU HASARD
Figure 2.6. Les principales hypothèses et les résultats majeurs de la théorie neutraliste de la biodiversité (d’après Volkov et al., 2003). On remarquera que les hypothèses sont très restrictives, notamment l’égalité des taux de naissance et de mortalité de toutes les espèces. La question de la distribution de l’abondance des espèces est un point clé dans la vérification de cette théorie (cf. la discussion dans Nature lancée par J. Chave, D. Alonso et R.S. Etienne et la réponse de Volkov et al. (Chave et al., 2006)).
72
Le hasard dans les systèmes vivants
2. La distribution spatiale : hasard et nécessité de l’environnement Revenons aux observations. La forêt tropicale humide est un bon objet de réflexion sur la question de la biodiversité et de son maintien. Déjà en s’y promenant, on remarque un apparent désordre, illustré par la photo de la figure 2.5. On remarque aussi, avec un peu de courage et même sans être botaniste, que, suivant les conditions de terrain, la végétation change plus ou moins. Ainsi les arbres d’un talweg humide ne sont pas tout à fait les mêmes que ceux de la crête d’une colline. Nécessité liée à l’environnement, le concept de niche n’est pas absurde. Mais à première vue, cette végétation présente toujours, sauf exception, un joyeux désordre. Certes, nous ne sommes pas devant un hasard parfait. Une distribution uniforme dans l’espace, mais on comprend que les composantes aléatoires de ces distributions sont importantes et à trop se focaliser sur les déterminismes, on risque de se perdre dans un labyrinthe de détails28. Il vaut peut-être mieux chercher le « déterminisme » de ce hasard. Pour cela, il faut se plonger encore une fois dans l’histoire de la vie.
3. Interprétation évolutive face aux risques : la nécessaire diversification et la non moins nécessaire distribution aléatoire La figure 1.1 nous raconte les grands traits de cette histoire de la vie. Certains détails sont objets de débat, mais il est acquis que depuis le Cambrien la biodiversité a singulièrement augmenté, qu’elle a connu des crises majeures, mais que la récupération a été, à l’échelle géologique, à chaque fois rapide et importante. Nous avons déjà vu que la diversification spontanée par des mécanismes génétiques permet d’explorer un grand nombre de solutions à l’adaptation d’organismes à des conditions environnementales diverses. Mais cela ne suffit pas. Pour illustrer cette affirmation et toujours sur un exemple forestier, nous avons imaginé deux répartitions spatiales possibles, avec une même biodiversité (figure 2.7). La première (A), répartie par bloc, pourrait correspondre à une stricte expression de la théorie de la 28. Concrètement, pas plus qu’on ne représente le fonctionnement d’une roulette avec un modèle mécanique, on ne modélise de façon mécanistique le fonctionnement d’un processus biologique produisant du hasard. On s’intéresse plutôt à la distribution engendrée par ce processus, sachant que cette distribution renseigne sur le processus luimême. Néanmoins, il pourra être intéressant dans certains cas d’analyser et de modéliser certaines roulettes biologiques (cf. chapitre 4, section IV).
73
LA NÉCESSITÉ DU HASARD
Figure 2.7. Modèles de distribution des arbres en forêts tropicales et sensibilités à des perturbations environnementales. Les arbres sont repérés par des symboles (•, x, +, o, ◊, *) ; chacun d’entre eux correspond à une espèce. En pratique, on rencontre dans l’immense majorité des cas une distribution de type B (ou bien les individus se répartissent au hasard, ou bien ce sont des petits groupes, mais alors ces groupes, à plus grande échelle, sont aussi répartis de façon aléatoire). C’est du hasard, mais ce n’est pas par hasard. Cette distribution assure le maintien du maximum d’espèces, et donc de la biodiversité, malgré un impact majeur (D). En effet, sur une distribution très agrégée (A), ce même impact se traduit par la disparition, dans l’espace considéré, de deux espèces et donc à une diminution de la diversité spécifique (C), même après régénération de la forêt (E).
74
Le hasard dans les systèmes vivants
niche : les individus de chaque espèce (repérées par les divers symboles) ont trouvé leur milieu optimum et restent confinés dans ce milieu (exclusion compétitive oblige). La seconde (B) est désordonnée, fortement aléatoire (volontairement, nous n’avons pas vérifié le degré d’uniformité des distributions des arbres). Imaginons maintenant qu’un accident majeur se produise (zone blanche en C et D). Un tel accident est toujours limité spatialement, même s’il couvre une large superficie. Dans la zone impliquée, si les individus de chaque espèce sont groupés (C), localement des espèces vont disparaître complètement (E). En revanche, s’ils ne sont pas groupés (D), il y aurait des survivants qui pourront permettre à l’espèce de subsister et de développer de nouvelles populations (F).
a. Les végétaux supérieurs et leur distribution spatiale Parmi les processus écologiques produisant du hasard spatial, on prendra l’exemple des végétaux supérieurs dont les pollens et les graines sont disséminés. En gros, cette dissémination se fait par transport passif lié à la dynamique et à la topographie du milieu (gravité, vent, courant d’eau, relief) ou par déplacement actif grâce à des animaux. Le rôle des pollens et des graines est successif mais très différent. Le pollen est le gamète mobile qui, si tout se passe bien, va engendrer une graine. Ensuite, si tout se déroule sans anicroche, une graine germe et donne un nouvel individu, d’abord une plantule qui, en se développant va donner, par exemple, un arbre. Nous allons examiner d’un peu plus près ces deux étapes. La fécondation : au hasard des trajets des pollinisateurs La partie mâle, le pollen, doit être transportée jusqu’au stigmate de la partie femelle, le pistil, de la même fleur (autopollinisation) ou d’une autre fleur (pollinisation croisée) pour assurer la reproduction par la production de graines. Ce déplacement est fait grâce au vent ou à des animaux (insectes, oiseaux, chauves-souris). Dans le premier cas, le transport du pollen est soumis aux aléas des courants et turbulences, dans le second à ceux du déplacement des animaux. Ce dernier a une composante aléatoire plus faible que celle du vent : on connaît la spécialisation de nombreux pollinisateurs et le pouvoir attractif des fleurs. Cependant, certains choix sont liés, par exemple, à l’attractivité de la fleur pour des insectes et certaines limites correspondent à la distance entre pollinisateur et pollinisé, et aux barrières existant entre les deux, pour le transport aérien passif ou par les animaux qui ont un rayon et des possibilités d’actions limitées.
75
LA NÉCESSITÉ DU HASARD
Figure 2.8. À gauche : distribution aléatoire d’arbres de trois espèces dans une placette expérimentale carrée de 250 m de côté, faisant partie du dispositif expérimental de Paracou en Guyane française (tiré de Dessard et al, 2004). Les espèces concernées sont : Carapa procera (Carapa, +), Dicorynia guianensis (Angélique, •) et Pradosia cochearia (Kimboto, ). Les nombres respectifs d’individus repérés sont : 29, 75 et 71 soit au total 175. Par convention ne sont comptés que les arbres de diamètres supérieurs à 10 cm. En moyenne sur un hectare de forêt guyanaise on trouve 600 arbres répondant à ce critère (627 pour la parcelle en question et de l’ordre de 100 à 200 espèces différentes, mais la plupart sont représentées par très peu d’individus). Sur cette même parcelle, il y a donc beaucoup d’arbres d’autres espèces, non représentés dans cette figure (pour des raisons évidentes de lisibilité). On remarque que les arbres « occupent l’espace » et se mélangent. L’échelle d’hétérogénéité est très petite : des arbres voisins sont en général d’espèces différentes. Ce schéma montre la pertinence de la figure 2.7. La plupart des distributions de 15 espèces les plus fréquentes observées sur ce dispositif sont aléatoires. Enfin et à titre d’exemple de diversité du vivant dans la zone intertropicale, on trouvera en annexe des détails sur la diversité biologique en Guyane et principalement dans sa forêt.
76
Le hasard dans les systèmes vivants
Là nous touchons du doigt le mécanisme de coopération entre plantes et animaux. Ils sont soumis ensemble à la sélection et jouent le jeu conjointement. Pour rendre compte de ce type d’observation, le concept de coévolution a été énoncé, mais il a une portée plus générale (cf. encadré 6). L’évolution d’une espèce dépend non seulement des variations de l’environnement physico-chimique, mais aussi de l’environnement biologique constitué d’autres espèces qui évoluent aussi. Dans le cas du « système plante-pollinisateur », l’effet de la pollinisation se traduit directement au niveau génétique, ce mécanisme conduisant au brassage du génome. Après fécondation, fruits et graines sont produits. Leurs localisations initiales correspondent à la position de la plante semencière trouvée en partie au hasard par l’animal pollinisateur ou de façon encore plus aléatoire si le transport a été fait par le vent.
Encadré 6 La coévolution Pour illustrer la nécessité d’évoluer, on parle souvent de « modèle de la reine rouge », selon l’image de Van Valen (1973), inventeur du concept de coévolution. Il se réfère par là au célèbre roman de Lewis Caroll De l’autre côté du miroir, où la reine rouge explique à Alice que les gens autour d’elle courent, que tous se déplacent, il faut donc aussi courir pour maintenir sa position par rapport à eux c’est-à-dire, en quelque sorte pour rester sur place. Dans la niche écologique d’une espèce, les principales composantes sont les autres espèces qui interagissent avec elle. Celles-ci changent, s’adaptent, évoluent ; donc l’espèce en question doit suivre en évoluant aussi, en changeant, en s’adaptant, sous peine de disparaître. Ce concept de coévolution concerne donc deux ou plusieurs espèces en relations. À titre d’illustration, prenons en deux. Si l’une des deux change, l’autre doit également se modifier. C’est le cas, par exemple, des rapports entre hôtes et parasites. À une évolution de l’hôte doit répondre un changement adapté du parasite, sinon il risque d’être exclu. De même à une évolution du parasite, l’hôte doit répondre sinon il risque aussi d’être éliminé, d’ailleurs contre l’intérêt même du parasite. On soupçonne que ce type de coévolution a pu conduire à ajuster les relations de façon à ce que l’hôte et le parasite se « supportent » et vivent ensemble, jusqu’à des symbioses, c’est-àdire des mécanismes coopératifs. C’est donc l’une des voies, peut-être la
77
LA NÉCESSITÉ DU HASARD
principale, qui peut amener à la coopération entre espèces. De nombreux biologistes pensent en particulier que des organites cellulaires, les mitochondries, auraient pour origine des bactéries endocellulaires qui auraient évolué avec leur hôte et se seraient progressivement intégrées dans les mécanismes cellulaires. C’est aussi peut-être le cas des transposons qui ont de fortes analogies avec certains rétrovirus. Au cours de cette coévolution, différentes solutions, où le hasard joue, sont possibles. Dans les ouvrages de R. Barbault (1992) et de C. Combes (1995), on peut trouver des exposés plus détaillés de ce concept de coévolution.
Enfin, beaucoup de végétaux supérieurs sont allogames (pollinisation croisée), alors que d’autres portent sur tous les individus les gamètes mâles et les gamètes femelles. Ils pourraient donc être autogames (autopollinisation) et donc empêcher ou du moins limiter le brassage génétique de la reproduction hétérogame. En pratique, on observe sur la majorité d’entre eux des mécanismes de type immunologique qui évitent cette autofécondation et donc permettent ce brassage génétique, source de diversité. Cela signifie donc, et c’est là un point crucial, qu’au cours de l’évolution, ces processus autorisant (ou restaurant ?) le brassage génétique, là où il pouvait ne plus se produire, ont été sélectionnés. De même, ceux qui empêchaient ce brassage ont été contre-sélectionnés. Comme illustration supplémentaire, on trouvera dans le chapitre 4 une étude de la dynamique de la composition génétique de populations autogames et les conséquences à long terme. La dispersion des graines : au hasard des éléments et des animaux Les graines sont dispersées selon deux mécanismes identiques à ceux de la pollinisation : par le vent et par les animaux. La gravité et les courants d’eau y jouent également un rôle important. Ou bien les graines tombent au pied de l’arbre, elles peuvent rouler, être entraînées par l’eau ou transportées par des animaux. Tantôt, en tombant, elles sont entraînées par le vent, si elles sont assez légères, et déposées plus loin. Elles peuvent germer sur place ou être ensuite transportées par l’eau ou des animaux. Tantôt, une partie est consommée sur l’arbre par des animaux qui peuvent ensuite transporter le reste. C’est par exemple le cas de Cecropia, un arbre pionnier de la forêt amazonienne, dont les graines sont en partie dévorées par des chauves-souris qui en sèment d’autres au hasard de leur vol
78
Le hasard dans les systèmes vivants
(cf. encadré 7). Les animaux qui participent à cette dispersion sont principalement des mammifères et des oiseaux. Une fois déposée, après un déplacement plus ou moins long, une graine peut germer immédiatement ou après un délai plus ou moins long (quelquefois plusieurs dizaines d’années). Ces processus peuvent se combiner. Il en résulte une distribution dans l’espace à forte composante aléatoire (cf. figure 2.8). Cette répartition est une solution pour la survie des espèces végétales vu que les individus, une fois installés, ne peuvent plus du tout bouger. Les mécanismes de dispersion assurent le déplacement avant le développement de l’organisme. Ensuite, il reste fixé sur son support : le sol. C’est alors qu’on peut observer le résultat d’apparence aléatoire de cet ensemble de processus. Pour terminer, retenons qu’aléatoire n’est pas synonyme de répartition uniforme, il peut y avoir anisotropie (des directions peuvent êtres privilégiées, par exemple suivant les directions des vents dominants et les caractéristiques des éléments transportés, comme des ailes sur les graines qui facilitent le transport). Par ailleurs, la combinaison d’aléas peut conduire à des distributions qui rendent bien compte de ces combinaisons, comme la distribution gaussienne. Cette distribution peut également représenter un mécanisme intuitif : la présence de graines se raréfie rapidement quand on s’éloigne du semencier (le producteur de graine). Tout cela pour dire qu’il est avant tout important d’étudier les répartitions spatiales et de les confronter à des distributions aléatoires théoriques, avant d’imaginer des mécanismes plus compliqués.
b. Et pour les animaux : quelles distributions ? À propos des plantes, nous venons déjà d’évoquer les animaux. Ils peuvent se déplacer ce qui leur permet de se distribuer dans l’espace, de l’occuper aussi largement que possible et de pouvoir rapidement modifier cette distribution, par exemple aller dans un autre lieu suite à une perturbation environnementale. Ces mouvements peuvent aussi être réguliers et suivre des rythmes saisonniers (migrations). Pour une part, les déplacements sont aléatoires et correspondent à des comportements exploratoires. Ils sont principalement motivés pas la recherche de nourriture ou de conditions environnementales supportables, ou encore de partenaires pour se reproduire. Le fait que les individus se déplacent et qu’ils aient donc tendance, collectivement, à couvrir leur aire de répartition, les préserve d’aléas environnementaux. Plus cette aire est vaste, plus grande est l’assurance de survie. Mais elle n’est pas
79
LA NÉCESSITÉ DU HASARD
Encadré 7 Frugivorie et dissémination des graines : l’exploitation de Cecropia obtusa par la chauve-souris Artibeus jamaicensis
Les animaux frugivores, ici une chauve-souris, consomment des fruits. Après prélèvement, la partie consommable du fruit est avalée. La pulpe est digérée rapidement et les graines intactes après un court séjour dans le tube digestif (5 à 10 min) sont expulsées en vol dans des fientes liquides qui « explosent » sous l’effet des turbulences de l’air augmentant ainsi la dispersion des graines. Ces graines tombent au sol au hasard de la trajectoire suivie par l’animal. Ces retombées sont suffisamment importantes pour qu’on parle de pluie de graines. Celles-ci peuvent séjourner dans les sols de nombreuses années, attendant des conditions favorables avant de germer : on parle alors de « banque de graines ». Ce qui est observé ici sur un animal et un arbre particuliers est valable pour toutes les chauves-souris de la même espèce et tous les C. obtusa. On peut même généraliser à la plupart des frugivores et des arbres dont les fruits sont aussi consommés en partie. On comprend que le processus résultant de ce mode de dissémination ait un caractère fortement aléatoire. Photos et commentaires : Pierre Charles-Dominique (CNRS-Guyane).
80
Le hasard dans les systèmes vivants
pour autant garantie, les dinosaures en ont fait l’expérience. Enfin, lorsque ces déplacements sont relatifs à la reproduction, le but est de trouver un partenaire ; ils constituent alors une composante du processus de brassage génétique.
c. Les micro-organismes : au gré du milieu et des autres… On en sait beaucoup moins sur les micro-organismes que sur les plantes et animaux. On en trouve dans tous les milieux, même les plus extrêmes. Or les connaissances restent très lacunaires, sauf s’ils sont inféodés à des conditions très spécifiques. Sous réserve d’inventaire, ils se distribuent dans l’espace aussi largement que les autres organismes, avec des densités variables suivant les espèces et les endroits. Ils sont même présents dans et sur les autres êtres vivants, allant jusqu’à établir des relations symbiotiques, ou, au contraire, exprimer des propriétés pathogènes. La plupart d’entre eux ne sont pas spontanément mobiles. Leur distribution spatiale est donc étroitement liée à la dynamique de leur milieu ou au déplacement de leur hôte, dont on a vu que la composante aléatoire pouvait être très importante. d. Déplacements déterministes et aléatoires Les processus déterministes de déplacements sont en général plus rapides que les processus stochastiques. Pour s’en convaincre, il suffit d’imaginer que deux entités se déplacent dans une seule dimension et que cet espace linéaire est découpé en cases (figure 2.9). À chaque pas de temps, elles changent de case. Un déplacement complètement déterministe dépendrait
Figure 2.9. Déplacement de deux entités dans un espace linéaire fini : A déterministe et B aléatoire avec une seule entité mobile. Un processus (par exemple une reproduction) a lieu si les deux entités occupent la même case à un moment donné. On peut imaginer des situations plus compliquées : probabilités différentes de 1/2, espace de plus grande dimension, processus continu, etc.
81
LA NÉCESSITÉ DU HASARD
par exemple d’une attirance entre les deux entités (visuelle, sonore ou chimique). Un déplacement complètement aléatoire serait gouverné par un jeu de pile ou face (une chance sur deux d’aller à gauche, une chance sur deux d’aller à droite, ou plus généralement une probabilité p d’aller dans un sens et q = 1 – p d’aller dans l’autre). Pour simplifier, on peut envisager qu’une seule des deux est mobile. Sans qu’il soit nécessaire de faire des calculs compliqués, on comprendra que le déplacement purement déterministe est beaucoup plus rapide que le déplacement aléatoire (cas A). En effet, le temps de parcours de l’entité mobile est alors égal au nombre de case qui sépare les deux entités au départ, soit dans le cas de la figure : 18 – 2 = 16 u.t. (unités de temps). Si les deux sont mobiles alors le temps de parcours est encore plus court et égal à 5. Dans le cas du déplacement aléatoire B, il suffit qu’une seule fois, l’entité mobile aille sur la gauche pour rallonger le temps de parcours. La probabilité d’avoir un temps de parcours égal à celui du parcours déterministe est de (1/2)16 = 1/65 536. Elle est très faible : le processus stochastique est plus lent que son pendant déterministe. Concrètement, les déplacements animaux mélangent les deux, avec une phase exploratoire dominée par l’aléatoire et une phase déterministe effective lorsque les deux entités sont assez proches. Par exemple, dans le processus de pollinisation un insecte explore en gros au hasard l’espace accessible. Dès qu’il aura détecté son objectif, en l’occurrence une fleur, visuellement ou grâce à des signaux chimiques, il se déplace directement vers lui. Le déplacement au hasard a un coût. Pour atteindre un objectif donné, il demande plus de temps qu’un déplacement déterministe. Il est donc plus coûteux en énergie, mais il assure une plus grande diversité. En effet, le but n’est pas assigné au départ ; c’est en général un ensemble d’objectifs possibles, par exemple de fleurs pour un pollinisateur. Les résultats seront des associations possibles d’autant de gamètes de compositions génétiques différentes. Lorsqu’on examine ces déplacements et leurs résultats, il apparaît clairement un lien saisissant entre hasard et nécessité. La nécessité pour les organismes animaux de se nourrir, de se reproduire, les conduit à une exploration globalement aléatoire de l’espace physique et à cette occasion de transporter des éléments végétaux, dont des gamètes ou des graines et de là, à les déposer de façon tout aussi aléatoire dans cet espace. La conséquence en est un hasard qui s’avère utile sinon nécessaire à la survie des espèces en question.
82
Le hasard dans les systèmes vivants
Pour conclure, on peut dire que le hasard lié aux déplacements, quels que soient le mode et le moment de ce déplacement, engendre une distribution spatiale des êtres vivants à forte composante aléatoire, qui leur permet de se protéger, collectivement, contre des aléas environnementaux, voire d’en profiter en pouvant choisir des conditions favorables (celle de leur « niche » écologique). Ces déplacements, actifs ou non, et les distributions spatiales qui en résultent sont également des composantes du processus global de brassage génétique, élément fondamental de la diversification des êtres vivants. Cette diversification est évidemment liée à la reproduction sexuée. Quand on fait le bilan, on peut affirmer qu’avec ses déterminants, ses conséquences génétiques et avec les comportements qu’il induit, le sexe est sans doute l’invention majeure de la vie.
4. La dynamique de la biodiversité La biodiversité, dans un espace et une période donnés et quels que soient sa mesure et le niveau d’organisation considéré, dépend des « conditions initiales », à savoir de ce qu’elle est au début de la période étudiée, puis du bilan entre, d’une part, les résultats des processus internes de diversification et d’extinction biologiques et écologiques, d’autre part ceux qui sont la conséquence de perturbations environnementales et, enfin, les flux de populations qui entrent dans l’écosystème concerné (immigrations) et qui en sortent (émigration). Aussi est-il plus judicieux d’avoir une vision dynamique que statique de la biodiversité. Cette dynamique résulte de la combinaison de tous ces processus et non pas d’un seul. Ils ont une composante stochastique dans la mesure où ils résultent de déplacements et de distributions souvent aléatoires des individus dans l’espace physique. Elle dépend aussi de l’échelle. Ainsi, l’expression des relations interindividuelles est principalement locale. En revanche, les paramètres populationnels et les hétérogénéités du milieu jouent à des échelles plus larges, parfois continentales (zones bioclimatiques et altitudinales). On a aussi vu le rôle du hasard dans le processus d’émergence de nouvelles espèces et donc de diversification. L’histoire de la vie nous apprend que les grandes perturbations environnementales jouent de façon importante dans leur disparition. Mais celle-ci se produit également de façon permanente et « naturelle » (Belovsky et al, 1999).
83
LA NÉCESSITÉ DU HASARD
Figure 2.10. Dynamique de la biodiversité et principaux processus intervenant dans cette dynamique. B(t) et B(t+∆t) représentent des évaluations de la biodiversité respectivement aux temps t et t+∆t dans l’espace considéré. Les notions de court et de long terme peuvent être concrétisées par la valeur de l’intervalle de temps ∆t.
Aujourd’hui, elle est aussi le fait de l’Homme, au point qu’on parle de la sixième grande extinction. Cela étant il faut se garder de confondre disparition localisée d’une population et disparition d’une espèce. Enfin, disparitions d’espèces et apparitions de nouvelles s’enchaînent. C’est encore ce que nous apprend l’histoire de la vie. En effet, les niches écologiques, des espaces dans ces niches laissées libres ou encore de nouvelles niches créées par des perturbations sont autant de lieux qui peuvent être occupés par des espèces émergentes. En fait pour qu’une espèce soit visible et qu’elle puisse laisser des traces, il faut d’abord qu’elle apparaisse et ensuite qu’elle puisse survivre et s’étendre un minimum, c’est-à-dire trouver des conditions de milieu acceptables et de pouvoir se « caser » parmi les autres. Ce processus peut être modélisé explicitement. Ainsi, le modèle logistique en temps continu, dans une version adaptée, convient pour prendre en compte ces hypothèses simples et décrire les grandes tendances historiques (cf. chapitre 4, section III). Cependant, si l’on intègre les relations trophiques dans cette dynamique, on est amené à se poser quelques questions. D’abord, nous
84
Le hasard dans les systèmes vivants
adoptons souvent un point de vue implicite de système « clos » pour la biosphère, ce qui se traduit par une hypothèse de biomasse globale constante : toute évolution ne serait qu’un recyclage de la matière « organique », consommant de l’énergie, mais à masse constante. Le phénix renaît de ses cendres, mais sans plus. De fait, nous savons que cela n’est pas vrai : une partie de la matière organique se minéralise, une autre est transformée en matière organique, en particulier par les organismes autotrophes. L’histoire de la vie nous montre aussi que de nouveaux espaces ont été colonisés, d’abord par la végétation, par exemple les masses continentales, probablement dès la fin de l’Ordovicien ou du début du Silurien (il y a environ 470 millions d’années). Cette colonisation s’est faite sur un substrat minéral. Le bilan reste à faire, mais on peut raisonnablement supposer que la biomasse augmente régulièrement par le jeu des relations trophiques29 et la colonisation de nouveaux espaces : la vie a tendance à se répandre et à attaquer la matière minérale. Pour ne prendre qu’un exemple, la dégradation superficielle des roches nues des inselbergs de Guyane par les cyanophycées est d’une redoutable efficacité (cf. figure 2.11). Progressivement des îlots de sols « primaires » se forment, où des plantes vivaces s’installent, comme les broméliacées, qui à leur tour participent à la consolidation du sol où d’autres plantes peuvent alors se développer… jusqu’à l’émergence d’un véritable couvert forestier. Par ailleurs, avec les exemples des micro-écosystèmes abyssaux, on voit que la vie pouvait se passer de l’énergie solaire et s’installer dans des zones supposées non viables. Ainsi, on peut avancer que globalement sur la Planète, et en moyenne au cours du temps, la biomasse augmente, évidemment depuis l’apparition de la vie, mais encore aujourd’hui. En poussant le raisonnement à l’extrême, le stade ultime de l’évolution de la Planète pourrait être une transformation quasi totale en matière organique. Mais des « catastrophes » régulières ralentissent le phénomène30.
29. C’est-à-dire, et pour reprendre une expression de Robert Barbault, de relations « mangeurs-mangés ». 30. Notons, qu’à petite échelle, c’est ce qui se passe sur les inselbergs : ils sont colonisés par la végétation, une modification climatique suffisamment longue (sécheresse, refroidissement) peut éradiquer cette végétation de leur surface. Ensuite, un changement de ces conditions peut les rendre plus propices à une nouvelle colonisation. Ces processus participent à leur érosion.
85
LA NÉCESSITÉ DU HASARD
Figure 2.11. Inselberg des Nouragues en Guyane française (vue d’ensemble et vue de la partie supérieure). C’est au pied de cet inselberg qu’on trouve la station des Nouragues mise en place par des chercheurs du CNRS, principalement Pierre Charles-Dominique. Comme on le voit, il s’agit d’un massif rocheux couvert en partie par de la végétation. La roche granitique a une couleur rouge foncé, virant quelquefois au noir (zones grises ou noires sur la roche granitique). Cette couleur est due à des cyanobactéries. Ces microorganismes autotrophes dégradent lentement la roche la rendant friable. Lorsqu’elles meurent, elles se décomposent sur place et donnent de la matière organique qui, mélangée aux produits minéraux résultant de l’érosion, forme un sol sur lequel peuvent pousser des végétaux comme des broméliacées. Ces dernières produisent de la matière organique en plus grande quantité et participent aussi à l’érosion de la roche. Ainsi, progressivement, par un jeu de succession se constitue un couvert forestier. Au bout du compte, cette colonisation conduit à une production de biomasse nouvelle à partir du minéral.
86
Le hasard dans les systèmes vivants
Néanmoins, qui dit biomasse ne dit pas biodiversité : une tonne d’éléphant ne représente qu’un organisme d’une espèce, une tonne de bactéries correspond à des milliards de milliards d’organismes et peut représenter une multitude d’espèces. Cela dit, des estimations déjà anciennes, au niveau de la biosphère, montrent que les groupes les plus diversifiés sont aussi les plus importants en biomasse. Le cas des insectes est très illustratif : on le considère comme le compartiment le plus important des organismes évolués, tant pour la biomasse que pour le nombre d’espèces. Par ailleurs, la mise en place d’une hiérarchie trophique31, va aussi dans le sens d’une plus grande biomasse globale et, simultanément, d’une plus grande diversité. En effet, un niveau trophique n’émerge que lorsque des organismes nouveaux apparaissent. Enfin, globalement, les systèmes vivants modifient et même créent, par leur simple présence et par leur action, des niches écologiques qui peuvent être occupées ou partagées par de nouvelles espèces progressivement « néoformées » (ou « néoémergées ») par les mécanismes aléatoires dont nous avons parlé. L’intensité de l’impact est aussi dépendant de la biomasse. C’est encore là ce que nous suggère la bonne adéquation, à l’échelle géologique, de l’évolution de la biodiversité avec le modèle logistique dans son expression « XS » (cf. chapitre 4 section III) où la variable X représente la biomasse ou la biodiversité et S le nombre de ce qu’on pourrait appeler des loci écologiques, représentant soit des niches, si elles sont spécifiques d’une espèce, soit des parties de niches si cellesci sont partagées par plusieurs espèces. Enfin, des travaux récents insistent sur le lien entre biodiversité et biomasse et le présentent comme une hypothèse plus que raisonnable, au moins au niveau global et à l’échelle géologique. Ces mêmes travaux montrent la corrélation entre CO2 atmosphérique et biodiversité aux mêmes échelles (cf. principalement l’article de Rothman, 2001). En résumé, on peut raisonnablement supposer, en moyenne, sur une longue échelle de temps, aux fluctuations près et en l’absence d’une catastrophe majeure éradiquant la vie : – que la transformation, par les systèmes vivants, de la matière minérale en matière organique est plus importante que la minéralisation ;
31. La plus simple de ce type de hiérarchie comprend trois niveaux : plantes-herbivores-carnivores.
87
LA NÉCESSITÉ DU HASARD
– que cette transformation se traduit par une augmentation de la biomasse (c’est-à-dire de la masse de matière vivante) sur la Planète ; – et, enfin, que la biodiversité augmente elle aussi corrélativement avec celle de la biomasse. Il s’agit là d’une évolution spontanée, d’ailleurs constatée à l’échelle évolutive pour la diversité. Dans ces conditions, biomasse et biodiversité augmentent constamment. Alors se posent deux questions : 1. sur notre planète, dans quelle mesure l’activité humaine interagitelle avec ce mécanisme global ? 2. dans l’univers qui nous est accessible, existe-t-il des planètes qui sont à un niveau de transformation en matière vivante supérieur à celui de la Terre ? Sur de telles planètes la matière organique serait-elle aussi plus abondante que sur la Terre ? Par ailleurs, la diversité biologique à l’échelle géologique semble exhiber des oscillations régulières (cf. figures 4.9 et 4.10). Nous l’avions remarqué (Pavé et al, 2002), mais nous n’avions pas pu le démontrer sur les données sur lesquelles nous avions travaillé (le nombre de familles en fonction du temps). Sur des données plus nombreuses (nombre de 3.10 6 années genres en fonction du temps), une période de 62.106 ± semble être significative (Rhode et Muller, 2005 et commentaire de Kirchner et Weil, 2005), même si un résultat précédent n’avait pas mis en évidence ce phénomène (Cornette et Lieberman, 2004). Si cette oscillation est confirmée, ce qui est probable, son interprétation reste à faire. Si elle n’est pas due à des événements physiques (météorites, volcanisme, etc.) plus ou moins périodiques, une explication macrobiologique ou macroécologique conduisant à une dynamique oscillante à cette échelle d’espace et de temps n’est pas évidente, mais mérite d’être considérée. Enfin, le schéma de la figure 2.12 peut constituer la base d’une modélisation globale et à long terme de la biodiversité, par exemple en termes d’équations différentielles ordinaires. Ayant au moins 3 variables d’état et des non linéarités (ne serait-ce que des termes de croissance de type logistique), un tel modèle peut engendrer des oscillations, voire des régimes chaotiques. En effet, on sait aussi que des oscillations peuvent être le prélude d’un système chaotique… serait-ce l’avenir de la dynamique de la biodiversité ? Si oui et si nous ne le souhaitons pas, comment l’éviter ?
88
Le hasard dans les systèmes vivants
Figure 2.12. Cycle de la matière, dynamique globale de la biodiversité et de la biomasse. Une partie, encore très faible aujourd’hui en regard de la masse de la Planète, et même seulement de sa « couche superficielle » est assimilée par la matière vivante ce qui se traduit probablement encore par une augmentation de la biomasse au niveau planétaire, même si une partie de cette biomasse retourne à la matière minérale. Cependant, si des arguments peuvent être avancés, il reste à prouver qu’en moyenne une augmentation de biomasse correspond à un accroissement de la biodiversité. Par ailleurs, de l’énergie est nécessaire pour que ce cycle s’accomplisse (par exemple la lumière pour la photosynthèse ou d’autres mécanismes physicochimiques d’oxydo-réduction, comme celui mis en place dans les systèmes abyssaux). Mais cette énergie, éventuellement sous d’autres formes, peut aussi perturber ou modifier ce cycle, ralentir la croissance ou diminuer la quantité de matière vivante (cas des crises de la biodiversité engendrés par des impacts, des activités tectoniques ou des variations de l’apport énergétique du Soleil).
5. Mesurer la biodiversité Bien évidemment, si on veut appréhender l’état de la biodiversité, à un moment donné, et sa dynamique, encore nous faut-il la mesurer. Une première difficulté réside dans la réponse à la double question : quelle diversité (taxonomique ou phylogénétique, structurelle ou fonctionnelle) ? À quel niveau d’organisation et à quelle échelle spatiale ?
89
LA NÉCESSITÉ DU HASARD
Une deuxième difficulté tient à la mesure elle-même, nous n’avons pas (encore) fabriqué d’appareil, d’instrument de mesure. Si l’on a fait des progrès dans l’analyse, notamment statistique, des données, le recueil de ces données est artisanal, se fait « à la main ». D’un côté des méthodes très sophistiquées32, d’un autre côté des techniques souvent archaïques. Mais pour ces dernières, on ne sait pas encore faire autrement. On remarquera au passage que l’approche quantitative du problème, notamment l’idée d’inventaire au moins partiel est une préoccupation récente. Historiquement, les taxonomistes, zoologues et botaniste, ne s’en inquiétaient pas. Leur objectif était avant tout de découvrir et de décrire de nouvelles espèces et non pas de répondre, par exemple, à la question : combien d’espèce dans un écosystème ? dans une région, et… dans la biosphère ? Cela explique beaucoup de discours approximatifs actuels sur la question (on trouvera en annexe une brève présentation à propos de la biodiversité en Guyane française, notamment de celle des arbres forestiers). Une troisième difficulté tient dans la définition d’un indice général de la biodiversité, si tant est que cela ait un sens. Un tel indice doit être simple de compréhension et facile à calculer. Il doit être aussi un indicateur, résumé d’une information complexe dont les variations ont un sens pour le scientifique, le technicien, le gestionnaire. En résumé, comme toute mesure, il doit être robuste, fiable et sa précision doit pouvoir être évaluée. De grands efforts sont faits à cette fin. Les mesures les plus communes concernent la diversité des organismes du point de vue taxonomique : les espèces auxquelles ils appartiennent. C’est ce qu’on sait le mieux faire, notamment pour les organismes supérieurs. On détermine donc le nombre d’espèces représentées à l’unité de surface, dans une zone ou région donnée, ou encore suivant un transect. On obtient des relevés en présence/absence. Le nombre total d’espèces observées constitue la richesse spécifique. Cette donnée peut être complétée par une mesure de l’abondance en associant le nombre de spécimens observé de chaque espèce, ou la fréquence relative de chaque espèce. Dans un lieu précis sur une superficie donnée (par exemple une parcelle de 1 ha) on obtient des relevés faunistiques ou floristiques, plus rarement de micro-organismes. Quand, localement, on
32. Outre des méthodes statistiques d’échantillonnage et d’analyse, on peut aussi utiliser des modèles, comme on le voit en annexe.
90
Le hasard dans les systèmes vivants
Figure 2.13. Forme générale de la relation entre nombre d’espèces recensées et superficie de la zone observée. Une méthode d’évaluation se fonde aussi sur des transects (le long d’une ligne, d’un trajet). L’effort d’échantillonnage est proportionnel à la superficie observée ou à la longueur du transect. Cette courbe n’a évidemment de sens que dans un espace homogène, un écosystème donné.
agrandit la taille de la zone d’observation, on observe généralement un ensemble de points qui apparaît distribué au voisinage d’une courbe à concavité négative (cf. figure 2.13). Estimer la biodiversité à grande échelle à partir d’un nombre d’observation limité ne relève donc pas d’une simple règle de trois. Mais il existe une taille du domaine d’observation qui donne une estimation proche. Quelquefois cette taille n’est pas atteignable matériellement et économiquement. Il faut donc trouver d’autres solutions : des règles de trois améliorées. Nous en verrons une illustration dans l’annexe à propos de l’évaluation du nombre d’espèces d’arbres dans la grande forêt équatoriale de la Guyane française. Un écosystème est aussi limité dans l’espace et change dans le temps, même s’il est immense et à un état apparemment stationnaire, comme la savane africaine ou la forêt amazonienne. Même si le paysage peut sembler uniforme, il peut néanmoins présenter un certain niveau d’hétérogénéité spatiale, comme nous le verrons aussi dans l’annexe. Dans d’autres cas, le morcellement peut être important, c’est le cas de nombreuses régions de l’Europe ou de l’Asie du sud. Comment bâtir des indices permettant d’apprécier la diversité biologique à grande échelle ou dans un contexte de morcellement important ? Comment comparer ces indices ?
91
LA NÉCESSITÉ DU HASARD
Le cas des grands écosystèmes a déjà été évoqué. Pour les comparaisons entre zones différentes, on réalise des échantillonnages dans les différents espaces concernés. Les données (présence/absence ou abondances) peuvent être rangées dans un tableau rectangulaire : taxons × stations. Des méthodes d’analyse des données peuvent être utilisées pour comprendre la structure de ces ensembles de données et en tirer des conclusions écologiques33. Comme la mesure de la biodiversité dépend de l’espace considéré, on a pris l’habitude de distinguer trois échelles caractéristiques : locale, celle d’un site homogène (biodiversité alpha), celle d’un ensemble de sites (biodiversité beta, groupe de sites) et « régionale » (biodiversité gamma, ensemble de groupes de sites). La question est le lien avec une échelle métrique, elle est évidemment croissante, mais dépend de l’échelle du site élémentaire. Par exemple, une région géographique est composée d’unités plus petites, des paysages, et dans un paysage un site peut représenter un bois ou un pâturage. Bien évidemment, reste l’échelle globale, non qualifiée dans la littérature (serait-elle qualifiable d’oméga ?) Néanmoins, au delà du discours, on peut s’interroger sur les qualités opérationnelles de ces concepts. Pour terminer sur ce point, retenons qu’un travail important reste à accomplir, sur le plan conceptuel et méthodologique, mais aussi sur le plan instrumental.
VII Hasard, chaos et complexité Cette question de la relation entre hasard, complexité et chaos a déjà été discutée par de nombreux auteurs, notamment des collègues mathématiciens et physiciens. Nous avons adopté une démarche plutôt
33. Très généralement pour les méthodes d’analyse des données écologiques, on pourra citer les travaux de l’école lyonnaise, autour de Daniel Chessel et de Jean Thioulouse et les travaux récent d’une jeune chercheuse : Sandrine Pavoine, qui, pour cela, a reçu le prix du jeune chercheur 2004 de l’Institut français de la biodiversité. Pour les techniques d’acquisition des données, certes la réponse n’est pas évidente, mais encore faut-il remarquer que l’instrumentation n’est pas dans la culture des écologues, expression moderne des naturalistes.
92
Le hasard dans les systèmes vivants
expérimentale. Les aspects techniques sont développés dans le chapitre 4 dévolu à la modélisation. Nous pouvons cependant conseiller au lecteur les ouvrages comme celui de David Ruelle (1991) ou celui de Jean-Paul Delahaye (1999) ou encore celui de Christophe Letellier (2006). Ce qu’il faut retenir, c’est que la frontière est quelquefois ténue entre chaos et hasard, et pas seulement dans le vocabulaire courant, et que quelque part, ils traduisent une certaine complexité. Pressentie au début du XXe siècle par Poincaré, la découverte du « chaos déterministe » attribuée au météorologue Lorentz, en 1962, jette une pierre de plus dans le jardin de nos certitudes. En 1976, dans une publication restée elle aussi célèbre, R. M. May montre que le plus simple des modèles non linéaires de la dynamique des populations, le modèle logistique en temps discret, peut présenter un comportement chaotique, c’est-à-dire une dynamique où n’apparaissent pas à l’évidence de structures simples connues (plateaux ou oscillations entretenues), mais une suite d’allure erratique (oscillations irrégulières). Cela n’est observé que sur des modèles, et par extension sur des systèmes concrets, non-linéaires34. Or les figures présentant une allure erratique sont engendrées par un algorithme simple, parfaitement « déterministe ». Elles ressemblent, à première vue, à une suite aléatoire. Mais cette première impression est fausse, comme on le constate, en représentant la suite dans un espace adéquat (cf. figure 2.14). En effet, on observe alors des structures spécifiques. En l’occurrence dans l’exemple précis, les points successifs s’accumulent sur une parabole. Cette parabole est un « attracteur ». Souvent les figures sont plus compliquées, mais restent localisées dans l’espace. On les appelle des attracteurs « étranges », quand leurs formes ne sont pas réductibles aux figures simples de la géométrie euclidienne.
1. Du chaos au hasard Dans des situations un peu plus compliquées, on peut utiliser des tests statistiques pour vérifier les propriétés aléatoires de ce type de suite. Cependant, la question n’est pas résolue pour autant, on n’est jamais sûr 34. Très schématiquement un système est dit linéaire si les effets sont proportionnels aux causes, et non-linéaire autrement. On peut graduer les non-linéarités. Si l’on s’écarte peu d’une réponse linéaire, on est devant une non-linéarité faible, si l’on s’en écarte beaucoup, on est devant une non-linéarité forte. Les comportements « exotiques » de certains objets mathématiques, comme le chaos déterministe, résultent de fortes non-linéarités.
93
LA NÉCESSITÉ DU HASARD
d’avoir trouvé le « bon sous-espace » où apparaît la structure qui peut être de dimension supérieure à 2. En outre, pour la génération de nombres pseudo-aléatoires, on utilise aussi des algorithmes et ce n’est pas parce qu’on ne leur trouve pas d’explication physique qu’on peut rejeter le fait que ce sont aussi des procédures engendrant une forme particulière de chaos qu’on appelle « hasard ». Ainsi s’estompe la frontière, entre le concret du chaos et celui de l’aléatoire, entre chaotique et stochastique. Ce n’est pas par effet de style que le mot « concret » est utilisé, nous y revenons plus loin. En adoptant une approche pragmatique, on peut essayer d’imaginer comment l’évolution a pu sélectionner des processus aléatoires. Par exemple, on peut prendre une situation déterministe simple comme point de départ, sans chaos et de voir s’il est possible et à quel prix on passe à un système chaotique puis à un système qui engendre des suites qui sont proches de suites de nombres aléatoires. En prenant le langage des systèmes dynamiques, on parle de comportement asymptotique en termes de point fixe ou de cycle limite. Ensuite on peut passer à une situation devenant de plus en plus chaotique avec des attracteurs plus compliqués, pour aller vers une structure apparemment aléatoire. En prolongeant l’exemple de la figure 2.14, c’est ce qui est présenté dans la section II du chapitre 4 et dont la conclusion est simple, on peut engendrer facilement des séries chaotiques qui exhibent des propriétés analogues à celles de séries aléatoires. Dans ce cas, nous voyons le calcul des probabilités et le formalisme des processus stochastiques comme un ensemble théorique permettant de décrire efficacement cette réalité, de bâtir des raisonnements, mais ne disant rien sur les mécanismes qui l’engendrent.
2. Intermittences Par ailleurs, dans le registre des comportements d’apparence erratique, on soulignera le cas de l’intermittence qui se distingue du régime chaotique par la présence de grandes zones de blancs et de séries de pointes arrivant plus ou moins par bouffées. Ce genre de situation est connu en neurobiologie, par exemple lors de l’analyse des signaux électriques le long d’un axone. Elle existe aussi dans d’autres domaines, par exemple en dynamique des populations (cf. figure 2.15). Le type de résultat observé conduit à s’interroger sur les conclusions souvent tirées, comme en halieutique, lorsque la diminution drastique et même la disparition
94
Le hasard dans les systèmes vivants
Figure 2.14. À gauche des schémas (1) et (2), les séries temporelles se ressemblent beaucoup. Mais avec une représentation adéquate : xn+1 = f(xn), elles se distinguent nettement. (1) correspond au modèle logistique en temps discret (May, 1976) qui peut exprimer un régime chaotique, comme c’est le cas ici. Les valeurs de la variable se distribuent sur une parabole. (2) correspond à un processus stochastique uniforme sur l’intervalle [0,1[ simulé avec un générateur de nombres pseudo-aléatoires. Les valeurs se répartissent dans le carré unitaire. Le schéma (3a) est engendré par le modèle zn = xn – yn, où xn+1 = r xn (1–xn) et yn+1 = r yn(1–yn), avec la même valeur de r (r = 3,98), mais avec des conditions initiales très légèrement différentes : x0 = 0,5000 et y0 = 0,5001. Le schéma (3b) correspond aussi à l’expression ζn = ξn – ψn, où ξn et ψn sont des valeurs de deux variables aléatoires uniformément distribuées sur [0,1[. Au début, le système chaotique est prévisible (connaissant x on connaît assez précisément y), mais, sensibilité aux conditions initiales oblige, les deux séries divergent rapidement. En revanche, il n’y a aucun intervalle visible où les deux séries aléatoires soient proches. On ne peut prévoir le résultat qu’en probabilité.
95
LA NÉCESSITÉ DU HASARD
Figure 2.15. Intermittence en dynamique des populations : l’exemple de la dynamique des populations de sardines du Pacifique estimée à partir des dépôts sédimentaires marins au large de la Californie (Ferrière et Cazelles, 1999).
apparente d’une population marine conduit à en attribuer l’origine à la surexploitation de la ressource. C’est probablement vrai dans certains cas et faux dans d’autres.
3. Deux hasards, deux complexités Nous venons d’adopter une position pragmatique, l’origine chaotique de ce qu’on appelle le hasard, sur lequel on a élaboré un cadre théorique solide : le calcul des probabilités. Ces deux mots, chaos et hasard sont aussi utilisés par ceux qui parlent de complexité ; ils les confondent parfois. Or, un principe fondamental théorique les oppose et en cela nous suivons les travaux de Gregory Chaitin (par exemple, Chaitin, 2006) dans sa définition de la complexité algorithmique : une série de nombres aléatoires ne peut être décrite que par l’énoncé de tous ses nombres (grande complexité), une série chaotique est réductible à l’algorithme, au programme informatique, qui l’engendre, qui peut être très court (faible complexité algorithmique)35. Cela nous renvoie aux relations entre 35. Sur ce point, on pourra se référer à l’article de cet auteur publié dans Pour la Science (Chaitin, 2006) et à diverses contributions de J.-P. Delahaye, toujours dans cette même revue (en particulier son premier article sur le sujet publié en 1991).
96
Le hasard dans les systèmes vivants
mathématiques, logique et réalités du monde physique, biologique, sociologique et à la réflexion d’Émile Borel à propos des probabilités. Un discours, parfaitement légitime et essentiel, sur la complexité du monde formel des mathématiques et de la logique, est-il transposable au monde réel ? La notion de complexité, au sens de Chaitin, permet de comparer des algorithmes, mais est-elle transposable dans ce monde réel ? Et si oui, quelles sont les limites de ce type de transposition ? Il est important de répondre à ce genre de question à une époque où les discours sur la complexité fleurissent, notamment dans les sciences de la vie. Cela étant, on se trouve devant une difficulté méthodologique : distinguer le chaos de l’aléatoire. Simple dans le cas théorique : présence d’un algorithme court pour engendrer du chaos, absence dans le cas de l’aléatoire. Mais pour l’aléatoire, la théorisation qui en est faite et les techniques qu’on en déduit, ne seraient-ils au fond qu’un concept, qu’une théorie et que des outils, au demeurant très utiles, pour gérer notre ignorance ? Mais revenons à la complexité en adoptant une approche pragmatique. Dans l’étude de ce concept, il faut signaler les travaux de l’Institut de Santa-Fé et tout particulièrement d’un de ses principaux initiateurs : Stuart Kauffmann (1993, 1995). Il s’est illustré dans ce qu’on appelle la vie artificielle. Une définition du concept de complexité, selon l’équipe de cet institut, peut être trouvée sur internet36. Brièvement et selon eux, un système complexe est un réseau d’entités élémentaires ayant les caractéristiques suivantes : – de nouvelles propriétés émergent, ne pouvant être simplement déduites de celles de ses composantes. On entend souvent par « simplement », ce qui peut être obtenu par une combinaison linéaire, notamment un simple changement d’échelle, une simple somme des propriétés individuelles ; – les relations entre les entités sont diverses : de proximité ou lointaines, non-linéaires, présence de boucles de rétroactions ; – les entités et les relations peuvent évoluer dans le temps, de nouvelles peuvent apparaître, certaines peuvent disparaître ; – il est ouvert, c’est-à-dire qu’il existe des échanges avec le monde extérieur ; 36. http://www.fact-index.com/c/co/complex_ system.html
97
LA NÉCESSITÉ DU HASARD
– il a une histoire ; quand on l’observe à un moment donné, il faut au moins en avoir conscience et même, si possible, prendre en compte cette histoire ; – il comporte des emboîtements, c’est-à-dire qu’il est composé de sous-systèmes ; – ses frontières sont difficiles à cerner et résultent souvent du choix de l’observateur ; c’est ce qu’on appelle la fermeture du système. À la lecture de ces caractéristiques, on voit que l’inspiration est fortement d’origine biologique et écologique. Mais cela s’applique aussi aux systèmes environnementaux et aux systèmes sociaux et économiques. Parmi les résultats importants de cette approche, on retiendra l’émergence de lois globales simples, comme la « loi puissance » (des relations du type y = x a), entre deux variables mesurées, par exemple sur un organisme. C’est la relation bien connue d’allométrie entre deux critères morphologiques, comme la masse corporelle et la taille d’individus dans une population. Cette relation peut trouver des justifications théoriques et être étendue à de nombreuses grandeurs mesurables sur un système, comme la relation entre surface corporelle et métabolisme (West et al., 1999). Avec Claudine Schmidt-Lainé, tout en adoptant aussi une approche pragmatique, nous distinguons complexité structurelle de la complexité fonctionnelle ou comportementale (Pavé et al., 2003) : un système est qualifié de complexe structurellement s’il est constitué de nombreuses entités reliées entres elles. Un système, même structurellement complexe, peut exhiber un comportement simple, régulier (exemple des « systèmes à nombreux compartiments » mais où les relations sont linéaires). Un système, même structurellement simple, peut exhiber un comportement complexe, le plus complexe étant un comportement erratique, chaotique (exemple d’une population isolée à dynamique logistique en temps discret dans le domaine chaotique, cf. figure 2.14 et section II du chapitre 4). Les items énoncés par l’école de Santa-Fé sont pour la plupart des conséquences du développement de ces deux concepts complémentaires. Enfin, et suivant ce point de vue, le hasard observé (au moins dans une partie des phénomènes du monde réel à comportement qualifié de stochastique) résulterait d’un comportement complexe erratique, celui-ci pouvant être engendré par des processus ou des combinaisons de processus déterministes engendrant du chaos.
98
Le hasard dans les systèmes vivants
VIII Hasard et niveaux d’organisation du vivant L’une des caractéristiques fondamentales des systèmes vivants est leur capacité à l’auto-organisation en structures emboîtées de plus en plus complexes sur le plan structurel : génomes, cellules, organes, organismes, populations, communautés et écosystèmes. On peut imaginer que ces associations résultent de transformations progressives impliquant des phénomènes aléatoires (cf. encadré 8). Mais en se replaçant dans la logique de l’histoire de la vie, celle de l’évolution, la longue durée pour arriver à une complexification en métazoaires, puis l’extraordinaire accélération de la diversification et de l’auto-organisation depuis le Cambrien sont des observations étonnantes. On est loin du lentement progressif. Cette accélération nous fait penser que l’apparition et la sélection des processus produisant la diversité et des systèmes organisés s’est faite principalement durant cette dernière période. Or ces processus font appel à du hasard. On peut donc penser que « les roulettes » de la vie sont apparues et ont été sélectionnées surtout pendant cette époque. On comprend, grâce à ce schéma, que les niveaux d’organisation successifs vont conduire à des entités de plus en plus grosses et même que les temps caractéristiques des processus qui émergent à ces différents niveaux auront tendance à être plus grands que ceux des niveaux inférieurs. On peut ainsi construire un schéma de la hiérarchie des systèmes vivants (figure 2.16). Il faut néanmoins toujours rappeler que cette hiérarchie, apparue spontanément jusqu’au niveau des écosystèmes et même de la biosphère primaire, est le résultat d’un nombre considérable d’années d’évolution biologique, alors que les structurations, dont l’Homme est le principal responsable, comme les paysages, se sont produites sur un intervalle de temps extrêmement petit, comparé à ce temps de l’évolution. Dans la figure 2.16, on distingue les « systèmes biologiques » des « systèmes écologiques ». En effet, il y a un saut qualitatif entre ces deux catégories. Les systèmes biologiques, du génome aux populations, ont une cohérence génétique, ce qui n’est plus le cas dans les systèmes écologiques, au moins à notre connaissance, encore qu’il reste à évaluer les traces génétiques de la coévolution. Les valeurs moyennes des processus
99
LA NÉCESSITÉ DU HASARD
aléatoires spatio-temporels sont situées dans les mêmes domaines que les grandeurs caractéristiques des systèmes. La diversité biologique s’exprime à tous ces niveaux, comme nous l’avons déjà signalé. Il reste à bien la mesurer. Encadré 8 Comment les systèmes vivants s’organisent-ils ?
Apparition progressive de structures hiérarchiques : au départ des entités indifférenciées, par exemple des cellules (1). Au cours du temps, certaines de ces cellules (ou plutôt de lignées cellulaires) mutent au hasard et présentent des caractéristiques différentes (2 et 3). Par exemple sur la surface de cellules des protéines peuvent acquérir des propriétés permettant à ces cellules de s’agréger (5) et (6). On peut imaginer l’émergence progressive de structures emboîtées (7). Cela n’empêche pas la coexistence avec des structures plus simples, notamment celles qui ne sont pas porteuses du gène d’agrégation. On pourra trouver un schéma voisin et des explications complémentaires dans la contribution de Ferrière (in Michaud, 2003). Enfin, on pourra noter l’analogie avec le système immunitaire qui produit des anticorps susceptibles de s’agréger à des antigènes.
100
Le hasard dans les systèmes vivants
Enfin, on peut représenter approximativement la corrélation entre la taille des systèmes et les temps caractéristiques des processus qui président à leurs dynamiques. Ces processus s’expriment dans l’espace physique et sont souvent liés à des rencontres entre individus. Plus les tailles de ces individus seront importantes, plus grand sera l’espace physique concerné et plus grands aussi seront les temps de déplacement nécessaires à ces rencontres. On suppose évidemment que les individus se répartissent à des distances dépendant aussi de leurs tailles respectives. Par ailleurs, la « viscosité » du milieu est aussi un facteur limitant les déplacements. Cela est vrai « en moyenne » évidemment. La figure 2.17 donne un aperçu de cette corrélation.
Figure 2.16. Organisation hiérarchique des systèmes vivants (suivant André et al., 2003). (1) Systèmes biologiques Des structures intermédiaires peuvent être identifiées, par exemple les populations de macromolécules ayant un rôle fonctionnel : transcriptome, protéome, métabolome ou, au niveau des métazoaires, les tissus et les organes.
101
LA NÉCESSITÉ DU HASARD
Figure 2.16. (suite) Organisation hiérarchique des systèmes vivants (suivant André et al., 2003). (2) Systèmes écologiques Si la structure et les limites d’un écosystème et de ses interfaces avec d’autres écosystèmes peuvent aisément être identifiées (les écotones), ou les limites d’un bassin versant, ou encore les frontières bioclimatiques d’un écorégion, en revanche les bornes d’autres types de systèmes écologiques, comme les paysages, ne sont pas faciles à définir. On notera que le mot communauté est pris ici au sens anglo-saxon (« the species that occur together in space and time », Benton, 1995).
102
Le hasard dans les systèmes vivants
Figure 2.17. Relation approximative entre les échelles d’espace et de temps des grandeurs caractéristiques des divers niveaux d’organisation (Barbault et Pavé, 2003, Pavé 2006a). L’importance des processus aléatoires est également figurée. Elle est mimimale pour les organismes. E. coli K12 est une souche de référence de la « célèbre » entérobactérie Escherichia coli, l’un des principaux modèles de la biologie. La diagonale principale définit le demi-plan dans lequel se situent les temps et les tailles caractéristiques. La courbe inclinée donne une idée de l’importance des processus aléatoires suivant les niveaux d’organisation.
IX Conclusion Nous avons montré les différents niveaux d’intervention et évalué l’importance fondamentale des processus aléatoires dans le fonctionnement et l’évolution des systèmes vivants : – Au niveau du génome interviennent des mécanismes modifiant la séquence génomique, du codon aux morceaux d’ADN, tantôt par des dynamiques endogènes, tantôt par des transferts « horizontaux ». La
103
LA NÉCESSITÉ DU HASARD
modulation du système de réparation permet parfois d’accroître l’ampleur de ces processus, donc la diversité des individus d’une population. – Lors de la reproduction sexuée, des processus de brassage génétique sont à l’œ uvre, de la genèse d es cellules reproductrices à la fusion des gamètes en passant par le choix, en grande partie aléatoire, du partenaire. On observe même la mise en place de mécanismes préservant ou restaurant le brassage lorsque certaines conséquences évolutives peuvent le limiter, voire l’annuler. Comme chez les plantes autogames où apparaissent des processus immunologiques limitant l’autofécondation. Enfin, toujours chez les plantes, les possibilités de polyploïdie et d’hybridation interspécifique sont un facteur important de diversification du monde végétal. – La distribution désordonnée des individus dans l’espace et la plus grande couverture spatiale possible assurent un vaste mélange, aussi bien pour les végétaux que pour les animaux. Cette distribution n’est pas en contradiction avec la théorie de la niche. En effet, selon les propriétés de l’espace considéré, les espèces présentes sont différentes, mais elles restent mélangées. La distribution aléatoire dans un espace, en perpétuel changement, empêche l’exclusion compétitive et protège contre les aléas environnementaux. Ces processus ont, semble-il, été sélectionnés. Ils assurent la diversification des systèmes vivants et leur répartition spatiale dans un environnement incertain, leur donnant ainsi les meilleurs atouts de « survie » aussi bien pour les espèces, prises en particulier, que pour l’ensemble des existants sur la Planète. Évidemment, fruits d’une expérience naturelle, d’un vaste et long bricolage de l’évolution, il ne faut pas s’attendre à trouver des processus stochastiques idéaux comme ceux qu’on peut imaginer théoriquement. Mais ces réflexions permettent de construire des modèles de référence et de les confronter à la réalité des données et donc de pouvoir décrire plus précisément les processus. Ils peuvent aussi montrer comment les utiliser. En cela nous suivons l’enseignement d’Émile Borel. Le hasard n’est pas toujours efficace. Les organismes doivent être fonctionnels, autorégulés et adaptatifs. Une trop grande stochasticité gênerait ce « bon fonctionnement ». C’est du moins ce que nous apprend le paradigme technologique. Cela est vrai pour la physiologie générale de l’individu. Mais on a aussi vu que le hasard intervenait dans le système immunologique, pour assurer une résistance aux agents infectieux. En
104
Le hasard dans les systèmes vivants
gros, il se joue une sorte de drame interne, celui d’une microévolution, où les héros sont les anticorps et les antigènes, avec une forte intervention du hasard pour les diversifier. On pourrait presque dire que celui qui a la « meilleure roulette », de l’agent infectieux ou de l’hôte, a toutes les chances d’être le survivant à la fin du conflit. Enfin, seuls les génomes dont l’expression génétique permet ce bon fonctionnement, c’est-à-dire qui conduisent à un organisme viable, et qui permettront d’assurer une résistance aux agressions, notamment biologiques, pourront « exister » et se transmettre dans la descendance. Dans le jeu des relations interindividuelles, dont beaucoup se créent au hasard des rencontres, les mécanismes coopératifs tissent des réseaux qui stabilisent les ensembles d’individus, à tous les niveaux d’organisation : moléculaire, cellulaire, organismique, populationnel, communautés37, alors que la compétition interindividuelle, qui existe évidemment aussi, est considérée depuis longtemps comme prédominante. La stabilité globale d’un système vivant résulte en fait des effets subtils des mécanismes reproductifs, coopératifs, compétitifs et aussi destructifs. Le hasard de l’établissement des liens permet de diversifier les réseaux qui pourront donner lieu à sélection. Les plus stables, les plus résistants se perpétueront le plus longtemps. Ils seront « durables ». Donc, il y a nécessité du hasard pour les systèmes vivants. Mais ce hasard n’intervient pas n’importe où ni n’importe comment. Ce point de vue change un peu les façons de voir. Plutôt que de chercher à toute force des déterminismes, cherchons et identifions les mécanismes engendrant du hasard, leurs distributions, et regardons les déterminismes a posteriori, alors que, pour l’instant, on a plutôt tendance à faire le contraire : on cherche à toute force des déterminismes et le stochastique n’intervient qu’en second plan, souvent d’ailleurs comme une contrainte, comme une composante qui gêne et non comme un fait essentiel. En effet, nous avons une perception négative du hasard. Nous pensons qu’il perturbe nos sens, qu’il est un obstacle à la compréhension du monde, qu’il est une imperfection, alors qu’il en est une partie intégrante, essentielle et efficace. Nous avons du mal à nous le représenter, ce hasard, ainsi que le montrent des études psychologiques récentes (par exemple, Delahaye, 2004) ; c’est peut-être aussi pourquoi nous peinons à en prendre toutes
37. On pourra consulter la contribution déjà citée de R. Ferrière, dans l’ouvrage collectif édité par Y. Michaud (2003).
105
LA NÉCESSITÉ DU HASARD
Figure 2.18. Récapitulatif des niveaux d’organisation du vivant ; en gras : les niveaux eux-mêmes ; en italiques : les processus ; en italiques gras : les processus à composantes aléatoires majeures ; les relations avec l’environnement de ces systèmes sont également représentées. Les processus en cause sont pour la plupart endogènes aux systèmes vivants (ceux qui sont inclus dans les zones grise claire ou foncée). On comprend alors qu’ils aient pu donner prise à une sélection au cours de l’évolution. Ces processus se déroulent dans l’espace et dans le temps et ceux qui produisent du hasard changent, évoluent, apparaissent et disparaissent. C’est d’autant plus vrai, si on fait l’hypothèse qu’ils sont soumis eux-mêmes à une sélection. On notera qu’entre la première version du manuscrit et celle qui est publiée ici le nombre et l’importance des processus à caractéristiques aléatoires n’a fait qu’augmenter dans la littérature. Or il ne s’est passé qu’un peu moins de deux ans…
106
Le hasard dans les systèmes vivants
les dimensions. Or, sans lui, ce monde, notre monde, n’existerait pas. C’est du moins la leçon qu’on peut tirer de l’évolution et du fonctionnement des systèmes vivants. En définitive, nous avons à la fois le hasard des divers brassages, la nécessité du bon fonctionnement et la nécessité du hasard pour que les systèmes vivants soient évolutifs, qu’ils puissent se diversifier pour assurer la pérennité de la vie sur la Planète. Le hasard est nécessaire. Il produit de la diversité. Il est aussi utile. Une grande variété de mécanismes l’engendre et des processus semblent en assurer la pérennité. La diversité des produits du hasard et la diversité des processus le produisant constituent une double assurance pour la vie. En prendre la mesure et les utiliser dans les applications pratiques ouvre aussi de nouvelles possibilités pour la gestion des systèmes vivants. C’est ce que nous allons voir dans le chapitre suivant.
107
CHAPITRE
3
Des enseignements pour la gestion des systèmes vivants Les valeurs et la connaissance sont toujours et nécessairement associées dans l’action comme dans le discours. J. Monod, Le Hasard et la Nécessité. Essai sur la philosophie naturelle de la biologie moderne.
Émettre des hypothèses et des conjectures est partie intégrante de la démarche scientifique et peut-être la principale. En donner des preuves est essentiel, mais il est au moins aussi important d’en examiner les conséquences pratiques. Si nous mettons en évidence l’importance des processus aléatoires spontanés dans les systèmes vivants, résultant de mécanismes endogènes, c’est qu’il faut en tenir compte. Alors et dans ces cas, leur gestion peut être rendue plus simple et plus efficace. Il se peut même que, dans certains cas, nous ayons intérêt à améliorer l’efficacité des processus engendrant du hasard, par exemple pour augmenter la vitesse de diversification ou pour améliorer les conditions de maintien de la biodiversité.
109
LA NÉCESSITÉ DU HASARD
I Les organismes Pour la médication, il y a sans doute lieu de rester d’abord déterministe et, à cette image, de construire des modèles de référence et de traitement pour mieux intervenir en cas de dysfonctionnement. Il s’agit, par exemple, de modèles construits à des fins thérapeutiques pour soigner des maladies où, si besoin, une composante aléatoire peut être introduite pour tenir compte des incertitudes des mesures ou des « facteurs non contrôlés ». Le hasard pris en compte est, suivant notre terminologie, contingent, c’est-à-dire qu’il représente un « bruit de fond » et non pas un processus fondamental du « système organisme ». Ce point de vue est largement répandu et avec juste raison car il conduit à des actions très souvent efficaces. Cependant, nous avons remarqué que les organismes utilisaient des combinatoires, issues de véritables « roulettes moléculaires », notamment dans le système immunitaire. Nous avons également vu que certains micro-organismes employaient aussi des combinatoires pour déjouer ce système, par exemple le virus du SIDA mais aussi le plasmodium du paludisme, par la production rapide de variants présentant des antigènes de surface très diversifiés. En tenir compte peut mener à des améliorations dans nos façons d’intervenir, par exemple, en limitant les processus combinatoires des agents pathogènes ou en amplifiant ceux du système immunitaire. On remarque au passage que ce point de vue introduit des concepts de biologie et d’écologie évolutive qui sont en passe de faire changer certaines thérapies. Il s’agit, par exemple, de prendre en compte le couple « hasard-sélection », ou des modèles de l’écologie formalisant les relations entre cellules ou particules pathogènes et les cellules du système immunitaire. C’est l’introduction d’un tel point de vue, non standard en virologie, qui a conduit à une véritable révolution dans la vision du SIDA au milieu des années 199038.
38. On retiendra notamment, l’utilisation de concepts et de modèles mathématiques issus de l’écologie pour mieux comprendre le processus d’infestation d’un organisme par le VIH. Les articles de Wei et al., d’une part, et de Ho et al., d’autre part (Nature, 373, 1995, 117-122 et 123-126) ont ainsi remis complètement en cause les hypothèses en cours sur la « furtivité » du virus. À ce sujet, on pourra également consulter les travaux
110
Des enseignements pour la gestion des systèmes vivants
II Les populations et les écosystèmes Pour la gestion à long terme des populations et des écosystèmes, on peut utiliser la part du hasard dans les processus spontanés. Par exemple, pour la restauration des écosystèmes dégradés, il n’est pas forcément besoin d’être très interventionniste, pas uniquement dans un souci d’économie, mais aussi parce que les processus spontanés risquent de faire mieux que notre imagination. La pratique nous montre quand même que la taille de la perturbation par rapport au milieu joue. La « cicatrisation » se fera plus spontanément sur une petite superficie que sur une grande. C’est aussi une question de temps, laisser « faire la nature » est souvent plus lent qu’une « bonne intervention » (par exemple pour la régénération des sols dégradés par une activité minière de surface). De la même façon, on peut laisser une large part à ces processus spontanés dans des écosystèmes naturels ou créés pour le long terme, par exemple les forêts spontanées ou plantées, dont l’existence s’établit sur des décennies et dans des espaces géographiques plutôt vastes. Cependant, cela ne nous dispense pas d’assurer un suivi et, si besoin, d’intervenir ponctuellement. Le rôle des modèles est aussi important que pour la gestion des systèmes déterministes : introduction du hasard et simulations pour analyser les devenirs probables, recalages réguliers si on observe une divergence par rapport à ce qu’on attend, définition des modes d’intervention, s’ils s’avèrent nécessaires, et évaluation de leurs impacts. Pour les populations et les écosystèmes artificiels (par exemple, élevages et monocultures), la part du hasard est plus contingente étant empaquetée dans les « facteurs non contrôlés » au sens de la statistique des agronomes. On essaie, tant que faire se peut, d’en avoir une approche déterministe. Aux modèles est ajouté un « bruit » de fond pour tenir compte des aléas introduits par ces facteurs non contrôlés. Cela étant, on peut s’interroger sur de nouvelles pratiques, par exemple de cultures multispécifiques avec répartition aléatoire des diverses espèces cultivées
de Nowack et al. (Nature, 375, 1995, 606-611). Il est significatif de noter que dans la liste des auteurs apparaissent des « modélisateurs » connus pour leurs travaux en écologie et en dynamique des populations. Cette catégorie de scientifiques est rompue aux travaux aux interfaces entre disciplines, riches de concepts et de méthodes. De ce fait, ils sont aussi de bon « passeurs de frontières ».
111
LA NÉCESSITÉ DU HASARD
pour diminuer les risques d’infestation et ainsi limiter les intrants chimiques, en particulier les pesticides. On mime là des systèmes naturels diversifiés dont l’expérience nous apprend qu’ils sont très résilients et dont on a vu que la distribution aléatoire des individus dans l’espace est aussi un facteur de résistances aux aléas environnementaux. De fait, les modes de gestion agronomique seront de plus en plus inspirés par les approches écologiques.
III La biodiversité La gestion de la biodiversité est directement concernée par ce que nous venons d’exposer. Nous avons vu qu’il existe des mécanismes de diversification spontanés essentiellement fondés sur les processus aléatoires. Il existe aussi des mécanismes de réduction, eux aussi aléatoires. Il y a lieu de mieux les caractériser et de les modéliser. Nous avons vu également la nécessité d’une approche traitant ces processus dans le temps et dans l’espace, à différentes échelles et à différents niveaux d’organisation. Nous avons encore vu qu’au niveau écologique le maintien de la biodiversité pourrait probablement être assuré en laissant largement fonctionner les processus spontanés et notamment ceux à fortes composantes aléatoires. Dans un souci de gestion de cette biodiversité, il y a lieu de tenir compte systématiquement de ces dimensions. Par exemple, il conviendra de répondre à des questions comme celle-ci : comment aménager un espace régional permettant à la fois d’assurer des productions agricoles ou forestières tout en préservant la biodiversité ? Une question très actuelle quand on sait les mutations que l’agriculture mondiale doit effectuer, dans les cinquante prochaines années pour nourrir la Planète tout en limitant les effets négatifs, notamment les pollutions et l’érosion de la biodiversité. Ces modes de gestion sont sans doute l’une des clés de l’ingénierie des systèmes écologiques et de la gestion des territoires (Barbault et Pavé, 2003, Caseau, 2003). Ils devraient inspirer les nouveaux modes de gestion des agrosystèmes. Il y a un effort certain à faire pour modéliser l’évolution des écosystèmes diversifiés, qu’ils soient naturels, spontanés, ou artificiels, et pour introduire dans ces modèles des modes de gestion, étant donné que les
112
Des enseignements pour la gestion des systèmes vivants
objectifs ne sont pas les mêmes. En effet, les écosystèmes laissés à leur fonctionnement spontané ont plutôt un rôle de préservation de la biodiversité alors que les écosystèmes diversifiés artificiels, de type « agriculture écologique39 », ont surtout un rôle de production. Enfin, la gestion de la biodiversité, envisagée ici en termes écologiques, a évidemment une dimension génétique dont il faut tenir compte.
IV L’information et le patrimoine génétiques La préservation ainsi que la gestion de l’information et du patrimoine génétiques constituent des questions essentielles. En idéalisant, on pourrait estimer que la réponse serait réductible à la création de banques de gènes et de génomes in vitro ou même in silico40. Gènes et génomes ont une origine naturelle, produit de l’évolution biologique, et dans l’avenir peut-être artificielle, résultant d’une synthèse complète ou d’une synthèse partielle. Mais on sait déjà que la connaissance de la séquence génétique n’est pas suffisante pour déterminer la structure et le fonctionnement d’une cellule, d’un organisme. Le gène et le génome n’ont pas les moyens d’être égoïstes sinon ils disparaissent. La vision déterministe qui préside à ce genre de prospective, éliminant l’aléatoire, est sans doute un facteur de régression. C’est du moins une hypothèse raisonnable à la lumière de ce que nous avons exposé sur son rôle fondamental dans l’analyse de l’évolution et donc pour la préservation du vivant.
39. Le terme écologique n’est pas pris, ici comme dans tout le reste de cet ouvrage, au sens idéologique ou affectif, mais dans une acception strictement scientifique. On peut aussi parler d’ingénierie des systèmes écologiques ou d’agronomie « nouvelle », intégrant largement les connaissances et concepts de l’écologie : l’agroécologie. 40. Néologisme latinisant utilisé dans la littérature pour ce qui relève de l’informatique. En l’occurrence, il s’agit de bases de données de séquences génétiques.
113
LA NÉCESSITÉ DU HASARD
V La conservation des ressources génétiques Pendant une période assez longue, la conservation in vivo devrait rester prédominante parfois in natura, sinon dans des collections de matériels biologiques, dites de « ressources génétiques », pour les végétaux, sous forme de graines, pour les micro-organismes, sous forme cryogénisée, pour les animaux, soit vivants ou sous forme de sperme et d’ovule conservés au froid. Il existe aussi des collections sous forme cultivée ou de cultivars. Des bases de données sont associées à ces collections permettant de documenter les échantillons. Il y a lieu de préserver un rôle au hasard dans le maintien des collections en milieu naturel ou sous forme d’organismes vivants, notamment pour éviter les dégénérescences.
VI Les modifications génétiques : hybridation et sélection On conserve donc, mais pour quoi faire ? En fait, l’utilisation principale est de faire des hybrides et de sélectionner des animaux ou des végétaux. Sélection et hybridation sont les premières manipulations génétiques inventées par l’Homme, bien avant que la génétique soit découverte. Ainsi, le ver à soie est sélectionné et hybridé depuis 4 000 ans. On pense que c’est le premier animal qui a donné lieu à ce type de « manipulations génétiques », au moins d’une façon systématique. On sait que le hasard, lié aux processus aléatoires intervenants dans la reproduction, joue un rôle important, si bien que les caractères des descendants, hérités des parents, sont variables. Cette variabilité, qui peut paraître gênante dans un premier temps, est en fait une richesse. Cela étant, en sélectionnant les individus présentant un avantage par rapport au caractère choisi, on espère observer, au bout d’un certain nombre de générations, une « amélioration » moyenne de ce caractère dans la descendance41. Les 41. La sélection peut porter sur plusieurs caractères. Il se peut aussi que la pratique d’une sélection jugée positive pour un caractère ou un groupe de caractères, peut en
114
Des enseignements pour la gestion des systèmes vivants
critères de sélection sont divers, mais ils ont une finalité, par exemple la sélection de variétés résistantes à des conditions climatiques, à des parasites, ou encore de variétés produisant plus et avec une meilleure qualité. Ces techniques ne font qu’accélérer et diriger des processus évolutifs naturels. Ce sont aussi des bonnes preuves de la pertinence du schéma darwinien. On notera qu’un phénomène intéressant, l’hétérosis, est souvent observé suite à une hybridation : les descendants de la première génération ont des performances supérieures à la moyenne des parents pour le caractère choisi. Cependant, les générations ultérieures, obtenues à partir de ces hybrides, perdent progressivement cet avantage. Si bien que l’on est obligé de refaire régulièrement la manipulation. C’est une source de revenu importante pour les fabricants de semences. Les mécanismes à la base de ce phénomène d’hétérosis sont mal connus et se situent probablement dans l’expression du génome. Il faut également souligner que l’hybridation et la sélection jouent sur des caractères phénotypiques, généralement multigéniques et que la manifestation de ces caractères dépend aussi de l’expression du génome. Néanmoins pour essayer d’appréhender ce phénomène, on peut utiliser l’analogie de la partie de cartes. On sait qu’il faut brasser le jeu de temps en temps, voire à chaque tour, par exemple pour le bridge, sinon les distributions successives se dégradent, la qualité et l’intérêt des parties diminuent. Nous pouvons émettre l’hypothèse que le phénomène d’hétérosis résulte de l’expression du génome produit du brassage de deux génomes parents, compatibles mais différents. Ensuite, la relative uniformisation des génomes des descendants ultérieurs fait perdre le résultat du brassage, les « cartes » ne sont plus suffisamment mélangées et le « jeu » perd de son intérêt. On notera aussi que la diminution de la qualité de la descendance est observée dans les lignées consanguines animales. Les deux mécanismes nous semblent proches et l’on pourrait les comprendre en étudiant des lignées pour analyser le processus de diminution des performances, notamment en utilisant l’expression du génome que constituent le transcriptome et le protéome. On notera néanmoins que, dans certains cas, on
« contre sélectionner » d’autres. Ainsi, pense-t-on que la sélection des bovins sur la production de lait et de viande a eu une influence négative sur leur aptitude à vivre indépendamment de l’Homme.
115
LA NÉCESSITÉ DU HASARD
tente d’obtenir des animaux très « semblables génétiquement » par de tels croisements, notamment pour des tests pharmacologiques. Ce sont les « lignées isogénétiques » (d’autres approches sont possibles comme le clonage, comme on peut le voir un peu plus loin). Le recours aux modèles, essentiellement probabilistes, est courant et relativement ancien ; ce sont ceux de la génétique quantitative et de la génétique des populations. Il y a cependant lieu de les améliorer à la lumière des nouvelles connaissances. En conclusion, il y a nécessité du hasard, celui introduit par les croisements lors de l’hybridation, pour le maintien de lignées non régressives, voire pour leur amélioration. Ces processus ont, sans nul doute, aussi joué spontanément dans l’évolution biologique sur une sélection, non plus choisie par l’Homme, mais imposée par le milieu. On suppose généralement qu’ils sont le produit de croisements aléatoires assurant une bonne adaptation des descendances à leur environnement.
VII Les manipulations génétiques : insertion de gènes Nous attaquons ici le délicat problème des « manipulations génétiques » et des « organismes génétiquement modifiés » (OGM) qui en résultent. Il faut se méfier des mots. En effet, ce que nous venons d’exposer sur l’hybridation et la sélection en relève aussi, puisque ces procédés aboutissent à des organismes répondant à des critères donnés, définis à l’avance, en modifiant leur génome par croisements successifs. La différence avec l’insertion de gènes, utilisant le processus domestiqué de « transfert horizontal », c’est d’une part qu’on peut introduire des gènes exospécifiques, c’est-à-dire appartenant à d’autres espèces, ou dans l’avenir plus ou moins synthétiques, ce qui n’est pas possible par les techniques d’hybridation classiques, et, d’autre part que l’on ne manipule, pour l’instant, qu’un seul gène. On voit bien que le hasard n’intervient apparemment plus comme processus fondamental au moment de la manipulation, mais d’une façon contingente, comme dans toute expérience où l’on n’est assuré
116
Des enseignements pour la gestion des systèmes vivants
que d’un pourcentage de succès. Encore que l’on pourrait s’interroger sur la résistance à ce type de transformation. Peut-être n’est-ce pas par hasard ? Ensuite se posent les questions de la reproduction de cet organisme, de sa diffusion, de son hybridation avec des variétés proches et d’un éventuel avantage sélectif que procure cette greffe génétique, à lui et à ses descendants. Ce sont les grandes questions biologiques et écologiques actuelles. Nous retrouvons là les processus, dont nous avons déjà discuté. Trois points cependant ont été peu abordés jusqu’à présent. Le premier concerne l’estimation du transfert horizontal spontané et l’étude précise des processus impliqués dans ce transfert. Outre l’importance de cette estimation pour l’utilisation d’OGM, il est aussi intéressant de pouvoir introduire ce processus dans les approches évolutives. Le second est relatif aux éventuelles modifications de la dynamique du génome et des divers mécanismes sous-jacents, conséquences d’une telle introduction. Par exemple, y a-t-il changement des fréquences d’occurrences de certains processus comme l’activation de transposons ou comme les remaniements chromosomiques ? Plus généralement et c’est le troisième point, dans quelle mesure ces manipulations altèrent les « roulettes biologiques », moteurs de la diversification spontanée et, en cas de généralisation de la technique, quelles peuvent être les conséquences évolutives, c’est-à-dire sur le très long terme ? Bien sûr, des précautions sont prises et à prendre pour éviter d’éventuels effets négatifs de cette nouvelle technologie et cela d’autant plus que les OGM sont une réalité d’aujourd’hui et concernent des produits de grand intérêt (par exemple, pour les produits alimentaires, le coton, le soja, le manioc ou le riz, et pour les composés à visées thérapeutiques, les bactéries qui synthétisent des antibiotiques42). C’est à la recherche de faire ces évaluations en prenant toutes les dimensions du problème, biologiques et écologiques évidemment, mais aussi sanitaires et sociales, politiques et économiques, et… pourquoi pas psychologiques ? Si, pour certains, les OGM sont l’objet d’enjeux économiques, souvent louables mais quelquefois peu avouables, pour d’autres, le discours anti-OGM ne constitue-t-il pas aussi un fonds de commerce ?
42. Ces bactéries portent des handicaps génétiques pour empêcher une éventuelle prolifération hors des milieux confinés.
117
LA NÉCESSITÉ DU HASARD
Là encore l’analyse scientifique interdisciplinaire du problème pourrait nous éclairer43. Enfin, on notera, et c’est dommage, que le recours aux modèles formels et aux simulations numériques est encore peu courant dans ce type d’études, même limitées aux aspects biologiques et écologiques.
VIII Le clonage Cette technique, obligatoire pour les micro-organismes, courante et ancienne dans le domaine végétal, est maintenant envisagée chez les animaux supérieurs, y compris l’Homme. Il n’est pas de notre propos d’en discuter les aspects éthiques, mais seulement d’en signaler les limites biologiques. En effet, d’une part un descendant obtenu à partir d’un génome d’une cellule somatique n’est pas, contrairement à ce qui est trop souvent dit, la copie conforme du parent. En effet, il est fort probable que le génome de la cellule choisie ait subi diverses modifications liées à la dynamique propre de ce génome et aux mutations spontanées, conséquences des processus que nous avons vus. De plus, cette technique oblitère complètement les remaniements et le brassage du génome au moment de la reproduction dont on a vu les effets positifs et la richesse évolutive. Dans le clonage, les conséquences liées à l’érosion génétique risquent, pour la lignée envisagée, d’être pires que pour les lignées consanguines. C’est particulièrement vrai chez l’animal où le clonage n’a pas été soumis à la sélection évolutive, contrairement au végétal où la multiplication (ou reproduction) végétative est un phénomène spontané, mais qui n’exclut pas la reproduction sexuée. En tout cas pour l’Homme, on peut dire que si l’on fait une lignée de clones, les tares ne cesseront de s’accu43. Dans cet ouvrage, comme annoncé dans l’avant-propos, nous n’avons fait que des allusions aux problèmes autres que biologiques et écologiques concernant la biodiversité. Il y a déjà beaucoup de travaux sur ces sujets, mais un ouvrage synthétique et… objectif présenterait un grand intérêt. Le jeu des acteurs sociaux, l’analyse des intérêts avoués et non avoués, mériteraient qu’on s’y arrête au même titre que ce qu’a fait Catherine Aubertin en coordonnant l’ouvrage suivant : Représenter la nature ? ONG et biodiversité, éditions IRD, Paris, 2005. Sur un autre plan, on pourra lire avec profit et… avec plaisir le livre d’Erik Orsenna : Voyage aux pays du coton. Petit précis de mondialisation, Fayard, 2006.
118
Des enseignements pour la gestion des systèmes vivants
muler. Ainsi on a noté que même dès le premier clone des problèmes surgissent, à l’image de ce qui a été observé chez Dolly. En effet, ce premier clone réussi de mammifère, une brebis (née en 1996, et « conçu » par une équipe de chercheurs du Roslin Institute d’Edinburgh) a vieilli prématurément, vérifiant ainsi les craintes des chercheurs ; elle est morte à 6 ans, alors qu’une brebis peut vivre largement le double d’années. Une autre brebis clonée en Australie n’a vécu qu’un peu plus de 2 ans…
IX Les molécules actives d’origine biologique Les substances actives d’origine biologique proviennent du calage progressif des êtres vivants entre eux, à l’échelle des centaines de millions d’années de l’évolution. Pour survivre et se maintenir, une espèce doit « apprendre » à utiliser son milieu, sans l’épuiser, ni le rendre impropre à la survie, à se protéger contre les agressions, sans en être la propre victime, à coexister, voire à coopérer avec d’autres espèces. C’est un subtil réglage entre exploitation, défense, compétition, coexistence et coopération. Dans ce jeu, les substances chimiques, produits du métabolisme, lui-même expression du génome, jouent un rôle important pour la protection par l’émission de substances répulsives, pesticides ou antibiotiques, pour la coopération, par la synthèse de « signaux » chimiques attractifs, ou de composés utiles pour d’autres organismes (exemple des symbioses mycorhiziennes). La recherche de substances actives, dont l’existence est un fruit du « hasard évolutif » ayant produit la biodiversité d’aujourd’hui, a des fondements théoriques. Cependant, dans l’état actuel de nos connaissances, si on peut expliquer de façon générale cette existence, il nous manque encore des outils opérationnels permettant de guider précisément la recherche de telles substances. C’est ce qui explique que dans la phase actuelle nous sommes le plus souvent conduits à appliquer des méthodes d’échantillonnage systématique et à faire des tris successifs (les « screenings »). Des voies, non spécifiquement biologiques, peuvent être suivies comme celles des études des savoirs traditionnels, mais elles ont aussi
119
LA NÉCESSITÉ DU HASARD
leurs limites. Efficaces pour les produits et substances à intérêt agroalimentaire et les matériaux, elles ont montré leurs limites dans le domaine thérapeutique. En tout état de cause, nous ne pouvons plus faire l’économie d’une réelle biologie déductive encore largement à développer. Sur ce dernier point, on peut cependant avancer quelques idées. Nous avons vu que l’un des moyens de garantir la permanence d’une espèce est de s’étaler dans l’espace et de se mélanger avec d’autres. Ce dernier point est important, notamment pour limiter le risque biologique lié aux agents infectieux. On sait, par exemple, pour les animaux domestiques, que les élevages en « batterie » sont très sensibles. Cela est compréhensible, l’agent infectieux peut se développer facilement grâce à la promiscuité. Or dans le milieu naturel, il existe des groupes animaux, végétaux et microbiens qui vivent très nombreux dans un espace réduit. C’est le cas, par exemple, des bactéries, mais aussi des insectes sociaux, singulièrement les sociétés de fourmis. Pour résister à l’apparition d’agents infectieux, des systèmes de résistance ou immunologiques spécifiques ont dû être sélectionnés, fondés, en particulier chez les insectes ou les bactéries, sur la synthèse d’antibiotiques. Il est donc judicieux de rechercher de telles substances dans ces groupes. On le fait déjà chez les bactéries, mais encore peu chez les insectes. Par ailleurs, sachant que les cancers, ou des maladies voisines liées à un dérèglement de la prolifération cellulaire apparaissent « avec l’âge », il semblerait intéressant de chercher des substances anticancéreuses dans des organismes d’espèces à longue durée de vie, comme certains végétaux, par exemple les arbres, mais pas exclusivement. En revanche, comme nous l’avons déjà évoqué, les végétaux ont tendance à se distribuer largement, plutôt au hasard, et donc à créer des peuplements plurispécifiques et très mélangés. Ils donnent donc peu de prise à des phénomènes épidémiques, donc peu à la sélection des systèmes et de substances antibiotiques44. En résumé, il est judicieux d’orienter les recherches de substances antibiotiques chez les bactéries et les insectes sociaux. En revanche, pour les produits anticancéreux on peut s’intéresser plus spécifiquement aux plantes. On sait aussi que ces dernières sont immobiles et ne peuvent trouver leur salut dans la fuite. Des mécanismes de production
44. Ce paragraphe a été rédigé suite à des discussions avec Alain Dejean, spécialiste de renommée internationale des insectes sociaux, et avec Pierre Charles-Dominique, écologue lui aussi bien connu.
120
Des enseignements pour la gestion des systèmes vivants
de substances toxiques ou répulsives ont été sélectionnés pour se défendre contre les prédateurs. Inversement, elles produisent aussi des substances attractives pour la dissémination des pollens et des graines. On observe donc un subtil équilibre entre production d’une part de toxiques et de répulsifs et, d’autres part, d’attractifs qui peuvent d’ailleurs ne pas être produits par les mêmes organes. Par exemple, pour les insectes les fleurs d’un arbre peuvent synthétiser des attractifs, inversement les cellules ligneuses des toxiques ou des répulsifs.
X Les limites et les conséquences de l’intervention de l’Homme sur les systèmes vivants Les interventions de l’Homme se font dans un univers de possibles, celui qui est autorisé par les « lois45 de la nature », connues ou non. Elles peuvent adapter, modifier les processus ou en inventer d’autres, mais pas aller contre ces lois. Ce à quoi nous avons affaire résulte de près de 4 milliards d’années d’évolution, il y a donc lieu d’être attentif et précautionneux. Ainsi, dans les aspects pratiques, nous ne faisons qu’utiliser et adapter des processus spontanés et les associer de façons différentes. L’une des conséquences majeures est l’accélération des transformations et des modifications. C’est par exemple le cas de l’emploi des techniques d’hybridation et de sélection ou de transfert horizontal qui accélèrent des phénomènes évolutifs. Au cours de cette longue évolution, des multitudes d’expériences spontanées se sont réalisées. Les systèmes vivants se sont frottés entre eux et ont produit des entités et des composés utiles que nous ne connaissons encore que très peu. Il ne faut pas attendre de miracle, telle la molécule qui guérirait tout et tous. Son existence même pourrait d’ailleurs oblitérer toutes autres formes de vie autres que celle qui les a produites. En revanche, on peut espérer identifier une multitude de produits utiles et valorisables. C’est là la « plus-value » de la biodiversité, productrice de richesses pour l’Homme. 45. Le terme de « loi » (de la nature), qui me gênait, me semble maintenant bien adapté avec l’idée de limites des possibilités d’action qu’il sous-entend.
121
LA NÉCESSITÉ DU HASARD
On remarquera enfin que les processus stochastiques ont été peu « domestiqués », l’aléatoire étant plutôt vu comme une gêne que comme un fait utilisable et encore moins comme créateur potentiel d’une richesse ; et pourtant, nous avons vu son rôle essentiel dans ce que nous considérons maintenant comme telle : la biodiversité. La nécessité du hasard ne s’impose pas à l’évidence et… encore moins son utilité. Et pourtant le hasard est nécessaire et utile. Comme nous l’avons annoncé dans la courte introduction à cette section, nous avons donc intérêt à identifier et à bien analyser les processus, notamment endogènes, produisant du hasard, à évaluer leur utilité en fonction d’objectifs définis, et éventuellement à les utiliser, voire à les améliorer, comme on perfectionne une roulette pour obtenir des tirages approchant de mieux en mieux une distribution uniforme.
XI Les technologies bio-inspirées et biomimétiques Ces deux termes nous viennent de la biomécanique et de l’informatique. On parle de biomimétisme lorsqu’on construit un dispositif technologique ressemblant à une entité vivante ou à un élément de cette entité (exemples d’un robot androïde ou d’un bras mécanique). Les technologies bio-inspirées sont très voisines, mais ne se limitent pas à imiter une entité, mais aussi des processus biologiques, écologiques et évolutifs. Par exemple, les algorithmes génétiques miment des processus de mutationsélection pour résoudre des problèmes d’optimisation (cf. chapitre 1, section II.4 et note 7). Ces relations entre biologie et technologie ne sont pas nouvelles ; elles remontent au moins aux années 1940, avec l’invention de la cybernétique par Norbert Wiener. Elle a été principalement développée pour mettre en correspondance les processus de régulations physiologiques et technologiques (la célèbre notion de rétroaction vient de la cybernétique). Plus tard on a parlé de bionique, mais ce mot est tombé en désuétude. Résultats d’une longue évolution, les systèmes biologiques exhibent des originalités, inspirent des solutions qui peuvent être utiles dans nombre de domaines de l’activité humaine. Cette « ressource intellectuelle » est loin d’avoir été exploitée.
122
CHAPITRE
4
L’apport des modèles et de la modélisation : quelques exemples Lui les incita à rendre clair l’obscur et simple le complexe. Al-Kw râizmi,
IXe
siècle46.
Dans ce chapitre, on trouvera quelques illustrations ou résultats utilisés dans le texte et obtenus grâce à des modèles. La première partie de ce chapitre, dévolue à la génétique, montre des modèles probabilistes classiques, efficaces, on le sait et on le montre, mais qui ne disent rien sur les mécanismes engendrant ces phénomènes aléatoires observés. Dans cette optique et comme base de réflexion, on pourra réfléchir sur la transition chaos-aléatoire, comme nous l’esquissons dans la seconde partie de ce chapitre. Enfin, de grandes tendances d’évolution de la biodiversité peuvent être modélisées par de simples expressions mathématiques, par exemple le modèle logistique ; on remarquera que malgré sa simplicité, on peut tirer quelques enseignements sur de possibles mécanismes globaux expliquant cette dynamique. Enfin dans la dernière section, 46. Cité par Denis Guedj dans Le Théorème du perroquet (Seuil, 1998).
123
LA NÉCESSITÉ DU HASARD
nous proposons un schéma général de modélisation des systèmes vivants incluant les tendances moyennes « déterministes » et les composantes aléatoires et chaotiques. En quelque sorte on voit dans ce chapitre le rôle clarificateur et simplificateur du modèle, outil de plus en plus incontournable notamment pour l’analyse de données et comme support de réflexion47.
I Génétique et calcul des probabilités : lois élémentaires, évolution dans le temps de la constitution génétique d’une population Il est merveilleux de constater, dans les découvertes de la génétique, que le calcul des probabilités fournit des modèles mathématiques efficaces et la statistique un cadre rigoureux d’analyse des résultats expérimentaux. On pourra noter que G. Mendel, l’inventeur de la génétique, était professeur de sciences naturelles et qu’il enseignait aussi la statistique dans un collège. Ce n’est donc pas tout à fait « un hasard » s’il a remarqué des proportions singulières et à peu près reproductibles dans les résultats de croisements de petits pois et d’autres végétaux. Ses découvertes, qu’on peut considérer comme parmi les plus importantes dans l’histoire de l’humanité, n’ont pas été estimées à leur juste valeur par ses contemporains.
47. La modélisation est devenue une méthodologie incontournable dans de nombreux domaines scientifiques. Associée à la simulation numérique, elle montre une redoutable efficacité. Le CNRS au milieu des années 1990 avait lancé un programme interdisciplinaire sur le sujet, dirigé par Cl. Schmidt-Lainé. Pour ce qui est de la biologie et de l’écologie, on retiendra les travaux du Club Edora de l’INRIA dans les années 19801990 et plus généralement pour l’environnement, ainsi que les travaux du groupe « méthodes, modèles et théories » du Programme Environnement, Vie et Sociétés du CNRS et le numéro spécial « Sciences pour l’ingénierie de l’environnement » de la revue Natures, Sciences, Société (2002). On notera enfin le dossier sur le sujet de Pour La Science daté de juillet/septembre 2006 (cf. en particulier l’introduction de J.-P. Delahaye et F. Rechenmann).
124
L’apport des modèles et de la modélisation : quelques exemples
Nous allons illustrer ces bases de la génétique et l’intérêt des modèles probabilistes sur deux exemples simples.
1. Le schéma mendélien Considérons une population sexuée, diploïde. Dans cette population, les individus portent un gène, non lié au sexe, pouvant se présenter sous forme de deux allèles A et a. Supposons qu’on observe la descendance du croisement de deux individus différents hétérozygotes Aa. Le résultat de ce croisement peut être prévu en construisant le tableau à double entrée ci-dessous. Individu 1 (mâle) Individu 2 (femelle)
A
a
A
AA
Aa
a
aA
aa
La traduction de la théorie mendélienne de transmission des gènes est que : 1. cet ensemble de résultats possibles forme un système complet d’événements (les résultats sont mutuellement exclusifs et la somme de leur probabilité est 1) ; 2. les différents résultats sont équiprobables : P(AA) = P(Aa) = P(aA) = P(aa) = 1/4. En pratique, on observe l’expression phénotypique du génome. D’abord les phénotypes Aa et aA sont indiscernables, si bien que la probabilité d’observer, dans la descendance, un individu hétérozygote est de P(Aa)+P(aA) = 1/2. Ensuite, si l’allèle A est dominant, alors la probabilité d’observer un descendant de phénotype A est alors : P(AA)+P(Aa)+P(aA) = 3/4 et de phénotype a est de 1/4. En pratique, quand on fait une telle expérience d’étude de la descendance d’individus hétérozygotes, on n’observe pas exactement ces proportions, pas plus qu’on observerait exactement les proportions 1/2 et 1/2 dans un jeu de pile ou face. Mais comment établir que l’observation peut raisonnablement être interprétée comme une réalisation expérimentale de ce schéma théorique ? La statistique nous apporte des réponses avec des tests appropriés permettant d’en décider (dans ce cas précis le célèbre test du χ2).
125
LA NÉCESSITÉ DU HASARD
2. Évolution génétique d’une population autogame Considérons toujours le même schéma, mais avec une population autogame, c’est-à-dire d’individus pratiquant l’autofécondation. Cette situation se trouve dans de nombreuses espèces végétales où le même individu porte à la fois les gamètes mâles et les gamètes femelles. Supposons que l’on parte d’une population d’hétérozygotes Aa. Nous allons essayer de prévoir l’évolution génétique de ce type de population. Enfin nous étudierons l’évolution de la structure génétique pour un gène biallélique que nous noterons A (et) a. Les différentes structures génétiques possibles sont alors : – AA et aa pour les homozygotes ; – Aa pour les hétérozygotes. Si en outre on fait l’hypothèse que les générations sont distinctes (temps discret), ces différentes structures peuvent constituer les états de ce qu’on appelle un processus de Markov, les épreuves étant le passage d’une génération à une autre. En effet, la composition de la population à une certaine génération dépend seulement de la composition de cette même population à la génération précédente (selon les hypothèses faites) : – tout individu homozygote donnera des descendants homozygotes de la même catégorie ; – tout individu hétérozygote donnera des descendants : • AA avec la probabilité 1/4, • Aa avec la probabilité 1/2, • aa avec la probabilité 1/4. On peut alors construire le tableau 4.1 des probabilités de transition de la génération Gk à la génération Gk+1.
Tableau 4.1. Probabilités des génotypes des descendants, relativement aux allèles du gène A, selon la théorie mendélienne de disjonction et de recombinaison indépendante des allèles. Gk+1
AA
Aa
aa
AA
1
0
0
Aa
1/4
1/2
1/4
aa
0
0
1
Gk
126
L’apport des modèles et de la modélisation : quelques exemples
Alors la matrice de passage de la génération k à le génération k+1 est :
冢
1 1/4 0 0 1/2 0 . 0 1/4 1
冢
P =
Par exemple, supposons que l’on parte d’une population constituée uniquement d’hétérozygotes à la génération 0. Cette hypothèse se traduit sous la forme de la matrice unicolonne suivante : V0 =
0 1 . 0
冢冢
La composition en probabilité de la première génération sera alors :
冢
冢
1 1/4 0 0 1/2 0 0 1/4 1
0 1 0
冢冢 冢 =
冢
V1 = P V0 =
1/4 1/2 . 1/4
On peut aisément voir comment l’évolution se réalise au cours du temps. Pour cela il suffit de calculer Pn. Nous passons sur les aspects techniques passant par une matrice diagonale ; on obtient :
Pn =
n –1 0 1 2 n+1 2 1 0 . 0 2n n –1 1 0 2 n+1 2
冢 冢
1 1 2n – 1 On voit que : lorsque n r ∞ alors n + 1 r et que n r 0 2 2 2 donc 1 1/2 0 lim n = 0 0 0 . P nr ∞ 0 1/2 1
冢
冢
On peut étudier alors les proportions d’individus homozygotes AA et aa après un grand nombre de générations, en fonction de la constitution initiale :
127
LA NÉCESSITÉ DU HASARD
– p0 – q0 – r0
pour pour pour
AA ; Aa ; aa avec p0+q0+r0 = 1.
Après un grand nombre de générations, les fréquences des différentes constitutions génétiques tendrons vers : 1 1/2 0 pn qn = 0 0 0 0 1/2 1 rn
冢冢 冢
冢
lim nr ∞
p0 + 1 q0 p0 2 . q0 = 0 1 r0 q r0 + 2 0
冢冢
冢 冢
Notons que si p0 = r0, on obtient une population comprenant toujours une égale proportion d’individus AA et aa. On peut aussi représenter graphiquement l’évolution d’une telle population (cf. figure 4.1) Ce modèle permet donc de prévoir l’évolution de la constitution génétique d’une population autogame. Il pourra être testé à partir d’une expérience et des données qui en seront issues. Il permet aussi de prévoir les conséquences d’un tel type de reproduction. En particulier, la tendance vers l’homozygotie va diminuer la résistance de ces populations et leurs « performances ».
Figure 4.1. Exemple d’évolution d’une population autogame diploïde. On part d’une population d’hétérozygotes ; asymptotiquement ceux-ci disparaissent et il ne reste plus que des homozygotes.
128
L’apport des modèles et de la modélisation : quelques exemples
C’est ce qui permet d’expliquer, que si des espèces autogames diploïdes existent, des mécanismes immunologiques limitent et empêchent même l’autofécondation48. C’est un moyen d’éviter la consanguinité dont on sait qu’elle conduit assez vite à des individus faibles, avec une accumulation progressive des allèles régressifs. L’évolution a « inventé » l’autogamie, qui peut s’avérer aussi une solution de conservation de l’espèce : en cas de catastrophe, un seul individu suffit théoriquement à la reconstituer. Elle a aussi inventé les moyens de la limiter afin de préserver le brassage génétique. En gros, là où l’expression du hasard était restreinte, les moyens de la restaurer ont été sélectionnés.
II Du chaos au hasard : les roulettes biologiques – exemple à partir du modèle logistique en temps discret 1. Le modèle logistique en temps discret Le modèle logistique en temps discret intervient en dynamique des populations. Rappelons qu’il a été proposé par R. May en 1976, sa vocation principale était d’interpeller les écologues et dynamiciens des populations sur l’interprétation des dynamiques erratiques. Cet article a eu un grand succès, au demeurant mérité, car l’introduction du chaos déterministe, en dynamique de populations, correspondait à une véritable rupture épistémologique. Nous allons détailler quelques peu ce modèle et l’utiliser pour explorer la transition chaos-hasard.
48. Dans certaines espèces, par exemple chez les saules ou les palmiers, appelées « dioïques » (étymologiquement, « deux habitats », mais dans le contexte botanique ce terme signifie monogame, les individus ne portant qu’un seul type de gamètes, mâle ou femelle), les plantes sont unisexuées. D’autres, dites « monoïques » (individus bisexués, c’est le cas du noisetier ou du maïs), ont des fleurs unisexuées, mais les deux types de gamètes sont portés par un même individu. Cependant, la plupart des Angiospermes ont des fleurs hermaphrodites (ou bisexuées). Lorsque les sexes ne sont pas séparés, des mécanismes physiques ou chimiques empêchent, dans de nombreux cas, l’autofécondation : on voit là des progrès évolutifs, puisque l’hétéropollinisation ainsi imposée assure un brassage des hérédités parentales (d’après M. Favre-Duchartre, EU, 2003, 2005, Angiospermes).
129
LA NÉCESSITÉ DU HASARD
Notons x(t) la taille d’une population au temps t, et considérons un intervalle de temps (t, t+1). Si l’accroissement de cette population x(t+1) – x(t) est proportionnel à sa taille x(t), le modèle est linéaire (i.e. x(t+1) – x(t) = a x(t), où a est une constante). Au cas où la proportionnalité n’est pas vérifiée, le modèle est non linéaire. C’est le cas du modèle logistique en temps discret : x(t+1) – x(t) = a x(t)(K – x(t)). On peut standardiser le modèle et en écrivant x(t+1) en fonction de x(t) et en faisant un changement d’échelle sur x revenant à poser K = 1, le modèle s’écrit alors : x(t+1) = r x(t)(1 – x(t)) où r est une constante positive dont la valeur règle le comportement du modèle. Suivant les valeurs de ce paramètre r, on peut observer différents comportements du modèle. Ceux-ci sont résumés dans la figure 4.2.
Figure 4.2. Modèle logistique en temps discret xt+1 = r xt (1 – xt). Les allures du graphe x(t) pour t = 0, …, n, …, 20, suivant diverses valeurs de la constante r, changent notablement.
130
L’apport des modèles et de la modélisation : quelques exemples
Lorsqu’un objet mathématique, en l’occurrence des équations différentielles ou comme ici des équations récurrentes, change de comportement, notamment asymptotique, suivant des variations d’un ou de plusieurs paramètres de cette équation, on parle de bifurcation. Par exemple, la solution de cette équation change, comme on le montre la figure 4.2 : d’un plateau, ou asymptote horizontale pour r ≤ 3, à des oscillations entretenues pour r > 3, avec d’abord une période simple, puis une période un peu plus compliquée : des signaux oscillants qui se répètent mais avec une période plus longue et dans chaque période 2, puis 4 oscillations d’amplitudes différentes. Enfin et rapidement, on observe une multiplication des états intermédiaires correspondant à ce qu’on appelle un chaos. Pour r > 4, on enregistre une « implosion » exponentielle. Pour étudier la nature des solutions, on peut tracer ce que l’on appelle le diagramme de bifurcation (cf. figure 4.3). Analytiquement, il n’est pas
Figure 4.3. Diagramme de bifurcation du modèle logistique en temps discret. Ce diagramme peut aisément être obtenu de façon numérique par la récurrence : rt+1 = rt + h ; xt+1 = rt xt (1 – xt), avec 0 < x0 < 1 et r0 = 2, h étant « petit » (de l’ordre de 10-6). Il donne une idée précise des points où se produisent les changements de régime du système dynamique.
131
LA NÉCESSITÉ DU HASARD
toujours facile de calculer les valeurs précises des paramètres pour lesquelles on observe une bifurcation, c’est pour cette raison que l’on fait souvent appel à du calcul numérique pour en avoir des approximations. Ce modèle simple est devenu une référence dans l’étude des systèmes chaotiques. Issu de la biologie des populations, il a amené les biologistes à s’interroger sur certaines dynamiques observées dans la nature, présentant de fortes oscillations et qui étaient interprétées comme résultant d’une fonction monotone simple, soumise à des facteurs aléatoires du milieu. En fait, des oscillations irrégulières peuvent aussi provenir de régimes chaotiques issus de la dynamique propre de ces populations. Ce modèle a été publié par R. May en 1976. Il a fallu attendre une vingtaine d’années pour avoir une vérification expérimentale sur un modèle voisin (Costantino et al., 1997).
2. Analyse de la dynamique simultanée de deux populations On peut utiliser ce modèle de base comme support de réflexion pour aborder des situations plus complexes, par exemple en analysant les dynamiques simultanées de deux populations. Prenons d’abord le système suivant (cf. figure 4.4) : xn+1 = r xn (1 – xn) yn+1 = r yn (1 – yn). On reconnaît le modèle logistique en temps discret, pour deux populations simultanées et indépendantes, en utilisant uniquement la propriété de sensibilité aux conditions initiales de ce type d’équations, on engendre des couples de valeurs (xn, yn) répartis largement dans le carré unitaire. Dans le cas d’une seule variable, l’espace où apparaît une structure est le plan (xn+1, xn), nous appelons cet espace l’espace des phases. Dans le cas de deux variables, l’espace des phases correspondant est à 4 dimensions : (xn+1, xn, yn+1, yn). Ainsi lorsque l’on regarde les points successifs dans l’espace (xn, yn), il s’agit en fait d’une projection de l’espace des phases49 dans ce plan.
49. L’espace des phases est l’espace de projection des dynamiques orthogonalement à l’axe des temps. Ici le temps est représenté par la succession des valeurs de n : 0, 1, 2, … L’espace des phases est alors l’espace (xn, xn+1, yn, yn+1).
132
L’apport des modèles et de la modélisation : quelques exemples
Figure 4.4. Comparaison entre deux processus, le premier chaotique (à gauche) et le second aléatoire (à droite). Le chaotique provient du modèle logistique en temps discret (avec r = 3,98, x0 = 0,2 et y0 = 0,1). L’aléatoire est engendré par la procédure ALEA() du logiciel Excel, qui fournit une répartition sensiblement uniforme, comme le montre la figure en bas à droite (1 000 nombres engendrés pour x et y) ; x et y sont non corrélées et l’autocorrélation interne des séries de valeurs de x et de y sont quasi nulles. Le processus chaotique fournit une distribution en U, avec une accumulation sur les bords, x et y sont non corrélées. En revanche il y a évidemment une forte autocorrélation interne aux séries x et y. Un processus chaotique aussi simple ne fournit pas du hasard, mais un résultat qui commence à y ressembler. On peut penser qu’un système dynamique plus complexe peut mieux le simuler.
La dynamique simultanée des deux populations indépendantes apparaît désordonnée, comme on pouvait s’y attendre. Et maintenant si l’on introduit une interaction, un couplage entre les deux populations, que se passe-t-il ?
133
LA NÉCESSITÉ DU HASARD
3. De l’erratique au régulier : effet du couplage Dans le cas du modèle logistique en temps discret, on remarque que suivant la valeur du paramètre r on peut passer d’une trajectoire uniforme à une trajectoire oscillante puis à une trajectoire chaotique. Mais que se passe-il dans le cas de couplage entre deux régimes chaotique ? Considérons maintenant le système : xn+1 = r xn ( 1 – xn) – α xn yn yn+1 = r yn ( 1 – yn) – α xn yn. C’est une extension du modèle précédent avec deux populations en compétition. Cette interaction est représentée par le terme – α xn yn. En jouant sur les valeurs de r et de α, on peut engendrer différentes figures dans le plan (xn, yn) et différentes chroniques, c’est-à-dire les graphes de x et de y en fonction de n. Mais si on augmente progressivement la valeur de α, des formes plus structurées apparaissent, jusqu’à former une droite. Le couplage introduit par α « détruit » la structure « presque aléatoire ». Nous nous trouvons là devant une situation un peu différente de celle évoquée ci-dessus. En effet, la structure proche de l’aléatoire que nous observons dépend d’abord du choix du plan de projection. Dans d’autres plans, en particulier (xn, xn+1) et (yn, yn+1), nous aurions observé des organisations paraboliques caractéristiques du modèle logistique en temps discret. En fait, c’est la combinaison de ces deux structures simples qui donne cette répartition et non pas le fait qu’il existe une structure dans un espace de plus grande dimension (même si elle existe). Enfin, on note qu’en introduisant un couplage entre ces deux dynamiques chaotiques, on observe des formes étranges pour arriver à une relation linéaire entre x et y. Le couplage semble introduire de l’ordre dans le comportement du système et sa non linéarité engendre de la diversité. Cependant cette observation ne peut pas être faite pour des valeurs de r qui engendrent un régime très erratique (par exemple pour des valeurs proches de 4, comme celle utilisée pour dessiner la figure 4.4 où r = 3,98). Il y a une limite dans l’apparition d’un ordre par couplage. En pratique, il ne faut pas un chaos trop déstructuré. Àpartir de ce type de formulation, il est possible d’étudier des situations représentant d’autres types d’interactions, par exemple d’un prédateur avec sa proie. Cependant, il faut se méfier d’empiler de jolies simulations qui peuvent n’apporter que peu de choses à une réalité biologique ou écologique.
134
L’apport des modèles et de la modélisation : quelques exemples
Figure 4.5. Modèle de compétition en temps discret : les deux dessins du haut, sans couplage, exhibent une distribution « presque au hasard ». Ensuite, le couplage des deux systèmes chaotiques engendre un ordre apparent (Pavé et al., 2003). On ne présente ici que quelques figures. En fait, ce système est beaucoup plus riche dans la variété de ses dynamiques. Le non-linéaire peut aussi engendrer de la diversité, comme le hasard. Cependant, l’augmentation du couplage, mesurée par la valeur du paramètre α, synchronise rapidement les deux variables et la relation dans l’espace (xn, yn) devient linéaire.
135
LA NÉCESSITÉ DU HASARD
4. Du chaos à l’aléatoire Pour analyser les propriétés de générateurs de distributions chaotiques et les comparer avec les générateurs de variables aléatoires, on peut étudier comment des théorèmes établis pour des variables aléatoires peuvent être vérifiés pour des variables chaotiques. On peut prendre l’exemple de combinaisons linéaires et examiner comment ces combinaisons tendent ou non vers des distributions normales (théorème central limite). La figure 4.6 illustre une expérience numérique sur des sommes de variables chaotiques ou aléatoires. On observe une telle tendance dans les deux cas, mais un peu moins rapide dans le cas chaotique que pour des variables aléatoires. Biologiquement, on pourrait interpréter cette approche de la façon suivante : on analyse la dynamique de populations indépendantes à régime chaotiques et l’on regarde les sommes des densités en fonction du temps. Nous avons ainsi fait la somme de 2, puis 4 et enfin 8 variables. Ces sommes ont été pondérées de façon à garder des valeurs comprises entre 0 et 1. On voit à partir de cette expérience numérique que la différence entre hasard et chaos est ténue. En définitive, la caractéristique commune est l’imprédictibilité a priori d’un résultat. Cependant comme nous l’avons vu, le mot hasard couvre bien d’autres acceptions, en particulier celle d’un effet issu de multiples causes peu ou pas connues. En revanche, le chaos a l’avantage d’être engendré par un modèle mécaniste pouvant être interprété en termes physique, chimique, biologique, voire social. C’est le cas aussi de la roulette de casino qui, de fait, obéit à des lois mécaniques. Dans les deux cas, la statistique nous permet d’étudier les résultats de ces processus. Les approches probabilistes classiques ne modélisent pas les mécanismes engendrant le hasard. Elles font seulement des hypothèses et construisent des modèles sur les résultats et en traitent élégamment. Par exemple, dans le modèle mendélien de la transmission héréditaire, présenté dans la section I, on ne fait pas d’hypothèse sur les mécanismes biologiques et biochimiques sous-jacents, on les modélise encore moins. En revanche, on peut construire un modèle de résultats à partir d’hypothèses probabilistes simples : tout se passe comme si nous avions des tirages de gamètes et de recombinaisons indépendants de la nature des gènes portés par ces gamètes.
136
L’apport des modèles et de la modélisation : quelques exemples
L’analyse statistique peut nous renseigner sur la transition entre chaos et hasard. C’est ainsi que les figures 4.6 et 4.7 nous montre comment un système chaotique évolue pour exhiber des propriétés voisines de celles d’un système stochastique. Ainsi, sur cet exemple, on montre que des systèmes dynamiques purement déterministes non linéaires, fonctionnant en régimes chaotiques et associés par une simple combinaison linéaire peuvent exhiber des propriétés quasi-stochastiques. On peut penser que les « roulettes biologiques » ont des modes de fonctionnement analogues. La figure 4.7 montre un autre aspect de l’apparition de propriétés de type stochastique dans des sommes de séries chaotiques : structuration de séries engendrées de façon indépendantes en nuage de points du type gaussien à 2 dimensions et disparition de l’autocorrélation entre valeurs successives des sommes de variables chaotiques.
III Le modèle logistique en temps continu et l’évolution de la biodiversité Àpartir des données paléontologiques issues de la base de données conçue par Sepkoski50, plusieurs tentatives de modélisation ont été publiées. La première par Benton (1995) proposait un ajustement du modèle exponentiel, dont la forme différentielle s’écrit : dN/dt = α N (où N représente le nombre de familles et α une constante réelle positive). L’hypothèse implicite, formulée en langage ordinaire, est que la vitesse d’accroissement du nombre de famille est proportionnelle à ce nombre. En 1996, V. Courtillot et .YGaudemer ont utilisé le modèle logistique pour représenter les données sur les 500 derniers millions d’années (début de l’Ordovicien). Ils se sont focalisés sur les phases de croissance, sachant que les phases de décroissance sont largement étudiées par ailleurs. Le modèle s’écrit : dN/dt = α N (K – N) où K représente l’asymptote, c’est-à-dire le nombre de familles après un temps assez long. Si N0 < K, ce qui est le cas ici, on observe la célèbre courbe sigmoïde, où K représente le nombre maximum de famille. Ensuite, ces auteurs ont 50. Cf. par exemple : Sepkoski (1982).
137
LA NÉCESSITÉ DU HASARD
Figure 4.6. Comparaison entre des distributions de combinaisons linéaires de variables chaotiques et de variables aléatoires. Les dynamiques chaotiques sont engendrées par la formule : xn+1 = r xn (1 – xn), avec r = 3,98 et différentes conditions initiales. Les valeurs choisies correspondent à un domaine chaotique sur ]0,1[. Comme précédemment, les dynamiques aléatoires sont obtenues grâce au générateur ALEA d’Excel. La première ligne montre les distributions obtenues pour des variables uniques : asymétrique et en forme de U pour une variable chaotique et quasi uniforme dans le cas aléatoire. Les autres résultats correspondent à des sommes pondérées (pour rester dans le domaine ]0,1[), de variables chaotiques (colonne de gauche) et aléatoires (colonne de droite). La convergence vers la loi de Gauss était prévue dans le cas aléatoire, mais pas, au moins aussi rapidement, dans le cas chaotique.
138
L’apport des modèles et de la modélisation : quelques exemples
Figure 4.7. Analyse des corrélations et autocorrélations entre séries chaotiques et sommes de séries chaotiques engendrées par le modèle logistique en temps discret. La colonne de gauche montre les nuages de points obtenus entre dynamiques chaotiques et sommes de dynamiques chaotiques ayant des conditions initiales différentes. Les nuages de points sont peu inclinés. On voit apparaître une structure proche de ce que donnerait une distribution gaussienne à 2 dimensions. Les coefficients de corrélations sont tous inférieurs, en valeur absolue, à 0,15. La colonne de droite montre les autocorrélations entre valeurs successives de dynamiques chaotiques. La structure du nuage de points s’estompe quand le nombre de termes de la somme augmente. Bien que la corrélation ne soit pas linéaire, du moins dans les trois premiers cas, elle semble se linéariser (tendance vers l’allure elliptique du nuage de points).
139
LA NÉCESSITÉ DU HASARD
ajusté le modèle pour différentes périodes : (1) du début de l’Ordovicien au début du Permien, (2) la phase croissante du Trias, (3) le JurassiqueCrétacé et (4) le Tertiaire-Quaternaire (cf. figure 4.8). On peut également représenter les premières données avec un modèle logistique (0). Nous avons adopté le même point de vue en poursuivant leur analyse, notamment en proposant plusieurs interprétations du modèle logistique dans ce contexte. Ainsi, la paramétrisation, dite « r, K » classiquement adoptée en écologie peut être utilisée : dN/dt = r N (1–N/K). Le paramètre r représente le taux intrinsèque de variation de la biodiversité, le paramètre K les potentialités du milieu en termes de niches écologiques. De plus, pour minimiser le nombre de paramètre à estimer, nous avons construit deux modèles enchaînés prenant en compte les phases de décroissance, soit par un modèle exponentiel, soit par un modèle logistique51. Il apparaît que les valeurs du paramètre r peuvent être considérées comme identiques pour les périodes (1), (2) et (4), mais l’une d’entre elles apparaît significativement plus petite pour la période (3). Le paramètre K, représentant le plateau, est significativement plus élevé pour les périodes (3) et (4) que pour les précédentes. Durant la troisième période, le plateau n’est pas atteint, la crise Crétacé-Tertaire (K-T) interrompant le processus. Mais ce dernier reprend rapidement pendant la période TertiaireQuaternaire avec la même valeur de r que pour les périodes (1) et (2). Une autre formulation de ce modèle permet de faire entrer explicitement le nombre de niches écologiques comme variable d’état. On montre alors comment il est possible de retrouver simplement les formulations précédentes. L’avantage de cette formulation proposée dans Pavé (1993), somme toute assez banale, est qu’elle permet d’autres développements, en particulier de modèles nouveaux, et une meilleure interprétation des mécanismes sous-jacents : dN =αNS dt dS =–αNS dt 51. On appelle modèle enchaîné, un modèle où la condition initiale n’est estimée qu’une fois, au début du processus modélisé, c’est-à-dire dans notre cas N-500, alors que pour le modèle par morceaux cette quantité est estimée pour chaque morceau.
140
L’apport des modèles et de la modélisation : quelques exemples
Figure 4.8. Données de la figure 4.1 et premiers modèles de représentation de ces données : le modèle exponentiel (Benton, 1995) et le modèle logistique par morceaux ; l’expression mathématique du modèle est toujours la même, les valeurs de α, de K et de la condition initiale N0 sont différentes entre (L0), (L1), (L2), (L3) et (L4). C’est pour cette raison qu’on parle de modèle par morceaux (Courtillot et Gaudemer, 1996).
où S représente le nombre de niches écologique libres au temps t52. C’est bien une autre formulation du modèle logistique. En effet, on a :
52. Dans son interprétation originelle, le modèle logistique en temps continu a été conçu pour représenter la dynamique d’une population (modèle démographique de Verhulst, 1838, 1844, réinventé plus tard par Pearl dans les années 1920). Ànotre connaissance, l’écriture proposée ici est originale. Dans le cas d’une population, N représente la taille de la population et S les ressources utilisée pour assurer la croissance de cette population. On remarque que la loi de conservation de la matière est alors respectée puisque dN/dt + dS/dt = 0 (i.e. la somme N+S est constante). L’introduction de bilans est habituelle en dynamique des populations microbiennes, du moins depuis le travail fondateur de J. Monod (1942), elle l’est moins pour les modèles classiques de la dynamique des autres populations.
141
LA NÉCESSITÉ DU HASARD
dS dt
= –
dN dt
alors S – S0 = – (N – N0) et S = S0 + N0 – N, si bien qu’on peut écrire : dN = α N (K – N) dt avec K = S0 + N0 et α = r/K ; la dimension de r est en t-1. S0 représente le nombre de niches libres au temps initial, N0 représente le nombre initial de familles qui occupent le nombre S0 de niches. On peut même introduire un terme décrivant la disparition « spontanée » de familles ; on retrouve toujours le modèle logistique, si l’on admet que lorsqu’un certain nombre de familles disparaissent, un nombre égal de niches écologiques sont libérées. Le modèle s’écrit alors : dN =αNS–βN dt dN = – α N S + β N. dt On a toujours dS/dt = – dN/dt et S = S0 + N0 – N puis dN/dt = α N (S0 + N0 – N) – β N ou encore dN/dt = α N (K – N) avec maintenant K = [α(S0 + N0) - β]/α ; ce modèle est plus général et permet notamment de représenter, suivant les valeurs des paramètres, les phases croissantes et décroissantes, mais l’expression simplifiée est toujours la même. Ainsi, l’augmentation de la biodiversité peut être interprétée comme conséquence de : – la création de niches écologique suite à des perturbations environnementales ; – l’apparition de mécanismes nouveaux au niveau génétique ; – l’émergence de nouvelles relations écologiques. D’une part, on peut raisonnablement supposer que les perturbations environnementales détruisent autant, sinon plus, de niches écologiques qu’elles n’en créent, et que, même en imaginant un processus de restauration, ces perturbations se sont produites de façon « régulières » dans le temps et ne suffisent pas à expliquer les explosions de la biodiversité. D’autre part, les mécanismes génétiques (au niveau moléculaire) peuvent
142
L’apport des modèles et de la modélisation : quelques exemples
agir sur la vitesse de diversification, en pratique sur le taux de diversification r. Au niveau écologique, l’on peut proposer que les relations évoluent, au moins pour une part, de la compétition à la coopération en passant par la coexistence. De nouvelles relations se mettent en place progressivement et successivement pour tous les niveaux d’organisation du vivant jusqu’à l’écosystème. On peut penser que cela conduirait plusieurs espèces, genres et familles, à occuper la même niche écologique et donc à une multiplication apparente de ces niches. Nous proposons ainsi que des mécanismes de coexistence et de coopération, au niveau écologique, se sont mis en place dans la période « récente » Tertiaire-Quaternaire (r « normal » et K élevé), peut-être et dans une moindre mesure dès la période Jurassique-Crétacé (r faible et K élevé), mais n’était que peu présents dans les périodes précédentes (r « normal » et K faible). Ainsi, le schéma évolutif serait le suivant : l’émergence de nouvelles relations écologiques permettrait une stabilisation de nouveaux taxons sur une période suffisamment longue pour qu’ils puissent être observables dans les archives paléontologiques. La mise en place de ces nouvelles relations (coexistence et coopération) expliquerait l’augmentation apparente du nombre de niches écologiques durant les deux dernières périodes (K élevé). La faible valeur de α durant le Jurassique-Crétacé serait alors interprétée comme l’effet d’une succession de perturbations environnementales conduisant à des extinctions « mineures » aplatissant la croissance. Il semblerait alors que les mécanismes de diversification au niveau génétique étaient tous en place dès le Cambrien, si l’on admet que α représente la constante de vitesse de la diversification. En fait, il existe une corrélation entre les deux paramètres α et K, bien connue de ceux qui font des estimations de modèles non linéaires, dont on doit tenir compte pour pondérer cette dernière conclusion. Enfin, comme nous l’avons signalé dans le texte, des oscillations semblent être significatives en analysant des données plus récentes, plus nombreuses et surtout plus précises (nombre de genre au lieu du nombre de familles, Rohde et Muller, 2005). Cette analyse se fonde sur une technique classique : la tendance générale est modélisée par un polynôme du 3e degré, puis les résidus (écarts par rapport au modèle) sont calculés, ensuite une analyse de Fourier permet de trouver les composantes oscillantes. On trouve d’abord une composante avec une période de l’ordre de 62 millions d’années, puis une autre de 140 millions d’années. Comme d’autres avant nous, nous avions soupçonné la présence de
143
LA NÉCESSITÉ DU HASARD
Figure 4.9. Modèle logistique enchaîné, écarts entre les données et le modèle avec la paramétrisation (r, K), variations des paramètres r et K du modèle.
telles oscillations, mais les données utilisées ne nous ont pas permis de les mettre en évidence. L’origine de notre travail avait même été dans la recherche et la modélisation de telles oscillations. Il reste à en donner une explication : Rohde et Muller penchent pour une explication astronomique (par exemple, chute périodique de météorites) ; dans leur commentaire des résultats, Kirchner et Weill incitent à rechercher aussi une explication biologique et écologique. C’est aussi notre proposition comme nous l’avons indiqué dans la section IV.4 du chapitre 2 consacrée à la dynamique de la biodiversité… Cette enquête historique est « à suivre » dans de prochains épisodes.
144
L’apport des modèles et de la modélisation : quelques exemples
Figure 4.10. Résultats de l’analyse des composantes oscillatoires de la dynamique de la biodiversité à l’échelle géologique. Les ajustements à ces composantes de période 62 Ma et 140 Ma sont figurées dans la partie inférieure du graphe (selon Rohde et Muller, 2005).
145
LA NÉCESSITÉ DU HASARD
IV Vers un schéma général de la modélisation des systèmes vivants et de leurs diversités Il semble important, en fonction de ce que nous venons d’exposer, d’examiner comment le modélisateur peut intervenir pour aller plus loin dans la compréhension des processus. On peut utiliser une représentation très schématique pour nous aider (figure 4.11). Les approches I et II sont classiques et efficaces. En I, il s’agit de représentations classiques y = f(x) + e, où f est une fonction analytique mono ou multidimensionnelle, connue explicitement ou implicitement (par exemple, sous la forme d’une équation différentielle ordinaire ou aux dérivées partielles), x est une variable indépendante elle aussi mono ou multidimensionnelle (souvent le temps et/ou une ou plusieurs dimensions de l’espace géométrique) et e « un terme d’erreur » aléatoire. En II, il s’agit de représenter la probabilité d’occurrence d’un événement ou d’un ensemble d’événements en fonction d’une ou plusieurs variables indépendantes. Par exemple, la loi exponentielle, P(T 2cm » (en rappelant que les diamètres de référence sont mesurés à « hauteur de poitrine », c’est-à-dire 1,30 m). Si l’on prend maintenant la relation superficie-nombre d’espèces, on obtient la distribution de la figure A.2 ressemblant à celle de la figure 2.12. Mais comment procéder pour faire une estimation, au moins avoir un ordre de grandeur, à l’échelle de la Guyane ? Sans entrer dans des détails méthodologiques compliqués, une première approche peut consister à construire un modèle simple de la relation entre le nombre d’espèces observées et la superficie échantillonnée. C’est ce que nous allons voir.
4. L’évaluation : une ébauche de solution en utilisant un modèle simple Un modèle simple, même simpliste, peut rendre compte de cette relation entre nombre total d’espèces détectées et superficie échantillonnée. En effet, plus on augmente l’effort d’échantillonnage, moins on découvre d’espèces nouvelles. En première approximation, on peut supposer que l’accroissement dN du nombre d’espèces est proportionnel à l’accroissement de la superficie échantillonnée dS et inversement proportionnel à la superficie déjà échantillonnée S. Cette phrase se traduit en une équation différentielle : a dN = dS, dont la solution est N = b a+ ln(S) S Dans le système de coordonnées (N en ordonnées et S en abscisses) cette fonction a l’allure de la courbe observée. En choisissant, le système de coordonnées (N, ln(S)) on doit observer une relation linéaire et pouvoir estimer les paramètres a et b par régression linéaire. Ce modèle n’a pas d’asymptote représentant un « nombre maximum d’espèces » dans un espace limité. Cependant la croissance se ralentit très vite et l’on peut facilement avoir une estimation numérique pour de grandes superficies. Par ailleurs, raisonner théoriquement en « espace infini », n’est pas hors de propos, vu la taille du système forestier guyanais et encore plus amazonien. Avec ce modèle, on peut évaluer approximativement le nombre d’espèces d’arbres sur les 8 000 000 d’hectares et l’on trouve précisément 1 858 espèces. Bien entendu, cette estimation est plus un ordre de grandeur qu’une valeur de référence : le modèle est très réducteur et les données
156
À propos de l’évaluation de la biodiversité : exemple de la Guyane française
Figure A.2. Un exemple de méthode d’estimation du nombre d’espèces dans un espace donné : données de recensements tirés des ouvrages sur les Nouragues (Bongers et al., 2001), sur Paracou (Gourlé-Fleury et al., 2004a) et transmises par B. Riéra. Ajustement au modèle N = b + a ln (S). Les calculs ont été effectués avec Statview (SAS Institue inc.). Le graphe, à droite, a été obtenu avec Grapher (Apple Computer inc.).
hétérogènes, trop peu nombreuses et non recueillies avec des protocoles identiques (mélange d’estimation à grande échelle sur des parcours ou des transects et à petite échelle sur des petites surfaces). Cela étant, l’évaluation est de 50 % supérieure à celle qui est communément admise sur la base des compilations de données botaniques encore plus hétérogènes. Attention, il ne faut surtout pas considérer cette estimation comme une donnée à reprendre et à citer pour les raisons évoquées ci-dessus. On signalera cependant que le modèle a une qualité importante, il est peu sensible « aux conditions » initiales, mais sensible à la superficie de l’échantillonnage (ln S)58, cela faiblement ce qui évite une trop grande instabilité de l’estimation lointaine.
58. On rappelle que la sensibilité d’un modèle aux paramètres correspond aux dérivées partielles du modèle par rapport à ces paramètres. Ici, l’on a : ,N ,N N = b + a ln(S) donc = 1 et = ln(S). ,b ,a Pour S =1 , c’est-à-dire pour ln(S) =0 , on a N =b (nombre moyen d’espèces à l’hectare). La sensibilité est indépendante de S. En revanche, le paramètre a va conditionner l’estimation « lointaine » on comprend donc que la sensibilité à ce paramètre soit une fonction croissante de S. Cependant, il n’y a pas d’hyper-sensibilité qui rendrait cette estimation lointaine trop instable.
157
LA NÉCESSITÉ DU HASARD
Enfin, un défaut pourrait être signalé, celui de ne pas passer par 0 (pour S =0, N =0 , ce qui aurait une certaine logique, mais qui n’est pas le cas ici). On pourrait être alors être tenté de prendre le modèle N = a ln (S+1) et d’estimer a par une méthode de régression passant par 0. Or, d’une part, le modèle obtenu apparaît comme trop contraint et, d’autre part, il n’est pas inintéressant de réfléchir à la signification de l’intersection avec l’axe des abscisses, permettant d’avoir la valeur de S pour N =0 , c’est-à-dire la surface moyenne portant un nombre nul d’espèces d’arbres (dans notre exemple S = 0,19 ha). Quel que soit l’avenir de ce modèle, sans doute très imparfait par ailleurs, on ne peut oublier notre passé d’enseignant : il pourrait être une bonne illustration pédagogique pour des étudiants biologistes, car il ne pose pas de difficulté mathématique majeure. Il pourrait même être un bon sujet d’examen…
5. Conclusion Cet exemple a été traité comme illustration de ce qu’il est possible de faire, et de montrer que malgré les difficultés, on peut obtenir des évaluations plus précises, du moins si l’on veut réellement avoir une approche convaincante de la dynamique de la biodiversité qui ne se fonde pas sur un discours émotionnel, même si on peut le comprendre, mais sur des faits prouvés et des évaluations fiables. Par ailleurs, les préoccupations liées aux usages connus et potentiels justifient aussi un tel effort (bois, mais aussi autres produits : fibres, produits et substances alimentaires, cosmétiques et médicamenteuses). Mais tout cela ne sera possible qu’au prix d’un réel effort technique et de promotion de nouvelles méthodes d’identification (on peut penser à l’analyse d’images, par exemple aériennes, ou aux techniques moléculaires de « terrain »). Enfin, l’hypothèse majeure défendue dans cet ouvrage sur le rôle du hasard a été plusieurs fois pondérée et trouve ici une illustration : les arbres se répartissent ou sont répartis au hasard dans un espace, celui qu’on pourrait qualifier « des possibles » ; la condition est que les espèces en question, celles participant au « tirage », soient adaptées aux milieux correspondants (conditions locales édaphiques, microclimatiques et biologiques favorables). C’est ce qui explique que, suivant la zone géographique et même dans une région apparemment homogène, on observe des différences de composition spécifique assez notables entre des stations éloignées ayant des caractéristiques écologiques différentes.
158
À propos de l’évaluation de la biodiversité : exemple de la Guyane française
III La biodiversité à grande échelle physique Nous venons de voir comment approcher la biodiversité à petite et moyenne échelle, celle de la parcelle et de la station, et les difficultés rencontrées. L’imagerie satellitaire peut nous renseigner sur les grandes zones de végétation, en l’occurrence forestière, c’est ce que nous montre la figure A.3. La forêt couvre 95 % du territoire guyanais (tout sauf la bande côtière), qui, vu de loin dans la gamme de radiations reçues par l’œil, est uniformément vert. Mais avec un instrument multispectral et un traitement approprié du signal, on peut mettre en évidence des différences. C’est la diversité à l’échelle de l’écosystème.
IV Observations multiéchelles et multiniveaux : du gène à l’écosystème Les tendances actuelles d’étude des systèmes forestiers correspondent bien à ce qui a été souligné dans ce texte. Les travaux sont effectués : – de l’échelle locale, au sol : étude au niveau des arbres et des groupes d’arbres de faible dimension (échelle du m2 à l’hectare), au sol et avec des dispositifs particuliers, par exemple de mesure, d’identification, de prise d’échantillon, par exemple pour des analyses génétiques59, d’accès à la canopée et à la couche interface « atmosphère-système forestier » ; – à l’échelle régionale, par télédétection spatiale, permettant de mettre en évidence les grandes tendances écologiques au niveau écosystémique (du km2 à 100 000 km2). Entre ces deux niveaux, l’échelle moyenne peut être atteinte par couverture aérienne permettant, par recouvrement (de quelques
59. Cette question n’a pas été développée ici, mais des études de génétique des populations ont été et sont réalisées en Guyane (cf. par exemple le chapitre de Kremer et al., dans l’ouvrage consacré à Paracou, déjà cité).
159
LA NÉCESSITÉ DU HASARD
Figure A.3. Diversité des écosystèmes forestiers de Guyane montrée par l’instrument « végétation 2000 » du satellite SPOT 4 (image aimablement fournie par Valéry Gond, CIRAD). Les divers niveaux de gris donnent une idée de la diversité des formations forestières fondée sur des gradients d’humidités (bien contrastées entre la zone maritime et l’intérieur). Les résultats obtenus lors d’une expédition récente dans le sud de la Guyane, menée par D. Sabatier (IRD), montre que des différences de compositions floristiques accompagnent ce gradient et confirme des observations plus anciennes (Sabatier et Prévost, 1989). Au milieu, vers le haut, la tache gris foncé correspond au lac formé par le barrage EDF de Petit-Saut et où des recherches sont aussi menées.
160
À propos de l’évaluation de la biodiversité : exemple de la Guyane française
centaines de m2 à quelques km2), de relier les échelles locales et régionales et d’atteindre le niveau des communauté d’arbres. Ce niveau intermédiaire d’observation est aujourd’hui très négligé, alors qu’il est très porteur d’informations (observation de la canopée et même accès à la zone entre le sol et la canopée par des techniques d’investigation laser) et qu’il n’est pas très coûteux. C’est notamment une bonne approche pour étudier la distribution spatiale des arbres, pour faire des identifications spécifiques des individus constituant la canopée (à condition, bien évidemment, de mettre au point des méthodes de reconnaissance à partir d’images de télédétection aérienne), pour réaliser des inventaires, pour détecter les constituants chimiques émis par la forêt, leurs cinétiques, leur répartition et leur transformation dans la couche interface, et aussi pour suivre la dynamique forestière à petite et moyenne échelle.
V Un terrain très favorable pour les recherches sur la biodiversité et sa dynamique Ce qui vient d’être présenté comme exemple ne couvre évidemment qu’une toute petite partie de ce qui a été fait et de ce qui est possible de faire sur un terrain comme celui de la Guyane concernant la biodiversité et d’autres sujets connexes60. On aura compris que déjà la simple observation peut conduire à des réflexions théoriques sur la structure et la dynamique, même à long terme, de la diversité biologique et écologique. Cet ouvrage n’aurait sans doute pas été écrit sans « l’expérience guyanaise » de l’auteur. Par ailleurs et pour revenir aux aspects d’histoire de la biodiversité et donc de sa dynamique à long terme, des travaux importants ont été faits dans le cadre d’un programme de recherche IRD-CNRS « Ecofit » (« Écosystèmes forestiers intertropicaux », Servant et Servan-Vildary, 60. C’est pour cette raison, entre autres, que le CNRS a lancé un programme interdisciplinaire de recherche sur l’Amazonie en 2004, et qu’il s’est implanté en Guyane. Nombreux sont les chercheurs du CNRS et associés, notamment des universitaires, qui travaillaient sur la Guyane, le plus souvent en partenariat avec les organismes déjà implantés. La présence institutionnelle du CNRS devrait renforcer ces partenariats.
161
LA NÉCESSITÉ DU HASARD
2000), à l’échelle de l’Holocène (en gros les 10 000 dernières années, période qui suit la dernière glaciation). Beaucoup reste à faire déjà dans cette période, en particulier être plus précis dans la partie récente, les 1 000 dernières années. Ces travaux relèvent d’un champ scientifique en essor : l’écologie historique, ou paléoécologie. Si l’on veut aller plus loin en arrière dans le temps, le problème des archives naturelles se pose de façon cruciale : peu de zones sédimentaires, peu ou pas de fossiles. En revanche, on peut penser que si l’Amazonie et singulièrement la Guyane ont connu des perturbations, notamment climatiques, rien de commun avec ce qu’ont connu les pays de l’hémisphère nord avec les glaciations, où une calotte glaciaire a recouvert une partie des continents. Ainsi peut-on espérer qu’il existe des « fossiles vivants » ; pour les détecter, les méthodes de phylogénie moléculaire à grande échelle pourraient être utilisées. Dans un autre ordre d’idée, nous avons signalé l’intérêt de l’étude de la canopée par voie aérienne. On peut l’observer en avion ou en hélicoptère, mais aussi y accéder par cette voie en utilisant des dirigeables (comme celui qui transporte le « radeau des cimes »), ou des ballons captifs, comme la « bulle des cimes », utilisée à la station des Nouragues. D’autres dispositifs, permanents, existent pour réaliser des observations et des mesures. En particulier, sur la même zone des Nouragues, le système COPAS « Canopy Observatory Permanent Access System », permet un accès et un suivi permanent sur 1,5 ha de canopée (cf. figure A.4). Cette partie de la forêt a encore été peu explorée, or elle est habitée par une grande diversité d’organismes qui contribuent de façon déterminante au fonctionnement du système forestier : pour la majorité des arbres, les fleurs s’épanouissent dans la canopée ; la fécondation se fait par le truchement de pollinisateurs ou du vent transporteur ; les fruits et les graines y mûrissent et sont consommées et dispersées, notamment pas des animaux. C’est donc un des lieux où se font et s’expriment les « roulettes biologiques et écologiques ». C’est aussi à ce niveau que se fait la photosynthèse et que se produisent les échanges entre la forêt et l’atmosphère. Monde encore mal connu, il doit être maintenant exploré et étudié pour mieux comprendre l’ensemble du fonctionnement de ces grands systèmes forestiers et évaluer leurs contributions aux grandes dynamiques régionales et globales. L’Amazonie est aussi appelée à évoluer sous la pression de l’Homme. La Guyane peut aussi être un terrain de référence et d’expéri-
162
À propos de l’évaluation de la biodiversité : exemple de la Guyane française
Figure A.4. Dispositifs d’étude de la canopée. Les photographies 1 et 2 présentent un des trois pylônes du système COPAS installé dans la zone des Nouragues (le principe de ce système est résumé dans le schéma central : une nacelle peut se déplacer horizontalement dans un triangle équilatéral d’un côté de 180 m et verticalement sur une hauteur de 40 m ; le déplacement est assuré par un ensemble de câbles entraînés par des moteurs ; un ballon captif permet d’alléger la nacelle ; il n’est pas nécessaire avec une nacelle allégée). Sur la photographie 3 on voit la « bulle des cimes », ballon captif, gonflé à l’hélium, muni d’une nacelle pouvant emporter un passager (sur le site des Nouragues). Enfin, la photographie 4 montre la tour du système Guyaflux d’étude des échanges gazeux entre la forêt et l’atmosphère, installée à la station de Paracou. Photos : Pierre Charles-Dominique et Alain Pavé.
mentation pour le développement de systèmes de gestion et d’aménagement des territoires amazoniens, valorisant et préservant sa diversité, ou du moins celle non nuisible à l’Homme. La Revue forestière française a
163
LA NÉCESSITÉ DU HASARD
Figure A.5. Lieux de prélèvement des échantillons botaniques effectués par l’ORSTOM-IRD (carte disponible à l’Herbier de Cayenne, les « couleurs » correspondent à des campagnes de prélèvement). Le travail réalisé est remarquable, mais n’a aucune prétention à être un inventaire de la diversité végétale (le plan d’échantillonnage aurait été très différent). Ce n’était pas l’objectif des chercheurs botanistes, car il ne correspondait pas à leur objectif scientifique du moment. De plus, réaliser un tel inventaire relève plus d’une démarche et d’un corps technique encore à inventer et demande des moyens non négligeables. Photo : Pierre Charles-Dominique.
édité un numéro spécial sur la forêt guyanaise couplant études fondamentales et perspectives de gestion qui nous semble préfigurer l’établissement de liens nécessaires et forts entre les deux démarches (Fournier et Weigel, 2003). Beaucoup doit encore être fait pour cela, notamment compléter les données (cf. figure A.5). Dans ces modèles de gestion, il est important d’évaluer le rôle et l’efficacité des processus spontanés de régénération et de diversification écologiques. Ainsi, pour la réhabilitation des sites dégradés, notamment
164
À propos de l’évaluation de la biodiversité : exemple de la Guyane française
par une activité minière, il y a lieu d’apprécier la pertinence d’une intervention comme la revégétalisation, ou au contraire de laisser la zone se repeupler spontanément pour aboutir à une structure écologique qui ressemble à celle de l’écosystème environnant. L’ingénierie des systèmes écologique doit aussi intégrer le principe de « non action », du « laisser faire la nature », bien évidemment tout en surveillant la dynamique du système concerné. Très généralement ne s’agit-il pas souvent d’accompagner un mouvement spontané, plutôt que de le forcer ? Enfin, nous avons vu que le terrain guyanais est très propice au développement d’activités de recherche en écologie, d’autant plus qu’on dispose sur place de moyens de terrain parmi les plus importants au monde. On le doit aux chercheurs qui ont su le faire et à leurs institutions, notamment les organismes de recherche, qui les ont soutenus.
165
Glossaire Ne sont repris ici que quelques termes essentiels non définis dans le texte ou qui demandent quelques précisions supplémentaires.
Adaptation : ensemble de processus biologiques permettant à une entité biologique de vivre et de se reproduire dans un milieu donné, de résister à ses fluctuations ou de coloniser d’autres milieux. Allèle : les allèles sont des séquences légèrement différentes d’un même gène, codant pour la même protéine. Dans certain cas, cette séquence peut être suffisamment altérée pour produire une protéine peu ou pas active ; mais pour les organismes diploïdes dont les gènes sont doublés (deux séquences homologues, chacune apportée par l’un des deux parents), il suffit que l’un des deux soit intact pour que la fonction correspondante puisse s’exprimer. u Qand l’un des allèles ne s’exprime pas ou peu, on parle de forme récessive ; elle peut être cachée par l’activité d’un autre allèle actif sur la séquence homologue. Aploïde : se dit d’une cellule (ou d’un organisme) dont les cellules ne portent qu’un seul exemplaire de chaque chromosome. C’est le cas des cellules reproductrices, les gamètes (ovule et spermatozod ï e). Biodiversité : ce mot s’est progressivement substitué à l’expression « diversité biologique », soulignant le nombre et l’amplitude des différences entre entités biologiques, principalement les organismes. Lancé par iW lson et Peter en 1988, dans un ouvrage de référence sur le sujet, il
167
LA NÉCESSITÉ DU HASARD
a acquis une signification beaucoup plus large. Ainsi il englobe toutes les diversités, du gène à l’écosystème, structurelle et fonctionnelle, et les rapports que l’Homme entretient avec le vivant (usages, conservation, symbolismes). Il a une connotation très positive, dans la mesure oùle discours dominant s’inquiète sur son « érosion ». C’est ignorer que la biodiversité recouvre aussi des agents pathogènes, dangereux pour l’Homme. Cela étant, on pourra souligner le rôle positif qu’à eu l’invention du mot dans la pensée biologique, réactivant des réflexions et recherches sur la diversité du vivant, tombée en partie en désuétude simultanément aux approches systématiques dont l’intérêt ne paraissait plus évident… Biosphère : ensemble constitué par l’ensemble des systèmes vivants sur la Planète. Chaos : ensemble d’éléments sans structure apparente. Cette notion est apparue dans les mythologies, notamment grecque : état de l’Univers avant l’apparition du Monde. Le chaos déterministe est engendré par un algorithme donnant une suite de nombres apparemment désordonnée. Chromosome : organite cellulaire incorporant un fragment d’ADN du génome des eucaryotes. L’ensemble des chromosomes porte l’intégralité du génome nucléaire. Chaque gène est localisé dans un endroit précis d’un chromosome. Les organismes diploïdes portent 2n chromosomes, homologues 2 à 2 sauf les chromosomes sexuels. Les chromosomes sexuels sont le plus souvent notés X et Yavec, chezl’Homme, la formule XX, pour le sexe féminin et XY , pour le sexe masculin (d’ailleurs ces notations viennent des formes des chromosomes chezl’Homme qui ressemblent à ces lettres). Codon : unité d’information élémentaire des séquences génétiques constituée de 3 nucléotides, désignés communément par une lettre symbolisant le composé aminé (purique ou pyrimidique) qui le caractérise (AGCTpour les ADN ou AGCU pour les AR N). Cet assemblage de 3 « lettres » prises parmi 4 permet de représenter 43, soit 64, informations élémentaires, dont celles correspondant au codage pour les 20 acides aminés, composés élémentaires des protéines. 3 des 64 codons possibles sont dits « non sens » dans la mesure oùil ne correspondent pas à un acide aminé particulier, en reste 61, pour 20 acides aminés, c’est-à-dire que des codons différents (dits synonymes) codent pour un
168
Glossaire
même acide aminé (par exemple, UAU et UAC représentent les codons synonymes de la tyrosine). Communauté : ensembles d’organismes d’espèces différentes en interaction et localisés dans un endroit donné. Diploïde : qualifie la composition chromosomique ayant un nombre pair de chromosomes deux à deux homologues, sauf les chromosomes sexuels dans l’un des deux sexes. Chaque chromosome d’une paire vient d’un des deux parents. Échelle : primitivement, l’échelle représente une unité de mesure caractéristique des entités ou phénomènes observés (l’échelle d’une bactérie est micrométrique, d’une molécule, nanométrique, d’un arbre, métrique ; en démographie, l’échelle caractéristique d’une population est la génération, par exemple de 25 ans chezl’Homme et de 20 min pour la bactérie E. Coli, souche K 12) ; on parle alo rs de grande échelle pour les objets de grandes tailles (l’échelle de l’arbre est plus grande que celle de la bactérie, cf. André et al., 2003). En géographie, l’échelle d’une carte représente le rapport entre la mesure sur la carte et la mesure sur le terrain (une échelle au 50 000e signifie qu’à 1 cm sur la carte, correspond 50 000 cm sur le terrain, soit 500 m, au 100 000e à 1 cm correspond 1 km…) ; une grande échelle géographique correspond à un petit rapport, ainsi une échelle au 50 000e est plus grande qu’une échelle au 100 000e. Les deux interprétations « physiques » et « géographiques » sont opposées et donc souvent source de malentendus… De plus la confusion fréquente avec la notion de niveau d’organisation ne contribue pas à rendre les dialogues plus faciles. Écosystème : ensemble de communautés et des milieux dans et sur lesquels vivent ces communautés, formant un ensemble identifiable (par exemple, un écosystème forestier). On peut définir une typologie des écosystèmes (cf. Barbault et Pavé, 2003). Édaphique : qui est relatif au sol. Épisome : élément d’ADN « linéaire » pouvant passer d’une cellule à l’autre, d’un organisme à l’autre. Le mécanisme de transmission est dit horizontal et peut être interspécifique. La création d’OGM utilise ce type de mécanisme.
169
LA NÉCESSITÉ DU HASARD
Équilibre : cette notion vient de la mécanique (l’image de la balance) et de la thermodynamique. Dans un système à l’équilibre tout est statique, rien ne bouge. En écologie, pour exprimer le cas oùdes processus dynamiques se compensent pour donner une résultante de vitesse nulle, on parle d’équilibre dynamique (par exemple quand un taux de mortalité compense un taux de reproduction dans une population, l’effectif est constant bien qu’il y ait renouvellement des individus). La notion d’équilibre est la même que celle de point fixe d’un système et celle d’équilibre dynamique est analogue à celle d’état stationnaire. On peut considérer que l’équilibre est un cas particulier de stationnarité oùles vitesses sont nulles. Peut-être serait-il nécessaire d’uniformiser le langage, en l’occurrence de se référer à celui de la dynamique des systèmes, précisément défini. Espèce : unité taxonomique correspondant à des organismes similaires. Les organismes d’une même espèce sont interféconds (ils peuvent se croiser). Dans les classifications issues d’une taxinomie numérique, ils correspondent à un ensemble homogène (les distances entre les individus du groupe est plus petite qu’entre ces individus et ceux d’un autre groupe). La terminologie classique, fondée sur celle proposée par Linné, désigne une espèce par deux mots, le premier correspond au genre et le second à l’espèce (par exemple, le nom de l’angélique, arbre commun de Guyane est Dicorynia guyanensis). Eucaryote : organisme monocellulaire ou multicellulaire, oùle noyau cellulaire est identifiable. Il contient l’ADN génomique stocké dans un ensemble de chromosomes. Famille : ensemble de genres (la succession taxonomique la plus couramment utilisée est famille-genre-espèce). Gène : suite de quelques dizaine à plusieur s milliers de codons qui peut être traduit en une protéine. Génome : ensemble du patrimoine génétique d’un individu codé dans son ADN. La structure du génome est assezcomplexe et comporte, en particulier des o z nes codantes et d’autres non codantes. Le génome humain (3 milliards de nucléotides) comporte environ 30 000 gènes. Génotype : ensemble des gènes d’un génome ou d’une partie du génome. Un individu a un génotype propre, deux clones ont des génotypes théoriquement identiques. À ce génotype correspond un phénotype,
170
Glossaire
expression du génome dans les conditions biologiques, physiologiques et environnementales du développement de l’organisme en question. Genre : ensemble d’espèces formant un groupe homogène. Modèle : mot ayant de multiples sens. Dans le contexte présent, il désigne un objet mathématique (une formule) dont le comportement simule certaines propriétés, certains comportement, certaines structures d’objets du monde réel. Par exemple, le modèle logistique permet de rendre compte de la croissance de populations, notamment humaine, mais il peut représenter de nombreux autres phénomènes de croissance mais aussi de décroissance. Niveau d’organisation : les systèmes vivants sont organisés suivant des niveaux bien identifiables et emboîtés (principalement : cellules, organismes, populations, communautés, écosystèmes). À chacun de ces niveaux, des propriétés émergentes ne sont pas simplement déductibles des éléments qui le composent (par exemple, un organisme est plus qu’une somme de cellules ; ainsi, il peut exhiber des comportements comme le déplacement vers une cible attractive : ressource alimentaire, partenaire pour la reproduction, etc.) À un degré bien moindre, les systèmes physiques montrent des processus d’auto-organisation, mais les propriétés résultantes paraissent moins sophistiquées et beaucoup sont réductibles à des comportements moyens (cas des gazdans le modèle de Boltzman) ou peuvent être déduites par des changements d’échelles. La corrélation entre échelle et niveau d’organisation conduit souvent à une confusion entre les deux concepts, qui sont cependant très différents : le changement d’échelle ne suppose pas l’émergence de propriétés nouvelles, contrairement à celui de niveau d’organisation. Paléoécologie : étude de l’histoire des systèmes écologiques. Phénotype : traits de l’organisme résultants de l’expression du génome de cet organisme. Phylogénie : classification d’un ensemble d’être vivant dans un contexte évolutif (les liaisons entre groupes traduisent de degré de parenté et des radiations résultant de l’évolution des êtres vivants ; elles peuvent être ordonnées dans le temps et quelquefois repérées par des dates). Actuellement, la phylogénie moléculaire, classification à partir de
171
LA NÉCESSITÉ DU HASARD
séquences génétiques, tend à devenir la référence. C’est sur cette base qu’on a revu l’organisation du monde vivant et proposé une structuration en trois grands groupes, trois règnes : Archæ , Bactéria et Eucarya. Plasmide : élément d’ADN « circulaire » pouvant se transmettre d’une bactérie à l’autre et susceptible de se dupliquer de façon autonome. Les plasmides véhiculent les gènes de résistance aux antibiotiques. Des fragments de plasmides peuvent s’intégrer au chromosome bactérien et donc y inclure ces gènes de résistance. Polyploïde : certaines cellules et organismes, notamment végétaux peuvent porter plus de 2n chromosomes (exemple la tétraploïdie avec 4n chromosomes). Population : ensemble d’organismes d’une même espèce en interaction, notamment reproductrice, et donc susceptibles d’échanger des gènes. En statistique, cette notion représente un ensemble d’individus ou d’entités variables, dont on observe ou mesure un ou plusieurs caractères. L’ensemble des données obtenues est résumé en calculant les valeurs de paramètres synthétiques (moyenne, variance, pourcentages). Protéome : mot introduit récemment en biologie cellulaire et moléculaire, il désigne l’ensemble des protéines synthétisées à un moment donné dans un système cellulaire. Le protéome est en aval du transcriptome (cf. définition plus loin). Procaryote : organisme monocellulaire, dont le noyau primitif n’est pas identifiable au microscope (bactéries et cyanobactéries). Résilience : ce terme vient de la mécanique et traduit la capacité d’un système à amortir et à récupérer une perturbation en revenant dans un état stationnaire proche de celui dans lequel il était avant cette perturbation. Cette notion est proche de celle de stabilité, sauf qu’on peut considérer des états non-stationnaires et des perturbations importantes. Ce terme a été introduit en écologie par Holling. Sélection (naturelle) : ensemble de mécanismes favorisant un organisme ou un ensemble d’organismes dans un environnement donné. Par exemple : la compétition, l’adaptation, la coopération. Stabilité : comme les concepts d’équilibre, de point fixe et d’état stationnaire, cette notion est issue de la théorie des systèmes dynamiques. Un
172
Glossaire
système est dit stable si, étant dans un état stationnaire, en particulier dans un état d’équilibre, après une petite perturbation, il revient spontanément dans cet état. Par exemple, si une balance est à l’équilibre un mouvement d’air peut rompre cet équilibre, mais elle y revient spontanément. Systématique : discipline consacrée à la description et à la classification des êtres vivants. Taxonomie ou taxinomie : discipline s’intéressant à la classification, principalement des êtres vivants. Elle se fonde sur l’analyse de ressemblances entre caractères : les éléments d’un groupe taxonomique sont plus proches entre eux qu’avec des entités d’un autre groupe. Ainsi est définie une hiérarchie taxonomique dont les éléments de base sont les espèces, puis les genres (groupe homogène d’espèces), les familles (groupe homogène de genres), etc. Certaines écoles systématiques distinguent 34 niveaux, de l’espèce au règne. Les caractères courants utilisés pour les classifications sont morphologiques, génétiques ou biochimiques. Transcriptome : désigne l’ensemble des gènes transcrits en AR N à un moment donné dans un système cellulaire. Le transcriptome est en aval du génome et en amont du protéome. L’approche multigénique du fonctionnement cellulaire est récente et marque un progrès important dans la compréhension de ce fonctionnement. Enfin, l’étude des parties non codantes du génome (pour les protéines) prend de plus en plus d’importance (épigénétique). Transposon : élément d’un génome susceptible de changer de place d’une génération à l’autre. Cet élément peut être assezlong et correspondre à plusieurs gènes.
173
Références bibliographiques Les articles et ouvrages référencés sont ceux qui ont été consultés. Tous ne sont pas repérés dans le texte pour ne pas nuire à la lecture. Seuls ceux dont le contenu nous semblait ponctuellement important, pour renforcer un argument, ont été cités. Ce n’est évidemment pas un jugement de valeur, la citation n’étant que conjoncturelle. Enfin, les dernières publications qui ont été consultées, jusqu’à septembre 2006, et que nous avons jugées intéressantes pour cet exposé, ont été intégrées.
André J.-C., Mégie G., Schmidt-Lainé C. (2003). cÉhelles et changements d’échelles, problématiques et outils. In Caseau P. (éd.). tÉudes sur l’environnement : du territoire au continent. RST, Académie des sciences, ech& T Doc, Paris, 2003, 167-199. Andujar G. (2006). Paramutation chez la souris : une hérédité nonmendélienne. Biofutur, 269, 8-9. Barbault R . (1992). Écologie des peuplements. Masson, Paris. Barbault R . (2005). Un éléphant dans un jeu de quilles. L’homme dans la biodiversité. Seuil, Paris. Barbault .R, Pavé A. (2003). cÉologie des territoires et territoires de l’écologie. Caseau P. (éd.). tÉudes sur l’environnement : du territoire au continent. RST, Académie des sciences, ech& T Doc, Paris, 2003, 1-49. Barbault R ., Guégan J.-F., Hoshi M., Mounolou J.-C., van Baalen M., aW ek M., ounès Y .T(2003). Integrative Biology and Complexity in Natural Systems. eKys to Adressing Emerging Challenges, Biology International, 44, 1-92.
175
LA NÉCESSITÉ DU HASARD
Barabé D., Brunet R . (éds., 1993). Morphogenèse et dynamique. d Éitions OR BIS, Frelighsburg (Q uébec). Begon M., Harper J.L. and ownsen T C.R . (1996). Ecology. Individuals, Populations and Communities. Blackwell Science, Oxford. Belovsky G.E., Mellison C., Larson C. and Van aZndt P. A. (1999). Experimental Studies of Extinction Dynamics. Science, 286, 11751177. Benton M.J. (1995). Diversification and extinction in the history of life, Science, 268, 52-58. Bertrand D., Gascuel O. (2005). opological T eRarrangements and Local Search Method for andem T Duplication rees. T IEEE/ACM Trans. On computational Biol. And Bioinf., 2 :1, 1-13. Bonhomme F. (2003). Combien de temps faut-il pour faire une espèce ?In Qu’est-ce que le diversité de la vie ? (éd. Michaud .), Y Odile Jacob, Paris. Bongers F., Charles-Dominique P., Forget P.M., h Téry M. (éds., 2001). Nouragues. Dynamics and Plant-Animal Interactions in a Neotropical Rainforest. K luwer Acad. Publish. Borel .É(1943). Les Probabilités et la vie. « u Qe sais-je ?» n°91. PUF, Paris. Borgès J.L. (éd. 2004). Fictions. Folio, (éd. originelle en français : 1983), Paris. Callangher R , Appenzeller .T (1999). Beyond eRductionism. Science (special issue), 284. Carroll S.B. (2001). Chance and necessity : the evolution of morphological complexity and diversity. Nature, 409, 1102-1109. Carlton J.T ., Geller J.B. (1993). Ecological roulette : the global transport of non indogenous marine organisms. Science, 261, 78-82. Caseau P. (éd., 2003). tÉudes sur l’environnement : du territoire au continent. Rapport sur la science et la technologie, Académie des sciences, ech& T Doc, Paris, (Summary in English). Chassé J.L., Debouzie D. (1974). Utilisation des tests de iKveliovtch et Vialar dans l’étude de quelques générateurs de nombres pseudoaléatoires. Revue de Statistique appliquée, XXII, 3, 83-90. Chaitin G. (2006). Les limites de la raison mathématique. Pour la Science, 342, 70-76. Chave J. (2004). Neutral theory and community ecology. Ecology letters, 7, 241-253. Chave J., Alonso D., Etienne .RS. (2006). Comparing models of species abundance. Nature, 441, E1.
176
Références bibliographiques
ClarkJ.S., MacLachlan J.S. (2003). Stability of forest biodiversity. Nature, 423, 636-638. Combes C. (1995). Interactions durables. Masson, Paris. Cornette J.L., Lieberman B.S. (2004). aRndom walks in the history of life. PNAS, 101, 187-191. Costantino .RF., Desharnais .RA., Cushing J.M., Dennis B. (1997). Chaotic Dynamics in an Insect Population. Science, 275, 389-391. Courtillot V., Gaudemer .Y(1996). Effects of mass extinctions on biodiversity. Nature, 381, 146-148. Crowley .TJ., North G.R . (1991). Paleoclimatology. Oxford monographs on geology and geophysics. Darwin, C.M.A. (1859). On the Origin of Species by Means of Natural Selection or the Preservation of Favoured Races in the Struggle for Life. London : John Murray, Albemarle Street. Delahaye J.-P. (1991). Complexités, la profondeur logique selon C. Bennett. Pour La Science, 166, 102-104. Delahaye J.-P. (1999). Information, complexité et hasard. Hermès, Paris. Delahaye J.-P. (2004). Les dés pipés du cerveau. Pour la Science, 326,144149. Delahaye J.-P., eRchenmann F. (2006). La simulation par ordinateur change-t-elle la science ? Pour La Science, numéro spécial : La modélisation informatique, exploration du réel, juillet/septembre 2006, 2-6. Dessart H., Picard N., Pélissier P., Collinet-Vautier F. (2004). Spatial patterns of the most abundant tree species. In Ecology and Management of a Neotropical Rainforest – Lessons drawn from Paracou, a long-term experimental research site in French Guiana. Elsevier, 177-186. Dubucs J. (2006). Simulations et modélisations. Pour La Science, numéro spécial : La modélisation informatique, exploration du réel, juillet/septembre 2006, 8-10. Enquist B.J., Hask ell J.P., iTffney B.H. (2002). General patterns of taxonomic and biomass in extant fossil plant communities. Nature, 419, 610-613. Ferrière .R(2003). Les mathématiques de l’évolution. In Qu’est-ce que la diversité de la vie ? (éd. .YMichaud), Odile Jacob, 85-97. Ferrière .R, Cazelles B. (1999). Universal power laws govern intermittent rarity in communities of interacting species. Ecology, 80(5), 15051521.
177
LA NÉCESSITÉ DU HASARD
Fournier M., eigel W J. (2003). Connaissance et gestion de la forêt guyanaise. Revue forestière française, Numéro spécial. Galton F., aW tson H.W . (1874). On the probability of extinction of families. Journal of the Anthropological Institute, VI, 138-144. Gause G.J. (1935). Vérifications expérimentales de la théorie mathématique de la lutte pour la vie. Herman, Paris. Gond V., Bernard J.Z ., Brognoli C., Brunaux O., Coppel A., Demenois J., Engel J., Galarraga D., Gaucher Ph., Guitet S., Ingrassia F., Lalièvre M., Linares S., Lok onadinpoulle F., Nasi R ., Pek el J.F., Sabatier D., h Tierron V., de h Toisy B., rebuchon T F., Verger G. (2006). Analyse multi-échelle de la caractérisation des écosystèmes forestiers guyanais et des impacts humains à partir de la télédétection spatiale. Colloque Forestier des Caraïbes, décembre 2005. Gotelli N. (2002). Biodiversity in the scales. Nature, 419, 575-576. Gould S.J. (1977). Ontogeny and Phylogeny. Harvard Univ. Press, Cambridge (Mass.). Gourlé-Fleury S., Guehl J.-M. et Laroussinie O. (2004a). Ecology and Management of a Neotropical Forest. Lessons drawn from Paracou, a long-term experimental research site in French Guiana. Elsevier. Gourlé-Fleury S., Ferry B., Molino J.F., Petronelli P., Schmitt L. (2004b). Experimental Plots : eKy Features. In Ecology and Management of a Neotropical Forest. Lessons drawn from Paracou, a long-term experimental research site in French Guiana. Elsevier, 3-59. Grenfell S.A. Bryan, Hastings A., Perelson A.S. (1997). Mathematical and Computational Challenges in Population Biology and Ecosystems Science. Science, 275, 334-342. Hallam A., iW gnall P.B. (1997). Mass Extinctions and their aftermath. Oxford Univ. Press. Hammerstein P. (Ed., 2003). Genetic and Cultural Evolution of Cooperation. MITPress. Hubbell S.P. (2001). The Unified Neutral Theory of Biodiversity and Biogeography. Princeton Univ. Press. Hulot F.D., Lacroix G., Lesher-Moutoué F., Loreau M. (2000). Functional diversity governs ecosystems response to nutrient enrichment. Nature, 405, 340-344. Jacob F. (1970). La Logique du vivant. Une histoire de l’hérédité. Gallimard, Paris.
178
Références bibliographiques
Jacob F. (1981). Le Jeu des possibles. Essai sur la diversité du vivant. Fayard, Paris. Jacob F. (2000). La Souris, la Mouche et l’Homme. Odile Jacob, Paris. aKuffman S. (1993). Origin of order self-organization and selection in Evolution. Oxford University Press. aKuffman S. (1995). At Home in the Universe. The search of the laws of self-organization and complexity. Oxford University Press. iKmura M. (1968). Evolutionary rate at the molecular level. Nature, 217, 624-626. iKmura M. (1983). The neutral theory of molecular evolution. Cambridge University Press. iKmura M. (1994). Population Genetics, Molecular Evolution, and the Neutral Theory (selected papers). h Te University of Chicago Press. iKmura M., eW iss G.H. (1964). h Te stepping stone model of population structure and the decrease of the genetic correlation with distance. Genetics, 49, 561-576. iKmura M., Otha .T(1971). Proteins polimorfism as a phase of molecular evolution. Nature, 229, 4167-4169. iKrchner J.W ., eW il A. (2000). Delayed biological recovery from extinctions throughout the fossil record. Nature, 404, 177-190. iKrchner J.W ., eW il A. (2005). Fossils mak e waves. Nature, 434, 147-148. oKestler A. (1968). The Sleepwalkers, introduction de Herbert Butterfield et nouvelle préface de l’auteur, Hutchinson, London (d’après Hamel D. (2004). Nicolas Copernicus. Le Québec Sceptique, 54, 29-37). oKndho M. (2003). Foraging Adaptation and the eRlationship Between Food-W eb Complexity and Stability. Science, 299, 1388-1391. oKstitzin V.A. (1937). Biologie mathématique. Armand Colin, Paris. uKpiec J.J., Sonigo P. (2000). Ni Dieu, ni gène. Seuil, Paris. uKpiec J.J. (2006). L’expression aléatoire des gènes. Pour la Science, 342, 78-83. LaszlóBarábasi A. (2002). The new science of networks. Perseus Pub. Lebreton J.-D. (1981). Contribution à la dynamique des populations d’oiseaux. Modèles mathématiques en temps discret. h Tèse d’É tat de docteur es Sciences, Lyon. Leslie P.H. (1945). On the use of matrices in population mathematics. Biometrika, 33, 183-212. Lestienne .R(1993). Le Hasard créateur. La Découverte, Paris.
179
LA NÉCESSITÉ DU HASARD
Letellier C. (2006). Le Chaos dans la nature. Vuibert, Paris. Lévêque C. (2001). Écologie. De l’écosystème à la biosphère. Dunod, Paris. Lévêque C., Mounolou J.-C. (2002). Biodiversité. Dynamique biologique et conservation. Dunod, Paris. Lévêque C., van der Leeuw S. (2003). Quelles natures voulons-nous ? Pour une approche socio-écologique du champ de l’environnement. Elsevier, Paris. Lewontin R .C. (1974). The Genetic Basis of Evolutionary Change. Columbia Univ. Press, New ork Y -Londres. Lobry C., Hamand J. (2006). A new hypothesis to explain the coexistence of n species in the presence of a single resource. CR-Biologies, 329, 40-46. May R .M. (1976). Simple mathematical model with very complicated dynamics. Nature, 261, 459-467. May R .M. (1973). Stability and Complexity in Model Ecosystems. Princeton University Press. McCann .KS., Hastings A. and Huxel G.R . eak W (1998). rophic T interactions and the balance of nature. Nature, 395, 794-798. McCann .KS. (2000). h Te diversity stability-debate. Nature, 405, 228-233. Michaud .Y(éd., 2003). Qu’est-ce que la diversité de la vie ?Université de tous les savoirs. Odile Jacob, Paris. Michod .RE. (2000). Darwinian Dynamics. Princeton paperback s, Princeton. Monod J. (1942). Recherches sur la croissance de cultures bactériennes. T hèse de Docteur ès Sciences, Hermann, Paris. Monod J. (1970). Le Hasard et la Nécessité. Seuil, Paris. Murray J. (2001). Mathematical Biology. I. An Introduction. T hird Edition, Springer. Nicolis G., Prigogine I. (1977). Self-Organization in Nonequilibrium Systems. J. iW ley &Sons, New ork Y. Office national des Forêts (2004). Guide de reconnaissance des arbres de Guyane (120 essences décrites). Publié sous l’égide de Silvolab, ONF, Cayenne, Guyane française. Pascal J.P (2003). Notions sur les structures et dynamiques des forêts tropicales humides. Revue forestière française, numéro spécial. Pavé A. (1979). Introduction aux modèles morphologiques et morphogénétiques dérivés de la théorie des langages. In Biométrie et biologie cellulaire, éds. Legay J.-M. et omassone T .R, Société Française de Biométrie, 47-60.
180
Références bibliographiques
Pavé A. (1993). Interpretation of population dynamics models by using schematic representations. Journal of Biological Systems. 1:3, 275309. Pavé A. (1994). Modélisation en biologie et en écologie. Aléas, Lyon. Pavé A. (2006a). Hierarchies in biology and biological systems. In Hierarchy in Natural and Social Sciences, D. Pumain (éd.), Methodos series, Springer. Pavé A. (2006b). By a way of introduction : Modelling Living Systems, their diversity and their complexity. Some Methodological and heoretical Problems. C. R. Biologies, 329, 3-12. T Pavé A., Schmidt-Lainé Cl. (2003). Integrative biology : modelling and simulation of the complexity of natural systems. Biology International, 44, 13-24 Pavé A., Hervé J.C., Schmidt-Lainé Cl. (2002). Mass extinctions, biodiversity explosions and ecological niches. C. R. Biologies, 325, 755765. Pavoine S., Dolédec S. (2005). h Te apportionment of quadratic entropy : a useful alternative for partitioning diversity in ecological data. Environmental and Ecological Statistics, 12, 125-138. Pollard .KS., Salama S., Lambert L., Lambot M.A., Coppens S., Pedersen J.S., aKtzman S., iKng B., Onodera C., Siepel A., eKrn A.D., Dehay C., Igel H., Ares Jr A., Vanderhaegen P., Haussler D. (2006). An N RA gene expressed during cortical development evolved rapidly in humans. Nature, 443, 167-172. Postel-Vinay O. (2004). Saisir l’essence du hasard. La Recherche, 381, 3235. Pour La Science (2003). La complexité. La science du XXIe siècle. Pour la Science, 314, 28-156. Purves .W K ., Orians, G.H., Heller H.G. (1994). Le Monde du vivant. Traité de biologie. Flammarion, Paris. raduction T par London J. de « Life : h Te Science of Biology », Sinauer Ass., Sunderland, Mass. aRssoulzadegan M., Grandjean V., Gounon P., Vincent S., Gillot I., Cuzin F. (2006). N R A-mediated non mendelian inheritance of an epigenic change in the mouse. Nature, 441, 469-474. iRttaud B. (2004). Fabriquer le hasard. L’ordinateur à rude épreuve. La Recherche, 381, 28-33. o Rhde .RA., Muller .RA. (2005). Cycles in fossil diversity. Nature, 434, 208-210.
181
LA NÉCESSITÉ DU HASARD
o Rthman D.H. (2001). Global biodiversity and the ancient carbon cycle. PNAS, 98 : 8, 4305-4310. u Relle D. (1991). Hasard et chaos. Odile Jacob, Paris. On pourra aussi voir et écouter la conférence que cet auteur a donné en 2004 à l’Université de tous les savoirs sur le site : http://www.canalu.fr/. Sabatier D., Prévost M.F. (1989). u Qelques données sur la composition floristique et la diversité des peuplements forestiers de Guyane française. Bois et Forêts des Tropiques, 219, 43-45. SchatzB.R ., Levin S.A., einstein W J.N., et al (1997). Bioinformatics. Science, 275, 327-349. Schmidt-Lainé Cl., Pavé A. (2002). Environnement : modélisation et modèles pour comprendre, agir et décider dans un contexte interdisciplinaire. Natures, Sciences, Sociétés, numéro spécial : Sciences pour l’ingénierie de l’environnement 10 : s.1, 5-25. (Summary in English). Sepk oski J.J. (1982). A compendium of fossil marine families. Milwauk Public Mus. Contrib. Biol. Geol., 51, 1-125. Servant M. et Servan-Vildary S. (éds., 2000). Dynamiques à long terme des écosystèmes forestiers intertropicaux. CNR S, UNESCO, MAE, IR D, Paris. Solbrig O.T . (1991). From genes to ecosystems : a research agenda for biodiversity. IUBS, SCOPE, UNESCO. Solbrig O.T ., Nicolis G. (éds., 1991). Perspectives on Biological Complexity. IUBS Monograph series, n°6, Paris. Souchon .,Y Breil P., Andriamahefa H., Marie-Bernadette A., Capra H., Lamouroux N. (2002). Couplage physique-biologie dans les cours d’eau : vers une hydroécologie quantitative. Natures, Sciences, Sociétés, 10, 26-41. Stephens J.-C. et al. (2001). Haplotype variation and linkage disequilibrium in 313 human genes. Science 293, 489-493 h Tellier M. (2003). From a static to a dynamic description of living systems : the framework. Nova Acta Leopoldina, 322, 88, 11-15. h Tivent V. (2006). Profilées pour germer. La Recherche, 396, 66-73. Van Valen L.M. (1973). A new evolutionary law. Evolutionary theory, 1, 1-30. Vandemeer J.H. (1972). Niche h Teory. Ann. Rev. Ecol. Syst. 3, 107-132. Verhulst P.F. (1844). eRcherche mathématique sur la loi d’accroissement de la population. C.R. de l’Acad. Royale de Belgique, XVIII, 1-32. Verhulst P.F. (1846). Deuxième mémoire sur la loi d’accroissement de la population. C.R. de l’Acad. Royale de Belgique, XX, 3-32.
182
Références bibliographiques
Vicsek.T(2002). h Te bigger picture. Nature, 418, 131. Vignais P. (2001). La biologie des origines à nos jours. EDP Sciences & Grenoble Sciences, Les Ulis. Volk ov I, Banavar J.R ., Hubbell S.P., Maritan A. (2003). Neutral theory and relative species abundance in ecology. Nature, 424, 1035-1037. Volk ov I., Banavar J.R , Maritan A., Hubbell S.P. (2004). h Te stability of forest biodiversity. Nature, 427, 696. Volterra L. (1931). Leçons sur la théorie mathématique de la lutte pour la vie. Gauthier-Villars, Paris. eW aver .W (1948). Science and Complexity. American Scientist, 36, 536544. est, W G.B., Brown J.H. and Enquist B.J. (1999). A general model for the structure and allometry of plant vascular systems. Nature, 400, 664667. h Withfield J. (2002). Neutrality versus the niche. Nature, 417, 481. iW ener N. (1947). Cybernetics or Control and Communication in the Animal and the Machine. M.I.T . Press, Cambridge (Mass.). iW lson O.E. (Ed), Peter F.M. (Ass. Ed.) (1988). Biodiversity. National Academic Press, aW shington D.C.
Articles consultés dans l’Encyclopæ dia Universalis (E.U.) , 2003 et 2005 (versions informatiques, 9.0.1 et 11.0) : Dugué D. Le calcul des probabilités. Génermont J. Adaptation biologique. Forterre P. vÉolution. Blandin P. Biodiversité. Barbault .Ret Lebreton J.D. Biologie et dynamique des populations. Balibar E. et Macherey P. Déterminisme. Favre-Duchartres M. Angiospermes.
183
Remerciements Le point de départ fut un contact désagréable avec la biodiversité, celle des bactéries qui vous rendent malade. u Qelques jours d’hôpital et une convalescence m’ont laissé du temps pour commencer à rédiger ce qui allait être un projet de livre sur ce sujet d’actualité et auquel je pensais bien avant ce désagrément. Mes premiers remerciements sont donc pour l’équipe médicale qui m’a efficacement soigné. Avant de progresser dans la réalisation de cet ouvrage, plusieurs lecteurs m’ont fait l’amitié et l’honneur de lire la première version et m’ont donné des conseils utiles pour la suite. Ce sont de vieux complices, enfin le mot de vieux est peutêtre exagéré… L’avenir du projet fut décidé lors d’un déjeuner avec eux, en l’occurrence o Rbert Barbault, Jean-Claude Mounolou et ala T ounès Y et cela dans un charmant restaurant près du siège du CNR S à Paris : le o Rsymar. On peut y déguster une excellente cuisine espagnole et des vins, non moins espagnols, d’une excellente facture. Un accueil plus qu’agréable et d’un rare professionnalisme. Nous étions en novembre 2004. Michel h Tellier, qui n’avait pu être des nôtres, me renvoya aussi un avis très positif assorti d’excellentes suggestions. u Qelques semaines plus tard, p récisément début 2005, Jean-Claude Mounolou, nouveau président de l’Académie d’agriculture, mentionnait pour la première fois ce travail lors de son discours de début d’année et depuis nous continuons à avoir de fructueuses discussions sur le sujet. u Qelques jours plus tard, vYon Le Maho me renvoyait également un avis très positif. C’était à l’issue de la « Conférence internationale biodiversité, science et gouvernance », dont Jacques eber W fut l’efficace organisateur et avec qui j’ai eu de multiples échanges.
185
LA NÉCESSITÉ DU HASARD
Pierre Charles-Dominique m’a fait l’amitié de relire le manuscrit au moins deux fois, de me fournir d’utiles illustrations et de précieux commentaires. S’il est un écologue, j’oserais dire un naturaliste au sens noble, connaissant la nature guyanaise, c’est bien lui. « Inventeur des Nouragues », le développement de la recherche en Guyane lui doit beaucoup. Bernard iRéra, lui aussi plongé dans la recherche sur l’écosystème forestier guyanais, m’a éclairé sur plusieurs points, fourni de précieuses données et lu le texte avec attention. Claudine Laurent a été une lectrice avisée et pointilleuse et cela d’autant plus que son domaine de compétences est loin de l’écologie. L’équipe guyanaise du CNR S m’a supporté pendant la réalisation de cet ouvrage ; Mireille Charles-Dominique et Gaëlle Fornet ont suivi de près la réalisation ; elles m’ont donné de précieux conseils. La lecture du manuscrit semble avoir plu à Philippe Gaucher ; il a participé au choix du titre. J’ai eu enfin la satisfaction d’avoir un retour très constructif de l’éditeur et des deux lecteurs du manuscrit, qui l’ont vraiment lu, commenté et annoté. Ils ont ainsi conduit à une amélioration significative du texte. Ce n’est pas si fréquent à un moment oùl’édition scientifique française n’est pas au meilleur de sa forme. D’autres amies, amis et collègues, bien sû r aussi des membres de ma famille n’ont pas directement contribué à ce travail, mais au gré de nos discussions, ils ont permis la mise en place des idées, souvent à leur insu et sans que j’en ai conscience sur le moment. Parmi eux, au fil des années et de leurs visites en Guyane, des enfants, des adolescents et des jeunes adultes qui regardent le monde avec des yeux neufs, précis et critiques. Enfin, il reste à me souvenir que sans le soutien de Marie-José, pendant toutes les années que nous vécû mes ensemble, je n’aurais jamais été en mesure de faire tout ce que j’ai fait, notamment d’avoir les éléments qui m’ont permis de rédiger cet ouvrage. Et… puis, comme je l’ai déjà écrit, le meilleur résultat de notre collaboration, Marc, a suivi de très près sa réalisation, le lisant, le commentant quelquefois sévèrement, non seulement sur le style, mais aussi sur le fond. Historien, muni d’une étonnante culture scientifique, lecteur pointilleux et critique, il a beaucoup contribué à la mise au point du manuscrit. Hé bien, comme c’est annoncé… je les remercie tous. Suivant les cas et ils se reconnaîtront, je les assure de ma reconnaissance, de ma considération, de mon amitié, de ma profonde affection. Précision utile : ces différents items ne sont pas exclusifs !
186
Dans la même série : Le vivant décodé Quelle nouvelle définition donner à la vie ? Jean-Nicolas Tournier En ce début de XXIe siècle, quel regard l’homme porte-t-il sur la vie ? Alors que le siècle qui se dessine semble être celui des biotechnologies, que le conflit ouvert entre la puissance envahissante de la biologie et les limites de l’éthique devient irrémédiable, la notion même de vie semble s’être extirpée du champ de la biologie. Or, les frontières de la science touchent pourtant bien celles de la définition du vivant. Mais alors quel sens donner au mot vie ? L’embryon est-il en vie dès sa conception ? Le clone, l’autre soi peut-il être réifié pour répondre au simple besoin de cellules souches d’une personne, dont la vie est elle-même mise en péril ? Ces questions nouvelles, ne sont qu’une formulation moderne de questions pérennes. Elles permettent aussi de comprendre que la biologie ne peut se départir d’une réflexion éthique. Le présent ouvrage propose une définition nouvelle, simple et opérante de la vie qui exclut l’appel au vitalisme, et qui permet ensuite de revisiter certaines énigmes de la biologie moderne comme les origines de la vie et son évolution, et de s’interroger sur les problèmes éthiques de la biologie contemporaine : Quid des OGM, du clonage reproductif et thérapeutique, des cellules souches au regard de la vie ? Il ne s’agit ici ni de vouer les techno-sciences aux géhennes, ni de déplorer les progrès de la science. L’objectif est plutôt d’anticiper l’émergence des problèmes éthiques futurs par une réflexion plus profonde et plus large sur le sens du mot vie, afin de mieux accompagner les surprises que livre pudiquement la nature aux êtres curieux de savoir. Jean-Nicolas Tournier est docteur en médecine et docteur ès sciences, chercheur au Centre de Recherches du Service de Santé des Armées (CRSSA) à Grenoble. Il travaille dans le domaine de l’immunologie et s’intéresse notamment aux interactions hôte-pathogènes. • Octobre 2005 • 2-86883-814-6 • 212 pages • 19 €
Réflexions sur la science contemporaine Pierre Darriulat - Préface d’Étienne Klein
TRE
RAÎ À PA
Cet essai s’adresse à tous ceux qu’intéressent les relations entre la science et la philosophie. L’auteur y brosse à grands traits un tableau de la science contemporaine : réductionnisme, déterminisme, abstraction, méthodes, mécanismes de validation et interactions entre observation et théorie... ainsi qu’un portrait de ses artisans et une critique des stéréotypes les plus courants (philistin, iconoclaste, apprenti sorcier...) L’accent est mis sur le fait que la science, dont une des missions consiste à dénoncer les illusions du sens commun, ne poursuit pas une quête de vérité absolue mais se contente aujourd’hui d’une vérité simplement meilleure que celle d’hier. La circularité de la science lui interdit de répondre à des questions essentielles comme « Pourquoi ce monde plutôt que rien ? » Pour tenter d’y répondre, le physicien Pierre Darriulat entreprend, avec candeur et bienveillance, un voyage chez les philosophes. Comment la métaphysique s’évade-t-elle du cercle ? Quelle connaissance autre que scientifique nous propose-t-elle ? La circularité condamnant la science au silence, elle semble du même coup condamner la métaphysique au verbiage ; devant son incapacité à nous répondre, nous restons seuls devant l’absurdité de notre destin… Pierre Darriulat a consacré l’essentiel de sa carrière de chercheur à l’étude des interactions des particules élémentaires à laquelle il a apporté des contributions importantes, en particulier avec la découverte des jets hadroniques et des bosons faibles. Après avoir dirigé les recherches du CERN pendant sept ans, il s’est tourné vers l’étude de la supraconductivité des couches minces puis, quelques années plus tard, vers l’astrophysique qu’il enseigne aujourd’hui à l’Université nationale de Hanoi, où il dirige un laboratoire de physique des rayons cosmiques. Ses recherches lui ont valu de nombreuses distinctions honorifiques. • Février/Mars 2007 • 978-2-86883-964-0 • 168 pages • 14 €
Retrouvez tous nos ouvrages sur www.edpsciences.org