216 48 1015KB
French Pages 128 Year 2017
La causalité dans les sciences biologiques et médicales Faut-il connaître les causes pour comprendre et intervenir ? Sous la direction de Claude DEBRU et Michel LE MOAL
ACADÉMIE DES SCIENCES
17, avenue du Hoggar Parc d’activités de Courtabœuf, BP 112 91944 Les Ulis Cedex A, France
Illustration de couverture : Cartographie des mutations associées à l’autisme. Huguet G., Ey E., Bourgeron T. (2013) The genetic landscapes of autism spectrum disorders. Annu Rev Genomics Hum Genet. 14: 191-213.
Imprimé en France
© 2017, EDP Sciences 17, avenue du Hoggar, BP 112, Parc d’activités de Courtaboeuf, 91944 Les Ulis Cedex A Tous droits de traduction, d’adaptation et de reproduction par tous procédés réservés pour tous pays. Toute reproduction ou représentation intégrale ou partielle, par quelque procédé que ce soit, des pages publiées dans le présent ouvrage, faite sans l’autorisation de l’éditeur est illicite et constitue une contrefaçon. Seules sont autorisées, d’une part, les reproductions strictement réservées à l’usage privé du copiste et non destinées à une utilisation collective, et d’autre part, les courtes citations justifiées par le caractère scientifique ou d’information de l’œuvre dans laquelle elles sont incorporées (art. L. 122-4, L. 122-5 et L. 335-2 du Code de la propriété intellectuelle). Des photocopies payantes peuvent être réalisées avec l’accord de l’éditeur. S’adresser au : Centre français d’exploitation du droit de copie, 3, rue Hautefeuille, 75006 Paris. Tél. : 01 43 26 95 35. ISBN (papier) 978-2-7598-1716-0 ISBN (ebook) 978-2-7598-2046-7
Présentation Le mot « cause » est fréquemment employé dans des publications scientifiques, sans qu’il y ait toujours une conscience claire de ce qu’il implique. Ce terme a une histoire philosophique au cours de laquelle sa signification et son usage dans les sciences ont été tantôt défendus, tantôt critiqués. D’une part la recherche de causes naturelles est bien constitutive du projet scientifique, d’autre part le terme de cause peut facilement véhiculer des conceptions naïves de la relation entre causes et effets, dont les conséquences peuvent être de retarder ou de mal orienter la recherche de facteurs de causalité. Les sciences biologiques et médicales sont riches d’exemples de ce type. Plusieurs questions peuvent donc être posées. Quelle est l’utilisation présente de la causalité dans les sciences biologiques et médicales ? Quelles sont les difficultés particulières liées à l’établissement des relations de causalité ? Comment ces difficultés peuvent-elles être surmontées du point de vue méthodologique ? L’identification de conditions causales permet-elle de prédire la succession de phénomènes physiologiques ? Est-il souhaitable de conserver le langage causaliste pour décrire des situations où règne par excellence le multifactoriel ? Comment mieux décrire ces situations par d’autres langages, et est-ce toujours possible en l’état actuel ? Les textes réunis dans cet ouvrage sont pour la plupart issus du colloque « Faut-il connaître les causes pour comprendre et intervenir ? Questions sur la causalité dans les sciences biologiques et médicales », organisé le 31 mai 2016 par l’Académie des sciences, sur l’initiative de sa section de biologie humaine et sciences médicales.
Liste des auteurs Jean-François Bach
Secrétaire perpétuel honoraire de l’Académie des sciences
Pierre-Yves Boëlle
Professeur à l’université Pierre-et-MarieCurie – Praticien hospitalier à l’hôpital Saint-Antoine
Thomas Bourgeron
Membre de l’Académie des sciences – Professeur à l’université Paris-Diderot
Claude Debru
Membre de l’Académie des sciences – Professeur émérite à l’École normale supérieure
Henri Décamps
Membre de l’Académie des sciences – Directeur de recherche émérite au CNRS
Michel Le Moal
Membre de l’Académie des sciences – Professeur émérite à l’université de Bordeaux
Anne Fagot-Largeault
Membre de l’Académie des sciences – Professeur émérite au Collège de France
Yves Pomeau
Membre correspondant de l’Académie des sciences – Professeur à l’université d’Arizona
Maxime Schwartz
Membre correspondant de l’Académie des sciences – Directeur général honoraire de l’Institut Pasteur
Alain-Jacques Valleron
Membre de l’Académie des sciences – Professeur émérite à l’université Pierreet-Marie-Curie
Coordination éditoriale : Jean-Yves CHAPRON, directeur du service des publications de l’Académie des sciences, assisté de Joëlle FANON.
Table des matières Présentation 3 Chapitre 1 – Sur la polysémie du vocabulaire causal
7
Anne Fagot-Largeault Chapitre 2 – La causalité en médecine
19
Jean-François Bach Chapitre 3 – Les postulats de Koch
27
Maxime Schwartz Chapitre 4 – La recherche causale en épidémiologie
37
Pierre-Yves Boëlle et Alain-jacques Valleron Chapitre 5 – L’écologie face aux causalités multiples
57
Henri Décamps Chapitre 6 – Pathologies comportementales et sociales : la question des origines
71
Michel Le Moal Chapitre 7 – Les mécanismes physiologiques du sommeil : la sérotonine et la suite Claude Debru
87
Chapitre 8 – L’autisme : quelles corrélations, quelles causes et quelles interventions ?
97
Thomas Bourgeron Propos recueillis par Claude Debru Chapitre 9 – Regard extérieur venu du côté des sciences dites dures
105
Yves Pomeau Annexe au chapitre 4
115
Chapitre 1
Sur la polysémie du vocabulaire causal Anne Fagot-Largeault Le mot « cause » vient du latin causa ; le grec αιτία se retrouve dans le français « étiologie ». Le principe que « rien n’arrive sans cause » est déjà énoncé chez Platon (Timée, 28a). Si trouver l’explication d’un fait c’est découvrir sa ou ses cause(s), on admet depuis Aristote (Physique, II, 3 ; Métaphysique A 983a) qu’il y a plusieurs genres de causes (matérielle, formelle, motrice, finale). Exemple, la cause motrice : il s’agit d’établir des constats du type « a est toujours suivi de b », « a entraîne b ». Pour J.S. Mill cette démarche est « le principal pilier de la science inductive » (Logic, III, 5, § 2). Mais si le virus de la variole cause des morts, en fait il ne tue qu’environ une fois sur dix ; le lien de la cause à l’effet n’est donc pas nécessaire, l’analyse causale appelle le calcul des probabilités. Les causes deviennent des « facteurs de risque »... Bertrand Russell proposait qu’on élimine le terme « cause » du vocabulaire scientifique ou philosophique (On the notion of cause, 1912-13). Mais la recherche étiologique est reine dans les sciences de la nature. L’idée de consacrer à l’explication causale une séance publique de l’Académie des sciences venait en 2013 de Pierre Buser, qui disait être « de ceux que le problème de la causalité dans la mécanique nerveuse et mentale travaille depuis longtemps » (courriel, 17 avril 2013), explorant la « frontière neurone/mental (Neurophilosophie..., 2013, p. 192). Pierre invita chez lui le trio (Michel, Claude et Anne) pour un déjeuner mémorable du 10 juillet où
8
La
causalité dans les sciences biologiques et médicales
le projet commença de prendre forme. Mais Pierre mourut au crépuscule de cette année 2013, et le projet s’élargit ensuite au-delà des sciences du cerveau. La publication des actes de la réunion du 31 mai 2016 est ici une occasion de rendre un hommage chaleureux à notre feu confrère Pierre Buser. « Tu causes, tu causes, c’est tout ce que tu sais faire », disait Laverdure, le perroquet du bistrot (R. Queneau, 1959, ch. 2). Plaider la cause de la causalité, c’est d’abord dégager le mot de ses acceptions bavardes (causer littérature), ou juridiques (la cause gagnée par l’avocat). Le mot « cause » vient du latin « causa ». Le mot savant « étiologie » fut créé au XVIIe siècle sur le grec αιτία pour désigner la science des causes. La recherche causale, ou recherche étiologique, a très tôt fait le prestige de la recherche proprement scientifique. Selon l’historien des sciences A.C. Crombie, l’attitude scientifique est née quand les philosophes présocratiques ont cherché à rendre compte des phénomènes qu’ils observaient, non par l’action de puissances mythiques ou surnaturelles (ex. la colère de Zeus), mais par des causes naturelles (ex. un mélange d’éléments présents dans la nature : eau, terre, feu, air) opérant selon des régularités assignables : « Scientific historical derivation, as distinct from the antecedent ancient Babylonian or Egyptian or Hebrew or Greek myths of the creation or making of the world, may be dated from the Greek philosophical commitment in the 6th and 5th centuries B.C. to a world generated by a natural causal process embodying the operation of natural laws over a long time » (Crombie, 1994). Thucydide (au Ve siècle avant JC), dans son histoire de La guerre du Péloponnèse (Livre I, xxii, p 35), annonce sa méthode, en disant que les faits seront décrits « avec toute l’exactitude possible », même si « l’absence de merveilleux dans les faits rapportés paraîtra sans doute en diminuer le charme ». « Elle [la guerre] commença entre les Athéniens et les Péloponnésiens avec la rupture du traité de trente ans conclu après la prise de l’Eubée. Pour expliquer cette rupture, j’ai commencé par indiquer, en premier lieu, les motifs et les sources de différends, afin d’éviter qu’on ne se demande un jour d’où sortit, en Grèce, une guerre pareille. En fait, la cause la plus vraie est aussi la moins avouée : c’est à mon sens que les Athéniens, en s’accroissant, donnèrent de l’appréhension aux Lacédémoniens, les contraignant ainsi à la guerre. Mais les motifs donnés ouvertement par les deux peuples, et qui les amenèrent à rompre le traité pour entrer en guerre, sont les suivants... » (op. cit., I, xxiii, p. 37). La cause profonde de la guerre est donc, selon l’historien, l’impérialisme athénien ressenti par Sparte comme menaçant. Mais Thucydide détaille d’abord ce que la traductrice appelle « les causes les plus immédiates du conflit » (op. cit., note p. 37), à savoir les affrontements indirects entre Corinthe, Lacédémone et Athènes, cherchant à étendre leurs zones d’influence respectives en se trouvant des alliés.
Sur
la polysémie du vocabulaire causal
9
La guerre fut déclarée (Livre 2) au printemps 431 [av JC]. Thucydide relate les débuts de cette guerre, puis le rôle qu’y ont joué la sécheresse, la famine, et « cette cause majeure de dommages et, en partie au moins, d’anéantissement – l’épidémie de peste » (op. cit., I, xxiii, p 37). Les Lacédémoniens envahissent l’Attique et se mettent à ravager le pays. La politique de Périclès consiste à faire replier tous les athéniens à l’intérieur de la ville d’Athènes, et à parier sur la supériorité de la flotte athénienne qui attaquera l’ennemi à revers. Cette stratégie se révèle désastreuse quand, la seconde année, la peste survient, foudroyant une ville surpeuplée où le mal n’épargne personne, à commencer par les réfugiés de la campagne, entassés dans des locaux précaires (ce qui amènera Périclès à changer de stratégie, sans l’avouer clairement). D’où vient ce mal ? « Il fit, dit-on, sa première apparition en Éthiopie, dans la région située en arrière de l’Égypte ; puis il descendit en Égypte, en Lybie et dans la plupart des territoires du grand roi. Athènes se vit frappée brusquement, et ce fut d’abord au Pirée que les gens furent touchés ; [...] puis il atteignit la ville haute ; et, dès lors, le nombre des morts fut beaucoup plus grand. » (op. cit., II, xlviii). L’historien se déclare incompétent pour dire ce qui cause la peste1. Il se limite à une description clinique de la maladie « après avoir, en personne souffert du mal, et avoir vu, en personne, d’autres gens atteints » (op. cit., II, xlviii & sq). Il parle d’épidémie, et constate que la peste fait des ravages non seulement physiques, mais moraux : « devant le déchaînement du mal, les hommes, ne sachant que devenir, cessèrent de rien respecter, soit de divin, soit d’humain » (op. cit., II, lii). Accablés par cette maladie qui sème la mort, et par la dévastation de leur territoire envahi par l’ennemi, les Athéniens s’en prennent à Périclès, lui reprochant « de les avoir décidés à la guerre et d’être cause des malheurs dans lesquels ils (sont) tombés » (op. cit, II, lix). Périclès réunit alors l’assemblée et prend la parole : « Je m’attendais à ces symptômes de colère que vous marquez envers moi, car j’en perçois les causes... » (op. cit., II, lx). Il en appelle à l’honneur des Athéniens (et s’en tire avec une amende). Platon, dans le Timée, énonce la loi (ou le principe) de causalité : « tout ce qui est engendré est nécessairement engendré sous l’effet d’une cause ; car, sans l’intervention d’une cause, rien ne peut être engendré » (Timée, 28 a). Aristote, dans la Physique, souligne qu’il « faut étudier les causes », car « nous ne pensons pas connaître les choses avant d’avoir d’abord saisi le 1
Des travaux de recherche réalisés au XXIe siècle [après JC] conduisent à l’hypothèse qu’il s’agissait d’une fièvre typhoïde, causée par une entérobactérie (salmonelle), voir : Papagrigorakis, Manolis J., Christos Yapijakis, Philippos N. Synodinos, Effie Baziotopoulou-Valavani (2006). DNA examination of ancient dental pulp incriminates typhoid fever as a probable cause of the Plague of Athens. International Journal of Infectious Diseases, 10: 206-214, (ISSN 1201-9712).
10
La
causalité dans les sciences biologiques et médicales
pourquoi de chacune » (Physique, 194 b 18). Et il détaille les diverses « manières de dire le pourquoi » : – « on appelle cause la réalité inhérente à une chose dont cette chose est faite, par exemple l’airain de la statue, l’argent de la coupe... » (cause matérielle) ; – « d’une autre manière c’est la forme et le modèle, c’est-à-dire la formule de l’être essentiel et les genres de celle-ci (par exemple, pour l’octave c’est le rapport de deux à un) ... » (cause formelle) ; – « de plus, on appelle cause le principe premier d’où part le changement ou la mise en repos, par exemple ... le père est cause de l’enfant... » (cause motrice) ; – « et on parle de cause comme du but ... par exemple si on nous demande ‘pourquoi aller se promener ? », nous répondons « pour être en bonne santé », et ayant ainsi parlé nous pensons avoir indiqué la cause. » (cause finale). « Tel est donc, en gros, le nombre de manières dont les causes se disent ; mais il arrive aussi, du fait que les causes se disent de plusieurs manières, qu’il y ait plusieurs causes d’une même chose... » (Aristote, Physique, livre II, chap. 3, 194b – 195a.). Essayons de suivre l’analyse aristotélicienne, appliquée à une maladie contemporaine. Au début des années 1980, une maladie jusque-là inconnue (une « nouvelle peste ») court dans l’ouest des États-Unis (Grmek, 1989, I, 1). De quoi, pourquoi, ces gens sont-ils malades ? – ces gens sont immunodéprimés : ils attrapent n’importe quoi, ils ont des furoncles, font des diarrhées, des pneumonies ... (cause matérielle) ; – le concept de cette maladie se forme peu à peu comme celui d’une maladie distincte, on la nomme « AIDS », ou sida (syndrome d’immunodéficience acquise) : un sigle, qui devient un nom (cause formelle) ; – mais d’où cela vient-il ? des homosexuels ? des toxicomanes ? des haïtiens ? non, cela vient d’un virus – un rétrovirus (Barré-Sinoussi et al., 1983) (cause efficiente) ; – et à quoi mène cette maladie ? (cause finale) c’est une maladie grave, elle conduit à la mort. Le virus de l’immunodéficience humaine (VIH, sous deux formes : VIH-1 et VIH-2), à partir des années 1983-85, est désigné comme la cause (efficiente) du sida, c’est-à-dire, comme ce qui entraîne (induit, provoque) la maladie. Il induit la maladie, il ne l’implique pas. Le lien causal n’est pas un lien logique
Sur
la polysémie du vocabulaire causal
11
(entre des propositions exprimées dans un langage), c’est un lien réel (entre des événements qui arrivent et qui ont l’opacité du réel). John Stuart Mill (1843) distinguait deux sortes de sciences : inductives et déductives. La recherche causale est une démarche inductive : il s’agit, à partir d’observations particulières, d’asseoir peu à peu une généralisation de la forme : « a est toujours suivi de b », d’où l’hypothèse que a entraîné b... Les sciences dites « inductives » ont été marginalisées au XIXe siècle, tandis que le modèle scientifique – avec le renouveau de la logique – se déplaçait vers les sciences « déductives » (qui d’axiomes déduisent des théorèmes), au point que Bertrand Russell ait proposé en 1912 que le mot « cause » soit éliminé du vocabulaire de la philosophie des sciences, au profit du mot « loi » : « The uniformity of nature does not assert the trivial principle “same cause, same effect”, but the principle of the permanence of laws. » (Russell, 1912). Cependant, un historien des sciences comme William Whewell avait distingué un genre de sciences, qu’il appelait sciences palétiologiques (préhistoire humaine, philologie, géologie) dont l’objet est de remonter dans le temps, et de reconstituer la façon dont l’état présent des choses a pu dériver de l’état ancien (dériver n’est pas déduire) : « I have already stated in the History of the sciences that the class of Sciences which I designate as Palœtiological are those in which the object is to ascend from the present state of things to a more ancient condition, from which the present is derived by intelligible causes. » (Whewell, 1847). Antoine A. Cournot, bien que réservé sur le caractère réellement scientifique du travail des historiens, distingue clairement ce que fait l’historien de ce que fait le philosophe : « L’étiologie historique consiste dans la recherche et la discussion des causes dont l’enchaînement compose la trame historique, [...] la philosophie de l’histoire s’enquiert de la raison des événements plutôt que de la cause des événements. » (Considérations..., OC IV, p. 14-15). L’interdit lancé par Russell n’a plus cours. Depuis la fin du XXe siècle, les séries causales : séquences, cycles, cascades, chaînes, scénarios, abondent dans les publications scientifiques, ainsi que les flèches dans les diagrammes (à ne pas confondre avec la flèche des logiciens, signe de l’implication). En 2002 la revue Science publiait un article intitulé « cascades moléculaires », qui décrivait un mode de propagation de l’influence causale : « Carbon monoxide molecules were arranged in atomically precise configurations, which we call ‘molecule cascades’, where the motion of one molecule causes the subsequent motion of another, and so on in a cascade of motion similar to a row of toppling dominoes. » (Heinrich et al., 2002).
12
La
causalité dans les sciences biologiques et médicales
La même revue signale, dans son numéro du 20 janvier 2017 (Science), une étude mettant en évidence la diversité de la « cascade hématopoiétique », c’est-à-dire, le fait que les cellules souches destinées à donner des hématies (globules rouges) ont des parcours causals différents selon leur origine (moelle, sang, cordon). Comment procède l’enquête étiologique ? Cette recherche a un côté « détective ». Il faut identifier les voies par lesquelles l’influence passe, reconstruire la « chaîne » des événements, imaginer les scénarios et leurs variantes. Le premier (et crucial) présupposé de la recherche causale est que tout n’est pas lié à tout. Ignaz Semmelweis a observé que les femmes ayant accouché dehors, avant d’arriver à l’hôpital, contractent une fièvre puerpérale beaucoup moins souvent que celles qui accouchent à l’hôpital avec l’aide des médecins. Il en a conclu que les mains sales des médecins qui pratiquent l’accouchement sont ce qui est cause de la fièvre. Mais en pratiquant l’accouchement, le médecin touche l’enfant aussi bien que la mère. Or l’enfant, même saisi par des mains sales, ne tombe pas malade si la mère n’a pas contracté la fièvre. Pourquoi ? C’est la mère qui saigne. Si le facteur causal passe par le sang, l’enfant est secondairement contaminé, par le cordon ombilical et le placenta qui le lient à sa mère. « The fetus, as yet unborn and in the birth canal, does not resorb foul animal-organic matter when it is touched by the examiner’s contaminated fingers, but only when its blood is organically mixed with the mother’s blood that has already become contaminated. This explains why an infant never dies of childbed fever while the mother remains healthy; childbed fever does not arise in the newborn through direct resorption. Both become ill while the child and mother are in organic interchange through the placenta... » (Semmelweis, 1861). Le second présupposé de la recherche causale est que l’effet ne précède pas la cause : « after cannot cause before ». Ainsi la chronologie permet d’écarter des hypothèses jugées absurdes, justement parce qu’elles impliqueraient que l’effet (ex. la maladie infectieuse) se serait déclaré avant la cause putative (la contagion). C’est la seule propriété « logique » de l’ordre causal. Par ailleurs, le lien causal n’est ni réversible, ni transitif : de ce que A cause B il ne résulte pas que B cause A ; et de ce que A cause B et B cause C, on ne saurait conclure sans précautions que A cause C : par exemple, du fait que les virus HIV sont la cause de l’épidémie de sida, et que l’épidémie de sida a provoqué une explosion des cas de sarcome de Kaposi, il ne découle pas que le sarcome de Kaposi est causé par les virus HIV. En réalité, le sarcome de Kaposi est un cancer décrit dès la fin du XIXe siècle, reconnu comme endémique en Afrique de l’est depuis le milieu du XXe siècle, et dont l’agent causal est un herpès virus humain (HHV8). En fragilisant les défenses immunitaires, les virus HIV ont seulement facilité sa réémergence.
Sur
la polysémie du vocabulaire causal
13
Retenons que la dérivation causale (entre événements) est autre que la dérivation logique (entre propositions formulées dans un langage). La cause explique l’effet, non parce qu’elle l’implique (logiquement), mais parce qu’elle contribue à le produire (réellement). L’ordre causal n’est pas logique, il est factuel. Établir un lien causal entre deux faits ou événements, c’est mettre en évidence la suite des faits qui conduit naturellement de l’un à l’autre, d’où la notion de « chaîne causale » : « One event is a cause of another if, and only if, there exists a causal chain leading from the first to the second. » (Lewis, 1973). Comment s’assurer de la réalité, et de la solidité, d’une dépendance causale ? Il faut expérimenter, tester chaque maillon de la chaîne. Un exemple : les tomates aujourd’hui commercialisées ont été sélectionnées sur des critères de bonne conservation, mais les consommateurs se plaignent qu’elles n’ont pas de goût. Le séquençage systématique et comparatif de diverses variétés de tomates a permis de discerner quels éléments du génome, présents dans les tomates sauvages, et perdus dans les variétés cultivées, génèrent la présence de substances (sucrées, acides, volatiles) qui flattent le goût et l’odorat humains, laissant entrevoir pour demain la possibilité de restituer aux tomates leur bon goût en corrigeant leur génome (Tieman et al., 2017). La chaîne causale peut être longue et compliquée, voire touffue ; elle peut aussi sembler ténue, ou se perdre. On mit beaucoup de temps à suspecter, puis admettre, que le cancer de la plèvre (mésothéliome) était dû à une exposition à l’amiante, quand des dizaines d’années séparaient le diagnostic du cancer (chez un retraité) de cette exposition (datant de ses années dans la marine nationale), aucun signe n’ayant été relevé dans l’intervalle qui pût annoncer la maladie future (Lenglet, 1996). Il arrive qu’on décide de croire à l’existence d’un lien causal sur la foi d’indices convergents, avant d’avoir entièrement élucidé le détail du processus. Ce fut le cas pour la nocivité du tabac : « The conclusion that cigarette smoke is a direct cause of cancer derives from many different types of epidemiological evidence, combined with the fact that the smoke can cause cancer in experimental animals. » (Doll et Peto, 1981). L’enquête causale n’est pas seulement laborieuse, elle peut aussi choquer. Le jeune P.-C. Bongrand, dans sa thèse de médecine, mentionnait nombre de tentatives faites pour établir comment une maladie infectieuse se contracte ou se transmet, par exemple : « Waller, en 1851, fait deux inoculations de sang et de pus [prélevés sur des malades de la syphilis] sur des sujets indemnes de syphilis, en traitement à
14
La
causalité dans les sciences biologiques et médicales
l’hôpital, l’un pour un lupus, l’autre pour la teigne, pour vérifier la contagiosité de la syphilis secondaire. » (Bongrand, 1905, p. 15). La syphilis, à l’époque, ne se guérissait pas. Qui peut se prévaloir d’un droit d’expérimenter sur l’un de ses semblables, et ce faisant de mettre en danger sa santé ? Bongrand observe que Claude Bernard, créateur de la médecine expérimentale, faisait « de l’à-peu-près », en s’autorisant à « conclure toujours de l’animal à l’homme ». Pour être rigoureusement scientifique, selon Bongrand, « l’expérience sur l’homme est, dans certains cas, indispensable » (Bongrand, 1905, p. 32, 76). Mais elle doit se donner des règles, des limites, une éthique. Cent ans après la thèse de Bongrand, l’essai sur l’animal, lui aussi, requiert une méthodologie explicite, et une éthique. Il y a dans la recherche causale de l’impertinence, parce qu’en démêlant l’écheveau des liens de cause à effet, on se donne les moyens d’en modifier le cours. Il n’y a pas de « nécessité » causale quand la connaissance permet de déjouer les ruses de la nature. Les chaînes causales sont fragiles. Elles peuvent être coupées, déviées, ou améliorées, par des techniques humaines. Prenons l’exemple des médicaments. Lorsque l’épidémie de sida s’est déclarée, au début des années 1980, la contamination par le virus menait inexorablement l’être humain à la mort. On a cherché des substances susceptibles d’interférer avec ce processus. Une série d’essais internationaux, contrôlés, randomisés, conduits sur des milliers de patients informés et consentants, a permis peu à peu de valider des stratégies gagnantes, qui, trente ans plus tard, font du sida une maladie compatible avec une espérance de vie à peu près normale. Cela a demandé du temps, du travail, du dévouement. Notons que les patients ayant participé aux essais avaient pris le risque de la recherche, et que la génération suivante a bénéficié des résultats. Certains êtres humains préfèrent « laisser faire la nature », plutôt que de chercher à la corriger. Ivan Illich choisit de mourir de son cancer plutôt que de chercher un recours dans la médecine. D’autres, comme Louis Pasteur, sont fiers de saisir une occasion de braver la nature. Quand le jeune Joseph Meister est amené au laboratoire, Louis Pasteur hésite : il n’a encore expérimenté son vaccin antirabique que sur l’animal... Il prend l’avis de Vulpian : « Vulpian exprima l’avis que les expériences de Pasteur sur les chiens étaient suffisamment concluantes... » (Vallery-Radot, 1923, p. 601). Ils décident donc de lancer la série des inoculations, par lesquelles ils risquaient autant de donner la rage à l’enfant s’il ne l’avait pas, que de l’arracher à la mort si le chien en le mordant l’avait contaminé. L’enfant survécut. Pasteur rêva d’avoir accompli « un des grands faits médicaux du siècle » (ibid., p. 603).
Sur
la polysémie du vocabulaire causal
15
Pasteur a-t-il réellement guéri le jeune Joseph ? On en a douté, on en doute encore (Louis Pasteur, un faux sauveur ? – en ligne, par https://www.google.fr). Que Joseph se soit senti mieux après les inoculations ne signifie pas qu’il allait mieux à cause des inoculations. Une série temporelle se donne facilement pour une séquence causale, la tentation existe de glisser de « B suit A », vers « A se produit, B s’ensuit », mais en réfléchissant on voit l’erreur. La succession ne suffit pas à établir la causalité. Alors se pose la question : qu’est-ce qui prouve le caractère causal de la succession ? Y a-t-il, dans les séries causales, des marques qui les distinguent des séries temporelles, des signes attestant de la transmission d’une « influence » causale ? Distingue-t-on dans l’effet une trace de la cause ? Wesley Salmon, qui a beaucoup travaillé à préciser ce qu’on appelle un « processus causal », pensait que c’est le cas : « Causal processes are distinguished from pseudo-processes in terms of their ability to transmit marks. In order to qualify as causal, a process need not actually be transmitting a mark; the requirement is that it be capable of doing so » (Salmon, 1984). L’exploration des processus causals fournit un aperçu de la façon dont la nature est construite. En intervenant sur ces processus nous participons structurellement à l’évolution naturelle. Les liens causals constituent la trame d’un univers qui nous dépasse. La maîtrise de ces liens témoigne du pouvoir sur la nature que nous donne la science.
Pour une analyse plus détaillée, voir (du même auteur) About causation in medicine: some shortcomings of a probabilistic account of causal explanations, in: L. Nordenfelt & B.I.B. Lindahl, eds., Health, Disease and Causal Explanations in Medicine, Dordrecht, Kluwer-Reidel, 1984, 101-126. Les causes de la mort. Histoire naturelle et facteurs de risque, Coll. Science, Histoire, Philosophie, Paris, Vrin, 1989. Quelques implications de la recherche étiologique. Sciences Sociales et Santé, 1992, X (3) : 33-45. Épidémiologie et causalité, in: AJ. Valleron, Dir., L’épidémiologie humaine. Conditions de son développement en France et rôle des mathématiques, Académie des sciences, RST n° 23, Paris, EDP sciences, 2006, chap. 7, 237-245. Chemins causals, chaînes causales, in : Grignon C. & Kordon C., éds., Sciences de l’homme et sciences de la nature, Paris, Editions de la Maison des Sciences de l’Homme, 2009, 109-139.
16
La
causalité dans les sciences biologiques et médicales
Références Aristote. Œuvres complètes, tr fr, dir. Pierre Pellegrin, Paris, Flammarion, 2014. Barré-Sinoussi F. & Montagnier L. (1983). Isolation of a T-lymphotropic Retrovirus From a Patient at Risk for Acquired Immune Deficiency Syndrome (AIDS). Science, vol. 4599, n° 220, p. 868-71. Bongrand P.C. (1905).Notes historiques concernant les « Expériences sur l’homme ».F.M. Paris, 52, 89-91 ; 109-11 ; 131-132. Buser P. (2013). Neurophilosophie de l’esprit. Ces neurones qui voudraient expliquer le mental. Paris, Odile Jacob. Cournot A.A. (1872). Considérations sur la marche des idées et des événements dans les temps modernes, Paris, Hachette ; repr. Oeuvres complètes, tome IV, Paris, Vrin, 1973. Crombie A.C. (1994). Styles of Scientific Thinking in the European Tradition: The history of argument and explanation especially in the mathematical and biomedical sciences and arts. London, Duckworth, vol. III, Part VII, chap. 21, p. 1551-1552. Doll R. & Peto R. (1981). The Causes of Cancer. Quantitative Estimates of Avoidable Risks of Cancer in the United States Today. J. Natl. Cancer Inst., 66(6):1191-308. Oxford, UK, Oxford University Press,. p. 1220. Grmek Mirko D. (1989). Histoire du sida. Début et origine d’une pandémie actuelle. Paris, Payot ; 2e éd revue et augt., 1990. Heinrich A.J. et al. ( 2002). Molecule Cascades. Science, Vol. 298, n° 5597, p. 1381-1387. Lenglet R. (1996). L’affaire de l’amiante, Paris, La Découverte. Lewis D. (1973). Causation. The Journal of Philosophy, 70: 556-567. Mill John Stuart (1843). Système de logique déductive et inductive, Engl.; tr fr Louis Peisse à partir de la 6e édition britannique de 1865. Paris : Librairie philosophique de Ladrange, 1866. Papagrigorakis M. J., Yapijakis C., Synodinos P. N. & Baziotopoulou-Valavani E. (2006). DNA examination of ancient dental pulp incriminates typhoid fever as a probable cause of the Plague of Athens. International Journal of Infectious Diseases, 10: 206-214 (ISSN 1201-9712). Platon. Oeuvres complètes, tr fr, dir. Luc Brisson, Paris, Flammarion, 2008.
Sur
la polysémie du vocabulaire causal
17
Queneau R. (1959). Zazie dans le métro. Paris, Gallimard. Russell B. (1912-1913). On the notion of cause. Proceedings of the Aristotelian Society, New series, vol 13 p. 1-26. Salmon Wesley C. (1984). Scientific Explanation and the Causal Structure of the World, Princeton University Press, chap. 5, p. 147. Science, Research in science journals, ‘Hematopoiesis : DNA methylation in hematopoietic cascade’, 20 Jan 2017, Vol. 355, 6322 : 258-259. Semmelweis I.F. (1861) Die Aetiologie, der Begriff und die Prophylaxis des Kindbettfiebers, Budapest ; Engl. tr. ‘The etiology, concept, and prophylaxis of childbed fever’, in: Buck Carol, Llopis Alvaro, Nàjera Enrique, Terris Milton, eds., The Challenge of Epidemiology. Issues and Selected Readings, Washington DC, PAHO-WHO, 1988, Scientific Publication n° 505. Thucydide, La guerre du Péloponnèse, texte et tr. Jacqueline de Romilly, Paris : Les Belles Lettres, 2014. Tieman et al. (2017). A chemical Genetic Roadmap to Improved Tomato Flavor. Science, 355 (6323) p. 391-394. Vallery-Radot R. (1923). La vie de Pasteur. Paris, Hachette, 692 p. Whewell W. (1840). The Philosophy of the Inductive Sciences, Founded upon their History. London: Parker ; 2nd ed. corrected, 1847, Chap 1, 1. ; 3rd ed. 1858-60. Facsimile reproduction (2nd ed.), London, Frank Cass, 1967.
Chapitre 2
La causalité en médecine Jean-François Bach Il est naturel, pour chacun d’entre nous, de rechercher une cause à tout événement. Cela est particulièrement vrai en médecine. La réponse est parfois simple et sans équivoque. Une cause s’impose à l’évidence, qu’elle soit de nature génétique ou environnementale. Il est d’autres cas où aucune cause ne s’impose. La situation est alors en général complexe. L’accent est souvent mis sur la chronologie des événements, très frappante mais ne prouvant en rien un lien de causalité. Cette démarche conduit souvent à l’erreur, particulièrement chez un public mal informé, comme dans le cas caricatural des effets secondaires des vaccinations. Dans d’autres cas, enfin, on ne retrouve pas une cause précise. En fait, de nombreuses maladies ont une origine multifactorielle associant des facteurs de prédisposition génétiques, épigénétiques et environnementaux. C’est un ensemble de facteurs qui provoque la maladie ou favorise sa progression sans qu’aucun d’entre eux ne puisse le faire à lui seul. Ces situations complexes peuvent être beaucoup mieux analysées que dans le passé grâce aux progrès de la génétique et de la biologie, mais aussi de l’épidémiologie ou d’autres disciplines. Souvent, une grande incertitude persiste cependant, d’autant plus regrettable qu’il est toujours préférable d’agir sur la cause que sur les symptômes. Cette complexité est discutée dans le cadre d’une maladie prototype, le diabète insulinodépendant, pour laquelle la recherche de la causalité a été particulièrement documentée.
20
La
causalité dans les sciences biologiques et médicales
Introduction La causalité a toujours été un thème majeur de la médecine. Il est essentiel de connaître la cause d’une maladie, non seulement pour lui apporter le meilleur traitement possible mais aussi pour mettre en œuvre les meilleurs tests diagnostiques. Chacun sait qu’il est dangereux de traiter une fièvre par des antibiotiques sans connaître la cause de la fièvre. Il ne faut pas, pour autant, se réserver d’intervenir quand on ne connaît pas la cause. C’est malheureusement le cas le plus fréquent dans la plupart des disciplines médicales. Les patients, mais aussi trop souvent les médecins, sont frappés par la chronologie des événements. Certes, l’interrogatoire du malade est essentiel pour retracer l’historique de la maladie. Il n’en faut pas moins résister à la tentation de lier deux événements consécutifs dont la succession peut être une simple coïncidence. Ce point essentiel est bien illustré par la polémique qui est apparue autour des effets secondaires de certaines vaccinations. Des cas de sclérose en plaques ont été observés chez des sujets ayant récemment reçu une vaccination contre l’hépatite B. Certains neurologues s’en sont inquiétés à juste titre. Des études épidémiologiques à grande échelle ont cependant montré que cette chronologie ne correspondait pas à un lien de causalité. En effet, la fréquence de la sclérose en plaques n’est pas plus élevée chez les sujets ayant récemment été vaccinés contre l’hépatite B que dans la population générale. Le fait épidémiologique est bien démontré (Ascherio et al., 2001) mais le doute demeure dans l’esprit de nombreux sujets, ce qui malheureusement contribue à la défiance actuelle envers les vaccinations. La même remarque peut s’appliquer à la myofasciite à macrophages et aux troubles neurologiques imputés à l’aluminium contenu dans de nombreux vaccins. Avant d’aller plus loin il convient, sans doute, de préciser certains termes dont l’usage est souvent inadéquat. L’étiologie est la recherche de la cause et non pas la cause. La cause n’est pas la pathogénie ou la physiopathologie. Celles-ci correspondent aux mécanismes de la maladie indépendamment de la cause. Une prédisposition peut favoriser l’apparition d’une maladie, sans en être la cause, comme en témoigne le fait qu’heureusement très souvent la prédisposition n’est pas suivie de la survenue de la maladie. Il en est de même pour le risque, qui est défini par une augmentation de la fréquence de la survenue de la maladie, sans que celle-ci soit obligatoire.
1
Des cas apparemment simples
Il existe des situations apparemment faciles où la cause semble s’imposer. C’est le cas des maladies infectieuses quand on connaît l’agent pathogène
La
causalité en médecine
21
responsable de la maladie. C’est également le cas des maladies génétiques monogéniques quand on connaît la mutation ou l’anomalie génétique en cause. Cependant, même dans ces cas, la situation n’est pas aussi simple qu’elle pourrait le paraître. Dans le cas des maladies infectieuses, on sait que, dans une épidémie, tous les sujets ne sont pas atteints ou pas de la même façon, sans doute le plus souvent en raison d’un facteur génétique. En tout état de cause, cependant, c’est l’agent infectieux qui est la cause de la maladie même si, dans certains cas, seuls les sujets présentant une mutation donnant lieu à un déficit immunitaire particulier sont atteints par la maladie, avec d’ailleurs souvent une expression sévère (Casanova, 2015). Cette situation reste une exception et d’ailleurs la plupart des sujets porteurs des mutations en question ne présentent pas de susceptibilité à d’autres maladies infectieuses que celle associée à la mutation. S’agissant des maladies génétiques monogéniques se pose la question de la pénétrance. Si dans certains cas tous les individus porteurs de la mutation présentent la maladie, il est d’autres cas où l’expression de la maladie est très variable d’un sujet à l’autre, tant pour la sévérité que pour l’âge de survenue. Il arrive même qu’en dépit de la présence de la mutation, la maladie n’apparaisse pas. Les facteurs influençant la pénétrance sont multiples et souvent incompris. Il peut s’agir de certains gènes interagissant avec le gène dont la mutation est responsable de la maladie. C’est ce qu’on appelle l’épistasie. Dans d’autres cas, ce sont des facteurs de l’environnement qui modulent l’expression de la maladie.
2
Les maladies complexes
Très souvent, les maladies sont multifactorielles. Il peut s’agir, dans les cas les plus simples, de l’effet combiné de plusieurs facteurs identifiés. C’est, en quelque sorte, la situation d’un accident d’avion ou plusieurs causes s’ajoutent, souvent cinq à six par exemple, sans que chacune d’entre elles, voire une association de plusieurs d’entre elles, suffise à entraîner l’accident. Cette situation est particulièrement observée en médecine lorsqu’un facteur extérieur intervient. Les patients atteints de maladie cœliaque ne déclenchent leur maladie que s’ils ingèrent du gluten mais, bien sûr, tous les individus qui ingèrent du gluten n’ont pas les symptômes de la maladie cœliaque. En fait, la situation est encore plus complexe dans la plupart des cas avec l’intrication mal définie de facteurs génétiques et environnementaux.
22
3
La
causalité dans les sciences biologiques et médicales
La génétique
Les facteurs génétiques peuvent s’exprimer de façons très diverses. La prédisposition, osons utiliser le terme de cause dans certains cas, peut être inscrite dans le génome issu des parents. C’est le cas des maladies héréditaires, qu’elles soient monogéniques ou polygéniques. Encore faut-il remarquer que, dans ce dernier cas le facteur génétique peut être suffisamment peu exprimé pour que l’hérédité n’apparaisse pas au sein des familles. La place de l’hérédité dans la maladie est alors souvent limitée mais, néanmoins, très significative. Le grand problème est, aujourd’hui, de déterminer les gènes et les mécanismes qui sont le support du contrôle génétique des maladies ayant une composante héréditaire. Un grand espoir est né avec l’émergence des techniques modernes de la génomique. Des efforts considérables ont été consacrés à l’identification, sur des cohortes de plusieurs milliers de malades, des gènes de prédisposition en utilisant des techniques de plus en plus sophistiquées permettant le criblage du génome (GWAS) (Fortune et al., 2015). Plus de 50, parfois plus de 100 locus, ou plus précisément de régions chromosomiques, ont été identifiées pour les principales maladies complexes de grande fréquence mais chaque fois avec un risque relatif extrêmement faible dépassant rarement 1,5. Plusieurs explications peuvent être proposées pour expliquer ce qui doit être considéré comme un échec ou, pour le moins, une grande déception, dans la mesure où très peu de gènes de prédisposition ont pu être directement incriminés et où, en fait, l’ensemble des gènes reconnus ne couvre probablement pas plus que 25 à 40 % de l’héritabilité de ces maladies. La première explication, la plus simple, est qu’il pourrait exister une très grande hétérogénéité génétique de la maladie. Il est difficile, cependant, d’admettre que chaque malade a son propre profil génétique. Peut-être aussi la technique du GWAS utilisée laisse passer des gènes importants, qu’il s’agisse de variants rares ayant une contribution majeure pour la survenue de la maladie ou, au contraire, de gènes éventuellement plus fréquents mais ayant une pénétrance faible ou modérée. Certains de ces variants pourraient apparaître au premier stade du développement, comme le suggère l’observation de variants (mutations) différant chez deux jumeaux monozygotes. On peut aussi imaginer que la technique du GWAS est défaillante car elle ne prend pas en compte d’autres anomalies génétiques que les polymorphismes (SNPs) telles que des répétitions de séquences ou des variants structuraux (délétions ou insertions de grande taille). Le rôle des interactions entre les gènes, l’épistasie, évoquée plus haut, n’a sans doute pas encore été assez pris en considération. En tout état de cause, il faut admettre que ces différentes hypothèses abordées depuis quelques années par les techniques plus récentes de la génétique n’ont pas permis de combler de façon significative ce qu’il est convenu d’appeler l’héritabilité manquante.
La
causalité en médecine
23
Certaines caractéristiques génétiques peuvent ne pas être innées mais acquises comme dans le cas de l’épigénétique (Koch et al., 2013). On sait que l’environnement peut modifier l’expression des gènes par des marques biochimiques indépendantes de la séquence de l’ADN. L’épigénétique peut expliquer la transmission transgénérationelle de certains caractères acquis qui semblent associés à des marques épigénétiques transmises d’un parent à un enfant. Il convient enfin de citer le métagénome, en particulier celui du microbiote intestinal. On sait, en effet, qu’une réduction de la diversité du microbiote intestinal est associée à certaines maladies, comme l’obésité, le diabète de type 2, certaines maladies auto-immunes et allergiques (Kostic et al., 2015). Il reste, cependant, à démontrer la relation de causalité entre ces modifications du microbiote et la survenue de la maladie. Plusieurs données indiquent que dans certains cas c’est la maladie, en particulier l’inflammation, qui contribue à modifier la composition du microbiote et non l’inverse.
4
L’environnement
L’effet de l’environnement est, bien sûr, essentiel mais également très complexe. Le rôle de l’environnement conçu par l’écologiste ou l’écologue se réfère essentiellement au contexte physique, chimique ou climatique dans lequel vit l’individu. Pour le généticien, beaucoup d’autres facteurs interviennent notamment l’ensemble des facteurs qui font que lorsqu’il existe une hérédité forte dans certaines maladies polygéniques, le taux de concordance pour la maladie entre deux jumeaux monozygotes ne dépasse que rarement 40 à 50 % alors que l’environnement dans lequel vivent des jumeaux monozygotes et très proche, au moins dans l’enfance. Ces facteurs personnels incluent le comportement individuel, en particulier l’alimentation et l’utilisation de certains produits addictifs, notamment l’alcool et le tabac. Ils incluent également les relations personnelles de l’individu avec d’autres sujets, le contexte éducatif et plus généralement culturel. Le rôle de l’environnement dans la genèse du diabète insulinodépendant a été l’objet de très nombreuses études. Des travaux majeurs ont été consacrés depuis plus de 20 ans à la recherche d’un virus causal. L’attention s’est particulièrement portée sur les entérovirus du type Cocksakie. Certains arguments épidémiologiques, sérologiques ou même moléculaires ont été rassemblés mais ne sont pas convainquants. Il en est de même dans d’autres maladies auto-immunes comme la sclérose en plaques où, pourtant, la pathogénie serait très compatible avec une infection virale déclenchant secondairement une maladie auto-immune. Peut-être l’infection est-elle survenue très longtemps avant la découverte de la maladie, ce qui explique que ses stigmates soient
24
La
causalité dans les sciences biologiques et médicales
difficiles à identifier ? Peut-être aussi l’infection causale est-elle assez peu spécifique, c’est-à-dire très largement répandue dans la population ? Ce serait alors la réponse individuelle du malade à l’infection virale qui serait à l’origine de la maladie. Les infections peuvent avoir un tout autre rôle non plus déclenchant mais protecteur. Nous avions été frappés, il y a quelques années, par le fait qu’au moment où la fréquence des maladies infectieuses diminuait, on voyait parallèlement augmenter celle des maladies auto-immunes et allergiques. Nous avons réuni de très nombreux arguments tant dans le domaine expérimental que chez l’homme, indiquant une relation de cause à effet entre ces deux observations (Bach, 2002). Ainsi, chez la souris « Non Obese-diabetic » (NOD), la maladie (un diabète insulinodépendant) a une fréquence modérée lorsque les conditions sanitaires dans lesquelles les souris sont élevées ne sont pas excellentes. Il suffit alors de décontaminer les souris, en les faisant naître par césarienne puis en les mettant dans un isolateur, pour voir dès la génération suivante s’élever la fréquence de la maladie à plus de 90 % chez la femelle. Il suffit aussi chez ces souris « propres » de les infecter par divers bactéries, virus ou parasites pour prévenir complètement la survenue de la maladie. Il existe pour le diabète, comme pour la sclérose en plaques et les maladies inflammatoires de l’intestin, de grandes différences de fréquence selon les régions du globe. Les fréquences élevées sont parallèles à celle du niveau socio-économique. Lorsque des individus migrent d’un pays de basse fréquence vers un pays de haute fréquence, leurs enfants vont développer la maladie avec la fréquence du pays qui les a accueillis (Dean et Elian, 1997).
Conclusions Au-delà de cette complexité, il faut bien reconnaître qu’il existe de très nombreuses maladies pour lesquelles aucune cause n’est évoquée. C’est notamment le cas de maladies neurologiques comme la sclérose latérale amyotrophique (la maladie de Charcot) ou la maladie d’Alzheimer. Comment peut-on expliquer cette situation ? Simplement parce que les connaissances sont insuffisantes ou absentes ? Peut-être aussi la complexité dépasse-t-elle les approches scientifiques actuelles ? Mais peut-être également n’y a-t-il pas vraiment de cause, aussi dérangeante que cette hypothèse puisse être. À ce stade, peut-être convient-il de se référer aux travaux de mathématiciens célèbres, tels que Pierre-Simon de Laplace et Henri Poincaré, qui ont montré comment un événement relativement mineur pouvait à terme, par un enchaînement de phénomènes prévisibles et en tout cas explicables par les lois de la physique et de la chimie, conduire à un événement dont on arrive
La
causalité en médecine
25
plus dès lors à démêler l’origine. C’est la base de la théorie du chaos ou à un certain degré de ce que l’on a appelé, après Edward Lawrence, l’effet papillon. Il faut bien reconnaître, cependant, que cette théorie est difficile à tester en médecine où la plupart des maladies évoluent sur de très nombreuses années, rendant difficile l’identification d’un événement initial éloigné. Sans doute faut-il se résoudre à admettre que certaines maladies puissent être d’origine stochastique, dues au hasard. Cette possibilité a été largement discutée à propos de la survenue de certaines mutations somatiques chez des patients atteints de cancer. Mais l’instabilité génétique est-elle due au hasard ? Peut-être est-elle due à des causes qui nous échappent ? Terminons par deux citations fameuses. La première, est d’Albert Einstein : « le hasard est le nom que prend Dieu lorsqu’il veut rester anonyme ». La seconde, peutêtre moins hasardeuse, est de Jean Baudriard : « le hasard est le purgatoire de la causalité ».
Références Ascherio A., Zhang SM., Hernan MA., Olek MJ., Coplan PM., Brodovicz K. et al. (2001). Hepatitis B vaccination and the risk of multiple sclerosis. N. Engl. J. Med., 344: 327-32. Bach JF. (2002). The effect of infections on susceptibility to autoimmune and allergic diseases. N. Engl. J. Med., 347: 911-20. Casanova JL. (2015). Severe infectious diseases of childhood as monogenic inborn errors of immunity. Proc. Natl. Acad. Sci. USA, 112: E7128-37. Dean G. & Elian M. (1997). Age at immigration to England of Asian and Caribbean immigrants and the risk of developing multiple sclerosis. J. Neurol. Neurosurg. Psychiatry, 63: 565-8. Fortune M.D., Guo H., Burren O. et al. (2015). Statistical colocalization of genetic risk variants for related autoimmune diseases in the context of common controls. Nat Genet., 47(7): 839-46. Koch M.W., Metz L.M. & Kovalchuk O. (2013). Epigenetic changes in patients with multiple sclerosis. Nat. Rev. Neurol., 9: 35-43. Kostic A.D., Gevers D., Siljander H., Vatanen T., Hyotylainen T., Hamalainen A.M. et al. (2015). The dynamics of the human infant gut microbiome in development and in progression toward type 1 diabetes. Cell. Host. Microbe, 17: 260-73.
Chapitre 3
Les postulats de Koch Maxime Schwartz Introduction Tous les biologistes connaissent les postulats de Koch. Il s’agit des règles à suivre pour démontrer qu’un microorganisme est la cause d’une maladie. En termes simples, ces règles sont les suivantes : – ce microorganisme doit être retrouvé chez tous les hôtes affectés par la maladie ; – ce microorganisme doit être isolé à partir de l’hôte malade et cultivé en dehors de lui dans un milieu adéquat ; – le microorganisme ainsi cultivé doit provoquer la maladie chez un animal sain ; – le microorganisme doit pouvoir être ré-isolé à partir de cet animal rendu malade par l’inoculation. Après avoir rappelé l’évolution des idées qui ont conduit à l’énoncé de ces postulats, il sera procédé à une analyse critique de leur validité, à l’époque de Robert Koch, puis par la suite, y compris à l’époque actuelle. Enfin, on se demandera si on peut agir sans connaître les causes d’une maladie.
28
1
La
causalité dans les sciences biologiques et médicales
Histoire des idées sur les causes des maladies
Depuis l’Antiquité, l’homme a tenté de comprendre l’origine des maladies qui le frappaient, lui et les animaux domestiques, particulièrement lorsqu’il s’agissait d’épidémies. L’objectif était certainement, au moins en partie, de tenter de s’en protéger. Le plus souvent, on invoquait les puissances divines. Ainsi, lorsque la peste noire emporta en sept ans, de 1346 à 1353, au moins vingt-cinq millions de personnes, soit entre le quart et le tiers des habitants de l’Europe, les populations touchées croyaient à une intervention surnaturelle : c’était à la colère des dieux qu’ils devaient le mal, ou bien à l’influence des constellations, des comètes, des éclipses. Ceux qui ne se satisfaisaient pas de l’intervention de telles forces surnaturelles incriminaient l’environnement et ses « miasmes », ou bien ce que l’on appellerait aujourd’hui des « comportements à risque ». Du fait qu’il était souvent difficile d’incriminer une seule cause environnementale ou comportementale, on en incriminait plusieurs, au choix. Voici un exemple qui prête particulièrement à sourire, parmi de très nombreux. En 1848, le vétérinaire Roche Lubin (1848) propose l’explication suivante pour l’apparition de la tremblante2, dans les troupeaux de moutons : « En conséquence, dans notre contrée, les causes de la tremblante sont : l’abus de copulation chez les béliers, les rudes combats qu’ils livrent entre eux, l’emploi soutenu des provendes (nourritures) excitantes, les sauts, les efforts violents, les courses rapides provoquées par les poursuites des chiens, les grands éclats de tonnerre, les fortes insolations après les premiers jours de tonte, le retour fréquent des chaleurs chez les bêtes infécondes, etc. Je n’ai jamais observé la tremblante en dehors de l’existence d’une de ces causes qui, sans doute, altèrent plus ou moins l’économie, en réagissant d’une manière plus ou moins lente, mais graduée, sur le système nerveux. » Mais quel est le mouton qui n’aurait pas été soumis à une ou plusieurs de ces causes ? Enfin, et cette hypothèse devait être plus fertile, on incrimine la contagion, que chacun peut percevoir durant les épidémies, et celle-ci fait émerger l’idée que quelque chose doit être transmis du malade à l’homme sain, et qui le rend malade à son tour. Cependant, la nature de ce « quelque chose » demeure on ne peut plus vague. Quelques grands esprits approchent très près de la vérité. Plus que tout autre, durant la Renaissance, au milieu du XVIe siècle, Jérôme Fracastor, médecin à Vérone, a l’intuition de l’existence de microorganismes, les seminaria contagionis comme agents étiologiques 2 On sait aujourd’hui que la tremblante, tout comme la maladie dite de la vache folle chez les bovins et la maladie de Creutzfeldt-Jakob chez l’homme, est une maladie infectieuse à prions.
Les
postulats de koch
29
de maladies. Cependant la nature de ceux-ci lui demeure inconnue. Pour aller plus loin, il ne lui manque qu’une seule chose : voir ces fameux seminaria. Il lui aurait fallu un microscope.
1.1. Le microbe3 comme cause des fermentations Les premiers microscopes ont été inventés un demi-siècle plus tard par des opticiens hollandais, puis progressivement améliorés dans le courant du XVIIe siècle. Parmi ceux qui contribuèrent à cette amélioration figure le hollandais Antonie Van Leeuwenhoek, marchand drapier de son état, qui entreprend d’utiliser systématiquement les microscopes qu’il a construits pour examiner des objets biologiques. Il décrit ainsi toutes sortes d’êtres microscopiques, qu’il appelle des « animalcules », par exemple dans les dépôts interdentaires, dans l’eau des mares, dans son sang ou dans son sperme, et rapporte ses observations dans des lettres qu’il envoie entre 1673 et 1723 à la Royal Society de Londres. Même s’il est le premier à ouvrir une lucarne sur le monde de l’infiniment petit, ses découvertes sont longtemps restées des curiosités dont personne ne parut comprendre l’importance. Il faut attendre le milieu du XIXe siècle, et notamment les travaux de Pasteur, pour que soit reconnu le rôle central que ces animalcules jouent dans la biosphère, à commencer par leur rôle dans les fermentations. Les premiers travaux de Pasteur sur le sujet le conduisent à conclure que les fermentations résultent de l’action de microorganismes. Bien plus, il montre que chaque fermentation est due à un type de microorganisme particulier. Nous voici déjà dans une démarche d’établissement d’une relation de causalité : on trouve toujours le même microorganisme lorsque se produit une fermentation donnée, on peut cultiver ce microorganisme et celui-ci provoque à nouveau la fermentation dans un milieu adéquat précédemment stérile (Pasteur Vallery-Radot, 1922-1939). Les postulats de Koch ne sont pas loin…
1.2. La théorie des germes pour les maladies infectieuses Pour Pasteur, ce qui est vrai pour les fermentations doit aussi s’appliquer aux maladies infectieuses. Celles-ci, comme les fermentations, doivent être dues à des microorganismes ; et chaque maladie doit être due à un microbe particulier. Ainsi, en 1876, dans ses Études sur la bière il écrit (Pasteur-Vallery-Radot, 1922-1939) : « Lorsqu’on voit la bière et le vin éprouver de 3 Le mot de microbe ne sera introduit qu’en 1878 par Charles Emmanuel Sédillot pour désigner toute espèce de microorganisme, c’est-à-dire d’organisme vivant qui ne peut être vu qu’au microscope.
30
La
causalité dans les sciences biologiques et médicales
profondes altérations parce que ces liquides ont donné asile à des organismes microscopiques qui se sont introduits d’une manière invisible et fortuitement dans leur intérieur, où ils ont ensuite pullulé, comment ne pas être obsédé par la pensée que les faits du même ordre peuvent et doivent se présenter quelquefois chez l’homme et les animaux. »
1.3. Le charbon, première maladie dont la cause bactérienne est identifiée Pourtant c’est d’Allemagne, du laboratoire de Robert Koch, que devait venir la première démonstration claire du rôle causal d’un microorganisme dans l’apparition d’une maladie, le charbon des ovins et des bovins (Perrot et Schwartz, 2014). En 1873-1876, comme ses prédécesseurs, dont le Français Casimir Davaine qui avait été inspiré par les travaux de Pasteur sur les fermentations, Koch constate que le sang de moutons atteints du charbon fourmille de bactéries. Il cultive ces bactéries, qu’il appellera Bacillus anthracis, alors que Davaine les appelait « bactéridies », dans des gouttes d’humeur vitreuse de l’œil recueillie à l’abattoir voisin. Après 8 transferts de goutte à goutte, en laissant le temps à la bactérie de se multiplier entre chaque transfert, il constate que la dernière goutte donne la maladie à une souris comme la goutte de sang initiale. De plus, il montre que ces bactéries donnent naissance à des formes résistantes, des spores, susceptibles de rendre compte du maintien pendant plusieurs années du pouvoir infectieux dans des champs qui, pour cette raison, étaient qualifiés de « maudits ». Dès 1877, Pasteur confirme les conclusions de Koch, en utilisant une technique qui écarte totalement la possibilité que la maladie soit due à un autre composant du sang des animaux malades. Les travaux conjoints de Davaine, Koch et Pasteur établissent ainsi pour la première fois qu’une maladie infectieuse, le charbon, est causée par un microbe particulier, Bacillus anthracis.
2
La tuberculose et les postulats de Koch
2.1. La construction des postulats En 1881, Koch commence ses recherches sur la tuberculose. Une maladie qui fait alors un mort sur cinq en Europe. Grâce à des techniques de coloration et de microscopie qu’il a mises au point, il détecte une bactérie
Les
postulats de koch
31
caractéristique dans tous les tissus tuberculeux. Il parvient ensuite à obtenir des cultures pures, et leur inoculation provoque la tuberculose chez le cobaye. C’est ainsi que, le 24 mars 1882, devant la Société de Physiologie de Berlin, il peut proclamer : « Le bacille qui est présent dans les tissus tuberculeux ne fait pas qu’accompagner le processus tuberculeux, mais il en est la cause. » Dans ces travaux, Koch applique les règles correspondant aux postulats qui portent son nom, mais sans les énoncer clairement. En réalité, ces postulats ont été énoncés plusieurs fois avant que Koch ne le fasse sous la forme quasi définitive en 1884 (Perrot et Schwartz, 2014). Parmi ceux-ci, Jakob Henle, l’un des professeurs de Koch, en 1840, et un autre médecin allemand Edwin Klebs, en 1877, mais ni l’un ni l’autre n’en avait apporté les preuves expérimentales. Pasteur, quant à lui, non seulement avait appliqué ces postulats, sans les énoncer, dans ses travaux sur le charbon en 1877, mais les avait pratiquement formulés en 1879 à propos de la peste, qui avait émergé en Russie et menaçait l’Europe (Pasteur Vallery-Radot, 1922-1939). Il avait alors écrit : « Si, après avoir recueilli soit du sang, soit du pus à la fin de la vie ou aussitôt après la mort d’un pestiféré, on arrivait à découvrir l’organisme microscopique, puis à trouver pour ce microbe un milieu de culture approprié, il y aurait lieu d’inoculer des animaux de diverses espèces, le singe peut-être de préférence, et de rechercher des lésions capables d’établir les rapports de cause à effet entre cet organisme et la maladie dans l’espèce humaine. ». Enfin, un proche collaborateur de Koch, Friedrich Loeffler, publie ces postulats in extenso dans son travail sur l’identification du bacille diphtérique, en 1883, un an avant leur énoncé par Koch. En résumé, attribuer au seul Koch la paternité de ces postulats est excessif. Henle, Klebs, Loeffler et Pasteur les avaient énoncés et/ou mis en œuvre avant qu’il ne les publie en 1884. Cependant, il n’en demeure pas moins que c’est lui qui avait démontré de la façon la plus éclatante leur validité, grâce aux techniques qu’il avait développées, et à leur application rigoureuse au cas de la tuberculose, cas « médiatique » entre tous. Lorsque l’on parle de cause, il est utile de préciser s’il s’agit de cause nécessaire, suffisante ou des deux. Dans les postulats de Koch, la première condition apparaît comme nécessaire : le microbe doit être présent chez tous les hôtes atteints de la maladie. Si ce n’était pas le cas, une autre cause devrait être invoquée. Les autres conditions sont suffisantes. En effet, si l’on donne la maladie à tout coup par inoculation du microbe, celui-ci est une cause suffisante, ce qui n’exclut pas qu’une autre cause soit également suffisante. L’ensemble des postulats doit donc être respecté pour qu’un microbe puisse être considéré comme cause nécessaire et suffisante d’une maladie.
32
La
causalité dans les sciences biologiques et médicales
Malheureusement, comme cela a déjà été souligné par plusieurs auteurs, dont Fagot-Largeault (1986), ces postulats sont loin de pouvoir être applicables systématiquement.
2.2. Les limites dans l’application des postulats Les limites sont nombreuses à l’application de ces postulats. Selon le premier postulat, il faut pouvoir reconnaître la présence d’un microbe donné chez tous les hôtes affectés par la maladie. Ce n’est pas toujours une chose aisée. Des bacilles comme celui du charbon, en abondance dans le sang, celui de la tuberculose, présent dans des organes clairement affectés comme les poumons, ou encore celui de la peste, présent en abondance dans les bubons, sont relativement faciles à trouver. Mais la tâche est moins simple lorsque l’on ne sait dans quel organe chercher, particulièrement lorsqu’il s’agit de virus, visibles seulement au microscope électronique. Les principales difficultés surviennent lorsque l’on veut appliquer les autres postulats, c’est-à-dire cultiver puis inoculer le microbe. Cela suppose, d’abord, de pouvoir mettre le microbe en culture. Or, cela n’est pas toujours possible, même lorsqu’il s’agit de bactéries. Le meilleur exemple est celui du bacille de la lèpre. Dès 1873, donc 3 ans avant le travail de Koch sur le charbon, le Norvégien Armauer Hansen, inspiré par les travaux de Pasteur sur la génération dite spontanée, découvre la bactérie maintenant appelée Mycobacterium leprae dans les lésions des malades et postule, avec raison, qu’elle est la cause de la maladie. Cependant, il ne parvient pas à cultiver celle-ci, et on ne sait toujours pas le faire aujourd’hui. Cela suppose, ensuite, que l’on dispose d’un animal sensible à la maladie, un « modèle animal ». Or Koch, lui-même, s’est heurté à ce problème dès 1883, immédiatement après sa découverte du bacille de la tuberculose, lorsqu’il s’est attaqué au choléra (Perrot et Schwartz, 2014). En effet, le « bacille virgule », qu’il avait identifié chez tous les cholériques et dans l’eau à laquelle ils s’abreuvaient, était incapable de donner le choléra à des cobayes. C’est que le choléra est une maladie exclusivement humaine, ce que Koch ignorait. Cela ne l’empêcha pas d’être convaincu, avec raison, que son bacille virgule était la cause du choléra. En l’absence de modèle animal, on ne peut pas, en général, pour des raisons éthiques, utiliser l’homme comme « cobaye ». Pourtant, précisément dans ce cas du choléra, cela a été fait… avec un résultat pour le moins surprenant. En effet, l’essai a été fait par le très réputé hygiéniste, Max von Pettenkofer, professeur à Munich. Celui-ci, guère convaincu par les résultats
Les
postulats de koch
33
de Koch, boira en public un verre d’eau infecté de vibrions cholériques. À la stupéfaction de Koch, il en fut quitte pour une indisposition intestinale ! Cet exemple du choléra illustre un obstacle fondamental à l’application des postulats de Koch et qui touche à la question de la causalité : l’importance de l’hôte dans la réponse à l’infection. Infection ne veut pas dire maladie et cela pour de multiples raisons. Par exemple, on estime qu’environ un tiers de la population mondiale est porteuse du bacille de la tuberculose, alors que guère plus de 10 % (soit environ 10 millions par an) développent effectivement la maladie durant leur vie. Les raisons de cette sensibilité différentielle aux maladies infectieuses sont multiples : l’état de santé général au moment de l’infection, l’état du système immunitaire et, ce qui attire de plus en plus l’attention de nos jours, la constitution génétique. Il existe des gènes qui nous rendent plus ou moins susceptibles à tel ou tel microbe (Casanova et Abel, 2013). La réalité n’est donc pas toujours aussi simple que pourraient le faire croire les postulats de Koch. En effet, si l’on trouvait ridicules nos anciens qui fournissaient une multitude de causes aux maladies, nous devons constater que, finalement, nous aussi, nous devons parfois donner plus d’une cause aux maladies infectieuses ! Le microbe apparait comme une cause nécessaire, mais généralement pas suffisante, notamment du fait de la constitution génétique de l’hôte.
3
Les postulats de Koch sont-ils encore d’actualité ?
Depuis l’époque de Koch, la science et la médecine ont fait des progrès considérables. Dans le contexte d’aujourd’hui, ses postulats ont-ils encore un sens ? Prenons un exemple, celui de l’identification du VIH comme cause du sida (Schwartz et Castex, 2009). Identification réalisée en 1982-1984, soit exactement un siècle après l’énoncé des postulats. La première étape a été l’identification de ce virus dans des ganglions de quelques patients en état de sida ou de pré-sida. Cela allait dans le sens du premier postulat. Cependant, vu le nombre réduit de patients examinés, on pouvait difficilement parler d’une présence systématique du virus chez les personnes affectées. Pourtant on est parvenu, non sans mal, à cultiver ce virus sur des cellules en culture. Ce virus a alors pu être utilisé pour détecter la présence, dans le sang d’un individu, d’anticorps dirigés contre ce virus. Une telle présence signifiait que l’individu, dit séropositif, avait été infecté par le virus. On a alors pu constater que ceux qui étaient séropositifs, ou bien présentaient les symptômes caractéristiques du sida, ou bien les développaient ultérieurement. On avait donc une parfaite
34
La
causalité dans les sciences biologiques et médicales
corrélation entre infection par le virus, détectée grâce à la présence d’anticorps, et apparition de la maladie. Était-ce suffisant pour dire que le virus était la cause du sida ? Une certaine prudence était de mise, d’autant qu’il s’agissait d’une maladie affectant le système immunitaire, de telle sorte que les malades étaient souvent infectés par des germes qualifiés d’opportunistes. Le VIH aurait pu en être un. Il n’existait pas de bon modèle animal, et il était hors de question d’inoculer le virus à des « cobayes humains ». Heureusement, d’autres arguments confortèrent considérablement l’hypothèse, en particulier le fait que le VIH détruit in vitro les cellules dites T4. Or ce sont ces cellules dont la destruction, in vivo, est à l’origine du déficit immunitaire, et donc de la maladie. On est assez loin des postulats de Koch ! Depuis cette identification du VIH, il y a 30 ans, beaucoup de choses ont encore changé. Maintenant, plutôt que de tenter d’isoler et de cultiver les microbes, on recherche leurs gènes par des méthodes ultrasensibles d’amplification et d’hybridation de l’ADN. L’immunologie, la biologie cellulaire ont, elles-aussi, fait des progrès considérables, ainsi que la connaissance des interactions entre le microbe et son hôte. On n’applique certainement plus strictement les postulats de Koch, mais on utilise d’autres approches.
4
Peut-on agir sans connaître la cause d’une maladie infectieuse ?
C’est une question centrale. Deux exemples, l’un historique et l’autre actuel, vont montrer que cela peut être possible. Le premier exemple concerne les maladies à vecteur. Pour ce type de maladies, la question de la cause peut sembler se poser : est-ce le microbe, ou le vecteur qui le transmet ? Le deux pourrait-on dire en première analyse. Pourtant, l’application stricte des postulats de Koch conduit à dire que la cause, c’est le microbe car il peut causer la maladie si on l’injecte artificiellement, par exemple par transfusion sanguine, alors que le vecteur non infecté est sans effet. Prenons le cas de la fièvre jaune : c’est bien le virus, et non le moustique qui est la cause de la maladie. Le virus n’a été identifié qu’à la fin des années 1920. Pourtant, la démonstration du rôle d’Aedes aegypti dans la transmission de cette maladie avait été faite bien avant, entre 1880 et 1900, principalement par le cubain Carlos Finlay. Cela avait aussitôt conduit à une lutte anti-vectorielle très efficace qui avait permis de diminuer considérablement l’incidence de la maladie. Cela montre que la connaissance des conditions de la contagion, en l’occurrence la transmission par le moustique, permet d’agir avant même que le microbe responsable soit identifié.
Les
postulats de koch
35
Le second exemple, plus actuel est celui d’un syndrome, très invalidant et de plus en plus fréquent, consécutif à une piqure de tique, similaire à celui résultant de l’infection par Borrelia burgdorferi et qualifié de maladie de Lyme (Perronne, 2014). Dans le cas de ce syndrome, les patients sont dépourvus d’anticorps dirigés contre Borrelia burgdorferi. S’agit-il d’une espèce de Borrelia non détectée par les anticorps disponibles, ou bien d’une autre espèce bactérienne également transmise par les tiques, ou bien d’un virus ? Chez ces patients, il s’avère que de vigoureux traitements aux antibiotiques améliorent souvent leur état. Ce qui confirme le rôle vraisemblable, chez ces patients, d’une bactérie non identifiée à ce jour. Au-delà de ces exemples très spécifiques, on se doit de rappeler que l’application des procédures d’hygiène permet de lutter contre les maladies infectieuses en général, indépendamment de toute recherche de microbe pathogène particulier.
Conclusion En conclusion, on peut dire que, si les postulats ont joué un rôle important dans l’établissement de la théorie des germes, et même s’ils constituent toujours un idéal dans la détermination du rôle d’un microbe comme cause d’une maladie, ils sont en fait souvent d’une application difficile, voire impossible, et sont actuellement supplantés par d’autres approches. Enfin, on se doit de constater que l’identification du microbe responsable d’une maladie n’est pas toujours un préalable indispensable à la lutte contre celle-ci, la connaissance des modes de contagion étant souvent plus importante.
Références Casanova J.-L. & Abel L. (2013). The genetic theory of infectious diseases: a brief history and selected illustrations. Ann. Rev. Genomics Hum. Genet. 14: 215-243. Fagot-Largeault A. (1986). Approche médicale de la causalité dans les systèmes complexes. Archives internationales de physiologie et de biochimie, 94: C85-C94. Pasteur Vallery-Radot L. (1922-1939). Œuvres complètes de Pasteur. 7 vol. Masson, Paris. Perronne C. (2014). Lyme and associated tick-borne diseases: global challenges in the context of a public health threat. Front. Cell. Infect. Microbiol. 4: 74-78.
36
La
causalité dans les sciences biologiques et médicales
Perrot A. & Schwartz M. (2014) Pasteur et Koch. Un duel de géants dans le monde des microbes. Odile Jacob. Paris. Roche-Lubin I.M. (1848). Mémoire pratique sur la maladie des bêtes à laine connue sous les noms de prurigo-lombaire, convulsive, trembleuse, tremblante, etc. Recueil de Médecine vétérinaire, 25: 698-714. Schwartz M. & Castex J. (2009). La découverte du virus du sida. La vérité sur « l’Affaire Gallo/Montagnier ». Odile Jacob, Paris.
Chapitre 4
La recherche causale en épidémiologie Pierre-Yves Boëlle et Alain-jacques Valleron Comment l’épidémiologiste peut-il découvrir, ou participer à la découverte, des causes des maladies ? Cette question existe depuis que l’épidémiologie existe, mais elle est renouvelée depuis une trentaine d’années grâce à de nouvelles approches de modélisation des réseaux causaux, et d’analyse des données. Ce chapitre comprend deux parties : la première décrit comment les épidémiologistes ont abordé – et abordent encore – la causalité ; la seconde décrit les nouvelles approches de modélisation et d’analyse des réseaux causaux, qui ont émergé dans les dernières décennies du XXe siècle et sont actuellement en plein développement.
38
1
La
causalité dans les sciences biologiques et médicales
La construction de la recherche causale en épidémiologie
1.1. Définition et champs de l’épidémiologie Le groupe de travail de l’Académie des sciences qui prépara en 2006 son rapport sur l’épidémiologie (Valleron, 2006) discuta longtemps avant de s’entendre sur une définition de cette discipline. Ce fut finalement : « l’épidémiologie étudie les variations de fréquence des maladies dans les groupes humains et recherche les déterminants de ces variations. Elle vise en particulier à la recherche des causes des maladies et à l’amélioration de leurs traitements et moyens de prévention. » Certains participants du groupe de travail pensaient que la formulation de la définition ne devait pas laisser penser que l’« amélioration des traitements et moyens de prévention nécessitait la recherche des causes des maladies ». Leur question était exactement celle posée dans le titre du colloque du 31 mai 2016 de l’Académie des sciences auquel cet ouvrage fait suite : « Faut-il connaître les causes pour comprendre et intervenir ? » L’épidémiologie est traditionnellement classée selon son objet (l’épidémiologie de telle maladie, ou de telle condition : épidémiologie du cancer, de la gémellité, …), selon les facteurs étudiés (épidémiologie environnementale, épidémiologie génétique, épidémiologie sociale, …), selon qu’elle est expérimentale, observationnelle, ou théorique. L’épidémiologie expérimentale s’identifie principalement aux essais thérapeutiques (visant, par l’expérimentation sur des groupes humains à étudier, l’efficacité de traitements curatifs ou préventifs. L’épidémiologie observationnelle est descriptive ou analytique : descriptive quand on veut « fournir des statistiques » de mortalité ou morbidité des maladies ; analytique quand on cherche à mettre en relation des causes potentielles et des effets. Dans ce dernier cas, elle repose essentiellement sur les études de cohorte et cas/témoin (voir encadré). L’épidémiologie théorique concerne principalement le domaine des maladies transmissibles et vise par exemple à fournir des modèles prédictifs de la diffusion des épidémies. L’épidémiologie descriptive et l’épidémiologie théorique ne seront pas traitées dans ce texte : la recherche de causalité est marginale dans la première, et n’est pas spécifique de l’épidémiologie dans la seconde, car recouvrant les problèmes rencontrés par tous les modélisateurs en biomédecine...
La
recherche causale en épidémiologie
39
Essai thérapeutique, cohorte, études cas-témoins Dans un essai thérapeutique, on recrute un échantillon de population, et l’investigateur assigne, sur la base du hasard, la moitié de celui-ci à un facteur F (un traitement, par exemple) et le reste à l’absence de ce facteur (NF, préférentiellement sous la forme de placebo pour maintenir l’aveugle de cette assignation). On parle alors d’essai thérapeutique randomisé. La comparaison du devenir des deux groupes permet de conclure sur le rôle du facteur F dans l’évolution de l’état de santé. Dans une étude de cohorte, on recrute deux échantillons de populations, l’un (F) déjà exposé au facteur F, l’autre (NF ) non exposé : l’exposition n’est donc pas décidée par l’investigateur. On pourra évaluer les risques absolus de maladie M chez les sujets exposés et non exposés au facteur F en estimant le risque relatif : Pr(M/F )/Pr(M/NF ), soit le risque de développer la maladie en cas d’exposition, rapporté au risque dans le cas contraire. On peut essayer de constituer les deux échantillons au départ, de sorte qu’ils soient aussi identiques que possible pour tous les facteurs confondants connus (par appariement), ou réaliser un ajustement statistique. Les cohortes sont souvent décrites comme « prospectives » car elles reposent sur des données qui sont collectées dans l’ordre : « exposition à F » puis « maladie M ». Dans une étude cas-témoin, on recrute des malades M et des non malades NM, pour lesquels on détermine l’historique d’exposition à F. La comparaison des pourcentages d’exposition entre malades et non malades permet d’estimer un odds-ratio ou « rapport de cotes » qui, sous conditions, approxime le risque relatif de la maladie décrit plus haut. L’intérêt de cette approche est d’être plus efficace que la cohorte, surtout lorsque la maladie est rare et plus rapide car les personnes présentent déjà la maladie lors de l’inclusion. Les méthodes d’appariement comme d’ajustement statistique peuvent être utilisées dans l’analyse. La méthode est souvent dite « rétrospective » car elle obtient les données dans l’ordre : « maladie M » puis « exposition à F ». Nous nous intéresserons donc à la méthodologie de la recherche des relations entre causes potentielles et effets. Ceci concerne en premier lieu l’épidémiologie expérimentale, qui est la méthode de choix pour apporter la preuve scientifique de la relation entre la cause potentielle (le traitement) et l’effet (la modification de l’état de santé). Mais cela concerne également toute l’épidémiologie observationnelle, celle qui se fait par la simple observation des populations, de leurs expositions et de leurs usages des traitements. Les développements statistiques de la première moitié du XXe siècle ont fait de l’essai thérapeutique randomisé la méthode de référence pour analyser comment les traitements améliorent un état de santé. Cette approche a eu un effet
40
La
causalité dans les sciences biologiques et médicales
structurant majeur, au point de constituer aujourd’hui – comme on le verra dans la seconde partie de ce texte – un cadre conceptuel idéal pour discuter de la causalité d’un facteur de risque dont le niveau d’exposition d’un sujet donné n’est pas choisi par un expérimentateur.
1.2. La recherche causale en épidémiologie dans la période pré-statistique L’œuvre de Louis-René Villermé (1782-1863) livre un des premiers exemples d’analyse systématique de données observationnelles pour déterminer les causes des maladies. Cet auteur s’est notamment opposé à la vieille théorie miasmatique hippocratique, toujours dominante dans les premières décennies du XIXe siècle (Julia et Valleron, 2010). La théorie miasmatique attribuait les causes des maladies au « mauvais air » (miasma = pollution en grec) et expliquait les disparités géographiques observées dans la santé et la mortalité notamment par le mauvais assainissement et les odeurs pestilentielles des quartiers à forte mortalité, ou forte incidence de certaines maladies. Analysant les données de mortalité et d’imposition de 1822 à 1826 dans les différents arrondissements parisiens, Villermé exclut le rôle de multiples facteurs : la proximité à la Seine, la nature du sol, l’altitude, l’architecture, la direction du vent, la densité de population,… et conclut au contraire que « la richesse, l’aisance et la misère […] sont les principales causes (je ne dis pas les causes uniques) auxquelles il faut attribuer les grandes différences que l’on remarque dans la mortalité » parce que les ordonnancements des taux de mortalité et des locations non imposées, occupées par les pauvres, étaient identiques d’un arrondissement à l’autre (Villermé L-R., De la mortalité dans les divers quartiers de la ville de Paris, 1830). Un deuxième exemple concerne les travaux de Snow sur la cause du choléra (Ball, 2010). Bien avant les découvertes de Pasteur, et donc sans pouvoir identifier les causes « biologiques » de ces maladies (les microorganismes responsables), Snow a montré que la pollution de l’eau de certains réseaux de distribution était « la cause » des épidémies de choléra. Il observa d’abord (publication de 1849) que les parties basses de Londres en amont de la Tamise hébergeaient le plus de cas, puis en « géolocalisant » les cas de l’épidémie de 1853-54, il montra que les usagers de certaines pompes à eau avaient un risque très accru de choléra, postulant l’existence d’un vecteur de la maladie ingéré, et non inhalé (comme le dirait la théorie des miasmes), véhiculé par le réseau de distribution d’eau. Sa publication clé date de 1856. Ce résultat se heurta à beaucoup d’oppositions, dont la plus importante est celle de William Farr (1807-1883) (Morabia et al., 2001). Farr, autre icône de l’épidémiologie, est notamment le créateur du système d’information sanitaire anglais, référence quasi obligée – encore maintenant – de tout travail méthodologique
La
recherche causale en épidémiologie
41
de surveillance épidémiologique. Il défendit longtemps – face à des données identiques à celles de Snow – la théorie zymotique, qui attribue les maladies à des processus de fermentation. L’idée était que les eaux « s’infectaient » (= se chargeaient en déchets de toute sorte) depuis la source jusqu’à la mer, menant à l’hypothèse d’un taux d’attaque de la maladie inversement proportionnel à l’altitude. Et l’observation était en accord avec cette hypothèse, avec en prime la mise en évidence d’une « loi » mathématique (ce qui était – et est – souvent perçu comme un soutien de poids) : à Londres, la mortalité due e´ + a au choléra satisfaisait à la formule C = C´ où C et C’ sont les taux de e+a mortalité/10 000 de populations vivant aux altitudes e et e’ et où a vaut 13 quand e et e’ sont exprimées en pieds. L’analyse de l’épidémie de choléra de 1853-54 fit vaciller Farr et son analyse personnelle de l’épidémie de 1866 emporta sa pleine conviction (Eyler, 1973). Le recours systématique à l’expérimentation pour répondre à des questions biomédicales date de la seconde moitié du XXe siècle. Peu d’exemples historiques existent avant, le plus cité étant celui de James Lind qui mena en 1747 une expérience systématique en comparant des marins recevant, ou non, du jus de citron pour guérir le scorbut (Baron, 2009).
1.3. La méthode statistique à la base de la recherche causale en épidémiologie De la corrélation aux tests La statistique médicale bénéficia à partir de la fin du XIXe siècle de deux avancées majeures. La première est technologique, avec le goût naissant, voire la passion, pour le recueil des informations numériques, particulièrement illustrée par le mathématicien Belge Adolphe Quetelet, militant pour la réalisation d’observatoires des variations mesurables chez l’homme. La seconde est mathématique, avec la naissance de la statistique mathématique, et la mise au point des méthodes et modèles de mesure de corrélation et de régression dont les inventeurs furent deux collaborateurs et amis, fondateurs du journal Biometrika : l’un (Galton) était cousin de Darwin, et l’autre (Pearson) fut toute sa vie un militant eugéniste. Pearson n’utilisait cependant pas le vocabulaire de la causalité, lui préférant la notion d’association mesurée par les corrélations. Cependant, les concepts statistiques de la recherche épidémiologique moderne (et les outils correspondants) naquirent dans la troisième décennie du XXe siècle. Ronald Fisher (1890-1962) doit être crédité des deux piliers de la recherche causale en épidémiologie : le test statistique (et son arme : la
42
La
causalité dans les sciences biologiques et médicales
probabilité p), et la randomisation (l’expérimentateur, en attribuant au hasard aux sujets d’étude un des niveaux du facteur – un traitement – à étudier, peut égaliser tous les facteurs confondants, connus ou inconnus). Fisher exposa ces deux piliers dans ses deux livres clés : Statistical Methods for Research Workers (1925) et The Design of Experiments (1935). Il faut noter aussi les travaux de Neyman et Pearson (1928 et 1933) qui formalisèrent le concept d’« hypothèse nulle » (celle dont on veut savoir si les observations permettent de la rejeter) et de puissance d’un test. Les schémas observationnels Le premier essai thérapeutique randomisé moderne a été effectué en 1948 au Medical Research Council en Grande-Bretagne : il s’agissait de démontrer l’efficacité de la streptomycine dans le traitement de la tuberculose. La méthode de l’essai thérapeutique randomisé s’est ensuite imposée comme seule à même de fournir la preuve solide de l’efficacité – absolue ou comparée – des traitements. Elle sera le fondement de l’« evidence based medicine » (voir plus bas). Depuis la seconde moitié du XXe siècle, l’épidémiologie analytique recherche le rôle causal des facteurs sociaux, génétiques et environnementaux. Pour ces facteurs, l’approche expérimentale est impossible : l’expérimentateur ne peut jamais décider du niveau d’exposition d’un sujet donné à un facteur donné (en tous cas pour les facteurs génétiques, et presque dans tous les autres cas…). Le problème essentiel est alors d’identifier les variables « confondantes » (aussi dites « de confusion », et « confounding » en anglais), c’est-à-dire systématiquement différentes entre sujets exposés et non exposés, et fournissant une explication alternative à l’association entre le facteur et l’effet étudié. Cette recherche se fait soit grâce à l’utilisation de schémas (« designs ») qui, par construction, contrôlent les variables confondantes, soit grâce à des méthodes d’ajustement statistique appropriées qui permettent le mieux d’exprimer quantitativement la relation entre facteur et maladie d’intérêt « toutes choses égales par ailleurs » (voir encadré). Biais, variables « confondantes », stratification et modélisation On appelle biais toute caractéristique d’une étude qui fait que l’association déterminée entre un facteur F et un état de santé M n’est pas directement interprétable comme l’effet causal de F sur M. Schématiquement, il y a trois grandes classes de biais : de sélection lorsque l’échantillon retenu pour l’étude est différent de la population pour laquelle on veut conclure, de mesure lorsque la détermination du statut exposé (F/NF) ou malade (M/NM) est affectée, et de confusion lorsque la valeur de l’effet causal est modifiée.
La
recherche causale en épidémiologie
43
Quel que soit le schéma d’étude adopté, il peut exister des biais. Le problème essentiel est donc de les identifier et de les mesurer, car s’ils étaient connus, ils pourraient être pris en compte pour éliminer leurs effets. On peut supposer qu’il y a moins d’opportunités de biais dans un essai thérapeutique que dans une cohorte, et que dans une étude cas/témoin. Cependant, il est certainement préférable d’avoir une bonne étude cas-témoin plutôt qu’un mauvais essai thérapeutique… L’existence de biais, notamment de confusion, peut être prise en compte soit lors de la construction d’une étude, avec notamment l’appariement, soit lors de l’analyse des données. Prenons l’exemple suivant : les individus qui consomment de l’alcool sont aussi plus fréquemment fumeurs. Toute maladie causée par le tabagisme, par exemple le cancer des bronches, sera dès lors statistiquement associée à la consommation d’alcool. Si l’on souhaite déterminer si l’alcool est cause du cancer des bronches, il faudra prendre en compte le rôle du tabagisme, qui est ici « un facteur de confusion » : il amènerait à conclure au lien causal entre alcool et cancer des bronches alors qu’il n’en est rien. On peut « ajuster » l’analyse alcool à cancer (où la flèche décrit une relation causale) pour les différences de tabagisme entre buveurs et autres. La stratification est une approche où l’analyse alcool à cancer est faite dans chaque « strate » de tabagisme, c’est-à-dire « fumeur » et « non fumeur ». La méthode de Mantel-Haenszel (Mantel et Haenszel, 1959) permet cette analyse. Cependant, cette approche n’est pas opérationnelle avec plusieurs variables de confusion. La régression logistique multivariée est une alternative plus faisable. Structurellement, elle permet de modéliser des variables dichotomiques, comme par exemple la présence/absence de maladie (M/NM). L’ouvrage de Hosmer & Lemeshow (Hosmer et al., 2013), dont le première édition date de la fin des années 1980, a eu un impact très important dans la pratique de ce type d’analyse épidémiologique. Les observations issues des schémas observationnels peuvent relever d’un niveau écologique (on étudie la teneur en fluor de l’eau de boisson de plusieurs villes et l’incidence des caries dans ces mêmes villes), ou individuel (on relève la valeur de la tension artérielle, et l’existence d’une pathologie chez les mêmes individus). Elles peuvent être « transversales » (les informations relatives au facteur de risque et à la maladie sont captées au même moment) ou « longitudinales » (les informations relatives au facteur de risque sont captées avant celles relatives à la maladie). L’analyse du rôle causal possible d’un facteur F sur une maladie M est d’abord guidée par des considérations de bon sens : l’exposition à F doit avoir eu lieu avant la survenue de la maladie M, à un intervalle de temps compatible avec les connaissances (on ne peut supposer que l’exposition à un
44
La
causalité dans les sciences biologiques et médicales
aliment cancérigène provoque un cancer du pancréas le mois suivant). Aussi, si l’on mesure simultanément l’exposition actuelle à F et la présence de M, il y a peu de chances de pouvoir conclure, sauf si l’exposition F ne varie pas dans le temps, comme c’est le cas lorsqu’on considère un facteur génétique : on appelle « exposition » dans ce cas la caractéristique génétique qu’on étudie.4 Les études les plus utilisées ont une composante « longitudinale » afin de capter l’aspect temporel d’une relation cause-effet. Les deux catégories les plus fréquentes (chacune, avec une infinité de variantes) sont les études de cohorte, et les études cas-témoin. Ces deux méthodes d’étude ont permis de très grands résultats dans la connaissance de la causalité des maladies : les premières démonstrations du rôle causal du tabac dans le cancer des bronches s’appuient sur une étude cas-témoins (White, 1990). Nul ne conteste plus que le tabac cause le cancer des bronches : les emballages de paquets de cigarettes nous le rappellent ! Ceci résulte de la recherche épidémiologique, d’autant plus qu’on ne dispose pas de modèle animal pour traiter la question. À la base de cette découverte figurent une étude cas-témoins comparant, en termes de tabagie, le passé de patients atteints d’un cancer des bronches avec des témoins, et une étude de « cohorte » comparant le devenir de sujets fumeurs à celui de sujets non-fumeurs. Les résultats furent clairs dès la première étude (Doll et Hill, 1950) : les auteurs avaient très soigneusement relevé les cofacteurs qui pouvaient être source de « confusion » (facteurs démographiques, professionnels, d’exposition à des polluants, etc.). Ils furent ensuite confirmés grâce au splendide travail mené sur plus de 34 000 médecins anglais volontaires [11] dont la cohorte continue, 50 ans après, à fournir des résultats uniques quant aux conséquences d’une vie entière du tabagisme (Doll et al., 2004). Et pourtant ! Fisher, le père de la biostatistique, créateur des essais randomisés, allait expliquer qu’il ne croyait pas en la démonstration, en détaillant soigneusement quatre types d’arguments (Stolley, 1991) : 1/ les résultats d’association présentés pouvaient tout aussi bien être interprétés selon l’idée que le fait d’avoir le cancer du poumon (ou d’y être prédisposé) menait à fumer – « causalité inverse » ; 2/ une prédisposition génétique inconnue à fumer peut être aussi associée au cancer du poumon – effet pléiotropique d’un gène ; 3/ l’observation des séries temporelles ou géographiques n’appuie pas l’hypothèse que le tabac cause le cancer ; 4/ les observations menées sur les personnes inhalant le tabac contredisent l’hypothèse de causalité : d’après Fisher, ces personnes avaient moins le cancer que ceux qui n’inhalaient pas. Une des contributions importantes de Daniel Schwartz fut de montrer pour la première fois que cette affirmation était fausse, et que précisément l’inhalation augmentait le risque de cancer (Schwartz, 1961). 4 Par exemple, un sujet MET-MET au codon 129 de la protéine prion sera considéré comme « exposé » lorsqu’on le comparera à un sujet MET-VAL. Un sujet MET-MET naît avec cette « exposition » et la conserve toute sa vie, puisque c’est une caractéristique génétique.
La
recherche causale en épidémiologie
45
Une énorme littérature a été consacrée à l’observation épidémiologique, et aux méthodes statistiques associées, avec pour enjeu principal celui de la causalité. Pour un facteur d’exposition et une maladie donnés, par quelle approche caractériser au mieux la causalité de ce facteur d’exposition, en « contrôlant » les facteurs de confusion connus ou inconnus ? Ces problèmes ont été abordés à plusieurs reprises dans les Comptes Rendus de l’Académie des sciences en ce qui concerne notamment l’épidémiologie environnementale (Valleron, 2000), particulièrement les études « écologiques » pour lesquelles l’interprétation causale est particulièrement difficile (telles celles de la relation entre pollution atmosphérique et santé grâce à l’analyse des covariations spatiotemporelles de mesures de pollution et de mortalité) (Richardson, 2000). D’autres publications dans les Comptes Rendus ont traité de la causalité en épidémiologie, notamment dans le domaine cardiovasculaire (Ducimetiere et Cambien, 2007) et dans celui de l’évaluation – par études observationnelles ou par essais randomisés – de la possibilité d’effets adverses des thérapies hormono-substitutives, un sujet aux conséquences pratiques majeures (Costagliola, 2007).
1.4. Premières formalisations de la recherche causale en épidémiologie Les critères de Bradford Hill En 1965, Austin Bradford Hill, un des découvreurs de la relation (causale) tabac-cancer des bronches, énuméra les qualités selon lui nécessaires pour qu’une association entre l’exposition à un facteur F et la survenue d’une maladie puisse accéder au statut de cause (Hill, 1965). Ces qualités étaient, par ordre d’importance : la temporalité, la force de l’association, l’existence d’une relation dose-effet, la plausibilité biologique, la répétabilité, la spécificité de l’association, sa possibilité de vérification expérimentale, la cohérence, et l’analogie (voir (Valleron, 2000) pour la description détaillée de ces « critères »). Si cette liste demeure un guide de lecture des résultats d’association, ses éléments ne permettent pas de trier sans souci ce qui serait le bon grain causal de l’ivraie des variables confondantes dans l’ensemble des corrélations observées. Certes, la méthode épidémiologique a apporté des résultats dans à peu près toutes les maladies, mais avec le temps apparut l’impression que l’ensemble des relations les plus importantes entre facteurs des maladies et maladies (telle la fameuse relation tabac-cancer) avaient été découvertes, ne laissant qu’à trier parmi des relations candidates moins intéressantes. Et les études se multiplièrent – tendance facilitée par la « demande sociétale » – qui souhaitait connaitre tous les facteurs de risque possibles – ainsi que par l’explosion des données recueillies et des analyses rendues accessibles par l’informatique.
46
La
causalité dans les sciences biologiques et médicales
Les hauts et les bas de l’épidémiologie à la fin du XXe siècle Le succès des essais thérapeutiques fonda le mouvement de l’« evidence based medicine », à l’origine d’une refondation du raisonnement et de la conduite médicale à partir des années 1980. Ce mouvement instaura la religion du « niveau de preuve » à partir de propositions de D. Sackett en 1989 (Sackett, 1989), et prospéra notamment dans les agences réglementaires du médicament. Des versions différentes existent, mais toutes donnent le niveau de preuve le plus élevé aux essais randomisés (garantie de la démonstration de causalité) de grande taille et répétés, puis aux études de cohorte, puis aux études cas-témoins, puis aux études observationnelles de corrélation, puis (niveau le moins élevé) à l’opinion des maîtres et réunions de consensus. Cependant, si l’épidémiologie a connu un « haut » dans les années 1980 en imposant à l’ensemble du monde médical la culture du niveau de preuve, elle a également connu des « bas », précisément à la même époque, suite à de nouveaux problèmes posés par la généralisation de l’approche épidémiologique et par l’apparition d’une capacité technique nouvelle de recueil d’un grand nombre d’informations sur un grand nombre de sujets. Par ailleurs, dès 1988, Feinstein soulignait que l’épidémiologie devenant l’outil de référence pour repérer des risques de santé encourus dans la vie courante, elle devait évidemment faire preuve de la rigueur usuelle à tous les domaines scientifiques : une hypothèse clairement définie, des données recueillies aux plus hauts standards de qualité, une analyse statistique appropriée, etc. (Feinstein, 1988). Plus généralement, les inquiétudes sur la capacité de l’épidémiologie à découvrir des relations causales nouvelles et vraies commencèrent à s’exprimer clairement au cours de la dernière décennie du XXe siècle (Taubes, 1995). Il est vrai que si l’épidémiologie est l’outil efficace de la chasse aux « facteurs de risque » (un terme passé dans le langage courant), les « risques relatifs » (voir encadré ci-dessous) associés à une exposition ne sont pas toujours faciles à interpréter causalement (quel mécanisme biologique explique que la consommation de tabac soit – elle l’est – un facteur de risque du cancer du sein ?). Et leur importance pratique – mesurée par le « risque attribuable » – peut être faible. De plus, la grande taille des études épidémiologiques modernes permet de mettre en évidence des risques relatifs significativement différents de 1, mais très faibles. Mais comment qualifier la qualité causale, et même l’intérêt pratique, d’une relation épidémiologique observée dans une étude et se traduisant par un risque relatif de 1,1, fut-il significativement différent de 1 ? Enfin, beaucoup notent les innombrables « découvertes » épidémiologiques de relations peut-être causales, mais vite contredites, au point qu’un article publié en 2006 dans l’International Journal of Epidemiology lui-même dresse une table des « Recent unconfirmed or contradicted risk factor/disease associations » (Buchanan, 2006). Mais cette crise de confiance est féconde dans la mesure où elle nourrit le mouvement
La
recherche causale en épidémiologie
47
pour une « recherche reproductible » (Moher et al., 2013 ; Moher et Ravaud, 2013), et dynamise la recherche méthodologique sur la modélisation des causes et des réseaux causaux décrite dans la section suivante. La mesure du risque – Le risque absolu de maladie dans une population est la probabilité Pr(M). – Pr(M/F ) est le risque absolu de maladie d’un sujet exposé au facteur F (et Pr(M/NF ) celui d’un sujet non exposé : NF ). – Le risque relatif de maladie RR est le rapport des risques absolus des Pr(M/F ) . exposés et des non exposés : RR= Pr(M/NF ) – Le rapport de cotes noté usuellement OR (de l’anglais : Odd Ratio) OR =
Pr(M /F )/Pr(NM /F) Celui-ci est calculé dans les études Pr(M/NF)/Pr(NM/NF)
cas-témoins et approxime le risque relatif sous certaines conditions. – Le risque attribuable : le risque attribuable à un facteur est la proportion des cas que l’on pourrait éviter en supprimant ce facteur, lorsqu’il est causal. Dans une population où une proportion f des sujets est exposée à un facteur F augmentant le risque de maladie, cette augmentation étant caractérisée par le risque relatif RR = Pr(M/F )/Pr(M/NF ), le risque attribuable au facteur, c’est-à-dire la proportion maximale de cas qui peut être évitée vaut
f (RR − 1) . La proportion calculée grâce à f (RR − 1) + 1
cette formule est « maximale », et n’est atteinte que si le facteur F a un rôle causal nécessaire et suffisant dans le déclenchement de la maladie.
2
Les méthodes modernes d’analyse causale en épidémiologie
2.1. Observer n’est pas faire – Seeing is not doing Seule une faible part de la recherche épidémiologique peut effectivement s’inscrire dans une démarche expérimentale où l’intervention relève de l’expérimentateur. Pour la plus grande part, il faut se résoudre à ne pouvoir
48
La
causalité dans les sciences biologiques et médicales
conclure qu’à partir de données observationnelles. D’où la nécessité d’une théorie encadrant la démarche d’analyse de la causalité en épidémiologie. En 1974, Rubin (Rubin, 1974) remit cette nécessité au cœur de la discipline en développant des éléments de la théorie des « résultats possibles » et le cadre du « contre-factuel » évoqués dès 1923 par Neyman (1990). Cette théorie peut être résumée par l’opposition entre deux mots du langage courant : Observer et Faire (Lindley, 2002). Faire est utilisé l’expérimentation pour étudier l’effet d’une intervention. Comme on l’a rappelé dans la première partie de ce chapitre, la randomisation est une garantie essentielle pour parvenir à prouver l’effet causal d’une intervention. Par construction, la randomisation produit l’indépendance entre intervention reçue et toute autre caractéristique des patients, que cette caractéristique ait été, c’est important, mesurée ou non. Toute différence dans le devenir des groupes issus de la randomisation est donc attribuable à l’intervention étudiée. L’acceptation finale du rôle causal de l’intervention requerra aussi la cohérence du résultat obtenu avec les connaissances préalables dans le domaine. Observer est la situation dans laquelle la modification due à l’intervention n’est pas allouée au hasard – on parlera alors plutôt d’exposition. Dans ce cas, la conclusion causale n’est pas aussi simple et directe. La qualité de la preuve obtenue n’est pas intrinsèquement moins bonne que dans le cas expérimental. Plus exactement, les garanties de la preuve sont moindres, du fait de l’existence de facteurs non contrôlés (Rothman, 2014). Ces derniers peuvent entraîner des biais dans l’estimation d’un effet, par exemple lorsque l’exposition d’intérêt se confond avec la cause réelle : l’exemple cité dans un encadré plus haut entre consommation d’alcool et tabagisme en est une illustration – l’exposition tabagique est confondue avec l’exposition alcoolique car les fumeurs sont également des buveurs. Le problème de l’épidémiologiste est donc de construire une démarche analytique en situation d’observation, en utilisant notamment les possibilités d’ajustement offertes par la modélisation statistique. Dans la suite, nous passons rapidement en revue un certain nombre d’approches méthodologiques relativement récentes, celles-ci étant décrites plus en détail dans l’annexe de ce chapitre, à la fin de l’ouvrage.
2.2. Définir une cause : résultats potentiels (potential outcomes) et le cadre contre-factuel Quelle que soit la situation, déterminer l’effet d’une exposition ou intervention d’intérêt, c’est spéculer sur ce qu’aurait été l’état de santé d’un même individu soumis ou non à l’intervention/l’exposition (Little et Rubin, 2000). On postule donc l’existence de plusieurs « résultats potentiels » (potential outcomes)
La
recherche causale en épidémiologie
49
mesurant ces états de santé. L’effet causal de l’intervention/exposition chez cet individu est alors défini par la différence entre deux états de santé potentiels. Le problème fondamental dans la détermination effective de l’effet causal individuel est qu’on n’observe jamais qu’un seul résultat – celui qui correspond à l’exposition/intervention reçue. Les autres résultats potentiels deviennent alors « contre-factuels » (voir annexe A2). Le développement de la théorie des résultats potentiels a suscité des débats, par exemple sur l’opportunité de formuler un modèle qui, par essence, n’est jamais totalement observable ni totalement identifié (mathématiquement) dans la distinction entre variabilité inter-individuelle et intra-individuelle (Dawid, 2000). Un autre enjeu concerne l’existence même des résultats potentiels, et, partant, l’existence d’un effet causal. Un cas frappant pour tout chercheur français concerne la notion de race, omniprésente dans les publications épidémiologiques nord-américaines. Ce que l’on mesure sous ce terme est variable : c’est par exemple un attribut auto-sélectionné par chaque individu, une proximité génomique avec les habitants de différents lieux géographiques, (Lin et Kelsey, 2000 ; Kaufman et Cooper, 2008)… La question « Y a-t-il des inégalités de santé dues à la race ? » pourrait être abordée des diverses façons suivantes vis-à-vis de la causalité : – cette question n’a pas de sens car aucune intervention ne peut changer la « race » d’un individu (Holland, 1986) : cette caractéristique n’est pas « manipulable », on ne peut pas définir le résultat potentiel qu’on obtiendrait « si l’on changeait la race » ; – on étudie sous ce terme la représentation et les préjugés dans la population – le racisme (Kaufman et Cooper, 2001) –, qui pourrait être modifié, même s’il n’est pas clair qu’une intervention serait à même de le faire ; – on étudie sous ce terme des conditions socio-économiques différentes (VanderWeeler et Robinson, 2014), qui peuvent être modifiées par une intervention extérieure facile à décrire ; – on peut faire une expérience d’imagination dans laquelle on modifie la race, que la possibilité ou la technologie pour le faire soit disponible ou non (Vandenbroucke et al., 2016 ; Glymour et Glymour, 2014).
2.3. Les graphes acycliques dirigés (DAG) comme support de l’information causale Une fois défini le cadre conceptuel de la causalité, il faut fournir les outils propres à l’identification de celui-ci. Or, la théorie des probabilités et de la statistique ne comprend pas de support spécifique pour décrire les relations
50
La
causalité dans les sciences biologiques et médicales
causales. La corrélation, par exemple, est symétrique entre cause et effet. Partant de ce constat, Judea Pearl a proposé d’utiliser les graphes acycliques dirigés (DAG pour Directed Acyclic Graph) comme support complémentaire de l’information causale (Greenland, 1999). Ces graphes (voir annexe A3) représentent les relations de causalité selon les règles suivantes : un nœud correspond à une variable ; un arc correspond à une relation causale dirigée de la cause vers l’effet ; l’absence de boucles (d’où le nom de graphe acyclique) entre les variables garantit la cohérence causale de l’ensemble (Pearl, 2009a). Un DAG est donc construit par un chercheur ou un groupe de chercheurs listant les différentes variables qu’il juge impliquées dans le problème étudié. Cette liste ne pourra donc, par construction, contenir de variables inconnues éventuellement causales, mais dont le rôle n’a jamais été étudié. Pour être utile, un tel graphe doit faire figurer toutes les variables impliquées dans les relations causales du système étudié (observées ou non, on parle alors de variables latentes). Dans cette approche, l’information causale repose autant, voire plus, dans les arcs qui sont absents que dans ceux qui sont présents. L’utilité des graphes acycliques dirigés est d’aider à déterminer quelles variables amènent un biais de confusion, en particulier les structures de type « E C R », où E est l’exposition d’intérêt, R le résultat et C la variable de confusion. Elle est aussi d’indiquer quel effet causal peut être estimé en fonction des variables disponibles pour l’ajustement. Le chemin d’une cause vers un effet peut faire intervenir plusieurs étapes intermédiaires. Par exemple, l’allèle d’un cytochrome peut être la cause de l’échec d’un traitement à travers la vitesse d’élimination du médicament dans l’organisme. L’analyse de tels chemins, et plus particulièrement la quantité d’effet passant dans chaque chemin, est le but de l’analyse de médiation. Dans un graphe acyclique dirigé, la médiation sera impliquée par des chemins de type E M R, M étant le médiateur et E et R comme ci-dessus. Cette quantité n’est généralement pas facilement discernable de l’effet direct (E R), même par l’expérimentation, car on ne peut empêcher l’effet de la médiation. L’analyse contrefactuelle permet de définir précisément ces effets et de les calculer (Pearl, 2014). La spécification du DAG peut s’accompagner d’une estimation directe des effets par la méthode des Modèles d’Équations Structurales (SEM), bien que l’emploi de ces modèles en épidémiologie reste anecdotique (VanderWeele, 2012). Les équations structurales demandent en effet des hypothèses fortes, car elles spécifient un modèle global auquel doivent satisfaire toutes les variables modélisées, alors que l’étude épidémiologique a un objectif plus restreint pour lequel d’autres approches sont possibles. Dans la pratique, la définition d’un graphe acyclique dirigé est difficile et se heurte aux connaissances limitées que l’on a des phénomènes étudiés. Les
La
recherche causale en épidémiologie
51
méthodes de découverte automatique de DAG (Scheines et al., 1998) ne sont que très peu utilisées par les épidémiologistes (Robins et Wasserman, 1999), car elles ne résolvent ni le problème essentiel des facteurs de confusion non mesurés ni celui de cohérence avec les connaissances disponibles.
2.4. Le score de propension pour améliorer la qualité de l’ajustement Parallèlement à l’apparition des graphes acycliques dirigés (DAG), un autre courant d’analyse des données observationnelles a été fortement inspiré par la tentative de rapprocher chaque situation d’observation de l’essai randomisé correspondant ; cette approche culmine aujourd’hui avec le « target trial » (Hernan et Robins, 2016). L’étape essentielle est ici de passer d’une situation où l’intervention n’est pas allouée au hasard (soit parce qu’on étudie un traitement pour lequel il n’y a pas eu d’essai randomisé réalisé, soit parce qu’il s’agit d’une situation d’observation dans laquelle on étudie une exposition, et non une intervention) à une situation où cette intervention est quasi randomisée. C’est le but du score de propension (Rosenbaum et Rubin, 1983), qui représente la probabilité de recevoir l’intervention/exposition selon des caractéristiques observées (voir annexe A4). En comparant, à score de propension identique, les individus qui ont effectivement reçu l’intervention aux autres, on se rapproche de l’essai randomisé. L’analyse ajustée sur le score de propension permet alors d’attribuer à toute différence observée une interprétation causale. Dans la pratique, le score de propension n’est pas connu et doit être estimé à partir des données observées. Souvent, on inclut dans le modèle de propension « le plus possible » de variables disponibles, dans l’idée que la vraie propension sera ainsi mieux approchée et pour utiliser les données disponibles (Schneeweiss et al., 2009) ; d’autres approches sont plus économiques avec les variables ayant un rôle de confusion potentiel (associées au traitement/intervention et au résultat), et se rapprochent alors des approches traditionnelles d’ajustement « descendantes » telles que développées par Hosmer & Lemeshow (Hosmer et al., 2013). Le recours à un graphe acyclique dirigé pour organiser la sélection des variables est en fait nécessaire pour décider quelles variables inclure (Pearl, 2009b). Outre son rôle pour l’ajustement, l’intérêt majeur du score de propension est de mettre facilement en lumière (car en une dimension) les situations dans lesquelles la comparaison des individus exposés et non exposés ne permettra pas de conclure à l’existence d’un effet causal, les populations exposées et non exposées étant trop différentes au départ (comme c’est le cas lorsqu’aucun des individus des deux groupes comparés n’a le même score de propension).
52
La
causalité dans les sciences biologiques et médicales
2.5. Les variables instrumentales pour les facteurs de confusion non mesurés et la randomisation mendélienne Une limitation des approches présentées précédemment est de nécessiter l’observation de tous les facteurs de confusion pour permettre l’estimation effective de l’effet d’intérêt. L’analyse instrumentale (voir annexe A5-1) peut être utilisée lorsque ceci n’est pas vérifié, pour peu que l’on ait un bon instrument. En statistique, on appelle instrument une variable prédictive de l’exposition d’intérêt, indépendante des autres facteurs de confusion, et reliée au résultat de santé final uniquement par le biais de l’exposition. Des exemples de tels instruments sont la distance pour l’accès aux soins, le type d’assurance/remboursement, la préférence des prescripteurs, la période… Un cas d’utilisation particulièrement mis en avant dans les applications épidémiologiques est la « randomisation mendélienne » (Smith et Ebrahim, 2003) (voir annexe A5-2). L’instrument choisi est ici un déterminant génétique, lié à la variable dont on veut estimer l’effet mais sans lien direct avec le résultat d’intérêt. Ainsi, un variant du gène FTO (le « gène de l’obésité ») cause la variation de l’indice de masse corporelle (IMC) (Frayling et al., 2007), et permet par exemple d’étudier le rôle causal de l’obésité dans la mortalité en comparant la mortalité des individus selon les variants de FTO portés (Brennan et al., 2009). L’intérêt de tels instruments est d’exclure la possibilité d’une conclusion causale de l’effet vers la cause, car un caractère génétique préexiste toujours à une variation phénotypique.
Conclusion Les développements décrits dans ce chapitre montrent qu’il existe aujourd’hui un cadre conceptuel mathématique et statistique permettant l’analyse de données observationnelles dans le but de mieux appréhender les causes et leur importance. L’épidémiologiste n’utilise pas de « boîte noire » statistique d’où sortent des résultats « significatifs » destinés à pointer des « facteurs de risque ». Il a l’ambition d’aider à approcher une « architecture causale globale » (Keyes et Galea, 2017) grâce à des méthodes intégrant l’ensemble des connaissances a priori obtenues sur son sujet. Comme on parle de biologie des systèmes, on pourrait dire qu’on arrive à l’époque de l’épidémiologie des systèmes.
La
recherche causale en épidémiologie
53
Références Ball L. (2010) Cholera and the pump on broad street: the life and legacy of John Snow. UCLA. Baron J.H. (2009). Sailors’ scurvy before and after James Lind--a reassessment. Nutr Rev, 67(6): 315-32. Brennan P. et al. (2009). Obesity and cancer: Mendelian randomization approach utilizing the FTO genotype. International Journal of Epidemiology, 38(4): 971-975. Buchanan A.V., Weiss K.M., & Fullerton S.M. (2006). Dissecting complex disease: the quest for the Philosopher’s Stone? Int J Epidemiol, 35(3): 562-71. Costagliola D. & Hernan M.A. (2013). Beta-Blocker Use for Patients With or at Risk for Coronary Artery Disease. Jama-Journal of the American Medical Association, 309(5): 439-439. Costagliola D. (2007) Observation versus intervention in the evaluation of drugs: the story of hormone replacement therapy. C R Biol, 330(4): 347-55. Dawid A.P. (2000) Causal inference without counterfactuals. Journal of the American Statistical Association, 95(450): 407-424. Der G. (2002). Commentary: Structural equation modelling in epidemiology: some problems and prospects. International Journal of Epidemiology, 31(6): 1199-1200. Dimick J.B. et al. (2013) Bariatric Surgery Complications Before vs. After Implementation of a National Policy Restricting Coverage to Centers of Excellence. Jama-Journal of the American Medical Association, 309(8): 792-799. Doll R. & Hill A.B. (1950). Smoking and carcinoma of the lung; preliminary report. Br Med J, 2(4682): 739-48. Doll R. et al. (2004) Mortality in relation to smoking: 50 years’ observations on male British doctors. BMJ, 328(7455): 1519. Ducimetiere P. & Cambien F. (2007). Coronary heart disease aetiology: associations and causality. C R Biol, 330(4): 299-305. Eyler J.M. (1973). William Farr on the cholera: the sanitarian’s disease theory and the statistician’s method. J Hist Med Allied Sci, 28(2): 79-100. Feinstein A.R. (1988). Scientific standards in epidemiologic studies of the menace of daily life. Science, 242(4883): 1257-63.
54
La
causalité dans les sciences biologiques et médicales
Frayling T.M. et al. (2007). A common variant in the FTO gene is associated with body mass index and predisposes to childhood and adult obesity. Science, 316(5826): 889-894. Glymour C. & Glymour M.R. (2014). Race and Sex Are Causes. Epidemiology, 25(4): 488-490. Greenland S., Pearl J., & Robins J.M. (1999). Causal diagrams for epidemiologic research. Epidemiology, 10(1): 37-48. Hernan M.A. & Robins J.M. (2016). Using Big Data to Emulate a Target Trial When a Randomized Trial Is Not Available. American Journal of Epidemiology, 183(8): 758-764. Hill A.B. (1965) The Environment and Disease: Association or Causation? Proc R Soc Med, 58: 295-300. Holland P.W. (1986) Statistics and Causal Inference. Journal of the American Statistical Association, 81(396): 945-960. Hosmer D.W., Lemeshow S., & Sturdivant R.X. (2013). Applied Logistic Regression (3rd edition). Wiley, New York. Julia C. & Valleron A.J. (2010). Louis-Rene Villerme (1782-1863), a pioneer in social epidemiology: re-analysis of his data on comparative mortality in Paris in the early 19th century. J Epidemiol Community Health. Kaufman J.S. & Cooper R.S. (2001). Commentary: Considerations for use of racial/ethnic classification in etiologic research. American Journal of Epidemiology, 154(4): 291-298. Kaufman J.S. & Cooper R.S. (2008). Race in epidemiology: new tools, old problems. Ann Epidemiol, 18(2): 119-23. Keyes K.M. & Galea S. (2017). The Limits of Risk Factors Revisited Is It Time for a Causal Architecture Approach? Epidemiology, 28(1): 1-5. Lin S.S. & Kelsey J.L. (2000). Use of race and ethnicity in epidemiologic research: concepts, methodological issues, and suggestions for research. Epidemiol Rev, 22(2): 187-202. Lindley D.V. (2002). Seeing and doing: the concept of causation. International Statistical Review, 70(2): 191-197. Little R.J. & Rubin D.B. (2000). Causal effects in clinical and epidemiological studies via potential outcomes: Concepts and analytical approaches. Annual Review of Public Health, 21: 121-145.
La
recherche causale en épidémiologie
55
Maciejewski M.L. et al. (2011). Survival among high-risk patients after bariatric surgery. JAMA, 305(23): 2419-26. Mansson R. et al. (2007). On the estimation and use of propensity scores in case-control and case-cohort studies. American Journal of Epidemiology, 166(3): 332-339. Moher D. & Ravaud P. (2016). Increasing the evidence base in journalology: creating an international best practice journal research network. BMC Med, 14(1): 154. Moher D. et al. (2016). Increasing value and reducing waste in biomedical research: who’s listening? Lancet, 387(10027): 1573-86. Morabia A., Snow & Farr (2001). A scientific duet. Soz Praventivmed, 46(4): 223-4. Neyman J. (1990). On the application of probability theory to agricultural experiments: essays on principles, section IX (reprinted from Annals of Agriculture 1923). Statistical Science, 5: 465-480. Mantel N. & Haenszel W. (1959). Statistical aspects of the analysis of data from retrospective studies of disease. J Natl Cancer Inst, 22(4): 719-48. O’Brien P.E. et al. (2010). Laparoscopic adjustable gastric banding in severely obese adolescents: a randomized trial. JAMA, 303(6): 519-26. Pearl J. (2009a). Causality. Cambridge University Press. Pearl J. (2009b). Remarks on the method of propensity score. Statistics in Medicine, 28(9): 1415-16. Pearl J. (2014). Interpretation and Identification of Causal Mediation. Psychological Methods, 19(4): 459-481. Richardson S. (2000) Problèmes méthodologiques dans les études écologiques santé-environnement. CR Acad. Sci. Paris, 323: 611-616. Robins J.M. & Wasserman L. (1999). Rejoinder to Glymour and Spirtes, in Computation, Causation and Discovery, P. Glymour and G. Cooper, Editors. AAAI Press: Menlo Park, CA, Cambridge, MA. p. 333-342. Rosenbaum P.R. & Rubin D.B. (1983). The Central Role of the Propensity Score in Observational Studies for Causal Effects. Biometrika, 70(1): 41-55. Rothman K.J. (2014). Six persistent research misconceptions. J Gen Intern Med, 29(7): 1060-4. Rubin D.B. (1974). Estimating Causal Effects of Treatments in Randomized and Nonrandomized Studies. Journal of Educational Psychology, 66(5): 688-701.
56
La
causalité dans les sciences biologiques et médicales
Sackett D.L. (1989). Rules of evidence and clinical recommendations on the use of antithrombotic agents. Chest, 95(2 Suppl): 2S-4S. Scheines R. et al. (1998) The TETRAD Project: Constraint Based Aids to Causal Model Specification. Multivariate Behav Res, 33(1): 65-117. Schneeweiss S. et al. (2009). High-dimensional Propensity Score Adjustment in Studies of Treatment Effects Using Health Care Claims Data. Epidemiology, 20(4): 512-522. Schwartz D. (1961). Results of a french survey on the role of tobacco, particularly inhalation, in different cancer sites. Journal of the national cancer institute, 26(5): 1085-1108. Smith G.D. & Ebrahim S. (2003). ‘Mendelian randomization’: can genetic epidemiology contribute to understanding environmental determinants of disease? International Journal of Epidemiology, 32(1): 1-22. Stolley P.D. (1991). When genius errs: R.A. Fisher and the lung cancer controversy. Am J Epidemiol, 133(5): 416-25; discussion 426-8. Taubes G. (1995) Epidemiology faces its limits. Science, 269(5221): 164-9. Valleron A.-J. (2006). L’épidémiologie humaine. Rapports sur la science et la technologie, ed. Acad. Sci., EDP Sciences, Paris, 424 p. Valleron A.J. (2000) Mise en évidence des faits et recherche des causes en épidémiologie environnementale : enjeux méthodologiques. C.R. Acad. Sci., Sciences de la Vie, 323: 617-628. Vandenbroucke J.P., Broadbent A., & Pearce N. (2016). Causality and causal inference in epidemiology: the need for a pluralistic approach. Int J Epidemiol. VanderWeele T.J. & Robinson W.R. (2014). On the Causal Interpretation of Race in Regressions Adjusting for Confounding and Mediating Variables. Epidemiology, 25(4): 473-484. VanderWeele T.J. (2012). Invited Commentary: Structural Equation Models and Epidemiologic Analysis. American Journal of Epidemiology, 176(7): 608-612. Westreich D. & Greenland S. (2013). The table 2 fallacy: presenting and interpreting confounder and modifier coefficients. Am J Epidemiol, 177(4): 292-8. White C. (1990). Research on smoking and lung cancer: a landmark in the history of chronic disease epidemiology. Yale J Biol Med, 63(1): 29-46.
Chapitre 5
L’écologie face aux causalités multiples Henri Décamps L’histoire est bien connue des naturalistes : quand il reçut des exemplaires d’Angraecum sesquipedale, orchidée nouvelle de Madagascar, Charles Darwin s’étonna de la longueur exceptionnelle de son éperon, ce tube creux au fond duquel des cellules produisent le nectar de la plante. Il en déduisit l’existence, à Madagascar, d’un papillon doté d’une trompe d’une trentaine de centimètres de longueur lui permettant de parvenir à ce nectar et, par la même occasion, d’assurer la pollinisation de l’orchidée. Ce qu’il publia dans son ouvrage de 1862 sur la fécondation des orchidées. Hypothèse aussitôt critiquée, voire tournée en dérision, mais hypothèse défendue par Alfred Russel Wallace pour qui « l’existence d’un tel papillon à Madagascar pouvait être prédite avec certitude », précisant qu’il devait s’agir d’une espèce apparentée à un grand sphinx du continent africain. En 1902, quarante ans plus tard, on découvrit à Madagascar une sous-espèce de ce grand sphinx africain. On l’appela Xanthopan morganii praedicta et, 95 ans après sa découverte, on eut la preuve photographique que cette sous-espèce assurait la pollinisation d’Angraecum sesquipedale. Cette histoire illustre comment s’établissent les relations de causalité en écologie : toute affirmation de causalité déclenche d’abord une controverse ; cette controverse s’atténue par une convergence d’approches théoriques et
58
La
causalité dans les sciences biologiques et médicales
empiriques ; elle peut parvenir à une solution dans un cadre plus global, ici celui de la coévolution ; parallèlement, la notion de causalité est souvent associée à celles de prédiction et de gestion environnementale. On retrouve ces différentes étapes à l’examen de deux questions posées en écologie : 1) La biodiversité est-elle cause d’une plus grande production ? 2) Comment identifier les causes des fluctuations des populations ? Nous développerons la première question sur l’exemple des herbacées dans les prairies, et la deuxième, sur celui de séries chronologiques de populations de poissons marins. Nous dégagerons enfin quelques perspectives à propos de la causalité en écologie.
1
Richesse spécifique et productivité des prairies
Nitrate du sol (mg/kg)
Couvert végétal total (%)
Dans les années 1990, diverses manipulations ont été réalisées dans la prairie expérimentale de Cedar Creek à l’université du Minnesota. Elles ont suggéré qu’en augmentant la richesse spécifique des plantes – le nombre d’espèces présentes pris comme indice de la biodiversité végétale – on augmentait la productivité de cette prairie. Certaines de ces manipulations ont par exemple porté sur des parcelles différant entre elles par leur niveau de richesse spécifique, chaque parcelle hébergeant des compositions floristiques déterminées au hasard et faisant l’objet de nombreuses réplications (Tilman et al., 1996, 1997). Après deux années, ces expériences montraient que la productivité estimée par le couvert végétal total augmentait avec le nombre d’espèces végétales, et qu’inversement, les teneurs en nitrates du sol diminuaient, les nitrates étant la forme d’azote absorbée par les plantes – et pour laquelle elles sont en compétition (Fig. 1). Ailleurs, d’autres expériences, ajoutaient que la diversité des groupes fonctionnels présents dans les parcelles était aussi à prendre en compte, ces groupes fonctionnels pouvant être des annuelles précoces ou tardives, des pérennes, des fixatrices d’azote, seules ou en mélange (Hooper et Vitousek, 1997).
Nombre d’espèces Figure 5.1 Augmentation des couverts végétaux et diminution des teneurs en nitrates du sol, en fonction du nombre d’espèces végétales présentes (Tilman et al., 2014).
L’écologie
face aux causalités multiples
59
Pour leurs auteurs, ces expériences et quelques autres montraient qu’un plus grand nombre d’espèces conduit à une plus grande diversité de traits5, cause directe d’une plus grande production de biomasse. Mais cette interprétation ne fit pas l’unanimité. Pour beaucoup, ces expériences ne démontraient pas que la biodiversité était cause d’une plus grande productivité : elles rendaient simplement compte d’un effet de sélection, dans la mesure où les espèces les plus productives ont une plus grande chance de présence à plus haute diversité (Huston, 1997), mais aussi d’un effet de complémentarité entre les espèces présentes (Loreau et Hector, 2001). Ce débat a donné lieu à une prolifération d’études théoriques et empiriques, et de synthèses amenant à l’idée que les communautés diversifiées seraient plus productives parce qu’elles contiennent des espèces clés qui ont une grande influence sur la productivité (Cardinale et al., 2012). Ce consensus rejoint en partie le point de vue développé par l’écologue britannique John Philip Grime (1998) qui distingue trois catégories d’espèces : les dominantes, les subordonnées et les transitoires. Les dominantes peu nombreuses, plus grandes, contribuent fortement à la biomasse végétale ; les subordonnées quoique plus nombreuses, sont plus petites et forment une plus faible proportion de la biomasse ; les transitoires, peu abondantes, sont souvent représentées par des formes juvéniles d’espèces qui peuvent être subordonnées ou dominantes dans les écosystèmes voisins. Pour Grime, la production primaire d’un écosystème est sous le contrôle immédiat des plantes dominantes beaucoup plus que des subordonnées et des transitoires. Elle n’est donc pas sous le seul contrôle de la simple richesse spécifique. Pour autant, ce contrôle des dominantes n’exclut pas une implication des subordonnées et des transitoires dans le fonctionnement et la pérennité des écosystèmes. Par exemple, les transitoires issues des systèmes environnants constituent un pool de dominantes et de subordonnées potentielles après une perturbation, et peuvent avoir un effet fondateur sur le long terme. L’intérêt de la diversité des plantes tiendrait donc aux possibilités offertes de recrutement d’espèces dominantes (influentes sur la productivité), non à de simples effets immédiats. Une nouvelle dimension est ajoutée par Adler et une soixantaine de coauteurs en 2011. Ces auteurs soulignent la nécessité de mieux prendre en compte les causes multiples des variations de la biodiversité et de la productivité : un ensemble de caractéristiques abiotiques gouverne la relation entre biodiversité (approchée par la richesse spécifique) et fonctions écosystémiques associées (approchées par la productivité primaire), au côté d’actions et de rétroactions entre la biodiversité et le pool des espèces environnantes (Fig. 2). Cette 5 Toute caractéristique de morphologie, physiologie ou phénologie mesurable au niveau individuel, de la cellule à l’organisme dans son ensemble, sans référence à l’environnement ou à tout autre niveau d’organisation (population, communauté, écosystème), selon Violle et al. (2007).
60
La
causalité dans les sciences biologiques et médicales
idée a été précisée récemment par Grace et al., (2016) pour qui les interactions entre la richesse spécifique et la productivité ne peuvent être comprises que dans le cadre d’un réseau de facteurs. Partant d’un modèle d’équations structurelles6, ces auteurs évaluent la cohérence entre, d’une part un réseau présumé de relations causales issu de la bibliographie, et d’autre part des variables relevées en 39 sites (comprenant au total 1 126 parcelles de 1 m2) de prairies disséminées à travers la planète. Ils replacent ainsi les relations entre biodiversité, productivité et biomasse dans le cadre d’un réseau causal dans lequel la biodiversité a un effet positif sur la productivité, laquelle a un effet positif sur la biomasse, cette dernière ayant un effet négatif sur la biodiversité, suggérant que la compétition entre espèces est un facteur décisif du niveau de biodiversité de ces communautés (Fig. 3). Ces relations sont en outre régies par des facteurs abiotiques forts tels que les températures, les précipitations, les propriétés du sol, les perturbations en tout genre. On arrive ainsi à un modèle plus complet des interactions entre la productivité et la biodiversité. Mais il convient encore de voir si d’autres interprétations de la bibliographie ne sont pas possibles, d’autres réseaux de causes cohérents avec les données. Précipitations
Biodiversité locale
Énergie disponible
Nutriments
Fonctions de l’écosystème
Pool d’espèces environnantes Figure 5.2 Schéma des relations entre biodiversité et fonctions écosystémiques associées (d’après Willig, 2011). 6 Les Modèles d’Équations Structurelles (MES) sont particulièrement adaptés à l’étude des processus causals dans les systèmes écologiques complexes. Utilisant une grande variété de techniques et d’outils statistiques, ils incorporent à la fois des représentations graphiques et mathématiques, et permettent l’expression explicite d’hypothèses causales. Les premiers travaux de Wright (1920, 1921) sont à l’origine de l’analyse des pistes causales, avec la modélisation graphique des relations entre variables à partir de systèmes biologiques. L’extension de ces travaux à l’économétrie et aux sciences sociales a ensuite permis d’établir les bases de la modélisation par équations structurelles, portant sur les combinaisons statistiques des variables, y compris de variables latentes. L’utilité de cette modélisation en écologie et en biologie évolutive s’est affirmée dans les années 1990, ouvrant la voie à de nombreuses études (Grace et al., 2012). Dans le même temps, le domaine de l’intelligence artificielle a renouvelé les idées sur les MES, avec les travaux de Pearl (2009, 2012) soulignant la nécessité d’une considération explicite des relations causales dans le développement des systèmes intelligents (voir chapitre 4, Pierre-Yves Boëlle et Alain-Jacques Valleron).
L’écologie
face aux causalités multiples
61
Figure 5.3 Modèle d’équations structurelles des connections entre productivité et richesse spécifique : cohérence entre un réseau présumé de relations causales et de données provenant de 39 sites (1126 parcelles) distribuées dans le monde. Les flèches en trait continu correspondent à des effets positifs et celles en tirets à des effets négatifs. Les influences réciproques de la productivité et de la richesse prennent en compte leurs variations expliquées par les déterminants environnementaux. Nombre de processus liant la productivité et la richesse spécifique opèrent dans le cadre d’un système d’ensemble de causes et d’effets (d’après Grace et al., 2016).
On doit aussi se demander ce qu’apporteraient d’autres métriques de la biodiversité, s’appuyant, non sur la richesse spécifique, mais sur l’équitabilité, la phylogénie, les groupes fonctionnels…, tout en sachant qu’une métrique donnée conviendra davantage à tel groupe ou à telle question, mais qu’une autre métrique conviendra mieux à tel autre groupe ou à telle autre question (Tilman et al., 2014). Dans cet esprit, les synthèses des travaux portant sur divers réseaux trophiques (par exemple Griffin et al., 2013) et sur divers écosystèmes (par exemple Cardinale et al., 2006) confirment l’idée qu’une diversité plus élevée augmente les modalités de fonctionnement des écosystèmes. Théoriquement, l’influence de la biodiversité sur les fonctions de l’écosystème est plus forte quand des espèces fonctionnellement différentes coexistent dans un espace aux ressources disponibles variées : les effets de complémentarité peuvent alors se développer, sauf si un affaiblissement de la variété de ressources provoque de forts effets de sélection (Hodapp et al., 2016). Ainsi, la biodiversité n’affecte pas, ou très peu, les fonctions écosystémiques dans un environnement homogène, limité à une seule niche, quelques espèces seulement étant adaptées et performantes. Elle n’affecte pas non plus, ou très peu, les fonctions écosystémiques dans un environnement hétérogène, aux nombreuses niches, mais peuplé d’espèces semblables n’occupant qu’une fraction des niches présentes. Seule une grande diversité d’espèces coexistant dans grande diversité de niches conduira à des relations fortement positives entre diversité et utilisation des ressources disponibles (Ptacnik et al., 2010).
62
La
causalité dans les sciences biologiques et médicales
Notons enfin que l’influence causale de la biodiversité sur la stabilité et la productivité des écosystèmes a été déduite d’expériences traitant surtout des effets de la richesse spécifique sur certaines fonctions écosystémiques individuelles – production de biomasse, utilisation des ressources, décomposition. Cependant, les écosystèmes naturels sont le siège de nombreux processus interconnectés, et connaitre l’effet de la biodiversité sur certaines fonctions écosystémiques ne suffit pas pour comprendre cet effet sur l’ensemble intégré de ces fonctions. D’où la question de savoir comment la biodiversité affecte simultanément la multitude des fonctions écosystémiques présentes dans la nature (Hillebrand et Matthiessen, 2009 ; Lefcheck et al., 2015) : des espèces différentes pilotent-elles des fonctions différentes, des espèces différentes pilotent-elles une même fonction sous des conditions environnementales différentes, l’effet de la biodiversité sur la multifonctionnalité écosystémique s’accroit-il quand on considère plus de fonctions ?
2
Séries chronologiques
Les séries chronologiques suscitent d’autres interrogations, par exemple à propos des causes des fluctuations de la taille des populations. Un cas d’école est celui des fluctuations des bancs de sardine qui, au large de Monterey, en Californie, conduisirent à l’effondrement de la pêche à partir de la fin des années 1940. La pêche à la sardine s’est en effet développée de façon spectaculaire dans cette région, au cours des années 1920, pour atteindre ou dépasser 400 000 tonnes de sardines débarquées chaque année entre 1934 et 1944 dans les ports de Californie. Durant cette période, une vingtaine de conserveries s’installèrent dans la seule ville de Monterey, théâtre d’une intense activité décrite en 1945 par John Steinbeck dans son roman Cannery Row (traduit en français sous le titre de La Rue de la Sardine). L’effondrement de cette pêche atteignit son paroxysme au début des années 1950, pour une cause qui, a priori, parut évidente : une pêche excessive. Hypothèse aussitôt contestée, en premier lieu par les professionnels de la pêche, et mise à l’épreuve par les scientifiques selon deux approches. Une première approche s’est construite sur l’idée que la pêche n’était pas la seule cause de l’épuisement des stocks de sardines. Elle a amené Lindegren et al. (2013) à montrer que l’effondrement de ces stocks était inévitable, indépendamment de l’intensité des pêches. Tout au plus cette dernière a-t-elle pu accélérer le déclin des populations de sardine et retardé leur rétablissement. À l’analyse, parmi les causes profondes du déclin des stocks de sardines figurent les interactions entre l’atmosphère et l’océan qui accélèrent ou ralentissent les gyres, grands tourbillons marins de surface, avec des conséquences
L’écologie
face aux causalités multiples
63
sur les eaux côtières. Plus globalement, l’Océan Pacifique présente des oscillations de température sur environ 25 années, comparables à celles d’El Nino, avec des variations qui coïncident avec les cycles d’abondance et de déclin des populations de sardines. Or, Francisco Chavez, de l’aquarium de la baie de Monterey, et plusieurs de ses collègues, ont suivi ces cycles sur une centaine d’années, révélant l’existence d’une alternance de deux régimes – le « régime sardines » et le « régime anchois » : les sardines abondent quand les eaux sont chaudes, et les anchois quand les eaux sont froides (Chavez et al., 2003). Cependant, les mêmes auteurs ajoutent que cette alternance n’est pas confirmée par l’étude des écailles de sardines et d’anchois conservées dans les sédiments pendant des milliers d’années : les deux espèces peuvent être abondantes en même temps. On en arrive ainsi à l’idée de corrélations apparaissant et disparaissant spontanément ou même changeant de signe : des variables X et Y peuvent d’abord paraitre corrélées, puis inversement corrélées, et enfin sans cohérence aucune. Il faut alors constamment repenser des relations qu’on pensait avoir comprises, rappelant qu’il est toujours risqué d’utiliser une corrélation pour inférer une causalité, comme le notait déjà Berkeley en 1710. Dans la seconde approche, l’évidence de causalité est recherchée dans les liens dynamiques entre les variables. Pour l’économiste Clive Granger (1969) : « une variable X est dite causer une variable Y si la prévisibilité de Y décline quand X est enlevé de l’univers de toutes les variables causales possibles ». Mais cette causalité de Granger suppose la séparabilité, c’est-à-dire l’indépendance des variables entre elles, caractéristique de systèmes purement stochastiques et linéaires, ce que ne sont pas les systèmes écologiques. Pour Sugihara et al. (2012), les systèmes écologiques relèvent d’autres techniques, par exemple celle de l’application croisée convergente7 développée pour estimer dans quelle mesure l’histoire d’une variable influencée Y estime 7 L’Application Croisée Convergente (ACC) est un test statistique de la relation de causalité susceptible d’exister entre deux variables d’une série chronologique. L’ACC s’appuie sur la théorie des systèmes dynamiques. Elle reconstruit une variété de chacune des variables à examiner, puis compare les points sur les variétés reconstruites. Si les voisinages sur une variété peuvent être utilisés pour prédire ceux sur l’autre variété, alors on peut conclure que les variables associées sont causalement connectées (Sugihara et al., 2012). Quand cette causalité est unilatérale (exemple du climat X déterminant une dynamique de populations de poissons Y), il est possible d’estimer le climat X à partir des populations de poissons Y, mais non l’inverse (Y à partir de X) : X peut être prédit à partir de Y parce que le comportement de Y encode partiellement X mais non l’inverse (théorème de Takens). Si deux espèces, X et Y, n’interagissent pas mais sont toutes deux déterminées par une variable environnementale Z, il n’y aura pas d’application croisée entre les espèces X et Y parce qu’il n’y a pas de flux d’information entre elles ; cependant, l’information sur la variable externe de forçage Z peut encore être retrouvée à partir de X et de Y (voir aussi Bozorg Magham et al., 2015).
64
La
causalité dans les sciences biologiques et médicales
les états d’une variable causale X. Meilleure est cette estimation de X, plus forte est l’influence causale de X sur Y.
2
4
Sardines Anchois 1
0
2
1930
1940
1950
1960
Application croisée 0,4
30
L
40
50
60
0
TS à partir des anchois
0,3
anchois à partir de TS
0,2
0,1
20
0
2000
Application croisée
sardines à partir de TS
0,2
0,1 0
1990
0,4
TS à partir des sardines
0,3
sardines à partir des anchois
0,2
1980
Application croisée 0,4
anchois à partir des sardines
0,3
1970
Débarquements d’anchois (106 t)
Débarquements de sardines (106 t)
Appliquée aux débarquements californiens de sardines et d’anchois, l’application croisée montre qu’il n’y a pas d’interactions entre les sardines et les anchois, mais que les sardines, comme les anchois, sont sous l’influence de la température des eaux de surface (Fig. 5.4). Le coefficient de corrélation ρ indiqué sur la figure 5.4 quantifie la capacité d’estimation de l’application, capacité qui s’améliore avec la longueur de la série temporelle considérée.
0,1
20
30
L
40
50
60
0
20
30
40
L
50
60
Figure 5.4 Détection de la causalité dans des séries temporelles de pêche. En haut, débarquements de sardines du Pacifique et d’anchois nordiques en divers ports californiens entre 1930 et 2005. En bas, existence ou non d’application croisée convergente (ACC) montrant que les espèces sardines et anchois n’interagissent pas entre elles mais subissent l’une et l’autre le forçage de la température. De gauche à droite : sardines versus anchois, sardines versus températures des eaux de surface (TS) à La Jolla, anchois versus températures des eaux de surface (TS) à Newport. Le coefficient de corrélation entre les états prédits et observés (ρ) mesure la capacité de l’ACC à prédire les états de la variable de forçage à partir de la variété de la variable forcée ; cette capacité augmente avec la longueur de la série temporelle L. (d’après Sugihara et al., 2012).
Ainsi, l’application croisée convergente montre clairement qu’il n’y a pas d’interactions entre les populations de sardines et d’anchois au large des côtes de Californie, et que les eaux de surface chaudes conviennent mieux à la pêche à la sardine. En première analyse, le réchauffement climatique devrait donc favoriser les populations de sardines. En réalité, ce n’est pas si simple car le réchauffement des eaux de surface transforme de manière imprévisible toute la dynamique des courants marins et leurs conséquences sur les eaux côtières. De plus, l’état des populations conditionne l’effet de la température, cet effet variant selon que la population est plus ou moins âgée, plus ou moins abondante… Une bonne gestion des pêches doit refléter cette complexité – et prendre en compte, par exemple, les différents niveaux d’abondance des populations.
L’écologie
face aux causalités multiples
65
En fait, l’ampleur des populations de sardines, comme des autres espèces de poissons, est déterminée par un ensemble de variables physiques, biologiques et humaines aux multiples interactions. Et ces interactions peuvent changer au fur et à mesure que l’écosystème évolue dans le temps. Toute recherche de causalité doit s’appuyer sur les liens dynamiques existant entre ces facteurs et non sur des corrélations statistiques prises une à une. La capacité d’adapter la gestion des pêches aux changements de l’environnement océanique en dépend, de même que celle de la prédiction des pêches à venir (Deyle et al., 2013).
3
Perspectives
La notion de causalité est souvent associée à celle de prédiction, comme on l’a vu en introduction à ce chapitre. Cette association est essentielle en matière de gestion environnementale. Dans un article intitulé « L’écologie prédictive dans un monde changeant », un groupe de chercheurs français souligne la nécessité d’une éthique de la prédiction en écologie (Mouquet et al., 2015) : comment et quand communiquer les résultats scientifiques au public, quelle est la responsabilité des scientifiques quant à l’usage de prédictions issues de leurs recherches ? La recherche des relations de causalité s’inscrit sans aucun doute dans de telles réflexions. D’abord pour ce que peut apporter cette recherche à la gestion environnementale. Ensuite pour l’affirmation du caractère fondamental de la science écologique, en particulier face aux actions parfois abusivement menées en son nom. Surtout, une réflexion éthique s’impose face aux bases de données massives organisées aujourd’hui en écologie, comme en d’autres domaines de la Science. Ces « Big Data » – ou mégadonnées – rassemblent des ensembles hors de portée des outils classiques de gestion des données. On comprend que l’idée de tirer des inférences causales de tels ensembles soit à la fois extraordinairement stimulante et difficile. Introduisant une douzaine d’articles présentés lors d’un récent colloque sur cette question, Shiffrin (2016) insiste sur le renouvellement des idées actuellement en cours en divers domaines, selon des approches relevant de la statistique, de la théorie des graphes, de l’apprentissage automatique, de la philosophie. Ce renouvellement rend possible la déduction d’inférences causales valides à partir d’un accès à des données massives. En écologie, le Système Mondial d’Informations sur la Biodiversité (le GBIF, Global Biodiversity Information Facility) permet déjà le partage de grandes quantités de données sur les occurrences d’espèces – données de collections d’histoire naturelle et d’observations à partir d’inventaires et de suivis les plus divers… Ainsi Zanne et al. (2014) ont-ils pu accéder à 47 millions de
66
La
causalité dans les sciences biologiques et médicales
données d’occurrence pour déterminer les distributions de plus de 27 000 espèces de plantes, et, ayant identifié celles exposées au gel dans leur aire de distribution à l’aide d’une base climatique, découvert dans quel ordre les plantes apparues en milieux tropicaux ont adopté des stratégies telles que la chute des feuilles, la descente de sève, la formation de bulbes, des modifications biochimiques… pour coloniser des aires dans lesquelles des périodes de gel deviennent possibles en hiver. Cet exemple est emblématique des recherches permises par l’existence d’une infrastructure commune, mettant les données sur la biodiversité à la disposition de tous. Et l’auteur principal de l’article insiste : « sans le GBIF, l’étude n’aurait absolument pas été possible car nous n’avions pas d’autre moyen d’accéder à la distribution d’autant d’espèces ». Cependant, divers auteurs soulignent l’importance des efforts encore à accomplir quant à la qualité des données (Yesson et al., 2007), la validation de ces données par des experts en taxonomie (Maldonado et al., 2015), l’éthique à propos des pratiques relatives aux mégadonnées (Mittelstadt & Floridi, 2016). Parallèlement, la question des causalités multiples ne saurait être développée sans recourir à une approche formelle. Il y a 40 ans, le britannique Robert May (1976) plaidait pour une initiation des chercheurs en écologie à la non-linéarité « tôt dans leur éducation mathématique ». Exhortation toujours d’actualité, ne serait-ce que pour compléter l’avertissement du canadien Rex Kline (2011), dans son ouvrage classique sur les modèles d’équations structurelles : « aucune technique magique ne saurait discerner des relations causales en l’absence d’un projet expérimental ou quasi-expérimental ». On retiendra en effet, avec Judea Pearl (2002) que « la science expérimentale n’a pas pleinement bénéficié de la puissance des méthodes formelles – les mathématiques formelles ont été utilisées principalement pour analyser des observations passives, sous des conditions limites fixées, mais le choix des actions, la création de nouvelles expériences, et les transitions entre des conditions limites, ont été organisées par l’intelligence humaine non aidée ». Pearl précise en outre que « le développement [de l’intelligence artificielle] exige un nouveau type d’analyse, dans lequel la composante « faire » de la science bénéficie de mathématiques formelles, au même titre que sa composante « observationnelle » ». Il ajoute enfin : « La rencontre de ces deux composantes apportera une autre révolution scientifique, peut être égale par son impact à celle qui se produisit à la Renaissance ». Ce qui vaut pour le domaine de l’intelligence artificielle ne vaudrait-il pas pour celui de l’écologie ?
L’écologie
face aux causalités multiples
67
Références Adler P.B. et al. (2011). Productivity is a poor predictor of plant species richness. Science, 333: 1750-1753. Bozorg Magham A.E. et al. (2015). Causality analysis: identifying the leading element in a coupled dynamical system. PLoS ONE 10(6): e0131226. doi:10.1371/journal.pone.0131226 Cardinale B.J. et al. (2006). Effects of biodiversity on the functioning of trophic groups and ecosystems. Nature, 443: 989–992. Cardinale B.J. et al. (2012). Biodiversity loss and its impact on humanity. Nature, 486: 59-67. Chavez F.P. et al. (2003). From anchovies to sardines and back: multidecadal change in the Pacific Ocean. Science, 299: 217-221. Darwin Ch. (1862). On the various contrivances by which British and foreign orchids are fertilised by insects. London: John Murray. Deyle E.R. et al. (2013). Predicting climate effects on Pacific sardine. Proceedings of the National Academy of Sciences, 110: 6430–6435. Grace J.B. et al. (2012). Guidelines for a graph-theoretic implementation of structural equation modeling. Ecosphere 3, article 73: 1-44 . http://dx.doi. org/10.1890/ES12-00048.1 Grace J.B. et al. (2016). Integrative modelling reveals mechanisms linking productivity and plant species richness. Nature, 529: 390-393. Granger C.W.J. (1969). Investigating causal relations by econometric models and cross-spectral methods. Econometrica, 37: 424–438. Grime J.P. (1998). Benefits of plant diversity to ecosystems: immediate filter and founder effects. Journal of Ecology, 86: 902-910. Gross K. (2016). Biodiversity and productivity entwined. Nature, 529: 293-294. Griffin J.N. et al. (2013). Effects of predator richness on prey suppression: a meta-analysis. Ecology, 94: 2180–2187. Hillebrand H. & Matthiessen B. (2009). Biodiversity in a complex world: consolidation and progress in functional biodiversity research. Ecology Letters, 12: 1405–1419.
68
La
causalité dans les sciences biologiques et médicales
Hodapp D. et al. (2016). Environmental and trait variability constrain community structure and the biodiversity-productivity relationship. Ecology, 97: 1463–1474 Hooper D.U. & Vitousek P.M. (1997). The effects of plant composition and diversity on ecosystem processes. Science, 277: 1302-1305. Huston M.A. (1997). Hidden treatments in ecological experiments: re-evaluating the ecosystem function of biodiversity. Oecologia, 110: 449-460. Kline R.B. (2011). Principles and practice of structural equation modeling. Third Edition. The Guilford Press, New York, USA. Lefcheck J.S. et al. (2015). Biodiversity enhances ecosystem multifunctionality across trophic levels and habitats. Nature Comm. DOI: 10.1038/ ncomms7936 Lindegren M. et al. (2013). Climate, fishing, and fluctuations of sardine and anchovy in the California Current. Proceedings of the National Academy of Sciences, 110: 13672–13677. Loreau M. & Hector A. (2001). Partitioning selection and complementarity in biodiversity experiments. Nature, 412: 72-76. Maldonado C. et al. (2015). Estimating species diversity and distribution in the era of Big Data: to what extent can we trust public databases? Global Ecology and Biogeography, 24: 973–984. May R.M. (1976). Simple mathematical models with very complicated dynamics. Nature,261: 459-467. Mittelstadt B.D. & Floridi L. (2016). The Ethics of Big Data: Current and Foreseeable Issues in Biomedical Contexts. Science and Engineering Ethics, 22: 303-341. Mouquet N. et al. (2015). Predictive ecology in a changing world. Journal of Applied Ecology, 52: 1293–1310. Pearl J. (2002). Reasoning with Cause and Effect. AI Magazine, 23: 95-111 Pearl J. (2009). Causality. Second edition. Cambridge University Press, Cambridge, UK. Pearl J. (2012). The causal foundations of structural equation modeling. Pages 68–91 in R. H. Hoyle, editor. Handbook of structural equation modeling. Guilford Press, New York, New York, USA. Ptacnik R. et al. (2010). Hutchinson reversed, or why there need to be so many species. Advances in Ecological Research, 43: 1-33.
L’écologie
face aux causalités multiples
69
Shiffrin R.M. (2016). Drawing causal inference from Big Data. Proceedings of the National Academy of Sciences, 113: 7308–7309. Sugihara G. et al. (2012). Detecting causality in complex ecosystems. Science, 338: 496-500. Tilman D. et al. (1996). Productivity and sustainability influenced by biodiversity. Nature, 379: 718-720. Tilman D. et al. (1997). The influence of functional diversity and composition on ecosystem processes. Science, 277: 1300-1303. Tilman D. et al. (2014). Biodiversity and ecosystem functioning. Annual Review of Ecology, Evolution, and Systematics, 45: 471–93. Violle C. et al. (2007). Let the concept of trait be functional. Oikos, 116: 882-892. Willig M.R. (2011). Biodiversity and Productivity. Science, 333: 1709-1710. Wright S. (1920). The relative importance of heredity and environment in determining the piebald pattern of guinea pigs. Proceedings of the National Academy of Sciences, 6: 320–332. Wright S. (1921). Correlation and causation. Journal of Agricultural Research, 10: 557–585. Yesson C. et al. (2007). How Global Is the Global Biodiversity Information Facility? PLoS ONE 2(11): e1124. doi:10.1371/journal.pone.0001124 Zanne A.E. et al. (2014). Three keys to the radiation of angiosperms into freezing environments. Nature, 506: 89-92.
Chapitre 6
Pathologies comportementales et sociales : la question des origines Michel Le Moal Introduction La recherche des causalités a, au plan temporel, deux orientations : expliquer les éléments passés, c’est la causalité historique, prédire les événements futurs et interpréter l’orientation des phénomènes, c’est la finalité présente. La théorie de l’évolution a démontré l’indépendance de l’explication et de la prédiction car la prédiction est statistique. L’enchainement causal est toujours historique ; l’ordre entre la cause et son effet est temporel ; la cause est un facteur qui modifie le cours de l’histoire d’un processus. De plus, comme le rappelle D. Hume (1748), chaque effet est un élément distinct de sa cause ; il ne peut être découvert dans la cause. Il n’y a pas de relations logiques entre eux. Une confusion largement répandue existe entre cause et conséquence, entre le pourquoi et le comment (Campbell, 2008). Dans les sciences de la vie et de la santé, et plus particulièrement dans le domaine des neurosciences cliniques, la recherche des causes est essentielle. Le
72
La
causalité dans les sciences biologiques et médicales
pourquoi et le comment du basculement de la physiologie vers la pathologie, la pathogenèse, sont la base de la recherche médicale et de la découverte rationnelle d’un médicament adéquat. Les niveaux d’approche ont une importance fondamentale. Il est admis que le système nerveux s’aborde par la génétique moléculaire, ou au niveau des cellules et des relations intercellulaires, ou au niveau des fonctions, et enfin en considérant les manifestations plus globales relevant de la psychologie et des sciences du comportement. Pour chacun des niveaux, la recherche poursuit des buts particuliers avec des méthodes différentes et l’articulation des découvertes propres à chacune des approches, des plus réduites aux plus intégrées, devrait permettre une meilleure connaissance du cerveau. Cependant, au sein de ce va-et-vient nommé classiquement « top-down » et « bottom-up » sont proposées pour chaque niveau des causalités spécifiques. Les neurosciences fondamentales et cliniques contemporaines sont régies par des dogmes fondateurs. Fondamentalement, tout ce que le cerveau fait est explicable à partir du fonctionnement de ses composants de base (neurones). Complémentairement, à tout événement mental correspond un événement cérébral qui lui est causal : la connaissance du cérébral permet la connaissance du mental. Toutefois le réductionnisme et le physicalisme ne sont pas les seuls paradigmes possibles. L’être vivant n’existe que par ses interactions avec les environnements qui le façonnent dès la conception et qui seront ultérieurement créés ou choisis en fonction d’un patrimoine génétique hérité de l’évolution. L’étude du comportement humain et de ses pathologies est nécessairement historique, en se rappelant que les processus historiques n’agissent jamais avec un but préétabli. L’évolution détermine des contraintes. Les capacités d’adaptation sont aussi des acquis de cette évolution génétique ; cependant l’environnement humain, subi ou créé par l’espèce, engendre des pathologies, témoins des limites adaptatives. Cette perspective, paradoxalement, est rarement considérée en médecine.
1
Neurobiologie du comportement et phylogénie
1.1. Causes distales, causes proximales en biologie Dans un article fondamental et majeur, référence toujours actuelle pour une réflexion sur la causalité, E. Mayr (1961) rappelait que la biologie n’est en rien une science uniforme et unifiée. Il faut distinguer une biologie dite « fonctionnelle » et une biologie dite « évolutionniste ». Par exemple, le fonctionnement d’une cellule peut être ramené aux mouvements de molécules en fonction de lois précises et en raison de stimulations spécifiques, mais toute
Pathologies
comportementales et sociales : la question des origines
73
cellule vivante est également porteuse des expériences diverses acquises au cours des millions d’années d’expériences léguées par ses ancêtres. La première biologie, fonctionnelle, s’emploie à isoler les composants d’un individu, d’un organe, d’une cellule, par l’intermédiaire d’expériences contrôlées éliminant toute variation et par des méthodes rigoureuses de nature réductionniste relevant de la physique et de la chimie, puis à en démontrer les fonctions. De fait, la question posée est de savoir « comment » des causes proximales gouvernent les réponses de l’individu (ou de la cellule) à des sollicitations immédiates de l’environnement. La biologie évolutionniste considère que tout est lié au temps et à l’espace, cherche les raisons des diversités, les voies des adaptations possibles. Elle tente de répondre au « pourquoi », de connaître les causes ultimes, lointaines, distales, responsables de l’évolution et des variations du code ADN dont chaque individu est doté. Le développement ordonné, de l’œuf à l’adulte, correspond à la mise en place d’un but – finalité causale – préconçu dans le passé. La sélection naturelle a fait de son mieux pour favoriser la production des codes garantissant la production de compétences, ou programmes, finalisant la meilleure adaptation possible. Les causes finales (téléologiques) correspondent à deux ensembles de phénomènes très différents. En premier lieu il faut considérer la production et l’amélioration, au cours de l’histoire des espèces, des remodelages du code génétique et, conséquemment, du processus développemental et d’une activité comportementale ayant une finalité contrôlée par un programme. En second lieu, il y a le test de ces programmes et leur décodage au cours de la vie d’un individu et, en conséquence, l’amélioration permanente, régulière, constante, stable du code, à savoir l’adaptation évolutionniste contrôlée par la sélection naturelle.
1.2. Le comportement, produit de l’évolution « Comportement », « se comporter » : peu de vocables sont devenus aussi ubiquitaires au point d’en perdre un sens précis. L’acception retenue ici sera celle de la science du comportement telle qu’elle fut développée par l’éthologie, la psychologie scientifique et évolutionniste et certains courants de l’anthropologie. Le « comportement » englobe les compétences universelles, prototypiques, héritées de l’évolution, partagée par tous les primates et de nombreux vertébrés et correspondant à des causes lointaines de nature phylogénétique. La manière de conduire un comportement – conduite – relève de causes proximales pour un individu à un moment donné qui exprime ses capacités adaptatives en raison des nécessités. Au pourquoi du comportement répondent les nécessités de survie de l’individu et de l’espèce, causes distales, lointaines. Au comment des conduites répondent les nécessités proximales à un moment donné. Le tableau 6.1 résume schématiquement quelques-uns des
74
La
causalité dans les sciences biologiques et médicales
prototypes comportementaux hérités de l’évolution, inscrits dans le patrimoine génétique. En complément de ces prototypes partagés avec les mammifères et les vertébrés supérieurs il existe des programmes fonctionnels tels l’empathie, l’attachement, la coopération, la tromperie, l’agressivité, etc., d’une importance décisive pour la survie. Tableau 6.1 Bases phylogénétiques et causalité distale des comportements prototypiques.
1. Gîte – Sélection et préparation du gîte – Établissement du territoire – Établissement des pistes – Marquage du territoire – Établissement de sites préférés – Guidage pour retrouver le gîte – Utilisation de sites de défécation
2. Reproduction – Cour – Accouplement – Soins à la progéniture
3. Territoire – Manifestations de défense du territoire – Affrontements intra-spécifiques ritualisés pour sa défense – Adoption de postures ou émission de signaux en cas de victoire ou défaite
4. Nourriture – Recherche de nourriture – Chasse – Amassement
5. Relations interindividuelles et sociales – Formation de relations sociales – Établissement d’une hiérarchie et rituels – Salutations – Courtoisie et manifestations appropriées – Empathie, coopération, attachement – Attroupements et établissement de bandes – Migration Chaque manifestation de la vie a des fondements biologiques. Si l’une de ces manifestations n’était pas biologiquement ou environnementalement possible, elle n’existerait pas.
Peu après la publication d’Ernst Mayr, N. Tinbergen posait lui aussi la question du « pourquoi » des comportements (1963). Il proposait quatre grandes causes, de la plus lointaine (phylogenèse) à la plus proximale dans la vie quotidienne (tableau 6.2). Ici encore, la causalité se dilue et devient de plus en plus contingente lorsque l’on passe d’un niveau à un autre. Cependant l’explosion, ces dernières décennies, des pathologies comportementales ont provoqué une réflexion approfondie venue des pays anglo-saxons afin de cerner le pourquoi – les causes – de ces désadaptations. Ces recherches sur les comportements individuels et sociaux, productions les plus intégrées de l’organisme, ont culminé avec l’éthologie – science des comportements des espèces dans leur milieu naturel – et le prix Nobel décerné en 1973 (K. von Frisch, K. Lorenz, N. Tinbergen). La primauté donnée à partir de cette époque à la biologie moléculaire, en particulier en France, a orienté la recherche en neurosciences dans une direction opposée.
Pathologies
comportementales et sociales : la question des origines
75
Tableau 6.2 Les comportements et leurs causalités : les quatre « pourquoi » selon N. Tinbergen.
1. Causes « proximales », déclenchantes – Facteurs externes, changements dans l’environnement – Facteurs internes, changements dans l’organisme et le cerveau 2. Causes ontogénétiques – Les prédispositions génétiques – Les interférences gène – environnement 3. Causes ultimes – Leur fonction et utilité : les comportements prototypiques 4. Causes distales phylogénétiques – Leur apparition au cours de l’évolution – Les variations progressives au cours des processus de spéciation – Le rôle fondamental de la survie de l’individu et de l’espèce La causalité se dilue lorsque l’n passe de 4 à 1
1.3. Le comportement entre gène et environnement Cette relation complexe doit être précisée (Dunbar, 1988). Différentes sortes de comportements jouent des rôles sélectifs dans l’évolution. Par exemple, les comportements destinés à la communication seront plus stéréotypés ; ils ne peuvent être source de méprises – un comportement de cour par exemple - : leur programme génétique sera dit « clos », fermé et résistant à tout événement survenant au cours de la vie. D’autres comportements – choix de nourriture ou d’habitat par exemple – auront plus de flexibilité afin d’incorporer une nouvelle expérience ; le programme sera dit plus « ouvert » vers une adaptation adéquate. Il est admis que des pressions sélectives provoquant des changements comportementaux peuvent conduire à des changements phénotypiques facilitant l’accoutumance à de nouvelles situations écologiques et nécessités adaptatives. Le comportement est le pacemaker des changements évolutifs. Les gènes ne « déterminent » pas le comportement, en termes de causalité, du moins pas plus qu’un ordinateur, en raison des puces qu’il contient, ne « détermine » la production de ses programmes. La biologie, les constructions physiologiques guidées par les gènes, sont du côté des nécessités ; l’environnement, en raison de la complexité des cerveaux acquise par l’évolution, est du côté des possibles. Il existe cependant une frontière lorsque les situations environnementales sont telles qu’une flexibilité relative n’est plus possible et qu’elles placent l’organisme au-delà des capacités de l’homéostasie. Si le stress perdure, surviennent les désadaptations physiques et psychiques, puis les syndromes pathologiques. Les espèces sont devenues sociales afin de résoudre certains
76
La
causalité dans les sciences biologiques et médicales
problèmes psychobiologiques avec plus d’efficacité. Les vertébrés, les mammifères et les humains construisent et choisissent en relation avec des a priori génétiques et biologiques dont les capacités d’apprendre. La maladie et la mort témoignent des limites de l’adaptation lorsqu’elles sont poussées aux extrêmes. Lorsque l’environnement social n’évite plus d’avoir faim, d’avoir froid, d’être physiquement atteint, ne permet pas de se reproduire, il met en cause l’équilibre psychique et physique (Compton et Shim, 2015 ; Marmot et Wilkinson, 2006).
2
Les « maladies comportementales et sociales » : une singularité contemporaine
2.1. Un environnement social peut être pathogène La psychiatrie moléculaire est devenue le programme explicite des maladies mentales et comportementales (vaste domaine de la médecine), réaffirmé à maintes reprises depuis la « décade du cerveau » des années 1990 née aux États-Unis, confirmant le primat de la génétique moléculaire pour la recherche des causes. De fait, de nombreux variants génétiques ont été découverts pouvant avoir un rôle pathogénique, très souvent communs à plusieurs conditions psychopathologiques. Toutefois, il apparait que les variations révélées par dizaines ont un rôle étiologique faible, à quelques exceptions près, et n’ont pas pu démontrer que les syndromes étudiés étaient biologiquement cohérents (Kendler, 2013). En conclusion, « l’ambiance gène » a imposé, pour l’essentiel, une orientation de recherche à l’exception de nombreuses autres. Les sciences médicales sont fortement influencées par le concept de la maladie transmissible qui implique l’apparition en masse d’une condition pathologique donnée reposant sur la probabilité d’un agent pathogène – bactérien, viral – se transmettant d’un individu à un autre. Les maladies dites « non transmissibles » touchent également un grand nombre d’individus, le cancer, l’obésité, les lombalgies, les dépressions, les addictions par exemple ; le suicide est un acte individuel mais le taux de suicides est une propriété du groupe social étudié et il en est de même pour la violence et ses conséquences, manifestations dont la fréquence s’accroit. La transformation des sociétés humaines depuis la révolution néolithique s’est accélérée ces derniers siècles et plus encore ces dernières décennies, en raison des développements technologiques, des évolutions des situations politiques, de la propriété, des idéologies hiérarchisantes, de l’avènement des classes sociales et de la domination des élites. Ces facteurs socio-économiques ont entrainé de grandes inégalités dans le bien-être et la santé des individus. Nos sociétés contemporaines au sein desquelles les normes de vie avaient atteint de hauts
Pathologies
comportementales et sociales : la question des origines
77
niveaux au cours du précédent siècle ont, ces dernières décennies, mis en cause d’une manière massive les équilibres fonctionnels fondamentaux qui permettaient une certaine stabilité biologique et adaptative pour le grand nombre. Dans les pays anglo-saxons où inéquités et inégalités ont le plus progressé, une grande quantité de travaux scientifiques (Atkinson, 2015) ont mis en évidence la nature des nouvelles normes sociales contraignantes (le terme social inclut les interactions entre sujets et des sujets avec leur environnement). Des contraintes de long terme – stress chroniques – concernant les choix comportementaux induisent des conditions physiologiques et psychologiques nocives qui mettent en péril la santé physique et mentale des citoyens. Il a été montré que la bonne santé des individus est devenue un marqueur essentiel d’une société harmonieuse, équitable, égalitaire et inversement (Hanson et al., 2013 ; Marmot, 2015 ; Tricomi et al., 2010). Les déterminants sociaux pathogènes « passent sous la peau ».
2.2. L’émergence des maladies d’origine sociale Cette évolution lente, profonde et dramatique dans ses conséquences en pathologie humaine a été identifiée au cours des dernières décennies. Dès les premières lignes de son célèbre ouvrage consacré à la perte des capacités d’autorégulation comme marqueur de la société américaine, R. Baumeister (1994) écrivait : « La faillite des capacités d’autorégulation est la pathologie sociale majeure des temps présents. L’Amérique se trouve assaillie de toutes parts par des problèmes sociaux et de profonds malaises, reflets du dysfonctionnement des structures sociales ayant des racines économiques et sociobiologiques. Ils se manifestent par les difficultés qu’ont les individus à se contrôler, mais aussi à se rendre responsables de leur existence et à devenir autonomes. Partout dans le pays des gens se sentent misérables parce qu’ils ne peuvent contrôler leur argent, leur poids, leur consommation de tabac ou d’alcool, leurs émotions, leurs hostilités variées, leurs impulsions diverses et plus encore… ». De même, le psychiatre et généticien M. Rutter notait en 1999 (Rutter, 1999) : « Durant le demi-siècle qui suivit la deuxième guerre mondiale il a été observé une augmentation importante du taux des conduites antisociales, des troubles dépressifs, de l’usage de drogue et d’alcool et ceci chez les adolescents et jeunes adultes. Quelle que soit l’importance de la génétique en relation avec les différences interindividuelles, il est tout à fait invraisemblable qu’une dérive génétique ait pu apparaître si rapidement et soit la cause de l’augmentation des troubles psychopathologiques chez les jeunes. En clair, des facteurs sociaux sont responsables de ces changements majeurs ». Plus récemment le Directeur Général de la Santé des États-Unis, R. Carmona, concluait ainsi son rapport annuel (2003) : « Cette augmentation régulière et incontrôlable des pathologies comportementales et sociales est devenue intolérable au regard des souffrances induites aux familles, aux
78
La
causalité dans les sciences biologiques et médicales
enfants et aux adolescents et plus généralement aux communautés. Ces pathologies représentent une charge considérable qui met en péril le futur de notre système de santé et au-delà, le futur de notre société ». Désormais l’humain est confronté à des conditions pathologiques dites « comportementales et sociales ». La question qui hante la médecine, à savoir quand une maladie commence, se déporte désormais de l’individu à l’échelle historique du groupe social. Les affections, de formes très diverses, longtemps nommées « fonctionnelles » faute d’y attribuer des étiologies spécifiques, sont souvent caractérisées dans la littérature scientifique comme « endémiques » voire « épidémiques » en raison de leur lente et incontrôlable propagation. La liste est longue, quoique fluctuante, de ces pathologies chroniques (tableau 6.3) constituant désormais une large part de l’activité du médecin : un traitement sera prescrit (avec une efficacité très limitée) pour chacune d’entre elles, en raison des bases physiopathologiques (pathogéniques) par lesquelles elles s’expriment. Les causes apparaissent indéterminées pour la plupart des praticiens ; elles sortent des cadres habituels d’un enseignement qui serait basé sur le triptyque classique, étiologie (cause), pathogénie (physiopathologie) et traitement. Tableau 6.3 Aperçu de quelques « pathologies comportementales et sociales ».
– – – – – – – – – – – – – – –
Impulsivité et perte des capacités d’autorégulation Troubles alimentaires Violence et troubles de la personnalité Troubles affectifs et anxiétés chroniques Psychopathologies infantiles et troubles comportementaux Déficits d’attention et hyperactivité États obsessifs – compulsifs Fatigue chronique Douleurs chroniques (lombaires, etc.) Troubles du sommeil Troubles musculo-squelettiques Maladies broncho-pulmonaires, asthme Usage de drogues et addictions diverses Suicide Etc., etc.
Nombre de ces pathologies, considérées comme fonctionnelles, revêtent un caractère endémique
À l’issue d’une consultation de 15 minutes, le médecin traite le contexte proximal, la prescription concerne un organe, ou une partie d’un organe en raison de la fragmentation de la médecine. De fait, ces syndromes révèlent les inadaptations de l’individu et de son héritage phylogénétique à un contexte social auquel il ne peut faire face. Le cerveau humain n’a pas été construit au cours de l’évolution pour se conformer aux conditions de vie délétères de notre modernité. L’adaptation de l’homme et des autres espèces animales se réalise par des capacités qui sous-tendent les relations interpersonnelles et
Pathologies
comportementales et sociales : la question des origines
79
prosociales, les coopérations entre individus, les liens émotionnels et empathiques, le sens de la réciprocité, de l’équité, etc. (Decety, 2014). Les pathologies comportementales et sociales font apparaitre des causalités d’un ordre différent ; elles obligent à un changement de paradigme, de représentation des normes. Ce nouveau modèle de pensée est le thème du dernier ouvrage de M. Marmot (2015). Dès la première ligne l’auteur résume ainsi le dilemme « What good does it do to treat people and send them back to the conditions that made them sick ».
3
Les déterminants sociaux de la santé : causes des causes
3.1. Santé et environnement social Le médecin agit comme le pompier ; il souhaite « éteindre » les souffrances et les dérèglements identifiés, non qu’il se désintéresse au pourquoi du feu ; les causes possibles sont, le cas échéant, dues à l’environnement social et donc en dehors de ses attributions ou de ses compétence. Plus précisément, sa mission est de soigner l’individu, éventuellement en situation de précarité ou de pauvreté, non d’agir sur la précarité elle-même ni sur le pourquoi de la situation présente. La prescription va traiter la physiopathologie du symptôme, mais elle n’aura aucun effet sur la cause du dérèglement physiopathologique. Il est indiscutable que la génétique contribue à l’acquisition des vulnérabilités individuelles, mais pour de nombreuses pathologies les adversités sociales et socio-économiques sont les causes déclenchantes réelles à l’origine des mécanismes créant les maladies (Marmot et Wilkinson, 2006). Ce qui est appelé déterminants sociaux de la santé concerne les conditions dans lesquelles les gens naissent, grandissent, travaillent, vieillissent, qu’elles soient positives ou délétères. Les conditions néfastes réfèrent aux adversités, globalement socio-économiques, qui précèdent avec un délai plus ou moins long les troubles physiques ou mentaux, ou qui accroissent la probabilité de leur apparition. Ces adversités, appelées causes sociales fondamentales soustendent et orientent les facteurs de risques et les vulnérabilités au niveau individuel, puis les pathologies. L’accroissement lent, régulier, décennies après décennies, des « pathologies comportementales et sociales » ne touche pas les populations dans leur ensemble. Les travaux cités s’accordent sur l’existence d’un gradient concernant l’inéquité dans le domaine de la santé au sein d’un pays donné et entre pays, mais l’absence d’accès aux soins n’est pas plus la cause de la maladie que l’absence d’aspirine n’est la cause des maux de tête. La pauvreté, le désavantage social, l’inégalité, sont autant de toxines qui détruisent la cohésion sociale : plus basse est la position, plus profond
80
La
causalité dans les sciences biologiques et médicales
est l’isolement ; il en est ainsi des travailleurs pauvres et des individus sans emploi (Barr et al., 2016). Cette situation, que l’on a identifiée à une « mort sociale », affecte la parentalité, l’éducation des enfants mais surtout leurs capacités cognitives, leurs émotions, leur développement global (Hanson et al., 2013). Des corrélations ont été établies entre le statut économique et social (SES) et le nombre de mots adressés et acquis : dès la venue dans son monde dans les milieux à SES bas, sans contrôle de la vie, le petit enfant est déjà handicapé. Au cœur du processus il est une réalité largement démontrée, à savoir que les conséquences d’un SES bas sont transmissibles.
Figure 6.1 Substance grise corticale totale mesurée au cours du développement (5 à 37 mois) par IRM en fonction du statut économique et social (SES) familial. La pauvreté réduit le développement cérébral. Reproduit avec autorisation et avec modifications de Hanson et al. 2013, Plos One, 8, e80954.
3.2. Le fondement social de l’individu Au début du premier millénaire, Sénèque (4 BC – 65 AD) dans l’une de ses lettres au jeune Lucilius consacrée à la détresse de l’individu déclassé (la 87e) écrivait : « … la pauvreté, cela veut dire souffrances et carences physiques et affectives… Vous serez pauvre en fonction de ce que vous n’avez pas… C’est un état et un sentiment de non-existence au milieu de ceux qui ont et qui existent… On ne « devient » pauvre, que lorsque pauvre, on vit au milieu des riches… ». En d’autres termes, la rupture du sujet d’avec son milieu de vie et du monde dont il a une connaissance naturelle (clan, communauté) en raison de sa pauvreté, sa relégation sur les marges où rien ne se fait et ne peut se faire va à l’encontre de la nature même du vivant partagée avec
Pathologies
comportementales et sociales : la question des origines
81
les animaux et léguée par l’évolution (Decety, 2014). Avec perspicacité, Sénèque définissait déjà l’être social résultant de dispositions et de manières d’être dont l’acquisition constitue un capital social reflétant son appartenance au groupe. Ce capital est constitué de ressources liées à la possession d’un réseau durable de relations structurantes au sein de clans et communautés, d’inter-(re)-connaissances dont les modalités adaptatives reflètent celles du groupe, des manières de penser, agir, sentir, constitutives de l’individu qui ont été appelées « sens pratique » (Tocqueville) ou habitus (Bourdieu). Cette nature intériorisée, sensible et pratique, intelligente, qualitative, est le fondement même des liens (les dimensions physiques, psychiques, sociales, culturelles) et de l’interdépendance avec le milieu humain et la classe sociale auxquels il appartient. Il s’agit d’une dimension naturelle, universelle, phylogénétique, bien étudiée dès les vertébrés et mammifères, avec des modalités d’expression propres au groupe. Que se passe-t-il lorsque ces programmes biologiques à la base de l’empathie, de la coopération, du sens de l’équité, de la cohésion des groupes et de la construction sociale, nécessaires à la survie de l’individu et de l’espèce, sont réduits à néant ? La « mort sociale » de l’individu, et ce qui a été défini (voir plus loin) par humiliation, déresponsabilisation, sont à l’origine d’une « mort biologique ». En son temps, Durkheim écrivait : « Le suicide varie en fonction inverse du degré d’intégration des groupes sociaux dont fait partie l’individu. Quand la société est fortement intégrée, elle tient les individus sous sa dépendance, considère qu’ils sont à son service et, par conséquent, ne leur permet pas de disposer d’eux-mêmes à leur fantaisie » (Durkheim, 2007). Le déséquilibre du lien social ou la désintégration sociale sont pathogènes. La pauvreté, le chômage entrainent une rupture, un rejet, un stigmate, une perte de statut ; ils dépersonnalisent et vident l’individu de ce qui est une raison d’être (Link et Phelan, 2001).
3.3. Psychopathologie de l’exclusion Au plan psychopathologique, la perte de contrôle, de l’autorégulation, de l’existence et l’impossibilité d’en être responsable, ainsi que pour son entourage, ont un rôle central. La déresponsabilisation, dans ses trois dimensions, matérielle, psychosociale et politique, empêche l’accès aux nécessités de base et prive d’une place dans la communauté. La perte du sentiment d’équité, de vie digne, d’être un individu agissant et projeté dans l’avenir, débouche sur le mal le plus profond : l’humiliation, la honte, le regard dépréciatif des autres, facteurs d’un stress violent affectant les équilibres physiologiques. Les pauvres ne sont pas les architectes de leur pauvreté. L’injustice sociale tue à grande échelle. Dans de nombreuses villes, en Europe et en Amérique du Nord, il suffit de franchir en quelques minutes les limites de
82
La
causalité dans les sciences biologiques et médicales
certains quartiers pour passer d’un monde à un autre, divergeant par une espérance de vie de 10 voire 20 ans (Marmot, 2015). Les humains (et les primates) acceptent une inégalité justifiée et loyale, mais l’évolution les a également dotés de capacités de créer une sociabilité sur des bases empathiques (Decety, 2014), et d’être sensibles à l’arbitraire, la déloyauté, l’iniquité, l’injustice. Pauvreté, rejet, inégalités dans un monde sans équité, perte du contrôle de son existence, réduction de la cohésion sociale, réduction des coopérations et amoindrissement de la connectivité intrasociale, sentiment de non-existence, inaccessibilité à l’échelle sociale, humiliation, etc. sont autant de facettes d’une détresse mettant en cause les acquis phylogénétiques ayant permis les constructions pro-sociales à la base des coopérations empathiques animales et humaines. Cette détresse est la cause entrainant des atteintes graves des équilibres physiologiques, des symptômes divers physiques et psychiques (Compton et Shim, 2015). Les déterminants sociaux de la détresse sont les causes de la cause pour laquelle le médecin rédige l’ordonnance. Pathogènes/toxines Santé mentale en danger, maladies
Mauvais accès aux soins Système de soins Politique de santé
Risques sociaux, environnementaux, comportementaux
Choix de vie réduits Absence ou insécurité de l’emploi Expériences négatives précoces
Opportunités Comportements médiocres à risques Insécurité nutritionnelle
Discrimination / exclusion sociale
Logement insalubre Education médiocre
Atteintes physiques, risques génétiques GXE
Stress Insécurité liée au logement Pauvreté / inégalité des ressources
Répartition des opportunités
Politiques publiques
Normes sociales
Figure 6.2 Déterminants sociaux de la santé mentale : causes distales, causes proximales (G X E : interactions gène – environnement). Reproduit avec autorisation de Shim R.S., 2015, The social determinants of mental health, American Psychiatric Publishing, Washington DC et London, England.
Tout ce qui contrariera l’expression des caractéristiques fonctionnelles psychobiologiques qui constituent notre héritage commun, dont le raffinement de plus en plus complexe des conduites parentales et sociales cohésives, agira comme un stresseur et déclenchera des réactions physiopathologiques, de l’anxiété, de la dépression, des troubles cérébraux s’aggravant avec le temps et la durée des contraintes pathogènes (Katsnelson, 2015 ; Tricomi
Pathologies
comportementales et sociales : la question des origines
83
et al., 2010). En retour, les troubles mentaux, comportementaux et physiques, amoindriront les capacités d’autonomie et d’adaptation. L’anxiété sociale (ou l’évaluation sociale négative) suscite une large littérature scientifique, en particulier dans le contexte du sentiment d’inégalité (Atkinson, 2015). Le sentiment de honte dû au rejet est également très présent chez les animaux, provoque la mobilisation de l’axe biologique et hormonal du stress et de la sécrétion de cortisol. En résumé, la discrimination et l’exclusion sociale, les expériences de vies défavorables dès la petite enfance, une éducation négligée, le chômage, le sous-emploi, l’insécurité au travail, une inégalité insupportable et discriminatoire des rétributions, la pauvreté, l’isolement et l’absence de voisinage sécurisant, l’insécurité alimentaire, les logements de mauvaise qualité et non sécurisés, l’environnement inquiétant, l’accès inadéquat aux soins médicaux, tous ces facteurs souvent liés sont autant de déterminants sociaux de troubles physiques et mentaux dans la mesure ou la santé dite « mentale » et la santé dite « physique » sont liées. Lentement, le nombre des sujets atteints s’accroit, inexorablement, selon les critères internationaux qui définissent les seuils de pauvreté ou la qualité de travailleur pauvre.
Conclusion Les causes sociales à l’origine des maladies physiques et mentales ont fait l’objet d’une grande quantité de recherches, dans les pays de langue anglaise essentiellement. Ces pathologies sont le reflet de l’état social et politique d’un pays (Ottersen, 2014). L’accroissement régulier du taux de pauvreté et de déclassement dans les pays industriels permet de considérer le développement des pathologies comportementales et sociales sur un mode transgénérationnel et épidémique. L’approche sociale, bien plus qu’environnementale, est la seule qui aide à comprendre que tout ne se construit que dans le long terme. Ce n’est pas l’environnement en soi, mais nos sociétés qui sont devenues par bien des aspects « souffrantes », injustes et délétères et ce sont donc elles qui doivent être « traitées ». Bien évidemment le « social » et le biologique sont inséparablement liés dans leurs interactions. Le social n’a de sens ici que dans la mesure où il « passe sous la peau » dans un contexte bio-psycho-social. Les processus biologiques pathogènes en cause sont désormais étudiés dans le cadre de l’épigénétique. Les interactions entre pathologies dites « mentales » et pathologies dites « physiques » sont largement documentées : l’obésité, le diabète, les maladies cardiovasculaires, les troubles respiratoires, les troubles de l’immunité, etc., d’une part, et les désordres comportementaux, émotionnels,
84
La
causalité dans les sciences biologiques et médicales
l’anxiété, l’usage de drogues, la violence, la perte des autorégulations, etc., d’autre part, sont comorbides. La médication pharmaceutique inscrite sur l’ordonnance, aux effets très limités, ne traitera pas la discrimination sociale, l’humiliation due à la pauvreté, les événements de vie précoces négatifs, l’absence d’éducation, le sous-emploi, le chômage, l’insécurité au travail, l’inégalité des revenus, l’isolement en marge de sa communauté, l’insécurité alimentaire, la mauvaise qualité de l’habitat, l’accès limité (ou impossible) aux soins, la non-maîtrise de l’existence. Dans une société de moins en moins ouverte et bloquée, les aléas pathogènes se transmettent de génération en génération ; dans les milieux défavorisés l’enfant, naissant, est déjà handicapé. La cause des causes a également une cause : elle est politique, ainsi que l’indique clairement le gradient établi entre sociétés nordiques et le reste du monde industriel. Les déterminants sociaux de la santé éclairent sur le statut politique d’une nation, la Cause des causes des causes (Ottersen, 2014).
Références Atkinson A.B. (2015). Inequality. Harvard University Press, Cambridge (MA), 400 p. Barr A. et al. (2016). Moral consequences of becoming unemployed. Proc Natl Acad Sci USA, 113: 4676-4681. Baumeister R.F. et al. (1994). Losing control: How and why people fail at self-regulation. Academic Press, San Diego, CA, 307 p. Campbell J. (2008). Causation in psychiatry. In : Philosophical issues in psychiatry. Kendler K.S. et Parnas J. (eds). John Hopkins Univ. Press, pp. 201. Compton M.T. et Shim R.S. (2015). The social determinants of mental health. American Psychiatric Association, Arlington, VA, 294 p. Decety J. (2014). The neuroevolution of empathy and caring for others: Why it matters for morality. In: New frontiers in social neuroscience. Decety J. et Christen Y. (eds). Springer Cham (Suisse), pp. 127-151. Dunbar R.I.M. (1988). The evolutionary implications of social behavior. In: The role of behavior in evolution. Plotkin H.C. (ed). MIT Press, Cambridge (MA), pp. 165-188. Durkheim E. (2007). Le suicide. Étude de sociologie (1897). PUF, Paris, coll. « Quadrige grands textes », 463 p.
Pathologies
comportementales et sociales : la question des origines
85
Hanson J.L. et al. (2013). Family poverty affects the rate of human infant brain growth. Plos One, 8: e80954. Hume D. (1748). An enquiry concerning human understanding. Beauchamp T.L. (ed). Clarendon Press, 2001, 456 p. Katsnelson A. (2015). News feature: The neuroscience of poverty. Proc Natl Acad Sci USA, 112:15530-15532. Kendler K.S. (2013). What psychiatric genetics has taught us about the nature of psychiatric illness and what is left to learn. Molecular Psychiatry, 18: 1058-1066. Link B.G. et Phelan J.C. (2001). Conceptualizing stigma. Annual Review of Sociology, 27: 363-385. Marmot M. (2015). The health gap: The challenge of an unequal world. Bloomsbury Publishing, London, 391 p. Marmot M. et Wilkinson R.G. (2006). Social determinants of health. Oxford University Press, 376 p. Mayr E. (1961). Cause and effect in biology: Kinds of causes, predictability, and teleology are viewed by a practicing biologist. Science, 134: 1501-1506. Ottersen O.P. et al. (2014). The political origins of health inequity: prospects for change. The Lancet, 383: 630-667. Rutter M.L. (1999). Psychosocial adversity and child psychopathology. The British Journal of Psychiatry, 174: 480-493. Tinbergen N. (1963). On aims and methods of ethology. Zeitschrift für Tierpsychologie, 20: 410-433. Tricomi E. et al. (2010). Neural evidence for inequality-averse social preferences. Nature, 463: 1089-1091.
Chapitre 7
Les mécanismes physiologiques du sommeil : la sérotonine et la suite Claude Debru L’évolution de la recherche sur les causes et mécanismes physiologiques du sommeil permet de poser certaines questions touchant l’établissement des relations causales en physiologie et la place, particulière ou non, de la causalité dans la conceptualisation scientifique. En premier lieu, l’établissement de relations de causalité dans des systèmes dont le degré de complexité n’est pas réellement connu pose au chercheur des problèmes touchant le type de conditions, nécessaires ou suffisantes, qu’il atteint. Mais on peut se demander en second lieu s’il est souhaitable de conserver un langage causaliste dans un domaine où l’extrême intrication des actions et des facteurs est toujours plus manifeste. Ce langage ne fait-il pas obstacle à la perception et à la conception de la réalité ? La connaissance de l’architecture des états de vigilance a connu une évolution majeure avec la découverte de phases de mouvements oculaires rapides, distincts des mouvements oculaires lents, dans le sommeil par Eugène Aserinsky et Nathaniel Kleitman en 1953, puis la découverte d’une activité électrique cérébrale rapide pendant ces phases par William Dement et Nathaniel Kleitman en 1955, enfin la découverte indépendante par Michel
88
La
causalité dans les sciences biologiques et médicales
Jouvet en 1958 que ces phases se caractérisent également par une atonie musculaire, et par une forte élévation du seuil d’éveil, outre une activité rapide également observée dans certaines structures. Jouvet caractérisa ces phases comme « paradoxales », en raison de ce tableau contrasté de forte activité centrale et d’atonie périphérique. Cet ensemble de travaux impliquait une nouvelle conception du cycle des états de vigilance en trois états : éveil, sommeil à ondes lentes, et sommeil à mouvements oculaires rapides ou sommeil paradoxal selon les terminologies américaine ou française. La forte singularité de la phase paradoxale allait induire une série de travaux physiologiques remarquables, effectués en grande partie à Lyon. Au cours de ces travaux, les chercheurs ont rencontré de nombreux obstacles et des situations expérimentales parfois contradictoires. En outre, avec l’apparition constante de techniques nouvelles, le nombre de facteurs impliqués n’a cessé d’augmenter, leur rôle précis est parfois devenu plus obscur, et la perception que manquaient des pièces du puzzle et que des mécanismes inconnus étaient en jeu s’est imposée. Au tout début de cette histoire, dans les années 1950, la connaissance biochimique du cerveau était balbutiante. Les neurotransmetteurs connus, dont l’acétylcholine, se comptaient sur les doigts d’une main. Même si la complexité anatomique au niveau cellulaire était appréciée, on n’avait pas vraiment réalisé l’hypercomplexité du cerveau. La connaissance actuelle paraît encore au milieu du chemin, parce qu’on réalise beaucoup mieux l’étendue du défi de l’hypercomplexité. Pendant longtemps, la sérotonine, dont nous allons parler, a été considérée comme la porte unique d’entrée dans le sommeil. Puis l’avancement des travaux a introduit bien d’autres neuromédiateurs dans la physiologie des états de vigilance. Le degré de complexité actuellement atteint fait qu’une véritable appréhension, sinon prédiction, du cycle des états de vigilance, ne peut reposer seulement sur l’identification de facteurs excitateurs ou inhibiteurs, mais devrait dans l’avenir faire appel à des techniques de modélisation véritablement mathématique et pas seulement qualitative, et de simulation informatique sur lesquelles certains auteurs travaillent.
1
Naissance et déclin de la théorie sérotoninergique
L’histoire de la sérotonine commence en 1948, lorsqu’elle est trouvée dans le sang, isolée, identifiée et synthétisée, et dotée d’un pouvoir vasoconstricteur. Elle est ensuite trouvée dans le cerveau. En 1954, on découvre son analogie structurale avec le LSD. En 1955 débute l’histoire mouvementée des relations entre sérotonine et sommeil, lorsque Bernard Brodie, pionnier de
Les
mécanismes physiologiques du sommeil : la sérotonine et la suite
89
la psychopharmacologie, découvre qu’une molécule, la réserpine, provoque une diminution de la sérotonine cérébrale et un état de sédation. Du côté de la neurophysiologie, des expériences de lésion et de stimulation électrique effectuées par Michel Jouvet établissent le rôle de noyaux (groupes de neurones) du tronc cérébral (partie postérieure du cerveau) dans la genèse du sommeil. Ces expériences suscitent l’hypothèse de mécanismes neurohumoraux (actifs par voie « humorale », plutôt que par neurotransmission synaptique proprement dite), en raison du fait que l’effet hypnogène de la stimulation est beaucoup plus durable que la stimulation elle-même. Les « neurohormones », synthétisées et accumulées au cours de l’éveil, seraient libérées au cours du sommeil dans le tissu cérébral et agiraient par des mécanismes non synaptiques. Mais ces hypothèses, formulées au début des années soixante, restaient extrêmement vagues, aux dires mêmes de leurs auteurs. D’importants progrès techniques en histochimie, à savoir la découverte de l’histo-fluorescence des monoamines (neurotransmetteurs dérivés d’acides aminés) par Falck et Hillarp en 1962, permirent à Dahlström et Fuxe, en 1964, d’établir la cartographie des neurones à sérotonine, dopamine et noradrénaline du tronc cérébral. Cette cartographie coïncidait en partie avec celle de certaines structures hypnogènes mises en évidence par Jouvet. Jouvet se lança donc dans l’étude pharmacologique du rôle des monoamines cérébrales dans le cycle des états de vigilance, avec un certain nombre de résultats permettant de consolider le dualisme des états de sommeil. Il y aurait une « porte » unique d’entrée dans le sommeil et, par là, dans la succession de ses deux états. Cette porte serait la sérotonine. Plusieurs arguments permettaient de le supposer. La réserpine vide les cellules à monoamines et provoque une insomnie chez le chat. L’administration du 5-hydroxytryptophane (5-HTP), précurseur immédiat de la sérotonine (5-hydroxytryptamine, 5-HT), restaure le sommeil lent8. Un autre résultat paraissait particulièrement probant. La parachlorophénylalanine (pCPA), est un inhibiteur de l’enzyme tryptophane hydroxylase qui catalyse la transformation du tryptophane en 5-HTP, précurseur de la sérotonine. La pCPA abaisse le taux de sérotonine dans le cerveau et provoque une insomnie durable chez le chat, en administration aiguë (en une fois). La procédure d’administration aiguë est en accord avec la philosophie « neurohumorale », une action unique ayant des effets durables. Cette insomnie est supprimée par l’administration du 5-HTP. Quelle meilleure démonstration complète d’une relation de causalité que la disparition de l’effet (le sommeil) par la suppression de la cause (la sérotonine), la restauration de l’effet (le sommeil) par la réintroduction de la cause (la sérotonine) ? C’est un magnifique cas d’école, car ce type de démonstration, qui a été formalisé entre autres par Claude Bernard, n’est nullement probant, et cela 8 Nous nous permettons de renvoyer à notre ouvrage, Claude Debru (2006), Neurophilosophie du rêve, Paris, Hermann, 2e édition, p. 220.
90
La
causalité dans les sciences biologiques et médicales
tant pour des raisons de fait que pour des raisons d’analyse philosophique. Raison philosophique : cette démonstration est aussi prisonnière d’un certain « chosisme », comme me le fit remarquer un jour Michel Jouvet. Chosisme, en effet (voire « causisme »), si l’on entend par là une sorte de point de fixation mentale qui fait oublier le reste. C’est ainsi que, selon le mot de Koella, la sérotonine était devenue « somnotonine ». Raison de fait : la spécificité d’action de la pCPA a été mise en question, car elle inhibe l’activité d’autres enzymes, la tyrosine hydroxylase, ce qui déprime les catécholamines, la pyruvate kinase, ce qui interfère avec le métabolisme énergétique9. À cette époque, de nombreuses drogues furent testées dans le laboratoire de Lyon quand à leurs actions sur les deux états de sommeil. Un tableau d’ensemble déjà assez complexe résulta de tous ces travaux pharmacologiques10. Selon ce tableau, la sérotonine est synthétisée à partir du 5-HTP au cours de l’éveil, selon la logique selon laquelle l’éveil crée le sommeil. Elle est ensuite utilisée et dégradée en acide 5-hydroxy-indoleacétique (5-HIAA) au cours du sommeil lent dans certains noyaux du tronc cérébral. Puis d’autres molécules, dont l’acétylcholine et la noradrénaline, prennent le relais vers le sommeil paradoxal. Théoricien de l’expérimentation physiologique, Claude Bernard a écrit : « Pour conclure avec certitude qu’une condition donnée est la cause prochaine d’un phénomène, il ne suffit pas d’avoir prouvé que cette condition précède ou accompagne toujours le phénomène ; mais il faut encore établir que, cette condition étant supprimée, le phénomène ne se montrera plus ». Sans cela, « on pourrait à chaque instant tomber dans l’erreur et croire à des relations de cause à effet quand il n’y a que simple coïncidence. Les coïncidences constituent, (…) un des écueils les plus graves que rencontre la méthode expérimentale dans les sciences complexes comme la biologie ». (…) « C’est la contre-épreuve qui juge si la relation de cause à effet que l’on cherche dans les phénomènes est trouvée ; pour cela, elle supprime la cause admise pour voir si l’effet persiste, s’appuyant sur cet adage ancien et absolument vrai : sublata causa tollitur effectus »11. Pour poursuivre avec Bernard, p 106 : « Le but de la méthode expérimentale (…) consiste à trouver les relations qui rattachent un phénomène quelconque à sa cause prochaine ou, autrement dit, à déterminer les conditions nécessaires à la manifestation de ce phénomène »12. Le principe du déterminisme introduit par Bernard dans les sciences de la vie est ici clairement impliqué. Notons aussi que causalité 9
Ibid., p. 246.
10
Ibid., p. 231.
11
Claude Bernard (1865), Introduction à l’étude de la médecine expérimentale, Paris, Garnier-Fammarion, 1966, p. 91. 12
Ibid., p. 106.
Les
mécanismes physiologiques du sommeil : la sérotonine et la suite
91
équivaut à condition nécessaire. Notons enfin que Bernard parle plus volontiers de conditions d’existence que de cause d’un phénomène. Là où le bât blesse pour la conception bernardienne, c’est que le principe bernardien de la contre-épreuve n’est valide que dans le cas où la cause présumée s’avère une condition nécessaire, ce qu’aucune expérience ne peut démontrer à elle seule, une expérience n’indiquant qu’une condition suffisante (si cette condition existe, le phénomène se produit, mais il peut aussi se produire sans elle). Si l’on applique ces notions classiques au cas présent, la restauration du mécanisme hypnogène par le 5-HTP après sa suppression par la pCPA indique, en toute logique, que la sérotonine est une condition seulement suffisante, et ne démontre pas qu’elle est nécessaire. La suite des expériences va démontrer qu’elle n’est pas nécessaire. Beaucoup d’expériences diverses ont été effectuées pour consolider l’hypothèse sérotoninergique du sommeil. Un certain nombre de ces expériences allaient clairement dans un sens contraire. Dement et Henriksen, à Stanford, ont procédé à l’administration chronique, de longue durée, de pCPA13. Les effets en étaient : une augmentation initiale du sommeil paradoxal, suivie d’une chute ; une chute à peu près parallèle du sommeil lent ; et le retour ultérieur des deux états de sommeil à des taux proches de la normale, malgré la chute de la sérotonine. Le système hypnogène pouvait donc se remettre en marche en l’absence de sérotonine. Citons pourtant Claude Bernard : « Les résultats négatifs ne peuvent infirmer les résultats positifs »14. Ceci est une pierre dans le jardin épistémologique de M. Karl Popper. Nous verrons revenir, plus tard, la sérotonine. De fait, malgré ce résultat négatif, la théorie sérotoninergique resta largement admise par la communauté, ce qui est un signe de la force d’une croyance fondée sur une forte cohérence entre structures hypnogènes du tronc cérébral et sérotonine. Mais ce tableau d’ensemble s’est rapidement désarticulé. Des progrès en électrophysiologie, comme la voltamétrie in vivo, une meilleure connaissance de l’anatomie fonctionnelle des noyaux du tronc cérébral, l’apparition des neuropeptides et la colocalisation d’amines et de peptides dans les neurones ont profondément remis en question l’édifice que les physiologistes avaient tenté de construire. Il en résultait que la sérotonine, synthétisée au cours de l’éveil, puis libérée et dégradée au cours du sommeil lent, ne serait plus le neurotransmetteur « synchronique » du sommeil lent par son utilisation, mais un neuromédiateur « diachronique » qui, libéré pendant l’éveil, aurait pour fonction d’induire la synthèse d’un facteur hypnogène qui serait la véritable « cause prochaine » du sommeil.
13 W.C. Dement, M.M. Mitler et S.J. Henriksen, Sleep changes during chronic administration of parachlorophenylalanine (1972), Revue canadienne de biologie, 31 (supplt) : p. 239-246. 14
Claude Bernard, op. cit., p. 170.
92
La
causalité dans les sciences biologiques et médicales
Confronté à un véritable casse-tête, Michel Jouvet s’en sortit en effectuant une « expérience cruciale » apportant une réponse décisive. Reprenant une procédure de transfert déjà utilisée par Henri Piéron au début du siècle dernier dans ses études sur le sommeil, Jouvet pratiqua un transfert de liquide céphalorachidien entre un chat privé de sommeil par une technique qui produit une accumulation de facteur hypnogène et un chat rendu insomniaque par la pCPA. Le sommeil est ainsi restauré ; l’analyse du liquide céphalorachidien transféré montre que la sérotonine et le 5-HTP y sont pratiquement indétectables15. La sérotonine n’est donc pas une condition nécessaire du sommeil. La théorie sérotoninergique s’effondrait, dans une expérience cruciale à valeur négative. Cette histoire est désormais ancienne. Aujourd’hui, parmi la centaine de molécules neuromédiatrices connues, une cinquantaine de facteurs différents sont reconnus pour jouer un rôle dans les états de sommeil. Il n’en sera mentionné ici que quelques-unes. En outre, l’extrême intrication entre neurones ou neurotransmetteurs doit être prise en compte pour élaborer un tableau d’ensemble.
2
De nouveaux facteurs
À la suite de la démonstration de Jouvet, la recherche s’est alors réorientée vers le rôle, déjà connu, de l’hypothalamus dans le cycle des états de vigilance. Avec l’hypothalamus, le champ nouveau des neuropeptides, dont certains à action hypnogène, s’ouvrait également. Quelques résultats sont particulièrement saillants. L’acide iboténique est une neurotoxine qui détruit sélectivement les corps cellulaires des neurones. Injecté dans l’aire préoptique (l’hypothalamus antérieur), il produit une insomnie intense et durable, ce qui confirme le rôle de l’hypothalamus antérieur dans le sommeil. Ce rôle découlait déjà des études anatomocliniques de von Economo à la suite de l’encéphalite léthargique qui envahit l’Autriche après la Première Guerre mondiale. Les travaux sur l’aire préoptique ont été poursuivis dans le laboratoire de Michel Jouvet par Pierre-Hervé Luppi. Ce chercheur montra le rôle crucial du noyau préoptique ventrolatéral (VLPO) comme structure promotrice du sommeil. Les neurones de ce noyau sont spécifiquement actifs pendant le sommeil et inhibés pendant l’éveil. Ils possèdent des connexions inhibitrices réciproques avec les structures de l’éveil. Il s’agit de neurones à GABA (acide gamma-aminobutyrique), le principal neurotransmetteur inhibiteur dans le cerveau. Ils sont inhibés par la noradrénaline et par l’acétylcholine,
15 M. Sallanon, C. Buda et M. Jouvet (1982), Restoration of paradoxical sleep by cerebrospinal fluid transfer to PCPA pretreated insomniac cats, Brain research, 251 : p. 145.
Les
mécanismes physiologiques du sommeil : la sérotonine et la suite
93
neurotransmetteurs de l’éveil. Il existe une inhibition réciproque entre les (multiples) systèmes d’éveil et les systèmes hypnogènes. Un résultat particulièrement important concerne la sérotonine, devenue entretemps neurotransmetteur de l’éveil, car sa libération est maximale pendant l‘éveil et décroit pendant le sommeil lent. La moitié environ des neurones promoteurs du sommeil du VLPO est inhibée par la sérotonine, l’autre moitié est stimulée par la sérotonine. Ces deux types, I et II, contiennent des récepteurs à la sérotonine différents (il existe sept classes de récepteurs à la sérotonine). Cette diversité d’actions de la sérotonine selon ses récepteurs est un phénomène fort instructif du point de vue physiologique. En premier lieu, pendant l’éveil, les neurones de type I promoteurs du sommeil sont inhibés non seulement par la noradrénaline et l’acétylcholine, mais aussi par la sérotonine, qui inhiberait donc le sommeil et de ce fait renforcerait l’éveil. La sérotonine ne pourrait pas déclencher le sommeil par action directe sur les neurones promoteurs du sommeil. En outre, pendant l’éveil, les neurones de type II promoteurs du sommeil, eux aussi inactifs en raison de l’inhibition par la noradrénaline et l’acétylcholine, seraient pourtant activés par la sérotonine d’une manière infraliminaire. Ils pourraient ainsi préparer les événements biochimiques et électriques correspondant à l’induction du sommeil, ce qui pourrait correspondre à l’hypothèse de Jouvet d’une action hypnogène indirecte, neuromodulatrice de la sérotonine. En effet, l’injection de 5-HTP dans le VLPO chez des chats rendus insomniaques par la pCPA restaure le sommeil avec une latence d’une heure. Cela suggère que la sérotonine, synthétisée dans des noyaux du tronc cérébral et libérée pendant l’éveil, préparerait les conditions physiologiques locales de l’hypothalamus antérieur nécessaires pour l’arrivée du sommeil, par la synthèse de facteurs actifs sur ou dans les neurones promoteurs. Les neurones de type II activés par la sérotonine seraient donc impliqués dans les mécanismes sérotoninergiques de l’induction du sommeil. La sérotonine serait donc impliquée dans des mécanismes apparemment opposés, en renforçant l’éveil par l’inhibition des neurones de type I, et en préparant le sommeil par l’excitation infraliminaire des neurones de type II. Un modèle a été proposé par Luppi16. Pendant l’éveil, la sérotonine (ainsi que l’adénosine, autre neurotransmetteur impliqué) activerait graduellement les neurones de type II, suscitant ainsi la somnolence. En outre (ce qui correspond à l’observation) les neurones de type II une fois activés stimulent les neurones de type I inhibés par la sérotonine et lèvent cette inhibition, ce qui a pour effets d’inhiber les systèmes d’éveil et donc de renforcer leur propre 16 Patrice Fort, Pierre-Hervé Luppi et Thierry Gallopin, In Vitro Identification of the Presumed Sleep-Promoting Neurons of the Ventrolateral Preoptic Nucleus (VLPO), in Pierre-Hervé Luppi (ed.) (2005), Sleep Circuits and Functions, Boca Raton, CRC Press, p. 55.
94
La
causalité dans les sciences biologiques et médicales
activité de type II. Les neurones de type II seraient donc responsables de la préparation et du déclenchement du sommeil, ils auraient un rôle « permissif », les neurones de type I seraient responsables du maintien du sommeil, ils auraient un rôle « exécutif ». On touche ici du doigt la multiplicité des rôles d’un même neurotransmetteur, la sérotonine, selon ses récepteurs. On voit aussi la complexité de ces régulations qui font appel à des cascades d’actions et à une multiplicité de contrôles. Quant au sommeil paradoxal (SP), des données nouvelles dues au même groupe de recherche travaillant sur le rat ont permis d’élaborer un nouveau modèle. On distingue les neurones spécifiquement activés pendant le sommeil paradoxal (dits PS-on) des neurones qui cessent toute activité pendant le sommeil paradoxal (dits PS-off ), lorsque les neurones PS-on sont activés17. Il existe deux populations des neurones PS-on aux propriétés pharmacologiques et aux projections différentes. Les premiers exerceraient leur action par l’acétylcholine, les seconds par le glutamate, via d’autres neurones utilisant l’acide aminé glycine comme neurotransmetteur. Comment ces neurones PS-on sont-ils mis en jeu ? Cela serait le résultat d’une levée de l’inhibition exercée par les neurones PS-off à sérotonine et par d’autres également PS-off à noradrénaline sur les neurones PS-on. Les données apportées par le groupe de Pierre-Hervé Luppi montrent l’implication du GABA, neurotransmetteur inhibiteur, dans les mécanismes permissifs et exécutifs du sommeil paradoxal, et cela aussi à double titre. Pendant l’éveil et le sommeil lent, le GABA inhiberait les neurones PS-on à glutamate. Pendant le sommeil paradoxal, le GABA inhiberait les neurones PS-off à sérotonine et ceux à noradrénaline. Un nouveau modèle du réseau responsable du déclenchement et du maintien du sommeil paradoxal a donc été proposé. Pendant l’éveil et le sommeil lent, les neurones glutamatergiques PS-on sont inhibés (hyperpolarisés) par les influences GABAergiques toniques issues de neurones GABAergiques PS-off, ainsi que par des neurones PS-off noradrénergiques et sérotoninergiques. La cessation d’activité de ces derniers neurones au cours du sommeil paradoxal résulterait de leur inhibition par des neurones GABAergiques PS-on. Dans ce modèle, le GABA exercerait donc deux actions, selon les noyaux qui le synthétisent. Pendant l’éveil et le sommeil lent, il exercerait une action inhibitrice sur le noyau sublatérodorsal (SLD) glutamatergique, ainsi qu’une action inhibitrice interne à ce noyau (du fait de la présence de GABA dans le noyau). Pendant le sommeil paradoxal, il exercerait une action inhibitrice sur les neurones monoaminergiques eux-mêmes inhibiteurs qui appartiennent 17 Pierre-Hervé Luppi et al., The Network Responsible for Paradoxical Sleep Onset and Maintenance : A New Theory Based on the Head-Restrained Rat Model, in Pierre-Hervé Luppi (ed), op. cit., p. 86.
Les
mécanismes physiologiques du sommeil : la sérotonine et la suite
95
au SLD, et qui n’exerceraient donc plus leur action inhibitrice. Selon l’hypothèse de Luppi18 les neurones GABAergiques PS-off cesseraient leur activité au cours du sommeil paradoxal en raison de l’inhibition exercée sur eux par les neurones GABAergiques PS-on inhibiteurs des neurones monoaminergiques. En outre, et pour compléter l’explication, l’activation des neurones PSon du SLD résulterait également de l’activité d’un certain nombre d’afférences non-GABAergiques à ce noyau, issues d’autres structures. Le GABA, neurotransmetteur inhibiteur, jouerait donc plusieurs rôles. Pendant l’éveil et le sommeil lent, le GABA, synthétisé dans de nombreuses régions du cerveau, inhiberait les neurones dits PS-on spécifiquement actifs pendant le sommeil paradoxal. Pendant le SP, le GABA inhiberait les neurones sérotoninergiques et noradrénergiques dits PS-off ainsi inactivés. Pour schématiser, le GABA inhiberait le sommeil paradoxal pendant l’éveil et inhiberait l’éveil pendant le sommeil paradoxal19. Toute une multiplicité de contrôles, tout un jeu d’inhibitions, de désinhibitions par inhibitions d’inhibitions, et d’activations sont donc impliqués dans la genèse et le maintien du SP. Les trois états de vigilance résultent de l’activité de réseaux ou de systèmes qui prennent le pas alternativement les uns sur les autres. Ce qui vient d’être exposé, qui date d’une dizaine d’années, est issu de la physiologie expérimentale sur l’animal ou d’expériences in vitro. La pathologie, très présente dans la première moitié du siècle dernier, a été ensuite éclipsée par la physiologie expérimentale. Plus récemment, on a assisté à un retour de la pathologie, avec l’étude de la lignée de chiens narcoleptiques élevée par William Dement, dont la génétique a été éclaircie par Emmanuel Mignot, un chercheur français délocalisé à Stanford. La narcolepsie-cataplexie désigne l’apparition brutale d’épisodes de sommeil paradoxal au cours de l’éveil. Du fait de l’inhibition du tonus musculaire caractéristique du sommeil paradoxal, le patient s’effondre dans un certain nombre de cas. Il éprouve également des hallucinations hypnagogiques. Il éprouve aussi une somnolence diurne. Emmanuel Mignot a montré le rôle de neuropeptides hypothalamiques, les hypocrétines, dont le manque chez l’homme produit la narcolepsie et dont des défauts des récepteurs produisent la maladie chez le chien. Des mutations du gène du récepteur 2 de l’hypocrétine ont été découvertes chez les chiens narcoleptiques. Les hypocrétines 1 et 2 ont été identifiées presque exclusivement dans l’hypothalamus dorsolatéral, les neurones en question envoyant des projections dans les neurones à histamine impliqués dans l’éveil. Les neurones à hypocrétine seraient plus particulièrement impliqués dans la
18
Ibid., p. 97.
19
Ibid., p. 93-97.
96
La
causalité dans les sciences biologiques et médicales
régulation des transitions entre états de vigilance20. En outre, ces neurones se projettent dans diverses autres structures cérébrales, ce qui indique qu’ils sont impliqués dans de nombreuses fonctions. Enfin, une relation avec un allèle du complexe HLA a été évoquée, ce qui pourrait faire de la narcolepsie une maladie auto-immune. Il n’a pu être donné ici qu’une image exagérément schématique de l’extrême intrication des actions dans le système nerveux. Pour la décrire, certes le langage causaliste conserve sa validité, particulièrement en pathologie, mais il n’est peut-être pas le principal ni le meilleur outil de compréhension. Diverses tentatives de mathématisation à partir de modèles ont été effectuées pour les états de vigilance. La première tentative a été celle d’Allan Hobson et Robert McCarley à Harvard, fondée sur un modèle d’interaction entre neurones PS-on et PS-off pour rendre compte de l’engendrement du sommeil paradoxal. Pendant l’éveil, les neurones PS-off inhibent les neurones PS-on. Pendant le sommeil paradoxal, cette inhibition est levée, ce qui augmente l’activité des neurones PS-on21. Ce modèle a servi de base à une mathématisation fondée sur l’utilisation des systèmes différentiels non linéaires dont la solution donne lieu à des cycles limites. Le choix de ce type de modèle reposait sur le postulat que l’action inhibitrice ou excitatrice exercée sur un système est proportionnelle au niveau d’activité de ce système. Il en résultait un comportement du type Lotka-Volterra. Lorsque ce modèle a été proposé, en 1975, on était loin d’avoir appréhendé toute la complexité des systèmes impliqués dans les états de vigilance. Il a donc été nécessaire de le réviser. Mais la mathématisation du cycle des états de vigilance reste un programme à réaliser. Sa réalisation efficace, à savoir accompagnée d’un réel pouvoir prédictif, dépend d’un état de la science qui n’est pas encore atteint, tant du côté de la physiologie que des mathématiques. L’histoire que nous avons racontée, pleine de retournements, nous montre que la causalité, toujours présente, revêt de multiples visages, et que l’intrication des causes appelle précisément un autre type de connaissance, passant de la modélisation à la mathématisation et à la simulation. Pour conclure en hommage à Michel Jouvet qui m‘a permis de travailler dans son laboratoire, je souhaite extraire de son dernier ouvrage, Le sommeil, la conscience et l’éveil, la citation suivante : « Il est devenu indispensable d’utiliser les mathématiques et la physique pour conceptualiser au-delà de deux paramètres »22.
20 Luis De Lecea (2005), Reverse Genetics and the Study of Sleep-Wake Cycle : the Hypocretins and Cortistatin, in Pierre Hervé Luppi (ed), op. cit., p. 112. 21 R.W. McCarley et J.A. Hobson (1975), Neuronal excitability modulation over the sleep cycle: a structural and mathematical model, Science, 189, p. 58-59. 22
Michel Jouvet (2016), Le sommeil, la conscience et l’éveil, Paris, Odile Jacob, p. 202.
Chapitre 8
L’autisme : quelles corrélations, quelles causes et quelles interventions ? Thomas Bourgeron Propos recueillis par Claude Debru Il est évident que l’on peut intervenir sans connaître la cause, mais penser que l’on connait la cause alors que ce n’est pas le cas peut avoir des conséquences assez catastrophiques. J’aime beaucoup la phrase suivante de Claude Bernard : « C’est ce que nous pensons déjà connaître qui nous empêche souvent d’apprendre ». Dans l’autisme, cela a été vraiment un problème, d’ailleurs toujours d’actualité. Je parlerai donc des corrélations, des causes et des interventions dans l’autisme, et des perspectives. En fait je ne dis plus autisme, mais les autismes. Dans le domaine on est de plus en plus dans cet état d’esprit, de dire qu’il y a un spectre de l’autisme ou des autismes. Deux définitions, deux critères de l’autisme ont été mis en avant : le déficit de communications sociales, et des stéréotypies, des intérêts restreints. L’absence ou le retard de langage n’est plus maintenant directement dans les critères, en tout cas du DSM 523, pour l’autisme, parce 23 DSM 5 : Cinquième édition du Diagnostic and Statistical Manual of Mental Disorders, manuel diagnostique et statistique des troubles mentaux, de l’Association Américaine de Psychiatrie.
98
La
causalité dans les sciences biologiques et médicales
que d’une part des personnes n’ont quasiment pas de langage, ce qui est le cas de l’autisme que l’on dit typique ou de Kanner, et d’autre part certaines personnes avec le syndrome d’Asperger ont des niveaux cognitifs tout à fait normaux voire plus élevés que la moyenne et un langage tout à fait approprié. Il y a donc un vrai continuum de sévérité avec des personnes qui vont être atteintes extrêmement sévèrement au niveau cognitif, et d’autres qui vont être moins sévèrement atteintes. Quelle est la prévalence de l’autisme ? On pourrait en parler pendant longtemps. C’est maintenant à peu près 1 % de la population, c’est assez stable, bien que dans le New Jersey ce soit à peu près une personne sur 49 par exemple. Tout le monde est d’accord sur le fait qu’il y a plus de garçons que de filles. En fait, il y a à peu près 4 garçons pour une fille, pour l’autisme de type Kanner, et 8 garçons pour une fille pour le syndrome d’Asperger. On ne sait toujours pas pourquoi il y a plus de garçons que de filles, en revanche on sait qu’on est probablement très mauvais pour diagnostiquer le syndrome d’Asperger chez les filles, ce qui explique aussi pourquoi on a plus de garçons que de filles. Concernant la prévalence, une fameuse diapositive montre une personne sur 5 000 dans les années 1970, puis maintenant une personne sur 120, puis une personne sur 88, puis sur 68, et dans le New Jersey une personne sur 49. C’est le schéma qui est souvent tenu par les américains sur la prévalence de l’autisme. En Europe, il y a eu beaucoup d’études et en particulier une étude de Christopher Gillberg qui, dans la population générale, a mesuré les traits autistiques avec des tests cognitifs, et a montré que les traits autistiques ne varient pas tellement depuis ces dernières années, alors que les cas diagnostiqués d’autisme augmentent. Et j’ai rencontré il y a quelques mois Stephen Shore, qui est une personne atteinte du syndrome d’Asperger, une personne assez extraordinaire qui a écrit le livre L’autisme pour les idiots. Il dit qu’en fait l’autisme a autant augmenté que les paquets Fedex. Il dit évidemment qu’il s’agit d’une corrélation. En tout cas on ne pense pas qu’il y ait une causalité entre l’augmentation des paquets Fedex et l’autisme. Mais il dit quelque chose de très joli : avez-vous déjà vu ce qu’il y a entre le E et le X dans Fedex ? Pour ma part je ne l’avais jamais vu, mais en fait il y a une flèche. Shore dit : « Maintenant, chaque fois que vous verrez un paquet Fedex, vous verrez la flèche ». Et il ajoute : « L’autisme, c’est un peu comme cela, il était là mais on ne le voyait pas ». Je pense qu’il y a deux messages. Le premier est que le fait que les personnes avec autisme puissent parler en image est quelque chose de très joli. Le second est qu’il faut quelquefois faire attention avant de dire qu’on va soigner l’autisme. Les corrélations : un site assez extraordinaire, Spurious Correlations (les corrélations fausses) recense ces corrélations (http://www.tylervigen.com/ spurious-correlations ). Par exemple : entre le nombre de divorces dans le Maine et la consommation de margarine, corrélation extraordinaire ; ou
L’autisme :
quelles corrélations, quelles causes et quelles interventions ?
99
entre l’argent dépensé en science et en technologie et les suicides par pendaison. Ce site montre ces corrélations improbables mais très significatives statistiquement, pour montrer qu’effectivement on peut trouver des corrélations nombreuses. Autre exemple, l’autisme est corrélé au nombre de jours de pluie. Cela peut faire sourire. En revanche, il y a des corrélations qui ont été vraiment catastrophiques et qui le restent. Par exemple, le livre La forteresse vide propose (sans être le premier) que les mères de personnes avec autisme étaient des mères froides, les « mères frigidaires » comme on les appelle. Cela a causé des catastrophes dans les familles. Les professionnels me disent que ces histoires sont terminées, mais quand on parle aux familles, il est clair que c’est toujours d’actualité. On a maintenant de nouvelles corrélations, avec les pesticides, avec évidemment les vaccins, et puis dernièrement avec le microbiote. Or, les données ne sont pas toujours là pour montrer une corrélation, et encore moins pour un lien de causalité. Pour les vaccins, racontons comment on en est arrivé là. En 1998, Andrew Wakefield publie dans Lancet douze cas d’autisme. Tous les cas avaient reçu une vaccination, le vaccin ROR pour la rougeole, les oreillons et la rubéole. Depuis cette première publication, énormément d’études ont été faites pour voir si effectivement il y avait une corrélation entre cette vaccination et l’autisme. En 2010, Lancet publie une rétractation, avec dix des auteurs sur douze qui disent qu’ils se sont trompés. Il y a eu des fraudes, et une rétractation. Dans une étude, assez récente, avec un protocole intéressant, il a été montré, chez des enfants sans frère ou sœur autiste, et des enfants avec des frères et des sœurs autistes, en considérant le nombre de doses de vaccin, qu’il n’y a aucun effet du vaccin. Ce nombre d’études pour infirmer la première étude de Wakefield est assez impressionnant, et la quantité d’argent dépensé pour infirmer la première affirmation de Wakefield est assez importante. En revanche, le mal était probablement déjà fait. En effet, le nombre de cas de rougeole, qui était à peu près d’une personne sur 300 avant l’arrivée des vaccins, est devenu de plus en plus faible. Mais depuis quelques années, on voit la réapparition de cas de rougeole dans la population et en particulier chez des enfants qui n’avaient pas été vaccinés. Chez plusieurs familles que je rencontre, quand il y a déjà eu un enfant avec autisme dans la famille, les autres enfants ne sont pas vaccinés. Il est assez catastrophique de constater que le mal est toujours là. Dans un tweet de Donald Trump, il est dit : « Massive combined inoculation to small children is a cause for big increase in autism ». Il poursuit en disant : « J’ai raison contre les vaccinations, les docteurs mentent, il faut sauver nos enfant et votre futur ». Cet exemple de la vaccination montre le problème créé par le fait de se tromper sur les causes de l’autisme. Que peut-on faire alors ? On peut effectivement expliquer que ce n’est pas le cas et que de nombreuses études montrent que l’augmentation de l’autisme
100
La
causalité dans les sciences biologiques et médicales
n’est pas due aux vaccins. Or, cela n’est peut-être pas suffisant. Une très jolie étude récente a posé la question à des participants : « Quelle est votre attitude vis-à-vis des vaccins ? » Heureusement, une majorité de gens disaient qu’ils allaient faire vacciner leur enfant, mais aussi certains disaient que c’était trop dangereux, qu’on n’allait pas vacciner les enfants. Les auteurs ont fait trois groupes pour voir comment on pouvait changer cette attitude par rapport aux vaccins. Une équation très simple décrit le risque et le bénéfice de vacciner ses enfants. Le premier groupe est un groupe contrôle qui n’a pas été exposé à quoi que ce soit, afin de voir la stabilité de la position des gens. Dans le deuxième groupe, on a expliqué aux participants qu’effectivement l’augmentation de l’autisme n’est pas du tout due au vaccin, que de nombreuses études ont été faites, et qu’il n’y a pas de lien de cause à effet. Au troisième groupe, on a montré les conséquences de la rougeole ou des maladies infectieuses sur les enfants. Les résultats de cette étude montrent que le groupe contrôle n’a pas tellement changé d’attitude par rapport à la vaccination ; que pour le groupe où l’on avait dit, en utilisant la raison, qu’il n’y avait pas de relation de cause à effet, les changements n’ont pas été extraordinaires. En revanche, le fait de faire peur et de montrer les conséquences possibles de l’absence de vaccination a permis à ce groupe de changer d’attitude, en faveur de la vaccination des enfants. Et cela est de plus en plus flagrant dans le groupe qui ne pensait pas faire vacciner ses enfants. Je trouve cela un peu triste car j’aurais préféré que ce soit la raison qui l’emporte, mais visiblement c’est la peur de la maladie qui va de nouveau l’emporter. Considérons maintenant les causes des autismes. J’adore la double hélice d’ADN mais ne suis pas non plus monomaniaque de la génétique. Mon rêve serait d’étudier l’épigénétique, et quand je serai un peu plus âgé je travaillerai probablement sur l’environnement. Plus sérieusement, je pense qu’on est 100 % génétique, 100 % épigénétique et 100 % environnement. Depuis quelques années, on travaille sur la génétique de l’autisme. Après l’identification des premiers gènes, voici tous les gènes identifiés en 2013. Il y en a actuellement 65 très bien répliqués et plus de 500 très candidats. Ne sortez pas de cette salle en disant qu’il n’y a pas de gènes impliqués dans l’autisme. Par contre il y a une très grande hétérogénéité, et quelquefois c’est un gène différent pour chaque famille. Mais la bonne nouvelle est que la plupart de ces gènes vont converger dans des voies biologiques communes. En particulier, deux voies biologiques ont été bien mises en cause : la régulation des gènes (le remodelage de la chromatine), et la formation des points de contact entre les neurones (les synapses). Concernant l’architecture génétique de l’autisme, de nouveau il y a une hétérogénéité. Je caricature la situation en disant que j’ai mes amis monogéniques et mes amis polygéniques. Pour certains amis, l’autisme est monogénique (un seul gène est en cause), alors que pour d’autres, l’autisme est très
L’autisme :
quelles corrélations, quelles causes et quelles interventions ?
101
polygénique, avec une accumulation de variations génétiques à risque qui vont se réunir chez l’enfant et qui vont faire que la personne est autiste. Dans les faits, il y a des cas effectivement où quasiment un seul gène va causer l’autisme, et cela on le voit en particulier dans les formes avec autisme et déficience intellectuelle. Maintenant, avec les méthodes de biologie moléculaire actuelle, on arrive à dépister environ 20 à 30 % de cas d’autisme avec déficience intellectuelle qui ont une forme assez monogénique, et où l’environnement va jouer un rôle assez faible par rapport à la causalité sur l’autisme. Après, l’environnement peut jouer sur la sévérité du trouble. Que connaît-on des mécanismes ? On a tout d’abord observé que quand on exprimait ces gènes dans des neurones, cela augmentait le nombre de connexions entre les neurones, appelées synapses. Or quand ce gène était porteur de la mutation que l’on avait identifiée chez une personne avec autisme, il n’était plus capable de déclencher la synaptogenèse. Cependant, il s’agit d’expériences effectuées in vitro, c’est-à-dire dans une boîte de Pétri avec des neurones en culture. Mais que se passe-t-il dans le cerveau des personnes avec autisme ? C’est beaucoup plus compliqué à déterminer. Actuellement, nous observons qu’il y a des personnes avec un fond génétique plus ou moins sensible à l’impact de mutations génétiques et qui vont déclarer des symptômes plus ou moins sévères. Un des gros problèmes pour la recherche sur les causes de l’autisme, et plus généralement de la psychiatrie, est que l’on essaie de faire entrer les individus dans des cases « atteint/pas atteint », ou « patient/témoin ». Comme le dit de nouveau l’un de mes héros, Claude Bernard, « l’emploi des moyennes en physiologie et en médecine ne donne le plus souvent qu’une fausse précision aux résultats en détruisant le caractère biologique des phénomènes ». Je rêve que l’on n’ait plus une case marquée « autiste » ou « pas autiste », mais que l’on dispose de données dimensionnelles, qui seraient beaucoup plus proches de la réalité des personnes. Un point a été évoqué précédemment : peut-on utiliser des modèles animaux ? Une fois une cause génétique de l’autisme chez l’homme identifiée dans la perte d’un gène, peut-on voir ce qui se passe dans une souris quand on mute ce gène ? En laboratoire, nous avons des petites souris chez lesquelles on a supprimé le gène Shank2 (que nous avons identifié il y a quelques années). Normalement, une souris mise dans une bassine se promène. Pour une souris dont on a muté le gène Shank2 (ce qui est équivalent à ce qui se passe chez les patients), on observe une hyperactivité. La souris n’arrête pas de courir dans tous les sens. Si cette petite souris allait à l’hôpital, elle irait directement voir le spécialiste de l’hyperactivité et non le spécialiste de l’autisme. En fait, nous observons chez la souris qu’il y a une comorbidité assez importante d’hyperactivité dans l’autisme, analogue à ce que les psychiatres ont observé chez les patients. Nous avons évidemment regardé
102
La
causalité dans les sciences biologiques et médicales
d’autres choses, comme par exemple que la souris sautait beaucoup plus que les souris normales, qu’elle se toilettait beaucoup plus. Cette augmentation du toilettage est encore plus exacerbée chez la souris mutée dans le gène Shank3, qui donne des formes sévères d’autisme avec déficience intellectuelle. Enfin, nous avons regardé les interactions sociales. Nous avons fait beaucoup de tests entre garçon/garçon, fille/fille, garçon/fille. Dans l’un de ces tests d’interaction, nous plaçons un mâle non muté dans une cage, dans laquelle nous introduisons une femelle en chaleur. Ce que nous observons est que le mâle témoin va directement interagir avec la femelle, ce qui est le comportement attendu. Au contraire, la souris mâle mutée dans le gène Shank2 est beaucoup moins intéressée et les interactions sont très faibles. Nous avons été très surpris de voir, toute proportion gardée, cette similarité apparente entre le comportement des humains et des souris mutées pour ces gènes de vulnérabilité à l’autisme. Enfin, Elodie Ey a aussi pu montrer que les souris mutantes vocalisent moins et vocalisent différemment avec plus de vocalisations courtes et moins de vocalisations complexes, plus de vocalisations non structurées que les souris témoins non mutées. Il reste beaucoup à faire dans ce domaine. En particulier on ne sait toujours pas si chez la souris il y a une vraie communication vocale. Concernant les interventions sur l’autisme : pour la partie biologique, le plus gros travail est pour l’instant de comprendre cette hétérogénéité. C’est pour cela que l’on fait de la génétique, que l’on fait de l’imagerie cérébrale, et que l’on essaie de ne plus parler de l’autisme mais vraiment des formes très hétérogènes de l’autisme, et de faire un peu de la « haute couture », de trouver des mutations, de faire des modèles cellulaires, des modèles animaux, de caractériser mieux les phénotypes, et d’avoir peut-être des molécules qui vont être plus précisément actives sur certaines populations. Mais il n’y a pas que la pharmacologie. La France a été condamnée déjà cinq fois par l’Europe pour la discrimination à l’égard des enfants autistes, pour défaut d’éducation, de scolarisation et de formation professionnelle. Dans tous les pays où je vais, les personnes avec autisme vont à l’école, sauf en France, et cela est assez catastrophique. Il serait donc possible de faire des choses immédiatement. Quelles sont les perspectives ? Pourquoi trouver des gènes impliqués dans l’autisme ? Ma réponse est la suivante : c’est pour trouver le meilleur environnement. Si l’on arrivait à comprendre quelle est la part génétique de chaque personne, on pourrait trouver le meilleur environnement, parce qu’il est faux qu’un génotype va déterminer le phénotype. En revanche, il va déterminer sa norme de réaction, c’est-à-dire la manière dont il va répondre à un certain environnement. J’aime beaucoup cette phrase de Lorna Wing : « Quand vous avez vu un enfant avec autisme vous avez vu un enfant avec autisme ». Et j’aime beaucoup aussi cette phrase : « No mind left behind », pas d’esprit laissé de côté.
L’autisme :
quelles corrélations, quelles causes et quelles interventions ?
103
Je pense que, quelle que soit la cause de l’autisme, il faut comprendre ce que c’est en discutant avec les personnes concernées que l’on avance. Je dis toujours à mes amis généticiens : c’est bien de séquencer de l’ADN, et à mes amis neurobiologistes : c’est bien de regarder les synapses, mais c’est aussi tellement important de comprendre l’autisme de l’intérieur des personnes avec autisme. Les livres de Joseph Schovanec sont assez extraordinaires. Je terminerai avec ce papa qui a découvert l’autisme de sa fille. Il a fait un petit livre, un petit dessin animé et, sur le T-shirt de sa fille, il est indiqué : « Je suis unique comme tout le monde » (http://www.youtube.com/watch?v=j4q8XJfdpgU).
Chapitre 9
Sur la causalité : un point de vue venu des sciences « dures » Yves Pomeau Ceci est une discussion, un peu à bâtons rompus, de la question de la causalité du point de vue de ce qu’on appelle les sciences dures. On essaiera de dégager quelques idées en utilisant quelques équations ! Rude et belle tâche que celle confiée par Claude Debru : donner un point de vue « des sciences dures » sur la causalité, ceci suite au fort intéressant colloque « Causalité dans les sciences biologiques et médicales » du 31 mai 2016. Les lignes qui suivent reprennent en partie ce dont j’avais parlé à cette occasion avec quelques ajouts. Cette notion de causalité apparait dans les Principia de Newton (1726) qui, s’en prenant (implicitement) à Descartes, affirme qu’il élimine de son système du monde les explications par les causes occultes (au sens de causes cachées, plutôt occultées donc). Il fait ainsi allusion à l’éther tournant (ou vortex) autour du Soleil qui, selon Descartes, entrainerait dans son mouvement les planètes. Newton élimine en effet le recours à de telles causes occultes et jette les bases de l’édifice de la science moderne inspiré en partie au moins de celui de la géométrie des anciens grecs, où chaque proposition est déduite logiquement soit d’une autre proposition soit directement de lemmes fondamentaux.
106
La
causalité dans les sciences biologiques et médicales
Rien de temporel donc dans cette causalité, qui ne concerne que des liens logiques, mais aussi parce que Newton imagine une transmission instantanée de la force de gravitation, une hypothèse qui ne devait être amendée que bien plus tard par Einstein dans sa théorie de la relativité générale. Introduisant une vitesse de propagation finie (celle de la lumière) pour l’interaction gravitationnelle, il fait apparaitre de petites corrections aux lois du mouvement des planètes. La temporalité chez Newton n’existe que dans le schéma déductif du discours. Le lien de nécessité entre cause et effet est abstrait et n’entraine pas d’effet direct sur la temporalité. Dans la logique de Newton et dans la tradition d’Euclide, seules comptent les relations entre éléments d’une figure. Ces relations n’impliquent pas nécessairement qu’il y ait causalité. Par exemple il n’y a aucun sens à dire que la convergence en un point des trois hauteurs d’un triangle est « causée » par le fait qu’elles sont des hauteurs. Pour qu’il y ait causalité, c’est une banalité que dire qu’il faut un « intervalle » de temps entre l’application de la cause et l’effet observé. Cet intervalle de temps, suivant son signe, sépare la cause de l’effet. Ceci repose sur une hypothèse non triviale d’existence d’une orientation du temps, de flèche du temps si l’on préfère, ce qui ouvre une perspective sur un champ des discussions, jamais terminées, de l’origine et du sens de cette flèche du temps, hors-sujet pour ce texte. On reviendra un peu plus loin sur la mise en évidence directe du lien temporel de cause à effet dans des séries temporelles issues d’observations. Faisons un grand saut, dans le temps et l’espace. Aucun événement historique n’a suscité autant de controverses que la cause dernière de la chute de l’Empire romain d’Occident (qui se fit approximativement du IVe au Ve siècle). La longue liste de ceux qui ont écrit sur le sujet commence avec saint Augustin, témoin direct, et inclut Montesquieu, Gibbon, Voltaire, etc. Les thèses les plus variées pour ne pas dire les plus insolites ont été proposées pour expliquer cette chute. Les progrès de la recherche historique semblent bien converger vers la bonne explication, exposée récemment par Michel De Jaeghere (De Jaeghere, 2014). Nous pensons cette explication intéressante pour notre sujet. L’Empire, au IVe siècle, s’affaiblissait par l’alourdissement continu de la fiscalité qui, malgré son poids, était toujours plus insuffisante à financer le train de vie de l’État. Ceci se conjuguait à la poussée aux frontières des Goths et autres populations germaniques ou iraniennes (comme les Alains) poussées elles-mêmes par les Huns. Le signal de l’effondrement, assez rapide, de l’Empire fut la bataille d’Andrinople (Adrianopolis, Edirne aujourd’hui en Turquie d’Europe) en 378, perdue par l’empereur Valens contre une coalition emmenée par des Goths. Cette défaite ouvrit les portes aux envahisseurs, portes qui ne purent être refermées ensuite. L’empire d’Occident survécut environ une centaine d’années à cette défaite. On retrouve dans cette séquence historique l’idée de catastrophe par (lent) balayage en temps d’une bifurcation nœud-col, la transition étant assurée par la défaite qui donna
Sur
la causalité : un point de vue venu des sciences
« dures »
107
une impulsion définitive pour quitter le Monde ancien et aller vers un Monde nouveau. La phase lente de l’évolution est l’alourdissement séculaire de la fiscalité qui a diminué les capacités militaires de l’Empire, et l’événement brusque initiant la transition est la défaite d’Andrinople. Ce modèle pourrait être pertinent pour des pathologies se développant sur un organisme affaibli (ce dernier mot dans un sens à préciser sans doute). Il a au moins l’avantage de se prêter à une modélisation assez simple (cf. infra). Pour une histoire unique de durée finie, on ne discernera de lien causal entre différentes grandeurs mesurées que par une description des événements et la recherche de leur relation, ce qui ne pourra que reposer sur une analyse qualitative, l’événement étant unique et singulier (comme la chute de l’Empire romain d’Occident). Cette histoire unique ne pourra qu’être le sujet d’une chronique la résumant de façon plus ou moins concise. En revanche si on dispose d’une histoire s’étendant sur une durée très longue et surtout dans des conditions extérieures à peu près stationnaires, alors on peut, au moins en principe, tenter une approche statistique, faire des moyennes et analyser les corrélations issues de ces moyennes. Examinons donc maintenant un autre aspect de la question, celui de la causalité vue à travers l’analyse statistique, presque toujours hors de portée de l’analyse historique. Kolmogorov et, plus tard Granger (Kolmogorov, 1969), considérant un signal temporel aléatoire se sont posés la question de trouver un moyen objectif de mettre en évidence l’irréversibilité de ce signal, au sens d’une asymétrie fondamentale par renversement du temps, asymétrie qui permet ensuite de définir un lien causal. Sans exposer en détail les idées de ces précurseurs, je vais me contenter d’en expliquer le principe dans un cas simple et montrer comment elles ont été utilisées dans l’analyse d’un signal de vitesse turbulente. Un lien causal apparaîtra s’il y a irréversibilité, c’est-à-dire si certaines corrélations apparaissent différentes suivant qu’on les regarde dans le sens du passé ou du futur. Ceci peut se comprendre de la façon suivante. Considérons une suite infinie discrète Ln composée de trois symboles, A, B et C. Ce sera notre modèle de signal, le rôle du temps étant joué par l’indice discret n de la suite. Cette suite est engendrée par ce qu’on appelle un processus de Markov. Par définition ces processus sont tels que le futur dépend de l’instant présent mais pas du passé. La lettre Ln+1 suivant une lettre Ln est choisie en fonction de Ln, mais pas d’une façon certaine. Ce processus donne un moyen probabiliste de trouver le symbole, Ln+1 = A, B ou C qui suit un symbole Ln donné. Cette suite serait donc un signal relevé à temps discrets. Imaginons que A donne B avec certitude comme symbole suivant. Supposons que B est suivi avec probabilité 1/2 par B ou C, et C par A ou B. Si la suite comporte des paires AB (puisque B suit toujours A) elle ne comportera aucune paire BA puisque B n’est jamais suivi de A. La suite ainsi construite a donc « un aspect » différent suivant qu’on la regarde dans un
108
La
causalité dans les sciences biologiques et médicales
sens ou dans l’autre. Cette différence peut se traduire assez facilement en termes mathématiques en considérant la différence entre deux corrélations en temps (le temps étant ici l’indice discret dans la suite des symboles) renversées l’une de l’autre par inversion du sens du « temps ». Attribuons à chacun des symboles A, B ou C une valeur numérique différente, et appelons α(n) cette valeur numérique à l’instant discret n. Donc une fonction de corrélation de la suite de Markov sera une moyenne à deux temps différents, n et (n + k), k et n entiers. Les fonctions qui permettront de savoir si la suite change suivant qu’on inverse le temps ou pas, sont du type < F(α(n)) G(α(n + k)) > où < > indique une moyenne glissante sur l’indice n, k étant maintenu constant, et où F(.) et G(.) deux fonctions différentes de la variable α. Si la suite ne change pas d’allure par inversion du sens du temps, alors la corrélation < F(α(n))G(α(n + k)) – G(α(n))F(α(n + k)) > est exactement nulle. Sinon le processus de Markov n’est pas le même lorsque l’on change le sens du temps. L’annulation ou non de ce type de corrélation permet donc de décider objectivement de l’existence d’un sens d’écoulement du temps et, comme nous allons le voir, d’une relation de causalité entre deux suites. Pour donner un sens un peu plus concret à ces considérations, la figure 1 donne un exemple de mesure d’une telle fonction de corrélation sensible au sens du temps à partir de l’analyse du signal de vélocimétrie d’un écoulement très turbulent dans la veine de la soufflerie de Modane dans les Alpes du sud. On voit bien que ce signal n’est pas nul, il a en réalité une amplitude non négligeable par rapport à celle des fluctuations elles-mêmes (Josserand et al., 2017).
ψ ( v,τ )
0.2 0.1 0.0
0.2
0.4
– 0.1 – 0.2 – 0.3 – 0.4 Figure 9.1 Test d’irréversibilité pour l’expérience de Modane.
0.6
0.8
τ (sec)
Sur
la causalité : un point de vue venu des sciences
« dures »
109
Pour voir comment ce formalisme permet de déterminer objectivement si une suite discrète est causalement reliée à une autre, considérons une grandeur fluctuante mesurée pendant un laps de temps suffisamment long pour que l’on puisse faire de façon assez sûre des mesures de corrélations. Imaginons maintenant une situation un peu plus compliquée que celle du processus aléatoire unique, soit deux suites de nombres α(n) et β(n’) et l’on souhaite savoir si la grandeur mesurée par β(n’) dépend des valeurs précédentes de α(n), soit s’il y a relation de causalité entre la suite α(n) et la suite β(n’). Cette relation se manifestera par une dissymétrie des corrélations de α(n) et de β(n’), comme par exemple < F(α(n))H(β(n + k)) – H(β(n))F(α(n + k))>. Si cette corrélation est non nulle (pour des valeurs de l’intervalle k entre les deux arguments), alors il existe une relation causale entre α(n) et β(n’). Dans le cas particulier de deux signaux identiques, β = α, la non-nullité de la corrélation s’interprète en disant que le système que l’on regarde a des fluctuations qui dépendent de façon différente de la fluctuation passée et de la fluctuation future. Les fluctuations à un moment donné ont donc une relation « causale » aux fluctuations passées. Cette assez longue digression montre qu’il n’est pas si simple de donner une méthode précise et quantitative de mise en évidence d’un lien causal entre deux signaux. Remarquons qu’en vertu d’un résultat d’Onsager (Onsager, 1931) un système physique à l’équilibre ne permet pas de mesurer le sens du temps. Ce n’est que lorsqu’il est hors équilibre que les fonctions de corrélations en temps donnent accès à cette mesure du sens du temps. Ceci va donc un peu à l’encontre de l’idée que les lois de la dynamique ont justement un caractère de lois causales : on pourrait imaginer que ces lois font une distinction entre passé et futur dans l’évolution de systèmes simples : c’est vrai hors équilibre thermodynamique mais pas à l’équilibre. La suite va être consacrée à l’examen d’autres questions de dynamique qui pourraient avoir une signification pour la question de la causalité, y compris peut être en biologie. Une première mise en garde est que la causalité peut interférer avec une autre notion, celle de sensibilité aux conditions initiales. Certains systèmes dynamiques ont la propriété d’être chaotique, c’est-à-dire d’oublier très rapidement leur état initial. Cette faculté d’oubli se généralise à une forme d’indifférence aux perturbations extérieures : une perturbation extérieure n’aura qu’un effet momentané et de faible amplitude pour les valeurs moyennes, alors qu’une petite fluctuation va s’amplifier et écarter le système de sa trajectoire sans changer pour autant ses propriétés moyennes. Cette sensibilité aux conditions initiales ou aux perturbations extérieures ne se traduit pas « expérimentalement » par un accroissement mesurable de l’amplitude de la réponse à une perturbation extérieure. En effet, ce signal chaotique est la
110
La
causalité dans les sciences biologiques et médicales
superposition d’une infinité de réponses à toute sorte d’incertitudes, qu’elles soient dans les conditions initiales ou dans un bruit extérieur. Il sera donc impossible de « lire » dans un signal unique la réponse à une perturbation extérieure pour des temps bien supérieurs à celui de la cohérence du signal chaotique : au-delà de ce temps, les autres sources de bruit noieront l’effet de la perturbation. Si, comme on le dit, le battement d’aile d’un papillon peut affecter la survenue d’un orage de l’autre côté de la planète, ceci est pratiquement impossible à démontrer puisque cet orage sera le résultat d’un nombre quasi infini d’autres fluctuations, battement d’ailes et autres. La seule possibilité de mettre en évidence l’effet du battement d’aile serait de refaire l’évolution du monde sans lui, ce qui est (peut-être) possible dans des modélisations sur ordinateur mais totalement impossible dans le monde réel. C’est une des raisons qui font, par exemple, qu’il est si difficile de « lire » l’effet des activités humaines dans le signal climatique qui est de lui-même, c’est-à-dire sans l’intervention humaine, déjà très chaotique et donc tel que tout signal (la variation de la température moyenne...) est brouillé par un fort bruit de fond. Il n’est nullement clair à l’auteur de ces lignes que ce bruit de fond s’atténue suffisamment sur les échelles de temps longues pour que l’on puisse extraire du signal une contribution des activités humaines sur ces temps longs. En conclusion de cette discussion, l’oubli des conditions initiales et/ou la sensibilité aux perturbations des systèmes dynamiques chaotiques sont un obstacle sérieux pour l’obtention de corrélations significatives entre une perturbation donnée et la réponse mesurée. Examinons maintenant une question qui, posée dans les « sciences exactes », pourrait avoir un intérêt en biologie, comme celle de la transition d’un état bien-portant à l’état malade. Cette idée de transition, de bifurcation pour utiliser un mot dû à Poincaré, a été et reste au centre de nombreuses recherches en sciences exactes (pour ne pas dire sciences dures). René Thom a donné un aspect systématique à ses recherches sur ces transitions dans sa théorie des catastrophes. Du point de vue des systèmes dynamiques, cette théorie est limitée au cas de ce que l’on appelle les flots de gradients. En termes concrets (et pour simplifier), ces flots de gradients sont les systèmes dynamiques qui, par leur évolution cherchent à minimiser une fonction. Ils sont loin de recouvrir l’ensemble des cas possibles. Par exemple une dynamique périodique (les battements du cœur) n’est pas décrite du tout par un flot de gradients. Une autre restriction de la théorie des catastrophes est qu’elle n’est pas vraiment une théorie dynamique, c’est-à-dire qu’elle ne donne pas clairement de moyen pour décrire une évolution. Elle se restreint à la description des états finaux possibles de cette évolution, sans dire comment cet état final est atteint.
Sur
la causalité : un point de vue venu des sciences
« dures »
111
V
30 20 10 4
2
2
4
R
10 20 30 Figure 9.2 Évolution lente du profil du potentiel au voisinage d’une bifurcation nœud-col : la courbe en trait plein est le profil (sur lequel roule la bille dans le texte) avant la bifurcation, la courbe en pointillée est le profil au point critique, juste au point de bifurcation nœud-col (Pomeau et al., 2014). Ensuite le profil est décroissant partout.
Il existe un cas simple de système dynamique qui pourrait avoir un intérêt dans les systèmes biologiques, c’est la transition par balayage lent d’une bifurcation nœud-col. Une telle transition se rencontre lorsque l’on fait varier lentement un paramètre de telle façon que ce paramètre croise (lentement donc) la valeur critique où la bifurcation nœud-col a lieu (voir figure 2 et sa légende pour une explication graphique de cette transition). Comme le taux d’instabilité au moment de la bifurcation est très faible, les deux évolutions lentes, celle du paramètre et la croissance de l’instabilité, entrent en compétition. Dans ce schéma explicatif, la bifurcation nœud-col se produit lorsque l’on considère le mouvement d’une bille qui roule, avec beaucoup de friction sous l’effet de son poids tout en étant contrainte à rester sur un profil de hauteur qui, en-deçà de la bifurcation, présente sur la droite une pente montante qui s’arrête à un minimum local d’altitude, la pente remontant vers la gauche de nouveau pour atteindre un sommet local qui vers sa gauche donne une pente uniformément descendante. Dans ce paysage, le sort d’une bille est soit de rouler vers le bas lorsqu’elle part à gauche du sommet local, soit de rouler vers le minimum local lorsqu’elle part à droite de ce minimum (figure). On peut imaginer déformer lentement et continument ce paysage de telle façon que le minimum et le maximum local viennent se confondre pour disparaitre ensuite tous les deux. C’est la bifurcation nœud-col. Imaginons que le point représentant l’état du système se trouve au minimum local avant la déformation du potentiel. Si la déformation évolue assez lentement (en termes techniques on la qualifie d’adiabatique) alors et tant que le minimum de potentiel subsiste, elle y reste. Ce n’est que lorsque ce minimum disparait en se
112
La
causalité dans les sciences biologiques et médicales
confondant avec le maximum que la bille commence à rouler vers la gauche, et ce de plus en plus rapidement puisque la pente augmente. Il me semble que ce modèle mathématique pourrait avoir une signification au moins qualitative pour des processus biologiques. Si l’on assimile l’état de santé au minimum stable, la transition nœud-col pourrait-elle être assimilée à l’évolution vers un état pathologique. Du point de vue de la causalité, on retrouverait dans cette modélisation une modélisation « objective » ne reposant pas sur une analyse détaillée de la biologie de la transition mais sur une analogie (peut être trop audacieuse...) avec un modèle mathématique simple. Une des prédictions de ce modèle mathématique est l’occurrence naturelle de fluctuations de grande amplitude au voisinage de la transition, dont l’existence a été confirmée dans un travail expérimental sur l’étirement par à-coup d’un solide mou (Peters et al., 2012). Ces signaux précurseurs d’une transition font actuellement l’objet de recherches dans le cas de la transition (assez rapide) de l’état de veille à celui de sommeil. On pourrait aussi imaginer des applications, ou du moins des investigations dans le cas des crises d’épilepsie. La philosophie de cette approche est en quelque sorte l’opposée de celle d’une recherche des causes : on remplacerait celle-ci par l’observation de la dynamique de la transition, l’aspect temporel devenant prépondérant. Pour terminer ce vagabondage, je vais évoquer un autre ensemble de concepts des sciences dures qui pourrait intéresser la biologie et qui concerne la causalité, entendue ici comme la dynamique. Ceci continue dans la veine de ce que l’on vient juste d’évoquer, soit la transition d’un état à l’autre. La thermodynamique nous enseigne depuis longtemps que ce type de transition se produit dans des corps simples en fonction de la température et de la pression, ces corps pouvant exister dans les mêmes conditions de température et de pression dans deux états différents (au moins) liquide et vapeur, liquide et solide, solide et vapeur pour les situations les plus simples. La question suivante est, naturellement, comment se fait le passage d’un état à l’autre ? Gibbs à la fin du XIXe siècle a montré que ce passage se fait (dans une vapeur sous-refroidie par exemple) par le processus de nucléation, c’est-à-dire par la formation (soit par l’effet d’une poussière-nucléation hétérogène – soit par les fluctuations thermiques – nucléation homogène) d’une goutte de liquide qui tend ensuite à grossir si elle est de taille suffisante. Si elle est trop petite cette goutte, quelle que soit son origine, va collapser et disparaitre. Cette idée de Gibbs se généralise à de nombreuses situations. On peut penser par exemple à l’étincelle qui allume un feu : si cette étincelle n’est pas assez vigoureuse et/ou le bois pas assez sec, le feu ne va pas jaillir. Ne pourrait-on imaginer l’existence de tels noyaux de taille critique dans des maladies, par exemple les tumeurs solides du cancer ? Naturellement la variabilité d’un sujet à l’autre ne donnera probablement à un tel concept qu’une valeur qualitative, ce qui ne serait peut-être déjà pas si mal.
Sur
la causalité : un point de vue venu des sciences
« dures »
113
Que conclure ? La notion de causalité évoque dans les sciences dures l’irruption de la temporalité dans la description du réel. Cette temporalité est bien davantage qu’un ajout à une science des formes ou des situations figées à un instant t. J’ai essayé de montrer comment des idées générales peuvent émerger de l’analyse dynamique qui vont au-delà des cas particulier et pourraient, espérons-le, aider à la compréhension des phénomènes immensément complexes de la biologie.
Remerciements. L’aide indispensable de Martine Le Berre m’a permis de donner forme à ce texte. Qu’elle en soit remerciée. Références De Jaeghere M. (2014). Les derniers jours, la fin de l’empire romain d’Occident, Les Belles Lettres, Paris. Josserand C., Le Berre M., Lehner Th., & Pomeau Y. (2017). Turbulence: does energy cascade exits? J. Stat. Phys., 167: 596-627. Kolmogorov A.N. (1969). In Selected works by A.N. Kolmogorov, vol. II, édité par A.N. Shiryayev (Springer), page 209 “On the reversibility of the laws of Nature”. C. Granger, Econometrica, 37: 424. Newton I. (1726) Philosophiae naturalis principia mathematica, ed. Alexandre Koyré et Bernard Cohen (Cambridge, MA, 1972, Harvard UP). La traduction en français et les commentaires des Principia par Émilie du Châtelet se trouvent sur bibnum.education.fr [archive], 2008. Onsager L. (1931). Reciprocal Relations in Irreversible Processes, Phys. Rev., 37: 405; Phys. Rev., 38: 2265. Peters R.D., Le Berre M., & Pomeau Y. (2012). Prediction of catastrophes: An experimental model, Phys. Rev. E, 86: 026207 [arXiv:1204.1551]. Pomeau Y., Le Berre M., Chavanis P.-H., & Denet B. (2014). Supernovae: an example of complexity in the physics of compressible fluids, Eur. Phys. J. E, 37: 26 [arXiv:1307.4786].
Annexe au chapitre 4 Afin d’illustrer les différentes méthodes décrites dans la suite, nous avons arbitrairement sélectionné quelques articles impliquant l’obésité, un sujet hors de nos propres sujets de recherche, mais dont l’intérêt est d’avoir suscité de nombreuses études épidémiologiques aussi bien interventionnelles qu’observationnelles. L’obésité n’est évidemment pas une exposition que l’on peut attribuer expérimentalement dans une étude de population humaine. C’est cependant une caractéristique manipulable : il existe notamment des moyens de la réduire. On veut pouvoir répondre à la question du rôle causal de l’obésité (« observer » dans l’opposition citée entre « observer et faire ») dans la survenue de certaines maladies (cardio-vasculaire, cancer, etc.). On veut également étudier l’impact des interventions pour diminuer l’obésité (« faire ») : récemment, la chirurgie bariatrique, qui consiste à limiter le volume de l’estomac chirurgicalement, par exemple par la pose d’un anneau, est devenue très populaire à cet effet. L’intérêt de cette pose par exemple sur la réduction effective de poids peut être étudié par des essais randomisés. Cependant, d’autres questions se posent : peut-on extrapoler ces résultats à des populations « à risque » différentes de celle des essais ? Y a-t-il une amélioration de l’état de santé qui dépasse la perte de poids, par exemple une réduction de la mortalité ? Doit-on limiter la pratique de ces interventions à des centres de référence ? Ces questions sont généralement abordées par des enquêtes observationnelles car les essais cliniques ne sont pas, au moins pour des raisons de ressources, effectués dans toutes les circonstances, notamment lorsqu’on s’intéresse à un horizon temporel très long.
A1
Le formalisme de l’expérimentation et de l’observation
Dans la suite, on notera X une variable désignant aussi bien une exposition à un facteur ou une intervention grâce à un traitement. Par exemple, on
116
La
causalité dans les sciences biologiques et médicales
coderait X=1 pour une chirurgie bariatrique et X=0 sinon (donc, les sujets, exposés, ou non exposés à un facteur F qui étaient notés ci-dessus NF et F seront codés X=0, et X=1). On notera Y la variable « résultat » mesuré, qui peut être dichotomique (par exemple « a maigri » Y=1 et « n’a pas maigri » Y=0, est malade M (Y=1), ou non malade NM (Y=0)) ou d’une autre nature (par exemple, la durée de survie après le diagnostic). Toute autre variable, notamment les éventuelles variables « de confusion », sera notée Z. Nous utiliserons aussi la notation introduite par Pearl pour faire la distinction entre observer une valeur de X et fixer la valeur de X : la première est notée « X=x » et la seconde « do(X=x) ». Comme on l’a rappelé dans le chapitre 4, l’expérimentation randomisée permet de conclure sur l’existence et la taille d’un effet causal de X sur Y par la comparaison directe des valeurs de Y selon le niveau de X. La randomisation est nécessaire dans la majeure partie des situations biomédicales, car les unités statistiques (généralement les patients) ne sont pas suffisamment homogènes pour que la variabilité naturelle soit négligeable devant celle induite par l’intervention. Par construction, la randomisation produit l’indépendance entre l’intervention reçue et toute autre caractéristique Z des participants, mesurée ou non, et fait que toute différence de la distribution de Y entre ceux que l’on a choisi d’exposer (do(X=1)) et les autres (do(X=0)) doit être attribuée à la cause X étudiée. Un exemple d’application dans le modèle choisi fut d’allouer, sur la base du hasard, des adolescents obèses (indice de masse corporelle (IMC)>35) à subir une chirurgie bariatrique ou une intervention non chirurgicale pour modifier le mode de vie (régime, activité,… ) (O’Brien et al., 2010). Après 2 ans de suivi, le groupe ayant subi la chirurgie présentait une réduction de 78 % de l’excès d’IMC pour leur âge, tandis que l’autre groupe n’avait perdu que 13 % de l’excès d’IMC. Ce différentiel est dès lors attribué à la seule différence systématique entre les 2 groupes, l’allocation à la chirurgie, ce qui permet de conclure qu’elle entraîne une perte de poids plus grande. Cette conclusion peut bien sûr être discutée : le hasard seul pourrait expliquer cette différence, puisque par construction, un test statistique est « significatif » même en absence d’effet de l’intervention avec une probabilité de 5 % (le risque de première espèce) ; il n’y a pas d’insu/aveugle dans le cas particulier décrit car les patients savent s’ils ont été opérés ou non, et ceci pourrait modifier leur comportements,… Pour accepter l’interprétation causale de ce résultat, les praticiens doivent donc considérer plusieurs facteurs : la comparabilité initiale des groupes assurée par la randomisation ; la faible possibilité d’une différence par le seul fruit du hasard ; et finalement l’importance de la différence observée qui rend toute explication autre que la chirurgie peu probable, eu égard à la modeste efficacité généralement observée pour les interventions non chirurgicales. L’acceptation de l’explication
Annexe
au chapitre 4
117
causale n’est donc pas uniquement due à la randomisation, mais à la combinaison de cette méthodologie et de la cohérence des résultats avec les connaissances préalables. Dans une situation où l’intervention n’a pas été allouée au hasard, la conclusion est bien plus difficile à établir. Ces situations sont en pratique bien plus fréquentes que celles de l’expérimentation. Bien sûr, dans le cas où il existe un effet causal de X et Y, on s’attend à observer une association statistique entre X et Y. Cependant, une telle association peut également exister en absence d’effet propre de X sur Y, si une variable de confusion Z détermine, même partiellement, à la fois l’exposition X et le résultat Y. Un tel cas de figure s’est produit pour déterminer si la chirurgie bariatrique réduisait la mortalité même chez des individus « à haut risque » pour la réalisation de cette chirurgie (car âgés, IMC élevé, comorbidités,…). Une cohorte de patients des hôpitaux pour anciens militaires aux États-Unis a été suivie, le choix de réaliser ou non la chirurgie dans cette population étant fait dans des conditions « réelles », par le patient et l’équipe médicale et non pas tiré au sort par un investigateur extérieur : l’intervention observée doit donc être notée « X=1 » et non pas « do(X=1) ». Après 2 ans de suivi, on a observé 2,2 % de mortalité dans le groupe opéré (X=1) contre 4,6 % chez les autres (X=0) (Maciejewski et al., 2011). Sans surprise, ceux qui ont été opérés étaient en moyenne « moins à risque » : plus jeunes, avec moins de comorbidités. À elles seules, ces différences initiales impliquent déjà une mortalité attendue plus faible chez ceux qui ont subi la chirurgie : la différence de 2,4 % ne peut donc pas être directement interprétée comme l’effet de la chirurgie, elle peut avoir été confondue, au moins partiellement, avec l’effet des autres différences. En absence de randomisation, l’interprétation causale d’une différence observée n’est donc jamais directe. Il faut montrer qu’elle n’est pas le fait d’une confusion : idéalement, on veut montrer que l’expérimentation randomisée qui aurait été mise en place pour la même question aurait mené au même résultat. La qualité de la preuve qui sera finalement obtenue ne sera pas moins bonne que celle de l’expérimentation, mais les garanties seront moindres du fait de la possible existence de facteurs non contrôlés (Rothman, 2014). Le problème épidémiologique est donc de décider du type d’ajustement à apporter : certaines variables doivent être incluses car source de confusion ; certaines peuvent être incluses ou non car indépendantes de l’effet de l’exposition d’intérêt ; et certaines ne doivent pas être incluses car source de biais, comme c’est la cas s’il y a des variables intermédiaires dans la relation causale (et qui donc ont leur place dans la chaîne explicative recherchée), ou s’il y a des variables qui – si elles étaient fixées – introduiraient de nouvelles associations entre valeurs observées.
118
A2
La
causalité dans les sciences biologiques et médicales
La formulation des « résultats possibles » (potential outcomes) et l’approche contre-factuelle
Déterminer l’effet de la chirurgie bariatrique (l’exposition ou intervention d’intérêt, dans l’exemple choisi) sur la survenue du décès implique de spéculer sur la différence d’évolution du même individu subissant ou non la chirurgie (Little et Rubin, 2000). Pour cela, on va postuler que chaque individu a deux « résultats possibles » (y0, y1) qui correspondent à la valeur de l’état de santé en absence d’exposition (y0) et en sa présence (y1). Ces résultats sont en première approche supposés déterministes, c’est-à-dire que chez le même individu, dans la même situation, on obtiendrait les mêmes valeurs y0 et y1. L’effet causal de l’intervention/exposition chez cet individu est alors défini par y1 – y0. Une différence nulle correspond à l’absence d’effet lié à l’intervention/exposition. Dans un cadre probabiliste, on décrit la réponse d’un individu pris dans une population par une paire de variables aléatoires (Y0, Y1) qui prendront les valeurs y0 et y1. Mener un raisonnement causal, c’est faire une distinction entre l’observation de (Y|X=x) et la valeur de (Yx). Dans le premier cas, Y est observé chez les individus qui ont X=x ; dans le deuxième cas, Y est la valeur lorsque X est fixé à x, on a donc Yx = Y| do(X=x). Grâce à la formulation des résultats potentiels, on peut adresser les deux grands types de questions existant autour de la causalité, que nous adaptons de Dawid (Dawid, 2000) à notre problématique : – « Ce patient décèdera-t-il plus rapidement s’il subit une chirurgie bariatrique ? » Cette demande concerne l’effet d’une cause : l’effet qu’aura la chirurgie bariatrique sur la survenue du décès. Il s’agit donc ici de comparer Y1 et Y0 – chez le même patient – pour identifier le meilleur choix pour un nouvel individu ; – « Ce patient non opéré est décédé : serait-il encore vivant si l’on avait utilisé la chirurgie bariatrique ? » Cette demande concerne la cause d’un effet : déterminer si c’est parce que le patient n’a pas subi l’intervention chirurgicale que l’on est arrivé au résultat observé. Il s’agit ici, lorsque l’on a observé le résultat Y en même temps que X=0, de déterminer si le résultat aurait été différent si on avait adopté l’intervention do(X=1) : en d’autres termes, on veut calculer P(Y0 =/= y | X=1, Y=y). Cette définition évalue si la chirurgie était une cause nécessaire au décès ; on peut aussi s’intéresser aux causes suffisantes, ou nécessaires et suffisantes, comme développé par Pearl (2009a). Le problème fondamental dans la détermination effective de l’effet causal individuel est que l’on ne pourra jamais observer qu’une seule des 2 valeurs,
Annexe
au chapitre 4
119
y0 ou y1 : celle qui correspond à l’exposition/intervention (X) effectivement reçue. L’autre résultat est alors dit « contre-factuel ». Chez un patient qui subit une chirurgie bariatrique, par exemple, on ne pourra pas observer ce qu’il serait advenu sans cette chirurgie. Dans d’autres champs disciplinaires, on peut invoquer la grande homogénéité des unités statistiques pour pallier ce problème : deux aliquots cultivés dans deux conditions différentes ont le même comportement qu’aurait eu le même aliquot cultivé deux fois ; parfois l’invariance de la réponse dans le temps, permet de répéter l’observation de la même unité dans les 2 situations d’exposition (Holland, 1986). On a dit plus haut que l’observation de l’effet causal individuel n’est pas possible. Que peut-on alors espérer estimer à partir de données d’observation ? Examinons plus en détail l’effet causal dans le cas d’un résultat de santé dichotomique : en variant l’exposition X, on voit que 4 profils de résultats potentiels sont possibles comme décrit dans le Tableau A.1. Tableau A.1 Classification des « résultats possibles » dans le cas d’un résultat dichotomique (adapté de Hernan et Robins, 2016).
Y0
Y1
Description
0
0
« Immuns » (Immunes) : ces personnes survivent quelle que soit l’exposition qu’elles subissent.
0
1
« Susceptibles » (Susceptibles) : ces personnes décèdent uniquement en cas d’exposition.
1
0
« Protégés » (Protected) : ces personnes décèdent uniquement lorsqu’elles ne sont pas exposées.
1
1
« Condamnés » (Doomed) : ces personnes décèdent quelle que soit leur exposition.
Le tableau montre que l’effet individuel est hétérogène : nul chez les « Immuns » et les « Condamnés », mais existant chez les « Susceptibles » et les « Protégés ». Il n’est pas possible de dire si une personne particulière qui décède en cas d’exposition est « Condamnée » ou « Susceptible », pas plus que l’on ne peut dire si c’est un « Immun » ou un « Protégé » en l’absence de décès et d’exposition. Cependant, en comparant 2 personnes de même profil, l’une exposée et l’autre non, on révélerait immédiatement le profil de ces deux personnes et la valeur de l’effet. De manière plus générale, en comparant deux groupes, l’un exposé et l’autre non exposé, avec l’hypothèse supplémentaire que la répartition des 4 profils de personnes est indépendante de l’exposition, par exemple par randomisation, la différence des pourcentages de décès entre exposés et non exposés donnerait l’effet causal moyen. Ceci établit la cohérence de la description des résultats potentiels avec l’intuition.
120
La
causalité dans les sciences biologiques et médicales
En généralisant cette approche, Rubin et d’autres ont montré que l’estimation de l’effet causal moyen défini par E(Y1) – E(Y0) est possible dans une population d’individus. Par exemple, dans le cas d’une étude randomisée, la réponse de chaque individu peut s’écrire sous la forme Y = XY1 + (1 – X)Y0, et comme l’intervention est par construction indépendante (⊥) des résultats potentiels (Y0,Y1 ⊥ XY0,Y1 ⊥ X), alors E(Y1) – E(Y0) correspond à E(Y|do(X=1)) – E(Y|do(X=0)) = E(Y|X=1)-E(Y|X=0). L’estimation est donc obtenue par la 1 1 simple différence des moyennes empiriques observées y1i − y 0i . n1 n0 Dans le cas d’une situation d’observation, E(Y|X=1) – E(Y|X=0) est l’effet causal « apparent » ou « prima facie ». On appelle biais toute différence entre cette valeur et la cible E(Y1) – E(Y0).
∑
∑
L’effet causal calculé par E(Y1 – Y0) est l’effet causal (ou traitement) moyen (ATE pour Average Treatment effect (effet traitement moyen) ou ACE pour Average Causal Effect ). C’est l’effet d’intérêt dans un essai randomisé. Dans une situation d’observation, d’autres définition de l’effet d’intérêt existent (qui coïncident toutes en cas d’expérimentation) : on peut déterminer l’effet moyen du traitement chez les traités (Average Treatment effect in the Treated ; ATT = E(Y1 – Y0 | X=1)) et l’effet moyen du traitement chez les non traités (Average Treatment effect in the Untreated ; ATU = E(Y1 – Y0 | X=0).
A3
Les graphes acycliques dirigés (DAG) comme support de l’information causale
Dans un DAG, les relations sont indiquées par un arc dirigé de la cause vers l’effet. L’absence de chemin en boucle dans le graphe (le caractère acyclique) est la garantie d’une interprétation causale cohérente de l’ensemble des relations. L’existence d’un lien induit une dépendance markovienne dans la définition des probabilités où les valeurs des variables sont déterminées uniquement par celles des parents (nœuds en contact ascendant direct). Il y a certains points communs avec la spécification graphique des modèles, courante notamment en analyse bayésienne, avec cependant la différence fondamentale que là où les modèles graphiques ne font que spécifier des dépendances statistiques, les liens représentés dans un DAG expriment une relation causale. Pour aider à l’analyse d’une relation d’intérêt, le DAG doit faire apparaître toutes les variables impliquées dans les causes communes à l’exposition et aux résultats ainsi que celles qui sont effectivement mesurées. En d’autres termes, cela veut dire que tous les facteurs de confusion doivent être présents dans le DAG. Dans une telle description, l’information causale repose autant,
Annexe
au chapitre 4
121
voire plus, sur les arcs qui ne sont pas présents que sur ceux qui sont présents. Un DAG pour aider à l’analyse de la mortalité après chirurgie bariatrique est présenté dans la Figure A.1. Ce graphe doit (ou peut…) être construit a priori de toute observation : il décrit comment on pense la chaîne causale entre variables, observées ou non. Il ne s’agit donc pas d’un graphe qui montrerait les corrélations observées entre variables. On commence le graphe avec la relation d’intérêt, ici indiquée par la flèche en gras : chirurgie à statut vital. Le graphe représente ensuite les hypothèses suivantes : – l’âge, le sexe, le gène FTO2 déterminent l’IMC pré-Op ; – l’âge, le sexe et l’IMC pré-Op, le centre de référence déterminent le recours à la chirurgie ; – la chirurgie et l’IMC pré-Op déterminent l’IMC post-Op ; – l’âge, IMC pré-Op, le diabète, la chirurgie et l’IMC post-Op déterminent le statut vital final.
Figure A.1 Exemple de graphe acrylique dirigé (DAG) pour analyser l’impact de la chirurgie bariatrique sur le statut vital. (exemple inspiré de Maciejewski, 2011). « Centre de référence » : le sujet consulte un hôpital qui est un centre de référence de chirurgie bariatrique. IMC : index de masse corporelle ; FTO2 : le patient est XXX pour le gène FT02. Les variables sur fond gris sont celles qui, après examen des relations entre variables, définissent l’ajustement minimal requis pour que la valeur estimée pour la relation allant de « Chirurgie » à « Statut Vital » corresponde à la part causale.
122
La
causalité dans les sciences biologiques et médicales
Les arcs qui ne figurent pas dans le DAG encodent également de l’information : par exemple, que l’on ne cherche pas à expliquer la sélection de l’âge et du sexe des patients ; que l’on fait l’hypothèse que parmi toutes les variables qui déterminent effectivement l’IMC pré-Op d’un patient, seuls l’âge et le sexe sont pertinentes à montrer car elles apparaissent comme parents d’autres variables impliquées dans la relation d’intérêt ; on fait également ici l’hypothèse que l’IMC post-Op n’est déterminé que par la valeur IMC préOp et chirurgie, et non, par exemple, par l’âge : implicitement, l’effet de la chirurgie sur l’IMC n’est donc pas différentiel selon l’âge. À partir d’un tel DAG, on peut déterminer l’ensemble des variables sur lesquelles l’ajustement doit être fait pour obtenir une estimation de l’effet causal d’intérêt. À cet effet, Pearl a montré qu’il fallait obtenir la « d-séparation », ou blocage, de tous les chemins (non dirigés) qui relient X (l’exposition) à Y (le résultat) dans le DAG. En pratique, le « blocage » d’un chemin s’obtient, selon son type, par l’inclusion ou l’exclusion d’une variable de ce chemin dans l’ajustement. Le chemin Chirurgie ß Âge à Statut Vital correspond à un « backdoor path », ou chemin qui finit avec une flèche pointée vers l’exposition d’intérêt. La variable Âge induit donc une dépendance non causale entre Chirurgie et Statut Vital, que l’on peut éliminer en ajustant sur l’âge. De même, le chemin Chirurgie ß IMC pré-Op à Statut Vital doit être bloqué par ajustement sur IMC pré-Op. Mais par ce dernier ajustement, on a également « débloqué » le chemin Chirurgie ß Âge à IMC pré-Op ß Sexe à Statut Vital car « IMC pré-Op » est une « collision » dans le chemin (à IMC préOp ß, une variable sur laquelle pointent 2 flèches). Ajuster sur la valeur de l’IMC pré-Op induit une corrélation entre Age et Sexe et donc entre Chirurgie et Statut Vital qui n’est pas causale. Pour bloquer ces 3 chemins simultanément, il faut donc ajuster sur Âge et IMC pré-Op. Dans les chemins avec une flèche partant de l’exposition (« frontdoor paths », par exemple Chirurgie à IMC post-Op à Statut Vital), la variable intermédiaire ne doit pas être incluse sauf si l’on s’intéresse à l’effet direct Chirurgie à Statut Vital à l’exclusion de toute médiation. La recherche des variables qui permettent la « d-séparation » dans un graphe peut être automatisée, par exemple avec l’application daggity (www.daggity.net). Le résultat d’une telle analyse est indiqué sur la Figure A.1 : les 3 variables d’ajustement sont nécessaires pour que l’estimation obtenue, par exemple avec un modèle de régression logistique, soient causales. La variable Centre de Référence, même si elle préexiste à la réalisation de la chirurgie, n’est par exemple pas nécessaire dans cet ajustement. Au-delà de la sélection d’un jeu de variables d’ajustement, l’intérêt de l’approche est également de montrer ce qu’il est possible d’estimer à partir des données observées. Dans le modèle de la Figure A.1, par exemple, l’effet de la chirurgie sur le statut vital ne sera pas estimable si la valeur de l’IMC pré-Op n’est pas observé ; mais le sera même si l’on n’a pas observé
Annexe
au chapitre 4
123
la valeur de l’IMC post-Op ou le gène FTO2. Une autre conséquence de cette analyse est de pointer l’illusion de la Table II (« Table II fallacy » (Westreich et Greenland, 2013), la Table II des études épidémiologiques désignant ici celle où l’analyse multivariée est rapportée). L’illusion est de penser que tous les paramètres rapportés dans la « table II » ont une interprétation causale, alors que celle-ci n’est valide pour une variable que si l’ajustement a été convenablement choisi. Ainsi, dans une régression logistique pour déterminer l’effet de la chirurgie sur la mortalité, convenablement ajustée sur l’Âge, le Sexe et l’IMC pré-Op, l’odds-ratio associé à l’IMC pré-Op n’a pas une interprétation causale (sa magnitude est fausse) : pour l’estimer correctement, seul un ajustement sur Âge et Sexe était nécessaire. La spécification du DAG peut s’accompagner d’une estimation directe des effets par la méthode des Modèles d’Equations Structurales (SEM) (aussi dits réseaux bayésiens). Il existe aujourd’hui des logiciels permettant l’utilisation de ces approches en présence de tout type de variable, et pas seulement gaussiennes, ce qui lève une critique faite à leur utilisation (Der, 2002). Leur emploi en épidémiologie reste cependant anecdotique, comme le montre un commentaire récent : « Une fois de temps en temps, un article est publié qui utilise des SEM en épidémiologie. » (VanderWeele, 2012). Les équations structurales demandent en effet des hypothèses fortes, car elles spécifient un modèle global auquel doivent satisfaire toutes les variables modélisées. L’objectif d’une étude épidémiologique est généralement plus restreint, et il n’est pas obligatoirement nécessaire de modéliser la relation entre toutes les variables montrées dans la Figure A.1, par exemple, si seul l’effet de la chirurgie sur le BMI post-intervention est d’intérêt. D’autres approches ont la faveur des épidémiologistes, avec un modèle minimal destiné à estimer uniquement un paramètre ciblé.
A4
Le score de propension pour améliorer la qualité de l’ajustement
Si on réserve la chirurgie bariatrique à des personnes dont on pense qu’elles sont plus à même d’en bénéficier ou de la supporter, par exemple les plus jeunes et moins invalides, le principe de comparaison est biaisé dès l’intervention. Le score de propension de Rosenbaum & Rubin a principalement pour objectif de corriger ce biais (Rosenbaum et Rubin, 1983). Il s’agit d’un score d’équilibrage (« balancing score »), que l’on notera e(Z) = P(X=1 | Z) et qui décrit la probabilité de recevoir l’intervention en fonction de caractéristiques individuelles (Z). L’intérêt principal est que ce score est une statistique suffisante pour ajuster la mesure de l’association entre Y et X, c’est-à-dire que P(Y | X,Z) ≡ P(Y | X, e(Z)) : l’ajustement de la comparaison se fait sur la base
124
La
causalité dans les sciences biologiques et médicales
d’un seul terme, alors même que les différences entre individus portaient sur de nombreuses variables. Conditionnellement à ce score, une étude observationnelle est une quasi-expérimentation, où certains individus ont reçu l’intervention et d’autres non, tout en étant en tous points comparables, car avec le même score de propension. La différence avec l’expérimentation est que la proportion recevant l’intervention variera avec le niveau de e(Z). L’analyse stratifiée, pondérée, ou ajustée, sur le score de propension compare alors des individus qui ne sont différents que sur l’exposition/intervention reçue, et l’association estimée a une interprétation causale. Dans la pratique, le score de propension n’est pas connu et est estimé à partir des données observées. Les modèles de régression logistique sont couramment utilisés, mais d’autres stratégies sont possibles. La démarche classique voit l’appariement des sujets sur la base de la valeur de leur score, avec là également plusieurs choix algorithmiques (par exemple « plus proche voisin », ou « optimal » pour maximiser le nombre de paires). Le Tableau A.2 montre l’effet d’une telle approche : alors que des différences existent entre les patients ayant reçu une chirurgie bariatrique et les autres, les écarts initialement constatés entre patients opérés ou non sont considérablement réduits dans l’échantillon apparié sur le score de propension. Tableau A.2 Effet de l’appariement sur le score de propension dans une étude observationnelle sur la chirurgie bariatrique. Source : Maciejewski et al. (2011).
Age m(SD) Male sex Race : white non white IMC m(SD) Statut marital : marié divorcé autre
Chirurgie (N=850)
Non chirurgie (Total) (N=41244)
Non chirurgie (appariés) (N=847)
49.5 (8.3) 73.9 % 77.9 % 22.1 % 47.3 (7.7)
54.7 (10.2) 91.7 (%) 67.8 % 32.2 % 42.0 (5.0)
49.0 (8.2) 73.7 % 77.0 % 23.0 % 47.1 (7.2)
52.1 % 30.3 % 17.6 %
57.7 % 27.3 % 15.0 %
51.1 % 28.7 % 20.2 %
Outre son rôle pour l’ajustement, un intérêt majeur du score de propension est de mettre facilement en lumière (car en une dimension) les situations dans lesquelles les individus exposés et non exposés ont des propensions à recevoir l’intervention trop différentes pour que leur comparaison informe sur l’effet causal de cette intervention. C’est le cas lorsque le choix de l’intervention inclut des éléments déterministes : par exemple, si l’on décide de n’opérer qu’au-delà d’un certain IMC. L’approche ne pallie pas tous les problèmes des études observationnelles. Pour être valide, notamment, il faut que les seules
Annexe
au chapitre 4
125
variables mesurées et disponibles suffisent à modéliser la propension, c’està-dire qu’il n’y ait pas de variables de confusion non observées. En effet, le score de propension, comme toute méthode d’ajustement, peut rendre comparables les individus sur les caractéristiques observées, mais, cela n’implique pas que ce soit le cas sur les variables non observées. Finalement, l’analyse ajustée sur le score de propension peut amener à répondre à une question qui n’a aucun intérêt. C’est le cas, lorsque les populations qui survivent à l’appariement ne sont plus celles d’intérêt, comme par exemple dans le cas de l’effet d’un traitement où les individus que l’on apparie sont ceux qui, en fait, ne devraient pas recevoir le traitement (Costagliola et Hernan, 2013). Le score de propension est avant tout utilisé dans l’ajustement des analyses de cohorte. Son utilité dans l’analyse d’enquêtes cas-témoin est plus débattue. Le choix du modèle de propension y est en effet plus délicat, car les fractions de sélection des cas et des témoins dans la population sont inconnues, contrairement au cadre plus contraint de la cohorte (Mansson et al., 2007).
A5
Les variables instrumentales pour les facteurs de confusion non mesurés, et la randomisation mendélienne
A5.1. Les variables instrumentales Lorsque l’on suspecte que certains facteurs de confusion ne sont pas observés, l’ajustement direct n’est pas possible. L’analyse instrumentale a été développée pour ce cas de figure. En statistique, un instrument est une variable différente de l’exposition et de l’état de santé, qui est 1/ prédictive de l’exposition ou du traitement (ce qui peut être vérifié à partir des données) ; 2/ indépendante des facteurs de confusion que l’on souhaite éliminer (ce qui reste une hypothèse) ; et 3/ reliée à l’état de santé mesuré seulement par le biais du traitement/intervention (critère d’ « exclusion restreinte » (exclusion restriction), ce qui reste également une hypothèse). Dans l’exemple de la chirurgie bariatrique vu plus haut, l’appartenance de l’hôpital à un centre de référence, qui permet par exemple un remboursement plus facile de la chirurgie, peut constituer un tel instrument : cette variable est associée à un recours plus fréquent à la chirurgie bariatrique, et, on le supposera, indépendamment des autres caractéristiques des patients car ceux-ci choisiront l’hôpital sur des critères de proximité essentiellement. Reprenons donc l’exemple de détermination de l’effet causal de la chirurgie bariatrique sur le statut vital, en supposant que certains facteurs de confusion
126
La
causalité dans les sciences biologiques et médicales
comme l’âge, l’IMC pré-Op n’ont pas été mesurés. Pour déterminer l’effet causal de la chirurgie, on va énumérer les choix potentiels que les patients adopteraient vis-à-vis de la chirurgie dans un centre de référence ou pas. Deux premiers groupes sont ceux qui auraient toujours recours à la chirurgie, quelle que soit la perspective de remboursement, et ceux qui n’y auraient jamais recours. Le troisième groupe est adhérent, adoptant la chirurgie uniquement en cas de remboursement, et le quatrième rebelle, n’adoptant la chirurgie que lorsque celle-ci n’est pas remboursée. Pour les deux premiers profils, le statut vital final n’est jamais affecté par l’appartenance à un centre de référence, donc l’effet causal individuel est nul, contrairement aux deux autres (Tableau A.3). Tableau A.3 Valeur de l’effet causal individuel selon les choix qui seraient faits par les participants selon leur centre d’intervention.
Centre de Référence (Z=1)
Autre centre (Z=0)
Chirurgie(X=1)
Pas de Chirurgie (0)
Chirurgie (X=1)
Y(X=1, Z=1) – Y(X=1, Z=0) = 0
Y(X=0, Z=1) – Y(X=1, Z=0)
Pas de Chirurgie (X=0)
Y(X=1, Z=1) – Y(X=0, Z=0)
Y(X=0, Z=0) – Y(X=0, Z=1) = 0
Le type de patient n’est pas identifiable directement. En fait, chaque catégorie observée regroupe 2 types de personnes : un individu qui n’a pas recours à la chirurgie dans un centre de référence n’y aurait peut-être jamais eu recours, soit c’est un rebelle ; au contraire un individu qui a recours à la chirurgie dans ce même centre est soit adhérent, soit y aurait toujours eu recours. On fait alors l’hypothèse qu’il n’existe pas en pratique d’individus rebelles (hypothèse de monotonie) et que la répartition des types d’individus est la même dans les centres de référence et ailleurs (« ignorabilité » de l’attribution de Z). La différence observée pour P(X=1 | Z=1) – P(X=1 | Z=0) = πa est alors la proportion de population adhérente, et la différence de mortalité observée entre les deux groupes traités dans les centres de référence et ailleurs, P(Y=1 | Z=1) – P(Y=1 | Z=0), uniquement due aux individus de ce profil. L’effet causal de la chirurgie (X) sur le statut vital (Y) est alors obtenu par P(Y=1| Z=1) – P(Y = 1| Z=0) le rapport . C’est ce type d’analyse qui est par P(X=1| Z=1) – P(X = 1| Z=0) exemple adopté pour déterminer si les complications associées à la chirurgie bariatrique ont changé à partir du moment où le remboursement a été limité à des centres de référence (Dimick et al., 2013). Les auteurs montrent
Annexe
au chapitre 4
127
que les résultats de chirurgie n’indiquent pas de différence dans les taux de complication entre centres de référence et autres (5,5 % vs. 6,0 %, RR=0,98 [0,90, 1,06]). L’approche instrumentale permet de prendre en compte l’effet de la non compliance au traitement après randomisation. L’utilisation d’un instrument permet l’expérimentation lorsque l’expérimentation directe est difficile : on peut par exemple randomiser l’encouragement à adopter un changement de comportement, et l’utiliser comme instrument dans l’analyse du changement effectif. D’autres exemples incluent la distance pour l’accès aux soins et le type d’assurance/remboursement, la préférence des prescripteurs, la période, etc.
A5.2. La randomisation mendélienne Parmi tous les cas d’utilisation de variables instrumentales, la « randomisation mendélienne » a été particulièrement mise en avant dans les applications épidémiologiques (Smith et Ebrahim, 2003). Il s’agit ici, pour étudier l’effet d’une variable d’intérêt sur l’état de santé, d’utiliser un déterminant génétique comme instrument. Ce déterminant génétique doit donc être lié à la variable dont on veut estimer l’effet sans avoir de lien direct avec le résultat d’intérêt. Par exemple, des auteurs ont tenté de déterminer si la relation inverse entre risque de cancer lié au tabac (poumon, tête et cou, rein) et obésité pouvait être causale (Brennan et al., 2009). De nombreux facteurs de confusion peuvent être à l’œuvre dans une telle relation, car l’obésité est associée à d’autres caractéristiques qui peuvent augmenter la probabilité de cancer dont certaines ne sont pas connues ou mesurables. Un variant du gène FTO cause la variation du BMI (Frayling et al., 2007), ce gène n’étant pas connu pour influencer directement la survenue du cancer, ni pour avoir un effet pléiotropique (pas d’influence sur le cancer via plusieurs mécanismes), ni sous le contrôle d’autres déterminants environnementaux. Un autre avantage est que la possibilité de causalité inverse est exclue, l’obésité ne pouvant pas être la cause du déterminant génétique. Comparer la survenue des cancers liés au tabac selon le type d’allèle de FTO permet alors de parvenir à une conclusion causale : dans ce cas d’espèce, les auteurs montrent que la relation entre obésité et risque de cancer du poumon ou du rein ne s’explique probablement pas uniquement par des biais de confusion. L’approche des variables instrumentales, bien qu’elle permette théoriquement de s’affranchir des variables de confusion, mesurées ou non, n’est pas exempte de problèmes. D’abord, identifier un bon instrument, qui n’aurait pas d’effet direct sur le résultat (Y) d’intérêt et qui vérifie les conditions requises n’est pas toujours simple. Ensuite, lorsque la corrélation est faible entre
128
La
causalité dans les sciences biologiques et médicales
l’instrument et l’exposition d’intérêt (on parle d’instrument faible), les résultats présentent des biais d’estimation qui peuvent être importants. Dans le cas de la randomisation mendélienne des effets de structure de population, certaines formes de pléiotropie violent les hypothèses de base et remettent en question l’intérêt de l’approche. L’approche instrumentale n’estime finalement l’effet d’intérêt que chez les personnes de type « adhérent » et pas dans la population entière (le CACE « Causal Compliant Estimate » ou LATE « Local Average Treatment Effect »). Elle amène donc une réponse partielle à la question de l’effet dans la population. L’analyse instrumentale est également, comme on peut s’y attendre, moins puissante pour les mêmes effectifs qu’une approche où l’ajustement direct est possible.