199 69 6MB
French Pages 257 [244] Year 2019
Le nombre et la cité La statistique éclaire-t-elle les questions de société ?
PONT-NEUF
Préface de Jean-Marie Delarue
17, avenue du Hoggar – P.A. de Courtabœuf BP 112, 91944 Les Ulis Cedex A
Publications de la SFdS Collection Le Monde des données (EDP Sciences) Droesbeke J.-J. et Vermandele C. (2018), Histoire(s) de(s) données numériques. Le Gléau J.-P. (2019), Le secret statistique. Collection des Journées d’étude en Statistique (Éditions Technip) Droesbeke J.-J., Maumy-Bertrand M., Saporta G. et Thomas-Agnan C. Éds. (2014), Approches statistiques du risque. Droesbeke J.-J., Saporta G. et Thomas-Agnan C. Éds. (2015), Méthodes robustes en statistique. Bertrand F., Droesbeke J.-J., Saporta G. et Thomas-Agnan C. Éds. (2017), Model choice and model aggregation. Maumy-Bertrand M., Saporta G. et Thomas-Agnan C. Éds. (2018), Apprentissage statistique et données massives. Collection La statistique autrement (Éditions Technip) Droesbeke J.-J. et Vermandele C. (2016), Les nombres au quotidien. Leur histoire, leurs usages. Ardilly P. et Lavallée P. (2017), Les sondages pas à pas. Collection Pratique de la statistique (Presses Universitaires de Rennes) Husson F. Éd. (2018), R pour la statistique et la science des données. Bécue-Bertaut M. (2018), Analyse textuelle avec R. Genuer R. et Poggi J.-M. (2019), Forêts aléatoires avec R. Composition et mise en page : Patrick Leleux PAO Couverture : Conception graphique de B. Defretin, Lisieux Imprimé en France ISBN (papier) : 978-2-7598-2374-1 ISBN (ebook) : 978-2-7598-2384-0 Tous droits de traduction, d’adaptation et de reproduction par tous procédés, réservés pour tous pays. La loi du 11 mars 1957 n’autorisant, aux termes des alinéas 2 et 3 de l’article 41, d’une part, que les « copies ou reproductions strictement réservées à l’usage privé du copiste et non destinées à une utilisation collective », et d’autre part, que les analyses et les courtes citations dans un but d’exemple et d’illustration, « toute repré sentation intégrale, ou partielle, faite sans le consentement de l’auteur ou de ses ayants droit ou ayants cause est illicite » (alinéa 1er de l’article 40). Cette représentation ou reproduction, par quelque procédé que ce soit, constituerait donc une contrefaçon sanctionnée par les articles 425 et suivants du code pénal. © EDP Sciences, 2019
Ce livre porte témoignage d’une série de rencontres, les Cafés de la statistique, dont l’ambition depuis quatorze ans est d’intéresser le citoyen à l’éclairage que la statistique donne aux questions de société. Certains parmi les organisateurs de ces rencontres l’ont rédigé en commun : Brigitte Belloc, Alain Godinot, René Padieu, Sandra Roger, Jean-François Royer, Marion Selz et Olivier Vasseur. Ils ont choisi « Pont-Neuf » comme pseudonyme, parce que la plupart des Cafés se sont tenus dans une brasserie proche du Pont-Neuf à Paris. Les Cafés de la statistique sont une activité du groupe « Statistique et enjeux publics » de la Société française de statistique. À la mémoire de Dominique Allain (1956 – 2017), statisticienne, qui, dans sa pratique professionnelle comme au sein de la Société française de statistique a œuvré pour que cette discipline aide à éclairer les questions de société.
SOMMAIRE
Préface : Nombre et société . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11 Avant-propos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
Partie 1 La statistique est intimement liée à la vie de la cité 1. La statistique aide à la compréhension du monde . . . . . . . . . . . . 33 1.1 N’est-il de richesses que d’hommes ? . . . . . . . . . . . . . . . . . . . . 35 1.2 Nourrir 10 milliards d’humains . . . . . . . . . . . . . . . . . . . . . . . . . 38 1.3 Matières premières et énergies : un désordre planétaire . . . . . . . . 42 1.4 Une consommation qui ignore les crises . . . . . . . . . . . . . . . . . . 45 2. La statistique repose sur des conventions et définitions partagées 51 2.1 « Entreprise » : qu’est-ce à dire ? . . . . . . . . . . . . . . . . . . . . . . 53 2.2 Territoires à la découpe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56 2.3 Les multiples facettes de la pauvreté . . . . . . . . . . . . . . . . . . . . 59 2.4 Les classes moyennes en quête de définition . . . . . . . . . . . . . . . 63 3. La statistique permet de rationaliser des politiques publiques . . 3.1 Vieillir, oui, mais dans quel état et à quel coût ? . . . . . . . . . . . . 3.2 Faut-il construire des logements ? . . . . . . . . . . . . . . . . . . . . . . 3.3 Attachez votre ceinture ! . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.4 Les déferlantes du tourisme . . . . . . . . . . . . . . . . . . . . . . . . . .
67 69 73 76 79 7
SOMMAIRE
4. La statistique permet d’évaluer des politiques publiques . . . . . . . 4.1 Recherche et développement : pour la croissance ? . . . . . . . . . . 4.2 Évaluation et recherche du consensus . . . . . . . . . . . . . . . . . . . . 4.3 Prévoir les bouchons… pour les empêcher ! . . . . . . . . . . . . . . .
85 87 90 94
5. La statistique est un des fondements de la démocratie . . . . . . . . 99 5.1 Demain, quelle retraite ? . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101 5.2 La dette publique, une valeur montante . . . . . . . . . . . . . . . . . . 104 5.3 Capter l’opinion publique ou la forger ? . . . . . . . . . . . . . . . . . . 107 5.4 Manifestez, manifestez, il en restera toujours quelques chiffres ! . 111 6. La statistique n’a d’utilité que si elle est indépendante . . . . . . . . 115
Partie 2 La statistique doit répondre aux questions sur son utilisation 7. La statistique peut-elle traiter tous les sujets ? . . . . . . . . . . . . . 7.1 Le casse-tête financier local . . . . . . . . . . . . . . . . . . . . . . . . . . 7.2 Controverse sur les statistiques ethniques . . . . . . . . . . . . . . . . . 7.3 Connaît-on l’immigration ? . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.4 Le jeune enfant : sujet peu observé . . . . . . . . . . . . . . . . . . . . . 7.5 Suicide : drame individuel, énigme collective . . . . . . . . . . . . . . .
125 127 130 133 137 140
8. La statistique rend-elle compte à temps des transformations sociales ? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.1 La santé à tout prix ? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.2 La nouvelle famille . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.3 Le travail, si familier, si méconnu . . . . . . . . . . . . . . . . . . . . . . 8.4 Le « halo » du bénévolat . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.5 Délocalisations : où est la France ? . . . . . . . . . . . . . . . . . . . . .
145 146 150 153 158 161
9. La statistique peut-elle surmonter les différences culturelles, linguistiques, juridiques ? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9.1 Comparaisons européennes : la statistique serait-elle fédératrice ? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9.2 Payons-nous trop d’impôts ? . . . . . . . . . . . . . . . . . . . . . . . . . . 9.3 Réussite scolaire : évaluer les élèves, ou le système ? . . . . . . . . . 9.4 Le progrès des sociétés est-il mesurable ? . . . . . . . . . . . . . . . . . 8
LE NOMBRE ET LA CITÉ
165 167 170 174 177
SOMMAIRE
10. Les produits de la statistique sont-ils à la disposition des citoyens ? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 181 10.1 Vraies mesures et faux-semblants ? . . . . . . . . . . . . . . . . . . . . . 183 10.2 Les journalistes à l’article du chiffre . . . . . . . . . . . . . . . . . . . . 186
Partie 3 La statistique doit gagner la confiance par des pratiques irréprochables 11. La statistique emploie-t-elle toujours des méthodes rigoureuses ? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 195 11.1 Un bon chiffre, ça peut toujours servir . . . . . . . . . . . . . . . . . . 197 11.2 Statistique et vérification scientifique . . . . . . . . . . . . . . . . . . . 200 12. La statistique est-elle un danger pour les personnes ? . . . . . . . . 205 12.1 Vous n’avez pas le profil ! . . . . . . . . . . . . . . . . . . . . . . . . . . . 207 12.2 Données massives : danger massif ? . . . . . . . . . . . . . . . . . . . . 210 13. Peut-on empêcher l’instrumentalisation de la statistique ? . . . . . 13.1 Réchauffement climatique : quand l’incertitude nourrit les certitudes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13.2 Délinquance : elle augmente ou elle diminue ? . . . . . . . . . . . . 13.3 À qui revient la valeur ajoutée ? . . . . . . . . . . . . . . . . . . . . . . 13.4 Chômage : de la cacophonie à la polyphonie ? . . . . . . . . . . . . .
217 219 223 226
14. Quelle déontologie la statistique appelle-t-elle chez ceux qui la font ? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14.1 Dites-nous ce que vous pensez . . . . . . . . . . . . . . . . . . . . . . . 14.2 L’éthique du démographe . . . . . . . . . . . . . . . . . . . . . . . . . . . 14.3 Des données en masse, un rêve de statisticien . . . . . . . . . . . . .
231 232 235 238
215
Les Cafés de la statistique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 243 Liste des Cafés de la statistique depuis l’origine . . . . . . . . . . . . . . . 245 Dictionnaire des sigles et acronymes . . . . . . . . . . . . . . . . . . . . . . . . . . 251 Index des sujets . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 255
9
PRÉFACE : NOMBRE ET SOCIÉTÉ
Les riches réflexions que les « Cafés de la statistique » ont conduites, et dont une part trouve très heureusement son expression dans le livre qu’on va lire ici, ont un très large champ d’investigation. D’une manière ou d’une autre, beaucoup conduisent à une interrogation sur les rapports entre le nombre et la société qui peut aujourd’hui prendre la forme suivante : est-ce la fin de l’âge d’or de la statistique ? On esquissera en quelques mots une réponse, au moins dans le cadre français (l’auteur de ces lignes n’ayant guère de compétences pour élargir au-delà le champ de vision). La naissance des outils statistiques et leur usage par des esprits curieux n’ont pas coïncidé, et de loin, avec une large diffusion des données et leur utilisation dans le débat social. De William Petty1 à René Carmille2, leur utilisation a eu des buts précis, destinés souvent à la gestion publique (comptage des hommes pour les mobiliser, recensement des biens pour les imposer) ou à des corporations 1. William Petty (1623-1687) est regardé comme l’un des pères de l’utilisation des statistiques en économie et en démographie. 2. René Carmille, mort au camp de Dachau en 1945, a créé sous l’Occupation le Service national des statistiques (SNS) qui préfigurait l’Insee, et est à l’origine du numéro d’identification unique (numéro de Sécurité sociale), encore aujourd’hui en vigueur. 11
Préface : Nombre et société
déterminées, mais sans que les résultats soient approfondis, commentés et utilisés dans les pratiques publiques visant à déterminer les choix. La place respective du sentiment et de l’imaginaire, d’une part, des analyses fondées sur des rationalités, d’autre part, dans les discours politiques, avantage nettement les premiers aux dépens des secondes. Il en va autrement depuis le dernier conflit mondial pour de multiples raisons, tenant aux contraintes du moment (par exemple la gestion des crédits du plan Marshall), à la forte intervention de l’État dans l’économie et dans le « social » pendant et après la guerre, à la place que tiennent les nouvelles générations formées au calcul économique apparues peu avant la guerre (Paul Reynaud à droite, Pierre Mendès France à gauche), au développement des instruments administratifs aptes à la production statistique (l’Insee après le SNS), enfin, sans doute, à l’essor de l’éducation de masse. Des indicateurs chiffrés deviennent d’emploi courant, comme la mesure du coût de la vie (dans un temps d’inflation) ou l’évolution du salaire minimum. Le plan de modernisation et d’équipement et son instrument financier (le FME puis FDES3) sont à la fois le cadre pédagogique et l’outil de mise en œuvre d’une approche quantitative bientôt modélisée de l’action publique. La Sécurité sociale et ses « risques », le contrôle des prix, les investissements dans les infrastructures (reconstructions) requièrent des approches de même nature. Il a fallu à la fois développer les recueils de données utiles et les diffuser. La dernière moitié du xxe siècle se déroule donc comme une lente progression de l’univers statistique, tant dans la fabrication que la diffusion, dont la loi du 7 juin 1951 est une expression majeure. Pour ne prendre que deux exemples de ces développements : on voit, d’une part, se manifester les souhaits des milieux patronaux de disposer de données leur permettant d’analyser les marchés ; on constate, d’autre part, que 3. Respectivement Fonds de modernisation et d’équipement et Fonds de développement économique et social, comptes du Trésor où s’inscrivaient, en loi de finances, les crédits d’investissement découlant du plan. 12
LE NOMBRE ET LA CITÉ
Préface : Nombre et société
l’apparition de nouvelles politiques publiques s’accompagne (parfois avec un décalage chronologique) de la confection des indicateurs indispensables à leur définition (on pense ici, en guise d’illustration, à la politique de la ville de la fin du siècle4). Les instruments de diffusion se multiplient, désormais bien établis (Tableaux de l’économie française…), auxquels le « Net » a donné une ampleur supplémentaire. Il en va de même dans l’ensemble des pays industrialisés. Le nombre, de répulsif, devient un instrument de vérité et, comme on dit aujourd’hui, de crédibilité. Il est inséparable de la connaissance : « L’unique argument qui frappe les gens modernes – les chiffres », note Hannah Arendt comme une évidence5. Leur fondement n’est plus contesté ; seulement, par des échanges de nature épistémologique, leur pertinence, leur cohérence, les commentaires dont ils sont assortis. Le développement des services statistiques ministériels, en particulier dans des départements qui y ont été longtemps rétifs (on pense au ministère de l’Intérieur), en est une autre expression. Remise en cause de l’expertise Diverses évolutions de nos sociétés développées « post-modernes » remettent en cause ce développement certes inégal selon les moments, mais incontestable sur le long terme. Mettons de côté, comme déjà identifiés, d’autres facteurs comme le rétrécissement du périmètre d’intervention de la puissance publique, qui réduit le besoin en données d’intérêt général, pour nous concentrer sur ce qui s’applique autant à la connaissance elle-même qu’aux instruments qu’elle entend employer. Sans prétendre ici à l’exhaustivité, on voudrait rendre le lecteur sensible à quelques considérations. Et d’abord l’évolution de la demande.
4. Cf. Dans Insee, Actualités Magazine, mars 2007, le dossier « Statistiques pour la politique de la ville » (pages 2 à 8). Voir aussi les journées thématiques du Conseil national de l’information statistique. 5. Nous autres réfugiés, Paris, Allia éditions, 2019, p. 18. 13
Préface : Nombre et société
Pour autant qu’on puisse la caractériser en termes simples, il est possible de penser qu’aujourd’hui (pas nécessairement demain) la demande de données évolue. Moins soucieuse de l’agrégation de données inchangées dans un cadre national, elle est tournée vers des données attachées à un horizon nettement plus individuel (données démographiques ou économiques de ma ville…) ou à un univers transnational dans des domaines déterminés (nombre d’étudiants étudiant la médecine à l’étranger, rapidité de la fonte des glaciers…), domaines eux-mêmes soumis à de fortes variations temporelles. Il en va des quêtes d’informations comme des aspirations et des revendications sociales : elles s’expriment moins qu’auparavant dans des cadres institutionnels définis et invariables. On peut estimer aussi que le principe même de données robustes soigneusement travaillées fait moins recette. Les médias dominants, y compris ceux réputés sérieux hier, accordent une place croissante au for intérieur, aux effets des événements sur les sentiments et aux émotions des personnes. Une telle approche est souvent jugée davantage « à dimension humaine », « proche des gens », conforme « à la vraie vie », selon un vocabulaire employé ad nauseam. Naturellement, en parallèle, est instruit le procès des « experts » de tout acabit, notamment les producteurs de nombres peu sensibles à l’émotion. À ceux qui feraient valoir que ces accusations ont toujours existé, on demandera de prêter attention non à cette seule existence, mais à la tendance dominante de la parole publique, entendue dans un sens très général. Il est facile de montrer aussi le caractère inédit de la remise en cause de l’expert6 comme un sachant privilégié, au motif que ce qu’offre le marché permet d’affirmer que le point de vue qu’il défend n’est qu’une opinion parmi d’autres et que celle que l’on peut se forger soi-même par ailleurs pèse d’un poids équivalent, et même moins discutable puisque moins attachée à des intérêts (de système, d’appareil, d’habitudes intellectuelles…). 6. Terme désormais très amphibologique. 14
LE NOMBRE ET LA CITÉ
Préface : Nombre et société
Il faut aussi prêter attention aux modèles qui font recette parmi les jeunes générations. À cet égard, les inquiétudes sur le peu d’appétence pour la connaissance (dont témoignent les enseignants des collèges), sur les difficultés d’attention, sur les facilités de dispersion, doivent être prises avec sérieux, même si ces phénomènes bien réels sont compensés par d’autres acquisitions relatives au raisonnement et à l’appréhension technique. Là encore, il convient de discerner quelle est la tendance dominante parmi le plus grand nombre. Des sources en abondance Du côté de l’offre à présent, il faut rappeler deux phénomènes que chacun a naturellement à l’esprit. Le premier d’entre eux est la prolifération des nombres. Il va de soi que, depuis longtemps, les sources se diversifient et les productions s’accroissent. Le volume de la production statistique doit être corrélé avec des notions aussi diverses que le développement économique national, celui des échanges au niveau international, la capacité de professions à imposer à leurs membres les sujétions inhérentes à la collecte de données7, les outils techniques permettant les calculs. Notre époque a donc vu s’accroître le nombre des statisticiens et des statistiques. Mais la profusion de ces dernières n’a jamais été aussi considérable et, plus encore, leur accessibilité n’a jamais été aussi aisée. Est en cause naturellement le développement du Web et ce qu’il autorise comme accès, « en un clic », à un nombre d’informations sans limite mesurable. Ainsi, une consultation du site du Bureau gouvernemental australien des statistiques m’apprend qu’au recensement de 2016, 52 % des habitants se déclaraient croyants d’une religion chrétienne, 2,6 % se réclamaient de l’islam et 2,4 % du bouddhisme, 30 % se disant sans
7. Par exemple, les publicitaires qui ont imposé la mesure des « audiences » de médias. 15
Préface : Nombre et société
religion8. Constat doublement intéressant : en ce qu’il révèle la déclaration que font les résidents de ce pays de leur croyance, mais aussi en ce qu’il fait état d’une donnée dont l’utilisation en France est sévèrement encadrée, la conviction religieuse relevant du seul domaine de l’intime9. Ou bien l’édition numérique du Guardian me fait savoir en juillet 2018 qu’il s’est produit 15 973 homicides au Mexique du 1er janvier au 30 juin cette année-là, soit le nombre le plus élevé depuis 1997, date à laquelle on a commencé de répertorier cette donnée10. Là encore, la leçon est double : sur le taux d’homicides dans le pays et sur la date à laquelle le Secretario Ejecutivo del Sistemo Nacional de Seguridad Publica a estimé l’information digne d’être publiée. On voit les vertiges qu’ouvrent ces abîmes de savoirs : vertige de la connaissance à satisfaire sur tout et n’importe quoi ; vertige du démiurge qui, à partir de ces données multiples, peut opérer luimême les combinaisons qu’il veut pour parvenir à un savoir qui lui sera propre ; vertige enfin du scientifique qui se demande quelle valeur il convient de conférer à chacun de ces nombres ainsi offerts au public. Car tous ne se valent pas. Mais si, au plan national, la caution de fiabilité d’un nombre ressort des compétences, des prérogatives et des distinctions dont sont investis des producteurs, et non d’autres (cf. les débats récurrents sur le nombre de participants d’une manifestation sur la voie publique), comment opérer une telle distinction dans l’ensemble d’informations qui proviennent d’origines multiples et inconnues ? Un statisticien justifie son point d’aboutissement (cf. les éléments méthodologiques qui figurent toujours dans Économie et
8. http://www.abs.gov.au/ausstats/[email protected]/Lookup/by+Subject/2071.0~2016~ Main+Features~Religion+Data+Su-mmary~70 9. Selon l’article 8 de la loi informatique et libertés : « Il est interdit de traiter des données à caractère personnel qui révèlent… les convictions religieuses ou philosophiques… d’une personne physique. » 10. www.theguardian/world/2018/jul/23/mexico-crime-homicides-violence-upreport 16
LE NOMBRE ET LA CITÉ
Préface : Nombre et société
Statistique11 – notamment dans les encadrés et la bibliographie terminale – ou les revues similaires) ou peut être sommé de le faire. Les nombres publiés… en nombre se passent désormais volontiers de ces bagages : leurs conditions d’élaboration, par conséquent la mesure de leur véracité, demeurent souvent inconnues. Reste la magie du signe et la tromperie qui fait ressembler comme deux gouttes d’eau un mensonge éhonté et une vérité établie, et plus encore, si l’on peut ainsi s’exprimer, sur « la toile ». L’usage de ces nombres n’en est en rien dissuadé. Les fake news – les fallacies – ne sont en rien une invention ; ce sont leur volume et leur apparence qui le sont. Et l’on voit dans les médias apparaître les articles de « décodage » qui peuvent valoir aux statisticiens de rendre de fiers services, mais seulement au second degré et sur des terrains qu’ils n’ont pas nécessairement choisis ; ainsi que des « journalistes de données » qui se font statisticiens, par l’utilisation de nombres en libre accès, comme l’a montré un « Café de la statistique ». Le Web ne se contente pas de rapporter des nombres : il en est lui-même producteur, dans le nombre de connexions ou de « clics » désapprobateurs ou non. Les sociologues peuvent se réjouir de trouver dans de nombreux « sites » la liste des articles (ou assimilés) les plus regardés (ce qui ne signifie pas lus) ou des commentaires les plus « suivis » : ce sont, après tout, des indices de comportement. La fin des précautions ? Le second phénomène réside dans la prolifération des données statistiques, résultant elle-même de la multiplication des sources. Les comportements sociaux (démographiques, familiaux…) ou l’activité économique ont eu pendant longtemps des nombres limités 11. À titre d’exemple, les développements de la page 121 et les tableaux de l’article de Jean Barthélémy, Vincent Bignon et Benoît Nguyen, « Politique monétaire, collatéral illiquide et crédits à l’économie pendant la crise européenne de la dette souveraine », Économie et Statistique, Economics and Statistics, 2017, no 494-495-496, p. 119-140. Voir aussi, de manière plus générale, la rubrique « Définitions, méthodes et qualité » sur le site Web de l’Insee. 17
Préface : Nombre et société
de séries de données faisant l’objet de recueil, séries elles-mêmes définies par un nombre limité de statisticiens : l’enjeu était de parvenir à une information synthétique et, à cette fin, de collecter les données élémentaires en rapport avec l’information voulue. Désormais, ce n’est pas que « tout fasse sens » qui pose problème, mais que « tout peut être recueilli », d’une part, et de manière massive, d’autre part, sans qu’une intention de départ formalisée en précise l’usage et l’utilité. Au surplus, ces états ne sont pas seulement collectés, mais mis en parallèle avec d’autres séries distinctes voire sans rapport avec les originaux. Au lieu que la collecte fasse l’objet de démarches particulières (constitution d’un objet, utilisation d’une source et recueil de ce qui s’y trouve par des moyens très variés12, avant exploitation mathématique, mise en ordre de résultats et analyses), elle se fait automatiquement, sans intervention humaine, mais par connexion, et de manière continue. Ainsi se constituent les Big Data, destinés à mettre en lumière, par le biais d’algorithmes sur lesquels on va revenir, des fréquences et, grâce au rapprochement de plusieurs de ces dernières, des causalités. Dans ces amas de données, des comparaisons peuvent s’opérer selon des hypothèses formulées ex ante : les pratiquants de sport réguliers ont moins d’accidents vasculaires cérébraux que les autres ; on va donc croiser les données recueillies sur les joggers et celles issues des personnes hospitalisées pour cette affection, en nombre tel que la robustesse du résultat sera élevée. Mais les Big Data peuvent être (et sont souvent) utilisées sans la moindre hypothèse de départ : l’offreur de services sur Internet n’est en rien statisticien ; il a cependant à sa disposition des quantités très grandes de données, d’ailleurs à grande 12. Cf. l’évolution des méthodes du recensement de la population française ; voir notamment Jean-Noël Biraben, « Inventaire des listes nominatives de recensement en France », Population, 1963, 18-2, p. 305-328 ; Insee, département de la démographie, « Présentation du recensement rénové », Population, 2000, 55 4-5, p. 803-811 ; Alain Godinot, « Pour comprendre le recensement de la population », Insee Méthodes hors-série, mai 2005 ; Luc Albarello, Étienne Bourgeois et Jean-Luc Guyot, Statistique descriptive, de Boeck Supérieur, 2010. 18
LE NOMBRE ET LA CITÉ
Préface : Nombre et société
valeur commerciale, qu’il peut utiliser à sa guise, sans précautions particulières, pour en tirer des résultats inédits, et en inférer des causalités plus ou moins assurées, plus ou moins simplistes, en omettant les écheveaux de phénomènes complexes. Plus prosaïquement, le nombre de « faux vrais », marginal dans un échantillon, s’accroît évidemment beaucoup dans de tels ensembles numériques. Ces données peuvent enfin être l’objet, comme on le sait, d’échanges commerciaux et être utilisées par plusieurs personnes successivement, à des fins très variées. Ce qu’elles expriment (le nombre de pas de quelques millions de promeneurs du dimanche) peut donc, au fil des utilisations, n’avoir que de lointains rapports scientifiques avec l’investigation initiale : en somme, l’information, pressurée, essorée, est plus riche, au risque de déformation ou de dénaturation. La précaution épistémologique de la statistique n’est plus de mise, même si on ne doit pas douter que les Big Data apporteront des vérités considérables. Secret, indépendance et transparence Reste enfin à marquer l’évolution du « secret statistique ». La problématique du secret statistique13, défini dans la loi du 7 juin 1951, évolue peu favorablement. Tout ne se publie pas, mais tout ce qui n’est pas public a des raisons (qu’on peut trouver trop étroites ou trop larges) de ne pas l’être. Ces motifs, qui sont ceux de la loi informatique et libertés du 6 janvier 1978 comme du règlement général de protection des données 2016/679 de l’Union européenne (RGPD), s’inspirent de la nécessaire protection de la vie privée. L’article 6 de la loi de 1951 s’énonce ainsi : « Les renseignements individuels figurant dans les questionnaires… et ayant trait à la vie personnelle et familiale et, d’une manière générale, aux faits et comportements d’ordre privé ne peuvent… faire 13. Voir Insee, Guide du secret professionnel, version du 27 juillet 2018, 9 p. ; ainsi que Le Secret statistique, de Jean-Pierre Le Gléau, paru aux éditions EDP-Sciences, 2019. 19
Préface : Nombre et société
l’objet d’aucune communication de la part du service dépositaire... » Sont également soumis à des restrictions (de moindre durée) les renseignements économiques et financiers individuels, pour des motifs également compréhensibles, de même que des nombres relatifs aux secrets protégés par la loi (secret défense…) ou aux activités qui doivent rester confidentielles (secret des affaires). Ces restrictions emportent a contrario l’idée que toutes les autres informations – tous les autres nombres – sont publiables. Cette obligation du secret dans certaines hypothèses est inséparable de l’obligation de transparence dans toutes les hypothèses. Les utilisateurs de nombres doivent savoir d’où ils proviennent et comment ils sont établis. Ce n’est pas là seulement une question technique, mais une contrainte qui relève de notre vie démocratique. Les dictatures n’aiment que les « bons » chiffres, et pas seulement ceux des « élections ». La démocratie s’oblige14 à supporter les mauvais, s’ils sont incontestables. Pouvoir décrire rigoureusement la manière dont les données sont produites conduit en parallèle à assurer l’indépendance du statisticien qui, à son tour, est un élément central de la fiabilité des nombres. Les personnes privées détentrices de données (auxquelles la loi de 1951 n’est pas applicable) en sont propriétaires et en ont donc le libre usage, dans le cadre des dispositions de la loi informatique et libertés. Toutefois, il est très souhaitable que les nombres qu’elles établissent soient soumis aux mêmes règles de transparence. Mon transporteur, par le truchement de la puce de ma carte d’abonnement, mon banquier, via ma carte de crédit, mon opérateur téléphonique, savent ce que je dépense, où je me déplace et quelles sont mes relations. Toute règle d’anonymat disparaît. Une étude américaine a montré que l’utilisateur d’une carte bancaire pouvait être identifié après trois achats avec 80 % de chances et, après quatre, avec une 14. De bonne ou de mauvaise grâce, naturellement. Vue du ministère de l’Économie, comme l’auteur a pu le constater, l’indépendance de la statistique est parfois mal comprise et même mal supportée. 20
LE NOMBRE ET LA CITÉ
Préface : Nombre et société
quasi-certitude. Ces collecteurs d’information sont-ils soumis à des obligations de transparence dans la méthode, dans l’utilisation des résultats et dans l’usage qu’ils en font ? La réponse est largement négative : c’est l’inverse qui se produit aujourd’hui. Nous sommes tous soumis désormais aux constructions algorithmiques qui servent à bâtir des nombres (la fréquence de nos déplacements, de nos achats…) qui nous concernent au premier chef. Ce sont là des nombres sur lesquels nous n’avons pas de maîtrise, pas plus que sur les algorithmes qui y conduisent. Les protections mises en œuvre ne s’appliquent pas ou marginalement. Tout au contraire, le secret commercial s’applique à ces techniques, chaque concepteur poursuivant ses propres objectifs. Là encore, on doit certes attendre des résultats inédits de ces constructions, mais les obstacles mis aux recherches statistiques sur la vie privée, pour pesants qu’ils puissent être aux statisticiens, apparaissent bien dérisoires face à l’offensive de ces outils. Sans évoquer ici les graves violations de la vie personnelle (auxquelles beaucoup consentent) et les incertitudes démocratiques (valeur des nombres) qui en résultent, il faut bien constater que les producteurs de données en tout genre (start-uppeurs et Gafa15) ne sont pas soumis aux mêmes contraintes que les statisticiens assujettis aux lois de 1951 et de 1978, même après le RGPD. Des pans entiers de l’établissement des nombres échappent aux exigences conçues pour la statistique publique après 1945. Le secret statistique se contemple pour ainsi dire à fronts renversés : il est devenu trop souvent le secret de l’élaboration et de l’usage des nombres. En somme, le secret des années 1950, opposé dans certaines hypothèses à des statisticiens contraints par ailleurs à l’obligation de transparence des méthodes16 et des résultats, laisse largement la place à une opacité généralisée dans l’utilisation et le commerce des données, y compris – et surtout ? – dans les domaines qu’entendait précisément 15. Google, Amazon, Facebook, Apple. 16. « Les données, énonce l’article 3 de la loi informatique et libertés, doivent être recueillies de manière loyale. » 21
Préface : Nombre et société
protéger le secret. Le statisticien peut donc légitimement, non seulement se sentir berné dans cette concurrence inégale, mais s’interroger sur ce qui est sa véritable spécificité. Et si la statistique, dont l’âge d’or est inséparable de la démocratie, est affaiblie, n’est-ce pas cette dernière qui est en cause ? On serait tenté de dire, pour résumer ces évolutions récentes, que la mauvaise statistique chasse désormais la bonne, au contraire de la période précédente. Ce serait sans doute faire preuve d’un pessimisme excessif. Mais, plus que jamais, la statistique, mis à part les questions de choix des thèmes et des stratégies de diffusion, et quels qu’en soient les auteurs, doit se distinguer par la rigueur de ses méthodes, la transparence de ses techniques et l’évidence de ses principes déontologiques. Et le faire savoir. Jean-Marie Delarue conseiller d’État, ancien vice-président du Conseil national de l’information statistique
22
LE NOMBRE ET LA CITÉ
AVANT-PROPOS
Dans la société d’aujourd’hui, le débat public, permanent, est nourri de chiffres. Notamment ceux qui décrivent des aspects de l’économie ou de la société. « Les statistiques » ne tombent pas du ciel : elles sont produites par des organismes publics ou privés, elles sont transmises par les médias, elles sont reçues par tout un chacun. L’expression « la statistique » désigne tout au long de ce livre l’ensemble de ce dispositif social. Elle s’entend ici pour le seul espace grand public et ne concerne pas les productions scientifiques de la statistique – entendue cette fois comme discipline mathématique – en astronomie, physique, biologie, agronomie, psychologie, etc. La statistique présente la double particularité d’être très présente dans le débat public et d’être plutôt mal considérée. Elle nourrit les rapports administratifs et les discours politiques et, reprise par les médias, les ouvrages tant experts que de vulgarisation. Or, communément, on entend dire « moi, je n’ai jamais rien compris aux chiffres… », ou « les chiffres, on leur fait dire ce qu’on veut… ». Ou bien, dans un débat télévisé, l’animateur s’exclame : « Nous n’allons pas ennuyer les téléspectateurs avec des statistiques ! » Cette omniprésence et ce discrédit sont paradoxaux. 23
Avant-propos
En 2005, conscient de ce paradoxe, un groupe de réflexion sur la statistique17, auquel appartiennent les auteurs du présent ouvrage, a considéré qu’il y avait là un malentendu. Dans une société qui se veut démocratique, on attend des citoyens qu’ils participent à la définition des politiques conduites en leur nom et à leur profit. On attendrait donc qu’ils prennent connaissance de la situation de la société, au travers des études qui fondent les actions décidées et permettent de les évaluer. Pour cela, il faut qu’ils en comprennent le langage. Or, ce langage est la statistique, au sens donné plus haut : l’omniprésence ici soulignée le montre bien. À l’origine, au xviiie siècle, le mot statistique a été proposé pour désigner les connaissances que doit posséder un homme d’État. Dès lors, s’ils renoncent à comprendre ce langage, les citoyens ne diminuent-ils pas leur capacité à participer à la chose publique ? Ou bien, les experts s’appliquent-ils à le rendre indéchiffrable ? Dans les deux cas, ce serait un déni de démocratie… Le remède imaginé a été de faire se rencontrer les deux catégories impliquées : les spécialistes de la connaissance, qui parlent en s’appuyant sur des statistiques, et les citoyens, exposés à leurs dires. Du moins ceux qui souhaitent y comprendre quelque chose, qui souhaitent s’assurer que cette statistique porte l’information et la compréhension que leur citoyenneté appelle. Il fallait mettre les experts en présence de leur public supposé, qu’ils voient et qu’ils entendent ceux à qui ils sont censés s’adresser. L’idée fut donc d’organiser régulièrement des rencontres publiques, des « Cafés » sur le modèle d’autres existant déjà : Cafés de la philosophie, Cafés de la géographie, etc. ou encore Bars des sciences. Ce seraient donc des Cafés de la statistique. C’est ainsi qu’une série de soirées-débats, à raison d’une dizaine par an, fut lancée, en décembre 2005. Ces séances ont mis à contribution plus de cent intervenants provenant de l’administration, de l’université ou du monde de la recherche, ou encore de celui des 17. Il s’agit d’un des groupes spécialisés de la Société française de statistique (SFdS), groupe qui existe aujourd’hui sous le nom de « Statistique et enjeux publics ». 24
LE NOMBRE ET LA CITÉ
Avant-propos
médias. Statisticiens de profession ou acteurs du domaine concerné, tous ces experts ont joué le jeu de l’explication et de l’interpellation. L’expérience n’aurait pas pu réussir sans leur apport toujours bénévole et souvent enthousiaste : qu’ils soient ici chaleureusement remerciés, une nouvelle fois. Les Cafés de la statistique ont été régulièrement suivis par quarante à soixante-dix personnes. Et, après quatorze années, l’aventure se poursuit ! Chaque séance (à quelques exceptions près) a donné lieu à un compte rendu18. Une sélection parmi les cents premiers Cafés a fourni la matière du présent ouvrage. Le lecteur trouvera en annexe la liste chronologique de tous les « Cafés ». Cette liste montre la variété des sujets traités, illustrant du même coup la diversité des domaines que la statistique aborde et par conséquent l’étendue des enjeux évoqués. Ce qu’exprimait l’interrogation-clé de ces rencontres : La statistique éclaire-t-elle les grandes questions qui traversent nos sociétés ? La réponse est assurément positive ! Oui, dans beaucoup de cas, la statistique éclaire une question de société et fournit donc des éléments indispensables au débat démocratique. La première partie de ce livre s’attache à le montrer et à mettre en lumière les fondements de ces succès. Pour comprendre le monde d’aujourd’hui, la statistique est indispensable : le premier chapitre l’illustre à partir de sujets généraux, la plupart d’importance mondiale19. L’élaboration patiente de conventions partagées par les parties prenantes au débat institue le langage invoqué à l’instant. C’est une des conditions d’existence de la statistique, en même temps qu’une de ses forces principales, et c’est ce que développe le deuxième chapitre. Les deux chapitres suivants sont consacrés au rôle que la statistique joue dans la sphère publique pour la rationalisation et l’évaluation des politiques. Enfin, le cinquième 18. Ces comptes rendus sont disponibles sur le site Internet de la SFdS : http:// www.sfds.asso.fr/321-Les_Cafes_de_la_Statistique 19. Souvent, les Cafés de la statistique ont abordé un thème via des problématiques françaises. Pour autant, les sujets présentés dans ce livre fournissent des éléments clés pour appréhender les grandes questions internationales d’aujourd’hui. 25
Avant-propos
chapitre soutient qu’entre la statistique et le fonctionnement de la démocratie existe un lien fort, particulièrement visible lorsque les sujets d’intérêt mobilisent toute la population et sont au cœur du pacte social. Mais une condition sine qua non pour que ce lien puisse se tisser et se maintenir est l’indépendance du travail statistique. La prétention de la statistique à « éclairer » ne serait qu’une tromperie si elle était assujettie au pouvoir politique ou inféodée à des idéologies ou des groupes de pression. Le chapitre six développe ce principe (et plus loin le chapitre quatorze y reviendra). Si la réponse à la question-titre est très souvent positive, il faut parfois la nuancer, voire constater des manques. Parfois, malheureusement, la statistique atteint imparfaitement son but, ou même échoue. Elle a donc des limites. C’est l’objet de la deuxième partie. On s’interroge d’abord sur les sujets que la statistique est en droit, ou en capacité, de traiter (chapitre sept). Intimement liée au fonctionnement de la société, la statistique est à la peine là où le dissensus est profond, ou quand l’administration publique est mal organisée. La rapidité des évolutions économiques et sociales constitue aussi pour elle un défi : son tempo est lent, ne serait-ce que pour faire émerger de nouvelles conventions lorsque c’est nécessaire, comme le chapitre huit le montre. Ce qu’elle peine à faire dans le temps, la statistique éprouve aussi des difficultés à le réaliser dans l’espace, à travers la diversité des nations et des cultures. Le maître-mot du chapitre neuf est « comparaison internationale » et il faut l’assortir d’un point d’interrogation, même dans un ensemble aussi réglementé que l’Union européenne. Et puis, il ne suffit pas que des statistiques d’excellente qualité soient produites : il est nécessaire encore qu’elles soient reçues du public et comprises par lui. La perception directe – personnelle ou collective – des situations ne rejoint pas toujours ce que mesurent les données chiffrées sur lesquelles les experts se fondent. Faut-il parler d’incompréhension ? Quel est le rôle des médias ? Le dixième chapitre aborde ce difficile problème.
26
LE NOMBRE ET LA CITÉ
Avant-propos
Si l’on reconnaît la valeur de la statistique, mais aussi ses limites, on peut s’aventurer sur le terrain des recommandations. L’art statistique est difficile, mais des préceptes s’appliquent, tant à ceux qui produisent les chiffres qu’à ceux qui les reçoivent, et entre-temps à ceux qui les transmettent. Esquisser ces préceptes fait l’objet de la troisième partie. Celle-ci s’ouvre par un chapitre (le onzième) portant sur les méthodes de la statistique. Là, une précision s’impose. Les Cafés de la statistique ne sont pas des réunions appropriées pour traiter de méthodes. Ce livre est donc presque muet à ce propos, hormis quelques considérations élémentaires. Avec toutefois un cas particulier – celui des expérimentations thérapeutiques – où méthodes et pratique sociale sont dans un rapport spécifique délicat. Le reste de cette troisième partie est consacré aux dangers que la statistique peut faire courir, et aux moyens d’y parer. Il peut y avoir des dangers pour les personnes prises individuellement : c’est ce qu’aborde le chapitre douze, qui traite du profilage et des précautions nouvelles que le Big Data et l’intelligence artificielle appellent en ce domaine. Il peut aussi y avoir des dangers collectifs, sociaux : là, au chapitre treize, c’est le mésusage de la statistique qui est abordé, et son instrumentalisation par l’une ou l’autre des parties prenantes à la vie sociale. Face à ces risques, que peut-on envisager ? Cet ouvrage, dans son chapitre quatorzième et final, s’en tient à deux propositions : déontologie des statisticiens et formation du public. *** La statistique éclaire les questions de société ; elle mérite un examen critique ; elle doit observer certaines règles. Ce triptyque – assertion, critique et mise en garde – est apparu au fil des séances des Cafés. Mieux : il s’est rencontré sur chaque sujet, ou presque. Qu’il s’agisse de la santé, du chômage ou des entreprises, chaque fois les participants ont constaté les apports de la statistique, mais aussi ses insuffisances, et éprouvé la validité des préceptes qui doivent la 27
Avant-propos
gouverner. Mais, selon les cas, la pondération est différente. Tantôt l’apport positif de la statistique apparaît nettement ; tantôt ce sont plutôt les limites, ou les recommandations, qui ressortent. En règle générale, chaque sujet de Café a été rattaché à un seul des chapitres du livre ; il peut cependant être lu indépendamment de sa position. Un index est fourni à la fin de l’ouvrage.
Figure 1 | Déverser des chiffres comme des bienfaits… (Dessin de Lorcy).
28
LE NOMBRE ET LA CITÉ
1 La statistique aide à la compréhension du monde
Nous vivons et pensons dans un univers dont chaque découverte scientifique révèle la complexité. Une complexité qui s’accompagne d’un phénomène déconcertant : l’unicité de tout événement, de tout objet et de tout être. Avide de comprendre sinon d’expliquer le monde qui l’entoure, l’esprit humain a forgé des outils qui lui ont permis de discerner des régularités, bientôt des lois, à l’œuvre dans l’incessant mouvement du cosmos. La statistique est l’un de ces outils. Grâce à elle, on a pu décrire de manière synthétique des ensembles de choses ou de personnes trop nombreuses pour qu’une connaissance analytique détaillée en soit possible. Compter ses sujets, inventorier ses biens semble avoir été une préoccupation forte de tout dirigeant d’un groupe humain organisé en société. Le recensement de la population plonge ainsi ses racines dans les profondeurs de l’histoire. Sans doute conçu à l’origine comme 33
Partie 1. La statistique est intimement liée à la vie de la cité
un dénombrement à des fins militaires (combien de guerriers disponibles ?) et économiques (combien de bouches à nourrir ?), le recensement est devenu un instrument d’investigation révélant des dynamiques susceptibles d’éclairer l’avenir. C’est un apport précieux là où la natalité ne s’est pas assagie à proportion de la baisse de la mortalité infantile – comme dans la zone sahélienne du continent africain – et où des ressources insuffisantes font craindre de dramatiques tensions. D’une façon générale, la statistique aide à identifier les forces à l’œuvre et donne aux gouvernants de nombreux éléments de réflexion. Un exemple : demain, l’alimentation d’une dizaine de milliards d’humains posera un problème majeur. Les moyens techniques les plus sophistiqués ont été mis au service d’une agriculture productiviste, sous l’éclairage de statistiques détaillées. Mais les nuisances externes qui accompagnent ce choix, aussi bien que l’impossibilité pour le paysan du Sud de concurrencer les importations de produits vivriers, conduisent à envisager des révisions déchirantes, en développant des cultures respectueuses des sols et adaptées aux niveaux locaux des compétences et des équipements. La recherche s’appuie alors sur de multiples observations de terrain qui sont autant de données pour le statisticien. La planète connaît des problèmes de même nature avec l’énergie et les matières premières : crainte de l’épuisement des ressources fossiles, nuisances externes qui augmentent au point de causer des évolutions peu maîtrisables du climat, conflits parfois militaires pour le contrôle des ressources. Là encore, la recherche est en quête de solutions alternatives plus économes et moins polluantes. Le sujet est si complexe que toute régulation appelle une information fine et fiable, que les statisticiens travaillent à constituer. L’autre face de la production plus ou moins énergivore de biens et services est la consommation de ces derniers. La société de consommation désigne autant une société dans laquelle la consommation est un moteur de la croissance qu’une société d’abondance dont les 34
LE NOMBRE ET LA CITÉ
La statistique aide à la compréhension du monde
membres trouvent une forme de bonheur dans l’acte de consommer. La mesure du bonheur échappe aux statistiques, mais pas celle des volumes consommés. Et cette mesure apporte des surprises : en France, la moindre n’est pas qu’en dépit des crises économiques qui ont jalonné la période, la consommation en volume (c’est-à-dire à prix constants) n’a cessé de croître de 1945 à nos jours !
1.1 N’EST-IL DE RICHESSES QUE D’HOMMES ? Cafés de référence 52 et 98 (liste page 245)
La statistique apprend beaucoup sur l’évolution des populations humaines. Elle montre aussi la difficulté d’assurer un bon développement économique et social quand la démographie galope. La population mondiale a atteint 7 milliards d’habitants vers 2011. Le passé apporte quelques éclairages à ceux qui s’interrogent sur ses futures variations. Il y a 2 000 ans, la population était d’environ 250 millions d’habitants. Elle est restée très stable jusqu’à la fin du xviiie siècle. Puis la croissance s’est accélérée : 2 milliards d’habitants en 1927, 3 en 1960, 4 en 1974, 5 en 1987, 6 en 1999. Transition démographique L’équilibre ancien était marqué par une forte natalité et une forte mortalité infantile. On comptait environ six enfants par couple, dont la moitié au moins mourait avant l’âge de 10 ans. Ce régime d’environ deux survivants en âge de procréer a prévalu partout. À la fin du xviiie siècle, en Europe, la mortalité infantile a baissé grâce aux progrès économiques et sanitaires. Le nombre des naissances l’a alors emporté sur celui des décès. Puis, comme beaucoup moins d’enfants mouraient en bas âge, les couples ont limité les naissances, qui sont passées à quatre puis à trois, si bien que, grosso modo, avec un peu plus de deux enfants par couple, les naissances ont fini par équilibrer les décès. Mais, entre-temps, l’excédent des naissances 35
Partie 1. La statistique est intimement liée à la vie de la cité
sur les décès avait nourri une forte croissance de la population. Cette transition démographique a pris deux siècles. Le même scénario s’est répété partout dans le monde, avec des calendriers décalés. À l’accroissement de la population a succédé un régime de stabilisation, des naissances moins nombreuses venant compenser des décès en diminution. Tel fut le cas en Amérique du Nord. L’Amérique latine et l’Asie se situent presque en fin de cycle avec 2,2 enfants par femme en moyenne. L’Afrique connaît le même processus, mais plus tardivement. Ainsi, partout, les humains semblent réduire d’eux-mêmes leur descendance. Le plus frappant est que les politiques des États en la matière n’ont d’effet que si elles rencontrent l’attente des familles : les souhaits des individus et leurs comportements restent déterminants. 45
Taux pour mille
40 35 Mortalité
30 25
K
20 15
Natalité
L
Taux de croissance
10 5 0
Temps
Figure 2 | La transition démographique (Source : Laurent Toulemon et Ined). Lecture : au fil du temps, le taux de mortalité puis le taux de natalité diminuent d’une amplitude K. Ils passent sensiblement par les mêmes valeurs à un intervalle de temps L. Le taux de croissance de la population, qui est la différence entre le taux de natalité et le taux de mortalité, passe par un maximum quand la mortalité est en forte baisse alors que la natalité se maintient à un niveau élevé ; il décline ensuite pour tomber à zéro si les deux taux deviennent égaux.
Aujourd’hui, la population mondiale augmente de 1,1 % par an et ce taux faiblit. Selon les calculs des Nations unies, la population 36
LE NOMBRE ET LA CITÉ
La statistique aide à la compréhension du monde
mondiale pourrait se stabiliser autour de 10 milliards d’habitants en 2100. La fécondité moyenne actuelle de 2,5 enfants par femme continuerait de diminuer (mais on a quelques doutes concernant l’Afrique) et l’espérance de vie moyenne de 68 ans d’augmenter. Dans ces exercices d’anticipation, il convient de noter à la fois l’inertie des phénomènes démographiques et la grande sensibilité des calculs aux hypothèses sur les taux de fécondité. Des raisons de craindre l’avenir en Afrique ? En fait, l’avenir tiendra autant au mode de vie des habitants qu’à leur nombre. À l’horizon de trente ans, l’évolution de la population de la planète est tracée, mais la consommation prélevée et la pollution causée par 1 milliard d’habitants dans les pays occidentaux et 6 milliards dans le reste du monde posent le problème du mode de vie de l’humanité. Certains doutent de la possibilité de résoudre cette équation et basculent vers des thèses malthusiennes20. Il est vrai que la situation actuelle au Sahel leur donne des arguments. Alors que les statistiques économiques disponibles semblent indiquer que l’Afrique subsaharienne va mieux, cette embellie globale cache d’énormes disparités selon les zones. La démographie est un baril de poudre dans le Sahel. Le Niger en fournit un bon exemple. Ce pays comptait 3 millions d’habitants au moment de l’indépendance ; il en a 20 millions aujourd’hui (avec une fécondité de 7 à 7,5 enfants par femme, qui ne baisse que lentement) et ce nombre pourrait aller de 80 à 90 millions en 2050 ! Avec 8 % seulement de superficie à potentiel agricole, le Niger est dans une impasse agricole, alimentaire et économique. La misère se répand et les jeunes sans emploi n’ont pour perspective que la migration, les trafics en tout genre ou l’engagement au côté des groupes djihadistes, qui seuls peuvent distribuer du pouvoir d’achat. 20. Pourtant, il y a des possibilités de nourrir la planète, même avec 10 milliards d’habitants, si on en croit les arguments agro-écologiques. Cf. sujet 1.2 « Nourrir 10 milliards d’humains ». 37
Partie 1. La statistique est intimement liée à la vie de la cité
L’inertie des phénomènes démographiques ne permet pas d’espérer, même avec une politique volontariste (peu vraisemblable compte tenu de la culture des habitants), un ralentissement rapide de la croissance démographique du Niger. Cela vaut pour l’ensemble du Sahel : les dix pays qui le composent comptent 150 millions d’habitants – sur 980 environ pour l’ensemble de l’Afrique subsaharienne) ; on attend au Sahel 330 millions d’habitants en 2050 et 670 en 2100 ! Tout cela conduit certains spécialistes à penser qu’un véritable plan Marshall serait nécessaire au Sahel. Si les projections démographiques, lues à la lumière des constats économiques du moment, contribuent à en convaincre les gouvernants et l’opinion, elles auront démontré leur utilité pour la collectivité humaine.
1.2 NOURRIR 10 MILLIARDS D’HUMAINS Cafés de référence 43 et 74 (liste page 245)
Devenue très minoritaire en termes de valeur ajoutée et d’emplois dans les pays les plus développés, l’agriculture garde une grande importance économique et géopolitique. On attend d’elle qu’elle nourrisse demain 10 milliards d’humains tout en préservant l’environnement. De nombreux progrès techniques, un fort accroissement de la productivité et des transformations structurelles de la filière agroalimentaire ont fait beaucoup évoluer l’agriculture française depuis 1945. Aujourd’hui, ses clients sont plus souvent des industries ou d’autres agriculteurs que des consommateurs finals. Cette période nous apprend que les progrès techniques ont été conditionnés par les politiques agricoles. De 1947 à 1995, les prix agricoles ont été fixés par la puissance publique. Ils ont permis aux producteurs de diminuer les risques encourus, donc d’emprunter et d’acheter les biens de capital (machines agricoles, etc.) à l’origine de la hausse de la productivité (multiplication par sept en cinquante ans 38
LE NOMBRE ET LA CITÉ
La statistique aide à la compréhension du monde
du rendement du blé !). Le considérable surplus de productivité de l’agriculture pendant cette période a été pour l’essentiel transféré vers l’aval sous forme de fortes baisses de prix. Depuis le milieu des années 1990, on est revenu en Europe à une politique de prix plus libérale et les prix agricoles y sont devenus comme ailleurs volatils et fluctuants. Cela découle des comportements spéculatifs – mais rationnels – des producteurs. Un dirigisme des prix pourrait être préféré aux signaux erratiques des marchés focalisés sur le très court terme. Au niveau mondial, y compris dans les pays peu développés, stabiliser les prix permet aux producteurs libérés de la conjoncture d’emprunter à des taux raisonnables, d’accumuler du capital et de constituer des stocks minimaux. Un équilibre est donc à trouver entre le marché et l’économie administrée de l’agriculture. Le développement de la production agricole en Europe dans la deuxième moitié du xxe siècle a été qualifié de « productiviste » avec une connotation négative, bien que l’agriculture ait rempli son contrat de nourrir mieux une population en expansion. Faut-il préconiser une « industrialisation de l’agriculture » des pays les moins productifs pour nourrir leurs populations ? Bien des objections – pas toujours scientifiquement fondées – s’élèvent à l’encontre de ce modèle jugé responsable, entre autres, des migrations du rural vers l’urbain dans les pays pauvres et de considérables dégâts faits à l’environnement. On est loin du geste auguste du semeur ! Le défi actuel est de nourrir correctement et durablement 9 à 10 milliards d’humains en 2050 dans une planète aux ressources limitées. L’émergence de nouvelles classes moyennes dans quelques grands pays (Chine, Inde, Brésil, etc.) et la hausse de leur pouvoir d’achat entraînent une consommation croissante de produits animaux (œufs, lait et viande). Une flambée de la demande en produits végétaux est donc à prévoir puisque 3 à 10 calories végétales sont nécessaires pour produire 1 calorie animale. La production mondiale de grains, tubercules et autres produits amylacés devra au moins doubler en quarante ans pour espérer satisfaire la demande, sans hypothéquer l’avenir par 39
Partie 1. La statistique est intimement liée à la vie de la cité
des dommages cumulatifs infligés à l’environnement. Cela dans un contexte d’exode rural et de réchauffement climatique. D’ores et déjà, d’après la FAO (Food and Agricultural Organization), 800 millions à 1 milliard de personnes ne bénéficient pas des 2 200 kilocalories quotidiennes nécessaires pour subsister dans de bonnes conditions. Ce sont en majorité des paysans de l’hémisphère Sud et des personnes qui, ayant rejoint les zones urbaines, n’y trouvent pas d’emploi et vivent dans des bidonvilles. 40 000 35 000 30 000 25 000 20 000 15 000 10 000 5 000 0
0
10
20
30
40
50
60
Figure 3 | PIB par tête (en ordonnées, en dollars) et part de la population active agricole dans la population active (en abscisses, en pourcentage) dans 182 pays en 2001 (Source : Banque mondiale – World Development Report 2003)21.
Pourtant, la production actuelle de céréales ou de produits équivalents dépasse 300 kg par habitant et par an. Même si une part notable de la production est consacrée à l’alimentation animale et à la production de carburants, ou gaspillée par les populations riches, il reste assez pour couvrir des besoins estimés à 200 kg. C’est en réalité la pauvreté monétaire qui interdit à beaucoup l’accès à une nourriture convenable.
21. Chaque petit carré représente la situation d’un pays. 40
LE NOMBRE ET LA CITÉ
La statistique aide à la compréhension du monde
Le niveau de revenu des paysans du Sud les empêche en outre de s’équiper pour procéder à des cultures vivrières dans des conditions de bonne rentabilité. La cause fondamentale en est le manque de compétitivité du travail manuel sur un marché qui s’est internationalisé. Par exemple, la valeur ajoutée par un producteur de riz est 200 fois plus faible dans le Sud que dans le Nord. Il est donc impossible au paysan du Sud devant vendre son riz au même prix que le riz importé de gagner de quoi épargner, investir et progresser. Lutter contre la concurrence des surplus alimentaires du Nord par le protectionnisme est nécessaire, mais ne suffira pas. L’enjeu est de faire émerger partout où c’est possible une autosuffisance alimentaire reposant sur l’exploitation intelligente des caractéristiques de l’agro-écosystème, entendu comme la combinaison de la terre, des hommes, du climat, des espèces végétales et animales et des techniques compatibles avec les moyens humains et financiers locaux. Cette orientation de l’agriculture permettrait que davantage de personnes y restent employées et pourrait être plus protectrice de l’environnement. Il reste beaucoup de terres cultivables et non cultivées sur lesquelles déployer ces techniques agro-écologiques. On estime à près de 6 milliards d’hectares la superficie des terres cultivables, dont 1,6 milliard cultivés (sans compter les forêts exploitées). Tout rayon du soleil devrait tomber sur un végétal capable de transformer l’énergie solaire en énergie alimentaire. Toute l’eau pluviale devrait être récupérée par infiltration dans les sols. Les déjections animales devraient être utilisées, les éléments minéraux du sol remontés en surface par des arbres à racines profondes, le labour remplacé par le travail des vers de terre, etc. Techniquement, oui, on pourrait nourrir convenablement et durablement toute l’humanité, même si elle comptait 12 milliards d’individus. Politiquement, la réponse est plus douteuse.
41
Partie 1. La statistique est intimement liée à la vie de la cité
Figure 4 | De l’engrais sans peine… et gratuit ! (Source : Futuribles no 352, mai 2009, article de Marc Dufumier).
1.3 MATIÈRES PREMIÈRES ET ÉNERGIES : UN DÉSORDRE PLANÉTAIRE Cafés de référence 37 et 57 (liste page 245)
D’une importance primordiale, les ressources naturelles – minéralières ou agricoles – sont à la base de l’alimentation, de l’industrie et des transports. Or, un grand désordre saute aux yeux. On entend périodiquement parler de pénuries ou d’excédents énormes. Et des hausses de prix vertigineuses alternent avec des baisses qui le sont tout autant : le cours du pétrole a été multiplié par quinze de 1999 à 2008, pour baisser de moitié en quelques mois. Les cours du sucre, du cacao, du cuivre, du caoutchouc, etc. sont pareillement secoués, souvent ensemble mais pas toujours. Les économies des pays consommateurs sont fortement affectées ; et les ressources de pays producteurs connaissent des aléas parfois désastreux. C’est qu’aussi ces productions sont géographiquement très inégalement réparties. Les prix et surtout les quantités échangées ne sont pas toujours bien connus, faute d’une qualité statistique et d’une transparence 42
LE NOMBRE ET LA CITÉ
La statistique aide à la compréhension du monde
suffisante dans certains pays. Du moins les grands marchés mondiaux sont suffisamment visibles pour signaler cette turbulence. À quoi estelle due ? On pointe volontiers les spéculateurs, qui en jouent. En réalité, ils ont un rôle important, mais plutôt régulateur : arbitrant entre produits et entre dates, ils aident à compenser les risques. Certes ils y trouvent des profits énormes… tout en encourant des risques considérables. Toutefois, ils réagissent aux fluctuations bien plus qu’ils ne les créent. Celles-ci proviennent en réalité de désajustements incessants de l’offre et de la demande. Sans doute les spéculateurs sont-ils parfois en position de manipuler un marché, mais s’il y a spéculation, elle serait plutôt chez les producteurs, lorsqu’ils s’entendent pour limiter leur production, engendrant des cours élevés. Les industries extractives (métaux, minerais divers, pétrole…) sont très capitalistiques : les investissements sont incomparablement plus coûteux que la main-d’œuvre, tandis que le produit de base, dans le sous-sol, est gratuit. Des amortissements longs s’accommodent de recettes erratiques, les consommateurs se défendant alors par un stockage massif, dans la mesure où ils le peuvent. Dans le même temps, les prix de vente étant dans l’ensemble très supérieurs aux coûts de production, cela attise les convoitises : mainmise étrangère, guerres civiles, corruption des dirigeants, trafics croisés… L’instabilité politique et l’incertitude des conflits sont prégnantes. Pour les matières premières agricoles, ces causes économiques et géopolitiques de volatilité des prix jouent beaucoup moins, car les coûts de main-d’œuvre et de fournitures constituent une grande part du prix de vente. En revanche, les aléas climatiques affectent grandement les quantités commercialisables. C’est là une cause toute différente de la stratégie des industries extractives, mais qui induit des fluctuations similaires. Deux circonstances ajoutent encore à la complexité du problème. D’une part, la demande des pays émergents accentue la tension entre offre et demande. La Chine pèse beaucoup sur le marché du cuivre et contrôle une part importante des « terres rares ». De plus, du fait de 43
Partie 1. La statistique est intimement liée à la vie de la cité
son essor industriel, l’augmentation du niveau de vie de son immense population appelle un surcroît de productions vivrières. De manière différente, l’Inde et d’autres pays d’Extrême-Orient influencent aussi ces marchés. D’autre part, les transactions, qui représentent des montants colossaux, sont souvent libellées en dollars américains, ce qui implique des conversions mettant ici en jeu la dynamique du marché des changes. Là aussi, les cours sont très variables. Depuis un siècle, des propositions de monnaie mondiale se sont succédé en vain. Comme semble devoir rester vain l’essai d’établir par traité une régulation mondiale. Parmi les matières premières, figurent en bonne place les énergies fossiles : charbon, uranium et surtout pétrole et gaz, dont les variations de cours défraient la chronique. Surgissent des faits imprévisibles. En 2010, nul n’attendait le gaz de schiste : les États-Unis sont soudain devenus exportateurs tandis que le coût du gaz était divisé par trois. Du point de vue de l’utilisateur, les choses se complexifient davantage encore. La politique énergétique française est un sujet… brûlant. Divers aspects s’y entrecroisent : • affronter les variations des prix à l’importation dépend des revenus que le pays tire par ailleurs de ses diverses exportations ; • la sécurité d’approvisionnement, face aux risques géopolitiques, appelle à diversifier produits et provenances et pousse à développer les énergies renouvelables (hydraulique, solaire, éolien, géothermique) ; • ces dernières supposent de développer des technologies nouvelles, y compris pour stocker l’électricité : des investissements longs en vue d’un avenir peu prévisible ; • il s’agit que l’offre et la demande s’ajustent. Or, celle-ci croît fortement à l’échelle du monde ; une hausse générale des niveaux de vie ajoutée à l’accroissement de la population mondiale (un tiers en plus à l’horizon 2050) ne peut qu’aviver les turbulences ; • une limitation est à chercher par des économies d’énergie (techniques, matériaux, comportements). Là, les politiques ne sont 44
LE NOMBRE ET LA CITÉ
La statistique aide à la compréhension du monde
plus seulement globales, mais donnent un rôle aux acteurs locaux ; • cette limitation, ajoutée au remplacement des combustibles carbonés par le nucléaire ou les renouvelables, est aussi souhaitée pour parer au réchauffement climatique et à ses conséquences, notamment l’aggravation des migrations ; • une exigence croissante de sûreté, la gestion des déchets et le démantèlement accroissent le coût de l’énergie ; • les prix des diverses formes d’énergie n’obéissent pas à une claire rationalité, invitant à les reconsidérer : notamment, les taxations qu’ils incorporent (en 2011, sur 36 milliards d’euros, la facture française de pétrole et gaz en comportait 33 de recette fiscale). Ce tableau, brossé à grands traits, fait ressortir l’extrême complexité des problèmes. Les opinions s’affrontent, partant d’approches partielles. Tout cela appelle, d’une part, à disposer de données fiables, alors qu’elles sont actuellement trop incomplètes et approximatives. Et, d’autre part, à modifier radicalement la gouvernance, qui désormais ne peut être que systémique.
1.4 UNE CONSOMMATION QUI IGNORE LES CRISES Café de référence 47 (liste page 245)
Si l’explosion de la consommation en volume22 depuis le début du xxe siècle ne fait aucun doute (cf. figure 5), il est à noter que son analyse est conduite selon deux grandes approches : –– l’analyse statistique, dont les montants des dépenses des ménages sont le principal centre d’intérêt comme dans les enquêtes « Budget de familles » de l’Insee. Ces enquêtes statistiques reposent sur des 22. Pour calculer l’évolution en volume de la consommation (ou de la production) d’un pays entre une période 1 et une période 2, on calcule ce qu’aurait été la valeur de la consommation (ou de la production) de la période 2 estimée avec les prix de la période 1, et on rapporte ce nouvel agrégat à la valeur de la période 1. 45
Partie 1. La statistique est intimement liée à la vie de la cité
carnets de comptes et d’achats très détaillés décrivant la consommation ; elles sont parmi les plus anciennes et les plus solides de la statistique publique moderne ; –– l’analyse qualitative sociologique, qui s’intéresse aux styles de vie des ménages, à l’usage des biens commercialisés, aux habitudes sociales entourant l’acte de consommation, aux aspirations et aux déceptions des consommateurs, etc. 10
8
6
4
2
1900
1920
1940
1960
1980
2000
2020
Figure 5 | Évolution de la consommation en France métropolitaine de 1900 à 2017 – base 1 en 1896 (Sources : 1896-1939 P. Villa ; 1950-2017 Comptabilité nationale Insee).
La figure 5 montre que la consommation totale a été multipliée par dix depuis 1900. Cette évolution de la consommation en volume, c’est-à-dire à prix constants, résulte à la fois de l’augmentation de la quantité des biens et de l’amélioration de leur qualité. Ce phénomène récent témoigne des modifications des conditions de vie dans les années 1950 qui mettent fin à la grande stabilité des modes de consommation antérieurs à la Seconde Guerre mondiale. Par exemple, de 1896 à 1939, 75 % du budget ouvrier dans les pays européens 46
LE NOMBRE ET LA CITÉ
La statistique aide à la compréhension du monde
développés étaient consacrés à l’alimentation, alors qu’aujourd’hui cette proportion est passée à environ 14 % pour l’ensemble de la population. Toutefois, même si la part de l’alimentation diminue dans les budgets, les volumes de produits alimentaires consommés augmentent du fait de l’accroissement de consommation de produits de qualité. Il est à noter que l’augmentation continue de la consommation depuis 1945 ne fait pas apparaître les différentes crises qui se sont succédé depuis 1973. Les inégalités de consommation L’examen du taux d’équipement des ménages en biens durables met en évidence des variations de rythme de diffusion de ces biens. La diffusion du lave-vaisselle a été nettement moins rapide que celle des réfrigérateurs et des micro-ordinateurs : le taux d’équipement des ménages en lave-vaisselle passe de 43 % en 1996 à 58 % en 2014, alors que pendant la même période le taux d’équipement en microordinateurs évolue de 19 % à 79 %. Mais surtout, ces contrastes de diffusion des équipements nouveaux soulignent les inégalités de consommation, qui n’ont pas été fortement réduites malgré la croissance du niveau moyen. Les classes populaires qui rattrapent les cadres pour des équipements anciens sont au fur et à mesure de nouveau distancées pour des équipements nouveaux (figure 6). Au-delà de sa fonction utilitaire, la consommation permet d’afficher un statut social par un effet de distinction ou au contraire d’appartenance à un groupe : en effet, la consommation satisfait un besoin, mais constitue aussi un acte social et symbolique. Dès lors, les analyses structurelles de la consommation nous renverraient-elles aux clichés traditionnels ? Il n’en est rien ! Ainsi, les résultats de l’enquête « Budget de familles » de l’Insee ont mis en évidence que la dépense moyenne en boissons alcoolisées des 20 % de ménages ayant les revenus les plus élevés était supérieure de 50 % à celle de l’ensemble de la population, notamment du fait des quantités achetées. Or il existe depuis le xixe siècle une lecture sociale de 47
Partie 1. La statistique est intimement liée à la vie de la cité
l’alcoolisme – traditionnellement attribué aux classes populaires des bistrots d’antan – qui occulte un alcoolisme mondain (y compris féminin) bien réel… L’examen des chiffres récents montre ainsi l’obsolescence de certaines représentations. Connexion Internet Micro-ordinateur Lave-vaisselle Téléphone portable Four micro-ondes TV couleur2+
150
100
50
0
–50 2000
2005
2010
2015
Figure 6 | Écart relatif en % entre les taux d’équipement des cadres supérieurs ou professions libérales et des ouvriers de 1996 à 201423 (Source : Insee). Lecture : en 1999, le taux d’équipement en connexion Internet des cadres supérieurs et professions libérales dépassait celui des ouvriers de 171 % de la moyenne de leurs valeurs ; en 2016, cet écart n’était plus que de 11 %. Lorsque l’écart est négatif, c’est que les ouvriers sont plus équipés que les cadres supérieurs et professions libérales.
Imprévisibilité des tendances de consommation Tenter d’établir des modèles de consommation généraux qui permettraient de prévoir les évolutions de consommation s’avère être une gageure. Des auteurs24 ont ainsi prédit des tendances et des 23. Pour mémoire, les écarts relatifs des taux d’équipements des ménages pour des biens plus anciens étaient les suivants : télévision : ~130 % en 1953 et lave-vaisselle : ~170 % en 1970. 24. Par exemple Robert Rochefort dans son ouvrage Le Consommateur entrepreneur, 1997. 48
LE NOMBRE ET LA CITÉ
La statistique aide à la compréhension du monde
évolutions… qui se sont révélées largement inexactes ! En effet, les théories reposant sur les prix des biens se révèlent plus ou moins convaincantes selon les produits et le recours à des facteurs supplémentaires est souvent nécessaire. En définitive, on a peu d’éléments d’analyse des mécanismes à l’œuvre dans les processus de consommation. Mieux vaut, dans ces conditions, conserver une certaine distance face aux discours convenus sur la consommation et faire attention aux affirmations journalistiques ! De la frénésie de consommation au bonheur… En conclusion, il apparaît que l’analyse de la consommation et les prévisions en la matière sont des exercices difficiles. Il n’existe pas de théorie économique de la consommation qui rendrait compte de tous les phénomènes observés depuis plus de soixante ans. On peut s’interroger aussi sur la pérennité d’une telle croissance de la consommation et sur l’impact qu’aurait un changement de paradigme sur des citoyens ayant vécu depuis leur naissance dans un monde où l’on consomme toujours davantage. Notons enfin que l’accroissement de la consommation ne s’accompagne pas nécessairement d’une augmentation du bien-être. Ainsi, on consomme plus que dans les années 1960, mais est-on plus heureux ?
49
2 La statistique repose sur des conventions et définitions partagées
« On classe comme on peut mais on classe », a écrit Claude Lévi-Strauss25. On oppose parfois les sciences molles consacrées à l’étude des faits sociaux aux sciences dures de la physique et de la mathématique. Pionnier de l’utilisation des statistiques en sociologie, Émile Durkheim, dans Les Règles de la méthode, juge qu’elles sont le moyen idéal pour « durcir » l’étude d’un objet « mou » et établir la réalité des faits sociaux. Il propose de « considérer les faits sociaux comme des choses ». En effet, pauvreté, délinquance, santé, ségrégation, exclusion, travail, chômage, bien-être, inégalités, éducation… sont des notions complexes et souvent mal définies (voire pas du tout définies). Leur quantification nécessite une certaine formalisation. Celle-ci consiste à décomposer la notion en éléments plus simples ; à préciser 25. La Pensée sauvage (1962). 51
Partie 1. La statistique est intimement liée à la vie de la cité
les caractéristiques à observer ; à les décrire selon des découpages, des classifications, des catégories ; à établir des nomenclatures. Toutes ces opérations nécessitent des conventions (tacites ou explicites). L’adoption de celles-ci fait suite à des réflexions associant les acteurs économiques et sociaux concernés à des chercheurs de plusieurs disciplines (notamment la sociologie et l’économie). Ces échanges sont parfois internationaux : Eurostat26 a ainsi coordonné de nombreux débats pour élaborer une nomenclature socio-économique qui puisse être utilisée par tous les pays de l’Union européenne. Les choix faits aboutissent à une certaine représentation de la réalité sociale, partielle, pas toujours impartiale, comportant de l’arbitraire. Il ne faut pas considérer cela uniquement comme une contrainte de simplification, mais comme l’occasion de préciser les concepts qui sont utilisés et d’avoir conscience des points de vue adoptés. Ce chapitre évoque cette formalisation nécessaire dans quelques domaines. Le mot entreprise peut paraître banal et simple. Pourtant, dans le monde économique actuel, avec l’apparition de groupes, notamment internationaux, l’utilisation de ce terme est ambiguë. Il est devenu nécessaire de clairement distinguer ce qu’est une « entreprise » de ce qu’est un groupe ou une unité légale de production. Cela a donné lieu, en 1993, à l’élaboration par la statistique européenne d’une définition officielle qui doit dorénavant être appliquée pour publier les statistiques des entreprises : leurs exportations, leur chiffre d’affaires, leur nombre d’employés et autres informations. Les statistiques sont en général élaborées en référence à un certain territoire, offrant ainsi la possibilité de comparaisons géographiques. Mais attention : celles-ci sont très sensibles au découpage territorial adopté ! Les différences peuvent être amplifiées, ou au contraire masquées, par le choix du découpage géographique : un découpage plus 26. Eurostat est l’Office statistique de l’Union européenne. C’est une direction générale de la Commission. 52
LE NOMBRE ET LA CITÉ
La statistique repose sur des conventions et définitions partagées
fin donne une idée de plus grande homogénéité au sein de chaque maille, mais de plus grandes disparités inter-localisations. La pauvreté, objet de tant de politiques publiques, peut être mesurée de bien des façons, notamment selon qu’on l’appréhende dans l’absolu ou relativement aux voisins, proches ou moins proches, selon ce qui est ressenti ou objectivé. Les statistiques se référant aux classes moyennes sont souvent considérées comme donnant une image synthétique d’un pays. Représentant la population une fois qu’on en a exclu les extrêmes, elles offrent à l’observateur des caractéristiques bien différentes selon qu’on élargit ou restreint leur périmètre. Préciser en quoi ces opérations de formalisation consistent est indispensable à une lecture correcte des résultats statistiques. Cela permet de comprendre que les données collectées ne sont pas « données », mais « construites », qu’elles découlent d’un ensemble de décisions ou de conventions préalables, et qu’elles contiennent donc irrémédiablement quelque chose d’arbitraire. En fin de compte, il s’agit de savoir de quoi on parle exactement.
2.1 « ENTREPRISE » : QU’EST-CE À DIRE ? Café de référence 75 (liste page 245)
Qu’y a-t-il de commun entre la boulangerie de mon quartier et la SNCF ? Dans les deux cas, il s’agit d’une unité économique combinant une main-d’œuvre et des capitaux en vue de produire certains biens ou certains services, ou afin de les commercialiser. Des moyens réunis dans une intention : cette définition implique l’existence d’une autonomie de décision. Au fil du temps, le droit a sanctionné l’émergence de différentes formes d’exercice des activités économiques. Commerçants, artisans, ont dû acquitter des patentes en contrepartie du droit d’exercer. Lorsque l’initiative individuelle ne suffisait pas, des sociétés 53
Partie 1. La statistique est intimement liée à la vie de la cité
industrielles ou commerciales ont été constituées. Finalement, après une longue évolution historique, la quasi-totalité de l’activité économique est désormais effectuée au sein de différentes sortes d’unités légales ad hoc : entreprises individuelles, sociétés de personnes ou de capitaux, mais aussi coopératives, mutuelles, sociétés nationales, etc. Dans le langage courant, on emploie le mot entreprise pour désigner n’importe laquelle de ces formes d’activité économique. Et en statistique publique, longtemps, « entreprise » est resté synonyme de « unité légale » au sens qui vient d’être dit. La pratique statistique consistait à assimiler complètement entreprises et unités légales. À côté de l’entreprise, la statistique prend en considération l’établissement, unité économique localisée appartenant à une entreprise. Elle étudie aussi depuis au moins un demi-siècle les groupes d’entreprises. Certaines sociétés sont propriétaires d’autres sociétés, soit en totalité, soit en majorité. En tenant compte de ces liens capitalistiques, on identifie les groupes et, au prix de conventions, on parvient à dresser la liste des entreprises appartenant à un groupe. Mais la notion de groupe ne se substitue pas à celle d’entreprise, ne serait-ce que parce que beaucoup de groupes sont investis dans des activités économiques de natures très différentes : presse et parfumerie, par exemple. Depuis une quarantaine d’années, la pratique consistant à assimiler unités légales et entreprises est devenue inadéquate, et même trompeuse. Pourquoi ? Parce que, de nos jours, de nombreuses unités légales n’ont pas l’autonomie de décision inhérente à la notion d’entreprise. Dans un nombre important de cas, l’organisation capitalistique prive la société possédée de son autonomie de décision. Un exemple : un grand groupe automobile se restructure autour d’une holding tête de groupe et crée des unités légales de deux sortes : les unes vont gérer la production, les autres les salariés. Ces dernières seront enregistrées comme exerçant l’activité de « prêt de personnel », au profit exclusif des premières. En réalité, l’activité de production d’automobiles de ce groupe continue à relever d’un pilotage unique, les décisions stratégiques du siège étant appliquées par toutes les 54
LE NOMBRE ET LA CITÉ
La statistique repose sur des conventions et définitions partagées
sociétés : mais il existe désormais à l’intérieur du groupe plusieurs unités légales importantes dépourvues de toute autonomie stratégique. C’est ainsi qu’Eurostat recensait en 2014 quatre cents unités légales productrices d’automobiles en Europe : en réalité, il n’y avait qu’une quarantaine de producteurs maîtres de leur propre stratégie. Le besoin s’est donc fait sentir de définir l’entreprise en cessant de l’identifier à l’unité légale. La statistique européenne, qui avait constaté le problème dès les années 1980, a suscité en 1993 l’adoption du règlement du Conseil européen du 15 mars 1993 qui – pour l’observation économique et statistique – définit l’entreprise comme « la plus petite combinaison d’unités légales qui constitue une unité organisationnelle de production de biens et de services jouissant d’une certaine autonomie de décision, notamment pour l’affectation de ses ressources courantes ». Depuis lors, il s’agit de mettre en pratique cette décision27. Définir est une chose, repérer pour mesurer en est une autre. Constituer la liste des unités légales d’un groupe qui forment une entreprise au sens nouveau est une étape préalable. Souvent, les grands groupes ont plusieurs activités économiques : puisqu’on ne peut les considérer comme une seule entreprise, il faut les découper. Cette opération délicate, qui a reçu le nom de profilage des groupes28, ne peut se faire qu’en collaboration étroite entre le groupe concerné et les statisticiens. Pour les plus grands groupes, qui sont multinationaux, le profilage impose la coopération de plusieurs instituts nationaux de statistique. Incidemment, on remarque que ces rapprochements peuvent être de premiers pas vers une meilleure connaissance des
27. Ce règlement européen s’applique de plein droit en France ; il a été précisé par la loi de modernisation de l’économie de 2008 (loi no 2008-776 du 4 août 2008) et par son décret d’application no 2008-1354 du 18 décembre 2008. 28. Sans aucun rapport avec le profilage des personnes (cf. sujet 12.1 : « Vous n’avez pas le profil ! »). On peut à bon droit s’étonner que ce mot soit ici utilisé dans un sens éloigné de son sens courant. 55
Partie 1. La statistique est intimement liée à la vie de la cité
groupes à l’échelle mondiale, qui est indispensable pour éclairer la question si sensible des délocalisations29. Une fois identifiées les « entreprises » au nouveau sens du terme, il reste à élaborer des statistiques les concernant. Souvent, agréger les réponses aux questionnaires provenant des unités légales qui constituent l’entreprise suffit ; mais pas toujours. Il arrive que la collaboration de la tête de groupe soit là aussi indispensable. Ce changement de définition induit une véritable révolution dans les statistiques d’entreprises. Par exemple, la notion de petite ou moyenne entreprise (PME) n’a plus le même sens. Autrefois, il suffisait qu’une unité légale soit d’une certaine classe de taille, en effectif salarié ou en chiffre d’affaires, pour qu’elle soit classée PME. Désormais, il faut en outre qu’elle n’appartienne pas à un groupe : il faut qu’elle soit autonome. Du coup, la part des PME dans les exportations décroît considérablement : alors qu’on l’évaluait à 27 % avec l’ancienne définition, ce n’est plus que 13 % avec la nouvelle30. La part des PME dans la recherche-développement est, elle aussi, révisée fortement à la baisse. Un conseil : si vous lisez une statistique concernant « les entreprises », vérifiez la définition qui est derrière ce terme. Normalement, seule la nouvelle définition devrait désormais être utilisée : mais ce n’est pas toujours le cas31.
2.2 TERRITOIRES À LA DÉCOUPE Cafés de référence 27, 39, 51 et 83 (liste page 245)
Les découpages géographiques sont légion dans la vie administrative. Chacun sait dans quelle commune il réside et que cette 29. Voir le sujet 8.5 : « Délocalisations : où est la France ? ». 30. Chiffres 2012 – Référence : Insee Première no 1399 paru le 27 mars 2012. 31. Par ailleurs, on peut vouloir comparer un chiffre récent avec un plus ancien publié avant le changement de définition. 56
LE NOMBRE ET LA CITÉ
La statistique repose sur des conventions et définitions partagées
commune appartient à divers regroupements constituant le fameux « mille-feuilles territorial ». Mais il faut songer aussi aux secteurs scolaires, aux aires de compétence des tribunaux, et à beaucoup d’autres découpages, souvent mal connus, qui affectent la vie quotidienne. Certains de ces découpages sont créés en utilisant des statistiques. Le cas des circonscriptions législatives est instructif. La loi prescrit qu’elles doivent être révisées systématiquement « après deux recensements de la population » de façon à prendre en compte équitablement les évolutions de population. Dans la pratique, des données sociodémographiques détaillées, ainsi que les résultats d’élections antérieures, peuvent servir à équilibrer les circonscriptions. Mais il serait naïf de croire que le découpage n’obéit qu’à ce genre de considérations ! La réalité inclut l’histoire – par exemple, la tradition républicaine veut que les circonscriptions législatives respectent les limites des départements – et les rapports de force politiques. Dans beaucoup de cas, les considérations statistiques s’effacent même complètement devant les jeux d’acteurs. C’est ce qu’on observe à propos des métropoles françaises, notamment de la métropole du Grand Paris. Toutes les villes de France ont connu une extension spatiale considérable depuis cinquante ans : au-delà de la banlieue, le périurbain est devenu partout une réalité. Les statisticiens ont proposé une définition nouvelle de ces aires d’influence des villes en partant de l’observation des déplacements entre le domicile et le lieu de travail. Sous le nom d’aires urbaines, ces découpages ont été codifiés dans les années 1990 ; la loi de 1999 sur l’intercommunalité y faisait référence, uniquement pour définir un seuil. Mais dans la définition des périmètres des intercommunalités, puis des métropoles, les aires urbaines des statisticiens n’ont guère joué de rôle. En particulier, la métropole du Grand Paris, telle qu’elle existe depuis 2015, est bien plus petite que l’aire urbaine de Paris : elle ne regroupe que 7,5 millions d’habitants sur les 12,4 millions de l’aire urbaine. Qu’ils reçoivent ou non une sanction administrative, les découpages géographiques servent à l’observation statistique. Partout, 57
Partie 1. La statistique est intimement liée à la vie de la cité
les disparités territoriales sont un objet d’attention, et souvent de préoccupation, surtout en France où « l’égalité des territoires » est revendiquée32. Pour constater ces disparités, la pratique courante est de comparer les unités territoriales d’un découpage sur différentes variables statistiques : densité de population, taux de pauvreté, etc. Mais attention ! Les différences qu’on observe peuvent être amplifiées, ou au contraire masquées, par le choix du découpage. C’est une difficulté considérable, bien connue des géographes, mais souvent ignorée du grand public et des médias. Les découpages sont comme des lunettes : ils permettent d’apercevoir une partie de la réalité, mais pas n’importe quelle partie. Et quelquefois, ils peuvent tromper. La carte des taux de pauvreté à l’intérieur d’une agglomération peut fort bien donner une impression d’homogénéité avec un découpage, et faire ressortir de fortes inégalités avec un autre découpage. Se méfier d’un « effet découpage » est une précaution toujours utile en face d’une affirmation quantifiée à base géographique. Pour s’en prémunir, on peut revenir à une information géographiquement plus détaillée : si l’information est disponible dans un maillage fin, l’utilisateur peut essayer des découpages alternatifs du même territoire. Finalement, les découpages géographiques ont beaucoup de points communs avec les nomenclatures que l’on utilise dans d’autres domaines. Ils servent à classer les observations élémentaires ; ils font apparaître des solidarités en même temps qu’ils séparent des sousensembles ; ils ont un caractère conventionnel, même s’ils reposent sur des relations bien réelles. Lorsqu’on observe avec un découpage, cela vaut la peine d’observer aussi le découpage !
32. Le Commissariat général à l’égalité des territoires est un service de l’État créé en 2014 et placé sous l’autorité d’un ministre. Il a repris, notamment, les attributions de l’ancienne « Datar » (Délégation interministérielle à l’aménagement du territoire et à l’attractivité régionale). 58
LE NOMBRE ET LA CITÉ
La statistique repose sur des conventions et définitions partagées
Aire urbaine Pôle urbain – plus de 5 000 emplois – zone bâtie avec moins de 200 m entre les habitations Ville principale du pôle en population
Couronne périurbaine Banlieue Ville centre
Communes dont plus de 40 % des actifs résidents travaillent dans le reste de l’aire
Figure 7 | Les catégories d’espaces du zonage en aires urbaines (Source : Insee).
2.3 LES MULTIPLES FACETTES DE LA PAUVRETÉ Cafés de référence 14, 46 et 89 (liste page 245)
La mesure de la pauvreté constitue depuis plus d’un demi-siècle un moteur puissant de développement des statistiques sociales, en accompagnement du projet politique de l’État-providence cherchant à promouvoir la cohésion sociale par la réduction des inégalités. Le système statistique s’est développé en liaison étroite avec ce projet politique. Mais qu’est-ce qu’un pauvre ? Aucune définition universellement admise n’étant donnée à la pauvreté, sa mesure comporte inévitablement un certain arbitraire. Pour le Conseil européen33, sont pauvres « les personnes dont les ressources matérielles, culturelles et sociales sont si faibles que ces personnes sont exclues des modes de vie normaux de l’État membre où elles vivent ». D’où la définition des statisticiens européens : on prend 50 % (ou 60 %) du revenu médian par
33. Sommet de Laeken en 2001. 59
Partie 1. La statistique est intimement liée à la vie de la cité
unité de consommation34 comme seuil permettant de distinguer les ménages pauvres, qui ont un revenu inférieur à ce seuil, des autres ménages. Les statisticiens européens définissent donc la pauvreté comme un phénomène relatif : c’est par rapport aux caractéristiques du pays où l’on vit qu’on est pauvre ou non. Hors de l’Europe, les définitions absolues prévalent : sont pauvres ceux qui ne peuvent pas se procurer le minimum nécessaire pour survivre (manger, se loger, se chauffer…), minimum défini en valeur absolue. L’utilisation d’une définition relative conduit à des incompréhensions de la part de beaucoup de personnes, qui spontanément ont en tête une définition absolue. Une « pédagogie de la définition relative » est donc nécessaire : elle peut passer par l’énoncé de paradoxes éclairants : • si tous les revenus doublent, la pauvreté ne baisse pas puisque le nombre de pauvres est inchangé ; • si tous les revenus augmentent, il se peut que la pauvreté augmente si les petits revenus augmentent moins que les autres ; • etc.
34. Le revenu médian partage également la population : 50 % a un revenu supérieur au revenu médian et 50 % un revenu inférieur. La notion d’unité de consommation (UC) correspond à l’observation que les besoins d’un ménage (notamment en biens de consommation durables) ne s’accroissent pas en stricte proportion de sa taille. L’échelle actuellement la plus utilisée (dite de l’OCDE) retient la pondération suivante : • 1 UC pour le premier adulte du ménage ; • 0,5 UC pour les autres personnes de 14 ans ou plus ; • 0,3 UC pour les enfants de moins de 14 ans. 60
LE NOMBRE ET LA CITÉ
La statistique repose sur des conventions et définitions partagées
20
Unité : %
15
10
5
0
Seuil 40 % : données non disponibles avant 1995 1970
1980 Seuil 40 %
1990 Seuil 50 %
2000
2010
Seuil 60 %
Figure 8 | Évolution du taux de pauvreté selon divers seuils (Source : Insee).
La mesure de la pauvreté pose donc un problème de définition conceptuelle. Chaque mesure utilisée comporte des limites. La mesure monétaire fondée sur l’observation des revenus suppose implicitement que le revenu est la seule source de bien-être, ignorant d’autres facteurs contribuant au niveau de vie : être propriétaire de son logement, posséder un patrimoine, disposer d’une production domestique… De plus, elle est instantanée, alors que la durée peut donner lieu à des compensations entre périodes. La pauvreté définie selon cette mesure s’appuie sur une fraction du revenu médian et sur une définition d’« échelles d’équivalence » entre les personnes d’un ménage, les « unités de consommation » : autant de conventions fixées sans véritable argument autre qu’intuitif, dont des variantes produisent des différences non négligeables du taux de pauvreté. La pauvreté en conditions de vie est établie à l’aide d’une batterie d’indicateurs de privation de biens et services dans une large gamme de domaines : utilisation de biens durables, chauffage, vacances, recours aux soins… À partir de cette information, chaque ménage peut être caractérisé par un « score » et on peut déterminer quels sont les 10 % de ménages ayant les plus mauvaises conditions de vie. Mais le choix de ces indicateurs n’échappe pas à un certain arbitraire malgré des tentatives 61
Partie 1. La statistique est intimement liée à la vie de la cité
de définition par le Conseil européen de « modes de vie normaux » ou de biens « jugés indispensables par plus de la moitié de la population ». Une autre approche est l’approche subjective, fondée sur les déclarations des personnes elles-mêmes : sont pauvres celles qui éprouvent le plus de difficultés à « boucler leurs fins de mois ». Ces différentes approches de la pauvreté sont peu corrélées entre elles. Plus précisément : si dans une population on considère successivement les 10 % de ménages ayant les plus bas revenus, les 10 % de ménages vivant dans les plus mauvaises conditions, les 10 % de ménages déclarant les plus grandes difficultés pour boucler leurs fins de mois, et si on examine la partie commune de ces trois sousensembles, on constate qu’elle ne recouvre que 1 % à 2 % de la population totale, et non pas un chiffre proche de 10 % comme cela aurait été le cas si ces trois mesures de la pauvreté avaient été fortement corrélées. Cette constatation vaut pour tous les pays35. Pour apprécier les méthodes de mesure de la pauvreté, il faut s’interroger sur leur utilisation. Veut-on disposer d’un indicateur global sur la société où l’on vit, de façon à la comparer à d’autres sociétés, du passé ou d’ailleurs ? Ou bien veut-on fonder sur des informations quantitatives des politiques d’aide aux plus démunis ? Et en ce cas, quel objectif les politiques se donnent-ils ? Éradiquer la pauvreté absolue ? Empêcher l’exclusion de catégories de la population ? Renforcer les ressources des moins favorisés pour qu’elles ne s’écartent pas trop des ressources moyennes ? Cela n’est jamais exprimé aussi clairement. Une ambiguïté est entretenue sur les objectifs poursuivis. De ce fait, des débats qui portent en apparence sur les mesures statistiques peuvent en réalité porter sur les objectifs à poursuivre et les politiques à mettre en œuvre. Qui doit définir ce que c’est que d’être pauvre, et ainsi fixer les conventions et les seuils ? Malheureusement, la fixation des conventions et des seuils 35. Voir les deux numéros de la revue Économie et Statistique consacrés à la mesure de la pauvreté : n° 308-309-310, octobre 1997, « Mesurer la pauvreté aujourd’hui » ; n° 383-384-385, décembre 2005, « Les approches de la pauvreté à l’épreuve des comparaisons internationales ». 62
LE NOMBRE ET LA CITÉ
La statistique repose sur des conventions et définitions partagées
n’est prise en charge de façon explicite par aucune instance politique ou sociale. Beaucoup de difficultés de compréhension viennent de là.
2.4 LES CLASSES MOYENNES EN QUÊTE DE DÉFINITION Café de référence 94 (liste page 245)
Régulièrement présentes dans les discours médiatiques ou politiques, les classes moyennes désignent les ménages qui n’appartiennent ni aux classes les plus modestes, ni aux classes favorisées. Elles ne seraient « ni riches, ni pauvres ». Cette définition en creux souligne la variété et l’hétérogénéité des situations objectives et des perceptions subjectives auxquelles elle peut renvoyer. Depuis le xixe siècle, de nombreuses analyses tentent d’en délimiter les contours, mais les limites restent floues. Néanmoins, les classes moyennes font régulièrement l’objet d’observations et sont souvent considérées comme un miroir relativement fiable des transformations économiques et sociales des sociétés occidentales. Strates supérieures Nouvelle classe moyenne supérieure hauts fonctionnaires, enseignants du supérieur, ingénieurs
Ressources culturelles dominantes Nouvelle classe moyenne intermédiaire employés, bureaucrates et techniciens disposant d’une autonomie dans leur travail
Ancienne classe moyenne supérieure Chefs d’entreprises petites et moyennes, commerçants et artisans employeurs, bourgeoisie possédante
Ressources économiques dominantes
Strates inférieures
Ancienne classe moyenne intermédiaire artisans et commerçants modestes, dont le revenu est avant tout fondé sur le travail
Figure 9 | Les classes moyennes (Source : Louis Chauvel, Les Classes moyennes à la dérive, 2006).
63
Partie 1. La statistique est intimement liée à la vie de la cité
La première façon de définir et de caractériser les classes moyennes est de considérer une « classe proche de la médiane » dans la distribution des revenus à partir d’une fourchette de revenu fixée a priori. Souvent, on retient les ménages situés entre 75 % et 150 % de la médiane, mais les intervalles peuvent être plus ou moins importants selon les pays. Très critiquée en France, une telle définition est acceptée par une écrasante majorité des pays. Cette définition des classes moyennes ignore totalement le patrimoine, dont la répartition est beaucoup plus inégalitaire que celle des revenus. La prise en compte du patrimoine entraînerait une distorsion croissante au sein des classes moyennes, entre d’une part les classes moyennes intermédiaires et les classes moyennes supérieures, structurellement épargnantes ou dépositaires d’un certain patrimoine et, d’autre part, les classes moyennes les moins pourvues. D’autres définitions des classes moyennes sont couramment utilisées dans les études sociologiques. Ainsi, la deuxième repose sur le sentiment exprimé par les personnes elles-mêmes, en réponse à une question du genre : « Estimez-vous appartenir aux classes moyennes ? » C’est la moins fiable des définitions. On observe un écart important et croissant entre l’expression d’un sentiment de classe et ce que les budgets des personnes intéressées suggèrent. La troisième définition, qui est la plus habituelle en France, se réfère à la profession, au travail réalisé quotidiennement, qu’il soit manuel ou intellectuel. Au prix de quelques ajustements, les « catégories socioprofessionnelles » de la statistique publique permettent d’approximer des classes sociales et la CSP « Professions intermédiaires » correspond sensiblement à ce qu’on entend par « classes moyennes ». Ce groupe social, après une période de forte croissance dans les années 1950-1970, stagne depuis en France. On constate au sein de ce groupe une dispersion dès lors que la situation patrimoniale est prise en compte, et une mobilité sociale descendante. À cela s’ajoute la question de l’adéquation des diplômes aux emplois occupés : aujourd’hui, pour un même 64
LE NOMBRE ET LA CITÉ
La statistique repose sur des conventions et définitions partagées
diplôme, un jeune n’obtient pas le même niveau d’emploi que celui de ses parents. Quelle que soit l’approche considérée, le processus d’homogénéisation sociale qui avait caractérisé les Trente Glorieuses semble bousculé par l’occurrence des crises économiques, par la montée du chômage et de la précarité. Ces phénomènes sont amplifiés par la concurrence mondiale et la rapidité du changement technologique, qui accélèrent la mise en compétition de la main-d’œuvre et l’obsolescence des compétences. Cette évolution fragilise potentiellement les couches moyennes et est susceptible d’accroître les inégalités.
65
3 La statistique permet de rationaliser des politiques publiques
« La vie est un conte, dit par un idiot, plein de bruit et de fureur, qui ne signifie rien36. » Shakespeare écrivait ces mots au début du xviie siècle : en dirait-il autant de nos jours ? Probablement. Pourtant, les Lumières ont transformé les mentalités. Les comportements privés ne sont plus fixés par la tradition, ils sont choisis rationnellement pour atteindre des objectifs conscients par les meilleurs moyens possible. Et les sociétés s’efforcent de suivre le même schéma. La planification centralisée, imposée par un régime autoritaire, représente un point extrême de la rationalisation de l’action publique. À la limite, le planificateur, qui s’estime détenteur de la raison, décide de tout, dans le moindre détail ; les ménages et les entreprises n’ont plus qu’à exécuter. La statistique se confond alors avec l’administration. L’histoire a montré que, loin d’instaurer une ère de rationalité, 36. Macbeth, V, 5. 67
Partie 1. La statistique est intimement liée à la vie de la cité
les régimes de planification centralisée débouchaient sur l’inefficacité et parfois sur bien pire. Dans les démocraties modernes, les comportements individuels sont libres dans le cadre des lois en vigueur. Une action publique rationnelle nécessite alors une connaissance beaucoup plus fine de la société. En effet, une fois des objectifs fixés par des délibérations démocratiques, auxquelles la statistique contribue (cf. ci-dessous page 99), il faut choisir les moyens de les atteindre. Il faudrait pour cela, idéalement, connaître la diversité des situations, anticiper les réactions du public face aux décisions qui pourraient être prises, comprendre les mécanismes qui régissent les phénomènes sociaux. La statistique publique se situe dans cette perspective. Connaître la diversité des situations est par exemple nécessaire pour fixer les aides publiques attribuées aux personnes qui ne sont plus autonomes. Dans nos sociétés, les personnes âgées sont de plus en plus nombreuses et certaines d’entre elles ont besoin d’assistance pour vivre. La collectivité fournit une partie de cette assistance. Pour fixer le niveau et les modalités de son intervention en fonction des budgets alloués, il est nécessaire de s’appuyer sur un repérage statistique de la dépendance dans la population. Combien faut-il construire de logements ? À cette question, il n’est pas pertinent de répondre, comme beaucoup le font, en dénombrant les mal-logés sans prendre en compte le fonctionnement des institutions et des marchés et, en dernier ressort, les arbitrages des ménages eux-mêmes. Bien que ce soit difficile, il est indispensable de quantifier la « demande potentielle de logements » et la manière dont elle réagit aux incitations publiques de toutes sortes. Les causes des phénomènes sociaux sont multiples et enchevêtrées : face à un problème, les décideurs doivent souvent en privilégier une. L’action publique ne sera efficace que si c’était vraiment la cause principale. La sécurité routière est un bon exemple d’une telle problématique. Une nouvelle obligation est imposée aux 68
LE NOMBRE ET LA CITÉ
La statistique permet de rationaliser des politiques publiques
conducteurs pour diminuer le nombre de tués sur les routes : elle ne le permettra effectivement que si l’analyse qui la fonde prend correctement en compte tous les facteurs du risque et les comportements de tous les acteurs. À l’horizon de la rationalisation de la décision publique, il y a donc l’ambition d’une connaissance complète des phénomènes sociaux, que l’on peut juger utopique, voire folle. On en est loin en effet. Certains désespèrent d’y parvenir, et se tournent plutôt vers l’expérimentation et l’évaluation (cf. chapitre suivant). Au moins, souvent, des données de cadrage contribuent à maintenir la réflexion publique dans un cadre rationnel. Dans l’exemple du tourisme, il est exclu de comprendre les ressorts des décisions de tous les touristes ; la statistique permet seulement d’en recenser les impacts, éminemment variables, et de les situer à l’intérieur d’un intervalle. C’est peu pour orienter l’action publique : mais cela peut éviter certains excès.
3.1 VIEILLIR, OUI, MAIS DANS QUEL ÉTAT ET À QUEL COÛT ? Cafés de référence 28 et 73 (liste page 245)
Nous vivons de plus en plus vieux, ce qui est en soi une bonne nouvelle, mais nous devons faire face à des problèmes de santé qui n’étaient pas envisagés il y a une cinquantaine d’années. C’est ce que les experts appellent la transition épidémiologique (cf. sujet 8.1 : « La santé à tout prix ? »). En vieillissant, nous sommes confrontés plus fréquemment à des pathologies plus ou moins lourdes, mais aussi à des maladies chroniques invalidantes ayant des conséquences dans la vie de tous les jours. La dépendance est devenue un sujet de préoccupation majeur. Comment mesurer les besoins d’aide ? Comment y répondre ? La Caisse nationale de solidarité pour l’autonomie (CNSA) a été créée après la canicule de 2003 pour traiter ce « 5e risque de sécurité 69
Partie 1. La statistique est intimement liée à la vie de la cité
sociale » qu’est la dépendance37. Elle gère notamment l’allocation personnalisée d’autonomie (Apa) mise en place en 2002 pour permettre aux personnes âgées dépendantes de rester à domicile. En revanche, l’allocation compensatrice pour la tierce personne (ACTP), versée aux personnes handicapées ayant moins de 60 ans au moment de l’entrée dans le dispositif, est supportée par un autre budget, celui plus généralement consacré aux handicapés. On peut regretter le cloisonnement entre les différentes institutions concernées, d’autant qu’il paraît surprenant que ce seuil de 60 ans n’ait pas bougé alors que l’âge de départ à la retraite, lui, s’est déplacé. Les assureurs privés interviennent également sur le champ de la dépendance et/ou du handicap et proposent des prestations. Tant pour les personnes âgées que pour les personnes handicapées, l’enjeu est bien de définir les besoins qui justifient une prise en charge par les mécanismes de la redistribution sociale. Une grille d’analyse Autonomie Gérontologie Groupe Iso-Ressources (AGGIR) a été construite ; elle décrit les incapacités physiques et intellectuelles, ainsi que l’environnement, et établit un degré de dépendance. Un niveau d’incapacité résumant les situations en fonction de cette grille multidimensionnelle a été établi, variant de 1 à 6 (du plus grave au moins grave). Cet indicateur Gir est utilisé pour justifier l’attribution de l’Apa : un Gir entre 1 et 4 ouvre droit à cette allocation. Ce sont les équipes médico-sociales départementales qui procèdent à l’évaluation de ce niveau d’incapacité.
37. On distingue en France quatre types de risques qui justifient quatre branches de la Sécurité sociale : la branche Maladie (maladie, maternité, invalidité, décès) ; la branche Accidents du travail et maladies professionnelles ; la branche Retraite ; la branche Famille (dont handicap, logement, RSA…). Le 5e risque appelle la création d’une branche dont l’objectif serait de couvrir les risques de la vie liés à la dépendance, notamment du fait de l’avancée en âge, de la perte d’autonomie ou du handicap. 70
LE NOMBRE ET LA CITÉ
La statistique permet de rationaliser des politiques publiques
15
Nombre de personnes (millions) : – courbe du haut : soixante ans ou plus – courbe du bas : moins de dix ans d’espérance de vie. Sous la courbe du bas : espérances de vie à la naissance
10
5
67 ans
71 ans
75 ans
78 ans 80 ans
0 1920
1940
1960
1980
2000
Figure 10 | Évolution du nombre des personnes de 60 ans ou plus (courbe du haut) et des personnes ayant une espérance de vie de moins de dix ans (courbe du bas) – France (Source : Insee – Alain Colvez).
Environ 1,2 million de personnes de 60 ans ou plus sont actuellement bénéficiaires de l’Apa, dont 60 % vivant à domicile et 40 % résidant en établissement. Mais l’indicateur Gir n’est pas robuste, en particulier quand le niveau de dépendance n’est pas très important, quoique suffisant pour justifier une aide. On en donne souvent pour preuve les disparités d’attribution entre départements. Un autre indicateur est utilisé par les assureurs de l’assurance dépendance, l’index AVQ (activités de la vie quotidienne), correspondant davantage aux normes internationales. Ces dernières mesurent la capacité à réaliser six activités essentielles de la vie quotidienne et n’amalgament pas l’incapacité fonctionnelle et la détérioration intellectuelle. Les divergences portent sur les seuils d’intervention, qui apparaissent nettement plus sévères pour l’assurance : on observe 71
Partie 1. La statistique est intimement liée à la vie de la cité
que le versement des prestations des assurances se déclenche plus tardivement que celui de l’Apa, c’est-à-dire moins de temps avant le décès des personnes concernées. S’ajoutant à ces données administratives, le système statistique public fournit des informations sur les incapacités, notamment grâce aux enquêtes « Handicap, incapacité, dépendance » (1999), « Handicap santé » (2008/2009)38, et au dispositif « Capacités, aides et ressources des seniors » (Care)39. Ce dernier a pour objectif de suivre l’évolution de la dépendance, d’estimer le reste à charge lié à la dépendance et de mesurer l’implication de l’entourage auprès de la personne âgée. Le questionnement dans Care s’appuie sur plusieurs indicateurs de dépendance (indicateurs Gir, Katz sur la capacité à exercer les activités de la vie quotidienne, Colvez pour mesurer le besoin d’aide) et permet de cerner la population potentiellement éligible à l’Apa. Il semble que les personnes résidant à domicile sont globalement plus autonomes en 2015 qu’en 2008 : il reste à savoir si le phénomène inverse peut être observé dans les institutions, dans lesquelles les individus entrent de plus en plus tard. Au-delà de ce chiffrage, la statistique permet de mieux connaître les besoins d’aide, mais aussi de repérer les solutions apportées, y compris par la solidarité familiale ou de voisinage. Ces informations constituent un appui pour définir les politiques d’aide à destination des personnes ou des familles dans le besoin, que ce soient les aides techniques et aménagements du logement, les services d’aide à domicile ou l’aide à l’entourage, afin de maintenir plus longtemps à domicile des individus en situation de perte d’autonomie et à évaluer le coût de ces politiques.
38. Ces deux enquêtes ont été réalisées par l’Insee avec la participation de la Direction de la recherche, des études, de l’évaluation et des statistiques (Drees) du ministère de la Santé. 39. Dispositif géré par la Drees, avec la participation de la CNSA. 72
LE NOMBRE ET LA CITÉ
La statistique permet de rationaliser des politiques publiques
3.2 FAUT-IL CONSTRUIRE DES LOGEMENTS ? Cafés de référence 32, 64 et 92 (liste page 245)
On évoque depuis des années en France une crise du logement, parfois intitulée crise de l’immobilier après la crise financière de 2008. Les prix de l’immobilier, qui ont enregistré une croissance exceptionnelle de 2000 à 2008, puis une phase de ralentissement, sont repartis à la hausse depuis 2012. Au niveau national, la situation du logement est relativement bien connue, car il existe une masse d’informations considérable, issue d’enquêtes statistiques et de fichiers administratifs, portant sur les logements et leur prix. En 2013, 58 % des Français sont propriétaires de leur résidence principale, tandis que 20 % sont locataires dans le parc privé et 17 % dans le parc social40. Cependant, plus de 400 000 personnes ne disposent pas d’un logement personnel. Se loger est une nécessité vitale. Les pouvoirs publics ont institué en mars 2007 le droit au logement opposable41 (Dalo), dont la mise en œuvre s’est heurtée au manque de logements. Plus que sur un déficit d’ensemble, la difficulté porte sur la répartition géographique des logements : il y en a trop dans certaines zones – notamment les zones rurales, où nombre de logements sont vacants – et il n’y en a pas assez dans les très grandes villes, là où se concentre l’emploi, notamment à Paris. La question « Combien de logements faudrait-il construire ? » se pose cependant aux gouvernants. Y répondre ne repose pas seulement sur la maîtrise de dispositifs statistiques. La statistique peut fournir,
40. Source : Enquête Logement 2013. La majeure partie des 5 % restants sont logés à titre gratuit, souvent par l’employeur. 41. Le droit au logement opposable permet aux personnes mal logées, ou ayant attendu en vain un logement social pendant un délai anormalement long, de faire valoir leur droit à un logement décent ou à un hébergement (selon les cas) si elles ne peuvent l’obtenir par leurs propres moyens. L’État est garant de ce droit et doit faire reloger ou héberger les personnes reconnues prioritaires. 73
Partie 1. La statistique est intimement liée à la vie de la cité
sur la base d’hypothèses, un éclairage utile, mais la réponse relève de choix politiques. Il faut en effet prévoir la demande potentielle de logements très longtemps à l’avance. La démarche, classique, de projection sociodémographique se déroule en trois étapes : elle débute par la réalisation d’une projection de population en s’appuyant sur des hypothèses de fécondité, de mortalité et de solde migratoire. L’Insee produit ainsi régulièrement plusieurs scénarios. Ensuite se pose la question d’estimer le nombre de ménages qui existeraient dans cette population en tenant compte des modes de cohabitation : il faut notamment être capable de prévoir les ruptures de familles ou les phénomènes « Tanguy42 ». Cependant, le facteur le plus déterminant est le vieillissement de la population, qui se traduit par une augmentation du nombre des ménages comptant peu de personnes. Enfin, dans la dernière étape pour aboutir à ce volume de logements à construire, il faut à la fois émettre des hypothèses sur l’évolution de la part des logements vacants et des résidences secondaires pendant la période de projection (hypothèses liées à la conjoncture économique) et estimer les besoins de renouvellement du parc de logements. La demande potentielle de logements correspond au flux de construction neuve compatible d’une part avec l’évolution sur la période du nombre de ménages, et d’autre part avec les flux (destructions, fusions, éclatements, désaffections et réaffectations) qui touchent les logements. Des sources statistiques existent pour la plupart de ces informations, mais nombre des hypothèses sous-jacentes au modèle dépendent des prix des logements et des ressources des ménages, c’est-à-dire de facteurs qui peuvent évoluer en fonction des interventions de l’État. Renouveler le parc de logements en résorbant le mal-logement ou régler le cas des personnes sans logement représente un coût pour les budgets publics. 42. Par ce terme, référence est faite à un film où est évoqué l’âge auquel les jeunes quittent le foyer familial, âge qui est parfois élevé et qui dépend de la conjoncture économique. 74
LE NOMBRE ET LA CITÉ
La statistique permet de rationaliser des politiques publiques
40 38 36 34 32 30 28 26 24 22 20
1982
1988
1994
2000
2006
2012
2018
Figure 11 | Nombre de logements en France – millions (Source : Insee).
Le logement social Même en supposant qu’il soit possible de construire un volume suffisant de logements pour répondre à la demande, il n’est pas certain qu’il y ait adéquation entre leurs prix et les revenus des ménages concernés. L’accession à la propriété devient difficile pour les ménages modestes, voire quasiment impossible à Paris. Un indicateur pertinent est le taux d’effort des ménages, c’est-à-dire la part des dépenses de logement dans leur revenu. Il a augmenté très fortement pour les ménages aux revenus faibles et beaucoup moins pour les ménages aisés, ce qui engendre un sentiment d’injustice et d’inégalité pour l’accès au logement. Les ménages dont les ressources sont inférieures à un plafond fixé par la loi peuvent bénéficier d’un logement social. En 2000, la loi SRU (loi relative à la solidarité et au renouvellement urbain) impose à certaines communes43 de compter 20 à 25 % de logements sociaux parmi leurs résidences principales. L’objectif est notamment de favoriser la mixité sociale. Il n’est que partiellement atteint puisque la moitié seulement des communes concernées respectent les quotas légaux. 43. La loi SRU concerne 1 152 communes : les communes d’au moins 1 500 habitants en région parisienne et, ailleurs, les communes de 3 500 habitants ou plus faisant partie d’une agglomération de plus de 50 000 habitants. 75
Partie 1. La statistique est intimement liée à la vie de la cité
Les inégalités territoriales sont importantes dans l’accès à un logement social ; dans certaines localités, de nombreux logements sociaux sont vacants, dans d’autres, où la demande est très forte, le débat porte sur les critères d’attribution de ces logements. Dans ces zones tendues, la portée des réponses apportées par le logement social aux difficultés de logement apparaît assez faible, d’autant que les occupants du parc HLM sont peu mobiles. L’aide personnalisée au logement (APL) versée aux ménages est aussi discutée aujourd’hui : elle pèse plus de 20 milliards d’euros, ce qui n’est pas négligeable, dans les finances publiques. Elle est aussi soupçonnée, ce qui paraît plus contestable, d’inciter à la hausse des loyers. En diminuer le montant relève également d’une décision politique44.
3.3 ATTACHEZ VOTRE CEINTURE ! Cafés de référence 23 et 87 (liste page 245)
La mortalité sur les routes a beaucoup diminué, passant d’un pic de près de 18 000 morts en 1972 à moins de 4 000 ces dernières années. Les causes de cette chute spectaculaire sont nombreuses et pas toujours celles que l’on met en avant. Les gouvernements attribuent évidemment les progrès obtenus aux mesures qu’ils ont prises et cherchent à faire baisser encore le nombre de tués. C’est dire que l’accidentologie routière est l’objet d’une observation statistique attentive reposant à la fois sur des définitions précises et sur un dispositif national de recueil de l’information. Cependant, il a fallu attendre 2005 pour que la France, s’alignant sur les définitions internationales, dénombre un mort pour chaque décès survenu dans les trente jours de l’accident (au lieu de six jours auparavant) et un blessé pour toute personne hospitalisée au moins un jour (au lieu de six auparavant). L’information statistique recueillie est robuste pour le nombre de 44. Décision qui a été prise et s’applique depuis début 2019. 76
LE NOMBRE ET LA CITÉ
La statistique permet de rationaliser des politiques publiques
tués ; elle l’est beaucoup moins pour le nombre de blessés, qui est fortement sous-estimé, sans doute dans la proportion de un à deux. Les médias, qui reprennent amplement cette statistique macabre, ne font pas toujours des commentaires pertinents sur les chiffres. Ainsi, Le Figaro annonçait que le nombre de tués avait augmenté de 72 % en Corrèze de 2013 à 2014 (passage de 11 morts à 19) alors que ce pourcentage n’a pas de sens, s’agissant d’un effectif aussi faible, par nature très fluctuant. La communication officielle, exagérément simplificatrice ou erronée à l’occasion, ne fait parfois pas mieux… Dans la pratique, on suggère que la simultanéité de deux événements prouve que l’un est cause de l’autre. Cette logique inspire fortement les graphiques dans lesquels on juxtapose à la courbe descendante du nombre de tués les mesures successivement prises par le gouvernement, à l’effet de montrer qu’elles sont cause des progrès réalisés. Les explications sont plus compliquées. Ainsi, l’évolution de la mortalité routière doit prendre en compte le volume du trafic routier. Entre 1960 et 2013, le trafic mesuré en milliards de véhicules- kilomètres a été multiplié par sept ; rapporté à ce volume, le risque de mourir dans un accident de la route a été divisé par presque vingt grâce à un ensemble de progrès touchant les infrastructures, les véhicules et le comportement des conducteurs. En 1913, on comptait environ 300 tués par milliard de véhicules-kilomètres ; ce chiffre est tombé à moins de 5 de nos jours. Le pic de mortalité de 1972 est un effet mathématique plus que la manifestation de l’efficacité des mesures prises les années suivantes : la « mortalité » (nombre de tués) résultant de la multiplication d’un risque décroissant par un trafic croissant est passée par un maximum cette année-là (voir figure 12), et ce fut le cas pour l’ensemble des pays avancés vers cette époque. La crise pétrolière de 1973, qui a ralenti la croissance du trafic, a rendu plus visible ce maximum. Au surplus, en France, des réglementations efficaces ont été adoptées à la même époque : loi de 1970 sur l’alcool au volant, port de la ceinture de sécurité et du casque et limites de vitesse en rase campagne. 77
15 000
Partie 1. La statistique est intimement liée à la vie de la cité
5000
Décès
1960
1970
1980
1990
2000
2010
300
5000
1950
100
Véhicules x kilomètres (milliards) 1950
1960
1970
1980
1990
2000
2010
0
50
150
Décès par milliards de véhicules x kilomètres
1950
1960
1970
1980
1990
2000
2010
Figure 12 | Évolutions du nombre de tués par an, du trafic annuel et du quotient de ces deux grandeurs (Source : ONISR)45.
45. Ce diagramme illustre la légende de l’attribution de la fin de l’augmentation du nombre de tués à une prise de conscience collective et aux mesures de sécurité (loi de 1970 sur le taux d’alcoolémie et limitation des vitesses) prises au début des années 1970. En fait, le nombre de tués, résultat de la multiplication de la fonction croissante de trafic et de la fonction décroissante de tués par kilomètre parcouru, a connu – dans tous les pays développés et sans modification notable des réglementations – un maximum à cette époque. 78
LE NOMBRE ET LA CITÉ
La statistique permet de rationaliser des politiques publiques
Périodiquement, le débat sur la sécurité routière se focalise sur la vitesse. Mais d’autres facteurs conditionnent le nombre de victimes d’accidents de la route. Parmi les causes expliquant la baisse du nombre de tués sur les routes, les mains invisibles sont moins média tisées que les décisions gouvernementales. On en compte trois : le taux d’occupation des véhicules a baissé (2,3 personnes en 1960, 1,4 de nos jours) ; à trafic comparable, cela produit mécaniquement moins de tués. Par ailleurs, il y a de moins en moins de conducteurs novices (c’est-à-dire de conducteurs ayant moins de douze années de pratique de la conduite) ; de 70 % en 1960 et 50 % en 1970, leur proportion est tombée à 20 %. Enfin, troisième main invisible, le traitement des blessés s’est beaucoup amélioré et il y a donc moins de tués là encore. Il est frappant de constater qu’il y a peu d’études sur ces trois facteurs, si bien qu’on ne connaît pas leur importance relative ! Il reste que les principaux facteurs d’accidents sont l’alcool et la vitesse excessive. L’alcool est le premier facteur d’accident ; il est présent dans 11 % des accidents corporels et dans 28 % des accidents mortels. La vitesse moyenne, quant à elle, diminue peu à peu sous l’effet du permis à points et des radars. La drogue et le téléphone mobile concourent peu à peu à ce triste palmarès. Les statistiques montrent que la mortalité routière s’est concentrée autour de populations à risque qui fournissent la grande majorité des tués ou des causes de tués. Elles sont bien identifiées : populations marquées par l’alcool ou la drogue, conducteurs très novices, utilisateurs de deux-roues, personnes âgées, conducteurs de camion, etc.
3.4 LES DÉFERLANTES DU TOURISME Café de référence 56 (liste page 245)
Le tourisme prend une importance croissante dans nos activités. C’est aussi un secteur important dans l’économie de la France. 79
Partie 1. La statistique est intimement liée à la vie de la cité
Multiforme, il donne lieu à beaucoup d’information statistique. Mais celle-ci ne paraît pas toujours pleinement prise en compte par les décideurs. Tout d’abord, qu’est-ce qu’un touriste ? À première vue : quelqu’un qui voyage pour visiter. Mais l’Organisation mondiale du tourisme adopte une définition plus large : un touriste est une personne qui passe au moins une nuit hors de son domicile. C’est dès lors une notion hétérogène, qui recouvre de multiples types ou motifs de tourisme : d’affaires, de loisir, familial, de santé… Ces catégories ne sont du reste pas étanches : on peut profiter d’un déplacement professionnel ou familial pour visiter un site, assister à un festival. Parfois aussi, le sens d’un décompte peut surprendre : un Hollandais qui traverse la France en y dormant une nuit pour aller en Espagne où il reste trois semaines puis rentre chez lui avec une nouvelle étape en France est compté deux fois comme touriste en France et une seule en Espagne... De même, un déplacement (quel qu’en soit le motif) fait dans la journée n’est pas du tourisme, tandis qu’il le sera si l’on passe la nuit sur place. Comment savoir ? Où observe-t-on le touriste : au franchissement de la frontière ? par une enquête auprès des hébergements (hôtel, camping, gîte…) ? sur le lieu visité (musée, site archéologique, monument) ? auprès des transporteurs ? Selon le cas, on comptabilise, soit un nombre d’entrées et sorties (en ignorant le tourisme intérieur), soit des séjours et un total de nuitées, soit des visites, soit des trajets. Chaque mode d’observation a ses points aveugles. Tantôt on omet les entrées par des frontières dorénavant non contrôlées, tantôt on ignore les hébergements familiaux ou en résidence secondaire, tantôt les monuments sans droits d’entrée, tantôt les déplacements en véhicule personnel… Comment dresser un tableau d’ensemble à partir d’approches aussi disparates et de surcroît partielles ? On peut aussi, par une enquête au domicile, demander après coup le détail des déplacements effectués 80
LE NOMBRE ET LA CITÉ
La statistique permet de rationaliser des politiques publiques
au cours de l’année écoulée par exemple, leur motif, leur durée, les activités sur place, les dépenses, etc. Mais là, on ne saisit pas les touristes venus de l’étranger, alors qu’on inclura les séjours de Français à l’étranger... Comment assembler ces comptages dissemblables pour former une image d’ensemble ? Pour les séjours, l’idéal serait une mesure présentielle : une enquête de terrain portant sur tous les types de déplacement et mesurant sur place le temps passé. Ce serait très coûteux et compliqué. Un phénomène social majeur Malgré toutes ces difficultés, on peut obtenir un constat assez fiable des flux monétaires induits par le tourisme international, avec sans doute quelques sous-estimations. Ce constat confirme que le tourisme est une composante importante de l’activité économique. Dans le cas de la France, c’est un des secteurs les plus profitables à la balance des paiements, avec 17 milliards de solde positif en 2017 (cf. le tableau ci-dessous). Il faudrait néanmoins mettre en regard de ce bénéfice une part des coûts d’entretien d’infrastructures et des dépenses publiques de sécurité, ainsi que pour partie la dégradation de certains sites. Outre l’aspect économique, avec la définition large qu’on lui donne, le tourisme infuse presque toute la société. Il structure l’espace, commande les réseaux et les flux de transport, traverse nos agendas ; il est un vecteur majeur de la rencontre entre les personnes et de la diffusion des cultures. Et tout cela de façon disparate ! Certaines régions concentrent le tourisme de loisir, sport et détente, balnéaire ou de culture ; d’autres, les relations d’affaires ou d’études ; d’autres encore, le thermalisme...
81
Partie 1. La statistique est intimement liée à la vie de la cité
Tableau 1 | L’apport du tourisme à la balance des paiements (Source : Banque de France et Douanes).
Balance des paiements 2012
2017
Dépenses des touristes étrangers en France
52
54
Dépenses des touristes français à l’étranger
31
37
+ 21
+ 17
2012
2017
Solde de l’agriculture et des industries agroalimentaires
+ 11
+ 5,5
Solde de l’industrie automobile
− 3
− 10
Solde de l’énergie
− 69
− 39
Solde Statistiques du commerce extérieur
Unité : milliard d’euros
Une grande motilité Le plus notable est à l’évidence l’énorme fluctuation saisonnière. Emploi, utilisation des installations, trafic routier, ferroviaire ou aérien connaissent d’un mois sur l’autre des variations sans commune mesure avec l’évolution – lisse même lorsqu’elle est rapide – des technologies et des comportements. Lorsqu’une localité passe en quelques semaines de deux mille à cent mille résidents, puis revient quelques mois plus tard au niveau initial, cela signe une exceptionnelle capacité d’organisation, tant des services publics que des opérateurs privés. La difficulté conceptuelle et pratique que la statistique affronte pour saisir et décrire ce mouvement est en même temps le signe de cette variabilité : des vagues énormes se succèdent, qui ne sont à chaque fois ni identiques ni tout à fait prévisibles. Car cette variation, inscrite dans le rythme des saisons, les calendriers religieux et l’année scolaire, est de surcroît sensible aux caprices du climat, aux pollutions accidentelles et aux conflits politiques. Telle destination ordinairement très prisée se trouve brusquement délaissée, ce qui rend vains les préparatifs des 82
LE NOMBRE ET LA CITÉ
La statistique permet de rationaliser des politiques publiques
hôtes locaux et peut même compromettre l’économie d’un pays. Le flux qui fait ainsi défaut ne se reporte pas nécessairement ailleurs. La peur créée par un attentat, par exemple, dissuade même parfois les candidats à d’autres destinations. Au total, cette activité multiforme qu’est le tourisme affecte nos vies fortement et de diverses manières avec à la fois le retour annuel de fluctuations considérables et des aléas climatiques et politiques imprévisibles et durables. De tout cela, il semble bien nécessaire de mieux prendre la mesure.
Figure 13 | Population présente par jour en France métropolitaine en 2005 (millions) (Source : Direction du Tourisme). Lecture : Sur l’ensemble de 2005, la population résidente a été de 60,3 millions en moyenne (trait continu). Mais à aucun moment tous ces habitants n’ont été présents à la fois : il en a toujours manqué au moins 200 000 et ce déficit a culminé à 1,7 million le 13 août. Dans le même temps, les étrangers présents sur le territoire compensaient largement ces absences. Ils ont été jusqu’à 4 millions presque au même moment : le 11 août. De la sorte, le nombre total de personnes présentes simultanément excédait en permanence celui des résidents. Toutefois, les absences de résidents ne suivant pas le même calendrier que la présence d’étrangers : c’est à une date différente (le 26 juillet) que le maximum de population présente, soit 63 millions, a été atteint. En moyenne annuelle, la population présente s’établissait à 61,3 millions (trait tireté). Le même graphique, sur des territoires différents, par exemple sur un département, montrerait des profils très différents.
83
4 La statistique permet d’évaluer des politiques publiques
Rationnelles ou non, les politiques publiques tiennent une grande place dans la société. Si l’on ne se contente pas de les décrire, on peut tenter de les évaluer, en retenant de la démarche des sciences de la nature le paradigme de l’observation quantifiée, voire celui de l’expérimentation. C’est le point de vue qu’adoptent certains chercheurs en sciences économiques ou en sciences sociales, proches du politique. Mais l’évaluation n’est pas réductible à un travail de recherche. Le « b. a.-ba » de l’évaluation consiste à mettre en regard les moyens consacrés à une politique et ses résultats. Dans le cas de la recherche-développement, le politique souhaite par exemple pouvoir se prononcer sur l’efficacité de dispositifs très onéreux comme le crédit d’impôt recherche. Cela nécessite d’abord de bien cerner ce dont on parle : un manuel entier des Nations unies, le manuel de Frascati, est nécessaire pour le préciser. L’évaluation partage avec la statistique ce besoin de définir préalablement les concepts étudiés (voir le chapitre 85
Partie 1. La statistique est intimement liée à la vie de la cité
2 ci-dessus). La difficulté principale vient après : comment mesurer les effets de la politique publique ? Les indicateurs utilisés dans le cas de la recherche sont loin de faire l’unanimité. À supposer qu’on dispose d’indicateurs fiables et consensuels des résultats, il reste le problème redoutable de savoir si ces résultats sont bien l’effet de la politique publique considérée. Les résultats sont là, mais ils peuvent être dus à toute autre chose ! Alors se déploie l’ingéniosité des chercheurs qui s’attachent à dégager les liens de causalité entre leurs variables. Pour certains, rien ne peut remplacer l’expérimentation pour obtenir une certitude dans l’attribution des effets : ils proposent des expériences randomisées dans lesquelles une partie tirée au sort de la population est « exposée » à la politique publique, et confrontée à un groupe témoin46. Ils rejoignent là les pratiques de la recherche biomédicale pour l’évaluation des médicaments (cf. sujet 11.2 : « Statistique et vérification scientifique »). Cette doctrine ne fait pas l’unanimité dans le monde de la recherche en sciences sociales. Elle est critiquée aussi par ceux qui soutiennent que l’évaluation ne peut pas se réduire à un processus d’estimation statistique. Pour ces derniers, l’évaluation est un processus social en soi, aussi complexe que les politiques auxquelles il s’attache. Les modèles mathématiques ou les expériences ne peuvent pas suffire : la recherche du consensus par une discussion collective utilisant les observations est une condition d’une évaluation socialement fructueuse. C’est en particulier la position de la société savante du domaine, la Société française de l’évaluation. Compliquons encore la question : si l’effet d’une politique publique est prévisible et annoncé publiquement, les acteurs sociaux le prendront en compte dans leurs propres décisions. Cette rétroaction serat-elle une cause de renforcement ou d’affaiblissement de l’effet ? La lutte contre les bouchons routiers amorcée par Bison futé il y a plus 46. En économie, ce courant est illustré par toute une école de recherche, présente en particulier à l’École d’économie de Paris et au Centre de recherche en économie et statistique (Crest). 86
LE NOMBRE ET LA CITÉ
La statistique permet d’évaluer des politiques publiques
de quarante ans est un exemple simple mais instructif. L’évaluation des politiques publiques, à laquelle la statistique contribue indéniablement, reste un chantier d’avenir !
4.1 RECHERCHE ET DÉVELOPPEMENT : POUR LA CROISSANCE ? Café de référence 68 (liste page 245)
Depuis plusieurs décennies, l’Union européenne a encouragé les investissements dans les activités de recherche-développement et d’innovation afin de favoriser la compétitivité de l’Europe, stimuler la croissance économique et soutenir la création d’emploi. Comment juger de la pertinence de ces investissements ? La méthode L’efficacité des politiques publiques est estimée au moyen d’indicateurs qui mesurent les efforts de recherche d’un pays (intrants financiers et humains) tout en appréciant à la fois la production scientifique et technique et les résultats des activités de recherche-développement et d’innovation (extrants). Le premier indicateur d’intrant est l’intensité de la recherche, définie par le rapport de la dépense intérieure de recherche-développement (DIRD) et du produit intérieur brut (PIB) du pays considéré. Cet indicateur DIRD/PIB – dont la méthodologie est définie par l’OCDE47 – joue de plus un rôle central dans les comparaisons internationales. Il n’est pas le seul ! L’évaluation du volume des ressources humaines engagées dans les activités de recherche, développement et innovation ainsi que les résultats d’enquêtes auprès des entreprises sur leurs dépenses pour l’innovation fourniront d’autres indicateurs d’intrants. Les principaux indicateurs d’extrants reposent sur les statistiques des brevets et des publications scientifiques. Ils sont complétés par des indicateurs 47. Organisation de coopération et de développement économiques. 87
Partie 1. La statistique est intimement liée à la vie de la cité
issus des réponses des entreprises aux enquêtes sur leurs activités de recherche et d’innovation, dont les questions et définitions sont harmonisées au niveau international via le manuel d’Oslo. La France, en position moyenne, peine à améliorer ses performances La publication bisannuelle de l’OCDE48 Science, technologie et innovation : Perspectives passe en revue les principales tendances concernant la science, la technologie et l’innovation dans les pays membres de l’OCDE et quelques nations non membres. Pour chacun des pays étudiés, un profil individuel de ses performances en matière de science et d’innovation en relation avec la situation du pays et sa politique publique est disponible49. Aussi bien les indicateurs d’intensité de la recherche que ceux donnés par les publications scientifiques situent la France au-dessus des pays de l’Europe du Sud et de l’Est, mais derrière ceux de l’Europe du Nord et l’Allemagne (cf. figure 14). La France occupe une position moyenne au sein de l’OCDE. Elle se signale par trois caractéristiques : le poids élevé de l’État dans le financement comme dans l’exécution de la recherche ; la place modeste des universités par rapport aux grands organismes de la recherche publique (CNRS, Cnes, CEA…) ; le poids des grandes entreprises, au détriment des PME, dans les soutiens publics à l’innovation et à la recherche.
48. Cf. la dernière édition de 2016, accessible en ligne : https://www.oecd-ilibrary. org/fr/science-and-technology/science-technologie-et-innovation-perspectives-de-locde-2016_sti_in_outlook-2016-fr Et http://www.oecd.org/fr/sti/science-technologie-et-innovation-perspectives-del-ocde-25186175.htm 49. http://www.oecd.org/sti/oecd-science-technology-and-innovation-outlook25186167.htm 88
LE NOMBRE ET LA CITÉ
La statistique permet d’évaluer des politiques publiques
Suède Allemagne OCDE France Grande-Bretagne Italie Espagne Pologne
5
4
3
2
1
2000
2005
2010
2015
Figure 14 | Dépenses intérieures brutes de R et D en % du PIB (Source : OCDE).
Les pouvoirs publics ont pris différentes initiatives pour favoriser les transferts de technologie, la recherche et l’innovation dans les entreprises (par exemple : les pôles de compétitivité et le crédit impôtrecherche) ou encore renforcer les contacts des chercheurs français avec le reste du monde. Mais les organismes créés pour gérer ces nouveaux dispositifs n’ont pas fait disparaître les anciens. Il en résulte un système complexe, peu cohérent et peu efficace, car les budgets – constants – sont répartis sur un nombre croissant d’actions, dont aucune n’atteint la taille critique. À la recherche de nouveaux indicateurs L’usage de ces indicateurs et les comparaisons internationales permettent de mettre en place des politiques publiques visant à améliorer le retour sur investissement des activités d’innovation et de recherche-développement. Il n’en reste pas moins difficile d’apprécier la qualité des recherches ou des innovations. En effet, les nombres de brevets déposés, de publications scientifiques ou encore de citations 89
Partie 1. La statistique est intimement liée à la vie de la cité
d’un article scientifique ne sont pas directement le reflet de la qualité des travaux effectués. De surcroît, on peut se demander si l’émergence de différents classements internationaux50 constitue un moyen de fournir des indicateurs complémentaires pour appréhender le niveau de qualité des activités liées à la recherche…
4.2 ÉVALUATION ET RECHERCHE DU CONSENSUS Cafés de référence 8 et 90 (liste page 245)
À tout instant, nous évaluons : Vais-je acheter ceci ? Que penser de ce film ? Va-t-il pleuvoir ? Pour qui voter ? etc. Sur ce qui touche à la société, sur les affaires publiques, il en va de même. Ceux qui décident des politiques à suivre – ceux aussi qui les mettent en œuvre – ont à se demander ce qu’il convient de faire et si cela a porté ou portera ses fruits. Comme tout un chacun, ils ont souvent un jugement immédiat : fondé sur ce qu’on voit, l’idée qu’on s’en fait, la valeur – monétaire, morale, sentimentale – qu’on lui attribue. Or, nous n’avons pas tous les mêmes informations ni les mêmes critères de ce qui est efficace ou vain. Les opinions divergent selon la place qu’on occupe. Des indicateurs simples Comment les responsables politiques fondent-ils leurs appréciations et leurs décisions ? Sur quoi se fondent les citoyens qui approuvent ou qui contestent ? Pour caractériser la situation, justifier les projets ou juger après coup d’une disposition ou d’une action, on recourt souvent à un chiffrage. Celui-ci donne une apparence scientifique ; ce serait l’argument objectif qui va réconcilier les avis divergents. Le public est friand de palmarès : classements des pays, des hôpitaux, des lycées, des sportifs, popularité des hommes politiques… Depuis 50. Par exemple, le classement de Shanghai des universités constitue un élément central à l’initiative de la création de l’université Paris-Saclay : l’un des enjeux est de placer cette université française dans le top 10 mondial. 90
LE NOMBRE ET LA CITÉ
La statistique permet d’évaluer des politiques publiques
2006, la Lolf51 illustre pour les parlementaires chaque action des programmes étatiques par deux ou trois chiffres, au demeurant trop particuliers pour être bien significatifs. De tels indicateurs montent en épingle un aspect saillant, symbolique, mais anecdotique. Plus synthétiques, d’autres indicateurs chiffrés mesurent un peu mieux les effets attendus ou constatés : nombre de personnes concernées, indice de prix, espérance de vie, montant financier, etc. Ils rendent compte d’une situation d’ensemble, mais ne disent rien des inégalités sous-jacentes. Ou bien, on suppose que la partie représente le tout : prévalence d’une maladie, censée marquer le progrès médical ; nombre de brevets déposés, censé mesurer la vigueur de la recherche, etc. Choisir de tels indicateurs, les interpréter à bon escient, suppose de s’interroger sur ce qu’ils représentent. Le mot le dit bien : ils sont seulement indicatifs, c’est-à-dire qu’ils ne rendent pas compte de toute la complexité du monde. Ces indicateurs donnent le sentiment qu’on sait ce dont on parle, mais ils laissent tant dans l’ombre ! Peut-on s’en contenter ? De plus, on peut craindre que les acteurs de la politique en cause s’attachent à faire évoluer l’indicateur dans le sens qu’il désigne comme bon et délaissent l’essentiel ! Ou alors, on multiplie les indicateurs, on en fournit des dizaines, des centaines… et l’on s’y perd. Des études plus élaborées Une politique est toujours complexe. Le processus social ou économique qu’elle tente de saisir présente de multiples aspects, associe de multiples acteurs. Il entrecroise des logiques et des intérêts très différents, parfois antagonistes. Les effets s’étalent sur de longues périodes et il devient difficile de les attribuer à telle ou telle décision. 51. Loi organique sur les lois de finance, adoptée en 2001 et entrée en vigueur en 2006 : elle structure l’ensemble de l’action de l’État en plusieurs missions, chacune déclinée en programmes, eux-mêmes détaillés en actions. Pour chacune de celles-ci, quelques indicateurs chiffrés sont choisis et suivis dans le temps. 91
Partie 1. La statistique est intimement liée à la vie de la cité
Il est indispensable de distinguer : • des indicateurs d’état décrivant la situation : s’y référer permet d’expliciter en quoi quelque chose est jugé souhaitable, acceptable ou indésirable. Au regard de cette situation et des critères de valeur qu’on se donne, quels objectifs se fixe-t-on ? • des indicateurs d’action décrivant l’organisation, les différents rôles, les activités et les ressources qu’elles mobilisent. A-t-on fait ce qui était ambitionné ? • des indicateurs de résultat visant à saisir si les effets escomptés se sont ou non produits. Il ne suffit pas de faire beaucoup dans la direction prévue pour garantir que l’objectif a été atteint : ce que l’on croyait efficace ne l’a peut-être pas été, ou bien des conséquences indésirables sont peut-être apparues, ou encore, le coût a pu être disproportionné… À chaque stade – décision, exécution, résultat –, les acteurs et les actions s’entrelacent : ceci va dans le bon sens, cela va dans le m auvais sens. Les indicateurs montrent ce qui arrive, mais n’expliquent rien et l’esprit ne peut démêler les interférences. L’économie, la sociologie et le droit fournissent des modèles conceptuels, avec lesquels on bâtit des modèles fonctionnels. Ce sont des maquettes, des schémas, que l’on met en équations, que l’on nourrit de nombreuses données d’observation : la simulation sur ordinateur permet d’explorer différentes alternatives et de tester des hypothèses52 53. Pour ses partisans, cette manière de faire constitue en soi l’évaluation de la politique. Elle traite rigoureusement un problème bien 52. Un Café de la statistique (Café 8 – liste page 245) avait illustré cela sur la question de savoir si la mise en place des « contrats nouvelle embauche » avait créé les emplois escomptés ; et combien. Les analyses d’impact demandées pour éclairer l’élaboration de certaines lois peuvent aussi s’appuyer sur cette méthodologie. 53. Pour ce test, on compare le résultat escompté ou constaté avec ce qu’aurait été l’évolution sans l’intervention publique considérée. Cette évolution de référence s’apparente à ce que l’on appelle un « échantillon-témoin », par exemple lors d’un essai clinique pour la mise au point d’un médicament. 92
LE NOMBRE ET LA CITÉ
La statistique permet d’évaluer des politiques publiques
circonscrit. Elle prolonge le raisonnement au-delà de ce que l’esprit humain peut faire. Elle évite le dialogue oiseux des préjugés et l’emprise de groupes d’intérêts. D’autres font valoir que ces modèles simplifient inévitablement la réalité, laissant hors d’analyse des aspects et des mécanismes pourtant essentiels. Un consensus ? Une autre conception de l’évaluation se veut plus large. Elle distingue entre un programme, ensemble d’actions circonscrit (humaniser l’accueil dans les hôpitaux, favoriser l’investissement par des dispositions fiscales…) et une politique, stratégie globale dans un certain domaine (lutte contre l’insécurité, mission éducative de l’école…). Un programme, avec ses dispositions définies, se prête à la modélisation évoquée ci-dessus. Elle met les effets en évidence, de façon prévisionnelle ou rétrospective. En revanche, une politique laisse ouverte la liste des actions et des interlocuteurs. Et elle doit prendre en considération la diversité des aspirations. Il faut alors convier leurs porte-parole respectifs, conjointement avec ceux qui mettent en œuvre les décisions. Le collège ainsi constitué n’est pas une arène ni un lieu de négociation. Réuni à la demande d’un commanditaire – qui peut être le responsable de la politique en cause, mais pas nécessairement –, il ne cherche pas un consensus sur les valeurs et objectifs, mais, au contraire, sur le respect mutuel de leur diversité. Un appui technique lui est fourni, tant sur les matières traitées que sur la procédure d’évaluation elle-même. Il fait faire les études qui lui semblent appropriées. Il élabore une évaluation multicritères, dont chaque partie prenante tirera ses conclusions pour une meilleure coopération. Entre conflit d’opinions a priori et inaccessible harmonie, c’est la reconnaissance mutuelle de la légitimité de points de vue discordants : un peu de distance, de respect, de rigueur, de clarté partagée. 93
Partie 1. La statistique est intimement liée à la vie de la cité
4.3 PRÉVOIR LES BOUCHONS… POUR LES EMPÊCHER ! Cafés de référence 19 et 53 (liste page 245)
Citadins ou ruraux, tous les habitants se déplacent, pour les motifs les plus divers et en adoptant le mode de transport le mieux adapté à leurs besoins du moment. Ce peut être à pied, ce qui n’occasionne guère de problèmes collectifs. Mais dès que d’autres modes de transport sont utilisés, c’est toute l’organisation de l’espace public qui doit être pensée. Avec, pour les pouvoirs publics, des choix à faire concernant les transports publics, les aménagements routiers, la gestion autonome ou autoritaire des flux, la sécurité des personnes, les vitesses de déplacement, etc. Quantité de statistiques et d’études les aident à trancher chaque fois que la réponse à la demande engage de lourdes dépenses d’infrastructure. Les transporteurs ont leurs propres statistiques, tournées vers les trafics et muettes sur les motifs de déplacement des usagers. L’éclairage général pour l’ensemble de la population est fourni par plusieurs sources. Le recensement de la population permet d’apparier le domicile et le lieu de travail, mais ne dit rien des autres types de déplacement, ni des horaires et des modes de déplacement. Il faut pour cela des enquêtes spécifiques. Les plus importantes sont l’enquête nationale Transports-déplacements réalisée par l’Insee en 1993, en 2007/8 puis en 2018, les enquêtes Ménages-déplacements menées tous les dix à douze ans dans de grosses agglomérations et l’Enquête globale transports faite à intervalles réguliers depuis trente-cinq ans pour l’agglomération parisienne54. 54. Les enquêtes Ménages-déplacements sont commanditées par les agglomérations et réalisées selon une méthodologie approuvée par le Centre d’études sur les réseaux, les transports, l’urbanisme et les constructions publiques (Certu, incorporé depuis 2014 au Centre d’études et d’expertise sur les risques, l’environnement, la mobilité et l’aménagement, Cerema). L’Enquête globale transports en Île-de-France est commanditée par « Île-de-France Mobilités » (ex-Stif, Syndicat des transports d’Île-de-France) et réalisée avec l’appui du Certu et de l’Institut d’aménagement et d’urbanisme de cette région. 94
LE NOMBRE ET LA CITÉ
La statistique permet d’évaluer des politiques publiques
Enquêtes et études dessinent un panorama inattendu. Le nombre individuel moyen des déplacements quotidiens reste stable (3 à 4) et le temps qui leur est dévolu est quasi constant. Le Francilien consacre en moyenne 1 heure 30 à ses déplacements quotidiens, moyenne qui oscille dans un intervalle de quelques minutes seulement depuis des décennies. Comme toujours, les moyennes recouvrent des disparités : le seul trajet domicile-travail dépasse 2 heures pour environ un tiers des actifs occupés à Paris. Le mode de déplacement dépend de la localité. À Paris, on opte beaucoup pour les transports collectifs, alors qu’en grande couronne, l’écrasante majorité des déplacements se font en voiture. Moins une ville est dense et plus elle est petite, moins les transports collectifs sont utilisés. Le Francilien consacre 90 minutes à un trajet moyen de 20 km, inférieur à ce qu’il est ailleurs. Cela s’explique par le fait que la taille et la densité de la ville offrent plus d’opportunités pour une distance donnée : on a donc moins besoin d’aller loin, mais la diversité et la richesse des biens et services accessibles incitent à accepter des temps de déplacement plus longs. La vitesse moyenne des déplacements augmente. Cela signifie, puisque le temps de transport change très peu, que la distance parcourue s’accroît. C’est-à-dire que la population se distribue autrement entre les diverses longueurs de parcours. Certains économistes ont théorisé cela : si le Français veut des transports plus rapides, ce n’est pas pour consacrer moins de temps à ses déplacements, mais pour pouvoir accéder à un territoire plus vaste (son univers de choix d’utilités) en contrepartie d’un temps de déplacement constant. Grâce à une vitesse accrue d’un tiers, il augmente la portée de ses déplacements de 33 % et accède dans le même temps à une aire agrandie de 70 % ! Et dans cette aire, il trouve des opportunités accrues d’emploi, d’activités économiques, de rencontres, de loisirs, etc. L’activité générale et la production, donc la richesse collective, s’en trouvent rehaussées. Les tenants de 95
Partie 1. La statistique est intimement liée à la vie de la cité
ce raisonnement ne sont guère partisans de limiter la vitesse sur les routes… La mobilité recouvre aussi les grandes migrations estivales routières. Les calamiteux embouteillages du 2 août 1975 sont à l’origine de dispositions familières aux automobilistes, comme les prévisions et conseils de Bison futé. La statistique a joué un rôle original dans l’émergence des conseils dans une situation extrême. Pour disposer d’une image de ce qui risquait d’advenir l’été 1976, un questionnaire a été adressé aux 230 000 adhérents de la Prévention routière : Quand et à quelle heure avez-vous l’intention de partir en vacances, en partant d’où, pour aller où, et en suivant quel itinéraire ? 80 000 adhérents ont répondu, ce qui est exceptionnel. 4 000 3 000 2 000
+
+ +
1 000
Milliers d’heures perdues
+
Poursuite des tendances
+
+
1976
1977
+
0
+
+
1971
1972
1973
1974
1975
An
Figure 15 | Encombrements routiers pendant les quinze jours de pointe des étés 1971 à 1977 (Source : Centre national d’informations routières de Rosny).
Les résultats sont étonnants. Contrairement à toute attente, les trois quarts des automobilistes connaissaient, dès le début mai, le 96
LE NOMBRE ET LA CITÉ
La statistique permet d’évaluer des politiques publiques
jour et l’heure de leur départ en vacances d’été ! Avec des heures de départ très concentrées. D’où le conseil d’étaler les départs qui, assorti d’autres mesures, se révélera efficace. Ce qui est remarquable, sur le plan statistique, c’est que la collecte et l’interprétation de données dans des conditions risquées (puisque les 80 000 répondants au questionnaire n’étaient pas nécessairement représentatifs de l’ensemble des automobilistes55) ont permis d’anticiper par simulation toute une gamme de situations possibles, d’en tirer des conseils précis donnés à la population et d’obtenir le résultat voulu. Il ne fallait surtout pas que tous les automobilistes changent leurs intentions ! Un quart l’ont fait et cette imprévisible proportion s’est révélée très profitable. Ainsi, la statistique permet parfois d’anticiper. Du même coup émerge une considération troublante : ce qu’elle nous dit de l’avenir est susceptible de modifier nos comportements et alors de déjouer le pronostic…
55. Il est apparu a posteriori que cette représentativité était acceptable. 97
5 La statistique est un des fondements de la démocratie
Pour que la démocratie fonctionne bien, il faut une information de qualité et libre. La statistique – par ses travaux et par la diffusion qui en est faite – aide les citoyens à délibérer et à choisir sur de nombreuses questions de la vie collective. Presque tous les sujets évoqués dans ce livre pourraient être cités à l’appui de cette affirmation. Le problème des retraites est parmi les plus exemplaires. Depuis plusieurs décennies, la société française sait qu’elle doit l’affronter. Et, comme il est normal, des différends existent, tant sur le diagnostic que sur les remèdes. La statistique propose, sur la situation actuelle et sur les perspectives, un cadre d’information qui permet aux parties prenantes de construire leur dialogue. Dans le cas de la dette publique, c’est plutôt d’un contrôle que l’on doit parler : contrôle sur les implications financières et la soutenabilité des actions des administrations publiques. Depuis toujours, les finances de l’État concernent au plus haut point ses contribuables : 99
Partie 1. La statistique est intimement liée à la vie de la cité
aujourd’hui, les pays de l’Union européenne doivent en plus se comparer. La statistique européenne y contribue de façon déterminante. Deux exemples, donc, où le savoir des citoyens sur la société repose sur l’existence d’un appareil statistique fiable. On peut étendre ce propos. Dans nos démocraties modernes, la volonté générale ne s’exprime pas seulement par les élections. Chaque jour, les habitants donnent leur opinion sur les problèmes les plus divers, spontanément sur les réseaux sociaux ou de manière plus formelle au travers de multiples sondages ou de débats organisés par les médias. « L’opinion publique » est apparue depuis quelques décennies : quoi qu’on en pense – les doutes et les critiques ne manquent pas –, elle est désormais une composante incontournable du jeu démocratique. Or la statistique est au cœur de la mesure de l’opinion. Quand les contestataires estiment ne pas pouvoir se faire entendre autrement, ils ont toujours la solution de manifester. Les manifestations publiques, elles aussi, sont une composante de la vie démocratique. Elles prennent des formes diverses, mais, presque toujours, leur succès est d’abord jugé sur l’importance numérique de la mobilisation. La plus ancienne technique statistique, le comptage, est alors mise à l’épreuve de l’implication des parties en présence. La statistique, un fondement de la démocratie ? Le propos peut sembler excessif. Les Athéniens du ve siècle avant notre ère se passaient de statistique. La taille réduite de la communauté des citoyens de sexe mâle permettait que chaque membre de l’Assemblée connaisse la société tout entière. Lorsque les citoyens se comptent par millions, cette connaissance directe est impossible et il faut qu’une représentation s’y substitue. Représentation par des personnes, bien sûr : le Parlement constitue la « représentation nationale ». Mais aussi représentation par des chiffres et les commentaires qui les accompagnent, dont la validité est alors cruciale. Dans ces descriptions à visée politique, en démocratie, toutes les personnes, toutes les situations doivent compter : le recours à la statistique s’impose. 100
LE NOMBRE ET LA CITÉ
La statistique est un des fondements de la démocratie
5.1 DEMAIN, QUELLE RETRAITE ? Cafés de référence 17, 49 et 72 (liste page 245)
Au lendemain de la dernière guerre mondiale, la France a connu un « baby-boom », les naissances annuelles passant d’environ 600 à 800 milliers par an. Les générations correspondantes sont arrivées en masse à la retraite autour de l’année 2000. Aussi l’équilibre financier des systèmes de retraite est-il un sujet important. Faudra-t-il faire supporter à des cotisants de moins en moins nombreux un montant des retraites de plus en plus lourd ? Le système français, qui comporte de nombreux régimes de retraite aux règles très différentes, est particulièrement complexe. De nombreuses réformes destinées à améliorer son équilibre financier se sont succédé en 1993, 2003, 2010, 2013, le plus souvent dans l’urgence. Avec la création du Conseil d’orientation des retraites (Cor) en 2000 et les travaux conduits sous son égide, le consensus sur le diagnostic du problème a progressé, ce qui ne signifie pas bien entendu un consensus sur les solutions à retenir. Le Cor suit l’évolution des régimes et fait des propositions pour assurer leur solidité financière et leur fonctionnement solidaire. Chaque proposition de réforme s’appuie sur des estimations statistiques de ce que sera demain l’équilibre des différents régimes. Ces estimations, qui recourent à des projections démographiques, reposent sur des hypothèses d’effectifs de retraités et de cotisants. À ces effectifs, on attribue des niveaux de cotisation et de pension permettant en théorie de résorber les déséquilibres. Ces différentes étapes de calcul ne sont pas exemptes de faiblesses. Prendre en compte les migrations des années à l’avance est très incertain. L’incertitude sur le comportement futur des jeunes en termes d’activité est forte elle aussi, mais heureusement son impact sur le problème des retraites est faible. Il faut aussi imaginer la situation économique à venir ; cela passe par différents scénarios, car il est 101
Partie 1. La statistique est intimement liée à la vie de la cité
impossible de se prononcer sur le taux de croissance qui sera observé dans trente ou quarante ans. Pour garantir l’équilibre financier, trois leviers existent : accroître l’âge de départ à la retraite, augmenter les taux de cotisation, jouer sur le niveau de vie relatif des retraités (par diminution du taux de remplacement56 ou par désindexation des retraites). La réforme de 1993 a surtout porté sur le niveau de vie relatif des retraités (prise en compte du salaire des vingt-cinq meilleures années et non plus des dix meilleures pour les salariés du secteur privé, actualisation des salaires portés au compte sur les prix). Celle de 2003 a essentiellement joué sur l’âge de passage à la retraite (par augmentation des durées requises de cotisation pour obtenir le taux plein). C’est l’élément démographique qui joue un rôle majeur dans les déséquilibres actuels : la population vieillit par le haut, c’est-à-dire que l’espérance de vie des personnes âgées s’accroît. Même avec des hypothèses de productivité et de chômage très optimistes, l’équilibre financier des régimes de retraite n’est pas assuré. Et surtout, le système reste largement dépendant de la croissance économique à venir. Pour ce qui est du niveau de vie futur des retraités, les modèles de microsimulation permettent dorénavant de simuler la distribution de certaines variables dans la population, par exemple le pourcentage des retraités dont la pension serait inférieure au minimum vieillesse… et aident à estimer un niveau de vie prévisible. Cependant, les résultats sont fonction de la pertinence et de la qualité des données contenues dans les fichiers sur lesquels sont calibrés ces modèles… Or la qualité des données dans les systèmes de gestion des retraites est assez hétérogène.
56. Le taux de remplacement est le rapport de la pension de retraite au salaire antérieur. 102
LE NOMBRE ET LA CITÉ
La statistique est un des fondements de la démocratie
18
16
14
12
10
8
6 Cotisants Retraités
4 1980
1990
2000
2010
Figure 16 | Nombre de cotisants et nombre de retraités (y compris droits dérivés) en France de 1975 à 2015, en millions (Source : Insee).
Des choix plus politiques que techniques Les réformes précédentes jouent seulement sur les paramètres du système et atteignent leurs limites. Compte tenu de la faiblesse vraisemblable de la croissance future, la réflexion se porte désormais vers des réformes plus structurelles qui touchent au fonctionnement du système. Deux dispositifs assez proches, tout en restant dans un régime par répartition, sont nettement moins sensibles aux effets de la croissance économique : le régime par point et le régime de compte notionnel. Dans le régime par point, qui gouverne déjà les retraites complémentaires du secteur privé, les cotisations permettent d’accumuler des « points » qui seront convertis en euros de pension au moment de la retraite. Dans le régime de compte notionnel, chaque individu dispose d’un compte virtuel, et d’un capital virtuel revalorisé chaque année. Le coefficient de conversion dépend de l’âge de départ à la retraite et de l’espérance de vie à cet âge. 103
Partie 1. La statistique est intimement liée à la vie de la cité
La mise en place de tels dispositifs impose une harmonisation des différents régimes et dépend de décisions politiques. Ces nouveaux dispositifs, s’ils conduisent à une meilleure maîtrise future, ne résolvent pas pour autant les déséquilibres accumulés dans le passé : Comment honorer les droits acquis ? Comment traiter la dette passée ? Qui doit payer ? La réponse relève là encore du politique au sens plein du terme.
5.2 LA DETTE PUBLIQUE, UNE VALEUR MONTANTE Café de référence 40 (liste page 245)
L’endettement public engage l’avenir de chaque citoyen, voire de ses descendants. Dans un pays démocratique, il est donc naturel que le débat politique porte sur son niveau et son évolution ainsi que sur les mesures à prendre pour gérer la dette publique au mieux de l’intérêt collectif. Au sein de l’Union européenne, la dette et le déficit publics sont définis par le traité de Maastricht de 1992. Ce sont la dette et le déficit des « administrations publiques » au sens de la comptabilité nationale. Le déficit public est la différence entre leurs dépenses (de fonctionnement et d’investissement) et leurs recettes. La dette publique est brute (sans déduction des actifs), consolidée (on élimine les créances et dettes réciproques), exprimée à sa valeur faciale et ne comprend que des engagements contractuels57.
57. Cela exclut la dette des régimes obligatoires de retraite envers leurs pensionnés et cotisants. Cette dette repose en effet sur une réglementation qui peut être unilatéralement modifiée. Selon les projections du Conseil d’orientation des retraites (Cor), les déficits cumulés des régimes français de retraite de 2010 à 2050 représenteraient, à législation inchangée, environ 100 % du PIB. 104
LE NOMBRE ET LA CITÉ
La statistique est un des fondements de la démocratie
0 -1
120 100
-2 -3 -4 -5
80 60 40
-6 -7
0
19
79 19 81 19 83 19 85 19 87 19 89 19 91 19 93 19 95 19 97 19 99 20 01 20 03 20 05 20 07 20 09 20 11 20 13 20 15 20 17
-8
20
Figure 17 | Déficit (courbe en noir, échelle de gauche) et dette (courbe en gris, échelle de droite), au sens du traité de Maastricht, des administrations publiques françaises en % du PIB (Source : Insee).
Le déficit et la dette publics sont calculés dans chaque pays membre de l’Union par l’institut statistique national (en France par l’Insee – Institut national de la statistique et des études économiques). Eurostat58 est chargé de contrôler et valider les chiffres. Le panorama d’ensemble est celui d’un endettement public important et croissant dans beaucoup de pays, y compris en dehors de l’Union européenne. Chacun sait que le traité de Maastricht limite à 3 % du PIB le montant du déficit public annuel et à 60 % du PIB celui de la dette publique. La France ne respecte pas ces critères, même si elle s’efforce depuis des années de repasser sous la barre des 3 % de déficit59. Sa dette dépasse depuis 2003 le plafond de 60 % du PIB et elle a presque quadruplé de 1980 à 2010, avec un accroissement rapide de 2007 à 2009. Elle se situe à peu près dans la moyenne de la zone euro et de l’Union européenne et elle est détenue à hauteur de 60 % par des non-résidents. Son augmentation résulte principalement
58. Eurostat est l’office statistique de l’Union européenne. C’est une direction générale de la Commission. 59. Le déficit est passé sous la barre des 3 % en 2017 ! Il avait atteint 7,5 % du PIB en 2009. 105
Partie 1. La statistique est intimement liée à la vie de la cité
du déficit des administrations publiques enregistré chaque année, sans exception, depuis 1980. Les critères de Maastricht n’ont rien de scientifique : ils résultent d’un accord politique entre l’Allemagne et la France. Dans le contexte économique de l’époque, un déficit plafonné à 3 % était jugé compatible avec un niveau d’endettement stabilisé à 60 % du PIB. En réalité, personne ne sait à partir de quel seuil d’endettement un danger financier apparaît. La seule chose certaine est que le risque de défaut de paiement croît avec le niveau de la dette, surtout si les taux d’intérêt augmentent. Or, il est d’autant plus difficile de stabiliser la dette qu’elle est déjà élevée. En effet, pour la stabiliser, il faut dégager un excédent primaire60 d’autant plus fort qu’elle est importante. Et pour augmenter l’excédent primaire, il faut soit relever les prélèvements obligatoires, soit réduire les dépenses, faute de quoi la dette croît de manière exponentielle sous l’effet de boule de neige des intérêts. Au moins, l’endettement public est-il propice à la croissance économique ? Ici s’opposent les thèses de Keynes et de Ricardo. Pour les keynésiens, le déficit public a un impact favorable sur la production nationale parce qu’il augmente les ressources des ménages et des entreprises. Pour les économistes ricardiens, c’est le contraire qui se passe : constatant que la dette s’accroît, les ménages pensent que les impôts vont augmenter ; ils se mettent à épargner, ce qui annule les effets keynésiens du déficit. La controverse entre eux se poursuit… Quoi qu’il en soit, l’endettement public ne saurait croître indéfiniment sans qu’apparaisse le risque de défaut, voire de cessation, de paiement. Un État ainsi défaillant ne pourra pas revenir sur les marchés financiers avant longtemps et ne pourra redresser la situation qu’au prix de décisions aussi impopulaires qu’appauvrissantes pour ses ressortissants.
60. Recettes moins dépenses hors charges d’intérêt. 106
LE NOMBRE ET LA CITÉ
La statistique est un des fondements de la démocratie
200 180 160 140 120 100 80 60 40 20 0
l e e e i 9 8 e e e s e e k e g e e e èc tali tuga iqu anc agn -Un E 1 E 2 rich and agn -Ba ogn uèd mar ani our oni I r lg Fr sp e Z U ut Irl m ys ol S ne itu b st o e m E E aum P B le Pa P A Da L uxe Al y L Ro
Gr
Figure 18 | Dette publique au sens du traité de Maastricht fin sept. 2018 en % du PIB (Source : Eurostat).
Dès lors, on conçoit l’importance d’une mesure fiable des grandeurs en cause, reposant sur des statistiques nationales de qualité. On a beaucoup reproché à Eurostat de ne pas contrôler suffisamment celles-ci. Le cas de la Grèce est éclairant. De son propre aveu, ce pays a maquillé ses comptes. Cela n’avait pas échappé à Eurostat, qui avait émis des réserves et demandé en vain des rectifications. La situation s’est aggravée en 2009 : à la prévision initiale de déficit pour 2009 (3 à 4 % du PIB), le nouveau gouvernement a substitué l’annonce d’un déficit de 12 % et déclaré que celui de 2008 avait été sous-estimé de 3 points de PIB. Eurostat n’avait, de fait, pas eu les moyens politiques de dénoncer ce qui se passait. Cette affaire a illustré la nécessité d’une bonne gouvernance statistique et économique dans chaque État de l’Union et d’un réel pouvoir de contrôle donné à Eurostat.
5.3 CAPTER L’OPINION PUBLIQUE OU LA FORGER ? Cafés de référence 45, 70, 91 et 102 (liste page 245)
« L’opinion publique n’existe pas », disait Pierre Bourdieu en 1972. Pourtant, la profusion d’enquêtes d’opinion par sondage montre 107
Partie 1. La statistique est intimement liée à la vie de la cité
bien que l’on cherche à la connaître pour prédire, pour agir, pour comprendre. On ne sait pas si l’opinion publique existe, mais on en parle et on essaie même de la mesurer à l’aide d’outils statistiques dont parfois on se demande s’ils servent ou non la démocratie. L’opinion publique peut être définie comme étant l’ensemble des convictions et des valeurs plus ou moins partagées par les membres d’une société donnée. Mais comment passe-t-on des opinions personnelles à un résultat collectif, notamment lorsque ces opinions recouvrent une grande diversité ? Ces dernières années, les sondages d’opinion ont fleuri en abondance. Pierre Bourdieu y voyait un instrument de domination. La question se pose en effet de savoir si l’opinion collective existe indépendamment des sondages ou si elle est créée par eux. Il est possible que les enquêtes cristallisent la fabrication de l’opinion. C’est l’expérience des votes de paille organisés aux États-Unis au début du xixe siècle avant les grandes élections qui semble avoir donné naissance au concept d’« opinion publique ». Ces votes correspondaient à des simulations de joutes électorales entre journaux, participant ainsi à l’élaboration de l’opinion. L’influence des sondages sur les convictions est indiscutable, même si on ne sait pas bien comment elle opère. Leur profusion, accompagnée d’une diffusion de plus en plus massive, plonge parfois aussi la population dans la confusion. L’utilisation d’Internet, maintenant courante pour réaliser ce type d’enquêtes, les rend de plus en plus fiables, même si elle pose le problème de la couverture des populations qui ne sont pas équipées. De nombreuses expérimentations sont faites, comme de vérifier systématiquement l’effet de la formulation et de l’enchaînement des questions sur les réponses, pour éventuellement modifier l’instrument utilisé. Il est possible aussi de contrôler la cohérence des réponses en multipliant les questions. Les enquêtes en ligne présentent d’autres avantages : les coûts sont peu élevés, la désirabilité sociale (c.-à-d. le fait de vouloir donner une image de soi socialement acceptable) se manifeste beaucoup moins, et les contrôles de la qualité des données 108
LE NOMBRE ET LA CITÉ
La statistique est un des fondements de la démocratie
sont plus aisés. Ces contrôles se sont d’ailleurs améliorés ces dernières années. Par ailleurs, en ligne, on peut expérimenter des outils visuels, comme faire réagir les personnes interrogées sur des photos de personnalités politiques. Mais quelle est la validité des enquêtes d’opinion alors que les personnes qu’on veut interroger sont de plus en plus difficiles à joindre et de plus en plus réticentes à répondre aux questions posées, qu’elles soient lasses car trop souvent sollicitées ou qu’elles n’aient pas confiance dans les résultats que l’on en tire ? (cf. sujet 14.1 : « Ditesnous ce que vous pensez ») Ces difficultés rendent ardue la constitution d’un échantillon représentatif de la population concernée.
Figure 19 | Capter l’opinion publique (Source : https://pixabay.com/fr/photos/foule/).
Les enquêtes d’opinion présentent d’autres limites : les réponses dépendent de la manière dont les questions sont formulées et dont elles sont comprises. Elles sont tributaires du moment où ces questions sont posées, de leur ordre ainsi que de celui des thématiques abordées. Tout le monde n’a pas nécessairement une opinion sur tout, ou envie de la livrer. Comment répondre à une question que l’on ne se pose pas ? La désirabilité sociale peut orienter les réponses et les rendre peu sincères. Des questionnaires et/ou enquêteurs susceptibles 109
Partie 1. La statistique est intimement liée à la vie de la cité
d’être marqués politiquement peuvent être à l’origine de blocages, surtout avec la montée des opinions extrêmes. Tous ces aléas peuvent rendre incertaine l’interprétation des réponses. Cela suffit-il à condamner l’usage des enquêtes d’opinion ? Les sondages apportent de l’information et occupent aujourd’hui une place majeure dans le débat public. Leur multiplication depuis un demi-siècle a profondément transformé la vie politique d’un pays comme la France. Ils sont clairement liés à la forme démocratique des systèmes politiques : il ne peut y avoir de sondage crédible dans les pays où l’individu n’est pas libre de sa parole. Mais, à l’inverse, certains s’interrogent : la démocratie se porterait-elle plus mal s’il n’y avait pas de sondages ? Leur irruption sous la Ve République constitue-t-elle une avancée ou un recul – voire un danger – pour la démocratie ? Des résultats annoncés comme quasi certains lors de sondages électoraux ne dessaisiraient-ils pas les citoyens de leur faculté de délibération et de vote ? Théoriquement, les sondages pourraient faciliter la relation entre les dirigeants et la population en donnant l’occasion aux décideurs de tenir compte des attentes des citoyens, des usagers ou des clients. Les politiques pourraient les utiliser pour connaître ou anticiper les effets d’une décision, alors qu’ils s’en tiennent souvent à des indications réductrices sans se préoccuper de subtilités. Peut-être une plus grande pédagogie les aiderait-elle à faire des analyses plus fines ? Et à prendre en compte les corrélations entre un ensemble de questions pour aboutir à de bonnes interprétations ? Le public aussi pourrait avoir une meilleure connaissance de cet outil et de ses limites, outil dont les spécialistes doivent favoriser une utilisation plus précise et plus rigoureuse61.
61. Voir sur ce sujet le livre de Loïc Blondiaux, La Fabrique de l’opinion (1998). 110
LE NOMBRE ET LA CITÉ
La statistique est un des fondements de la démocratie
5.4 MANIFESTEZ, MANIFESTEZ, IL EN RESTERA TOUJOURS QUELQUES CHIFFRES ! Café de référence 88 (liste page 245)
Le nombre de manifestants permet d’apprécier le degré de mobilisation d’une population pour ou contre tel ou tel événement, projet ou décision. En France, et particulièrement à Paris, le comptage des manifestants par la préfecture de police remonte au moins aux années 1960. Déjà à cette époque, il était source de controverses et des écarts importants s’observaient entre les évaluations des organisateurs et celles de la police. Ces dernières années, ces écarts se sont encore creusés, pouvant varier d’un rapport de un à trois voire quatre. Face à ce constat, soit on considère, comme dans les pays anglosaxons ou en Allemagne, que le comptage est inutile, soit on essaie de mettre en place des méthodes robustes conduisant à des ordres de grandeur fiables et partagés. La préfecture de police de Paris… Peu de temps avant la manifestation, la préfecture de police réalise une prévision du nombre de manifestants qui s’appuie sur les moyens logistiques et de transport prévus par les organisateurs, de manière à pouvoir installer les conditions matérielles du comptage lors de la manifestation. Cette prévision prend la forme d’une fourchette62. Pendant la manifestation, la préfecture installe le plus souvent deux points d’observation, en hauteur par rapport aux manifestants. À chacun de ces points, des fonctionnaires de police très expérimentés et formés pour ce travail comptent les manifestants à mesure qu’ils passent devant eux pendant toute la durée de la manifestation. Ces deux équipes opèrent indépendamment l’une de l’autre. Leurs 62. C’est-à-dire d’un intervalle à l’intérieur duquel le vrai chiffre est réputé se trouver. 111
Partie 1. La statistique est intimement liée à la vie de la cité
résultats sont confrontés, et l’évaluation la plus élevée est retenue. Ensuite, le directeur du renseignement à la préfecture augmente l’évaluation de 10 % : ce redressement est destiné à faire face à un biais éventuel dans le sens de la sous-estimation. Le chiffre est alors communiqué aux médias, et ce sera le seul. Deux jours après la manifestation, pour une vérification, les films enregistrés par la préfecture de police (qui permettent de visionner toute la manifestation) sont utilisés pour un nouveau comptage, cette fois à tête reposée. Il s’avère que ce chiffre résultant du visionnage est presque toujours plus faible que celui qui a été établi immédiatement après la manifestation, mais il n’est jamais communiqué. Une commission d’experts63. a été mise en place au printemps 2014 par le préfet de police de Paris. Elle a travaillé pendant une année et a validé la méthode en l’assortissant de recommandations. Cette méthode permet d’obtenir un ordre de grandeur fiable pour la plupart des manifestations. Elle doit toutefois adapter les caractéristiques du comptage aux caractéristiques de la manifestation, notamment sur le nombre et la localisation des points de comptage, la recherche d’un outil plus perfectionné que le compteur manuel, la publication du comptage en différé par visionnage. Enfin, il serait souhaitable de publier une fourchette plutôt qu’une évaluation unique. … et les autres Quant aux organisateurs de manifestations, lorsqu’ils comptent, ils ne font pour certains, de leur propre aveu, que des décomptes ex ante, à partir des nombres de cars ou autres moyens de transport utilisés pour acheminer des manifestants. D’autres se basent sur la longueur du défilé, la largeur des rues, le nombre de personnes par rangée et la vitesse à laquelle avance le cortège.
63. Cette commission n’était chargée d’examiner le problème du comptage des manifestants que pour Paris et non dans l’ensemble du pays. 112
LE NOMBRE ET LA CITÉ
La statistique est un des fondements de la démocratie
Même si la méthode de la préfecture de police n’est pas parfaite, en raison du mouvement des personnes, elle semble la plus fiable, au moins pour les manifestations habituelles, à condition de prendre les chiffres pour des ordres de grandeur en les insérant dans des intervalles. Pour des manifestations exceptionnelles, comme celle en réaction aux tueries de Charlie Hebdo et de l’Hyper Cacher de Vincennes en janvier 2015, cette méthode ne peut pas être pratiquée, faute d’être adaptée à la multiplicité des itinéraires, aux rassemblements pour partie statiques et à la présence de la foule sur les trottoirs.
Figure 20 | Combien sont-ils ? (Source : https://pixabay.com).
Depuis peu, les directeurs de rédaction de plusieurs médias réfléchissent à la mise en place de leur propre procédure de comptage. Ils envisagent de s’appuyer sur les services d’une société (Occurrence) dont les agents, placés en hauteur, tracent une ligne virtuelle en travers de la rue : chaque manifestant qui la franchit (dans le sens de la manifestation uniquement) est comptabilisé. Les trottoirs sont pris en compte. Le chiffre brut est corrigé à l’aide de microcomptages humains menés en parallèle. Le défilé est filmé pendant des séquences d’une trentaine de secondes. Les manifestants sont recomptés humainement. Cette méthode a été utilisée à plusieurs reprises. Lors de la manifestation du 12 septembre 2017 (contre la réforme du Code du travail), Occurrence expliquait ainsi avoir compté 29 000 personnes dans la capitale (24 000 d’après la police, 60 000 d’après la CGT). Lors de la manifestation de la fonction publique à Paris le 10 octobre suivant, cette société comptait 22 705 manifestants, contre 26 000 selon la police et 45 000 selon les organisateurs. 113
Partie 1. La statistique est intimement liée à la vie de la cité
À terme, il faudra s’assurer que les recommandations de la commission d’experts sont mises en œuvre. Il reste également un problème de fond : comment organiser les discussions avec les organisateurs de manifestations, notamment les organisations syndicales, pour arriver à un accord sur un ordre de grandeur, sachant que le comptage doit rester de la responsabilité de l’État ?
114
LE NOMBRE ET LA CITÉ
6 La statistique n’a d’utilité que si elle est indépendante
La statistique participe à l’action publique. Dès lors, dans la plupart des pays, elle est organisée par l’État. Elle guide les politiques comme elle sert les activités privées ; et elle aide les citoyens dans leurs jugements. Ainsi doit-elle être indépendante du pouvoir politique, alors que paradoxalement elle est établie par des agents publics qui sont sous son autorité64. Lorsqu’un Café de la statistique65 a abordé ce sujet, plus encore que pour les autres, la pluralité des participants a enrichi l’échange : celui-ci, pour la plupart des thèmes, s’établit entre ceux qui le connaissent et ceux qui, concernés, voudraient s’en informer. Mais ici, on discutait, de façon générale, du besoin même et de la possibilité d’un discours factuel : d’un discours qui éclaire – au 64. Est essentiellement visé ici le cas des statisticiens. Mais l’exigence d’indépendance s’étend aussi aux agents publics qui, pour les besoins de l’action publique, prescrivent des travaux statistiques effectués par des agents privés. 65. Café de référence 6 (liste page 245). 115
Partie 1. La statistique est intimement liée à la vie de la cité
besoin malgré elles – les forces en présence dans le débat social. Là, croiser les points de vue et les expériences était essentiel. Une tension inévitable Car, dès lors que l’information – information sur la société – a un usage social, une tension se crée entre ceux qui l’apportent et ceux qui en usent. Cela, tant pour l’appareil public de statistique que pour les enquêtes d’opinion publiées par des instituts privés. En France – et, sous des formes en général différentes, dans beaucoup de pays –, l’appareil statistique public constitue un maillage à la fois géographique (national et régional) et sectoriel66. Fonctionnaires, les statisticiens publics se trouvent sous l’autorité de ministres. Ils doivent agir au service de la nation, sans céder à ceux qui tentent de plier l’information à leur action ou d’infléchir l’évaluation qu’on porte sur elle et sur eux. L’histoire a été et demeure riche en frictions plus ou moins vives entre statisticiens et gouvernants. Curieusement, les politiques portent moins intérêt à l’amont – la décision d’observer et analyser tel sujet – qu’à la publication des résultats, à ce qu’ils disent et à l’opportunité du moment où ils sortent. C’est, fondamentalement, que le tempo de la politique et celui de la statistique sont très différents. Quand bien même les gouvernants prennent des décisions à longue portée, les contingences politiques sont souvent immédiates ; tandis que les produits de la statistique demandent des investissements très antérieurs. Chez les statisticiens publics, une forte tradition d’indépendance s’est constituée, dont l’assise juridique ne s’est instituée que plus récemment. Un autre débat porte sur la partie aval de la chaîne {recueil de données → calcul de résultats → interprétation → jugement}. Jusqu’à quel point la statistique doit-elle accompagner ce qu’elle produit ? Recueillir et traiter des données répond toujours à une finalité de connaissance plus ou moins spécifiée. Accompagner le résultat brut 66. Par domaines, correspondant peu ou prou aux attributions ministérielles. 116
LE NOMBRE ET LA CITÉ
La statistique n’a d’utilité que si elle est indépendante
en disant pour quoi et comment on l’a établi semble nécessaire. Qui ensuite est le mieux à même de placer ce résultat en regard d’autres ? Puis, de dire ce que cela signifie quant à la situation ou l’évolution économique et sociale ? Et enfin, d’orienter le jugement à porter sur celle-ci ? Même si le politique et le concepteur de la statistique s’étaient parlé initialement, celui-ci veut garder la main sur le sens et celui-là veut la reprendre sur l’usage. Quelle évolution ? Bien que la statistique soit par nature d’intérêt public – outre que seul l’État puisse en supporter le coût67 –, le législateur n’en a d’abord guère réglé les rapports avec la société ni avec le pouvoir. Malgré quelques antécédents, ce n’est qu’à partir des années 1980 qu’on a révisé et surtout développé les textes nationaux et internationaux68. L’indépendance en est un des points majeurs. Auparavant, elle était essentiellement vue comme une valeur professionnelle : c’était la pratique qui créait la règle. Le droit vient ainsi confirmer et renforcer ce qui se négociait difficilement. Une option pouvait être de dessaisir l’État de la fonction statistique. Fallait-il alors la laisser à l’initiative privée ? L’investissement 67. Le besoin de résultats portant sur de multiples domaines et problématiques et la nécessité de résultats descendant parfois à un niveau géographique fin impliquent le recueil de données auprès d’échantillons de plusieurs dizaines de milliers de personnes, voire un recensement étendu à l’ensemble de la population. D’où des milliers d’enquêteurs permanents ou occasionnels, des personnels chargés du contrôle et du traitement, des équipements informatiques importants et des spécialistes pour concevoir les opérations et interpréter les résultats. Une autre dimension étant d’assurer le mieux possible que l’ensemble des personnes sollicitées répondent et donc qu’une disposition légale les y contraigne ou du moins donne aux enquêtes un statut d’intérêt public qui suscite la coopération des citoyens. 68. Parmi les premières, dans la loi des Pays-Bas, la reine édictait : « Il est interdit à notre ministre de donner des ordres à notre statisticien. » En 1985, l’Institut international de statistique adoptait une Déclaration d’éthique professionnelle. En 1992, l’Onu énonçait des Principes fondamentaux de la statistique officielle. En 2005, l’Union européenne promulguait un Code de bonnes pratiques de la statistique européenne. Auparavant, le Fonds monétaire international avait de son côté édicté des règles de publication, qui ont été largement adoptées de par le monde. 117
Partie 1. La statistique est intimement liée à la vie de la cité
nécessaire n’était pas commercialement rentable, sauf à faire payer très cher à quelques-uns des informations d’intérêt collectif dont le grand nombre serait privé. Et la concurrence ne suffirait pas pour conjurer les productions mal fondées ou tendancieuses69. Ou bien établir un système autonome avec sa propre régulation ? Cela s’est fait, en partie, pour l’interprétation et les études, ainsi que par la mise des données élémentaires (anonymisées) à la disposition de qui voudrait les retraiter. La banalisation des moyens de traitement a facilité cette évolution, atténuant sans le supprimer ce qui justifiait le monopole de la statistique publique. Ainsi, le recueil70 et les traitements de base demeurent à la diligence de l’institut national de statistiques, des services statistiques ministériels et de divers instituts publics spécialisés. Le droit – notamment international, on vient de le voir – encadre mieux les rapports de la statistique et du pouvoir, avec notamment la création en France d’une Autorité de la statistique publique sur le modèle des autorités administratives indépendantes qui interviennent dans divers secteurs. Enfin, le contrôle était et demeure, de façon moins formelle mais fondamentale, chez les divers interlocuteurs qui dans la société réclament la probité de la statistique. Avant même les garanties formelles qui viennent d’être évoquées, on pouvait résister à la coercition en arguant que la tricherie qui apporterait au pouvoir un avantage immédiat risquait de ruiner le crédit des productions futures : la presse, les organisations professionnelles ou d’autres l’ayant révélée. Dans une société qui se veut démocratique, le public attend une information publique qui ne soit pas dictée par le pouvoir politique. Ce dernier n’est pas le seul à vouloir influencer l’opinion. Divers groupes de pression le tentent aussi : représentants d’intérêts économiques, partis politiques et syndicats, associations constituées pour défendre une cause, etc. Entre celles de leurs démarches qui sont 69. Selon l’adage que « la mauvaise monnaie chasse la bonne ». 70. Notamment la faculté de rendre obligatoire la réponse aux enquêtes. 118
LE NOMBRE ET LA CITÉ
La statistique n’a d’utilité que si elle est indépendante
légitimes et une forme de contrainte sur l’établissement et la diffusion des statistiques publiques, la distance est parfois réduite, surtout lorsque les canaux d’accès au grand public ne jouent pas pleinement leur rôle de mise à disposition et d’explication. La problématique de l’indépendance rejoint ici la problématique de l’utilisation des statistiques dans l’espace public (voir le chapitre 13).
119
7 La statistique peut-elle traiter tous les sujets ?
On l’a vu à travers différents exemples donnés dans la première partie, la statistique permet souvent d’établir un consensus sur la base de conventions partagées et peut fournir les éléments indispensables pour nourrir le débat démocratique… Mais elle ne parvient pas toujours à ce résultat, notamment quand l’élaboration d’informations utiles reste difficile, par exemple pour juger des budgets locaux. La légitimité de la statistique à produire des données est également âprement discutée et réglementée sur des thèmes tels que les origines ou l’immigration, sur lesquels la société est parfois fortement clivée. Enfin, la statistique peut-elle se permettre de traiter des sujets sociétaux sensibles, sur lesquels les informations quantitatives ne sont pas forcément les plus compréhensibles ? Sur les finances locales, il est difficile, même pour le Parlement, de disposer d’informations pertinentes. Compte tenu de la diversité des très nombreuses collectivités territoriales, la dispersion des 125
Partie 2. La statistique doit répondre aux questions sur son utilisation
informations entre plusieurs administrations et la complexité des données comptables empêchent d’appréhender finement les causes de la croissance des dépenses locales, et donc d’envisager des solutions pertinentes pour réduire celles-ci. Sur des sujets tels que les origines, qu’il s’agisse des origines familiales, culturelles ou géographiques, c’est la question même de l’élaboration de statistiques qui alimente la controverse : le débat est vif entre ceux qui pensent que ces statistiques pourraient augmenter la discrimination envers certaines populations et d’autres qui considèrent qu’elles permettraient au contraire de mieux prendre en compte les populations concernées. La législation française encadre donc rigoureusement la production de statistiques de populations selon leurs origines « ethniques », tout en autorisant la statistique publique à mener des travaux pour mieux connaître les populations immigrées selon leur pays d’origine. Dans le cas de l’immigration, il n’existe pas de consensus sur les données en stock ou en flux, d’autant que les flux migratoires sont cernés de façon très imparfaite, en particulier les flux de sortie du territoire. Ces incertitudes sur les chiffres ne permettent pas d’apporter un peu de sérénité dans les discussions sur la politique d’immigration. Est-il pertinent de conduire des enquêtes statistiques sur tous les sujets ? La France réalise une opération de grande envergure, Elfe, « Étude longitudinale française depuis l’enfance » sur une cohorte d’enfants nés en 2011 afin de repérer les facteurs qui peuvent influer sur le développement de l’enfant. Mais doit-on passer par la statistique quand on s’intéresse au ressenti des jeunes enfants ? N’est-il pas préférable de choisir des approches plus qualitatives ? De même sur un acte éminemment personnel comme le suicide : alors que l’on constate sur des populations nombreuses des régularités statistiques suggérant des déterminants sociaux, la statistique est impuissante à fournir des explications de cette nature lorsque le nombre de suicides est limité, comme c’est toujours le cas 126
LE NOMBRE ET LA CITÉ
La statistique peut-elle traiter tous les sujets ?
– heureusement ! – au sein d’une entité (commune, entreprise) de taille petite ou moyenne.
7.1 LE CASSE-TÊTE FINANCIER LOCAL Café de référence 81 (liste page 245)
La France est connue pour son grand nombre de collectivités territoriales (régions, départements, communes, collectivités d’outre-mer ou à statut particulier… et la métropole de Lyon). En adjoignant à cet ensemble les groupements de collectivités (communautés de communes, communautés d’agglomération, communautés urbaines, etc.), on définit les collectivités locales. La dépense de cellesci augmente fortement, avec de grandes disparités entre elles. En dépit des progrès, la statistique n’éclaire qu’en partie ce sujet éminemment politique. Au total, l’échelon local contribue pour plus de 20 % aux dépenses des administrations publiques, pour 55 % à leurs dépenses d’investissement et pour 9 % à l’endettement public. La volonté politique du pays est de contenir la dépense publique eu égard aux niveaux du déficit et de l’endettement publics, mais, les collectivités territoriales s’administrant librement, seule la loi peut limiter leurs dépenses. Encore faut-il connaître précisément celles-ci. Or, malgré l’informatisation, le dépouillement des comptes des collectivités soulève maintes difficultés : la répartition fonctionnelle des dépenses n’est bien connue qu’au niveau des régions, ce qui obère la compréhension des politiques suivies localement. La consolidation des comptes, notamment pour les communes et leurs regroupements, est difficile et rendue plus ardue encore par l’existence des budgets annexes. Les études sur le sujet sont dispersées entre plusieurs administrations, sans coordination d’ensemble. Au niveau local, l’appareil budgétaire et comptable géré par l’État s’est amélioré, mais il est devenu complexe au point que les élus ne 127
Partie 2. La statistique doit répondre aux questions sur son utilisation
peuvent lire correctement leur propre budget ! Ils ont des excuses : dans telle communauté de communes, il y a autant de budgets annexes que d’opérations et il est impossible en pratique de consolider les comptes ! Un équilibre reste à trouver entre la précision comptable et la lisibilité des documents budgétaires. Les charges sont mal connues. Un rapport préconisait en 2009 de donner aux collectivités territoriales des objectifs de performance basés sur des coûts standard. On en est encore loin et on utilise pour répartir les dotations des critères sans réel contrôle de leur fondement. Au demeurant, définir des coûts standard ou des besoins est un problème ardu. Le Royaume-Uni s’y est essayé, sans succès. Le Parlement lui-même ne dispose pas des informations nécessaires pour faire ses propres simulations en matière de dotations et de fiscalité locale. C’est moins par manque de volonté politique de transparence qu’en raison de la complexité de la matière. L’accroissement de la dépense publique locale depuis une trentaine d’années est patent. Est-ce l’effet de la décentralisation ? Quoique n’ayant pas bénéficié de la décentralisation, les communes ont connu elles aussi une forte augmentation de leurs dépenses. Dans les autres administrations publiques locales, la dépense a crû à peu près au même rythme dans le domaine non décentralisé que pour leurs compétences décentralisées. En fait, la régulation politique de la dépense fonctionne mal au niveau local. Depuis 1975, du fait de la globalisation des dotations et des emprunts, la régulation locale attendue de la fiscalité locale n’a pas tenu ses promesses. Par exemple, la cotisation sur la valeur ajoutée des entreprises qui a succédé à l’ancienne taxe professionnelle est largement « exportée » sur des contribuables non locaux, ce qui diminue le risque de sanction électorale… On constate de fortes inégalités du niveau de dépense entre collectivités de même catégorie et de même taille. Cela tient plus à des différences de ressources qu’à des différences de besoins (c’est-à-dire de charges en quelque sorte prédéterminées). Pour le bloc communal, la différence de ressources explique environ 62 % des écarts de 128
LE NOMBRE ET LA CITÉ
La statistique peut-elle traiter tous les sujets ?
dépenses ; les différences de besoins en expliquent 20 % et le résidu de 18 % tient en gros à des raisons sociologiques. Ainsi, globalement, avec des élus du même bord politique, le Sud est plus dépensier que le Nord. 13 12 11 10 9
7
1987 1988 1989 1990 1991 1992 1993 1994 1995 1996 1997 1998 1999 2000 2001 2002 2003 2004 2005 2006 2007 2008 2009 2010 2011 2012 2013 2014 2015 2016 2017
8
Hors dépenses transférées par l’État
Avec dépenses transférées par l’État
Figure 21 | Évolution des dépenses des administrations publiques locales à champs courant et constant de compétences, en points de PIB, entre 1987 et 2017 (Source : Rapport de Pierre Richard 2006 ; rapports de l’Observatoire des finances locales ; Insee, Fipeco).
Espérer réduire la dépense par la fusion de collectivités territoriales de même niveau apparaît illusoire : la création des communautés de communes a causé un accroissement des charges parce que, faute d’une mutualisation suffisante des moyens, l’organisation administrative à un niveau supérieur entraîne des coûts spécifiques. Pendant que les dépenses des communes de la communauté diminuent très peu, la communauté nourrit de son côté des ambitions et lance des actions nouvelles. Faut-il donc se résigner à une poussée sans contrôle de la dépense ? L’élu local français accorde à un euro de dépense publique moins de prix qu’un salarié à un euro de son salaire. Le citoyen-contribuable, habitué à la quasi-gratuité des services publics, n’a guère intérêt au freinage de la dépense. Faut-il décentraliser davantage la maîtrise de la fiscalité de manière que l’élu local apparaisse plus responsable aux 129
Partie 2. La statistique doit répondre aux questions sur son utilisation
yeux de l’électeur ? La population admettrait difficilement des disparités fiscales fortes, ce qui conduirait l’État à verser des dotations de péréquation pour les compenser. Ces causes diverses militent en faveur d’une régulation par la loi. Le Parlement, compétent pour ce faire, est confronté lui-même à une difficulté : en légiférant de manière générale, il méconnaît ou appréhende mal la diversité des situations locales. L’État est donc contraint, pour brider la croissance de la dépense, de diminuer peu à peu les moyens des collectivités territoriales, notamment en jouant sur les dotations qu’il leur verse. Cela ne va pas sans difficulté politique dans un contexte où le respect du principe de subsidiarité – et non la centralisation des décisions – demeure un objectif essentiel de l’organisation du secteur public.
7.2 CONTROVERSE SUR LES STATISTIQUES ETHNIQUES Cafés de référence 4 et 33 (liste page 245)
Pour décrire la population de la France, faut-il des statistiques ethniques ? Le sujet divise l’opinion. Dans ce débat, les mots ethnie, ethnique ne sont pas utilisés par tous dans un sens très précis. Sont en général visées les données qui décrivent les origines familiales ou culturelles, mais aussi la couleur de peau, voire l’appartenance à des groupes fondés sur une notion de race ou à des groupes religieux. Les uns affirment que des statistiques ethniques sont nécessaires. Ils veulent mesurer les progrès et les difficultés de l’intégration des nouveaux venus en France, et de leurs descendants. Ou encore, il s’agit de lutter contre les discriminations touchant certains groupes de la population, voire de préparer des mesures de discrimination positive. À ces groupes, les statistiques ethniques contribueraient à donner une visibilité sociale, et donc une reconnaissance. 130
LE NOMBRE ET LA CITÉ
La statistique peut-elle traiter tous les sujets ?
C’est précisément ce que craignent les opposants aux statistiques ethniques. Ils mettent en avant deux dangers, majeurs à leurs yeux : la stigmatisation et le communautarisme. Des statistiques sur le taux de délinquance pourraient servir à stigmatiser des catégories entières de la population. Et ils ne veulent en aucun cas favoriser, au détriment de l’unité de la République, l’émergence de communautés fondées sur les origines ou les religions, qui pourraient se poser en intermédiaires entre le citoyen et l’État. Certains vont jusqu’à évoquer des précédents tragiques, pendant lesquels des opérations statistiques auraient été détournées de leur objet collectif pour permettre des mesures discriminatoires à l’égard de personnes particulières. L’argument, alors, relève plus d’une méfiance générale à l’égard des garanties que la statistique apporte que de la critique spécifique des statistiques ethniques. Face à cette opposition radicale de deux points de vue, que dit la loi ? Les médias affirment souvent que les statistiques ethniques sont interdites en France. La réalité est beaucoup plus nuancée. Le Conseil constitutionnel a jugé en novembre 2007 que « les traitements nécessaires à la conduite d’études sur la mesure des diversités des origines […] ne sauraient […] reposer sur l’origine ethnique ou la race ». Mais le commentaire publié en 2008 sur cette décision de 2007 souligne que « le Conseil n’a pas écarté l’utilisation de données objectives fondées sur le nom, l’origine géographique ou la nationalité antérieure, ni de données subjectives comme le “ressenti d’appartenance” ; […] en revanche, serait contraire à la Constitution la définition, a priori, d’un référentiel ethnoracial ». Qu’entend-on par référentiel ethnoracial ? Il s’agirait d’une liste officielle d’intitulés d’ethnies ou de races71 du type de celle qui est utilisée dans le recensement aux États-Unis. 71. On sait que l’usage du mot « race », s’agissant de l’espèce humaine, est contesté, au point que le gouvernement souhaite retirer ce mot de la Constitution et que l’Assemblée nationale a voté à l’unanimité cette disposition en juillet 2018 dans le projet de révision constitutionnelle. 131
Partie 2. La statistique doit répondre aux questions sur son utilisation
La loi informatique et libertés de 1978, de même que le règlement européen sur la protection des données entré en vigueur en 2018, vont dans le même sens : une interdiction générale de principe est assortie de précisions ou d’exceptions qui permettent de nombreux travaux d’étude touchant aux origines des personnes qui constituent la population, notamment des travaux statistiques. C’est grâce à ces exceptions que de nombreuses enquêtes de la statistique publique apportent des informations sur les populations immigrées, ou issues de l’immigration, selon les pays d’origine. Au total, la France n’est pas dépourvue d’informations statistiques sur les populations selon leurs origines et n’est pas empêchée par sa législation d’en collecter de nouvelles, à condition évidemment que les limites prévues par la loi soient respectées. Mais il est exclu72 dans notre pays de demander à des personnes de se classer à l’intérieur d’un « référentiel ethnoracial », comme le font couramment les statisticiens publics aux États-Unis, mais aussi au Royaume-Uni et au Canada. L’avenir dira si cette approche qui a émergé au fil de débats souvent houleux, mais approfondis73, est solide et durable, ou si l’évolution de la société la remet en cause. En définitive, les contraintes et interdictions liées à l’élaboration des statistiques ethniques traduisent un état des rapports sociaux que ces statistiques s’efforcent de mesurer, et en même temps contribuent à établir.
72. Il existe une exception : la Nouvelle-Calédonie, où le recensement selon l’appartenance ethnique est de tradition. 73. Le rapport du Comité pour la mesure de la diversité et l’évaluation des discriminations (Comedd), installé à l’initiative du président de la République en 2009, est une mine d’informations sur ce sujet (publié par la Documentation française). 132
LE NOMBRE ET LA CITÉ
La statistique peut-elle traiter tous les sujets ?
Figure 22 | La question sur la race prévue au recensement de 2020 aux États-Unis (Source : US Bureau of Census).
7.3 CONNAÎT-ON L’IMMIGRATION ? Cafés de référence 38 et 103 (liste page 245)
Quelle politique d’immigration la France doit-elle avoir ? Cette question divise la société française et fait l’objet de convictions tranchées. Lorsqu’elle est discutée, c’est souvent dans l’émotion d’événements dramatiques ou lors de la préparation d’une loi : les 133
Partie 2. La statistique doit répondre aux questions sur son utilisation
affirmations de principe sont alors plus fréquentes que l’examen des faits. L’absence de consensus règne aussi bien sur les chiffres de l’immigration, que certains jugent sous-estimés, voire trafiqués, que sur le commentaire qu’on peut en tirer. Techniquement, la mesure des flux migratoires internationaux est difficile pour plusieurs raisons. Premièrement, il s’agit de personnes en mouvement d’un pays à un autre : or la plupart des dispositifs statistiques sont conçus pour enregistrer les caractéristiques de populations stables. Un migrant74 peut se trouver successivement dans plusieurs situations pendant des temps plus ou moins longs. Deuxièmement, une partie de ces personnes se trouvent en infraction par rapport aux lois du pays où elles résident. Troisièmement enfin, les dispositifs d’observation fonctionnent sur une base nationale et s’en tiennent essentiellement aux entrées dans le pays, tandis que les sorties leur échappent, et ne peuvent être évaluées qu’indirectement. Autant de causes d’incertitude. À défaut de bien mesurer les arrivées et les départs les plus récents (flux), on peut s’intéresser aux personnes présentes à un moment donné (stocks75). Au début des années 1990 a émergé le concept de population immigrée pour désigner l’ensemble des personnes qui résident dans un pays sans y être nées (et sans avoir eu la nationalité de ce pays dès leur naissance). Auparavant, la statistique publiait régulièrement des données sur la population étrangère du pays : mais entre deux dates, celle-ci change beaucoup de composition, notamment du fait des naturalisations. Un immigré le reste jusqu’à son décès, sauf s’il sort du pays : les naturalisés restent des immigrés, même après avoir acquis la nationalité du pays. De ce fait, l’évolution de l’importance et des caractéristiques de la population immigrée dépend de moins 74. Le terme « migrant » désigne une personne en cours de trajet entre deux pays de résidence. On utilise les termes « immigrants » et « immigrés » lorsqu’on se place du point de vue du pays d’arrivée, pour désigner les personnes entrées pendant une période donnée, ou toutes les personnes entrées (voir plus loin). 75. Le terme peut choquer, s’agissant de personnes ; mais il est consacré par l’usage, par opposition aux flux. 134
LE NOMBRE ET LA CITÉ
La statistique peut-elle traiter tous les sujets ?
de facteurs et peut être analysée de façon plus simple. Au cours des années récentes, grâce aux recensements de la population et à des enquêtes auprès des ménages, la connaissance de la population immigrée s’est enrichie ; s’y est ajoutée celle de la population des enfants d’immigrés présents sur le territoire76. Mais revenons aux flux. Les flux de sortie du territoire, on l’a dit, sont très mal connus et ne peuvent être estimés que par des voies indirectes, en confrontant les variations des stocks entre deux dates avec les entrées. Cette estimation risquée a été tentée pour la France (cf. tableau 2) tant en ce qui concerne les émigrations de nationaux (qui vont rejoindre les Français de l’étranger) qu’en ce qui concerne les émigrations d’étrangers résidant en France (souvent des retours au pays). Les flux d’entrée sont un peu mieux connus, du moins en France. Aux sources traditionnelles en démographie77 s’ajoutent les sources administratives provenant des services chargés de délivrer les visas, d’organiser l’accueil des immigrants et de traiter les demandes d’asile. Incomplètes par construction78, ces sources administratives ne peuvent suffire pour estimer l’ensemble des entrées et calculer un solde migratoire du pays, mais ce sont les seules qui détaillent les motifs d’attribution des autorisations de séjour sur le territoire national.
76. On pourra consulter « Immigrés et descendants d’immigrés en France », Insee Références, 2012. 77. Recensements, enquêtes : outre la mesure des « stocks », ces sources renseignent sur les entrées à travers des questions sur la résidence antérieure ou sur l’année d’entrée sur le territoire. 78. Ces sources administratives ne concernent pas les entrées de Français résidant auparavant à l’étranger, ni les entrées de ressortissants des autres pays de l’Union européenne. 135
Partie 2. La statistique doit répondre aux questions sur son utilisation
Tableau 2 | Population, flux d’entrée et de sortie selon le lieu de naissance (Source : Insee79).
Nés à l’étranger Année
Ensemble
Nés f rançais
Immigrés
Nés en France
Population (en milliers) 1er
janvier 2006
63 185
1 768
5 137
56 280
1er
janvier 2014
65 801
1 750
5 868
58 183
(p)
Entrées 2006
301 000
30 000
193 000
78 000
2013 (p)
332 000
20 000
235 000
77 000
Sorties 2006
189 000
22 000
29 000
138 000
2013 (p)
299 000
7 000
95 000
197 000
Solde migratoire 2006
+ 112 000
+ 8 000
+ 164 000
− 60 000
2013 (p)
+ 33 000
+ 13 000
+ 140 000
− 120 000
(p) Résultats provisoires. Champ : France hors Mayotte
Le débat public porte avant tout sur les motifs de la migration, notamment depuis les grands afflux de réfugiés en Europe en 2016. Les arrivants qui demandent à bénéficier du droit d’asile voient leur demande traitée selon les règles qui régissent ce droit ; si leur demande est acceptée, ils acquièrent la protection due aux réfugiés, et notamment le droit au séjour. Pour les arrivants qui ne demandent pas à bénéficier du droit d’asile, ou pour ceux à qui ce droit n’a pas été reconnu, l’admission au séjour peut être prononcée pour motif économique, de regroupement familial ou encore de poursuite d’études ; 79. Source : « L’analyse des flux migratoires entre la France et l’étranger entre 2006 et 2013 », Chantal Brutel, Insee Analyses no 22 – Octobre 2015. 136
LE NOMBRE ET LA CITÉ
La statistique peut-elle traiter tous les sujets ?
elle peut aussi être refusée, auquel cas les personnes n’ont plus le droit de rester sur le territoire. Un certain nombre d’expulsions sont exécutées chaque année : le ministère de l’Intérieur en publie le nombre. Entre le moment de l’arrivée sur le territoire national et la décision de l’administration, il peut s’écouler plusieurs mois, voire des années : pendant ce temps, les personnes concernées disposent d’autorisations temporaires liées à l’instruction de leur demande, ou bien elles demeurent en situation irrégulière et, plus ou moins, « se fondent dans le paysage »… L’enregistrement statistique de tous ces processus individuels est imparfait en raison de son extrême difficulté. Les comptages des franchissements des frontières80 extérieures de l’Union européenne publiés par l’agence Frontex ne peuvent être que d’un usage limité : les doubles comptes sont nombreux, aucun renseignement n’est publié sur les personnes en dehors de leur nationalité. Les statistiques administratives nationales sont fiables pour évaluer l’aboutissement des processus légaux, mais elles sont loin de décrire en totalité les flux et les situations provisoires des nouveaux arrivants sur le territoire. Rapprochées des recensements et des enquêtes démographiques, ces statistiques administratives permettent de calculer des estimations de cadrage, que la plupart des commentateurs jugent vraisemblables. Mais il demeure indéniablement un grand flou dans la photographie.
7.4 LE JEUNE ENFANT : SUJET PEU OBSERVÉ Café de référence 97 (liste page 245)
En France, le développement de l’enfant est principalement jaugé en relation avec ses capacités cognitives. D’autres pays ont une approche différente, plus globale, qui prend aussi en compte dès le 80. La formulation exacte est : « Détection des franchissements illégaux des frontières à l’entrée entre les points de contrôle à la frontière des frontières extérieures des États membres de l’Union européenne et des pays associés Schengen. » 137
Partie 2. La statistique doit répondre aux questions sur son utilisation
plus jeune âge les capacités physiques, affectives et de socialisation, car elles se développent en interaction. Cette différence de conception se traduit dans les politiques et dans les dispositifs d’observation. Par exemple, la politique familiale française s’est construite autour de l’objectif d’abaisser le moins possible le niveau de vie des familles élevant des enfants. La France est le seul pays où le soutien au revenu s’accroît avec l’âge de l’enfant. Pour leur part, les pays nordiques concentrent leurs prestations d’aide au revenu sur le financement d’un congé parental plus long, correctement rémunéré et donc très généralisé. Autre exemple, en matière de politique éducative, en France comme dans les pays anglo-saxons, l’école maternelle est traditionnellement considérée comme une institution de préscolarisation, vouée principalement au développement cognitif préparant l’entrée à l’école élémentaire. Les pays d’Europe centrale et du Nord ont opté pour une institution visant davantage le développement global de l’enfant. Et dans la statistique publique, l’enfant n’est pas chez nous un objet en soi de l’observation : ses besoins ne sont pris en compte qu’à travers ceux de sa famille. Par conséquent, l’information sur les enfants est assez pauvre, ce qui entrave l’établissement de bilans des décisions politiques prises en la matière. Toutefois, avec quelques décennies de retard par rapport à d’autres pays, la France s’est lancée dans la constitution d’un panel qui permettra de suivre un échantillon représentatif d’enfants de leur naissance à l’âge adulte. C’est l’opération Elfe – Étude longitudinale française depuis l’enfance – conduite par l’Ined et l’Inserm : plus de 18 000 enfants, nés en 2011, sont suivis et le seront jusqu’à ce qu’ils aient 20 ans. L’étude Elfe a pour but de mieux connaître les différents facteurs (environnement, entourage familial, conditions de vie, etc.) qui peuvent avoir une influence sur le développement physique et psychologique de l’enfant, sa santé et sa socialisation. Des éléments intéressants seront ainsi cumulés sur le développement des enfants et sur l’effet des conditions sociales sur un certain nombre de résultats. 138
LE NOMBRE ET LA CITÉ
La statistique peut-elle traiter tous les sujets ?
On peut toutefois regretter que les informations recueillies soient encore centrées sur le développement des capacités cognitives. Les autres dimensions potentielles du rôle de l’école, telles que l’encouragement à avoir confiance en soi ou la socialisation par exemple, auraient mérité elles aussi des analyses fines.
Figure 23 | Les chiffres clés de l’opération Elfe (Source : Ined).
Il est à souhaiter que la statistique publique française mette à profit l’existence de ce panel pour contribuer à définir un programme d’études dont les résultats aideraient les administrations décisionnaires en matière d’éducation ou d’enfance. Cela est d’autant plus envisageable qu’il existe des solutions techniques pour faire des conditions du développement de l’enfant un objet d’observation statistique et même pour faire des enfants les sujets directs des enquêtes. Le World Vision Institute a mis en place une collaboration avec la Society for Child Indicators (ISCI) et l’Unicef pour réaliser une enquête internationale sur le bien-être subjectif des enfants. Des enfants de 6 à 11 ans ont été interrogés sur leur bien-être et sur leur vision du monde qui les entoure. Ce n’est pas la même chose qu’un enfant dise « Je ne peux pas aller à un goûter d’anniversaire chez un copain parce qu’il ne peut pas venir chez moi », ou qu’on interroge les parents sur le fait de savoir s’ils peuvent inviter des amis, comme on le fait classiquement dans les enquêtes sur les conditions de vie. On peut cependant s’interroger sur la nécessité de conduire des enquêtes statistiques auprès de jeunes enfants sur leur ressenti. 139
Partie 2. La statistique doit répondre aux questions sur son utilisation
N’atteignons-nous pas les limites de ce que la statistique permet ? Des approches plus qualitatives conduites par des sociologues et des psychologues ne seraient-elles pas préférables ?
7.5 SUICIDE : DRAME INDIVIDUEL, ÉNIGME COLLECTIVE Café de référence 79 (liste page 245)
Acte extrême foncièrement personnel, le suicide perturbe aussi l’entourage et fait parfois irruption dans les médias. Relativement peu fréquent (2 % des décès), il représente en France néanmoins environ dix mille cas par an. Décision solitaire, intime, il n’en présente pas moins des régularités statistiques qui suggèrent des déterminations sociales81. Masculins pour les 3/4, les suicides sont surtout le fait des adultes (les 2/3 entre 25 et 65 ans, encore 30 % au-delà de 65 ans et 5 % au-dessous de 25 ans)82. Avec un taux de suicide assez différent selon la profession (les agriculteurs et les membres de certaines spécialités médicales semblent plus affectés), plus élevé chez les chômeurs et plus encore chez les prisonniers. Ce taux varie aussi avec la conjoncture économique : il s’élève lorsqu’elle est déprimée83.
81. À l’aube de la sociologie, ces régularités avaient été repérées par Émile Durkheim. 82. On a souvent la représentation que le suicide est d’abord un problème qui concerne les adolescents et jeunes adultes. En réalité, vers 20 ans, le taux de suicide est encore modeste (6/100 000) : mais ces suicides affectent cruellement les parents et l’entourage proche. Leur impact est ainsi plus que proportionnel à leur nombre. Ils sont aussi (après les accidents, notamment de la circulation) la seconde cause de mortalité chez les jeunes. 83. Mais il semble plus faible en temps de guerre. 140
LE NOMBRE ET LA CITÉ
La statistique peut-elle traiter tous les sujets ?
80
Hommes Femmes
60
40
20
0 5-14 15-24 25-34 35-44 45-54 55-64 65-74 75-84 85-94 95 et +
Figure 24 | Taux de suicide par âge pour 100 000 habitants en France en 2015 (Source : CepiDC – Inserm).
Les taux de suicide diffèrent beaucoup aussi d’un pays à l’autre. Des facteurs culturels ou religieux jouent certainement. Mais des comparaisons de part et d’autre de certaines frontières suggèrent aussi que les modes de comptabilisation diffèrent. L’organisation administrative, celle de la médecine légale, etc. ne sont pas les mêmes. C’est qu’il n’est pas toujours aisé de déterminer si une mort résulte d’un suicide. En outre, souvent plusieurs causes de décès apparaissent associées, sans qu’on puisse dire laquelle aurait été décisive. Aux suicides aboutis, il faut ajouter les tentatives. Elles ne sont pas dénombrées : celles donnant lieu à hospitalisation sont déjà environ vingt fois plus fréquentes que les suicides ! (Incluant éventuellement de nombreuses réitérations par la même personne.) Ces tentatives sont nettement plus le fait de femmes, contrairement aux suicides aboutis. L’efficacité du mode opératoire peut faire en partie la différence : davantage chez les hommes par pendaison ou arme à feu, plutôt que d’avaler un tube de médicaments. Mais cela ne suffit pas. 141
Partie 2. La statistique doit répondre aux questions sur son utilisation
De plus, la répartition des tentatives par âge ne suit pas celle des décès84. Aussi pense-t-on que, lorsqu’elles n’aboutissent pas au décès, ce n’est pas toujours parce que la personne n’a pas réussi à mener son intention à terme ; ni parce que des secours sont intervenus à temps. La personne peut aussi ne pas avoir réellement l’intention d’en finir : seulement de jouer d’une menace ou lancer un appel au secours. Peut-être délibérément, mais souvent pas. L’intention profonde reste un mystère. Ni individuellement, ni socialement, les tentatives n’ont la même signification que les suicides aboutis. Parfois, une lettre ou des propos tenus confirment l’intention de mourir ; mais le motif n’est pas toujours donné. Et même là, ce n’est que la représentation que la personne se faisait dans l’instant. De l’expérience des spécialistes, il ressort qu’il y a rarement une cause unique. La personne subissait diverses épreuves affectives, professionnelles ou de santé, qui se cumulaient. Bien d’autres connaissaient les mêmes préoccupations ou souffrances et ne se suicidaient pas. Cette accumulation est d’abord supportée, jusqu’à une rupture où l’élément déclencheur n’est pas toujours le plus pesant. Il arrive sur une personne fragile ou fragilisée. Pourtant, le mystère dérange, on voudrait comprendre, on a besoin d’une cause à laquelle l’attribuer. Mais la statistique, qui montrait de grandes régularités à un niveau de généralité suffisant, devient impuissante pour suggérer ou confirmer des explications dès qu’on descend à une petite collectivité (une entreprise, une localité...). Là, une ou quelques dizaines de cas ne permettent de rien démêler dans la variété des interférences familiales, amicales, professionnelles ou de voisinage qui s’ajoutent à la diversité des situations de santé, à l’histoire psychologique individuelle... Cela n’empêche malheureusement pas toujours les médias, les acteurs de conflits sociaux, les tenants de telle thèse politique, etc. de 84. Cette disproportion culmine chez les filles de 15 à 20 ans : avec 400 hospitalisations par an (toujours pour 100 000) alors que l’on y compte à peine plus de deux suicides aboutis. 142
LE NOMBRE ET LA CITÉ
La statistique peut-elle traiter tous les sujets ?
s’en saisir, d’en tirer argument. Parfois même, un spécialiste donne un avis, mais celui-ci peut tout autant refléter une conviction de nature idéologique, que le fruit de son expérience : rien ne permet de prouver ni de réfuter objectivement son point de vue. Cela s’est vu notamment à propos des suicides de travail85 : les médias font parfois état d’une « vague » de suicides qui signe une crise dans une profession ou une entreprise. Le décompte des cas survenus n’a jamais montré une fréquence significativement accrue. L’émotion que soulève toujours un suicide entre en résonance avec la préoccupation collective envers un problème de travail réel. Ce serait le lien que les intéressés font là qui attesterait du problème, plutôt qu’une sur-suicidité effective.
85. Non pas suicides « au » travail, car même si celui-ci joue un rôle, l’acte suicidaire survient aussi bien au domicile ou dans un lieu public ; inversement, se produisant sur le lieu de travail, il peut résulter d’autres circonstances personnelles. Dire « dû au » travail méconnaîtrait d’autres circonstances qui s’y ajoutent. « De travail » constate de façon neutre que l’on fait un lien, à tort ou à raison, entre l’acte suicidaire et les conditions de travail ou soucis associés. 143
8 La statistique rend-elle compte à temps des transformations sociales ?
Quel que soit le domaine sociétal considéré (économique, culturel, social, scientifique…), le recours à la statistique est toujours déclenché par la nécessité de disposer, dans un premier temps, d’une description synthétique de la situation en relation avec la problématique des acteurs ou groupes sociétaux impliqués. Les outils de la statistique descriptive sont toujours mobilisés en premier lieu. Compte tenu du délai nécessaire pour conduire les différents travaux (identifier les critères à utiliser, recueillir les données, procéder au traitement statistique…), il est naturel de se demander si l’usage de la statistique est pertinent pour appréhender des transformations sociales complexes et rapides. La statistique permet-elle de rendre compte en temps utile de ces transformations ou, au contraire, ses éclairages, trop tardifs, ne sont-ils que des éléments de compréhension a posteriori ? La réponse à cette question doit être nuancée selon les domaines. En règle générale, la statistique, par des comparaisons temporelles, révèle les évolutions de la société et de ses attentes : on le voit bien dans le 145
Partie 2. La statistique doit répondre aux questions sur son utilisation
cas de la santé. Certes, si de nouveaux critères doivent être recherchés, leur définition et leur mise en place prendront un temps qui s’ajoutera au temps nécessaire pour obtenir le bilan chiffré de la situation. Mais simultanément, la statistique, par la recherche de ces nouveaux critères de mesure, souligne en temps réel la complexité des phénomènes et la diversité de leurs conséquences. Ainsi en est-il par exemple de la notion de famille, fortement bousculée par l’évolution des mœurs. S’agissant des relations entre politique publique et transformations sociales, les modifications incessantes de la politique publique ajoutent une difficulté supplémentaire pour la mesure des impacts : l’abondance des textes régissant le travail en est une illustration. Lorsqu’existe une concurrence entre des statuts sociaux, comme entre le travail salarié et le bénévolat, la statistique reflète le retard pris par la société pour clarifier les enjeux en étant contrainte de souligner le flou des frontières. Les statistiques économiques sont soumises à d’aussi rudes défis que les statistiques sociales : ainsi, l’extension de la mondialisation oblige à s’interroger sur la pertinence du concept d’économie nationale, bien avant que les institutions internationales ne fournissent des outils pour mesurer les nouvelles interdépendances. En définitive, le processus d’élaboration des statistiques, par ses interrogations sur les variables pertinentes pour apprécier une transformation sociale émergente, par ses adaptations qui nécessitent parfois l’introduction de nouvelles variables rendant alors difficile l’exploitation de séries d’enquêtes, et par les réponses fournies à un instant donné, est le reflet des transformations sociales en cours.
8.1 LA SANTÉ À TOUT PRIX ? Cafés de référence 25, 36 et 59 (liste page 245)
Mesurer l’état de santé d’une population La santé, pour une personne, c’est d’abord l’absence de maladie. Lorsqu’on considère la population d’un pays, il y a bien sûr des 146
LE NOMBRE ET LA CITÉ
La statistique rend-elle compte à temps des transformations sociales ?
maladies, mais sont-elles toutes soignées et guéries autant que le permet l’état de la médecine ? Sont-elles évitées autant que possible ? Les conséquences durant la vie ultérieure des malades sont-elles bien prises en charge ou compensées ? L’action publique médicale s’attache à la prévention aussi bien qu’à la guérison et ne peut pas être dissociée d’une action sociale. Pour mesurer l’état de santé d’une population, dans cette perspective large, on ne cherche pas à dénombrer à un instant donné les malades. Ce chiffre peut avoir un sens pour une maladie donnée ; mais au niveau global, on ne peut pas agréger valablement des nombres de malades atteints d’affections très différentes. L’indicateur que la statistique met en avant retrace la mortalité dans le pays : c’est l’espérance de vie à la naissance. Pourquoi cet indicateur est-il pertinent ? Parce qu’il résume en un chiffre, qui plus est un chiffre parlant, la situation de la mortalité existant à une date donnée dans un pays, à tous les âges, situation qui elle-même dépend étroitement de l’état sanitaire du pays. Si l’état sanitaire est bon, la mortalité infantile est faible. Si l’état sanitaire est bon, les accidents de santé sont traités, quand c’est possible, avant de devenir mortels. Etc. Les données de la mortalité dans la population française dénotent une situation favorable. L’espérance de vie à la naissance est de 78,9 ans pour les hommes, un peu supérieure à la moyenne européenne, et de 85 ans pour les femmes, au second rang des pays européens derrière l’Espagne86. Les espérances de vie à 65 ans – 19,7 ans pour les hommes, 24 ans pour les femmes – sont également parmi les plus élevées de l’Union européenne. Et l’augmentation de l’espérance de vie est continue, sans interruption, un gain de un à deux ans tous les dix ans87.
86. Chiffres 2015 – France entière. 87. Cela n’est plus vrai ces toutes dernières années. 147
Partie 2. La statistique doit répondre aux questions sur son utilisation
Mortalité Mortalité Mortalité Mortalité
400
prématurée : femmes prématurée : hommes évitable : femmes évitable : hommes
300
200
100
1990
1995
2000
Figure 25 | Taux de mortalité prématurée et (Source : Inserm-CépiDc).
2005
évitable88
2010
en France pour 100 000 habitants
La baisse de la mortalité à chaque âge concerne particulièrement les personnes de plus de 65 ans. L’étude fine de la mortalité permet d’ailleurs de repérer des domaines sur lesquels des progrès sont possibles. Par exemple, la France se caractérise parmi les pays d’Europe par une surmortalité des jeunes hommes (entre 15 et 45 ans) attribuable à des « prises de risques » plus fréquentes qu’ailleurs (accidents de la route, tabagisme, etc.). Il y a là autant de sujets pour des politiques de santé publique. Une autre voie pour apprécier la santé d’une population est d’interroger les personnes elles-mêmes : comment perçoivent-elles leur état de santé ? 68 % des Français s’estiment « en bonne ou très bonne santé », les femmes ayant tendance à porter une appréciation sur leur 88. Mortalité prématurée : celle qui survient avant 65 ans. Mortalité évitable : celle qui regroupe des décès qui pourraient être évités par une réduction des comportements à risque tels que le tabagisme, l’alcoolisme, les conduites routières dangereuses, etc. 148
LE NOMBRE ET LA CITÉ
La statistique rend-elle compte à temps des transformations sociales ?
propre santé plus pessimiste que les hommes, contrairement à ce que laisseraient attendre les indicateurs objectifs. Piloter l’évolution du système de santé Globalement, on le voit, les résultats du « système de santé » français apparaissent positifs89. Pourra-t-on à l’avenir préserver ces bons résultats ? À quel coût ? La croissance rapide de la dépense de santé et le déficit chronique de l’assurance-maladie suscitent des craintes pour la pérennité du système. Autrefois, face à des maladies le plus souvent de courte durée, l’ambition était double : permettre l’accès de tous les assurés aux soins, qui étaient de durée limitée, et compenser les pertes de revenu temporaires entraînées par les maladies. On peut considérer que ce système a longtemps donné, et donne encore, satisfaction. Mais progressivement, les maladies à soigner ont changé, au fil de ce que les spécialistes ont appelé la transition épidémiologique : dans une population dont la longévité s’accroît, les affections de longue durée prennent une place de plus en plus importante et peuvent toucher les patients pendant des mois, voire des années90. L’ambition devient alors, non pas de guérir, mais d’empêcher de mourir ! Le système de santé peine à s’adapter à cette transformation qui pèse lourdement sur ses coûts. Environ 15 % des personnes soignées le sont pour des affections de longue durée. Bénéficiant d’un régime de remboursement très favorable, elles représentent plus de 60 % de la dépense totale et contribuent dans la même proportion à la croissance annuelle des dépenses globales. Cinq grands groupes de maladies (cancer, diabète, maladies cardio-vasculaires, maladies respiratoires et maladies digestives) expliquent les trois quarts de la croissance des dépenses de santé. 89. On pourra consulter « L’état de santé de la population en France – Rapport 2017 » – Drees (Direction de la recherche, des études, de l’évaluation et des statistiques du ministère de la Santé) – Agence Santé publique France. 90. Voir le sujet 3.1 : « Vieillir, oui, mais dans quel état et à quel coût ? » 149
Partie 2. La statistique doit répondre aux questions sur son utilisation
Les données statistiques disponibles permettent de connaître dans un grand détail les coûts du système de santé et leur financement, avec en particulier le « reste à charge » acquitté par les patients euxmêmes. On peut ainsi savoir dans quelle mesure l’objectif social de l’assurance-maladie est atteint. Il est plus difficile d’apprécier à quel point, dans le nouveau régime épidémiologique, les résultats proprement sanitaires sont obtenus. Le concept d’espérance de vie, à lui seul, apparaît moins pertinent, et on ressent le besoin de nouveaux concepts, comme « l’espérance de vie sans limitation d’activité », qui tente de distinguer la vie « en bonne santé » de la vie « avec incapacités »91. Malgré des tentatives intéressantes, ces concepts restent difficiles à mesurer et n’ont pas encore reçu le même statut de « juge de paix » de l’état de santé du pays que l’espérance de vie à la naissance.
8.2 LA NOUVELLE FAMILLE Cafés de référence 22 et 78 (liste page 245)
Il y a quelques dizaines d’années, la famille était le plus souvent composée d’un couple stable avec son ou ses enfants. Il était alors plus facile d’étudier la démographie des familles. Depuis, les modes de vie familiaux ont fortement évolué. L’instabilité des couples, les naissances hors mariage, les recompositions familiales représentent aujourd’hui un défi pour l’analyse démographique. Comment observer ces nouvelles familles ? Selon la définition de la statistique publique, la famille est liée au logement : les résidences principales contiennent des ménages qui comprennent, en dehors des personnes vivant seules, zéro, une ou plusieurs familles : « un couple, avec ou sans enfant » ou « un adulte et des enfants ». C’est une approche restreinte du mot famille ; la réalité est beaucoup plus large et diversifiée. Une façon
91. Sur cette question, voir le rapport cité plus haut. 150
LE NOMBRE ET LA CITÉ
La statistique rend-elle compte à temps des transformations sociales ?
de mieux rendre compte de la situation actuelle est de prendre en considération les liens de filiation et les liens conjugaux. Afin de dénombrer et de connaître au mieux les ménages et les familles dans ce nouveau paysage, il faut s’intéresser aux multi-résidences. Dans l’enquête « SRCV92 » de 2004, 6 % des adultes et des enfants ont deux résidences « habituelles ». Le risque de double compte est donc fort : si on en tient compte, le même pourcentage tombe à un peu plus de 3 %. L’écart est surtout important dans la tranche d’âge 15-30 ans. En particulier, le nombre de familles monoparentales est très sensible à la prise en compte, ou non, de la cohabitation des parents et de la double résidence des enfants. On passe de 2 millions de familles monoparentales à 1,8 million si on exclut les couples non cohabitants, et à 1,6 million si de plus on évite de compter deux fois les enfants qui résident habituellement dans deux logements. Les nouvelles situations imposent d’introduire de nouvelles catégories (enfant en garde alternée et en résidence partagée), et de reconnaître que les notions de famille ou de ménage ne forment plus une partition de la population. Le statisticien public devra être capable d’innover en tenant compte à la fois des droits et des souhaits des personnes enquêtées, et de l’émergence des catégories nouvelles. Monoparentales
11 % Recomposées
18 % 71 % Vivent avec leurs deux parents
Figure 26 | Répartition des enfants selon leur type de famille en France métropolitaine (Source : Insee, enquête Famille et logements 2011).
92. SRCV : enquête Statistique sur les ressources et conditions de vie réalisée par l’Insee dans le cadre d’un programme européen. 151
Partie 2. La statistique doit répondre aux questions sur son utilisation
L’enquête « Famille et logements » de l’Insee permet d’appréhender certains de ces différents phénomènes. Celle de 2011 – qui était associée à l’enquête annuelle de recensement – a permis d’actualiser les analyses de la fécondité selon les générations ou selon les caractéristiques sociodémographiques et l’origine géographique. Toutefois, les situations familiales sont parfois floues. Les couples non cohabitants, qui affirment être en couple sans partager le même domicile, sont au nombre de 300 000 (1 % du total). La rupture d’union est aussi un processus qui peut être long et les statisticiens observent « en stock » un certain nombre de gens qui eux-mêmes ne savent plus trop s’ils sont encore en couple ou non. Et qu’en est-il des jeunes adultes résidant, pour une part, chez leurs parents, mais qui vivent aussi ailleurs ? Les risques de doubles comptes ou d’omissions les concernant sont très forts. Lorsque des enfants plus jeunes vivent tantôt chez un de leurs parents, dont le couple est séparé, tantôt chez l’autre, il y a aussi un flou possible, et des risques de doubles comptes. La situation est en principe claire si la justice a confié la garde à un seul des parents, mais est apparue la garde alternée ; et la garde partielle a été récemment reconnue comme pouvant jouer un rôle, notamment dans l’attribution d’un logement HLM. Du point de vue statistique, le rattachement de l’enfant à un noyau familial ou à un autre ne va pas de soi, d’autant plus qu’il peut faire l’objet d’une instrumentalisation par les parents s’ils sont en conflit. L’émergence de nouveaux comportements pose un défi de taille à la statistique. Pour le relever, il lui faut s’appuyer sur les outils dont elle dispose. La Conférence des statisticiens européens (sous l’égide de l’Onu) et Eurostat essaient d’établir des recommandations internationales, notamment sur les questions familiales. Des définitions ont ainsi été élaborées concernant la résidence et la multi-résidence, les couples et les familles monoparentales. Des techniques innovantes d’enquêtes peuvent être mobilisées, surtout quand sont posées des questions susceptibles d’être ressenties comme indiscrètes. De façon 152
LE NOMBRE ET LA CITÉ
La statistique rend-elle compte à temps des transformations sociales ?
générale, il faut être très attentif à la rédaction des questions et à la formation des enquêteurs. L’appariement des fichiers administratifs permet aujourd’hui une meilleure connaissance de la société. Mais l’institution statistique doit observer un comportement rigoureux, sous l’œil de la Commission nationale de l’informatique et des libertés (Cnil) et en accord avec elle. La tendance actuelle est de concilier les deux approches en mettant au point des dispositifs d’accès aux sources et d’appariement totalement sûrs du point de vue de la protection des droits des citoyens. La Cnil encourage cette orientation et des évolutions juridiques (modifications de la loi de 1951 sur le secret et l’obligation en matière de statistique) en ont facilité la mise en application depuis 2008.
8.3 LE TRAVAIL, SI FAMILIER, SI MÉCONNU Cafés de référence 30, 58, 76 et 99 (liste page 245)
Au cours des quelques décennies écoulées, les nouvelles technologies et la progression généralisée de l’économie numérique ont modifié le monde du travail sous différents aspects, non indépendants les uns des autres : celui des conditions de travail, pas clairement définies, mais qui deviennent importantes à partir des années 1980, comme le révèle la mise en place des CHSCT93 ; celui des contrats de travail avec le développement des formes particulières d’emploi94 (FPE), qui donnent naissance au concept de précarité de l’emploi ; celui aussi du temps de travail, qui fait l’objet de nombreux débats devenus plus aigus depuis la fin des années 1990. Des transformations du travail sont encore à l’œuvre aujourd’hui.
93. Comités d’hygiène, de sécurité et des conditions de travail. 94. Formes particulières d’emploi : sous ce terme, on désigne en général l’ensemble des statuts de travail autres que le contrat à durée indéterminée : contrat à durée déterminée, intérim, voire contrats aidés, stages, etc. 153
Partie 2. La statistique doit répondre aux questions sur son utilisation
Des enquêtes statistiques nombreuses tentent de mesurer ces évolutions, avec plus ou moins de bonheur tant les choses sont complexes. Certaines questions, comme la sécurité ou l’ambiance de travail par exemple, sont même difficilement objectivables. Les mutations sont multiples et si profondes que les situations comportent peu d’éléments comparables dès que plusieurs années les séparent. Les conditions de travail Le champ d’observation des conditions de travail est très vaste et regroupe des variables nombreuses : horaires, rythmes, possibilités d’initiative, exposition à des contraintes, à des risques ou à des nuisances, mais aussi sécurité ou insécurité de l’emploi, etc. Le ressenti des conditions de travail est lié aux particularités physiques et psychologiques des travailleurs et à leur interaction avec les activités qu’ils exercent. Les exigences des postes de travail augmentent au fil du temps, en même temps que les dénonciations des conditions de travail qui sont ressenties comme mauvaises95. En rechercher une mesure objective se révèle vain. Une mesure pourrait paraître pertinente, qui dénombrerait les accidents et maladies professionnelles : mais mesurerait-on les conditions de travail en elles-mêmes ou bien l’activité du système d’observation et d’enregistrement ? En France, diverses enquêtes vont de l’organisation des entreprises à la perception subjective du travail. Alors que, indéniablement, de gros progrès ont été faits avec la tertiarisation de l’économie, l’automatisation et les efforts généralisés de sécurité et salubrité, l’opinion des travailleurs sur leurs conditions de travail s’est tout de même détériorée. Très peu d’études examinent les effets des conditions de travail sur la santé, hormis celles concernant l’environnement (amiante,
95. En 2009, 95 % des chauffeurs routiers estimaient être exposés aux accidents, alors qu’ils étaient 80 % vingt ans auparavant. 154
LE NOMBRE ET LA CITÉ
La statistique rend-elle compte à temps des transformations sociales ?
radioactivité…) et quelques-unes sur les maladies professionnelles ou la durée de vie. On dispose de comparaisons entre pays, du moins au sein de l’Union européenne (Enquêtes européennes sur les conditions de travail – EWCS). Schématiquement, les pays nordiques connaissent de bonnes conditions de travail. La situation est plus critique dans la « nouvelle Europe » (Europe centrale et de l’Est). On constate aussi des évolutions, la Grande-Bretagne se rapprochant des pays de l’Est, avec une exigence patronale de travail de plus en plus intensif. Formes et contrats d’emploi On souligne souvent que la montée de la précarité de l’emploi, qui est une catégorie politique bien française96, succèderait à la période des Trente glorieuses. Mais a-t-on un moyen de la mesurer ? On dispose de nombreuses données sur les contrats d’emploi, les trajectoires des employés, leur mobilité, les transitions entre emploi, chômage, inactivité97… Il n’est toutefois pas facile de les interpréter en termes de qualité de l’emploi et d’évolution de celle-ci. En effet, il faut tout d’abord réfuter l’idée selon laquelle la dualisation du marché du travail opposant la stabilité de l’emploi à son insécurité épouse la distinction entre CDI (contrat à durée indéterminée) et tous les autres contrats rassemblés sous l’appellation de FPE (voir plus haut). Des CDI peuvent comporter une précarité dans des entreprises fragiles, susceptibles de fermer prochainement, ou dans des entreprises sous-traitantes très dépendantes de leurs donneurs d’ordre. Il existe aussi des CDI assortis de conditions « non soutenables » dues à certaines organisations industrielles et à des contraintes d’adaptation fréquente, des temps partiels subis, etc. À l’inverse, les 96. En France, les chercheurs et les acteurs sociaux ont utilisé de plus en plus fréquemment, depuis les années 1970, le mot « précarité », qui est difficile à traduire dans les langues d’Europe du Nord. Des sociologues sont certainement à l’origine de la fortune de ce concept : on citera Agnès Pitrou, Claudine Offredi, Serge Paugam. 97. Est considérée comme inactive une personne sans emploi qui n’en cherche pas : par exemple une femme au foyer. 155
Partie 2. La statistique doit répondre aux questions sur son utilisation
emplois à durée déterminée ou la succession d’emplois courts ne conduisent pas toujours à la précarité : certains contrats d’alternance sont des tremplins vers des emplois stables et il y a des salariés qui enchaînent durablement des CDD ou des missions d’intérim. Au sujet des FPE, il faut noter le contraste entre statistiques de flux et statistiques de stock : même si les flux (c’est-à-dire les mouvements) augmentent beaucoup, le nombre de salariés dans ces différents statuts à un moment donné reste relativement peu important. Cette contradiction apparente s’explique par la rotation des salariés et le nombre des emplois de très courte durée : une forte proportion des embauches en FPE porte sur des contrats de moins d’un mois. Qu’en est-il des transitions sur le marché du travail ? Il importe de bien distinguer ce qui relève de la fluidité – les mobilités d’emploi à emploi – de ce qui ressortit à l’insécurité – les transitions ou alternance entre emploi et chômage. Les taux de mobilité entre emplois dépendent fortement de la situation économique : les changements d’emploi sont favorisés par une bonne conjoncture. Du fait des cycles conjoncturels, il n’est pas toujours aisé de dégager une tendance. Le temps de travail On observe, partout dans le monde, une baisse historique de la durée du travail, mais à des rythmes inégaux. La notion de temps de travail est devenue de plus en plus complexe avec les horaires variables, le travail des jours fériés, le temps partiel, la saisonnalité de diverses activités, le télétravail, etc. Faut-il alors parler de durée de travail quotidienne, hebdomadaire, annuelle, ou même durant toute sa vie active ? Mesurer cette durée fait toujours polémique. En France, en 1998, les lois Aubry, dont l’objectif était la diminution du chômage, abaissaient la durée légale du travail à 35 heures par semaine. Elles ont donné lieu à de nombreuses évaluations. La Dares (Direction de l’animation de la recherche, des études et des statistiques du ministère du Travail) et le Crest (Centre de recherche 156
LE NOMBRE ET LA CITÉ
La statistique rend-elle compte à temps des transformations sociales ?
en économie et statistique) ont estimé leurs effets sur l’emploi à 350 000 créations98 entre 1998 et 2003. Mais il est difficile, pour mesurer, d’isoler l’effet de la réduction du temps de travail de celui des incitations financières et des négociations qui l’ont accompagnée. Il n’a pas été possible de savoir si les emplois créés au total fin 2002 auraient été créés sans les lois concernées, ni s’ils ont été pérennes : la loi a été remise en cause ensuite. 40,0 39,0 38,0 37,0 36,0 35,0 34,0 33,0 1997 1998 1999 2000 2001 2002 2003 2004 2005 2006 2007 2008 2009 2010 2011
TPE
Entreprise de 10 salariés ou plus
Figure 27 | Évolution de la durée collective du travail entre 1997 et 2011 (Source : Dares). Champ : ensemble des salariés à temps complet travaillant dans les entreprises des secteurs concurrentiels non agricoles, hors intérimaires et stagiaires ; France métropolitaine. TPE : très petites entreprises.
Quel est l’avenir de l’emploi et du travail à l’heure du numérique ? D’autres transformations du travail sont certainement à prévoir avec le développement du numérique. De nombreuses études tentent d’évaluer le nombre d’emplois actuels susceptibles d’être automatisés, donc supprimés dans les prochaines années : elles aboutissent à des estimations très diverses indiquant une grande incertitude. Une étude de l’OCDE préconise 98. Ces estimations reposaient sur l’enquête trimestrielle du ministère du Travail (auprès d’un échantillon d’environ 34 000 établissements du secteur concurrentiel, hors agriculture), relative à l’emploi, aux salariés et à la durée du travail. 157
Partie 2. La statistique doit répondre aux questions sur son utilisation
de raisonner sur des tâches plutôt que sur des professions ; chaque profession recouvre de nombreuses tâches, dont certaines sont automatisables, d’autres non ou très difficilement. La question, pourtant primordiale, des créations d’emplois nouveaux est peu abordée ainsi que celle des transformations des professions existantes. Des enquêtes (Dares et COE : Conseil d’orientation de l’emploi) s’intéressent à l’impact de l’automatisation sur les emplois : quels sont les emplois vulnérables, ceux qui sont appelés à disparaître ou à évoluer, ceux dont la qualité peut être améliorée ? L’avenir est incertain, car il faut tenir compte des politiques qui seront mises en œuvre, des nouveaux modes d’organisation, de résistances possibles de la part des travailleurs.
8.4 LE « HALO » DU BÉNÉVOLAT Café de référence 55 (liste page 245)
Les bénévoles agissent en faveur d’autrui sans être rémunérés et sans y être forcés. Le rôle social du bénévolat est important, aussi bien pour le bénéficiaire que pour le bénévole. Évaluer le travail bénévole d’un point de vue économique et social implique de le repérer et d’établir des normes afin de pouvoir effectuer des comparaisons dans le temps et dans l’espace. Le bénévolat organisé s’exerce au sein d’une institution, le plus souvent une association, tandis que le bénévolat informel renvoie aux services rendus entre ménages ou à la collectivité, en dehors de toute structure. Pour définir ce qu’est le travail bénévole, on peut tenter de le caractériser : il doit être volontaire, non rémunéré, constituer un travail et non un loisir, être distingué du travail domestique ; il peut relever de la formation dans le cas de participation libre à un stage non rémunéré. Peut-on parler de bénévolat quand l’action n’est pas totalement désintéressée ? La question fait débat. Volontariat 158
LE NOMBRE ET LA CITÉ
La statistique rend-elle compte à temps des transformations sociales ?
n’est pas synonyme de bénévolat : les volontaires du service civique indemnisés en dessous du RSA, ou les docteurs volontaires de MSF (Médecins sans frontières) qui acceptent une rémunération minimale dans le cadre d’un contrat de travail, ne peuvent être qualifiés de bénévoles. Une approche stricte du bénévolat peine à déboucher sur une définition opérationnelle. La définition retenue au niveau international insiste surtout sur l’abandon de rémunération : « est considéré comme travail bénévole une activité non rémunérée qui, si elle recevait rémunération, serait considérée comme un travail ». Un Manuel de la mesure du travail bénévole, outil de normalisation statistique, est disponible depuis 2011 sur le site du Bureau international du travail (BIT). Estimer le bénévolat est une manière de faire reconnaître son poids dans la société. Deux sources statistiques existent : les enquêtes auprès des ménages et les enquêtes auprès des associations. Les enquêtes auprès des ménages99 permettent de connaître le nombre et les caractéristiques des personnes qui s’investissent dans le bénévolat, y compris en dehors des associations, voire d’approcher le bénévolat informel ; mais elles ne repèrent pas bien le statut de l’organisme bénéficiaire ni l’importance du travail bénévole accompli. En 2010, on considère qu’environ le tiers des adultes peuvent être qualifiés de bénévoles : cela représente 16 millions de personnes. Pour autant, il n’existe pas de statut du bénévole. Les enquêtes auprès des associations100, si elles appréhendent bien les informations sur l’organisme bénéficiaire et l’importance du travail bénévole, ne comptabilisent que des « participations bénévoles » et bien entendu ignorent tout ce qui relève du bénévolat hors association, non seulement le bénévolat informel, mais aussi le bénévolat « organisé » dans des organismes sans but lucratif n’ayant pas le statut 99. La plus récente date de 2010. 100. Cf. « Neuf associations sur dix fonctionnent sans salarié », Insee Première no 1587, mars 2016. 159
Partie 2. La statistique doit répondre aux questions sur son utilisation
associatif (par exemple églises, cultes, partis politiques). On compte en 2014 1,3 million d’associations actives, lesquelles interviennent principalement dans les domaines du sport, de la culture, des loisirs, de la défense des droits ou intérêts de leurs membres et de la promotion de diverses causes. Les bénévoles interviennent dans la quasi-totalité d’entre elles et représentent environ 680 000 emplois en équivalent temps plein. La cohérence des résultats de ces deux types d’enquêtes est d’autant plus difficile à assurer que le questionnement n’a pas été stable dans les enquêtes auprès des ménages. La question se pose pour les associations de valoriser le bénévolat dont elles bénéficient, afin de le situer parmi d’autres ressources, telles que les subventions des pouvoirs publics ou les dons monétaires. Il s’agit alors de valoriser le nombre d’heures de travail effectuées par les bénévoles, à un taux qui peut être le Smic ou le salaire moyen soit du secteur employeur, soit de l’action sociale. L’évaluation monétaire ainsi réalisée pèse entre 1 % et 2 % du PIB de la France, ce qui n’est pas négligeable. Puisque le bénévole exerce un travail sans être rémunéré, ne doiton pas considérer qu’il prend la place d’un salarié ? Non, car les associations ne disposent pas des ressources nécessaires pour financer les emplois concernés. On peut noter la coexistence des bénévoles et des salariés sur les mêmes postes, dans des associations telles que SOS Amitié. La situation peut parfois devenir conflictuelle, par exemple dans le cas de l’enseignement du français comme langue étrangère à l’attention des immigrés, quand des bénévoles assurent une fonction à laquelle pourraient prétendre des personnes diplômées pour exercer un tel métier. Dans une société d’individualisme croissant, les bénévoles, dont les motivations sont essentiellement le désir d’aider autrui et la recherche de sociabilité, sont de plus en plus nombreux. Le fait d’être diplômé, âgé de plus de 35 ans et l’influence des valeurs familiales jouent en faveur de la participation au bénévolat. 160
LE NOMBRE ET LA CITÉ
La statistique rend-elle compte à temps des transformations sociales ?
8.5 DÉLOCALISATIONS : OÙ EST LA FRANCE ? Café de référence 24 (liste page 245)
L’internationalisation de l’économie, appelée plus couramment mondialisation, est un des phénomènes majeurs du dernier demisiècle. Comment la statistique s’y est-elle adaptée ? Ses outils traditionnels pour mesurer l’ouverture des économies – les exportations et les importations par produit – convenaient tant que la production des biens échangés s’effectuait en des pays bien identifiés et, surtout, que les acteurs économiques exerçaient leur activité dans un seul pays. Il n’en va plus ainsi. Certains produits sont fabriqués dans des « chaînes de valeur » internationales. Des groupes d’entreprises se sont formés, dont les décisions économiques obéissent à des logiques mondiales. On attend de la statistique qu’elle éclaire les conséquences nationales et locales de ces évolutions. Périodiquement, les médias annoncent la fermeture d’une usine, le transfert d’une activité à l’étranger. Ce sont des événements ponctuels qui frappent l’opinion et appellent des réactions des pouvoirs publics. Mais peut-on en mesurer l’importance globale, en préciser les déterminants, en voir les conséquences pour le pays tout entier ? Depuis des décennies, l’emploi industriel recule en France : faut-il attribuer cela aux délocalisations que la mondialisation entraîne ?
Figure 28 | Un commerce mondial partout perceptible (Source : pinterest.com).
161
Partie 2. La statistique doit répondre aux questions sur son utilisation
Face à ces questions, la statistique a d’abord répondu en mobilisant les données nationales existantes : comptes d’entreprises, statistiques douanières, données sur l’emploi. Pour évaluer les délocalisations, il faut y ajouter des hypothèses. Ainsi, dans une étude restée célèbre de 2005101, les auteurs ont considéré que si on observe simultanément une chute brutale de la production d’une entreprise, une baisse de l’emploi et une modification des échanges extérieurs (baisse des exportations ou augmentation des importations), alors ce faisceau d’indices permet de supposer que l’acteur économique concerné a délocalisé tout ou partie de sa production. D’autres études ont suivi des procédures analogues. Ces travaux, de l’aveu même de leurs auteurs, ne peuvent pas constituer une mesure suffisante du phénomène. Non pas parce qu’ils aboutissent à des estimations modestes par rapport aux idées répandues a priori : de ce point de vue, ils ont constitué des cadrages utiles. Mais, par construction, ils laissent de côté bien d’autres modalités des décisions économiques des grands groupes qui ont un impact sur les économies nationales. Par exemple, ils ne peuvent pas saisir les choix des groupes en matière de sous-traitance. Certains constructeurs d’automobiles, qui ont transféré des activités dans les pays émergents (souvent pour conquérir de nouveaux marchés), ont choisi des soustraitants locaux à la place de leurs anciens sous-traitants français : aucune source ne permet de repérer et d’évaluer cet impact. Et ce n’est qu’un exemple. La question se pose aussi lorsqu’on veut prendre en compte les services, la recherche, etc. Pour que la statistique réponde pleinement au défi que lui pose la mondialisation, il faut beaucoup plus qu’une simple réutilisation de données existantes. D’abord, il faut de nouveaux concepts. La redéfinition de la notion même d’entreprise comme « centre de décision économique » dans le cadre des groupes est indispensable 101. Patrick Aubert et Patrick Sillard, « Délocalisations et réductions d’effectifs dans l’industrie française », document de travail Insee, G 2005/03, avril 2005. 162
LE NOMBRE ET LA CITÉ
La statistique rend-elle compte à temps des transformations sociales ?
(cf. sujet 2.1 : « Entreprise : qu’est-ce à dire ? »). Il faut aussi caractériser correctement les opérations de ces entreprises : qu’est-ce qui est production, qu’est-ce qui est échange ? Les règles de comptabilité nationale doivent être précisées dans un nouveau contexte juridique : l’Onu s’y emploie, non sans difficultés et polémiques102. Il faut aussi de nouvelles sources d’information sur l’activité et les décisions des grands groupes. Un pas a été fait dans ce sens par l’Union européenne. En application d’un règlement de 1998103, chacun peut aujourd’hui se faire une idée du poids des filiales d’entreprises étrangères en France, en termes d’emploi ou de chiffre d’affaires, et réciproquement de l’importance des filiales étrangères des têtes de groupes françaises. Mais il n’existe pas d’enquête dans laquelle on interrogerait les entreprises sur les délocalisations auxquelles elles ont procédé, encore moins sur leurs intentions de délocalisation. On se heurte à deux obstacles majeurs : le secret des affaires et l’absence d’un système statistique mondial organisé. Pour les grands groupes multinationaux, les pays ne sont que des régions du monde. Peut-être risque-t-il d’arriver à la statistique économique nationale ce qui est arrivé à la statistique économique régionale. Au début des années 1970, les statisticiens essayaient d’évaluer les échanges industriels entre les régions : ils y ont renoncé, faute de sources fiables, et se contentent aujourd’hui de calculer des productions régionales, non sans difficulté. Va-t-on vers une évolution analogue à l’échelle planétaire ? Pourtant, une description fine de la répartition de la production et des échanges reste indispensable pour comprendre l’évolution de l’économie mondiale.
102. Voir les annales des colloques organisés par l’Association de comptabilité nationale à l’adresse https://www.insee.fr/fr/information/1894371 103. Règlement (CE) no 2702/98 de la Commission, qui organise la transmission d’informations sur les entreprises appartenant à des groupes afin de constituer les « statistiques communautaires sur la structure et l’activité des filiales étrangères » (c.-à-d. : étrangères au pays de la tête de groupe). 163
9 La statistique peut-elle surmonter les différences culturelles, linguistiques, juridiques ?
La statistique ne peut dénombrer quoi que ce soit si elle ne sait ce qu’elle doit dénombrer. Elle se déploie donc dans un univers de définitions et de conventions qui, elles-mêmes, nourrissent les nomenclatures dans lesquelles viendront se déposer, couche après couche, les résultats de ses calculs. Dès lors que les nomenclatures sont stables, on voit que des comparaisons dans le temps sont possibles. Mais les comparaisons dans l’espace ? Celles-ci requièrent l’usage des mêmes nomenclatures dans les différents lieux que l’on veut comparer. Cela se fait en principe sans difficulté si les lieux en question participent d’un même espace linguistique, juridique et culturel. Il en va autrement en matière de comparaisons internationales : dans chaque pays, l’histoire a façonné le langage et le corps de règles de droit applicable aux personnes et aux choses. S’entendre par-delà 165
Partie 2. La statistique doit répondre aux questions sur son utilisation
les frontières sur des concepts et définitions est un obstacle préalable plus difficile à franchir qu’il n’y paraît. Tant qu’il s’agit de compter des êtres humains, on peut s’entendre aisément. Mais comment trouver, par exemple, une définition de l’entreprise commune à deux organisations économiques distinctes ? Dans un espace comme l’Union européenne, cette difficulté devait d’autant plus être surmontée que les critères statistiques jouent un rôle de premier plan dans le suivi du respect de décisions communes relatives à l’endettement et aux déficits publics. Et non seulement il faut s’entendre entre États membres, mais il faut aussi se faire confiance, confiance qui s’est construite autour de la codification des bonnes pratiques statistiques et l’harmonisation des méthodes. Pour autant, tous les obstacles ne sont pas levés, même quand les fichiers administratifs fournissent au statisticien pléthore de données chiffrées. Savoir si le citoyen est davantage imposé dans tel pays plutôt que tel autre peut paraître simple. En réalité, l’organisation administrative et les pratiques fiscales de chaque pays constituent un entrelacs si ardu à démêler que certaines voix – sans doute excessives au regard de ce qui peut être fait – dénoncent la vanité de cette entreprise. Et quand il s’agit de faire des comparaisons sur des sujets autres que les comptes publics ou la fiscalité, le poids des cultures nationales se fait sentir. Un bon exemple est celui de la réussite scolaire. Une fois définis l’objectif (à savoir comparer les performances de différents systèmes éducatifs) et la manière de faire (en l’occurrence, évaluer les compétences acquises par les élèves dans certaines matières à 15 ans), il reste à élaborer des questions qui seront comprises de la même manière aux quatre coins de la planète, dans des langues et des cultures différentes. Le plus étonnant est qu’on y parvient ! Étant en si bonne voie, et poussés à la fois par le corps social et par le personnel politique, les statisticiens se demandent maintenant comment mesurer les progrès d’une société. Pendant des décennies, l’indicateur universellement reconnu a été le produit intérieur brut (PIB) de chaque pays. Mais, facile à utiliser pour des comparaisons 166
LE NOMBRE ET LA CITÉ
La statistique peut-elle surmonter les différences culturelles ?
spatiales et temporelles, le PIB ne dit pas tout d’une société. Par exemple, il est muet sur la qualité de la vie des citoyens et ne dit rien des atteintes portées à l’environnement. Bien sûr, les statisticiens n’ont pas l’ambition de produire un indicateur unique prenant en compte toutes les composantes de la vie d’une société ! Plus modestement, ils s’attachent à éclairer différents aspects de celle-ci par autant d’indicateurs, dont la multiplicité n’est pas sans poser à son tour des problèmes, cette fois de communication…
9.1 COMPARAISONS EUROPÉENNES : LA STATISTIQUE SERAIT-ELLE FÉDÉRATRICE ? Cafés de référence 2, 61, 101 (liste page 245)
Une construction dans laquelle la statistique joue un grand rôle Entre 1985 et 2000, la construction européenne a franchi des étapes importantes avec l’achèvement du marché unique et la décision de créer la monnaie unique, sans oublier l’élargissement à plusieurs pays d’Europe centrale. Pendant cette période, des moyens financiers pour la statistique ont pu être obtenus en amont de chaque nouvelle politique européenne : « 1 % de l’enveloppe financière dévolue à chaque projet sera consacré à la statistique ». Il faut compter cinq ou dix ans entre le moment où on commence à monter un dispositif statistique et le moment où celui-ci produit ses premiers résultats : l’horizon des politiques était alors suffisamment long pour être compatible avec cette exigence. Depuis quelques décennies, les projets politiques sont moins ambitieux, mais l’exigence statistique ne s’est pas démentie, loin de là. Dans certains cas, on a utilisé des critères statistiques dans la formulation même des décisions politiques, comme dans les critères de Maastricht portant sur la dette publique et le déficit public. Dans d’autres cas, 167
Partie 2. La statistique doit répondre aux questions sur son utilisation
les statistiques servent à l’évaluation comparative (benchmarking) des États vis-à-vis de la poursuite des objectifs définis en commun. C’est la nature même de la construction européenne qui explique le lien étroit entre la politique et la statistique au niveau européen. Les décisions communautaires sont exécutées de façon autonome par plus de vingt-cinq autorités nationales. Le système ne peut donc fonctionner que si les États se font confiance dans leur nécessaire coopération. Cette confiance s’appuie notamment sur des instruments statistiques permettant de vérifier l’avancement des projets et la bonne exécution des intentions.
Figure 29 | Réunion du comité du Système statistique européen autour du directeur général d’Eurostat en 2014 (Source : Eurostat).
Les piliers de la confiance C’est dire que les statistiques communautaires ne joueront leur rôle politique que si elles sont fiables, et comparables entre les États membres. Comme on le sait, cela n’a pas toujours été le cas : l’exemple des statistiques des finances publiques grecques est présent dans toutes les mémoires. L’histoire de la construction de la statistique européenne est marquée par une série d’efforts pour améliorer la comparabilité et donc la confiance. 168
LE NOMBRE ET LA CITÉ
La statistique peut-elle surmonter les différences culturelles ?
Celle-ci repose sur trois piliers. Le premier est l’indépendance professionnelle des statisticiens : dans la collecte des données, dans leur traitement et dans la diffusion des résultats, ils ne doivent pas être soumis à des injonctions aboutissant à modifier ces résultats104, que ces injonctions émanent d’autorités nationales ou européennes. L’Europe s’est dotée d’un Code de bonnes pratiques de la statistique dont c’est un principe essentiel. Le second pilier est la mise au point en commun de concepts, de définitions et de normes applicables sur tout le territoire de l’Union européenne. C’est ainsi que, pour l’application des critères de Maastricht, ont été établies des normes précises, tirées du système européen de comptabilité nationale105. Autre exemple : dans une optique de croissance inclusive, la Commission a fixé plusieurs grands objectifs chiffrés à l’Union, en particulier « atteindre en 2020 un taux d’emploi de 75 % ». Pour traduire cet objectif en une définition statistique détaillée, les statisticiens se sont appuyés sur les recommandations établies de longue date par le Bureau international du travail (BIT), organisme de l’Onu. On y trouve une définition précise des personnes ayant un emploi : ce sont les personnes ayant travaillé au moins 1 heure dans la semaine considérée (dite semaine de référence) ou qui étaient temporairement absentes de leur emploi pour cause de maladie, de congés, etc. Chaque État membre doit adopter cette définition. Le troisième pilier se situe au niveau des méthodes statistiques, et là il y a eu une évolution. Longtemps a prévalu la notion de gentlemen’s agreement : une fois défini ce qu’il s’agissait de mesurer, chaque institut national de statistique restait responsable de choisir les meilleures méthodes pour ce faire, compte tenu de son propre contexte. Progressivement s’est imposée la notion opposée de l’harmonisation par les intrants. Selon cette notion, une meilleure comparabilité est 104. Voir à ce propos le chapitre 6. 105. Adopté comme « règlement européen » en 1995, révisé en 2010. 169
Partie 2. La statistique doit répondre aux questions sur son utilisation
obtenue si les instituts nationaux recourent à des méthodes dont les éléments-clés sont les mêmes : par exemple le recours à des enquêtes, les règles définissant la taille des échantillons, etc. Dans les années récentes, ces éléments-clés ont été inscrits dans des règlements européens, s’imposant donc juridiquement à tous les États. Mais jusqu’où faut-il aller dans l’harmonisation des méthodes ? Récemment, des chercheurs ont montré qu’une partie de l’écart entre la durée du travail en France et la durée du travail en Allemagne, publiées par Eurostat, était imputable à un détail de méthode de collecte106. Dans d’autres cas, des facteurs culturels jouent même sur le sens des mots : ainsi, le qualificatif d’apprenti recouvre-t-il une situation bien différente en Allemagne et en France107. La statistique européenne reproduit à son niveau l’originalité de la construction européenne : sa conception est faite en commun, mais son exécution est déléguée aux États, à de très rares exceptions près. Obtenir des statistiques comparables, qui emportent la confiance de tous, fait pleinement partie du défi européen.
9.2 PAYONS-NOUS TROP D’IMPÔTS ? Cafés de référence 54 et 104 (liste page 245)
Dans tous les pays du monde, la puissance publique prélève une part du revenu des habitants et des entreprises. Les impôts et les taxes sont connus depuis que l’histoire existe ; au xxe siècle, s’y sont ajoutées les cotisations sociales obligatoires. L’ensemble forme les prélèvements obligatoires. 106. Il s’agit du choix de la « semaine de référence » que le règlement européen laisse à la discrétion des pays. Voir : « La fragile comparabilité des durées de travail en France et en Allemagne », Thomas Körner (Destatis) et Loup Wolff (Insee), Insee Analyses no 26 – Juin 2016. 107. Pour grossir le trait : en Allemagne, les apprentis sont considérés comme des travailleurs, en France comme des étudiants. 170
LE NOMBRE ET LA CITÉ
La statistique peut-elle surmonter les différences culturelles ?
Mesurer ces prélèvements est assez simple, du moins dans les pays disposant d’une comptabilité publique fiable. Il suffit de repérer, parmi l’ensemble des recettes des administrations publiques (État, collectivités locales et Sécurité sociale), celles qui sont prélevées de façon obligatoire et en l’absence d’une contrepartie « directe et immédiate ». En France, par exemple, les cotisations pour la retraite complémentaire versées à l’Arrco108 ou l’Agirc109 sont obligatoires pour les salariés relevant de ces régimes : elles font donc partie des prélèvements obligatoires. En revanche, ce n’est pas le cas des cotisations versées aux mutuelles d’assurancemaladie complémentaire qui sont acquittées par chacun selon son gré. Dans d’autres pays, le montant des assurances facultatives, tout au moins celles pour lesquelles il est possible de choisir l’assureur, la nature et le prix du contrat, est plus élevé qu’en France. De cette manière, on constate que l’organisation administrative d’un pays influence beaucoup son taux de prélèvements obligatoires. Par ailleurs, qui dit taux dit dénominateur auquel rapporter le montant monétaire des prélèvements. On utilise pour cela le produit intérieur brut (PIB) du pays. Les puristes font remarquer que certains impôts ne reposent pas sur le PIB : c’est vrai. Plutôt que comme une base d’imposition, il faut considérer ici le PIB comme un gabarit pour prendre en compte les différences de taille économique des pays. L’OCDE110 publie régulièrement des comparaisons des taux de prélèvements obligatoires des principaux pays développés (cf. figure 30). La France affiche un des taux les plus élevés, proche de 45 %, contre 27 % aux États-Unis.
108. Association des régimes de retraite complémentaire des ouvriers. 109. Association générale interprofessionnelle de retraite des cadres. 110. Organisation de coopération et de développement économiques. 171
Partie 2. La statistique doit répondre aux questions sur son utilisation
43,3
30,7
32,0
Japon
Canada
32,5
34,0
45,2
37,1
26,2
États-Unis
Royaume-Uni Moyenne OCDE Allemagne
Italie
France
Figure 30 | Taux des prélèvements obligatoires en pourcentage du PIB en 2015 (Source : OCDE).
L’évaluation du taux de prélèvement se complique si l’on considère que l’État peut redonner d’une main ce qu’il a prélevé de l’autre. Un impôt, ou une cotisation, est généralement établi avec une norme originelle, définissant la base contributive et le taux général. Souvent, la puissance publique décide de déroger à cette norme au profit d’une catégorie particulière d’assujettis. Tantôt il s’agit d’adapter l’impôt à la capacité contributive réelle de cette catégorie : ainsi, les règles du quotient familial visent-elles à proportionner l’impôt sur le revenu aux capacités contributives des familles, compte tenu des charges que leur occasionnent leurs enfants111. Tantôt il s’agit d’inciter les contribuables à adopter des comportements jugés souhaitables par la puissance publique : ainsi peuvent s’interpréter les exonérations de charges sociales sur les bas salaires destinées à favoriser l’embauche des salariés les moins qualifiés. Tantôt, enfin, il s’agit seulement d’apaiser le mécontentement de catégories d’assujettis disposant de capacités de nuisance : les mesures dérogatoires apparaissent alors paradoxalement comme des moyens de rendre l’impôt acceptable ! On peut citer l’exemple des transporteurs routiers et des taxis qui 111. Cette interprétation du quotient familial ne fait pas l’unanimité. Pour certains, il s’agit plutôt d’une mesure incitative à la natalité. 172
LE NOMBRE ET LA CITÉ
La statistique peut-elle surmonter les différences culturelles ?
bénéficient d’une imposition allégée sur le gazole : c’est grâce à cet allégement que la taxation générale du gazole peut être augmentée sans provoquer de conflit social avec les professions en question. Ces mesures dérogatoires peuvent prendre diverses formes : crédit d’impôt, réduction d’impôt (dans la limite de l’impôt dû), déduction de frais ou de charges, abattement, exonération, taux réduit (voir la TVA à taux réduit). Elles sont appelées dépenses fiscales, et le plus souvent niches fiscales, lorsqu’elles s’appliquent à des impôts ; on parle de niches sociales lorsqu’elles concernent des cotisations sociales. De telles mesures existent dans tous les pays, mais elles sont particulièrement nombreuses en France. Un rapport de 2011112 estimait à 104 milliards d’euros le coût de 538 niches fiscales et sociales, alors que le montant total des prélèvements obligatoires avoisinait 800 milliards. Et l’importance des niches n’a pas beaucoup diminué depuis, malgré les bonnes résolutions affichées. Une dépense fiscale a le même effet sur le déficit public qu’une dépense réelle ou une subvention : mais comme il s’agit d’une diminution de recettes, elle contribue à diminuer le taux des prélèvements obligatoires, ce qui est meilleur pour l’affichage. Par ailleurs, pour comparer utilement les différences des taux de prélèvement entre les pays, il faut examiner les contreparties que les administrations publiques apportent aux citoyens et aux entreprises. Des prélèvements obligatoires élevés, s’ils permettent de financer des services publics efficaces ou de constituer et d’entretenir des infrastructures publiques de qualité, jouent un rôle positif pour l’activité économique. S’ils permettent de redistribuer les revenus entre catégories sociales, ils contribuent à la lutte contre la pauvreté et à l’équité. Dans tous les cas, seules des évaluations portant sur l’efficacité des dépenses publiques peuvent permettre d’éclairer la question « Payons-nous trop d’impôts ? ». 112. Rapport du Comité d’évaluation des dépenses fiscales et des niches sociales, juin 2011. 173
Partie 2. La statistique doit répondre aux questions sur son utilisation
Beaucoup en concluent à l’inutilité des comparaisons internationales des taux de prélèvements obligatoires. C’est aller trop loin. Elles retracent l’extension du domaine d’influence des administrations publiques, agissant de façon coercitive, dans l’économie. À l’heure où les capitaux se déplacent librement d’un pays à l’autre, ce n’est pas une information sans importance.
9.3 RÉUSSITE SCOLAIRE : ÉVALUER LES ÉLÈVES, OU LE SYSTÈME ? Cafés de référence 7, 35 et 62 (liste page 245)
Les objectifs assignés au système scolaire sont multiples : il doit viser pour les élèves l’acquisition de connaissances, de compétences, l’employabilité, mais aussi l’acquisition de la citoyenneté. Qu’en estil de la réussite des élèves, de la performance des établissements, de l’efficacité du système éducatif ? Depuis déjà longtemps, de nombreuses enquêtes nationales (panel d’élèves, classements et palmarès de lycées…) et internationales113 sont réalisées autour de ce thème d’intérêt majeur pour tous les parents et les éducateurs. L’enquête Pisa114 est l’héritière de ces travaux, aussi bien dans sa conception que dans ses méthodes. L’OCDE, qui la met en œuvre, en fait une large médiatisation, contribuant ainsi à sa notoriété. 113. Des dispositifs d’évaluation internationaux ont existé dès la décennie 1950, sous l’égide de l’Unesco dont l’action fut relayée dans les années 1960 par l’IEA (International Association for the Evaluation of Educational Achievement), association qui a promu depuis lors de nombreuses enquêtes de comparaisons internationales : Reading Literacy (1991), TIMSS (Trends in International Mathematics and Science Study, 1995, 1999, 2003, 2007, 2011, 2015), PIRLS (Progress in International Reading Literacy Study, 2001, 2006, 2011, 2016). 114. Pisa (Programme international pour le suivi des acquis des élèves) est une enquête standardisée triennale réalisée dans le cadre de l’OCDE (Organisation de coopération et de développement économiques) auprès des enfants scolarisés âgés de 15 ans. Lancée pour la première fois en 2000 dans 32 pays, elle a eu lieu ensuite en 2003 dans 41 pays ; elle a concerné 79 pays en 2018. Selon les pays, les tests sont passés par 4 500 à 10 000 élèves. 174
LE NOMBRE ET LA CITÉ
La statistique peut-elle surmonter les différences culturelles ?
L’objectif de cette enquête est de comparer les performances de différents systèmes éducatifs en évaluant les compétences acquises par les élèves à 15 ans. Il s’agit de comprendre ce qui les prépare le mieux à leur vie d’adulte. Elle évalue trois domaines : la compréhension de textes écrits, la culture mathématique et la culture scientifique. En 2018, les élèves ont aussi été questionnés sur leur milieu socioculturel et sur les techniques de l’information et de communication. Pisa donne lieu à des questionnaires traduits dans plusieurs dizaines de langues selon des procédures très strictes. Cela impose un grand luxe de précautions pour assurer la validité des comparaisons internationales : il faut veiller à la pertinence, la précision et l’unidimensionnalité de la mesure, celle-ci devant permettre un classement univoque des élèves, indépendamment des cultures. L’enquête repose sur une batterie d’items dont on a vérifié dans le passé la comparabilité entre pays : des élèves de même niveau réussissent ces items dans les mêmes proportions, quelle que soit leur origine. Lors de l’étude préalable d’un nouvel item qu’on envisage d’intégrer à l’enquête, si on constate qu’il est mieux résolu en France qu’un item du questionnaire classique, alors qu’il est moins bien résolu dans les autres pays, c’est qu’il existe un fonctionnement différentiel du nouvel item en France, et on ne doit pas le retenir dans la comparaison internationale. Le constat éventuel de la spécificité culturelle d’une réponse est intéressant par lui-même, puisqu’il justifie des investigations de nature à permettre l’amélioration du questionnement. Les systèmes éducatifs performants selon Pisa ont des spécificités : faible compétition entre écoles quant au recrutement des élèves, pas d’orientation précoce des élèves, mixité sociale, peu ou pas de redoublements, pas d’éviction des écoles des élèves difficiles ou moins performants, effectifs pas spécialement faibles dans les classes, des enseignants bien payés. La France doit-elle s’inspirer de ces résultats pour faire évoluer son système éducatif ? Bien sûr, tout cela appelle beaucoup de nuances et il existe des pays performants qui ne présentent pas tous ces caractères et d’autres qui ont des traits de cette nature sans briller par leur résultat d’ensemble. 175
Partie 2. La statistique doit répondre aux questions sur son utilisation
900 800 700 600 500 400 300 200 -4
-3
-2
-1
0
1
2
3
Figure 31 | Statut socio-économique des élèves et performance scolaire (Source : OCDE – enquête Pisa 2015). Lecture : Chaque point représente un élève. En abscisse : l’indice Pisa de statut économique, social et culturel de cet élève. En ordonnée : le score en sciences de l’élève aux tests Pisa 2015. Le trait oblique représente le gradient socio-économique de la performance dans l’ensemble de l’OCDE.
Le taux élevé de non-réponse ou du recours à « Ne sait pas » à l’enquête Pisa en France pose beaucoup de questions ; on peut avancer l’idée que l’erreur est considérée chez nous davantage comme une faute que comme un moyen de progresser. Cela rejoindrait le constat que les élèves français sont assez stressés et ont tendance, plus qu’ailleurs, à se dévaloriser. C’est en France que les résultats sont le plus fortement liés au statut socioprofessionnel des familles des élèves. L’utilisation de Pisa comme outil d’évaluation des établissements nécessite beaucoup de précautions : notamment, il faut veiller à ce que les enseignements ne cherchent pas à s’adapter aux évaluations pour obtenir de bons scores. La dimension internationale de Pisa est complémentaire des dispositifs d’observation nationaux qui, eux, poursuivent les objectifs propres à chaque pays. En France, entre 1994 et 2013, le ministère de l’Éducation nationale établissait des indicateurs pour le pilotage des établissements du second degré (Ipes). D’autres outils ont suivi pour améliorer la qualité du système éducatif. Il est essentiel d’impliquer 176
LE NOMBRE ET LA CITÉ
La statistique peut-elle surmonter les différences culturelles ?
dans les évaluations les personnels concernés, à qui on demande les données de base et dont on espère qu’ils changeront leur façon de faire. La publication de palmarès qui résultent de ces indicateurs est souvent utilisée par les parents pour choisir où inscrire leurs enfants, mais elle doit être interprétée avec prudence : par exemple, la comparaison du taux de réussite au baccalauréat d’un établissement à son taux attendu compte tenu de la structure de sa population selon l’âge, le sexe et la catégorie sociale estime mieux la capacité de l’établissement à accomplir sa mission qu’un taux brut. D’une façon générale, l’objectif des évaluations est de comprendre les facteurs qui influencent la réussite des élèves, afin d’améliorer l’efficacité des systèmes éducatifs. Elles soulèvent plus d’interrogations qu’elles n’apportent de réponses et il n’y a pas d’explication unique à chaque situation constatée. L’erreur trop souvent commise est de détourner les évaluations vers des palmarès.
9.4 LE PROGRÈS DES SOCIÉTÉS EST-IL MESURABLE ? Cafés de référence 5, 21 et 34 (liste page 245)
Le besoin de caractériser par un nombre l’activité économique d’un pays a émergé progressivement du xviie au xxe siècle. Après la Seconde Guerre mondiale, la comptabilité nationale s’est imposée pour satisfaire ce besoin, au travers du revenu national, puis du produit national brut, puis du produit intérieur brut, le fameux PIB. Le PIB d’un pays est calculé en agrégeant toutes les productions réalisées sur son territoire, déduction faite des doubles comptes115. Ce PIB est égal au montant total des revenus distribués, qu’ils soient utilisés pour de la consommation ou pour de l’épargne. De cette manière, le PIB est un indicateur du niveau de vie des populations. 115. Certaines productions sont utilisées pour d’autres productions, à titre de « consommations intermédiaires ». Il faut les déduire pour éviter les doubles comptes. 177
Partie 2. La statistique doit répondre aux questions sur son utilisation
De fait, le PIB est communément utilisé pour mesurer la composante économique du progrès des sociétés, au travers de comparaisons temporelles ou dans l’espace. Lorsque le PIB d’un pays stagne ou décroît, on s’alarme de cette régression ; à l’inverse, les pays dont le PIB augmente le plus vivement sont réputés les plus en progrès. Lorsque le PIB rapporté à la population est faible, on a affaire à un pays « moins avancé » ; lorsqu’il est élevé, à un pays « développé ». Rares sont les dirigeants politiques ou les commentateurs qui se permettent de ne pas prêter attention au PIB. Mais s’agit-il d’un bon indicateur du progrès des sociétés ? Les reproches faits au PIB, et plus largement à la comptabilité nationale, sont aussi anciens que celle-ci. Ils sont nombreux : • indicateur monétaire, lié à l’activité économique et seulement à elle, le PIB néglige d’autres composantes de la vie des gens et de la vie sociale qui ont pris de plus en plus d’importance dans les dernières décennies : loisirs, activités bénévoles ou citoyennes, etc. ; • la qualité de la vie n’est-elle pas liée à bien d’autres facteurs que le revenu ? C’est en partie la même idée ; • indicateur global, le PIB est aveugle aux disparités de situation entre les personnes d’un même pays et à leur évolution. La cohésion sociale n’est-elle pas aussi importante que l’évolution de la moyenne ? • indicateur de production brute, le PIB ne tient pas compte des prélèvements que l’activité économique réalise sur le milieu naturel : peut-on qualifier de progrès une croissance qui dévaste le monde légué aux générations futures ? • le PIB tient compte des activités qui compensent les effets des catastrophes : plus il y en a, plus il a vocation à s’élever. Toutes ces critiques se font entendre de plus en plus fort et interpellent les statisticiens. Les professionnels de la comptabilité nationale ont beau rappeler que jamais celle-ci n’a prétendu mesurer le bonheur des hommes, leur argumentation reste peu audible en raison du poids que le PIB et plus généralement les indicateurs macroéconomiques 178
LE NOMBRE ET LA CITÉ
La statistique peut-elle surmonter les différences culturelles ?
ont pris dans la vie publique. Le besoin de remédier aux insuffisances du PIB est proclamé partout, y compris parfois au plus haut niveau d’un État, comme ce fut le cas en 2009, lorsque le président de la République française a provoqué la réunion d’une commission d’experts internationaux116 prestigieux pour réfléchir à la réforme du PIB.
Figure 32 | Les onze rubriques du bien-être selon l’OCDE (Source : OCDE).
Le rapport de cette commission a dessiné plusieurs pistes de travail : • améliorer le PIB en prenant mieux en compte les paramètres économiques sur lesquels il est insuffisant ; • compléter la mesure de la qualité de la vie en recourant à d’autres indicateurs, soit objectifs comme l’espérance de vie, soit subjectifs comme l’appréciation du bonheur ; • créer des indicateurs de développement durable qui permettent de suivre les atteintes à l’environnement et plus généralement les impacts de la croissance sur les ressources naturelles et les milieux naturels. Près de dix ans plus tard, ces pistes de travail inspirent toujours de nombreux travaux innovants, en France comme dans le reste du monde. À l’indicateur unique succèdent donc des batteries d’indicateurs couvrant des domaines variés et qu’il n’est pas question de
116. Commission « Stiglitz-Sen-Fitoussi ». 179
Partie 2. La statistique doit répondre aux questions sur son utilisation
résumer ou de synthétiser dans un « super-PIB ». Cette complexité se paie par une moindre visibilité médiatique ! Bien que critiqué, le PIB est encore scruté et diffusé partout sur la planète. Quant au progrès des sociétés, cela reste une notion controversée : en tout cas, il ne saurait se réduire à l’augmentation de la production.
180
LE NOMBRE ET LA CITÉ
10 Les produits de la statistique sont-ils à la disposition des citoyens ?
Le citoyen fonde son opinion ou son jugement sur des impressions, des expériences personnelles, des informations plus ou moins exactes, voire des rumeurs ; il est parfois influencé par des a priori idéologiques ou par l’émotion. On attend de la statistique qu’elle parvienne à objectiver les sujets de société, dépassionner les débats, combattre les préjugés et faire abstraction des idéologies. Pourtant les chiffres ont du mal à venir à bout des a priori et des ressentis. Ils comportent approximation, arbitraire et sont facilement détournés au profit des convictions propres à chacun. Parlons des inégalités, par exemple : d’aucuns disent qu’elles augmentent pendant que d’autres affirment qu’elles diminuent, en mobilisant des exemples généralement convaincants, tant d’un côté que de l’autre. C’est que les résultats prônés par les uns ne disent pas la même chose que ceux affichés par les autres : parle-t-on des ménages et non d’individus ? parle-t-on de la même période d’évolution ? parle-t-on de disponibilités monétaires ou de conditions de vie ? 181
Partie 2. La statistique doit répondre aux questions sur son utilisation
Les statistiques produites font toujours suite à des points de vue (voir chapitre 2) dans la représentation de la réalité sociale qu’elles concernent. Mais la diffusion de chiffres passe souvent sous silence les choix et approximations qu’ils comportent : « 10 % de femmes sont victimes de violences conjugales », « la moitié des jeunes a déjà expérimenté le cannabis à 18 ans », « le taux de chômage a augmenté de 0,1 point en un mois »… La répétition quotidienne de ce type de messages incite à croire que ces chiffres sont des synthèses objectives de faits sociaux. Ils deviennent alors une réification d’une réalité complexe en dissimulant ainsi leur nébulosité. Beaucoup de chiffres sont disponibles qui décrivent des réalités complexes, mais, pour bien les comprendre, il faut se donner le temps d’examiner comment ils ont été élaborés, prendre en compte le fait que les données dont ils sont issus ne sont pas « données » mais construites, choisies. La publication de statistiques dans la plupart des médias est trop souvent réduite à l’extrême. De plus, elle cherche à séduire le lecteur par une présentation attractive au détriment de la précision, voire de l’exactitude. Une bonne intelligence des chiffres nécessite beaucoup plus de temps qu’une simple lecture. Que ce soit par l’intermédiaire de sites spécialisés ou à travers les médias, le citoyen français peut consulter de nombreuses statistiques concernant la vie de la société. L’utilisation de statistiques ne garantit pas l’objectivité absolue (inaccessible), mais procure une certaine mesure d’une certaine réalité sociale en préservant de l’impressionnisme total. Il faut utiliser les statistiques comme un instrument « d’objectivation », comme un outil d’analyse, tout en étant conscient de leurs limites et de leur irréductible part d’arbitraire. Alors elles peuvent nourrir des débats intéressants et fructueux. Une meilleure utilisation de la profusion de statistiques disponibles nécessite sans doute des efforts de pédagogie de la part des statisticiens auprès des citoyens, des journalistes et des personnalités politiques, ce à quoi essaie de contribuer ce livre. À quoi il faudrait ajouter une formation plus approfondie de tous les citoyens à la statistique. 182
LE NOMBRE ET LA CITÉ
Les produits de la statistique sont-ils à la disposition des citoyens ?
10.1 VRAIES MESURES ET FAUX-SEMBLANTS ? Cafés de référence 3, 7, 29, 41 et 96 (liste page 245)
Souvent, l’annonce d’un chiffre étonne, suscite le doute, voire le soupçon quand ce chiffre ne correspond pas à ce que nous avons en tête. En matière de statistiques, cela porte atteinte à un dialogue serein au sein de la cité. Est-ce la mesure qui est en cause ? Ou l’interprétation du lecteur ? Rapprocher les points de vue impose de s’intéresser aux racines du scepticisme croissant des citoyens. Le passage à l’euro le 1er janvier 2002 fournit un bon exemple d’écart entre le résultat d’une mesure et la perception de la situation mesurée. Dès l’année 2000, on a constaté un décrochage entre l’augmentation des prix perçue par les consommateurs et celle – moindre – enregistrée par l’Insee. 20
5,00
10
4,50
0
4,00
-10
3,50
-20
3,00
passage à l’euro
1,00
oct
ier jan v
vie jan
vie jan
r0 vie jan
ier jan v
il 0 avr
obr e0 5
-60
05
1,50
r0 4
-50
r0 3
2,00
2
-40
01
2,50
0
-30
Figure 33 | France – Passage à l’euro – Évolution des prix selon les consommateurs et selon l’Insee entre avril 2000 et octobre 2005. Lecture : courbe continue : hausse de l’indice des prix à la consommation pendant les douze mois antérieurs (échelle de droite, en %) (source : Insee) ; courbe tiretée : hausse des prix perçue par les consommateurs pendant les douze mois antérieurs (calculée par différence entre les proportions de ceux qui pensent que les prix ont augmenté et de ceux qui pensent qu’ils sont restés stables ou ont baissé) : échelle de gauche (source : Banque centrale européenne).
183
Partie 2. La statistique doit répondre aux questions sur son utilisation
Où est l’explication ? Rien de concluant n’a pu être trouvé du côté des rapports complexes entre producteurs et distributeurs de biens. Rien non plus quant aux modalités de calcul de l’indice des prix. En revanche, nous avons tendance à généraliser les observations que nous faisons sur nos dépenses les plus courantes, en oubliant comment évolue le prix de biens durables comme les ordinateurs. En outre, notre perception des prix peut être altérée par certaines formes de consommation : quand on peut télécharger de la musique gratuite, toute musique payante est perçue comme trop chère ! La divergence entre l’opinion savante et l’opinion générale ne concerne pas que les prix ! Elle s’étend au pouvoir d’achat, au chômage, à la délinquance, la sûreté nucléaire, etc. Prenons l’exemple du pouvoir d’achat. Le pouvoir d’achat exprime la quantité de biens et services qu’un revenu donné permet de se procurer, compte tenu des prix pratiqués. Son évolution résulte donc des évolutions combinées du revenu et des prix. En 2007, l’Insee indiquait pour les années récentes une croissance moyenne lente du pouvoir d’achat des ménages, alors que les enquêtes d’opinion, depuis le milieu des années 2000, témoignaient d’un sentiment d’appauvrissement. Comme il est difficile de raisonner en termes de pouvoir d’achat, le débat autour d’un ressenti du public contraire au discours officiel s’est peut-être focalisé sur la mise en doute de l’indice des prix. L’écart entre mesure et perception de la mesure se nourrit à plusieurs sources : • le biais de perception, qui tient à la façon dont on interprète la réalité. Par exemple, je peux penser que mon pouvoir d’achat baisse alors que mon revenu et les prix n’ont pas changé, tout simplement parce que mon désir d’achats a augmenté ; • la différence d’approches : le statisticien considère l’ensemble des consommateurs, mais ceux-ci pensent de manière individuelle ; • la montée de l’individualisme : l’individu ne se reconnaît pas dans une moyenne. Il choisit ses appartenances et peut les remettre en 184
LE NOMBRE ET LA CITÉ
Les produits de la statistique sont-ils à la disposition des citoyens ?
cause : on est loin des assignations fixes à des postes de nomenclatures rigides ! • enfin la défiance propre à notre époque : elle s’exerce contre ce qui « vient du haut » et ce qui est « abstrait ». La statistique officielle, qui a ces deux caractères, est alors soupçonnée de « manipulation » ou du moins d’irréalité. Est-il temps pour la statistique d’évoluer dans ses fondements ? Mesurer est et restera un problème technique. Mais qu’est-ce qu’on mesure ? Peut-on continuer à le définir à l’aide de catégories dépassées, de conventions sociales d’un temps révolu ? Le « bien-être » par exemple, notion ô combien floue, fait pourtant l’objet d’une demande sociale de mesure. Or, toute mesure nécessite une définition précise de ce que l’on mesure. Le statisticien doit être explicite sur ses choix – si possible au terme d’une concertation approfondie – pour avoir quelque chance que sa production soit comprise et acceptée comme traduction correcte de la réalité. Cela passe, notamment, par une prise en compte de la multiplicité des situations. Chose plus ardue encore, la statistique publique devra sans doute construire des mesures autour des dimensions subjectives et affectives de l’individu. Faire du multicritères à dimensions subjectives sur des objets flous peut paraître une gageure, mais n’est-ce pas le défi que doit relever la statistique pour retrouver une légitimité ? L’enjeu, qui concerne à la fois l’enseignement, le système statistique et les médias, est de réconcilier le ressenti des ménages et une traduction statistique de la réalité plus construite et dont certaines conventions auraient été revisitées. L’enseignement et les médias ont leur rôle à jouer pour progresser. Au sein du système éducatif, les sciences économiques et sociales et d’autres disciplines concourent à éveiller les jeunes aux réalités du monde où ils devront vivre comme citoyens et comme travailleurs actifs. Pour leur part, les médias délaissent trop souvent les questions économiques et sociales de fond, réputées difficiles, rebutantes pour l’auditeur ou le lecteur, et ils ne sont pas toujours à l’aise avec les 185
Partie 2. La statistique doit répondre aux questions sur son utilisation
productions des statisticiens. Pourtant, il serait d’intérêt général qu’ils se fassent eux aussi pédagogues. Quant aux statisticiens, ils font émerger par leurs travaux une lecture de la réalité qui se doit d’être non partisane. Il appartient aux citoyens d’aborder cette lecture avec un esprit de dialogue. Les représentations mentales des uns et des autres n’appellent aucun anathème, mais un patient effort de réconciliation des approches pour circonscrire, expliquer et si possible résorber les divergences d’interprétation mises en évidence.
10.2 LES JOURNALISTES À L’ARTICLE DU CHIFFRE Cafés de référence 15 et 84 (liste page 245)
La production des médias est aujourd’hui soumise aux règles du marché. Il s’agit d’être en phase avec le public sous plusieurs contraintes : celle de l’attractivité et de la compréhension du sujet par le lecteur, celle aussi de la rapidité exigée du traitement des informations ayant trait au déroulement d’événements. La publication de chiffres sous toutes leurs formes, tableaux, histogrammes et graphiques aux superbes couleurs, plus parlants que de longs textes, répond en partie à ces exigences, donnant de plus une apparence de sérieux et de crédibilité. Ces considérations sont très déterminantes dans le processus de production et de diffusion de l’information. La disponibilité de plus en plus grande de données économiques et sociales d’une part, et celle, d’autre part, d’outils infographiques de plus en plus faciles à utiliser ont pour résultat que la presse généraliste publie de nombreux articles accompagnés de statistiques ainsi représentées. Le journaliste, auteur de tels articles, est un médiateur entre des sources quantitatives et le lecteur : il doit gérer la recherche et l’exploitation des sources relatives au sujet qu’il traite puis la mise en forme de l’information qu’il livre à son public. Le plus souvent généraliste, il 186
LE NOMBRE ET LA CITÉ
Les produits de la statistique sont-ils à la disposition des citoyens ?
est non spécialiste des sujets dont il rend compte ou qu’il commente, et pas toujours compétent pour les comprendre sur le fond. Il subit en outre une contrainte de concision, devant traiter en une portion de page un sujet complexe vraisemblablement décrit en plusieurs pages par le producteur des sources, un chercheur par exemple. La contrainte d’urgence et de réactivité à des événements peut peser elle aussi sur la qualité des articles publiés. Souvent, les journalistes de la presse généraliste ne sont pas familiers du chiffre ; la plupart d’entre eux, qu’ils soient ou non passés par une école de journalisme, sont de formation littéraire et peu à l’aise avec les calculs. Peu connaisseurs des approches quantitatives, ils peinent à en restituer les résultats correctement. Il en résulte que leurs présentations statistiques sont souvent critiquables quant à leur pertinence et leur justesse : elles comportent de fréquentes erreurs, repérées par les lecteurs ou auditeurs ; on y trouve même parfois des bourdes consistant à parler de millions là où il s’agit de milliards, ou des confusions entre des unités de mesure ! La publication d’estimations calculées à partir de sondages comporte rarement les marges d’incertitude qui devraient pourtant les accompagner pour qu’elles puissent être convenablement interprétées. À la décharge des journalistes, les producteurs de l’information ont parfois négligé de mentionner cet éclairage indispensable ! Les erreurs dans les « chiffres » sont devenues si courantes qu’un nouveau concept est apparu ces dernières années : celui de fact checking ou vérification des faits. C’est une technique consistant d’une part à vérifier sans délai la véracité de faits et l’exactitude des chiffres présentés dans les médias par des personnalités politiques ou des experts, et d’autre part à évaluer le niveau d’objectivité des médias eux-mêmes dans leur traitement de l’information. Les acteurs sont des journalistes spécialisés dont le rôle consiste à faire remarquer et corriger ces erreurs. Les assertions – qu’elles proviennent de personnalités politiques ou de médias – sont vérifiées et replacées dans leur contexte. C’est ainsi que se multiplient dans les journaux et les 187
Partie 2. La statistique doit répondre aux questions sur son utilisation
radios, ou sur des sites spécialisés, les rubriques du type Les décodeurs qui décortiquent l’usage des chiffres par les personnages politiques. Il s’instaure ainsi des échanges entre producteurs, diffuseurs et lecteurs d’information qui peuvent – quand le dialogue est de bonne foi – favoriser la démystification des statistiques et l’amélioration de leur compréhension.
Figure 34 | Engloutis par les chiffres ? (Dessin de Lorcy).
Depuis quelques années, un certain nombre de journalistes d’un type nouveau se rassemblent autour de l’expression journalisme de données : cela désigne l’utilisation de moyens informatiques de traitement de l’information pour faire du journalisme. En pratique, il 188
LE NOMBRE ET LA CITÉ
Les produits de la statistique sont-ils à la disposition des citoyens ?
s’agit de collecter des données, de les exploiter en termes statistiques, d’interpréter les résultats obtenus et d’en mettre la teneur à la disposition du public. Si le journaliste utilise des données collectées par d’autres personnes que lui-même, la fiabilité de la source de l’information doit être vérifiée par ses soins et, chaque fois que possible, il doit recouper l’information avec d’autres sources. Beaucoup de ces data journalistes œuvrent dans des médias sur Internet. C’est une nouvelle forme d’investigation journalistique qui apparaît ainsi, dans laquelle le journaliste a cette fois-ci la compétence requise pour les outils qu’il utilise. Médias et statistique sont certainement destinés à être de plus en plus utilisés de concert, permettant au citoyen d’avoir accès à des informations pertinentes et de qualité sur des sujets complexes. Mais leur bonne collaboration exige la formation des journalistes à la statistique, autant que le respect des contraintes journalistiques par les statisticiens.
189
11 La statistique emploie-t-elle toujours des méthodes rigoureuses ?
Jetons un coup d’œil dans l’atelier du statisticien qui produit les chiffres utiles à la société. Ses outils de base sont d’une grande simplicité. Pour les maîtriser, il n’est même pas nécessaire de connaître les quatre opérations de l’arithmétique : les logiciels se chargent des calculs. C’est si vrai que tout un chacun peut s’improviser statisticien… avec parfois des résultats désastreux ! Une activité mérite une attention particulière : la synthèse. Les enquêtes ou les fichiers administratifs fournissent des quantités énormes de chiffres : pour en tirer du sens, il faut les résumer. On parle ici de statistiques très courantes : moyennes, pourcentages… L’opération est donc banale ; mais elle est cruciale. Il y a plus d’une manière de résumer, et le choix qui est fait n’est pas neutre : résumer, c’est nécessairement laisser dans l’ombre une partie de l’information contenue dans les données. La tentation peut être de choisir la méthode pour obtenir le résultat souhaité : la rigueur consiste au 195
Partie 3. La statistique doit gagner la confiance
contraire à la choisir a priori, en fonction de considérations générales, et à l’appliquer dans tous les cas similaires. La statistique ne se contente pas de décrire les données existantes, elle se propose souvent de caractériser des situations non explorées. Il s’agit de prévoir la valeur future d’une série temporelle, ou d’estimer une grandeur là où aucune mesure n’a été faite. Pour ce faire, les théoriciens proposent de nombreuses méthodes. Les plus simples sont encore utilisées : il s’agit de l’extrapolation ou de l’interpolation linéaire (par règle de trois). Elles ont l’avantage de ne pas tromper l’utilisateur : la valeur estimée dépend des valeurs observées et d’une hypothèse clairement exprimée, la stabilité d’un taux de croissance. Le résultat ne vaut que si cette hypothèse est réalisée : on préfère parler de projection plutôt que de prévision. Lorsque des méthodes plus raffinées sont utilisées, on devrait toujours veiller à expliciter les données exploitées et les hypothèses faites. Même en multipliant les équations, les chercheurs ne peuvent prétendre décrire complètement les phénomènes biologiques ou sociaux sous forme de modèles déterministes. Ce qui reste méconnu est attribué au hasard. Une branche de la statistique théorique s’attache à proposer des méthodes pour confirmer ou infirmer des hypothèses à l’aide d’observations affectées par du hasard. Ces outils sont utilisés en particulier pour tester de nouveaux médicaments : la nouvelle molécule est-elle plus efficace que celles déjà connues ? Si un protocole rigoureux, comme celui défini par les autorités compétentes, est suivi à la lettre, on peut espérer une réponse fiable, quoiqu’entachée d’une incertitude. Cette dernière est inévitable, mais son ampleur peut être maîtrisée. Des méthodes statistiques voisines sont appliquées en économie, en sociologie, en psychologie expérimentale. Le nombre d’articles de recherche publiés a explosé depuis une trentaine d’années. Tous ne sont pas sans reproche : au point que la reproductibilité de ces recherches est devenue une préoccupation majeure. On déplore des fraudes, rares heureusement ; plus fréquemment, on constate que des 196
LE NOMBRE ET LA CITÉ
La statistique emploie-t-elle toujours des méthodes rigoureuses ?
méthodes très bonnes en théorie sont appliquées hors du contexte qui les justifie. L’exigence de rigueur de la part des statisticiens est plus que jamais à l’ordre du jour : elle s’applique à l’ensemble du processus qui va de la collecte des données à leur interprétation. Et elle leur impose de rendre publiques leurs méthodes.
11.1 UN BON CHIFFRE, ÇA PEUT TOUJOURS SERVIR Cafés de référence 9, 26 et 69 (liste page 245)
Le chiffre comme marqueur Quand les statistiques abondent, le lecteur ou l’auditeur est souvent perdu. Il réclame que l’information chiffrée délivrée soit réduite, synthétisée. C’est alors qu’intervient la notion d’indicateur. L’indicateur, c’est une statistique chargée de résumer ou de symboliser des mesures d’une manière parlante, pour permettre de communiquer avec des chiffres sur un certain sujet. Par exemple, l’indice des prix à la consommation (construit par l’Insee) est un indicateur qui résume à lui seul l’évolution des prix de milliers de produits. Autre exemple, pour permettre aux parlementaires d’apprécier l’utilité des dépenses de l’État, la loi organique sur les lois de finances (Lolf) de 2001 impose que chaque programme117 soit assorti d’un petit nombre d’indicateurs permettant de suivre sa réalisation. Comme la langue pour Ésope, l’indicateur se montre la pire et la meilleure des choses. Il est critiqué par les puristes : il ne résume pas fidèlement, il laisse penser plus que ce qu’il peut légitimement signifier. Mais on ne peut pas faire sans, sauf à laisser s’installer la confusion. L’indice des prix a bien du mal avec les produits nouveaux, 117. Dans la loi de finances, un « programme » est un ensemble d’actions publiques relevant d’un ministère pour une finalité donnée : par exemple, il existe un programme « Police nationale » au ministère de l’Intérieur. 197
Partie 3. La statistique doit gagner la confiance
et beaucoup le considèrent, à tort, comme un indice du coût de la vie ; mais la société ne pourrait pas s’en passer pour indexer des contrats118. Les indicateurs Lolf réduisent parfois les objectifs de l’action publique à ce qui semble des détails, au risque qu’ils soient utilisés à des fins détournées : mais comment sinon justifier les dépenses ? La seule solution, c’est l’examen critique des indicateurs par le public qui les reçoit et qui peut se faire une idée de leur utilité en même temps que de leurs limites. Un nouvel état d’esprit doit s’installer afin de déceler les biais éventuellement introduits pour obtenir un indicateur flatteur, et afin en tout cas de surmonter les méfiances, voire les condescendances, réciproques des acteurs. On peut en espérer plus de clarté dans le débat public. Le chiffre et l’avenir La prospective ne fait pas nécessairement bon ménage avec la statistique. Elle s’attache à explorer les voies de l’avenir en ne négligeant aucun des « signaux faibles » qui dans le présent peuvent annoncer des changements. Au contraire, la statistique est plus à l’aise dans les tendances lourdes, qu’elle s’efforce d’extrapoler au mieux. C’est pourquoi les statisticiens parlent alors de « projection ». Ils ne s’enhardissent à parler de prévision que lorsqu’ils ont modélisé suffisamment d’aspects de la réalité pour proposer une vision globale, généralement à un horizon beaucoup plus rapproché que celui des prospectivistes. Chaque année, nous vieillissons d’un an. Or beaucoup de compor tements humains dépendent de l’âge d’une manière stable dans le temps ou qui n’évolue que lentement et régulièrement : songeons par exemple à la fécondité, à l’entrée dans la vie active, à la prise de retraite, et à bien d’autres événements. Cette constatation est mise à profit par de nombreux modèles de projection : projections de population totale, de population active, de population par métier. 118. Pensions alimentaires, loyers, etc. 198
LE NOMBRE ET LA CITÉ
La statistique emploie-t-elle toujours des méthodes rigoureuses ?
Les tendances lourdes que la statistique exploite alors, ce sont les contraintes que la structure par âge initiale de la population fait peser sur l’avenir. Il y a d’autres tendances lourdes : par exemple, le progrès technique s’est manifesté au cours des décennies récentes par une augmentation continue des puissances de calcul et des capacités de stockage des ordinateurs, à coût constant. Pour intégrer une telle régularité dans une projection, bien souvent le procédé employé est une extrapolation : les observations passées sont prolongées dans l’avenir selon une formule mathématique plus ou moins sophistiquée. Dans les projections d’emploi par métier, les calculs prennent comme point de départ des projections d’emploi par branche de l’économie, et dans chaque branche extrapolent la structure de l’emploi par métier. Cette extrapolation permet d’intégrer aux projections l’hypothèse de la poursuite du progrès technique : celui-ci ayant transformé les structures des branches par métier dans le passé, on suppose qu’il va continuer à le faire d’une façon semblable. Agents d’entretien Aides à domicile Enseignants Cadres des services administratifs, comptables et financiers Aides-soignants 0 Départs en fin de carrière
100
200
300
400
Créations nettes d’emploi
Figure 36 | Le « top 5 » des métiers les plus pourvoyeurs d’emploi d’ici 2022 (Source : France Stratégie). Lecture : Entre 2012 et 2022, 233 000 postes d’aides-soignants seraient à pourvoir : 130 000 du fait des départs en fin de carrière des personnes en emploi dans ce métier en début de période, 103 000 au titre des créations nettes d’emploi dans ce métier.
199
Partie 3. La statistique doit gagner la confiance
Bien sûr, ce sont là des hypothèses grossières : les détracteurs des projections ne manquent pas de le souligner. C’est pourquoi, dans la plupart des exercices de projection, les calculs sont menés à partir de plusieurs jeux d’hypothèses : cela permet d’apprécier la sensibilité des résultats par rapport aux principaux paramètres. Et surtout, une projection statistique n’est pas une vérité définitive. C’est un élément de discussion à compléter par bien d’autres types d’information : monographies, enquêtes approfondies, etc. Projections et prospective peuvent se réconcilier dans un débat pour éclairer l’avenir.
11.2 STATISTIQUE ET VÉRIFICATION SCIENTIFIQUE Cafés de référence 13, 82 et 85 (liste page 245)
Médicaments au banc d’essai Pour qu’un nouveau médicament soit mis sur le marché, il faut qu’il soit autorisé par une administration compétente119. Celle-ci ne donne son feu vert que si l’efficacité du nouveau produit est attestée. La statistique joue ici un rôle essentiel, dans les essais cliniques qui doivent être conduits par les firmes pharmaceutiques en vue d’obtenir l’autorisation120. Le protocole de ces essais est rigoureux. Il doit permettre de conclure sur l’efficacité d’un médicament sur une pathologie, en comparant une population traitée à une population témoin non traitée. La comparaison n’est valable que si les deux populations ne diffèrent que par le traitement et sont, à part cela, identiques. En toute rigueur, ce n’est possible que si les personnes traitées sont tirées au sort : on parle alors d’essais randomisés. Les deux groupes de personnes – traitées et non traitées – sont alors comparables pour tous les facteurs de 119. En France, il s’agit de l’Agence nationale de sécurité du médicament et des produits de santé. 120. Des essais cliniques peuvent aussi être conduits par des entités publiques : centres de recherche en santé, hôpitaux, etc. 200
LE NOMBRE ET LA CITÉ
La statistique emploie-t-elle toujours des méthodes rigoureuses ?
risque, connus ou inconnus. Si la randomisation n’est pas possible, l’expérimentateur se doit de contrôler tous les facteurs connus. La taille des groupes est cruciale. Si elle est trop petite, les résultats seront affectés de fluctuations aléatoires – du « bruit » – susceptibles de masquer des différences ou au contraire d’en faire apparaître là où il n’y en a pas. Les statisticiens utilisent des formules permettant de calculer les risques d’erreur en fonction de la taille des échantillons. Les protocoles réglementaires imposent de limiter ces risques, mais il ne peut être question de les supprimer complètement, sauf à imposer des tailles d’échantillons prohibitives. Issues possibles d’un test statistique Situation réelle Décision
H0 est vraie
Maintenir à tort
Maintenir H0 Rejeter H0
H0 est fausse Erreur de deuxième espèce
Refuser à tort Erreur de première espèce
Figure 37 | Objectif du statisticien : minimiser les probabilités de commettre les erreurs de première et de seconde espèce.
À ces risques d’erreur statistique s’ajoutent d’autres risques, concernant cette fois l’exécution des essais. Il faut que les participants se comportent « normalement » dans l’essai, comme dans la vie courante : pour cela, les essais sont en général menés en aveugle121, voire en double aveugle122. Les participants doivent suivre les prescriptions et leurs réactions doivent être soigneusement et fidèlement consignées, notamment s’agissant des possibles effets secondaires du médicament. 121. Dans un essai « en aveugle », un participant ne sait pas s’il reçoit le médicament testé ou un placebo (substance sans effet). 122. Dans un essai « en double aveugle », ni le médecin traitant ni le patient ne savent si le patient reçoit le médicament testé ou un placebo. 201
Partie 3. La statistique doit gagner la confiance
Participer à un essai thérapeutique est donc loin d’être anodin. La question du recrutement des participants est cruciale. Bien entendu, le respect des droits humains impose que cette participation soit volontaire. Le consentement du patient doit être recueilli après que des explications claires et complètes lui ont été données sur les objectifs de l’essai, son organisation et le rôle qu’il aura à y jouer. Souvent, ce sont des médecins hospitaliers ou de ville qui recrutent des participants à des essais : ils ne doivent rien cacher sur les commanditaires de ces essais, ni sur les intérêts personnels qu’ils peuvent y trouver. Les participants doivent avoir accès aux résultats. Les essais cliniques sont une composante de la médecine fondée sur des preuves123, avec les études épidémiologiques. Cette médecine fait un grand recours aux méthodes statistiques qu’utilisent aussi les sciences biologiques, la psychologie et les sciences humaines et sociales : tests d’hypothèses, estimations de paramètres inconnus, etc. Controverses sur certaines recherches Dans certaines disciplines, comme la psychologie expérimentale ou la biologie, la réputation scientifique des méthodes fondées sur le traitement statistique de corpus de données a été entachée depuis quelques années par des controverses, voire par des scandales. Les auteurs de certaines recherches ont été convaincus de fraudes sur les données. En dehors de ces cas, heureusement rares, il a été montré que le fonctionnement institutionnel de la recherche peut conduire à publier des résultats douteux, qu’il est impossible à d’autres chercheurs de reproduire ensuite. En effet, ce fonctionnement privilégie les assertions positives, même incertaines, par rapport aux réfutations, et pousse les chercheurs, particulièrement dans ces disciplines, mais pas seulement, à explorer de nombreuses hypothèses, avec de petites tailles d’échantillons, jusqu’à trouver un résultat « statistiquement significatif » et donc publiable. C’est un détournement de la méthode 123. En anglais : « evidence-based medicine », EBM. 202
LE NOMBRE ET LA CITÉ
La statistique emploie-t-elle toujours des méthodes rigoureuses ?
statistique, selon laquelle les protocoles doivent être déterminés, et si possible publiés, avant l’expérimentation, les résultats négatifs ayant alors autant de valeur que les résultats positifs. L’existence d’une réglementation internationale sur les essais cliniques de médicaments est précisément destinée à protéger ce domaine contre ce genre d’errements.
203
12 La statistique est-elle un danger pour les personnes ?
D’un point de vue historique, la statistique et notamment la statistique publique consiste à agréger des données individuelles pour donner une vue synthétique et globale d’une population ou d’une activité. Ainsi, des caractéristiques telles qu’une moyenne, un indice d’inégalité, un écart-type ou un taux d’évolution établis sur une population ne révèlent rien des personnes particulières : elles ne constituent pas un danger pour elles. Certes, lorsque la statistique met en évidence des catégories sociétales, le citoyen peut craindre que son possible rattachement à telle catégorie fasse porter sur lui le jugement porté sur celle-ci, constituant une menace à son encontre. Pourtant, identifier et caractériser une personne précise ne constitue en rien l’objectif de cette catégorisation statistique : il s’agit de repérer des groupes comptant un grand nombre d’individus. Cette protection de fait de la personne est confortée par notre état de droit : l’usage des données individuelles est 205
Partie 3. La statistique doit gagner la confiance
encadré par la loi informatique et libertés sur le recueil de données à caractère personnel. De plus, cette démarche statistique permet d’orienter des politiques publiques destinées de manière générale à l’amélioration du fonctionnement général de la société et à la réduction des dysfonctionnements constatés. En définitive, la statistique traditionnelle ne constitue pas un danger en ce sens qu’elle vise surtout à établir des éclairages d’ordre général de la société. Cependant, l’essor du Big Data grâce au progrès technologique ainsi que la mise à disposition de nombreuses bases de données dans le mouvement d’Open Data ouvrent de nouveaux champs d’utilisation. Cette évolution se caractérise notamment par l’utilisation d’un volume des données beaucoup plus important, par des traitements automatiques réalisés en temps réel et par une grande diversité des détenteurs des informations. Là s’ouvre bel et bien un processus d’identification des personnes : aussi bien à leur profit qu’à leur encontre, et de surcroît souvent à leur insu. Se pose donc la question du risque qu’on leur fait courir et de la légitimité de ce risque. Les data scientists développent des techniques de ciblage qui portent sur l’identification de petits groupes d’individus, de quelques personnes en particulier, voire sur la ré-identification de personnes malgré l’anonymisation des bases de données. Ce changement de paradigme dans l’exploitation des données invite à développer une réflexion spécifique réunissant les différents acteurs (citoyens, informaticiens, statisticiens, entrepreneurs du Web…) afin de prendre les mesures de protection adéquate des personnes. Par exemple, le renforcement de l’enseignement de la statistique et de ses usages à l’école s’avère d’autant plus crucial que le Big Data met en exergue des corrélations et non des causalités. En toute hypothèse, il semble nécessaire d’accorder une attention particulière au grand nombre de traces que, nous humains, abandonnons aux robots et aux algorithmes du monde digital ainsi qu’à ceux qui l’animent et à ceux qui s’en servent. 206
LE NOMBRE ET LA CITÉ
La statistique est-elle un danger pour les personnes ?
12.1 VOUS N’AVEZ PAS LE PROFIL ! Cafés de référence 11 et 100 (liste page 245)
Peut-on, doit-on, se déterminer à l’égard d’une personne en fonction de ce que l’on sait des gens qui lui ressemblent ? Plus précisément, le profilage consiste à anticiper les comportements d’une personne en se référant à ceux des membres d’un groupe auquel elle appartient, et à agir vis-à-vis d’elle en fonction de cette anticipation. Les figures 38 et 39 explicitent son fondement statistique.
L’incertitude sur la variable X (inconnue) pour l’individu considéré est moindre si on sait qu’il appartient à la catégorie A
On a plus de chances de trouver les individus recherchés si on s’intéresse à la catégorie A, où ils sont plus fréquents
Figure 38 | Profilage, le principe.
Risque 1
Risque 2
Figure 39 | Profilage, le risque. Lecture : Risque 1 : On peut attribuer abusivement à l’individu considéré la moyenne de la catégorie alors qu’il en est peut-être loin et que des individus d’autres catégories en sont plus près. Risque 2 : On peut considérer abusivement que tous les individus de la catégorie sont du type recherché et qu’on n’a pas besoin d’en chercher dans les autres catégories.
Il y a donc l’étape de la construction des catégories statistiques, puis celle des décisions qu’on prend concernant une personne au vu 207
Partie 3. La statistique doit gagner la confiance
de son appartenance à l’une de ces catégories. Mais si, en moyenne, les propriétaires de voitures rouges ont une conduite plus agressive, est-ce une raison suffisante pour augmenter la prime de tout propriétaire de voiture rouge ? La statistique concerne une population, mais, pour l’individu, la conséquence de son classement est zéro ou un. En termes concrets, pourra dire l’assuré, j’accepte de payer une prime plus élevée si j’ai été responsable d’accidents, mais pas si j’ai le seul tort d’appartenir à un groupe dont les membres sont, en moyenne, plus fréquemment auteurs d’accidents que la population générale. Le profilage devient une pratique courante : le banquier cherche à se protéger des mauvais payeurs, l’assureur des mauvais risques, l’anesthésiste des accidents opératoires, etc. Est-ce fondé en termes scientifiques ? Est-ce toujours moralement acceptable ? Ces questions sont brûlantes quand le profilage est vécu comme discriminant (cf. les contrôles « au faciès » par la police ou à l’entrée des boîtes de nuit). Un exemple concret est l’identification des chômeurs présentant des caractéristiques dont on a observé qu’elles accompagnent souvent le chômage de longue durée. L’objectif du profilage est ici de détecter les chômeurs ayant les plus forts risques de chômage de longue durée afin de les aider d’une manière adaptée à leur situation personnelle. La détection précoce du risque conduit à des mesures qui rendent sa réalisation moins probable. Elle est inspirée à la fois par un souci d’équité (ne pas abandonner les plus vulnérables) et par des préoccupations budgétaires (le chômage de longue durée coûte cher en allocations). Un tel profilage peut reposer sur plusieurs méthodes. Dans l’expertise, le jugement sur les trajectoires passée et souhaitable du chômeur repose sur un entretien. C’est plutôt la manière de faire en Europe. On peut aussi déterminer le risque de chômage de longue durée de la personne à partir de son appartenance objective à un groupe de demandeurs d’emploi préalablement identifiés comme « à risque ». La méthode statistique s’appuie sur un modèle mathématique intégrant à la fois la situation du demandeur d’emploi et celle du marché 208
LE NOMBRE ET LA CITÉ
La statistique est-elle un danger pour les personnes ?
du travail local afin de calculer un score de risque de chômage de longue durée. Cette méthode a plutôt les faveurs des pays anglosaxons. Elle met en œuvre désormais des techniques d’intelligence artificielle et des algorithmes plus ou moins sophistiqués. On court évidemment des risques à utiliser ces méthodes : mal classer la personne et lui proposer des démarches inappropriées, utiliser des catégories hasardeuses parce qu’éphémères ou des modèles techniquement fragiles, enfermer durablement quelqu’un dans un profil, mettre en œuvre des variables contestables, etc. Cela ne va pas sans ambiguïtés, comme le montre le profilage en matière d’assurancerisque. L’assureur affine les statistiques pour mieux cerner les risques (nature des biens assurés, nature des dommages encourus, caractéristiques des personnes). L’assuré veut être traité de manière spécifique, mais en même temps il s’inquiète de la légitimité des investigations dont il est l’objet et peut y voir la négation même du principe de solidarité. Dans la pratique, l’assureur s’en tient au profilage si les risques et les primes sont faibles. Sinon, il recourt à l’expertise, ne serait-ce que parce qu’il n’y a pas de statistique sur les risques exceptionnels. Pour juger de l’efficacité de cette technique, il faudrait examiner la question en fonction du domaine, des objectifs poursuivis et des méthodes utilisées. Dans le domaine du chômage, vise-t-on la solidarité, la fluidité du marché du travail ou la réduction des coûts budgétaires ? En tout cas, l’intervention d’un expert dans la décision finale s’impose si le système décisionnel n’est pas irréprochable et consensuel. L’expert trouvera toujours avantage à l’existence du profil pour conforter ses conclusions ou pour affiner ses investigations. On peut considérer qu’il n’y a pas d’instrument pervers en soi, mais que l’usage qu’on en fait est déterminant. Pourtant, le profilage soulève des craintes. Pour la vie privée d’abord : utilisé à des fins de marketing, il peut aller jusqu’à recueillir à notre insu des informations très intimes (orientations sexuelles, politiques, religieuses…). Pour la vie sociale aussi : il y a eu un projet de profilage des enfants dès 3 ans dans un souci de prévention des risques sociaux… Les valeurs de la 209
Partie 3. La statistique doit gagner la confiance
société étant en cause, la mise en œuvre de ce type de projet doit donner lieu à une réflexion éthique et politique d’ensemble et le législateur doit continuer de poser des règles. Ainsi, en matière de santé, l’assureur souhaiterait accéder au dossier médical, a priori plus fiable que les déclarations des personnes sollicitant une assurance-décès, mais cela est pour le moment juridiquement exclu. En revanche, quand le corps médical cherche à détecter des facteurs de risque de mortalité, il procède à des investigations et des classifications (prédispositions à l’obésité, au diabète, aux cancers du sein, etc.) qui, elles, ne soulèvent pas de réelle contestation. La bonne pratique est sans doute de combiner le profilage et le dire de l’expert, ce dernier restant libre d’utiliser ou non l’outil statistique élaboré et mis à sa disposition dans des conditions juridiques irréprochables et claires pour le citoyen. De ce point de vue, on ne peut que se féliciter de la construction juridique progressive qui, de la loi de 1978 sur l’informatique et les libertés au règlement européen sur la protection des données personnelles (2018) en passant par la loi pour une République numérique (2016), interdit entre autres de prendre des décisions individuelles sur une base purement algorithmique.
12.2 DONNÉES MASSIVES : DANGER MASSIF ? Café de référence 100 (liste page 245)
Dès que la statistique s’enquiert des caractéristiques individuelles des personnes, un équilibre est à trouver entre le droit à la connaissance des phénomènes sociaux et la protection des personnes interrogées contre des utilisations abusives des informations qu’elles ont livrées. Dans nos pays, les protections sont assurées par la loi et par les pratiques des statisticiens. Au demeurant, seule la confiance des personnes permet de recueillir auprès d’elles des déclarations sincères. 210
LE NOMBRE ET LA CITÉ
La statistique est-elle un danger pour les personnes ?
La loi de 1978 modifiée sur l’informatique et les libertés, comme le règlement européen sur la protection des données (RGPD, entré en vigueur le 25 mai 2018), s’imposent évidemment au statisticien – public ou privé – qui entreprend des traitements portant sur des données directement ou indirectement nominatives. Le secret statistique, variante du secret professionnel, est jalousement protégé par la statistique publique et la confidentialité des données des répondants l’est plus généralement par tout statisticien soucieux d’avoir la confiance des personnes qu’il interroge. L’une des protections est l’anonymat des réponses, qui écarte le danger que la personne ayant livré des informations les voie utilisées à son encontre. Si l’anonymat est impossible, les données ne doivent pas être communiquées, sauf exceptions prévues par la loi. Bien sûr, ne relève pas de cette logique une enquête dont les résultats conduiraient à prendre des mesures visant toute une partie de la population, que ces mesures soient ressenties de manière positive ou négative par les personnes concernées. L’effet de l’enquête, résultant de l’ensemble des réponses anonymes, est ici collectif et non individuel. Et les précautions voulues auront été prises au niveau des finalités déclarées de l’enquête et au vu des résultats de celle-ci. Il reste néanmoins le risque du profilage (cf. sujet 12.1 : « Vous n’avez pas le profil ! »). Les données individuelles issues des enquêtes ou des fichiers administratifs exploités à des fins statistiques sont donc protégées. Le danger vient plutôt des traitements statistiques possibles des myriades de données individuelles qui s’accumulent, du simple fait de nos activités, sans que nous en ayons toujours conscience. À cet égard, les comportements individuels ne sont pas toujours cohérents : tel se méfiera d’une enquête qu’il jugera intrusive, mais se livrera intimement sur un réseau social. Par ailleurs, les cultures des États divergent sur le statut de la donnée individuelle : elle est plutôt une marchandise aux États-Unis et un bien à protéger en Europe parce qu’en rapport avec les libertés publiques. 211
Partie 3. La statistique doit gagner la confiance
Cela posé, les éventuels dangers de la statistique pour les individus tiennent aux capacités de traitement et aux puissances de calcul appliquées à de grands volumes de données. En effet, même si elles sont anonymes, les données individuelles peuvent être rendues identifiables par ces traitements qui permettent à moindre coût de multiples croisements entre elles. L’anonymat des personnes devient de plus en plus difficile à protéger. Cette situation était inconnue dans le passé. Pour sa part, la statistique publique – même quand elle accède à des gisements massifs de données – maintient en toute transparence sa démarche traditionnelle (concertation autour d’un thème d’enquête, encadrement juridique de l’opération, mise au point du questionnaire, collecte des données, traitement de celles-ci et publication des résultats). À côté de cela, de multiples traitements de données peuvent être entrepris sans grand contrôle par les analystes des entités qui collectent des données ou y accèdent. Si certains acteurs, notamment les fournisseurs de solutions de stockage et d’analyse, sont bien connus, d’autres le sont moins, comme les Data Brokers, courtiers de données qui déposent des cookies dans nos terminaux pour enregistrer nos actions en ligne, ouvrant la porte à des profilages que nous ignorons. Tous, bien sûr, doivent opérer dans le cadre des lois. Quelques particularités des traitements statistiques conduits par les nouveaux acteurs sautent aux yeux. La collecte des données s’effectue en quelque sorte spontanément. Nous délivrons par nos déplacements, par nos activités bancaires, par nos recherches en ligne, par nos objets connectés, par nos échanges électroniques, quantité d’informations (la plupart directement ou indirectement identifiables) qui nourrissent des bases gigantesques de données. La qualité des données ainsi amassées n’est pas toujours mise en question, au risque de biais importants dans les résultats des traitements qu’on leur fait subir. Les finalités de ces traitements ne sont, malheureusement, pas toujours révélées. Les usages des données à des fins d’hyper individualisation peuvent être positifs, comme dans le cas de la médecine, mais le sont beaucoup moins lorsqu’on touche aux questions d’assurance. 212
LE NOMBRE ET LA CITÉ
La statistique est-elle un danger pour les personnes ?
Figure 40 | Un monde où chacun livre ses données personnelles (Source : https:// pixabay.com/fr/).
Certes, il est bon que la statistique privée défriche des terrains nouveaux et fasse preuve de créativité. Cela ne pose pas de problème pour les entreprises utilisant pour leurs propres besoins les données dont elles disposent légalement. Le danger vient plutôt de personnes physiques ou morales qui utiliseraient les résultats d’études menées en dehors de tout contrôle pour influencer l’opinion, voire la manipuler. Des pratiques transparentes devraient ici s’imposer. La loi a organisé, en matière de sondages électoraux, la conformité à des règles précises, sous le contrôle de la Commission des sondages. On pourrait imaginer une charte faisant obligation à ces entités diffusant de l’information d’indiquer les objectifs de leurs études, l’identité des financeurs, l’origine des données, les méthodes et traitements appliqués, le tout avec déclaration de conformité à la charte, celle-ci étant assortie de possibilités de contrôle et de sanction. Il s’agit d’éviter que de vastes études soient réalisées par des analystes de données au moyen d’algorithmes dont on ne sait rien, sans que les personnes qui ont fourni ces données en soient informées et, à la limite, sans que les résultats en soient jamais connus. Pire encore, la situation dans laquelle de telles études viseraient moins à fournir 213
Partie 3. La statistique doit gagner la confiance
une information synthétique sur des populations nombreuses qu’à utiliser les traits spécifiques de chaque personne à des fins commerciales ou politiques. Dans ces conditions, les questions de gouvernance et de circulation de la donnée deviennent cruciales. Une régulation par le seul marché serait probablement insuffisante. La personne à l’origine de la donnée devrait être en droit de décider de son utilisation. Peu à peu, la possibilité du contrôle du citoyen sur ses propres données se renforce, notamment au niveau de l’Union européenne, mais c’est un processus de longue haleine.
214
LE NOMBRE ET LA CITÉ
13 Peut-on empêcher l’instrumentalisation de la statistique ?
La statistique observe la société. Ses constats sont faits pour servir ! Chacun peut s’en emparer pour ses besoins personnels (par exemple, comparer sa propre situation à celle des autres) ou pour participer à des débats politiques. Jamais les constats statistiques ne fournissent des solutions aux problèmes : ils apportent seulement des garde-fous, des cadres pour l’objectivation, et offrent ainsi des pistes de réflexion. Dans les débats politiques, ils sont censés constituer un socle commun à partir duquel les idées les plus diverses peuvent être avancées. La réalité est parfois tout autre. À la différence des données de la météo, acceptées et utilisées pour ce qu’elles sont, les données économiques et sociales sont souvent instrumentalisées, détournées de ce qu’elles peuvent légitimement signifier, au profit d’intérêts ou d’idéologies. Le débat tourne alors à la polémique stérile sur les chiffres. En climatologie aussi c’est le cas, depuis que cette discipline est au cœur de l’actualité : y aurait-il des leçons à tirer de cet exemple ? 215
Partie 3. La statistique doit gagner la confiance
Les voies du détournement sont peu nombreuses ; on en discerne essentiellement deux : la sélection d’information et l’hyperbole. C’est de pratique courante, face à une livraison d’information, de n’en retenir que les éléments favorables à une thèse. C’est ainsi que les chiffres administratifs sur les crimes et délits ont pu être à plusieurs reprises manipulés, dans un sens ou dans un autre, en mettant l’accent sur la tendance inquiétante ou au contraire sur la tendance rassurante. Plus grave, la manipulation peut se situer en amont, lorsque les conditions du recueil de l’information sont influencées par les souhaits d’une partie prenante au débat : le problème de l’indépendance de la statistique est alors posé (cf. le chapitre 6 : « La statistique n’a d’utilité que si elle est indépendante »). Faire dire à une statistique davantage que ce qu’elle peut signifier est aussi une instrumentalisation. Les chiffres du partage de la valeur ajoutée en sont un exemple : pris comme une description des flux monétaires tels qu’ils existent dans l’économie, ils sont pertinents ; mais si on en fait la pierre de touche de la lutte des classes, on leur attribue plus de sens qu’ils ne peuvent en contenir. Et cette hyperbole ruine en pratique la possibilité de les utiliser dans des débats constructifs. Peut-on empêcher l’instrumentalisation de la statistique ? Il n’y a pas de solution simple. Certains depuis longtemps appellent de leurs vœux une « magistrature du chiffre » qui aurait le pouvoir de dénoncer les abus. C’est un rêve, qui pourrait tourner au cauchemar si cette « magistrature » devenait synonyme de censure. Et sur quel fondement pourrait-elle s’exercer ? Une magistrature du chiffre supposerait que les magistrats disposent d’une description du réel d’une inégalable qualité et opposable à tous, ce qui est impossible. Paradoxalement, c’est seulement en favorisant la présence de davantage d’information dans le débat public qu’on peut espérer limiter l’instrumentalisation. Diversifier les points de vue statistiques, ne pas cacher la complexité des phénomènes ni les incertitudes des mesures : cette stratégie a été essayée dans le cas de la mesure du 216
LE NOMBRE ET LA CITÉ
Peut-on empêcher l’instrumentalisation de la statistique ?
chômage. Si ce n’est pas un plein succès, ce n’est pas non plus un échec. En toute hypothèse, il s’agit d’une question de culture, qui dépasse de beaucoup la statistique : quelle place la société accorde-telle à l’observation d’elle-même pour se gérer ?
13.1 RÉCHAUFFEMENT CLIMATIQUE : QUAND L’INCERTITUDE NOURRIT LES CERTITUDES Café de référence 86 (liste page 245)
Le Groupe d’experts intergouvernemental sur l’évolution du climat (Giec) a été créé en 1988 à la demande du G7 dans le cadre des Nations unies par le Programme des Nations unies pour l’environnement et l’Organisation météorologique mondiale. Le Giec, ouvert à tous les pays membres de l’Onu, a pour mission d’évaluer l’ensemble des informations relatives au réchauffement climatique, d’apprécier les conséquences de ce réchauffement et d’identifier les stratégies possibles pour l’atténuer ou s’y adapter. Son activité est centrée sur l’analyse critique des publications et des observations scientifiques qui concernent aussi bien l’atmosphère, les océans, la terre, les glaces que les activités du monde vivant124. À partir des données collectées lors de campagnes scientifiques et des caractéristiques des différents processus à l’œuvre, le Giec élabore des modèles théoriques et numériques afin de les tester sur différentes périodes du passé et d’identifier les tendances prévisibles. En garantie de la qualité de ses travaux, il y adjoint une analyse des incertitudes et de la robustesse des conclusions. Compte tenu des enjeux, de la diversité des données collectées et des modèles employés, il est en effet crucial que les scientifiques accordent une attention particulière aux méthodes statistiques utilisées... 124. Le Giec ne réalise pas d’études économiques pour évaluer par exemple le coût des mesures visant à atténuer les effets du réchauffement climatique (limitation de l’usage des gaz à effet de serre, etc.). 217
Partie 3. La statistique doit gagner la confiance
Le constat et les évolutions prévisibles On a observé un accroissement moyen de température (à la surface de la Terre) de 0,85 °C en un siècle. Il n’est homogène ni dans le temps ni dans l’espace. Ainsi, des variations différentes sont enregistrées selon que l’on observe la surface des océans ou celle des continents. L’augmentation de la température varie aussi selon les périodes considérées. D’ores et déjà, en un siècle, elle a engendré des effets mesurables tels la fonte de glaciers, l’acidification des océans et le déplacement d’espèces végétales et animales. L’accroissement moyen de température, qui est le critère le plus facilement interprétable par tout un chacun, n’est en réalité que l’expression aisément mesurable mais incomplète de l’accumulation d’énergie par la terre dans le système climatique. Les gaz à effet de serre ont un impact considérable sur ce stockage d’énergie. Ainsi, une élévation de la température moyenne de 1 °C s’accompagne d’une augmentation de 7 % de la capacité de l’atmosphère à contenir de la vapeur d’eau, qui en tant que premier des gaz à effet de serre a un effet amplificateur du réchauffement climatique. Établir des prévisions précises sur l’évolution du climat est difficile du fait des nombreuses incertitudes sur les modèles, les rétroactions entre le climat et la teneur en CO2, l’impact et l’influence de phénomènes locaux, etc. Toutefois, si le développement des activités humaines se poursuit par la consommation croissante d’énergies fossiles, les rejets annuels de CO2 pourraient être multipliés par trois, entraînant d’après les modèles une hausse moyenne de température de 4 °C en 2100 et une élévation du niveau de la mer d’un mètre. C’est surtout la vitesse du changement qui pose problème ! Par exemple, dès 2050, le climat de Paris pourrait être celui de Madrid actuellement alors que la ville n’a pas été conçue pour un tel climat ! Science et conscience Sur le sujet du réchauffement climatique, de nombreux débats ou postures politiques agitent les sociétés autour du climato-scepticisme ! 218
LE NOMBRE ET LA CITÉ
Peut-on empêcher l’instrumentalisation de la statistique ?
Celui-ci repose notamment sur un continuum de doutes concernant chacune des différentes facettes du sujet : le niveau et la fiabilité des annonces concernant des températures, la qualité des traitements statistiques effectués, les capacités à analyser convenablement l’ensemble du système climatique, la pertinence des méthodes employées, la hiérarchisation des facteurs explicatifs ou encore les priorités à retenir… Malgré cette variété des critiques, on peut constater que le climatoscepticisme – particulièrement fort aux États-Unis – porte moins sur la réalité du réchauffement climatique que sur ses causes anthropiques. Quoi qu’il en soit, l’émergence d’une position commune de la communauté internationale sur les mesures à prendre est laborieuse, d’autant plus que leurs potentiels effets positifs ne seraient visibles que dans plusieurs dizaines d’années. Les Nations unies cherchent à identifier les risques les plus graves dans un contexte où les rapports du Giec n’édictent pas de prescriptions et où les États ont des intérêts contradictoires. On voit ici tout le parti que les climato-sceptiques peuvent tirer des scrupules mêmes des scientifiques. Compte tenu de notre connaissance encore partielle du climat terrestre et de son évolution, ces derniers doivent recourir à des méthodes statistiques et s’imposent d’afficher leurs incertitudes sur les données et les modèles employés. Une certaine instrumentalisation de la statistique devient alors possible pour défendre des choix politiques ou des postures climato-sceptiques…
13.2 DÉLINQUANCE : ELLE AUGMENTE OU ELLE DIMINUE ? Cafés de référence 20 et 63 (liste page 245)
Le terme délinquance recouvre une grande variété d’actes : vols, violences physiques, insultes, délits routiers, escroqueries, fraude fiscale, immigration clandestine, dégradations, etc. Pour les traiter et si possible les prévenir, l’État doit avoir une bonne connaissance des faits, de leurs victimes et de leurs auteurs. Il 219
Partie 3. La statistique doit gagner la confiance
dispose à cet effet de deux instruments : les fichiers administratifs et les enquêtes dites de victimation. L’idée de rassembler et de mesurer sous ce terme de délinquance des actes que l’on considérait autrefois séparément – meurtres, vols… – apparaît à la fin du xviiie siècle. On utilisait alors sans précaution les statistiques judiciaires. Mais très vite, on a conscience que tout n’arrive pas au juge, et cela reste vrai (cf. figure 41). Actuellement, le principal fichier administratif est l’état 4001125. S’y ajoutent divers enregistrements, par exemple la statistique des causes de décès (pour les homicides). Ces sources, disparates et parfois difficiles d’accès, sont toutes partielles. Leur confrontation est nécessaire pour avoir une idée globale de la délinquance. Mais bien des interrogations demeurent, comme le montre l’examen des conditions de recueil des informations contenues dans l’état 4001. Atteintes éprouvées par les particuliers non signalées
Délits sans victime
Contraventions
Route
Autres délits
signalées
Autres administrations
Statistiques policières des crimes et délits (« état 4001 ») Police et gendarmerie Parquets classement
poursuites
alternatives
Amendes administratives
Figure 41 | La statistique policière ne couvre pas toute la délinquance, et la justice n’est pas saisie de tous les délits (Source : René Padieu).
125. Depuis 1972, les statistiques de la délinquance proviennent principalement de l’exploitation faite par le ministère de l’Intérieur des données chiffrées produites par les services de police et les unités de gendarmerie, collectées sous la forme d’un état dit « 4001 ». Élaboré mensuellement sur un support informatique, l’état 4001 est la traduction statistique des procédures diligentées par les services de police et de gendarmerie. Sont ainsi comptabilisés « tous les faits présumés crimes ou délits qui sont portés pour la première fois à la connaissance des services de police et de gendarmerie et consignés dans une procédure transmise à l’autorité judiciaire ». 220
LE NOMBRE ET LA CITÉ
Peut-on empêcher l’instrumentalisation de la statistique ?
L’état 4001 répertorie uniquement les procès-verbaux transmis par les forces de l’ordre au Parquet. Certains faits signalés à la police ne sont portés que sur la « main courante » ; d’autres sont complètement ignorés. Les faits répertoriés le sont, soit pour donner suite à des plaintes de victimes, soit à l’initiative des services de police, de gendarmerie ou d’une administration. Dans le premier cas on compte des victimes, dans l’autre on dénombre des auteurs de délits. Le contenu du fichier dépend de plusieurs paramètres. Ainsi, il y a une forte hétérogénéité des comportements dans la décision de porter plainte. Certaines victimes ne le feront pas, même pour des faits graves, parce qu’elles sont insuffisamment informées ou parce qu’elles ont perdu confiance dans les institutions, ou encore parce qu’elles craignent des représailles. D’autres, au contraire, déclareront des événements anodins. Les autorités encouragent plus ou moins les victimes à se faire connaître. Le policier sollicité peut être plus ou moins diligent dans le recueil de la plainte selon les chances qu’il donne à la procédure d’aboutir ou selon les directives de sa hiérarchie. L’action administrative et policière est elle-même soumise à des injonctions gouvernementales, comme celle par exemple d’augmenter le taux d’élucidation des affaires ou celle de faire baisser le nombre des délits. Tout cela rend difficile l’interprétation des statistiques issues des fichiers : on additionne tous les faits enregistrés alors qu’ils ne sont pas de même nature, n’ont pas les mêmes effets ni n’appellent les mêmes réponses ! En outre, on compte tantôt des actes délictuels, tantôt des victimes, tantôt des auteurs. De plus, les différentes catégories sont d’importance très inégale en nombre. Il y a heureusement beaucoup moins d’homicides que d’atteintes aux biens ! Enfin, les fichiers administratifs sont mal adaptés à la prise en compte des phénomènes émergents tels que la cyber criminalité, le crime organisé, la piraterie routière ou les violences intrafamiliales. 221
Partie 3. La statistique doit gagner la confiance
Les enquêtes de victimation, réalisées en population générale par l’Insee à l’instigation de l’ONDRP126, constituent une approche plus synthétique. Elles permettent à la fois de recueillir la déclaration des victimes, d’étudier leur ressenti et de mesurer le sentiment d’insécurité dans la population. Mais elles présentent aussi des limites. En premier lieu, elles ne peuvent s’adresser qu’à des victimes vivantes, excluant ainsi les homicides. Les questions doivent porter sur des faits simples à expliciter. Le champ d’application est celui des agressions, violences sexuelles (hors et intra ménage), cambriolages, vols, dégradations. Les autres types de délinquance, économique en particulier, ne sont pas couverts. Une autre limite importante est due à la sensibilité de l’instrument à la formulation des questions : par exemple l’ajout de « d’agressions même verbales » à la question « Avez-vous été personnellement victime d’agressions ou d’actes de violence ? » a provoqué une forte croissance des réponses positives. De plus, faute d’un échantillon de très grande taille, les enquêtes de victimation ne permettent pas de mesurer avec précision l’incidence des événements rares (l’Angleterre, l’Écosse ou les Pays-Bas font mieux sur ce point). Par ailleurs, les lois évoluent, faisant apparaître de nouvelles infractions ou en déclassant d’autres : les séries statistiques temporelles sont affectées par ces changements du droit pénal. Quand le champ des faits pouvant être qualifiés de « coups et blessures volontaires » a été élargi, ce type de délits a bien sûr augmenté dans les statistiques. Une telle rupture de série temporelle perturbe beaucoup l’interprétation des évolutions. Et puis, à droit constant, lorsqu’une statistique monte, est-ce que la délinquance augmente ou est-ce que la police travaille mieux ? Les mesures publiées sont parfois soupçonnées d’être infléchies par des positions politiques ou gouvernementales. 126. Observatoire national de la délinquance et des réponses pénales, créé en 2004. C’est un département de l’Institut national des hautes études de la sécurité et de la justice. Il est doté d’un conseil d’orientation chargé d’assurer l’indépendance de ses travaux. Il a comme activité principale la production et la diffusion de statistiques sur la criminalité et la délinquance. L’ONDRP inscrit ses travaux dans le cadre de la statistique publique et du code des bonnes pratiques de la statistique européenne. 222
LE NOMBRE ET LA CITÉ
Peut-on empêcher l’instrumentalisation de la statistique ?
Des améliorations sont en cours : les systèmes informatiques de la police et de la gendarmerie rendent l’enregistrement plus automatique, moins fragile, et susceptible d’un raccordement avec les suites judiciaires. Il est possible maintenant d’enregistrer une pré-plainte sur Internet. Rendre compte d’un phénomène aussi complexe que la délinquance ne saurait se faire avec des constats simplificateurs malgré la propension des politiques et des médias à aller dans ce sens. Espérer un chiffre unique qui la représenterait ou indiquerait son évolution dans son ensemble est illusoire. Mais les débats autour des chiffres ont contribué au recul de l’instrumentalisation du nombre des procès-verbaux. L’effort permanent de l’appareil d’observation statistique pour s’adapter au monde mouvant de la délinquance et rendre compte de ses différentes composantes et de leur évolution permet d’escompter un regard lucide et constructif sur ce phénomène social.
13.3 À QUI REVIENT LA VALEUR AJOUTÉE ? Café de référence 44 (liste page 245)
Dans nos sociétés, la production se traduit par une valeur ajoutée, différence entre le chiffre d’affaires et le montant des consommations intermédiaires (biens et services absorbés par le processus de production). Cette valeur ajoutée est la source des revenus. Ceux-ci sont distribués soit aux travailleurs – désormais dans leur grande majorité des salariés – soit à ceux qui ont apporté les capitaux ; le solde est versé à l’État ou conservé dans les entreprises. Salaires, intérêts, dividendes apparaissent comme autant de résultats du « partage d’un gâteau ». Cette image contient l’idée d’une concurrence, voire d’une opposition : ce qui sera donné d’un côté n’ira pas de l’autre. En filigrane, c’est le fonctionnement social qui se dessine, qu’on se le représente comme une coopération harmonieuse ou comme une lutte des classes. Dans les périodes de paix sociale, le sujet n’est guère 223
Partie 3. La statistique doit gagner la confiance
présent dans l’actualité : les termes du partage résultent de multiples décisions passées, qu’on ne pense généralement pas à remettre en question. Ils s’inscrivent dans les structures de la société. Mais quand les conflits sociaux s’attisent, le « partage des fruits de la croissance » est un enjeu politique majeur. La société se tourne alors vers la statistique pour dresser l’état des lieux. L’exercice peut être fait au niveau d’une entreprise, en comparant deux exercices annuels successifs : y a-t-il un surplus ? À quoi peut-on l’attribuer ? Comment a-t-il été réparti ? La technique des « comptes de surplus » a été forgée dans les années 1960 et beaucoup utilisée dans la décennie suivante ; elle est peu à peu tombée en désuétude, après la fin des Trente glorieuses et des forts taux de croissance. Au niveau d’un pays tout entier, les agrégats de comptabilité nationale permettent de calculer des indicateurs équivalents à ceux des comptes de surplus. L’attention se focalise souvent sur l’un d’entre eux : la part des salaires dans la valeur ajoutée. Comme le montre la figure 42, s’agissant des sociétés non financières, cette part varie autour d’une valeur de longue période qui se situe au voisinage de 67 % (deux tiers), avec des fluctuations non négligeables : forte hausse entre 1975 et 1982 jusqu’à 73 %, forte baisse entre 1983 et 1989. Depuis le déclenchement de la crise financière en 2008, l’indicateur s’est élevé de quelques points jusqu’en 2014, pour se stabiliser ensuite, près de sa valeur de long terme.
Part en %
75 70 65 60 1950
1960
1970
1980
1990
2000
2010
Figure 42 | Part des salaires dans la valeur ajoutée des sociétés non financières (Source : Insee).
224
LE NOMBRE ET LA CITÉ
Peut-on empêcher l’instrumentalisation de la statistique ?
Pour bien interpréter ce résultat, il faut tenir compte des définitions de la comptabilité nationale, pour partie conventionnelles, notamment sur le périmètre de la production et sur son évaluation. L’indicateur représenté sur le graphique est calculé pour les sociétés non financières seulement. Il est plus significatif que l’indicateur analogue calculé pour l’économie française tout entière, pour deux raisons. D’abord, sur longue période, la part du salariat augmente par rapport aux autres statuts des travailleurs : cela entraîne mécaniquement une tendance croissante de la part des salaires dans la valeur ajoutée. Et puis, lorsque l’on considère l’économie entière, on doit tenir compte du revenu des travailleurs non salariés : artisans, commerçants, agriculteurs… Ce revenu est pour partie un revenu du travail, pour partie un revenu du capital : les statisticiens ont bien du mal à estimer chacune de ces deux composantes. Dans les sociétés non financières, le travail est depuis longtemps quasi exclusivement du travail salarié. On doit rappeler aussi que le dénominateur du ratio est une valeur ajoutée brute, ne tenant pas compte de la consommation de capital qui a été nécessaire pour réaliser la production (et qui n’est pas incluse dans la consommation intermédiaire) : rapportés à une valeur ajoutée nette, les salaires auraient une part plus importante. Toutes ces considérations relativisent utilement la portée du constat statistique, sans le changer fondamentalement. Au début de 2009, juste après le déclenchement de la crise financière, à l’issue d’une période de croissance économique forte, le président de la République française, en préalable à des discussions avec les syndicats, a demandé un rapport sur le partage de la valeur ajoutée127. Ce rapport a mis en exergue la stabilité de la part des salaires dans la valeur ajoutée. Mais il a montré aussi pourquoi beaucoup de salariés pouvaient être convaincus d’une dégradation relative de leur 127. Le rapport Cotis, du nom du directeur général de l’Insee de l’époque, a été remis le 13 mai 2009. « Partage de la valeur ajoutée, partage des profits et écarts de rémunérations en France – Rapport au président de la République », Insee. 225
Partie 3. La statistique doit gagner la confiance
situation. C’est qu’il y a loin de l’agrégat valable pour le pays tout entier à la feuille de paye individuelle. D’abord, si la production du pays s’accroît, le nombre de salariés aussi : le ralentissement de la productivité française pèse sur le volume du « gâteau à partager ». Par ailleurs, les inégalités de salaires se sont accrues, les plus hauts salaires ayant augmenté nettement plus vite que le revenu médian : or c’est bien ce dernier qui est à la base du ressenti général. La statistique macroéconomique ne peut pas entrer dans ces considérations, car elle considère le pays comme un tout : elle n’est pas construite pour opérer des distinctions entre les salariés du bas de l’échelle et ceux du sommet. Les utilisateurs doivent garder ce type de considération à l’esprit avant d’interpréter la part des salaires dans la valeur ajoutée en termes de lutte des classes, que ce soit pour prouver les victoires des uns ou celles des autres.
13.4 CHÔMAGE : DE LA CACOPHONIE À LA POLYPHONIE ? Café de référence 16 (liste page 245)
S’il est un chiffre qui fait l’objet de soins constants de la part des statisticiens, c’est bien celui du chômage. Plusieurs sources de grande qualité sont utilisées pour cerner ce phénomène, chacune ayant ses avantages et ses inconvénients. Les deux principales sont l’enquête emploi menée par l’Insee et la statistique administrative de Pôle emploi. L’enquête emploi est une enquête par sondage réalisée auprès d’un volumineux échantillon de ménages. Chaque trimestre, plus de 100 000 personnes sont interrogées. Le questionnaire, détaillé, permet de capter les critères de la définition internationale du chômage du Bureau international du travail (BIT). Par exemple, les personnes interrogées doivent dire si elles ont travaillé, peu ou prou, pendant une semaine précise choisie comme référence, et quels actes de recherche d’emploi elles ont faits cette même semaine. La méthodologie de 226
LE NOMBRE ET LA CITÉ
Peut-on empêcher l’instrumentalisation de la statistique ?
l’enquête, maintenue constante pendant plusieurs années, rend les évolutions significatives. Mais cette enquête ne permet pas de localiser le chômage avec précision, du fait du sondage, malgré la taille importante de l’échantillon. Les avantages et inconvénients sont à peu près inverses pour l’exploitation des fichiers de Pôle emploi128 : les résultats sont disponibles plus fréquemment (mensuellement) et à tous les niveaux géographiques, mais ils ne permettent pas d’appliquer pleinement les concepts du BIT, bien que Pôle emploi multiplie les catégories de demandeurs d’emploi. Et surtout, ces résultats manquent de continuité : sous-produits de la gestion des demandes d’emploi, ils dépendent fortement des modifications de celle-ci et des changements institutionnels. De plus, ils ne prennent en compte que les personnes qui s’inscrivent à Pôle emploi, alors que les « découragés » sont, eux, couverts par l’enquête de l’Insee. Données trimestrielles corrigées des variations saisonnières 3,5 Demandeurs d’emploi inscrits à Pôle emploi en catégorie A
3,0 2,5
Chômeurs BIT Bureau international du travail 2,0 2002
2005
2008
2011
2014
Millions
Figure 43 | Deux mesures du chômage en France (Source : Insee).
La complémentarité entre les deux sources est réelle. L’enquête emploi, qui s’adresse à l’ensemble de la population, permet de repérer d’après les déclarations des intéressés eux-mêmes des situations diverses, plus ou moins éloignées de l’emploi. La source administrative objective précisément – du point de vue de l’administration – la situation de ceux qu’elle prend en compte, et en particulier de ceux 128. Antérieurement fichiers de l’ANPE et fichiers de l’Assedic. 227
Partie 3. La statistique doit gagner la confiance
qu’elle indemnise. Les conditions sont remplies pour qu’on dispose de plusieurs points de vue sur le même objet social. Une question posée dans l’enquête emploi sur l’inscription à Pôle emploi permet même de faire le lien entre les deux sources129. Malgré cela, le débat public sur le chômage est loin de reposer sur une base statistique consensuelle. Comme toutes les statistiques, mais de façon particulièrement sensible, la statistique du chômage est transmise au public au milieu d’un affrontement de logiques d’acteurs qui souvent en brouillent la perception. Le gouvernement cherche à mettre en valeur les points positifs des évolutions pour les attribuer à la réussite de ses propres actions. Les forces politiques d’opposition font l’inverse, et souvent les syndicats ouvriers aussi, ayant en vue les négociations à venir sur l’indemnisation. Quant aux grands médias, ils sont souvent à la recherche du scoop et en tout cas de la simplification. Les logiques s’affrontent le plus souvent de façon stérile. Le comble a été atteint lorsqu’en 2012 le président de la République en début de mandat a fait de « l’inversion de la courbe du chômage » l’objectif premier de son quinquennat. Jamais un chiffre n’avait atteint un tel statut d’arbitre en dernier ressort. Loin de favoriser le consensus sur la mesure, cette dramatisation s’est soldée par une cacophonie croissante. Les uns ont retenu la statistique administrative, qui n’a cessé de gonfler pendant plusieurs années ; les autres ont privilégié le taux de chômage au sens du BIT, dont l’évolution a été sensiblement différente. Peu de commentateurs ont prêté attention aux explications détaillées que les organismes producteurs de statistiques ont données de cette divergence d’évolution130. Le fait que ces deux sources divergent au point de perturber le débat public n’est pas nouveau ; cela s’était déjà produit plusieurs fois dans le passé. En 1986, le gouvernement s’était ému de cette 129. On pourra consulter la note de conjoncture de l’Insee de juin 2016, pages 81 à 84. 130. Ibid. note précédente. 228
LE NOMBRE ET LA CITÉ
Peut-on empêcher l’instrumentalisation de la statistique ?
situation et avait demandé au directeur général de l’Insee, à l’époque Edmond Malinvaud, un rapport sur la statistique du chômage131. Sa conclusion était nette : il n’est pas possible de résumer le chômage par un seul chiffre, « quelque soin qu’on ait mis à l’établir ». Il faut diversifier les indicateurs, pour décrire le « halo » des situations frontières entre chômage, emploi et autres situations132, pour tenir compte des dynamiques individuelles, des entrées-sorties parfois répétitives, etc. En 2008, un groupe de travail du Conseil national de l’information statistique (Cnis) a abouti aux mêmes conclusions133. Un indicateur résumé peut tout au plus fournir une appréciation moyenne sur l’économie du pays : il doit être enrichi et démultiplié pour améliorer la compréhension publique de ce phénomène de société. Les analyses des spécialistes nourrissent à bon droit le débat public. Elles font trop souvent l’objet d’autant d’interprétations qu’il y a de parties en présence. Pour qu’elles ne soient ni incomprises ni instrumentalisées, il faudrait que la fonction de « passeur » entre l’information initiale et l’utilisateur soit mieux remplie. C’est le souhait qui était formulé au cours du Café de la statistique consacré à « la mesure du chômage » en juin 2007. Plus d’une décennie après, il n’a rien perdu de son actualité.
131. Cf. rapport « Sur les statistiques de l’emploi et du chômage », Edmond Malinvaud ; paru à La Documentation française – 1986. 132. Faire des études, rester au foyer, etc. 133. Cf. rapport du Conseil national de l’information statistique : « Emploi, chômage, précarité – Mieux mesurer pour mieux débattre et mieux agir », JeanBaptiste de Foucauld – Septembre 2008. 229
14 Quelle déontologie la statistique appelle-t-elle chez ceux qui la font ?
Les besoins d’information de tous les acteurs de la vie de la cité augmentent au fil du temps, au rythme de l’accroissement de la complexité de nos sociétés. Simultanément, les informations disponibles sur les personnes physiques et les moyens de les traiter connaissent une expansion sans précédent. En outre, alors que l’observation des faits sociaux était peu ou prou l’apanage des instituts statistiques et de sondage, la formation à l’informatique et aux statistiques s’est étendue, au point que de multiples acteurs peuvent désormais recruter sans difficulté, pour leurs finalités propres, des spécialistes du traitement de l’information. Plus que jamais les acteurs de la cité utilisent les statistiques pour fonder leurs décisions, qu’elles soient politiques, économiques ou de gestion individuelle. En même temps, la défiance envers les chiffres ne recule pas (« Les chiffres, on peut leur faire dire n’importe quoi ! »). 231
Partie 3. La statistique doit gagner la confiance
C’est dire que les statisticiens doivent, quel que soit leur domaine d’activité, gagner la confiance du public. Cela passe par des qualités professionnelles de portée générale (rigueur, probité, honnêteté intellectuelle). Cela appelle en outre des comportements exemplaires quant à l’annonce des finalités des travaux statistiques, la protection des données individuelles utilisées, la transparence sur les méthodes de traitement de ces données, la diffusion aussi large que possible des résultats obtenus et une veille sur l’interprétation correcte de ces résultats. Ces exigences sont bien illustrées par l’activité des instituts de sondage et par celle des démographes, et plus généralement des spécialistes du traitement d’informations sur les personnes physiques dans le cadre de l’étude de populations. Comme on l’a vu au chapitre 12 : « La statistique est-elle un danger pour les personnes ? », l’irruption des données massives et de leur exploitation par des algorithmes d’une puissance inégalée ouvre la porte à de multiples opportunités et à quelques dangers. Il appartiendra aux statisticiens de progresser dans leurs exigences déontologiques afin de faire face à ce nouveau défi.
14.1 DITES-NOUS CE QUE VOUS PENSEZ Cafés de référence 12, 45, 91 et 102 (liste page 245)
La profusion d’enquêtes d’opinion réalisées dans de nombreux domaines peut fournir une quantité d’informations utiles pour prévoir, décider, savoir. Il est indispensable que les enquêtes soient de bonne qualité. Leurs artisans doivent y veiller durant toutes les étapes de leur réalisation, depuis la constitution de l’échantillon jusqu’à la mise en forme et la diffusion des résultats en passant par la collecte des réponses auprès des enquêtés, le respect de leur anonymat et la confidentialité de leurs données personnelles. La perception par les personnes interrogées de l’intérêt de l’enquête est sans doute un des 232
LE NOMBRE ET LA CITÉ
Quelle déontologie la statistique appelle-t-elle chez ceux qui la font ?
motifs les incitant à répondre, et à le faire avec précision et sincérité. Mais des enjeux économiques peuvent entacher la validité d’une enquête, enjeux qu’il est nécessaire de connaître et de contrôler. Les enquêtes d’opinion sont réalisées par des instituts de sondages privés ou publics auprès d’échantillons de personnes, qui répondent à certains critères, afin de connaître une population sans l’interroger tout entière. Un échantillon doit être constitué selon un plan de sondage134 garantissant la représentativité de la population étudiée, que celle-ci soit générale ou spécifique. Il ne faut pas confondre la qualité de l’échantillon et sa taille135. Cette remarque est d’autant plus d’actualité que l’on voit fleurir de plus en plus de « pseudo-enquêtes » par Internet auxquelles ne répondent que les personnes disposant d’un accès Internet, sans aucun contrôle de la représentativité de l’ensemble des répondants.
Figure 44 | L’opinion ? (source pixabay.com).
134. Dans l’enquête par sondage aléatoire, on tire au sort l’échantillon des personnes à interroger directement dans la population étudiée. Cela suppose qu’on dispose d’une base de sondage, c’est-à-dire de la liste complète des individus de la population considérée. Dans la méthode des quotas, on veut que l’échantillon constitue un modèle réduit de la société étudiée : il doit contenir tant d’hommes et tant de femmes répartis d’une manière déterminée par tranche d’âge, catégorie socioprofessionnelle, etc., de façon que l’échantillon à l’arrivée reproduise les structures de la population étudiée, connues par ailleurs. 135. Cf. l’exemple historique des « votes de paille » de plusieurs centaines de milliers de lecteurs d’un magazine, qui aux États-Unis en 1936 prédisaient la victoire des républicains, tandis que le sondage de Gallup a correctement annoncé l’élection de Roosevelt à partir d’un échantillon représentatif de 5 000 personnes seulement. 233
Partie 3. La statistique doit gagner la confiance
L’échantillon n’est pas représentatif s’il comporte des biais, tel un déficit relatif de certaines catégories de la population étudiée. De plus, même s’il est initialement représentatif, il peut ne plus l’être du fait notamment que des personnes devant être enquêtées n’auront pu être jointes ou que des enquêtés auront refusé de répondre, soit à tout le questionnaire, soit à certaines questions mal comprises, jugées intrusives ou laissant craindre une utilisation abusive des réponses. La désirabilité sociale (cf. sujet 5.3 : « Capter l’opinion publique, ou la forger ? ») peut aussi s’ajouter à ces raisons. Lorsque les distorsions (initialement ou lors du recueil des réponses) sont suffisamment connues, une technique dite de redressement consiste à modifier le poids relatif des différentes catégories de répondants à l’enquête de manière à compenser les déséquilibres au sein de l’échantillon et calculer ainsi des résultats corrects. Cela suppose connue la structure de la population observée : par exemple grâce au recensement ou en s’appuyant sur des études antérieures concernant la même population. Parmi les enquêtes d’opinion, les sondages électoraux présentent certaines spécificités. Ils sont régis par la loi no 77-708 du 19 juillet 1977 relative à leur publication et à leur diffusion, modifiée en 2002 puis en 2016. La loi a pour objet d’empêcher que ces sondages n’influencent ou ne perturbent la libre détermination du corps électoral. En particulier, elle concerne les redressements136 et la marge d’erreur, laquelle dépend du nombre de réponses et non du taux de sondage (rapport du nombre d’enquêtés à l’effectif de la population étudiée). La déontologie des instituts de sondage est essentielle. Elle l’est d’abord à l’égard des enquêtés. Ils doivent être assurés d’une bonne 136. Article 3 : Avant la publication ou la diffusion de tout sondage défini à l’article 1er, l’organisme qui l’a réalisé procède au dépôt auprès de la Commission des sondages (…) d’une notice précisant au minimum : …7° S’il y a lieu, les critères de redressement des résultats bruts du sondage. Dès la publication ou la diffusion du sondage : – toute personne a le droit de consulter auprès de la Commission des sondages la notice prévue par le présent article ; – cette Commission rend publique cette notice sur son service de communication au public en ligne. 234
LE NOMBRE ET LA CITÉ
Quelle déontologie la statistique appelle-t-elle chez ceux qui la font ?
utilisation de leurs réponses et de leur confidentialité. Elle l’est aussi à l’égard du commanditaire de l’enquête. Cela contraint à contrôler le travail de l’enquêteur, qui pourrait être tenté, pour gagner du temps, de remplir lui-même quelques questionnaires. La vérification doit aussi porter sur la validité des réponses des enquêtés, notamment lorsque des récompenses leur sont proposées à titre d’incitation – pratique susceptible d’entraîner une « professionnalisation » des répondants. Le modèle économique des enquêtes d’opinion est celui d’une relation d’un client (média, entreprise, parti politique…) à un institut de sondage. Celui-ci, tenu par la réputation qu’il veut conserver, ne peut se permettre de publier des résultats complaisants sous l’éventuelle pression d’un commanditaire. Le non-respect d’objectivité ou la publication de résultats frauduleux nuirait gravement à ses commandes ultérieures.
14.2 L’ÉTHIQUE DU DÉMOGRAPHE Café de référence 4 (liste page 245)
La démographie (nombre, structure et dynamique de la population) est une contrainte forte de toute politique. La population est en effet le siège même de la vie en société ; et donc, celui de la politique. Or, elle présente une grande inertie : la situation d’aujourd’hui, même si des événements considérables se produisent, aura encore des effets dans plusieurs décennies. Ainsi, par ses avis, le démographe endosse une responsabilité notable. Branche aînée de la statistique, modèle donc pour celle-ci, la démographie s’est d’abord, dès l’Antiquité, bornée à dénombrer la population : sur combien de travailleurs ou de soldats pouvait-on compter ? Combien de bouches fallait-il nourrir ? À l’orée du xixe siècle, l’objet est devenu de comprendre comment les générations se renouvellent : entre naissances et décès, l’intérêt se portait sur la durée de la vie. 235
Partie 3. La statistique doit gagner la confiance
Maintenant, on porte attention davantage à la qualité de cette vie et aux inégalités à cet égard. Avec ce changement de regard, les individus ne sont plus interchangeables, comme dans un simple décompte : il faut pénétrer leur intimité, les suivre dans le temps et s’intéresser à leurs relations137. À une loyauté de comptable envers le gouvernement s’est ajouté un devoir de respect envers les personnes : garder confidentiel ce qu’on apprend sur elles et les protéger des contrecoups que cette connaissance, même anonyme, pourrait entraîner. Ici, le secret des réponses est essentiel, mais ne suffit pas : en amont, parfois, le fait ou la façon d’enquêter peut en soi être intrusif. La démographie étant d’essence statistique, elle ne s’intéresse pas à l’individu. Fondu dans les indicateurs d’ensemble qui vont être élaborés, celui-ci disparaît138. Bien entendu, ces indicateurs serviront à des actes d’administration qui auront plus ou moins de conséquences sur les personnes : c’est bien le but lorsqu’on gouverne une société. Là, pour un bénéfice général escompté, quelques personnes subissent une contrainte ou un préjudice. L’éthique politique veut qu’on réfléchisse à ce qui justifie cette pénalisation de quelques-uns en contrepartie du bien commun. Le démographe – plus généralement le statisticien – partage cette responsabilité en alertant le gouvernant. La question prend même une acuité particulière lorsque le résultat concerne toute une catégorie. C’est notamment le débat 137. Le Café de la statistique dont il est rendu compte ici portait spécifiquement sur l’éthique du démographe. D’autres domaines d’étude que la démographie s’attachent aussi à prendre en compte les caractéristiques ou les comportements des personnes. Ce qui est évoqué ici concerne donc tout autant l’éthique des statisticiens spécialistes de la consommation, de la santé, de l’emploi, de l’éducation, etc. 138. Cette dépersonnalisation de l’information est souvent mal comprise. D’où des polémiques fondées sur la confusion entre un recueil de données à visée statistique et un fichage. Celui-ci est par essence nominatif et l’individu concerné pourra être personnellement l’objet d’une surveillance, de restrictions ou de sanctions. Tandis que la donnée recueillie aux fins d’une analyse collective ne sera en aucun cas – si les précautions et interdictions d’usage appropriées sont effectives – utilisée à l’encontre (ni au bénéfice) de la personne concernée. 236
LE NOMBRE ET LA CITÉ
Quelle déontologie la statistique appelle-t-elle chez ceux qui la font ?
sur l’établissement ou non de statistiques ethniques (cf. sujet 7.2 : « Controverse sur les statistiques ethniques »). Mais on le constate aussi s’agissant d’une maladie particulière (sida, par exemple), des pratiques sexuelles, des opinions politiques, de la religion et, plus généralement, de ce qu’on appelle les données sensibles. Dans certains cas, les intéressés demandent que l’on mesure et caractérise leur catégorie ou communauté : ils visent à une reconnaissance. À l’inverse, on redoute parfois une stigmatisation. Contrairement à ce que certains soutiennent, la loi139 n’interdit pas lesdites statistiques ethniques. Mais elle encadre strictement leur élaboration : le recueil des données individuelles n’est permis que si elles sont nécessaires à l’analyse prévue et ne servent qu’à celle-ci. Même ainsi, une telle investigation s’inscrit dans un ensemble de controverses publiques sur l’immigration, l’intégration, les discriminations, la sécurité. Le démographe se doit d’être très attentif à l’extrême sensibilité sociale. Ses résultats – et même, d’abord, le seul fait de se saisir du sujet et d’enquêter – vontils attiser les oppositions ? Ou, inversement, peut-on attendre de ces résultats qu’ils contribuent à dissiper les préjugés ? Les acteurs sociaux refusent, acceptent ou réclament que le démographe éclaire le débat. Prendre en compte ces demandes contradictoires conduirait-il le démographe à entrer dans l’arène médiatique, à reformuler la demande ? Se pose aussi la question de savoir jusqu’où il doit accompagner ses résultats. Se borne-t-il à fournir des chiffres qui décrivent, mesurent, expliquent, confirment ou infirment ce que l’on croit, laissant aux citoyens, aux associations, aux politiciens, toute latitude pour les interpréter ? Ou bien s’associe-t-il aux sociologues, aux essayistes et aux médias pour guider cette interprétation ? Car les notions qu’il manie ne sont pas toujours claires pour tout le monde : 139. La loi informatique et liberté (no 78-17 du 6 janvier 1978, modifiée par loi du 20 juin 2018) pose (article 8) une interdiction générale de traitement des données sensibles, tout en ménageant une liste de cas où ce traitement est possible : notamment pour la statistique publique et la recherche publique. Tout cela, sous le contrôle de la Cnil (Commission nationale de l’informatique et des libertés). 237
Partie 3. La statistique doit gagner la confiance
va-t-on comprendre ce que les résultats signifient140 ? Chacun va-t-il, de bonne ou mauvaise foi, les tirer vers ce qu’il voudrait démontrer ? Quelle pédagogie développer ? Si le démographe doit pousser sa propre interprétation jusqu’à apprécier la situation démographique ou l’opportunité d’une décision, encore faut-il savoir en quoi une situation est considérée « satisfaisante ». À démêler les causes et les effets, ira-t-il jusqu’à énoncer le succès ou l’échec des politiques et recommander les dispositions appropriées ? Au total, le démographe doit d’une part collecter des données personnelles, parfois intimes. Il est tenu de respecter la vie privée de chacun, laquelle n’est du reste pas l’objet de son intérêt. Il interroge avec doigté et discrétion. Il a d’autre part une responsabilité politique. Peut-il ou doit-il – et comment – révéler les déterminations complexes qui animent la société et qui souvent échappent à l’entendement commun ? Doit-il et peut-il intervenir – avec les sociologues et politologues – dans les discords qui agitent le corps social ?
14.3 DES DONNÉES EN MASSE, UN RÊVE DE STATISTICIEN Café de référence 100 (liste page 245)
Le Big Data141, entendu comme l’ensemble constitué par les données et les traitements qu’on leur applique, signe « la mise en données du monde ». La plupart de nos démarches et de nos déplacements génèrent aujourd’hui pléthore d’informations. Vont s’y ajouter, que nous en soyons conscients ou pas, les données produites par les objets connectés. Certains affirment que le Big Data implique la fin de la science reposant sur des hypothèses et des théories : les données accumulées livreraient d’elles-mêmes les clés de la compréhension des phénomènes. 140. Ainsi, tout le monde sait-il ce qu’est une espérance de vie ou un taux de fécondité, pour ne prendre que ces deux exemples, déjà basiques ? 141. Souvent traduit par « données massives ». 238
LE NOMBRE ET LA CITÉ
Quelle déontologie la statistique appelle-t-elle chez ceux qui la font ?
Sans aller jusque-là, force est de constater que l’analyse de données massives change le rapport à la connaissance. Dans le seul domaine médical, des cohortes de malades peuvent être rapidement constituées et étudiées, de nouvelles thérapeutiques plus commodément entreprises, les temps d’expérimentation raccourcis, etc. Le recoupement avec des données sur l’environnement des patients ouvre de nouvelles voies de prévention en santé publique. La vie économique, elle aussi, est transformée par l’utilisation des données massives. Tout cela constitue une rupture dans la façon dont l’humanité produit de la connaissance : les données sont captées d’abord, les questions sont posées ensuite. Les données, déjà rassemblées, peuvent être exploitées pour détecter des motifs de comportements, des tendances émergentes, des corrélations, etc. Les statisticiens qui procèdent à cette exploitation voient leurs pratiques enrichies et leur positionnement éthique mis à l’épreuve. Sur le plan pratique, compléter les enquêtes statistiques et les recensements par les données massives est une réelle opportunité. L’exploitation des données de caisse du grand commerce de distribution s’inscrit ainsi dans la continuité méthodologique du calcul de l’indice des prix à la consommation. On débouche de la sorte sur une heureuse complémentarité des méthodes. A contrario, la seule utilisation de données massives trouverait rapidement des limites : on pourrait certes mesurer des flux de touristes en temps réel, mais, sans enquête, on ne saurait rien des pratiques de ces touristes. Bien sûr, il faut s’interroger sur la qualité des données, sinon leur quantité elle-même peut être source de graves erreurs dans les conclusions tirées de leur exploitation. Des biais importants peuvent s’être introduits dès la collecte si elle a ignoré des zones aveugles. En matière d’utilisation de la téléphonie mobile, les personnes en difficulté économique sont sans doute sous-représentées dans les bases de données tirées de cette source ; a contrario, les jeunes sont certainement surreprésentés si on utilise des informations issues de Facebook. 239
Partie 3. La statistique doit gagner la confiance
Par ailleurs, on a pu croire un temps qu’il suffirait d’ouvrir l’accès aux fichiers (politique dite de l’open data) pour que quiconque puisse s’en servir. Mais la plupart des bases de données ne sont pas prêtes à être utilisées pour d’autres usages que ceux pour lesquels elles ont été conçues. Il faut un travail préalable et coûteux sur la donnée pour qu’elle soit réutilisable, ne serait-ce que pour savoir pourquoi et comment elle a été recueillie. Les statisticiens publics, en exploitant des fichiers administratifs, ont rencontré des difficultés du même ordre142.
Figure 45 | Un rêve de statisticien (Dessin de Lorcy).
142. Voir un exemple concret au chapitre 13, sujet 13.4 : « Chômage : de la cacophonie à la polyphonie ? ». 240
LE NOMBRE ET LA CITÉ
Quelle déontologie la statistique appelle-t-elle chez ceux qui la font ?
Les questions soulevées par l’utilisation statistique des données massives n’ont donc pas changé de nature, ni les données de signification, par la seule vertu de leur nombre. Le Big Data ne fait pas disparaître le besoin d’élaborer des hypothèses, une corrélation ne correspond pas nécessairement à une causalité, etc. Mais, une fois formulées les hypothèses, la disponibilité d’une grande masse de données permet de multiplier les tests et les allers et retours entre les hypothèses et les données. En revanche, des questions éthiques inédites apparaissent : • l’usage des données à des fins d’hyper individualisation143 peut être positif, comme on l’a vu pour la médecine, mais l’est beaucoup moins si des assureurs accèdent à des informations précises sur nos comportements ou notre état de santé et individualisent leur offre tarifaire en conséquence. Ces assureurs seraient alors en position de décréter des normes sociales et porteraient atteinte au principe de solidarité ; • le Big Data peut conduire à des discriminations liées à la manière dont sont construites et recueillies les données ; • le profilage à des fins de mercatique peut recueillir des informations très intimes, porter atteinte à notre vie privée et nous enfermer dans l’univers supposé nous correspondre ; • les firmes qui collectent massivement les données issues de réseaux sociaux rendent possible la surveillance de masse par les pouvoirs publics, voire par les grands acteurs d’Internet ; • des data-analystes sont employés par les firmes qui collectent et exploitent les données, mais – contrairement à celui des statisticiens publics – leur travail n’est pas connu du public, malgré son pouvoir d’influence. Les interrogations éthiques sont surtout portées en Europe, alors que les applications problématiques se développent dans le monde entier. Aux États-Unis, certains assureurs imposent déjà à leurs clients 143. C’est-à-dire de profilage. Cf. sujet 12.1 : « Vous n’avez pas le profil ! ». 241
Partie 3. La statistique doit gagner la confiance
de porter un bracelet connecté. Et en Chine, le crédit social144 a le vent en poupe ! Les formations ont beaucoup évolué depuis dix ans. Dans le master de sciences des données, la statistique est enseignée avec le Machine Learning et d’autres disciplines nouvelles et cet enseignement est orienté vers le prédictif. Il est à souhaiter que les préoccupations éthiques prennent leur juste place dans ces enseignements, indépendamment de la nécessaire sensibilisation des employeurs.
144. Pratique par laquelle les autorités attribuent au citoyen un capital-points qui augmente ou diminue – avec des conséquences sur ses droits – en fonction de ses comportements. 242
LE NOMBRE ET LA CITÉ
LES CAFÉS DE LA STATISTIQUE
Les Cafés de la statistique ont été lancés fin 2005 à l’initiative du groupe Statistique et société145 de la Société française de statistique (SFdS)146. Huit à dix fois par année universitaire depuis 2006, les organisateurs, ayant choisi un sujet, en font le thème d’un débat. Les Cafés obéissent à quelques règles. Ce sont des soirées-débats publiques. Les thèmes abordés sont très variés, si possible d’actualité, et ont en commun de se prêter à une approche statistique. Entre décembre 2005 et juin 2019, 121 Cafés ont eu lieu à Paris147. Ouverts à tous, ils visent un dialogue entre des personnalités soucieuses d’inscrire leur discipline dans la société et le public. Ainsi, des personnes non spécialistes de la statistique, mais intéressées par une approche aussi objective que possible des problèmes de société, sont invitées à réfléchir à la fois à ce qu’apporte un point de vue quantifié et aux difficultés ou aux insuffisances de la mesure. Le débat permet aussi à des responsables d’un domaine d’entendre la voix de citoyens non spécialisés mais en quête de débats sans parti pris. 145. Rebaptisé depuis lors groupe Statistique et enjeux publics. 146. Le site Internet de la SFdS est à l’adresse suivante : www.sfds.asso.fr 147. Des séances de même principe sont organisées à Lyon. 243
Les Cafés de la statistique
Chaque soirée commence à 19 h et dure deux heures et demie. Elle se tient dans un établissement pouvant servir des boissons et des collations aux participants pendant le déroulement de la séance. La disposition matérielle empêche la soirée-débat de dériver vers un cours magistral ou une conférence. Le thème du jour est introduit par un invité ou deux, pendant vingt à trente minutes, puis débattu entre et avec les participants. En effet, ceux-ci ne viennent pas simplement pour écouter, mais pour partager leurs interrogations et donner leur point de vue. Souvent, ils apportent informations et connaissances complémentaires. L’effectif des participants est fonction des possibilités offertes par l’établissement choisi. La participation a généralement oscillé depuis l’origine entre quarante et soixante-dix personnes, voire exceptionnellement quatre-vingts et même plus de cent. Un animateur est attentif à ce que les propos introductifs et le débat restent compréhensibles par tous et veille à la bonne circulation de la parole. Chaque fois que possible, un compte rendu synthétique est établi par les soins des organisateurs et validé par le ou les invités. En outre, si les invités en sont d’accord, leurs propos introductifs et leurs interventions en cours de débat font l’objet, depuis le printemps 2014, d’un enregistrement vidéo148.
148. Comptes rendus et vidéos sont mis en ligne sur le site de la SFdS : adresse https://www.sfds.asso.fr/fr/statistique_et_enjeux_publics/les_cafes_de_la_ statistique/556-cafes_de_la_statistique_comptes_rendus_par_ordre_chronologique/ 244
LE NOMBRE ET LA CITÉ
Les Cafés de la statistique
LISTE DES CAFÉS DE LA STATISTIQUE DEPUIS L’ORIGINE décembre 2005
1 – La canicule de 2003 deux ans après
janvier 2006
2 – L’Europe a-t-elle besoin d’un système statistique ?
février 2006
3 – Observation des prix et perception du consommateur
mars 2006
4 – L’éthique du démographe
avril 2006
5 – Statistique et politique publique : les comptes nationaux servent-ils (encore) à cadrer les politiques économiques ?
mai 2006
6 – L’indépendance de la statistique à l’égard du pouvoir politique
juin 2006
7 – Peut-on mesurer la réussite scolaire ?
octobre 2006
8 – Le contrat « nouvelle embauche » – CNE – crée-t-il des emplois ?
novembre 2006
9 – Peut-on se fier aux indicateurs ?
décembre 2006
10 – Comment enseigner la statistique dans le secondaire ?
janvier 2007
11 – Le jugement sur profil
février 2007
12 – Peut-on croire aux sondages politiques ?
mars 2007
13 – Essais cliniques
avril 2007
14 – La pauvreté se mesure-t-elle ?
mai 2007
15 – La statistique dans les médias
juin 2007
16 – Le chômage baisse-t-il ?
octobre 2007
17 – L’avenir des retraites
décembre 2007
18 – Réchauffement climatique (pas de compte rendu)
janvier 2008
19 – Bison futé, naissance et vie d’un prévisionniste
février 2008
20 – Délinquance et sentiment d’insécurité
mars 2008
21 – Peut-on mesurer les progrès des sociétés ?
avril 2008
22 – La nouvelle famille
mai 2008
23 – La sécurité routière
juin 2008
24 – Les délocalisations
novembre 2008
25 – Chiffrer les épidémies
245
Les Cafés de la statistique
246
décembre 2008
26 – La prospective
janvier 2009
27 – Les découpages électoraux
février 2009
28 – Les services à la personne
mars 2009
29 – Un citoyen bien informé ?
avril 2009
30 – Les conditions de travail
mai 2009
31 – Les poissons vont-ils disparaître ?
juin 2009
32 – Le logement
octobre 2009
33 – Les statistiques ethniques
novembre 2009
34 – Statistique et progrès de la société
décembre 2009
35 – Classements et palmarès
janvier 2010
36 – La santé
février 2010
37 – La malédiction des matières premières
mars 2010
38 – L’immigration
avril 2010
39 – Les enjeux des zonages
mai 2010
40 – La dette publique
juin 2010
41 – Statistique et sentiment personnel
novembre 2010
42 – La performance des administrations
décembre 2010
43 – L’agriculture
janvier 2011
44 – Le partage de la valeur ajoutée
février 2011
45 – L’opinion publique se mesure-t-elle ?
mars 2011
46 – Hauts revenus, hauts patrimoines
avril 2011
47 – La consommation
mai 2011
48 – La prévision à court terme
juin 2011
49 – Le vieillissement
octobre 2011
50 – L’eau
novembre 2011
51 – La carte scolaire
décembre 2011
52 – La transition démographique
janvier 2012
53 – La mobilité urbaine
février 2012
54 – Les prélèvements obligatoires
mars 2012
55 – Le travail bénévole
LE NOMBRE ET LA CITÉ
Les Cafés de la statistique
avril 2012
56 – Le tourisme
mai 2012
57 – Politique énergétique de la France
juin 2012
58 – Le travail précaire
octobre 2012
59 – L’avenir de l’assurance-maladie
novembre 2012
60 – La compétitivité des entreprises françaises
décembre 2012
61 – Quelle confiance accorder aux statistiques européennes ?
janvier 2013
62 – Comparaisons internationales des niveaux d’éducation
février 2013
63 – La délinquance
mars 2013
64 – La construction de logements
avril 2013
65 – La régulation financière
mai 2013
66 – L’assurance
juin 2013
67 – L’informatisation de la société
septembre 2013
68 – Innovation et recherche-développement
octobre 2013
69 – Prospective des métiers
novembre 2013
70 – Les enquêtes par Internet
décembre 2013
71 – La crise de l’euro et le rôle de la BCE
janvier 2014
72 – L’avenir des retraites
février 2014
73 – Dépendance et vieillissement
mars 2014
74 – Nourrir correctement et durablement 9 milliards d’humains dans une planète aux ressources limitées
avril 2014
75 – Qu’est-ce qu’une entreprise aujourd’hui ? Et comment la représente-t-on ?
mai 2014
76 – Le temps de travail
juin 2014
77 – La consommation d’espace
octobre 2014
78 – Quelle fécondité dans les pays développés au xxie siècle ?
novembre 2014
79 – Suicides et société : le travail mis en cause ?
décembre 2014
80 – Sommes-nous menacés par la déflation ?
janvier 2015
81 – Les collectivités territoriales sont-elles trop dépensières ?
247
Les Cafés de la statistique
248
février 2015
82 – Comment s’assurer de la validité des arguments statistiques contenus dans les études scientifiques ?
mars 2015
83 – Quel « Grand Paris » ?
avril 2015
84 – Le journalisme de données
mai 2015
85 – Thérapeutiques et risques : quelle transparence ?
juin 2015
86 – Le réchauffement climatique
octobre 2015
87 – La sécurité routière
novembre 2015
88 – Le comptage des manifestants
décembre 2015
89 – La pauvreté : pourquoi et pour qui la mesurer ?
janvier 2016
90 – L’évaluation des politiques publiques
février 2016
91 – L’absence de réponse dans les enquêtes : y a-t-il de bonnes solutions ? (pas de compte rendu)
mars 2016
92 – Forces et faiblesses du logement social par temps de crise
avril 2016
93 – L’économie du gratuit
mai 2016
94 – Classes moyennes : un objet de débats et de controverses
juin 2016
95 – Monnaie, crise financière et banques centrales
novembre 2016
96 – Le regard des Français sur leur situation et les statistiques publiques : quels enseignements ?
décembre 2016
97 – Développement de l’enfant et politiques publiques
janvier 2017
98 – L’Afrique subsaharienne va-t-elle vraiment mieux ?
février 2017
99 – L’avenir du travail et de l’emploi à l’heure du numérique
mars 2017
100 – Big Data : Big Science ? Big Brother ?
avril 2017
101 – Comparabilité et qualité des statistiques européennes
mai 2017
102 – Sondages électoraux : peut-on leur faire confiance ?
juin 2017
103 – Les migrations internationales
septembre 2017
104 – Peut-on évaluer la politique fiscale ?
LE NOMBRE ET LA CITÉ
Les Cafés de la statistique
octobre 2017
105 – Choix stratégiques et économiques de la France en matière militaire
décembre 2017
106 – L’économie du sport
janvier 2018
107 – La mesure d’audience des médias
février 2018
108 – De la toxicomanie aux addictions
mars 2018
109 – La biodiversité est-elle en péril ?
avril 2018
110 – Statistique et droits de l’homme
mai 2018
111 – La preuve statistique au tribunal : recours collectif en situation d’incertitude
juin 2018
112 – Droit des données : où va-t-on ?
octobre 2018
113 – La tentation radicale
novembre 2018
114 – La mesure de la valeur
décembre 2018
115 – Les risques émergents
janvier 2019
116 – Pourquoi et comment mesurer le bien-être ?
février 2019
117 – Tous sportifs ?
mars 2019
118 – Quels enjeux pour la politique énergétique française ?
avril 2019
119 – Objectif zéro SDF ?
mai 2019
120 – Open Data versus Statistique ?
juin 2019
121 – Pauvreté des familles et action publique
249
DICTIONNAIRE DES SIGLES ET ACRONYMES
A ACTP : allocation compensatrice pour la tierce personne ANPE : Agence nationale pour l’emploi (devenue Pôle emploi après fusion avec l’Assedic) APL : aide personnalisée au logement Apa : allocation personnalisée d’autonomie AGGIR : autonomie gérontologie groupe iso-ressources (grille d’analyse) Agirc : Association générale interprofessionnelle de retraite des cadres Arrco : Association des régimes de retraite complémentaire des ouvriers Assedic : Association pour l’emploi dans l’industrie et le commerce (devenue Pôle emploi après fusion avec l’ANPE) AVQ : activités de la vie quotidienne (index d’) B BIT : Bureau international du travail 251
Dictionnaire des sigles et acronymes
C Care : capacités, aides et ressources des seniors (enquête sur les) CDD : contrat à durée déterminée CDI : contrat à durée indéterminée CEA : Commissariat à l’énergie atomique et aux énergies alternatives CepiDC : Centre d’épidémiologie sur les causes médicales de décès Cerema : Centre d’études et d’expertise sur les risques, l’environnement, la mobilité et l’aménagement Certu : Centre d’études sur les réseaux, les transports, l’urbanisme et les constructions publiques (incorporé depuis 2014 au Cerema) CHSCT : comité d’hygiène, de sécurité et des conditions de travail CNSA : Caisse nationale de solidarité pour l’autonomie Cnes : Centre national d’études spatiales Cnil : Commission nationale de l’informatique et des libertés Cnis : Conseil national de l’information statistique CNRS : Centre national de la recherche scientifique CO2 : dioxyde de carbone (gaz carbonique) Comedd : Comité pour la mesure de la diversité et l’évaluation des discriminations Cor : Conseil d’orientation des retraites Crest : Centre de recherche en économie et statistique D Dalo : droit au logement opposable Dares : Direction de l’animation de la recherche, des études et des statistiques (ministère du Travail) Datar : Délégation interministérielle à l’aménagement du territoire et à l’attractivité régionale Destatis : Statistisches Bundesamt (Office allemand de la statistique) Drees : Direction de la recherche, des études, de l’évaluation et des statistiques (ministère de la Santé) DIRD : dépense intérieure de recherche-développement
252
LE NOMBRE ET LA CITÉ
Dictionnaire des sigles et acronymes
E Elfe : étude longitudinale française depuis l’enfance Eurostat : Office statistique de l’Union européenne. C’est une direction générale de la Commission. EWCS : European Working Conditions Surveys (enquêtes européennes sur les conditions de travail) F FAO : Food and Agricultural Organization Fdes : Fonds de développement économique et social Fipeco : fiches d’une encyclopédie des finances publiques ; cf. www. fipeco.fr FME : Fonds de modernisation et d’équipement FPE : formes particulières d’emploi G Gafa : Google, Amazon, Facebook, Apple Giec : Groupe d’experts intergouvernemental sur l’évolution du climat Gir : groupe iso-ressources (voir AGGIR) I Ined : Institut national d’études démographiques Insee : Institut national de la statistique et des études économiques Inserm : Institut national de la santé et de la recherche médicale L Lolf : loi organique sur les lois de finance M MSF : Médecins sans frontières
253
Dictionnaire des sigles et acronymes
O OCDE : Organisme de coopération et de développement économiques ONDRP : Observatoire national de la délinquance et des réponses pénales ONISR : Observatoire national interministériel de la sécurité routière Onu : Organisation des Nations unies P PIB : produit intérieur brut Pisa : programme international pour le suivi des acquis des élèves PME : petite ou moyenne entreprise R R&D : recherche et développement RGPD : règlement général de protection des données no 2016/679 de l’Union européenne RSA : revenu de solidarité active S SFdS : Société française de statistique SNCF : Société nationale des chemins de fer SRU : solidarité et renouvellement urbain (loi relative à) Stif : Syndicat des transports d’Île-de-France T TPE : très petites entreprises TVA : taxe sur la valeur ajoutée U UC : unité de consommation (dans un ménage) Unicef : United Nations International Children›s Emergency Fund (Fonds des Nations unies pour l’enfance)
254
LE NOMBRE ET LA CITÉ
INDEX DES SUJETS
Chaque sujet est repéré par sa place dans le sommaire (entre parenthèses) et par la page correspondante.
A
E
Afrique (1.1), 37 Agriculture (1.2), 38
Bénévolat (8.4), 158 Big Data (12.2, 14.3), 210, 238
Enquêtes d’opinion (5.3, 14.1), 107, 232 Entreprise (2.1), 53 Essais cliniques (11.2), 200 Éthique du démographe (14.2), 235 Évaluation (4.2), 90
C
F
Chômage (13.4), 226 Classes moyennes (2.4), 63 Consommation (1.4), 45
Famille (8.2), 150
B
D Découpages géographiques (2.2), 56 Délinquance (13.2), 219 Délocalisations (8.5), 161 Dépendance (3.1), 69 Dépense publique locale (7.1), 127 Déplacements (4.3), 94 Dette publique (5.2), 104 Développement de l’enfant (7.4), 137 Données massives (12.2, 14.3), 210, 238
I Immigration (7.3), 133 Impôts (9.2), 170 Indicateurs (11.1), 197
L Logements (3.2), 73
M Manifestants (5.4), 111 Matières premières et énergies (1.3), 42 Médias (10.2), 186 255
Index des sujets
Mesure et perception de la mesure (10.1), 183 Mobilité (4.3), 94
O Opinion publique (5.3, 14.1), 232
107,
P Pauvreté (2.3), 59 PIB (9.4), 177 Population mondiale (1.1), 35 Prélèvements obligatoires (9.2), 170 Profilage (12.1, 2.1), 207, 53 Progrès des sociétés (9.4), 177 Projection (11.1), 197 Prospective (11.1), 197
R Réchauffement climatique (13.1), 217
256
LE NOMBRE ET LA CITÉ
Recherche-développement (4.1), 87 Retraite (5.1), 101 Réussite scolaire (9.3), 174
S Santé (8.1), 146 Sécurité routière (3.3), 76 Statistiques communautaires (9.1), 167 Statistiques ethniques (7.2), 130 Suicide (7.5), 140
T Tourisme (3.4), 79 Transition démographique (1.1), 35 Travail (8.3), 153
V Valeur ajoutée (13.3), 223