211 39 47MB
French Pages 296 [288] Year 2019
Lê Nguyên Hoang – El Mahdi El Mhamdi
Le fabuleux chantier Rendre l’intelligence
robustement bénéfique
artificielle
Du même auteur : Lê Nguyên Hoang, « La formule du savoir », EDP Sciences, juin 2018, ISBN : 978-2-7598-2260-7
Imprimé en France ISBN (papier) : 978-2-7598-2361-1 – ISBN (ebook) : 978-2-7598-2430-4 Tous droits de traduction, d’adaptation et de reproduction par tous procédés, réservés pour tous pays. La loi du 11 mars 1957 n’autorisant, aux termes des alinéas 2 et 3 de l’article 41, d’une part, que les « copies ou reproductions strictement réservées à l’usage privé du copiste et non destinés à une utilisation collective », et d’autre part, que les analyses et les courtes citations dans un but d’exemple et d’illustration, « toute représentation intégrale, ou partielle, faite sans le consentement de l’auteur ou de ses ayants droit ou ayants cause est illicite » (alinéa 1 er de l’article 40). Cette représentation ou reproduction, par quelque procédé que ce soit, constituerait donc une contrefaçon sanctionnée par les articles 425 et suivants du code pénal. © EDP Sciences, 2019
Table des matières
1 Introduction L’IA nous a envahis . . . . . . . . La première thèse du livre . . . . . La deuxième thèse du livre . . . . La conclusion du livre . . . . . . . Fantasmes et catastrophismes . . . Point sémantique . . . . . . . . . . Bienveillance, nuances et réflexion Plan du livre . . . . . . . . . . . .
I
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
Rendre l’IA bénéfique est une urgence
2 L’IA est déjà partout Le mirage de l’IA . . . . Fiabilité . . . . . . . . . Vérification . . . . . . . Surveillance . . . . . . . Automatisation . . . . . Aide à la décision . . . . Personnalisation . . . . Analyse surhumaine . .
9 9 10 11 12 13 15 18 20
23
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
25 25 26 27 28 29 30 31 32
3 L’IA pose déjà problème Une ampleur planétaire . . . . . . . . L’attention est le nouveau pétrole . . . Données personnelles . . . . . . . . . . Biais algorithmiques . . . . . . . . . . Polarisation idéologique . . . . . . . . Bouleversements sociaux . . . . . . . . La démocratisation de la cyber-guerre L’addiction . . . . . . . . . . . . . . . La malinformation . . . . . . . . . . . Les mute news . . . . . . . . . . . . . L’infobésité . . . . . . . . . . . . . . . Santé mentale . . . . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
37 37 40 41 42 44 47 49 52 53 54 56 58
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
4
TABLE DES MATIÈRES La viralité de la virulence . . . . . . . . . . . . . . . . . . . . . . . . . Une force invisible . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Les victimes des IA . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4 Une brève histoire de l’information De l’importance de l’information . . . . . . . . . . Matière, énergie. . . Information ! . . . . . . . . . . La flèche du temps . . . . . . . . . . . . . . . . . . Une histoire informatique de la physique . . . . . . La quantification de l’information . . . . . . . . . . Une histoire informatique de la biologie . . . . . . L’évolution des supports de l’information . . . . . Une histoire informatique de l’évolution culturelle . Le pouvoir de l’information . . . . . . . . . . . . . L’échelle logarithmique des temps . . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
5 On n’arrête pas le progrès Le temps de la légifération . . . . . Progrès stupéfiants . . . . . . . . . Le progrès pose problème . . . . . Intérêts économiques . . . . . . . . Addiction des consommateurs . . . Urgence morale . . . . . . . . . . . Vers l’anticipation . . . . . . . . . L’hypothèse du monde vulnérable . Rien ne sert de traîner . . . . . . .
59 61 63 71 71 72 74 75 78 79 80 82 85 87
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
91 . 91 . 92 . 94 . 94 . 95 . 95 . 98 . 100 . 101
6 Vers une IA de niveau humain ? Une menace existentielle . . . . . . . Raisonnement probabiliste . . . . . . Avis des experts . . . . . . . . . . . Sélection et réfutabilité . . . . . . . L’excès de confiance des experts . . Hardware et software . . . . . . . . . Les performances sont imprévisibles Le niveau humain : une fausse borne
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
II
Rendre l’IA bénéfique est un défi monumental
7 Les contraintes sur les contraintes des IA Être à la pointe . . . . . . . . . . . . . . . . . . Course à l’IA . . . . . . . . . . . . . . . . . . . La nécessité de la maîtrise technique . . . . . . Les solutions trop contraignantes . . . . . . . . Concurrence . . . . . . . . . . . . . . . . . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
105 105 106 108 110 111 112 115 118
125 . . . . .
. . . . .
. . . . .
127 127 128 128 130 131
TABLE DES MATIÈRES
5
Monopole . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133 Open source . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 136 Le fardeau moral . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137 8 Peut-on contrôler les IA ? Le bouton d’arrêt . . . . . . . . . . . . . L’interruptibilité . . . . . . . . . . . . . Boîte noire . . . . . . . . . . . . . . . . Impossible à surveiller . . . . . . . . . . Impossible à tester . . . . . . . . . . . . Peut-on savoir si une IA est bénéfique ? Quel humain en charge ? . . . . . . . . . L’expérience de pensée de la météorite . L’humain est une faille . . . . . . . . . . Automatiser la sécurité . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
141 141 142 143 146 147 148 150 151 151 153
9 La programmation des IA Le machine learning de Turing . . Supervisé versus non supervisé . . Apprentissage par renforcement . . Incertitudes et facteurs d’escompte Exploration versus exploitation . . Exploration stratégique . . . . . . AIXI . . . . . . . . . . . . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
155 155 157 158 160 162 164 165
10 Le but des IA Thèse de l’orthogonalité . . . . . . Les effets secondaires de YouTube Proxies . . . . . . . . . . . . . . . Hacker les récompenses . . . . . . Objectifs instrumentaux . . . . . . Convergence instrumentale . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
169 169 170 173 174 175 176
III
Le fabuleux chantier pour rendre l’IA bénéfique 181
11 L’IA doit comprendre le monde En quête de solutions robustes . . . La feuille de route . . . . . . . . . . Le rôle des sciences . . . . . . . . . . Collecte de données . . . . . . . . . Validité et stockage . . . . . . . . . . Authentification et traçabilité . . . . Confidentialité . . . . . . . . . . . . Le bayésianisme . . . . . . . . . . . . Approximations pragmatiques . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
183 183 184 185 186 187 188 189 190 191
6
TABLE DES MATIÈRES Les représentations vectorielles Modèle du monde . . . . . . . . Attaques adversariales . . . . . Incertitude . . . . . . . . . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
192 193 194 197
12 Agréger des préférences incompatibles On ne sera pas d’accord . . . . . . . . . . . . Désaccords épistémiques et épistémologiques Désaccords moraux . . . . . . . . . . . . . . . La théorie du choix social . . . . . . . . . . . Préférences cardinales . . . . . . . . . . . . . Wikipédia . . . . . . . . . . . . . . . . . . . . Moral machines . . . . . . . . . . . . . . . . . Cède-t-on le pouvoir aux machines ? . . . . . Biais des données . . . . . . . . . . . . . . . . La granularité des préférences . . . . . . . . . Apprendre les préférences humaines . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
201 201 202 203 206 207 209 210 211 212 213 214
13 Quelles valeurs pour les IA ? L’argument de la Bugatti . . . . . . . Lunatiques et manipulables . . . . . . Préférences orphelines . . . . . . . . . Progrès moral . . . . . . . . . . . . . . Incertitude morale . . . . . . . . . . . Vers un moi + . . . . . . . . . . . . . . La volition . . . . . . . . . . . . . . . L’IA peut-elle apprendre nos moi ++ ? Pourra-t-on faire confiance à Charlie ?
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
217 217 219 220 221 222 223 225 226 227
14 Protéger le circuit de la récompense Récapitulatif . . . . . . . . . . . . . . . . Court-circuitage . . . . . . . . . . . . . . Le court-circuitage est dangereux . . . . . Donner les bonnes incitations . . . . . . . Prendre soin du circuit de la récompense . PDG versus travailleur . . . . . . . . . . . Récompenser l’apprentissage . . . . . . . Expliquer les récompenses . . . . . . . . . Le contrôle d’Alice . . . . . . . . . . . . . Quel objectif pour Bob ? . . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
. . . . . . . . . .
231 231 232 232 233 234 235 236 237 239 240
15 Décentralisation et heuristiques Robustesse . . . . . . . . . . . . . . Ultra-rapidité . . . . . . . . . . . . . Les défis de l’algorithmique répartie Le problème des généraux byzantins
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
243 243 244 245 246
. . . .
. . . . . . . . .
. . . .
. . . .
TABLE DES MATIÈRES
7
Spécialisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 248 Heuristiques et ignorance . . . . . . . . . . . . . . . . . . . . . . . . . 249 Récapitulatif global . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 250
IV
Remarques et conclusions
16 Philosophie morale calculable Vers une morale algorithmique . . La thèse de Church-Turing . . . . Le mot conscience . . . . . . . . . Les zombies philosophiques . . . . Morale modèle-dépendante . . . . Le réalisme moral . . . . . . . . . . L’anti-réalisme moral . . . . . . . . La complexité de la morale . . . . Le temps de calcul de la morale . . La philosophie avec une deadline . Vers une méta-éthique calculable .
253 . . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
255 255 256 257 259 261 263 264 265 266 267 268
17 Vous pouvez aider Sensibilisation . . . . . . . . . . . . . . . . . . . . Respectabilité . . . . . . . . . . . . . . . . . . . . Mieux débattre . . . . . . . . . . . . . . . . . . . Attirer toutes sortes de talents . . . . . . . . . . Valoriser l’éthique et la sécurité . . . . . . . . . . Aider les mouvements existants . . . . . . . . . . Méditez, débatez et expliquez les thèses du livre Joignez-vous au fabuleux chantier ! . . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
271 271 273 274 276 278 280 281 284
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
. . . . . . . . . . .
La science et la vie quotidienne ne peuvent pas et ne doivent pas être séparées. Rosalind Franklin (1920-1958) Le nouveau printemps de l’IA est le plus important développement algorithmique de ma vie. Chaque mois, il y a de nouvelles applications stupéfiantes et de nouvelles techniques transformatives. Mais de tels puissants outils s’accompagnent aussi de nouvelles questions et responsabilités. Sergey Brin (1973-)
1
Introduction
L’IA nous a envahis Jusqu’en 2012, il semble que de nombreuses personalités académiques brillantes demeuraient extrêmement sceptiques au sujet de l’intelligence artificielle (IA) en général, et des réseaux de neurones 1 en particulier. C’est en tout cas ce que prétendit Geoffrey Hinton au moment de recevoir son prix Turing 2 2019 pour ses travaux révolutionnaires dans ce domaine : « [Le fait que] des réseaux de neurones très grands qui partent avec des poids aléatoires et sans aucun savoir préprogrammé peuvent apprendre à réaliser de la traduction automatique, ça semblait être une théorie très, très idiote pour beaucoup de gens [...] Un des relecteurs affirma [autour de 2009] que les articles sur les réseaux de neurones n’avaient pas leur place dans une conférence en machine learning. » Cependant, surtout depuis 2015, les succès spectaculaires des IA firent changer d’avis beaucoup de sceptiques. Même si la théorie sur laquelle ces technologies se fondaient ne semblait toujours pas si solide, les prouesses stupéfiantes dont ces IA étaient tout à coup capables avaient de quoi laisser pantois. Du jeu de go aux deep fakes, en passant par la reconnaissance vocale, la traduction automatisée et la génération de textes, les réseaux de neurones ont atteint des performances 1. Les réseaux de neurones désignent des techniques grossièrement inspirées de l’organisation des cellules d’un cerveau, elles sont aujourd’hui au cœur du succès des algorithmes regroupés sous le terme « deep learning ». 2. Le prix Turing est la plus importante distinction scientifique en informatique, souvent appelée « le Nobel de l’informatique ».
10
CHAPITRE 1. INTRODUCTION
difficilement prévisibles en 2012. Visiblement, beaucoup de chercheurs avaient grandement sous-estimé l’IA. C’était clairement notre cas. En fait, même après ces électrochocs, que ce soit en 2016, en 2017, en 2018, ou en 2019, la vitesse du progrès des IA n’a cessé de nous surprendre. Mais surtout, nous nous sommes vite sentis dépassés par la place grandissante que ces IA prenaient dans notre quotidien et dans nos sociétés. De la gestion de nos spams à l’auto-complétion de nos messages, en passant par les réponses à nos recherches Google, l’organisation de nos fils d’actualité Facebook et les recommandations de vidéos YouTube, l’IA semble nous avoir envahis.
La première thèse du livre Étrangement, il nous aura fallu plusieurs années pour en arriver à cette conclusion. Mais après ces longues années d’enthousiasme et de réflexion, une observation devint de plus en plus pressante. Vu la place grandissante que prennent les IA, il paraît désormais urgent de s’assurer que ces IA soient programmées, non seulement pour ne pas être néfastes, mais aussi et surtout pour être bénéfiques. Bien entendu, toutes les IA ne sont pas néfastes. Au contraire, la plupart des IA d’aujourd’hui semblent globalement bénéfiques. Cependant, il nous semble que toutes les IA influentes devraient être conçues avec l’objectif d’être au moins partiellement bénéfiques. Mais ce n’est pas tout. Il nous semble aussi que les IA influentes déjà bénéfiques devraient être conçues pour être nettement plus bénéfiques encore 3 , notamment parce qu’elles auraient ainsi probablement un impact bénéfique énorme sur le bien-être de milliards d’individus. Telle est la première thèse de ce livre, exprimée ci-dessous de manière très approximative. Thèse 1. Rendre les IA bénéfiques est une urgence. Cette thèse peut sembler modeste. Nous l’avons formulée de sorte qu’elle en ait l’air. Cependant, cette apparence anecdotique est trompeuse. En particulier, ce que nous n’avons pas pris le temps de spécifier, c’est l’urgence relative de cette tâche, comparativement à l’urgence à résoudre d’autres problèmes, comme le racisme, l’extrême pauvreté ou le changement climatique. Une version plus radicale de cette thèse soutiendrait ainsi que rendre les IA bénéfiques est une urgence comparable, voire supérieure, à ces autres défis — notamment car nous prétendrons qu’il s’agit de l’une des approches les plus prometteuses pour résoudre ces autres défis. 3. En particulier, nous insisterons plus tard sur l’importance d’être robustement bénéfique, c’est-à-dire demeurer très probablement bénéfique malgré l’imprévisibilité des effets secondaires, l’inévitabilité de bugs informatiques, l’existence de biais dans les données, les hacks d’utilisateurs malveillants, la modification de l’environnement, ou encore l’incertitude et la diversité des préférences morales.
LA DEUXIÈME THÈSE DU LIVRE
11
Prise au sérieux, cette thèse semble alors devenir bien plus surprenante qu’elle n’en a l’air. Elle semble ainsi inviter à être critique de quiconque préférant volontairement ignorer les effets secondaires indésirables des IA, de la même manière que l’on en vient parfois à blâmer ceux qui choisissent volontairement d’ignorer les risques liés au changement climatique. Ou de façon équivalente, la thèse suggère que l’action la plus efficacement altruiste d’aujourd’hui pourrait peut-être être de chercher à contribuer au fabuleux chantier pour rendre les IA bénéfiques. Les chapitres 2 à 6 de ce livre s’attarderont plus longuement sur cette thèse. Ces chapitres tenteront de vous convaincre du fait que vous sous-estimez très probablement très largement l’urgence que soutient la thèse. Voilà qui a des conséquences majeures sur ce qu’il nous faut exiger, par exemple, des entreprises du numérique.
La deuxième thèse du livre Malheureusement, il serait probablement malencontreux de ne faire qu’exiger des entreprises et des gouvernements que leurs IA aient telle ou telle propriété. Ou de simplement protester contre le manque d’effort de leur part pour rendre les IA bénéfiques. En effet, rendre les IA bénéfiques ne se réduit malheureusement pas à appuyer sur un bouton magique qui résoudrait tout à coup le problème. Au contraire, dans ce livre, on verra que l’urgence soulevée par la première thèse semble en fait correspondre à une tâche herculéenne. Telle est d’ailleurs la deuxième thèse de ce livre. Thèse 2. Rendre les IA bénéfiques est un défi monumental. Là encore, cette thèse a été formulée de manière relativement modeste. En particulier, cette formulation ne précise pas la difficulté de la tâche. Mais selon une version plus radicale de cette thèse, la difficulté de rendre les IA bénéfiques serait sans doute comparable, voire supérieure, à la difficulté de préserver la paix mondiale, résoudre l’hypothèse de Riemann ou concevoir une IA de niveau humain. Après tout, rendre les IA bénéfiques nécessite au moins de s’accorder sur une définition du mot « bénéfique ». Clairement, ceci n’est pas une maigre tâche. La majeure partie de ce livre, à savoir les chapitres 7 à 15, défendra cette deuxième thèse. Nous verrons ainsi, encore et encore, que des approches naïves pour parvenir à nos fins semblent en fait vouées à l’échec. Ces chapitres tenteront ainsi de vous convaincre du fait que vous sous-estimez très probablement la difficulté de rendre les IA (robustement) bénéfiques. En fait, ces chapitres suggèreront que la tâche de rendre les IA bénéfiques ne pourra être résolue que si un très grand nombre de très grands talents divers et variés contribuent ensemble
12
CHAPITRE 1. INTRODUCTION
à cet effort. Dans les chapitres 11 à 15, nous présenterons une sorte de feuille de route pour bien penser le problème de rendre les IA bénéfiques. Même si cette proposition est très probablement très imparfaite, il nous semble qu’elle peut servir de base de travail 4 et aider à mettre en évidence certaines étapes indispensables pour garantir la sûreté des IA. L’objectif de ces chapitres sera également de vous stimuler intellectuellement et de susciter chez vous une curiosité et un enthousiasme. En effet, nous espérons aussi vous convaincre que rendre les IA bénéfiques est aussi un fabuleux chantier. Voire, peut-être, le plus fabuleux des chantiers jamais entrepris par l’humanité.
La conclusion du livre Le principal objectif du livre est d’en venir à la troisième thèse, qui est une conclusion à laquelle les deux premières thèses semblent conduire. Cette conclusion est particulièrement contre-intuitive. La voici. Thèse 3. Il est urgent que toutes sortes de talents soient mis dans les meilleures dispositions pour contribuer à rendre les IA bénéfiques. En particulier, une conséquence très étrange de cette conclusion, c’est qu’il peut sembler, à l’inverse, presque « immoral » pour tout talent de ne pas au moins s’intéresser un peu au problème de rendre les IA bénéfiques, tout comme il peut sembler « immoral » pour un politicien influent de ne pas au moins s’intéresser aux problèmes de racisme ou de pauvreté. Sans aller jusque-là, nous chercherons à vous convaincre que l’aide de tout talent serait extrêmement précieuse. Malheureusement, de nos jours, les impacts sociaux des IA ne semblent pas être une question que la plupart des mathématiciens, philosophes, psychologues, sociologues, ingénieurs et dirigeants se posent régulièrement. Une contribution espérée de ce livre est donc d’inviter une fraction non-négligeable d’entre eux à davantage s’y intéresser. Mais les contributions directes pour rendre les IA bénéfiques ne sont pas les seules qui seront nécessaires pour mener ce chantier à bout. Ce fabuleux chantier nécessitera également de nombreuses contributions indirectes, par exemple en termes de sensibilisation aux défis à relever, de management des ressources humaines nécessaires au chantier ou de gouvernance entre les différentes entités influentes 5 . 4. Une autre feuille de route est publiée en même temps que ce livre par Stuart Russell. Bien que nous n’ayons pas la prétention de nous comparer à un pionnier comme Russell, et que nos feuilles de route aient beaucoup de similitudes, à commencer par le rôle central de l’alignement, la nôtre nous semble avoir des divergences qui gagneraient à être explorées. Human Compatible : Artificial Intelligence and the Problem of Control | Viking | Stuart Russell (2019) 5. Guide to working in AI policy and strategy | 80,000 Hours | M Brundage (2017)
FANTASMES ET CATASTROPHISMES
13
Pour l’instant, d’un point de vue technique, les efforts pour rendre les IA bénéfiques semblent essentiellement se restreindre à des points de suture pour colmater des hémorragies locales. Typiquement, certaines propositions s’intéressent uniquement à une poignée de propriétés désirables, notamment en termes de protection des données privées et de suppression des biais algorithmiques. Cependant, comme nous le verrons, pour de nombreuses IA qui influencent, volontairement ou non, les convictions de milliards d’utilisateurs, les solutions proposées jusque-là semblent encore très insuffisantes. En particulier, il semble que de telles IA ne peuvent pas se contenter d’être approximativement bénéfiques. Elles se doivent d’être robustement bénéfiques. En particulier, il est important de noter que les IA qui interagissent avec des milliards d’utilisateurs, de créateurs de contenus et d’entreprises, évoluent dans des environnements extrêmement complexes, comme par exemple les réseaux sociaux. C’est aussi cette complexité de l’environnement qui rend la tâche d’être robustement bénéfique difficile. En effet, cet environnement est changeant et dynamique. Pire, il s’adaptera inéluctablement aux modifications des IA. Dans un tel contexte, parvenir à être constamment bénéfique selon le plus grand nombre, et surtout à ne jamais causer de torts majeurs, semble être une tâche monumentale. Pour ces IA plus influentes, comme bien d’autres avant nous, nous prétendrons que l’alignement des valeurs, aussi appelée AI alignment ou value-loading en anglais, est une étape probablement incontournable. Nous chercherons même à montrer qu’il s’agit là d’une condition nécessaire et suffisante pour garantir que les IA agiront de manière robustement bénéfique. Malheureusement, pour l’instant, trop peu de chercheurs semblent s’intéresser à ce problème pourtant crucial. Néanmoins, il existe bel et bien déjà une littérature académique passionnante à ce sujet. En plus de sensibiliser à l’importance de l’alignement, nous espérons ainsi que la lecture de ce livre aidera tout curieux ou curieuse à découvrir les nombreux défis que pose la programmation d’IA robustement bénéfiques, voire à déterminer comment il ou elle peut contribuer au mieux à résoudre ces défis. En particulier, nous essaierons de montrer que le fabuleux chantier pour rendre les IA robustement bénéfiques est rempli de défis élégants, variés et multidisciplinaires. Voilà qui rend ces défis excitants et fascinants.
Fantasmes et catastrophismes Cela fait maintenant quelques années que l’IA fait énormément parler d’elle. Tant de choses sont dites à son sujet. Chacun y va de son avis. Chacun y va de son qualificatif. Révolution, buzz, catastrophe, tendance passagère, sous-estimée, sur-estimée, dangereuse, hype, fantastique, inéluctable, lubie, imprévisible, magique, mécanique, disruption, risque existentiel 6 . 6. Un risque existentiel est un risque de destruction de toute l’humanité.
14
CHAPITRE 1. INTRODUCTION
En particulier, ce dernier qualificatif est devenu un sujet de débat houleux, notamment suite à la publication du livre Superintelligence du philosophe Nick Bostrom en 2014. S’ensuivirent de nombreuses déclarations polémiques. Par exemple, Stephen Hawking, Elon Musk et Bill Gates partagèrent les craintes de Bostrom quant aux risques majeurs que pourrait poser une IA de niveau humain. Cependant, le 20 septembre 2016, le site Web TechnologyReview.com du MIT publia une tribune d’Oren Etzioni, professeur d’informatique à l’université de Washington et PDG du Allen Institute for Artificial Intelligence. La tribune fut intitulée Non, les experts ne pensent pas qu’une IA superintelligente est une menace pour l’humanité. Le sous-titre ajouta : « demandez aux gens qui savent vraiment. » Mais un mois plus tard, ce même site Web publia cette fois une tribune co-signée par Allan Dafoe et Stuart Russell, respectivement expert en gouvernance de l’IA et chercheur en IA, cette fois intitulée Oui, nous sommes inquiets à propos du risque existentiel d’une intelligence artificielle. Dafoe et Russell défendirent alors la thèse de Bostrom, en soulignant notamment que, même si le risque n’était pas imminent, il demeurait néanmoins préoccupant. Le plus étrange dans cette affaire, c’est que le désaccord entre Etzioni, Dafoe et Russell ne concerne même pas la dangerosité d’une IA. Il concerne les avis des experts sur la dangerosité des IA. Plus étonnant encore, Etzioni, Dafoe et Russell s’appuyaient bel et bien sur des sondages des avis des experts — le désaccord concernait en fait l’interprétation de ces sondages. Mais le plus perturbant, c’est la posture agressive que même les experts adoptent pour débattre du futur de l’IA. Un chercheur anonyme sondé en 2016 et cité par Etzioni écrivait ainsi : « Nick Bostrom est un marchand professionel de la peur. Le rôle de son institut 7 est de trouver des menaces existentielles pour l’humanité. Il les voit partout. Je suis tenté de l’appeler le ‘Donald Trump’ de l’IA. » Cet exemple n’est malheureusement qu’un exemple parmi tant d’autres. Les chercheurs en IA s’invectivent régulièrement sur les réseaux sociaux à ce sujet 8 . Il semble qu’il faille reconnaître d’importantes divergences concernant les avis des experts. La communauté des experts semble loin d’être une section militaire bien ordonnée chantant au pas 9 . Ces divergences entre experts sont importantes à prendre en note. Elles nous invitent à plus de prudence quand il s’agit de parler d’IA. Il existe ainsi nécessairement beaucoup d’experts qui sont en excès de confiance. Prenons donc 7. Bostrom a fondé le Future of Humanity Institute à l’université d’Oxford. 8. Voir par exemple les commentaires à ce tweet d’OpenAI : https://twitter.com/OpenAI/status/1096092704709070851 Ou cette discussion entre prix Turing sur Facebook : https://www.facebook.com/yann.lecun/posts/10156111192797143 9. IA : Clash de prix Turing | Alexandre Technoprog (2019)
POINT SÉMANTIQUE
15
soin du nôtre ! En particulier, il serait malencontreux d’isoler un expert en particulier, et de penser que l’avis de cet expert est le « bon » avis à avoir — et il serait encore plus problématique de considérer que notre avis est clairement plus pertinent que l’avis de cet expert. Quand il s’agit du futur de l’IA, le langage des probabilités et de l’incertitude semble incontournable. Mais surtout, ces incompréhensions entre experts du domaine montrent à quel point les risques de contre-sens sont énormes. En particulier, l’intelligence n’est clairement pas suffisante pour bien analyser les idées de ce livre. Quand il s’agit d’IA, il semble crucial de surveiller nos nombreux biais cognitifs, à commencer par l’excès de confiance et le biais de confirmation. Pour éviter les malentendus et les mécompréhensions, il semble désirable de faire des efforts particuliers d’écoute, de bienveillance et de réflexion, surtout dans des situations de débat.
Point sémantique L’une des raisons de ces nombreuses divergences est l’ambiguité des terminologies utilisées, y compris par les experts. Il y a ainsi beaucoup de confusions dues au simple fait que même les experts n’assignent pas le même sens aux même mots. Voire qu’un même expert utilise parfois un même mot dans des sens différents. On peut prendre l’exemple de la notion de conscience pour illustrer cela. On a ainsi souvent tendance à confondre différentes notions pourtant assez distinctes de conscience. Il y a par exemple la conscience d’accès, c’est-à-dire la faculté d’une intelligence à accéder à sa propre réflexion. Cette notion algorithmique est relativement simple à implémenter 10 . En fait, on peut estimer que de nombreuses IA d’aujourd’hui ont déjà une telle forme de conscience. Cependant, la conscience qui fascine davantage les philosophes est en fait autre. Il s’agit de l’expérience subjective vécue par une entité donnée. On parle aussi de qualia ou de conscience phénoménale. Certains philosophes affirment alors que cette conscience phénoménale sort nécessairement du cadre physique, et qu’il s’agit d’une propriété fondamentalement inobservable. Malheureusement, la confusion entre ces deux notions conduit souvent à davantage de confusion encore 11 . Pire, on les confond avec d’autres usages encore du mot « conscience », comme la conscience morale qui suggère une faculté à comprendre et à se conformer à une morale. Nous reviendrons sur ces difficultés en fin de livre. Il semble que ce qui rend ce terme particulièrement problématique, c’est la très forte connotation qui lui est associée. Intuitivement, on est tentés de dire 10. Par exemple, un compteur dans une boucle de calcul permet à un algorithme d’accéder à un aspect de sa réflexion, à savoir combien de fois il a effectué cette boucle de calcul. Plus généralement, et contrairement d’ailleurs à l’humain pour l’instant, on peut permettre à un algorithme d’accéder au code qu’il exécute. 11. La conscience (avec Monsieur Phi) | Science Étonnante | T Giraud & D Louapre (2017)
16
CHAPITRE 1. INTRODUCTION
que la conscience est une propriété fondamentalement désirable. Voilà qui nous pousse, consciemment ou non, à définir la conscience de sorte que cette notion s’applique à ce que l’on considère désirable ou meilleur. Tel est le biais du raisonnement motivé, maintes fois mis en évidence par la psychologie empirique 12 . Cette remarque s’applique d’ailleurs aussi aux concepts d’intelligence ou de morale. Malheureusement, cette malléabilité de la sémantique conduit trop souvent à des débats interminables sur des problématiques qui, comparées à l’urgence de rendre les IA bénéfiques, nous semblent secondaires. Ce livre n’a pas vocation à trancher sur les définitions des mots « intelligence », « conscience » et « morale ». D’ailleurs, ces mots n’apparaîtront quasiment pas dans ce livre. Néanmoins, puisque nous craignons qu’on pourrait nous reprocher de ne pas définir au moins le mot « intelligence », c’est avec une certaine réticence que nous proposons de le faire ici. Nous avons tenté d’opter pour une définition parmi les moins polémiques — malheureusement, toute définition semble polémique. Intelligence : Capacité à atteindre des objectifs 13 . Cette définition est très inclusive. Elle s’applique à toute entité qui reçoit, traite, stocke et émet de l’information (par exemple en adoptant un comportement). Selon cette définition, une fourmi a de l’intelligence dans le sens où elle est capable d’atteindre l’objectif « trouver des graines et les ramener à la colonie ». Un ordinateur qui joue aux échecs est intelligent dans la mesure où il atteint l’objectif « battre le champion du monde aux échecs ». Même une plante est intelligente dans le cadre de cette définition, dans la mesure où elle est capable de répondre à des stimuli environnementaux en changeant sa morphologie, de telle sorte qu’elle puisse capter plus de lumière et atteindre ainsi un objectif. Néanmoins, selon cette définition, toutes ces entités n’ont pas les mêmes degrés d’intelligence. En s’appuyant sur la cette définition, on peut en effet comparer les intelligences en fonction de leur efficacité et du nombre d’objectifs qu’elles arrivent à atteindre. Ainsi, il semble raisonnable d’affirmer qu’un humain est globalement largement plus intelligent qu’un rat, dans la mesure où il arrive à atteindre un spectre d’objectifs plus large que ceux du rat. Nous reviendrons davantage sur la capacité des machines à atteindre des objectifs au moment d’aborder la notion d’IA de niveau humain dans le chapitre 6. Nous discuterons même d’une définition formelle de l’intelligence, appelée intelligence de Legg-Hutter, au moment de parler des algorithmes d’apprentissage par renforcement dans le chapitre 9. Cependant, nous insistons encore une fois sur le fait que définir le mot « intelligence » n’est pas l’objet de ce livre. Il y a un autre concept si central aux discussions de ce livre que nous ne pourrons pas non plus faire l’impasse sur sa définition, à savoir le concept d’IA. 12. Système 1 / Système 2 : Les deux vitesses de la pensée | Flammarion | D Kahneman (2012) 13. Nous reviendrons longuement sur cette notion d’objectif dans le chapitre 10, où l’on verra notamment que cet objectif n’a rien « d’objectif ».
POINT SÉMANTIQUE
17
Malheureusement, là encore, aucune définition ne semble capable de satisfaire tous les experts. Dans le cadre de ce livre, nous avons fait le choix d’adopter une définition très englobante, pour désigner en fait l’ensemble des outils du numérique. IA : Outil de traitement automatique de l’information 14 , généralement doté d’un objectif. Un intérêt de cette définition est qu’elle permet de démystifier la notion d’IA. Une IA n’a pas à être spectaculaire ou superintelligente pour satisfaire notre définition. Elle n’a qu’à collecter, stocker, traiter et émettre de l’information. Selon notre définition, un thermostat par exemple est une IA : c’est un outil qui traite de l’information (température) de manière automatisée afin de réaliser un objectif (maintenir la chambre à une température désirée). En fait, notre définition n’impose ni un fonctionnement biologique, ni un fonctionnement électronique des IA. Certaines IA ne sont en fait qu’un tas d’objets inertes 15 , à l’instar de la machine Menace qui n’est qu’un tas de boîtes d’allumettes et de billes 16 . Mieux encore, selon notre définition, certaines IA performantes sont des aggrégats de composants biologiques, électroniques et matériels, comme les entreprises, les gouvernements et les économies mondialisées 17 . La NASA est ainsi probablement actuellement l’IA la plus performante quand il s’agit d’envoyer des hommes sur la Lune 18 . De façon cruciale, toutes ces organisations reçoivent, stockent, traitent et émettent des informations. Leur fonction est en grande partie, sinon exclusivement, du traitement automatique de l’information. C’est ce traitement de l’information qui nous intéresse. En particulier, si nous insistons tant sur le traitement de l’information, c’est pour couper court aux querelles sémantiques inutiles qui polluent une grande partie des débats sur l’IA. Avec notre définition, comme nous le verrons dans le prochain chapitre, nous sommes clairement déjà envahis par les IA — en particulier par les IA électroniques ! En fait, à chaque fois que vous lirez « IA », nous vous invitons à penser à l’algorithme de recommandation de vidéos de YouTube. C’est typiquement cette IA qu’il nous semble urgent de rendre robustement bénéfique. Insistons encore dessus. Les querelles sémantiques ne sont pas l’objet de ce livre. Notre objectif, c’est avant tout de défendre les trois thèses énoncées plus haut. Autrement dit, nous vous supplions de prêter uniquement attention à l’urgence de rendre les outils de traitement automatique de l’information bénéfiques, et de réfléchir aux défis qu’il nous faut relever pour y arriver. Ce sont de ces problèmes 14. Autrement dit, selon notre définition, le mot « IA » est synonyme du mot « algorithme ». 15. The Game That Learns | Vsauce2 | K Lieber (2019) 16. MENACE : the pile of matchboxes which can learn | standupmaths | M Parker (2018) 17. Le paradoxe de la veste de laine | Monsieur Phi | T Giraud (2016) 18. Conférence sur la SUPER-INTELLIGENCE + quelques suppléments | Monsieur Phi | T Giraud (2018)
18
CHAPITRE 1. INTRODUCTION
que nous souhaitons parler. En particulier, il est bon de garder en tête que les objets d’étude de ce livre, ces « IA », n’ont absolument pas à être « intelligentes » pour garantir la validité des arguments de ce livre. En fait, aucun des arguments de ce livre ne devrait perdre de sa validité si vous remplacez systématiquement la terminologie « IA » par « Information Automatiquement traitée », « Infatigable Algorithme » ou « Instrument Arithmétique ». À chaque fois que vous serez gênés par notre utilisation de cette terminologie, nous vous invitons d’ailleurs vivement à faire cet exercice de substitution dans votre tête. Dans le cadre de ce livre, il n’y a nul besoin de supposer que les IA sont « intelligentes ». Encore moins qu’elles sont « conscientes ». Au risque de plagier Laplace, nous n’aurons pas besoin de ces hypothèses 19 .
Bienveillance, nuances et réflexion Pour clarifier, le problème souligné par ce livre n’est pas le risque d’IA « consciemment malveillantes ». Ce risque nous semble en fait négligeable 20 . De façon plus générale, notre préoccupation principale ne sera ni la motivation des IA, ni la motivation des développeurs des IA. Le problème soulevé dans ce livre est celui des effets secondaires des IA. En particulier, nous chercherons à montrer qu’une IA influente qui n’est pas conçue pour être robustement bénéfique aura certainement des effets secondaires difficilement prévisibles et potentiellement très indésirables. Comme nous le verrons, c’est via de tels effets secondaires que l’IA tue déjà. En fait, même si l’urgence à rendre les IA bénéfiques est une préoccupation importante de ce livre, nous insisterons beaucoup plus encore sur la difficulté d’y arriver. En particulier, nous cherchons avant tout à défendre la thèse 3 : il est urgent que toutes sortes de talents soient mis dans les meilleures conditions pour contribuer à rendre les outils de traitement de l’information bénéfiques. C’est de cela que nous souhaitons vous convaincre. Malheureusement, les défis à relever pour rendre les IA bénéfiques sont horriblement complexes et pleins de subtilités et de nuances. Pire, la réflexion poussée autour de ces défis monumentaux conduit souvent à des conclusions très contreintuitives. Sorties de leur contexte, il peut être horriblement tentant de rejeter, voire de moquer, ces conclusions. Pour éviter ce travers hautement probable, bienveillance, nuances et réflexion semblent être les maîtres mots. Ainsi, dans ce livre, nous avons fait un énorme effort pour aller dans ce sens. Cependant, nous craignons que nos bonnes intentions aient été très insuffisantes. 19. Selon la légende, après avoir lu l’Exposition du Système du monde, le général Bonaparte questionna l’absence de Dieu dans ce livre de Laplace. Laplace aurait répondu : « je n’ai pas eu besoin de cette hypothèse ». 20. Nous reconnaissons toutefois le fait que nous nous trompons peut-être sur ce point. Les armes autonomes pourraient être des IA conçues pour être, en un sens, « consciemment malveillantes ».
BIENVEILLANCE, NUANCES ET RÉFLEXION
19
De façon ironique, nos discussions à venir sur les effets secondaires indésirables des IA auront très certainement elles-mêmes des effets secondaires indésirables. Nous en sommes vraiment désolés. Exposer les idées de ce livre avec pédagogie et clarté fut une tâche monumentale elle aussi. Nous sommes conscients de ne l’avoir résolue que bien trop partiellement. Pour éviter des contre-sens malheureusement hautement probables, y compris chez les experts en IA, nous vous encourageons, cher lecteur ou lectrice, à corriger vous-même les nombreuses notions de ce livre, avec calme, rigueur et ouverture d’esprit. Nous vous invitons à vous saisir du sujet de ce livre, à critiquer ce qui y est écrit, mais aussi à vous exercer à défendre au mieux les thèses qui y sont présentées. De plus, nous vous suggérons d’accueillir avec bienveillance les mécompréhensions des autres (y compris les nôtres !) et d’essayer d’être pédagogique dans l’aide que vous fournirez pour clarifier les notions de ce livre. Quand quelqu’un vous demandera de commenter ce livre, que vous soyez critique ou non, nous vous supplions de ne pas être caricatural. Pour méditer au mieux les idées de ce livre, et notamment éviter le biais de confirmation, il pourrait être une bonne idée d’organiser ou de participer à des groupes de lecture. Par exemple, il serait peut-être très instructif de prendre part, chaque semaine, à une analyse collective d’un chapitre de ce livre 21 . De telles rencontres pourraient ainsi permettre d’envisager des perspectives différentes sur les enjeux de l’IA. Elles pourraient aussi plus simplement aider à entretenir la motivation à réfléchir activement au fabuleux chantier pour rendre les IA bénéfiques 22 . Si jamais de telles rencontres vous intéressent, et si vous cherchez d’autres lecteurs de ce livre avec qui échanger, nous vous suggérons, par exemple, de contacter l’association Altruisme Efficace France 23 , pour trouver de potentiels compagnons de lecture. Ou, bien entendu, tout autre cadre en dehors de cette association qui vous parraitrait approprié. En particulier, nous espérons que c’est avant tout cette invitation à la bienveillance, à la nuance et à la réflexion qui émergera des discussions autour de ce livre. Et si vous pensez qu’il y a des aspects importants du fabuleux chantier qui ont été omis dans ce livre, nous vous serons très reconnaissants de nous les signaler, si possible avec pédagogie, clarté et bienveillance. Comme on essaiera de vous en convaincre, le jeu semble largement en valoir la chandelle.
21. Prenez garde toutefois à éviter les phénomènes bien connus de polarisation de groupe, en apportant régulièrement des contrepoints à l’avis du groupe, surtout si celui-ci semble consensuel. Curiosité préoccupée avec Jérémy Perret | Probablement ? | J Perret & LN Hoang 22. (2019) 23. En fonction de votre localisation géographique, nous vous invitons à contacter Altruisme Efficace Québec, Effective Altruism Geneva ou autres, voire à monter votre collectif local, en vous coordonnant si possible avec Altruisme Efficace France ou encore le Center for Effective Altruism.
20
CHAPITRE 1. INTRODUCTION
Plan du livre Le reste du livre se décompose comme suit. Dans un premier temps, des chapitres 2 à 6, nous insisterons sur la première thèse du livre, à savoir l’urgence à rendre les IA bénéfiques. Le chapitre 2 insistera sur l’omniprésence et la place déjà prépondérante qu’ont les IA d’aujourd’hui, en cherchant au passage à expliquer ce rôle que les IA ont pris. Le chapitre 3 cherchera à montrer que les IA n’ont pas un rôle innocent. Au contraire, la place prépondérante qu’elles ont prise signifie que les actions entreprises par ces IA ont des effets secondaires d’ampleur planétaire. Le chapitre 4 prendra du recul et analysera le rôle central de l’information et du traitement de l’information dans l’histoire de la vie et des civilisations. Les chapitres 5 et 6, eux, insisteront sur l’importance d’anticiper le futur, et chercheront à montrer que le progrès des performances des IA est à la fois inévitable et très imprévisible. Voilà qui rend le problème de rendre les IA bénéfiques d’autant plus urgent. La deuxième partie du livre, elle, s’intéressera à la deuxième thèse de ce livre, à savoir la difficulté à rendre l’IA bénéfique. Cette seconde partie s’étendra des chapitres 7 à 10. Dans un premier temps, les chapitres 7 et 8 montreront que des idées naïves qui consisteraient à contraindre ou contrôler les IA semblent en fait très peu prometteuses. Puis, les chapitres 9 et 10 introduiront une compréhension conceptuelle des algorithmes des IA du présent et de l’architecture probable des IA du futur, qui semble indispensable à maîtriser pour rendre les IA bénéfiques. Puis la troisième partie du livre, des chapitres 11 à 15, proposera une esquisse de feuille de route pour mieux structurer la réflexion autour des solutions techniques pour rendre les IA bénéfiques. Cette feuille de route vise à découper le fabuleux chantier pour rendre les IA bénéfiques en un très grand nombre de sous-problèmes plus simples, de la fiabilité des données à l’inférence de l’état du monde à partir de ces données, en passant par l’alignement des objectifs des IA et la conception d’un système de récompense adéquat pour ces IA. Les deux derniers chapitres seront quelque peu à part. Le chapitre 16 sera une digression sur les implications de l’approche algorithmique de ce livre sur la philosophie morale. Nous chercherons notamment à montrer que certaines notions semblent en fait incalculables, ce qui suggère qu’il pourrait s’agir de distractions qu’il serait alors souhaitable de moins mettre en avant. Nous insisterons aussi sur la pertinence de la théorie de la complexité algorithmique pour la philosophie morale, ainsi que sur l’importance de la méta-éthique algorithmique. Enfin, le chapitre 17 évoquera les nombreux défis non techniques qui sont indispensables à relever pour mettre toutes sortes de talents dans les meilleures prédispositions pour réfléchir au mieux au vaste et fabuleux défi de rendre les IA bénéfiques.
PLAN DU LIVRE
21
Références La vie 3.0 - Etre humain à l’ère de l’intelligence artificielle | Dunod | M Tegmark (2017) Super intelligence : le grand défi de l’humanité | Dunod | N Bostrom (2017) 21 Leçons pour le XXIème siècle | Albin Michel | YN Harari (2018) Human Compatible : Artificial Intelligence and the Problem of Control | Viking | Stuart Russell (2019) Intelligences Artificielles : Miroirs de nos vies | A Zéphir, F Tigre & H Chochois (2019) Artificial intelligence as a positive and negative factor in global risk | Global catastrophic risks | E Yudkowsky (2008) Research Priorities for Robust and Beneficial Artificial Intelligence | AI Magazine | S Russell, D Dewey & M Tegmark (2015) Ethics of artificial intelligence | Nature | S Russell, S Hauert, R Altman & M Veloso (2015) A Roadmap for Robust End-to-End Alignment | LN Hoang (2019) No, the Experts Don’t Think Superintelligent AI is a Threat to Humanity | MIT Technology Review | O Etzioni (2016) Yes, We Are Worried About the Existential Risk of Artificial Intelligence | MIT Technology Review | A Dafoe & S Russell (2016) Guide to working in AI policy and strategy | 80,000 Hours | M Brundage (2017) Disentangling arguments for the importance of AI safety | Less Wrong | ricraz (2019) What happens when our computers get smarter than we are ? TED | N Bostrom (2015) Le paradoxe de la veste de laine | Monsieur Phi | T Giraud (2016) MENACE : the pile of matchboxes which can learn | standupmaths | M Parker (2018) Conférence sur la SUPER-INTELLIGENCE + quelques suppléments | Monsieur Phi | T Giraud (2018) The Game That Learns | Vsauce2 | K Lieber (2019) IA : Clash de prix Turing | Alexandre Technoprog (2019) Artificial Intelligence with Rob Miles (playlist) | Computerphile | S Riley (2016) Concrete Problems in AI Safety (playlist) | R Miles (2017) Attention Wars (playlist) | BrainCraft | V Hill (2018) Manipulating Social Medias (playlist) | Smarter Every Day | D Sandlin (2019) Machine Learning (playlist) | ZettaBytes, EPFL (2017) L’intelligence artificielle et le machine learning (playlist) | Science4All | LN Hoang
22
CHAPITRE 1. INTRODUCTION
(2018) Interviews de Science4All par Alexandre Technoprog (playlist) | LN Hoang et Alexandre Technoprog (2018) Introspection diététique | Axiome | T Giraud & LN Hoang (2018) Bienveillance transhumaniste | Probablement ? | Alexandre Technoprog & LN Hoang (2019) Curiosité préoccupée | Probablement | J Perret & LN Hoang (2019) Calcul philosophique | Probablement | G Dowek & LN Hoang (2019) Intelligence artificielle : Promesses et périls (Avec Science4All) | The Flares | LN Hoang, G Selle & M Durand (2019) The world desperately needs AI strategists. Here’s how to become one | 80,000 Hours | M Brundage & R Wiblin (2017) Rob Wiblin on the art/science of a high impact career | The Jolly Swagman Podcast | R Wiblin (2018) Beneficial AI and Existential Hope in 2018 | The Future of Life | M Tegmark, A Aguirre, V Krakovna, J Cussins, R Mallah, T Davey, M Chita-Tegmark & A Conn(2017) Staving off disaster through AI safety research | Practical AI | EM El Mhamdi & C Benson (2019) OpenAI and AGI | Lex | MIT AI | G Brockman & L Friedman (2019)
L’IA est partout. Ce n’est pas cette énorme et effrayante chose du futur. L’IA est ici avec nous. Fei-Fei Li (1976-) L’IA est la nouvelle électricité. Andrew Ng (1976-)
2
L’IA est déjà partout
Le mirage de l’IA « Dès que cela marche, plus personne n’appelle cela de l’IA », déclara un jour John McCarthy. Cette citation résume bien une certaine manière très récurrente de parler de l’IA. On a tendance à projeter des fantasmes sur ce qu’elle est. Puis, pour rendre ces fantasmes concrets, on a tendance ensuite à identifier des facultés que se doit de posséder l’IA. Mais alors, quand les machines acquièrent ces facultés, à l’instar de Deep Blue qui battit le champion du monde Garry Kasparov aux échecs en 1997, on a tendance à redéfinir nos termes, inventer d’autres fantasmes et introduire davantage de facultés nécessaires. De sorte que l’IA demeure cette technologie qui ne fait pas encore partie de notre quotidien. Comme expliqué dans le premier chapitre, nous vous invitons à combattre cette tentation, pour nous rapprocher de la terminologie la plus répandue dans les industries d’aujourd’hui. D’une certaine manière, dans le cadre de ce livre, le mot « IA » ne signifie pas vraiment intelligence artificielle. Même des algorithmes simplistes et stupides seront qualifiés d’IA. Dans ce livre, une IA sera avant tout une manière de traiter de l’information sans intervention humaine. De façon cruciale, grâce aux machines à calculer qui implémentent ce traitement automatisé de l’information, les IA d’aujourd’hui possèdent de nombreuses facultés qui les rendent performantes, utiles et surtout d’ores et déjà omniprésentes. Les IA sont déjà partout.
26
CHAPITRE 2. L’IA EST DÉJÀ PARTOUT
Dans ce chapitre, nous allons étudier les raisons pour lesquelles les IA sont devenues incontournables. Et pourquoi elles deviendront certainement de plus en plus incontournables à l’avenir.
Fiabilité L’une des facultés qui ont rendues les machines incontournables est la fiabilité des calculs qu’elles effectuent et du stockage de l’information qu’elles permettent. Tout un pan de l’informatique se charge d’ailleurs de cette sécurité des systèmes d’information. En particulier, ces systèmes sont conçus pour résister à des pannes de composants des systèmes, voire même au piratage de composants des systèmes par des utilisateurs malveillants. Voilà qui est particulièrement utile, par exemple, au système bancaire. À l’aide de machines, les banques peuvent ainsi mieux garantir la gestion fiable des transactions financières que ne le ferait un groupe d’individus humains — et l’avènement de technologies comme la Blockchain devrait renforcer encore plus la fiabilité des systèmes informatiques. Cette propriété des systèmes d’information a d’ailleurs été indispensable aux auteurs de ce livre. En collaborant sur des versions régulièrement mises à jour et rapidement partagées du livre, les auteurs ont ainsi pu éviter une quantité de conflits qui auraient été inévitables autrement, sans craindre une perte complète du manuscrit du livre. À une toute autre échelle, cette fiabilité de l’information partagée a permis l’émergence de Wikipédia, qui est peut-être le plus spectaculaire édifice de la connaissance humaine. Dans de nombreux cas comme ceux décrits ci-dessus, la simple gestion fiable de quelques opérations simples et du stockage robuste de l’information suffit à rendre les machines incontournables. Dans d’autres cas, en revanche, les opérations à effectuer ne sont plus aussi simples qu’une addition et une soustraction sur un compte bancaire. L’IA permet alors d’effectuer ces opérations plus sophistiquées avec malgré tout un très haut niveau de fiabilité. C’est le cas par exemple des smart grids, ces dispositifs en charge de gérer optimalement les réseaux électriques. Cette gestion est complexe. Les réseaux doivent aligner en temps réel la production et la consommation de l’électricité. Voilà qui est particulièrement délicat quand cette production est intermittente, comme c’est souvent le cas des énergies renouvelables. Par exemple, une éolienne peut soudainement tourner à plein régime grâce à un coup de vent à 3 h du matin, au moment où peu de consommateurs ont besoin d’électricité, puis s’arrêter tout à coup à 20 h quand ils sont tous en train de chauffer leur dîner. Des planifications sur diverses échelles de temps sont alors nécessaires. Voilà une tâche de traitement d’information qu’une IA semble plus à même de résoudre que toute alternative. De plus, cette IA pourra être rendue très fiable, ce qui est primordial pour éviter des surcharges du réseau qui pourraient être
VÉRIFICATION
27
désastreuses 1 . Un autre cas où la fiabilité des IA pourrait bientôt devenir un atout majeur est celui des voitures autonomes. En effet, par opposition, les conducteurs humains sont incroyablement peu fiables. Ils fatiguent, boivent et envoient des messages WhatsApp au volant, causant ainsi plus d’un million de morts par an. L’IA n’aura pas ces faiblesses 2 .
Vérification Non seulement les IA sont fiables, elles peuvent même garantir la fiabilité d’autres systèmes. Elles excellent ainsi dans le domaine de la vérification. En effet, de nos jours, des milliards de dollars sont dépensés pour vérifier que les transactions financières ont lieu de manière fiable et sans fraude, ou pour vérifier que des logiciels qui seront utilisés par des milliards d’utilisateurs ont aussi peu de failles que possible 3 . De nombreux outils ont été développés pour cette tâche de vérification. Certaines approches se fondent sur l’analyse automatique des codes algorithmiques qui seront déployés. D’autres s’appuient sur des astuces cryptographiques, comme les empreintes cryptographiques, aussi appelées fonctions de hachage 4 . D’autres encore utilisent des systèmes de redondance. Cependant, quand il s’agit de garantir la vérification de systèmes ou données plus complexes, comme la fiabilité d’une centrale nucléaire, ces méthodes sont insuffisantes. Il faut alors se contenter d’approches capables de certifier un haut degré de fiabilité avec grande probabilité. C’est là que des approches fondées sur l’IA deviennent indispensables. L’un des cas les plus utilisés aujourd’hui est la reconnaissance par données biométriques. Cette technologie permet par exemple de reconnaître l’utilisateur d’un téléphone, simplement à partir d’une image, d’une empreinte digitale ou de l’analyse rétinienne d’un individu. Les IA ont aujourd’hui permis un haut niveau de fiabilité de cette technologie. Et la facilité d’utilisation de ce processus de vérification a fait de cette technologie quelque chose d’omniprésent dans notre quotidien. Au-delà des téléphones, elle commence d’ailleurs à être utilisée dans des aéroports, comme celui de Miami aux États-Unis 5 , où elle fait gagner un temps précieux aussi bien aux voyageurs qu’aux opérateurs douaniers. De façon plus générale, les IA sont utilisées dans de nombreuses industries où les risques de fraudes sont importants et peuvent conduire à des coûts majeurs. C’est le cas par exemple du monde de l’assurance, qui exploite de plus en plus 1. 2. 3. 4. 5.
Smart Grids | ZettaBytes, EPFL | JY Le Boudec (2017) Google Cars versus Tesla | ZettaBytes, EPFL | B Faltings (2017) The Huge Threat of Tiny Software Glitches | ZettaBytes, EPFL | V Kuncak (2017) Hachage et empreintes cryptographiques | String Theory | LN Hoang (2018) Now boarding from MIA : facial recognition departures | Miami Airport News (2019)
28
CHAPITRE 2. L’IA EST DÉJÀ PARTOUT
des IA pour aider à déterminer si une déclaration de sinistre est honnête ou s’il s’agit d’une fraude 6 . À une autre échelle, ces IA sont également devenues incontournables pour aider les utilisateurs de téléphones à taper des phrases justes malgré la petitesse des claviers tactiles. L’auto-correction permet ainsi de grandement diminuer le nombre de fautes de frappe, et fluidifie ainsi les échanges électroniques — même si, parfois, cette auto-correction conduit aussi à d’étranges malentendus.
Surveillance Grâce à l’automatisation du traitement de l’information, les IA peuvent répéter un très grand nombre de fois cette tâche de vérification, à des objets, des lieux et des temps différents. On peut alors parler de travail de surveillance. Les IA sont ainsi de plus en plus déployées pour effectuer du contrôle de qualité dans les chaînes de production 7 . En effet, à l’aide parfois de simples caméras de surveillance, les IA sont capables de détecter en temps réel des défauts de fabrication parmi des millions d’items. Voilà qui permet de retirer les produits défectueux, voire de rapidement remonter à la source du problème et de corriger la chaîne de production. Ce travail de surveillance ne se réduit pas à la production. Il est aussi appliqué à la surveillance de toutes sortes de technologies déjà déployées, comme des avions 8 , des rails de train 9 ou des routes et des ponts 10 . Dans tous ces domaines, les IA nous offrent l’opportunité d’anticiper des pannes potentiellement catastrophiques plutôt que de les subir, ce qui permet d’économiser des millions de dollars de réparation, voire de sauver des vies. Les IA de surveillance peuvent également être utilisées pour surveiller la qualité de ressources naturelles. Par exemple, en s’appuyant sur des capteurs biochimiques, elles permettent de contrôler la qualité de l’air ou la qualité de l’eau 11 , et ainsi améliorer la prise de décision pour la gestion de ces ressources importantes. Des IA similaires servent aussi à la surveillance des agricultures, où elles permettent de choisir avec précision la prise en charge adéquate des plantations. On 6. L’IA vous assure. Ça vous rassure ? Science4All | LN Hoang (2018) 7. How AI and machine learning are revolutionizing quality control | Ingedata (2018) Fault Detection and Isolation of an Aircraft Turbojet Engine Using a Multi-Sensor 8. Network and Multiple Model Approach | Acta Polytechnica Hungarica | L Nyulászi, R Andoga, P Butka, L Főző, R Kovacs & T Moravec (2018) 9. Methods for fault diagnosis of high-speed railways : A review | Journal of Risk and Reliability | Y Zang, W Shangguan, B Cai, H Wang & M Pecht (2019) 10. How AI, drones and cameras are keeping our roads and bridges safe | Microsoft News | E Dedezade (2019) 11. How AI can help us clean up our land, air, and water | Recode | Vox Creative (2016)
AUTOMATISATION
29
parle d’agriculture de précision 12 . Voilà qui pourrait permettre de réagir plus rapidement et plus efficacement à des défauts dans les plantations, ce qui pourrait améliorer les rendements des terres agricoles. À terme, on pourrait ainsi espérer diminuer notre dépendance en surfaces agricoles utilisées aux dépens des forêts. En parlant de forêts, justement, la surveillance des images satellites permet le suivi en temps réel de la déforestation. Cette surveillance semble critique pour cibler ensuite nos efforts de lutte contre le changement climatique 13 . Ces IA de surveillance sont aussi utilisées pour la surveillance de populations, avec notamment des enjeux de droits de l’homme 14 , d’aide contre l’extrême pauvreté 15 et de sécurité. Cependant, comme on le verra dans le prochain chapitre, cette surveillance pose également des questions éthiques épineuses.
Automatisation Historiquement, en plus de permettre la fiabilité et la vérification de solutions, les machines ont également rendu possible l’automatisation des tâches, ainsi que le passage à l’échelle de cette automatisation. Ce fut typiquement le cas d’usage des machines à calculer de Turing pendant la Seconde Guerre mondiale pour effectuer rapidement des procédures répétitives dans le déchiffrement des codes Nazis 16 . Un autre exemple historique de cette automatisation fut la démonstration du théorème des 4 couleurs. Prenez une carte géographique de pays fictifs. Peut-on colorier les pays de cette carte avec seulement 4 couleurs, de sorte que deux pays voisins ne soient jamais coloriés de la même couleur ? Pendant longtemps, cette question fut l’un des plus prestigieux défis des mathématiques. Et puis, en 1976, les mathématiciens Appel et Haken ont montré que l’on pouvait déterminer une preuve du théorème des 4 couleurs, à condition d’effectuer un certain calcul. Le problème, c’est que ce calcul était horriblement long à effectuer. Même un groupe d’humains aurait bien du mal à l’effectuer ; et la probabilité qu’il commette une erreur de calcul serait énorme. Les machines permirent alors à Appel et Haken d’effectuer ce calcul de manière formidablement plus rapide et plus fiable que ce qu’un groupe d’humains aurait pu faire 17 . 12. Computer vision and artificial intelligence in precision agriculture for grain crops : A systematic review | Computers and Electronics in Agriculture | DI Patrício & R Riederb (2018) 13. Crime : I can see my house from here ! Flashforward | R Eveleth (2019) How satellite imagery can protect human rights | TEDxFultonStreet | N Raymond 14. (2015) 15. Combining satellite imagery and machine learning to predict poverty | Science | N Jean, M Burke, M Xie, WM Davis, DB Lobell & S Ermon (2016) Alan Turing - Enigma, ordinateur et pomme empoisonnée | e-penser | B Benamran 16. (2015) 17. Deux (deux ?) minutes pour... le théorème des 4 couleurs | El Jj | J Cottanceau (2016)
30
CHAPITRE 2. L’IA EST DÉJÀ PARTOUT
De la même manière, les machines peuvent effectuer des calculs en si grands nombres que la valeur de l’IA est devenue indiscutable. Ainsi, des IA sont conçues pour sélectionner une poignée de curriculum vitae de candidats à l’intérieur de piles monstrueuses. Trier de telles piles prendrait un temps déraisonnablement long à un humain. A contrario, la machine peut aisément isoler, disons, les cent CV les plus intéressants. Ceux-ci pourront alors être lus et analysés à la main 18 . Ce phénomène a d’ailleurs été fortement accentué par la place prépondérante qu’a pris le réseau social professionnel LinkedIn dans le marché du travail. Au fur et à mesure que les IA se dotent de facultés moins triviales, cette automatisation devient de plus en plus incontournable. En 2017, par exemple, la banque JPMorgan déploie une IA dont la prouesse spectaculaire fut de réaliser l’équivalent de 360 000 heures de travail humain en quelques secondes 19 . Sachant le poids de la masse salariale pour de telles entreprises, l’IA devient une solution si tentante pour les employeurs qu’il deviendra difficile de les convaincre de maintenir un certain niveau d’embauche. D’autant qu’il s’agit ici d’employés dont le salaire est particulièrement élevé. D’autres IA fonctionnent à des échelles plus spectaculaires encore. Par exemple, en 2018, l’IA de Google a ainsi dû répondre à des milliers de milliards de recherches d’internautes. Autrement dit, à chaque seconde, ce sont des dizaines de milliers de services que rend cette IA. Une telle productivité est inimaginable, y compris avec des millions d’humains.
Aide à la décision Les IA d’auto-corrections ont évolué petit à petit en IA d’auto-complétions. Ainsi, il nous arrive de plus en plus souvent de répondre à des e-mails sans taper aucune des lettres de nos e-mails, parce que Gmail a préparé pour nous une réponse toute faite plus convenable encore que celle qui nous était venue en tête. Ce travail d’auto-complétion fait partie d’une tâche plus générale que proposent les IA, à savoir l’aide à la décision. Cette aide à la décision est ainsi de plus en plus automatisée, mais aussi et surtout de plus en plus pertinente et fiable. Si vous êtes encore sceptiques face aux proposition d’auto-complétion de vos téléphones, prenons l’exemple de Case Crunch, une IA entraînée à prédire le verdict d’une autorité légale en fonction d’un dossier qui lui est présenté. En octobre 2017, une expérience fut mise en place pour comparer les performances de l’IA avec celles d’avocats humains. L’IA eut un taux de succès de 86,6 %, contre 62,3 % pour les avocats humains. L’IA a donc surpassé l’humain. L’enjeu 18. Artificial Intelligence : The Robots Are Now Hiring | The Wall Street Journal | H Schellmann & J Bellini (2018) 19. JPMorgan software does in seconds what took lawyers 360,000 hours | The Independent | H Son (2017)
PERSONNALISATION
31
étant ici les gains de 24 % des procès, pour le marché du droit, cela représente des chiffres d’affaires conséquents 20 . De façon plus générale, les IA semblent avoir un rôle important à jouer dans le futur du droit 21 . L’IA nous aide aussi à nous géolocaliser et à nous déplacer. Nous nous fions de plus en plus systématiquement aux systèmes GPS de nos téléphones pour trouver notre chemin, que ce soit à pied, à vélo ou en voiture. Si les chemins suggérés par nos téléphones sont très souvent optimisés pour réduire nos temps de trajet, il ne s’agit toutefois que de recommendations qui nous aideront à déterminer quel chemin emprunter. Typiquement, il nous arrive souvent de ne pas écouter nos téléphones, car nous préfèrons longer le magnifique lac Léman ou flâner dans les rues de Paris, plutôt que de simplement minimiser le temps de trajet. Cependant, il y a d’autres cas d’usage où les aides à la décision de nos IA se sont petit à petit transformées en décisions des IA. C’est le cas par exemple de la gestion des spams. On peut en effet voir la classification des e-mails par les IA comme une aide à la décision de l’attention qu’il est souhaitable de porter à tel ou tel email. Il fut un temps où nous doutions suffisamment des conseils des IA pour systématiquement vérifier nos boîtes à spams. Cependant, la fiabilité des IA de Gmail a fini par nous convaincre de faire quasiment entièrement confiance à son filtre anti-spam. C’est souvent tout étonnés que nous découvrons l’effarante quantité de messages que nos boîtes à spams contiennent ! À différents échelons donc, les IA guident plus ou moins nos processus de décision. Bien souvent, leur rôle commence par être l’aide à la décision. Un humain reste en charge de prendre une décision finale, mais l’IA va l’aider dans cette tâche, en recommendant certaines alternatives plutôt que d’autres. Cependant, au fur et à mesure que ces IA deviennent performantes et fiables, nous avons tendance à leur céder de plus en plus de champ d’actions. Et à bien moins surveiller ces actions 22 .
Personnalisation L’IA a pris une place grandissante dans le domaine du marketing ciblé et de la personnalisation des produits. En effet, alors que l’industrialisation des processus avait tendance à préférer l’uniformisation des solutions, l’IA permet d’adapter les solutions à la demande des utilisateurs, augmentant potentiellement la diversité des solutions. C’est ainsi que, de nos jours, de nombreuses entreprises et politiciens utilisent 20. The robot lawyers are here - and they’re winning | BBC News | R Cellan-Jones (2017) 21. Peut-on prédire la justice ? Lex Tutor (2017) 22. Il peut aussi y avoir un risque de diffusion de la responsabilité. En suivant les suggestions d’une IA, un employé peut alors déférer sa responsabilité. En cas de problème, il pourra ainsi se justifier en accusant l’IA. C’est ainsi qu’une aide à la décision d’une IA peut en fait devenir une décision de l’IA.
32
CHAPITRE 2. L’IA EST DÉJÀ PARTOUT
l’IA pour cibler les clients et les électorats les plus susceptibles d’être réceptifs à leurs offres. L’IA permet même de délivrer des messages sur mesure, en prenant par exemple en compte l’historique d’un utilisateur sur les réseaux sociaux, ou les cookies enregistrés dans son navigateur web. Cette personnalisation des offres est également très en vogue dans l’industrie des assurances. En effet, grâce aux données individualisées, ces assurances peuvent mieux estimer les risques associés à chacun de leurs clients, et proposer ainsi des tarifs personnalisés d’assurance plus compétitifs. Il est un domaine où la personnalisation des offres pourrait être d’une utilité fantastique, à savoir la médecine. En effet, jusque-là, les soins médicaux étaient des techniques, dont on vérifie l’efficacité sur toute une population de patients. Cependant, la possibilité de mesurer en temps réel et en continu des métriques comme le niveau de cholestérol, la pression sanguine ou le rythme cardiaque, pourrait conduire à l’avénement d’une médecine personnalisée, qui adapte la prise en charge aux caractéristiques physiologiques détaillées du patient 23 . Mais surtout, de nos jours, l’une des plus grosses industries est la personnalisation de l’information suggérée sur le web. Ainsi, des services comme Google, Bing, Amazon, iTunes, Facebook, Twitter, Spotify, Netflix ou encore YouTube, reposent grandement sur des systèmes de recommandations personnalisées. Ces IA cherchent à proposer des produits conformes aux préférences d’un utilisateur à un instant donné. Et des milliards de dollars sont investis pour rendre ces recommandations aussi pertinentes que possible.
Analyse surhumaine Jusque-là, nous avons essentiellement parlé des facultés spécifiques des machines qui les rendent préférables aux humains pour certaines tâches, comme la fiabilité du stockage et la vitesse du calcul. Mais il y a également de plus en plus de cas où les calculs de l’IA conduisent à des performances qui surpassent l’intuition, voire la réflexion, humaine. Pour l’instant, bien sûr, il existe encore un très grand nombre de tâches de traitement de l’information pour lesquelles les humains semblent demeurer nettement supérieurs aux IA. En particulier, nous autres humains disposons d’un « sens commun », nourri par des décennies d’apprentissage et d’habitudes du quotidien. Nous avons aussi une dextérité physique qui nous permet de maîtriser un corps relativement complexe. Notre capacité d’apprentissage rapide est aussi remarquable, notamment chez les bébés. Beaucoup parmi nous avons aussi des expertises qu’aucune IA ne maîtrise. Nous disposons également d’une faculté de travail collectif remarquable. Enfin, et surtout, nous possédons une compréhension globale du monde inaccessible aux IA d’aujourd’hui, qui nous permet notamment de résoudre une variété étonnante de tâches distinctes. 23.
Personalized medicine : time for one-person trials | Nature News | NJ Schork (2015)
ANALYSE SURHUMAINE
33
Néanmoins, les IA progressent. Pour certaines tâches, elles nous ont même surpassés. Pour commencer, il y a bien sûr les cas très médiatisés des jeux comme les échecs, le go ou le poker. Si les IA ont surpassé l’humain aux échecs depuis deux décennies, les cas du go et du poker, eux, ne datent que de 2016. De façon intrigante, les performances surhumaines des IA à ces deux jeux ont été accueillies avec énormément de stupéfaction, par les experts en IA comme par les meilleurs joueurs du monde. De façon plus étonnante, les IA ont surpassé l’humain dans des tâches où l’on pourrait croire que l’humain excellerait. Par exemple, une étude de 2015 a montré que les IA avaient atteint des performances surhumaines dans la détection d’émotions d’individus à partir de leurs photos 24 . En 2018, un groupe de chercheurs a développé une IA appelée DARE, dont les performances en détection de mensonge surpassaient nettement les performances des humains. Un tel outil pourrait ainsi être utilisé pour aider des juges à se faire une meilleure idée de la culpabilité des suspects 25 . Dans d’autres domaines, les performances surhumaines des IA pourraient conduire à des bouleversements économiques, à l’instar de ce qu’il s’est déjà passé dans le monde de la finance 26 . Par exemple, en médecine, les IA sont désormais meilleures que les médecins pour diagnostiquer des cancers de la peau, des arythmies cardiaques et des pneumonies 27 . Enfin, il y a des cas où l’IA est capable de prouesses qui sont incomparables avec ce que des humains pourraient faire. Ainsi les IA sont désormais capables d’augmenter la résolution d’images très pixélisées de manière stupéfiante 28 , ou encore de créer des fausses vidéos très réalistes appelées deep fakes, où des individus de notre choix affirment ce qu’on veut leur faire dire 29 . La plus impressionnante des IA, celle dont on parlera beaucoup dans ce livre, est peut-être l’IA en charge des recommandations YouTube 30 . Cette IA doit 24. Emotion classification : How does an automated system compare to Naive human coders ? | IEEE ICASSP | S Eskimez, K Imade, N Yang, M Sturge-Apple, Z Duan & W Heinzelman (2015) 25. Deception Detection in Videos | AAAI | Z Wu, B Singh, L Davis & VS Subrahmanian (2018) 26. Humans Need Not Apply | CGP Grey (2014) 27. L’IA sauvera des vies (ft. Primum Non Nocere) | Science4All | F Morel & LN Hoang (2018) 28. Photo-Realistic Single Image Super-Resolution Using a Generative Adversarial Network | CVPR | C Ledig, L Theis, F Huszar, J Caballero, A Cunningham, A Acosta, A Aitken, A Tejani, J Totz, Z Wang & W Shi (2017) 29. Video-to-Video Synthesis | TC Wang, MY Liu, JY Zhu, G Liu, A Tao, J Kautz & B Catanzaro (2018) 30. À notre connaissance, il n’y a eu qu’une publication académique sur l’IA de YouTube, en tout cas dans sa version deep learning moderne. Cependant, cette publication date de 2016. L’IA de YouTube a certainement beaucoup évolué depuis. Deep Neural Networks for YouTube Recommendations | P Convington, J Adams & E Sargin (2016). Edit : à l’heure où on l’on remettait la version finale du livre, YouTube publiait cette étude parue à la conférence sur les systèmes de recommendation, annonçant notamment l’introduction d’un nouveau système de classement des vidéos.
34
CHAPITRE 2. L’IA EST DÉJÀ PARTOUT
traiter plus de 500 heures de nouvelles vidéos à chaque minute 31 , effectue un sous-titrage automatique de ces vidéos, analyse les images pour vérifier l’absence de droits d’auteurs et de pornographie, choisit quelles publicités présenter avant quelles vidéos, apprend les goûts de milliards d’utilisateurs et répond à des millions de requêtes pendant ce même intervalle de temps. Mais ce qui est impressionnant, c’est que malgré ces conditions de travail dantesques, cette IA parvient malgré tout à proposer des recommandations remarquablement attrayantes pour les utilisateurs. Les créateurs de vidéos YouTube se plaignent régulièrement de l’opacité de l’IA de YouTube. Ils affirment ne pas comprendre ce que cette IA fait. Certes, comme on en parlera dans le chapitre 8, l’IA de YouTube pourrait en effet être nettement plus transparente. Cependant, vu son activité démentielle, il semble illusoire de vraiment comprendre tout ce que fait l’IA de YouTube. On peut même aller plus loin, et arguer que personne ne comprend aussi bien YouTube que l’IA de YouTube elle-même. Personne n’a vu, ne serait-ce qu’une fraction des vidéos vues par cette IA. Et personne n’a étudié l’historique de visionnage des milliards d’utilisateurs de la plateforme. Personne ne pourrait y arriver. Mais vous, qu’en pensez-vous ? L’IA de YouTube est-elle si impressionnante ? Peut-on encore y voir une IA dédiée à une tâche restreinte ? Les modules séparés de cette IA ne sont-ils pas comparables à des modules séparés qui composent le cerveau humain ? Dans quelle mesure peut-on affirmer que l’IA de YouTube « comprend » YouTube ? Son modèle est-il meilleur que votre propre compréhension de l’écosystème de YouTube ? À quelles tâches (pertinentes pour la recommandation de vidéos) pensez-vous demeurer plus performant que l’IA de YouTube ? Combien d’humains seraient nécessaires pour effectuer la tâche de l’IA de YouTube aussi bien que celle-ci y parvient ? De façon plus générale, nous vous encourageons à clarifier aussi pédagogiquement que possible vos réflexions sur les facultés des IA et leur omniprésence. Vu à quel point ce sujet est controversé, nous vous invitons à prêter particulièrement attention aux biais cognitifs comme le raisonnement motivé et l’excès de confiance, qu’ils soient technophiles, technophobes, ou autres encore. De quoi les IA sont-elles capables ? Quelles sont leurs limites ? Combien d’humains faudraitil pour égaler la fiabilité, la vérification, la surveillance, l’automatisation, les recommandations et les prouesses des IA d’aujourd’hui ? Se pourrait-il que vous surestimiez les performances des IA ? Ou que vous la sous-estimiez ? Aviez-vous conscience de l’omniprésence des IA dans notre quotidien ? Comment ce chapitre impacte-t-il vos réflexions à ce sujet ? Planifie-t-on adéquatement le déploiement des IA ? Anticipe-t-on suffisamment les risques que posent ces IA ? Réfléchit-on assez aux effets secondaires des IA sur nos sociétés ? Comment inviter davantage de réflexion sur le rôle social des IA ? Recommending what video to watch next : a multitask ranking system | Z Zhao, L Hong L Wei, J Chen, A Nath, S Andrews, A Kumthekar, M Sathiamoorthy, X Yi & E Chi (2019) 31. More Than 500 Hours Of Content Are Now Being Uploaded To YouTube Every Minute | tubefilter | JL Hale (2019)
ANALYSE SURHUMAINE
35
Nous vous invitons à questionner, réfuter et défendre les idées du chapitre que vous venez de lire, seul ou collectivement. Sans un tel effort, les risques de contre-sens sont malheureusement assez probables. Mais surtout, nous vous encourageons à méditer l’impact de vos réflexions et de celles de vos entourages sur les thèses principales de ce livre. Sachant l’influence et la puissance des outils de traitement de l’information d’aujourd’hui, quelle est selon vous l’ampleur de l’urgence à rendre les IA bénéfiques ?
Références The Second Machine Age : Work, Progress, and Prosperity in a Time of Brilliant Technologies | W. W. Norton & Company | E Brynjolfsson & A McAfee (2016) Le temps des algorithmes | Le Pommier | G Dowek & S Abiteboul (2017) The War on Normal People : The Truth About America’s Disappearing Jobs and Why Universal Basic Income Is Our Future | Hachette Books | A Yang (2018) Personalized medicine : time for one-person trials | Nature News | NJ Schork (2015) Emotion classification : How does an automated system compare to Naive human coders ? | ICASSP | S Eskimez, K Imade, N Yang, M Sturge-Apple, Z Duan & W Heinzelman (2015) Combining satellite imagery and machine learning to predict poverty | Science | N Jean, M Burke, M Xie, WM Davis, DB Lobell & S Ermon (2016) Deep Neural Networks for YouTube Recommendations | P Convington, J Adams & E Sargin (2016) Photo-Realistic Single Image Super-Resolution Using a Generative Adversarial Network | CVPR | C Ledig, L Theis, F Huszar, J Caballero, A Cunningham, A Acosta, A Aitken, A Tejani, J Totz, Z Wang & W Shi (2017) Deception Detection in Videos | AAAI | Z Wu, B Singh, L Davis & VS Subrahmanian (2018) Video-to-Video Synthesis | TC Wang, MY Liu, JY Zhu, G Liu, A Tao, J Kautz & B Catanzaro (2018) Fault Detection and Isolation of an Aircraft Turbojet Engine Using a MultiSensor Network and Multiple Model Approach | Acta Polytechnica Hungarica | L Nyulászi, R Andoga, P Butka, L Főző, R Kovacs & T Moravec (2018) Methods for fault diagnosis of high-speed railways : A review | Journal of Risk and Reliability | Y Zang, W Shangguan, B Cai, H Wang & M Pecht (2019) How AI can help us clean up our land, air, and water | Recode | Vox Creative (2016) JPMorgan software does in seconds what took lawyers 360,000 hours | The Independent | H Son (2017)
36
CHAPITRE 2. L’IA EST DÉJÀ PARTOUT
The robot lawyers are here - and they’re winning | BBC News | R Cellan-Jones (2017) Artificial Intelligence : The Robots Are Now Hiring | The Wall Street Journal | H Schellmann & J Bellini (2018) How AI and machine learning are revolutionizing quality control | Ingedata (2018) More Than 500 Hours Of Content Are Now Being Uploaded To YouTube Every Minute | tubefilter | JL Hale (2019) Now boarding from MIA : facial recognition departures | Miami Airport News (2019) Humans Need Not Apply | CGP Grey (2014) The Paxos Algorithm | Wandida | R Guerraoui (2014) Alan Turing - Enigma, ordinateur et pomme empoisonnée | e-penser | B Benamran (2015) Deux (deux ?) minutes pour... le théorème des 4 couleurs | El Jj | J Cottanceau (2016) Why Quality Database Management Matters | ZettaBytes, EPFL | C Koch (2017) Smart Grids | ZettaBytes, EPFL | JY Le Boudec (2017) How satellite imagery can protect human rights | TEDxFultonStreet | N Raymond (2015) Google Cars versus Tesla | ZettaBytes, EPFL | B Faltings (2017) The Huge Threat of Tiny Software Glitches | ZettaBytes, EPFL | V Kuncak (2017) Découvrons ce qui façonne le futur | The Flares | G Selles & M Durand (2016) L’intelligence artificielle et le machine learning (playlist) | Science4All | LN Hoang (2018) Épistémologie quantitative | Probablement ? | EM El Mhamdi & LN Hoang (2019) Crime : I can see my house from here ! Flashforward | R Eveleth (2019)
Les victimes humaines des [algorithmes] sont jugées avec un niveau de preuve bien plus élevé que les algorithmes eux-mêmes. Cathy O’Neil (1972-) L’IA fera des merveilles. Elle pourrait aussi tout déstabiliser, de la détente nucléaire à la fraternité humaine. Il nous faut réfléchir beaucoup plus à comment nous y adapter. Henry Kissinger, Eric Schmidt et Daniel Huttenlocher
3
L’IA pose déjà problème
Une ampleur planétaire Les IA les plus influentes d’aujourd’hui n’ont pas d’intention malveillante. Cependant, l’absence d’intention malveillante ne suffit pas à garantir que ces IA ont une influence globalement bénéfique. À l’instar d’entreprises qui omettent parfois les externalités de leur activité comme l’émission de gaz à effet de serre, ce sont davantage les effets secondaires indésirables des IA influentes qui semblent menacer le bien-être de nos civilisations et de leurs concitoyens. Certes, tous les effets secondaires des IA ne sont pas indésirables. L’émergence de YouTube a par exemple permis la prolifération de contenus éducatifs de grande qualité. Cependant, comme nous le verrons tout au long de ce chapitre, de nombreux effets secondaires sont plus dérangeants, voire préoccupants. Quoi qu’il en soit, indésirables ou non, tous ces effets secondaires des IA ont été amplifiés par le rôle devenu prépondérant des IA. En particulier, certaines IA ont acquis une ampleur planétaire. Les IA de Google, YouTube et Facebook interagissent quotidiennement avec des milliards d’utilisateurs. Mais alors, tout effet secondaire indésirable de ces IA est alors démultiplié sur des échelles inédites dans l’histoire de l’humanité. C’est cette ampleur monumentale qui nous a amené à conclure que rendre l’IA bénéfique semble être devenu une urgence. Cette propriété des IA n’est pas un accident. En effet, Internet favorise l’effet de réseau. Cet effet repose sur un constat simple : plus une plateforme Web est grosse, plus elle a de chances de grossir. En particulier, le bouche à oreille et
38
CHAPITRE 3. L’IA POSE DÉJÀ PROBLÈME
les moteurs de recherche vont plus souvent mentionner les grosses plateformes, ce qui favorisera leur prolifération. De plus, la présence de nos proches ou de personnes intéressantes sur une plateforme peut être un argument décisif pour nous amener à utiliser cette plateforme. Enfin, et surtout, les coûts de gestion des grosses plateformes ne croissent pas linéairement avec le nombre d’utilisateurs. En effet, une grosse partie de ces coûts correspond à la masse salariale chargée de la gestion de la plateforme. Or le code informatique d’une plateforme d’un million d’utilisateurs n’a pas à être mille fois plus complexe que celui d’une plateforme de mille utilisateurs. Voilà qui explique pourquoi la décentralisation qu’a permis Internet a paradoxalement conduit à une centralisation du pouvoir. Aujourd’hui, une poignée de très grosses entreprises domine le web, à l’instar de Google, Facebook et Twitter. L’influence planétaire de leurs IA leur confère de très grands pouvoirs. Dans une expérience de 2014, Facebook a justement testé sa capacité à influencer l’état émotionnel de ses utilisateurs. En l’espace d’une semaine, ils ont choisi de modifier leur IA de conception de fils d’actualité, en favorisant les posts joyeux pour certains utilisateurs, et les posts tristes pour d’autres. Ils ont alors observé que les utilisateurs dont les fils d’actualité étaient rendus plus joyeux s’étaient mis à écrire des posts plus joyeux à leur tour ; et que l’inverse avait lieu pour les utilisateurs aux fils d’actualité tristes 1 . L’expérience de Facebook a été réalisée sur des centaines de milliers d’individus. Elle a constaté des effets notables, quoique assez faibles. Cependant, la petitesse des effets s’explique par la faible durée de l’expérience. Pour des raisons éthiques évidentes, l’expérience n’a duré qu’une semaine. Mais que se serait-il passé si l’exposition à de l’information plus joyeuse avait duré des mois ? Ou des années ? Quid de si l’information était non seulement plus joyeuse, mais aussi plus fiable et plus sourcée ? Que se passerait-il si les histoires les plus partagées étaient celles d’altruistes heureux d’aider les pauvres et de bonnes actions entreprises pour protéger efficacement l’environnement ? Quelles seraient les conséquences de promouvoir davantage la curiosité, l’engouement pour les sciences et la joie de comprendre des phénomènes complexes ? Que se passerait-il si l’IA de Facebook était conçue pour être vraiment bénéfique à l’humanité ? Malheureusement, il est très difficile d’apporter des réponses univoques à de telles questions. Mais ce n’est pas ce sur quoi nous souhaitons insister ici. Ce que l’expérience de Facebook montre avant tout, c’est la facilité avec laquelle une IA peut modifier l’humeur d’un très, très, très grand nombre d’individus. Cette IA peut agir de manière quasi instantanée, et avec un coût très négligeable, sur l’émotion de milliards d’individus 2 , voire sur leurs habitudes 3 . 1. Experimental evidence of massive-scale emotional contagion through social networks | Proceedings of the National Academy of Sciences (PNAS) | A Kramer, J Guillory & J Hancock (2014) 2. Your Emotions Are For Sale | BrainCraft | V Hill (2018) 3. How One Company Redefined Social Norms | BrainCraft | V Hill (2018)
UNE AMPLEUR PLANÉTAIRE
39
Mais il est une IA dont l’influence semble plus grande encore, à savoir l’IA de YouTube. Depuis 2016, il y a plus de vues sur YouTube que de recherches sur Google 4 ! Depuis 2017, chaque jour, plus d’un milliard d’heures de vidéos YouTube sont visionnées 5 . Or 70 % de ces vues sont le résultat de recommandations par l’IA de YouTube 6 . L’influence de l’IA de YouTube est monumentale. Une énorme portion de l’information à laquelle des milliards d’individus sont exposés quotidiennement est le fruit d’une sélection personnalisée de cette IA. L’influence de l’IA de YouTube semble vastement plus grande que celle de n’importe quelle autre entité, numérique ou humaine. Mais ce n’est pas tout. Contrairement à Facebook, l’IA de YouTube a une quantité monstrueuse de propositions possibles à sa disposition. Il y a de tout sur YouTube. Et YouTube peut piocher dans son énorme sac à vidéos. Il peut aussi bien conseiller dix vidéos contre la vaccination, que dix vidéos expliquant les bienfaits de la vaccination. C’est comme si, à travers ses suggestions, YouTube pouvait absolument tout dire. Mieux, elle peut utiliser la voix du plus convaincant des YouTubeurs — à l’instar des débats sur Twitter qui consistent souvent à partager un lien défendant mieux telle ou telle position que les parties prenantes du débat ne pourraient le faire. Aujourd’hui, l’IA de YouTube a un pouvoir gigantesque. Malheureusement, pour l’instant, cette IA ne semble pas chercher à exploiter ce pouvoir pour le bien de l’humanité. Ces jours-ci, elle semble davantage obnubilée par la maximisation de l’attention des utilisateurs 7 . Dès lors, ses effets secondaires indésirables sont inévitables. Et parce que cette IA a un pouvoir gigantesque, ces effets secondaires indésirables ont pris une ampleur planétaire. C’est cette ampleur qui rend ces effets secondaires préoccupants, voire d’ores et déjà catastrophiques, notamment en termes de confidentialité, de biais algorithmiques, de bulles informationnelles, d’addiction, d’infobésité et de viralité de la virulence. Comme on le verra, cette IA tue déjà. Le pouvoir monumental acquis par les IA semble donc avoir déjà eu des effets secondaires tragiques. Cependant, plutôt que d’y voir là une faute, on peut aussi y voir une formidable opportunité. Si ces IA devenaient bénéfiques, leurs bienfaits seraient démultipliés par l’ampleur planétaire de ces IA. Par exemple, si ces IA promouvaient l’information de qualité, ce serait potentiellement des milliards d’humains qui seraient quotidiennement davantage exposés à cette information de qualité. 4. What Happens in an Internet Minute in 2019 ? | Visual Capitalist | J Desjardin (2019) 5. People now watch 1 billion hours of YouTube per day | TechCrunch | D Etherington (2017) 6. YouTube’s AI is the puppet master over most of what you watch | CNET | J Solsman (2018) 7. Depuis 2019, comme les IA de Facebook et Twitter, l’IA de YouTube semble avoir réduit l’importance de la rétention des utilisateurs, en prêtant notamment attention à ne pas (trop) recommander de contenus conspirationnistes. Voir : YouTube Moves to Make Conspiracy Videos Harder to Find | New York Times | D Wakabayashi (2019)
40
CHAPITRE 3. L’IA POSE DÉJÀ PROBLÈME
Selon l’oncle de Spiderman, « de grands pouvoirs impliquent de grandes responsabilités ». S’il a raison, sachant le pouvoir des IA de recommandation, il semble qu’il y ait une urgence monumentale à les rendre bénéfiques.
L’attention est le nouveau pétrole Pour mieux comprendre les IA d’aujourd’hui, il est utile de s’attarder sur le cadre socio-économique dans lequel ces IA se situent. Ce cadre socio-économique est appelé l’économie de l’attention 8 . De nos jours, un très grand nombre d’acteurs sont obnubilés par la capture de l’attention de leur entourage. Géants du web, partis politiques, organisations non gouvernementales, mouvements militants, chercheurs académiques, startups, amis Facebook, influenceurs Instagram, vidéastes YouTube et auteurs de livre, tous cherchent à attirer l’attention des foules et à la garder. L’attention est le nouveau pétrole. Pour comprendre l’importance croissante de l’économie de l’attention, il est intéressant de revenir sur l’effet de réseau. Comme on l’a vu, plus l’attention portée à un objet est grande, plus cette attention grandit. Ceci s’explique aisément par la contamination de l’attention. À l’instar d’un virus, plus vos proches prêtent une certaine attention à un sujet, plus vous aurez de chances d’être « contaminé », et de prêter à votre tour attention à ce sujet. Dès lors, on peut s’attendre à une prolifération exponentielle de l’attention. Autrefois, l’augmentation de l’attention portée à une chose s’accompagnait d’une augmentation des coûts de gestion de cette chose. Si cette chose était un objet à vendre, il fallait produire davantage de cet objet à vendre. Dans de nombreux cas, on pouvait même s’attendre à une augmentation importante des coûts de gestion. Pour gérer cent mille employés, il était nécessaire de mettre en place un management et des services de coordination qui ne sont pas nécessaires quand il n’y a que 100 employés à gérer. De même, l’augmentation de l’exploitation de ressources nécessitait l’exploitation de ressources de moindre qualité, ou dont le coût d’exploitation était plus élevé. Dès lors, la mise à l’échelle d’une activité s’accompagnait d’une augmentation importante des coûts de gestion de l’activité — surtout si cette gestion était un travail de traitement de l’information opéré par des humains hautement qualifiés. On parle de rendements marginaux décroissants. Cependant, les technologies de l’information semblent avoir bouleversé cette loi empirique. En effet, armé d’algorithmes, Facebook n’a pas besoin de multiplier par mille ses coûts de gestion de sa plateforme pour servir un milliard d’utilisateurs plutôt qu’un million. En particulier, une fois le code écrit, ce code peut être exécuté des milliards de fois, essentiellement sans coût additionnel. En externalisant la gestion de sa clientèle à des machines, le numérique est beaucoup plus propice à la mise à l’échelle. En fait, on assiste alors même à un phénomène 8. L’économie de l’attention : le commencement ! Stupid Economics | A Gantier & V Levetti (2018)
DONNÉES PERSONNELLES
41
de rendements marginaux croissants. Plus on a de clients, plus le coût de servir un client additionnel diminue. Et plus on sera rentable. C’est pour cette raison que de nombreuses activités liées aux nouvelles technologies, qu’il s’agisse des startups, des influenceurs ou des militants, vont prioriser leur croissance. Soyons gros, et tout deviendra beaucoup plus simple, se disentils. Or cette croissance se mesure souvent en termes d’attention du public. Ces groupes ne vont alors pas chercher à atteindre directement leur vrai objectif. Ils vont davantage prioriser le nombre d’utilisateurs, d’abonnés ou de signataires. C’est ainsi qu’on observe l’étonnante profusion d’énormes starts-ups sans revenu, d’influenceurs sans sujet de prédilection et de militants sans revendication claire. Il en va de même pour les grandes entreprises du web. Ce n’est plus l’argent qui obnubile ces entreprises ; c’est notre attention. L’attention est le nouveau pétrole. Or l’IA est devenue le meilleur outil pour extraire ce pétrole. C’est donc sans surprise que de nombreux géants du Web ont chargé leurs IA de maximiser l’attention des utilisateurs 9 . Non sans effets secondaires préoccupants 10 .
Données personnelles Le problème le plus connu est sans doute celui des données personnelles. Et ce n’est pas surprenant. Après tout, l’IA est un outil de traitement de l’information automatisé. Or l’information personnelle peut avoir énormément de valeur. En effet, on a tendance à effectuer de gros efforts pour garder certaines informations secrètes, par exemple s’il s’agit de correspondances personnelles ou de photos compromettantes. Dans certains cas, la confidentialité des données peut même être critique, comme quand il s’agit de secret professionnel ou de sécurité nationale. Les frontières de la confidentialité des données sont parfois très floues. Néanmoins, selon beaucoup d’experts de la question, ces frontières semblent avoir déjà été transgressées. En 2012, l’informaticien Edward Snowden, alors consultant auprès de la CIA, fut même si bouleversé par les transgressions des données personnelles des citoyens américains par la NSA (l’Agence de sécurité nationale américaine) qu’il mit sa vie en danger pour révéler les programmes de surveillance globale que les agences gouvernementales américaines avaient entrepris. Snowden est depuis considéré comme un traître par certains ; comme un héros par d’autres. Snowden a certainement contribué à la protection des citoyens contre la surveillance du gouvernement ; mais il a aussi probablement affaibli certaines mesures de sécurité des citoyens américains que le gouvernement a entreprises. Il semble qu’il y ait une tension délicate à résoudre entre surveillance 9. Big Tech’s Battle For Our Attention | BrainCraft | V Hill (2018) 10. L’économie de l’attention : la fin est proche ! Stupid Economics | A Gantier & V Levetti (2018)
42
CHAPITRE 3. L’IA POSE DÉJÀ PROBLÈME
et sécurité 11 . Un effet secondaire indésirable notable de l’absence de confidentialité des données personnelles est le risque d’une autocensure contre-productive. Voilà qui est particulièrement le cas lorsqu’il s’agit de sujets très controversés, comme la sécurité des IA ou la possibilité d’une IA forte. Pour éviter une tempête médiatique qui pourrait nuire à leur propre image, il semble que certains experts préfèrent esquiver le problème, ou ne pas dire ce qu’ils en pensent vraiment. Le chercheur Nils Nilsson parle de biais de respectabilité. Pour combattre ce biais, la conférence Beneficial AGI a choisi d’imposer la confidentialité des échanges informels qui y ont lieu. Pour débattre sereinement de sujets complexes, où la tournure en dérision et l’attaque personnelle sont monnaie courante, permettre le secret semble éminemment souhaitable. Quand vous discuterez de sujets controversés de l’éthique des IA, nous vous invitons à prendre soin de cette confidentialité du débat vous aussi, en demandant par exemple à l’interlocuteur de ne pas répéter certains de vos propos à n’importe qui. Comme l’explique Edward Snowden, « dire que le droit à la vie privée ne vous préoccupe pas parce que vous n’avez rien à cacher, c’est comme dire que la liberté d’expression ne vous préoccupe pas parce que vous n’avez rien à dire ». Les enjeux semblent dépasser de loin le cadre individuel.
Biais algorithmiques En 2016, le site Web ProPublica.org publia un compte-rendu des biais racistes d’IA en charge d’estimer les risques de récidive de criminels. De façon perturbante, une IA en particulier semblait systématiquement être plus sévère envers les Noirs qu’envers les Blancs. En effet, d’après leur analyse, l’IA se trompait environ deux fois plus souvent quand elle prédisait une récidive d’un Noir que quand elle prédisait une non-récidive. Plus troublant encore, ces statistiques étaient inversées pour les Blancs : l’IA se trompait deux fois plus souvent en prédisant une non-récidive d’un Blanc qu’en prédisant une récidive de sa part 12 . De façon plus générale, en traitant l’information de telle ou telle manière, les IA risquent de biaiser notre interprétation du monde. Par exemple, une étude de chercheurs de l’université de Carnegie Mellon a montré que les publicités d’offres de travail à hauts salaires ont plus de chances d’être proposées à des hommes qu’à des femmes. Plus précisément, en changeant le genre de l’utilisateur, ils ont observé une diminution de la proportion de telles publicités 13 . À l’heure où 11. Camera surveillance within the UK : Enhancing public safety or a social threat ? | IRLCT | B Sheldon (2011) 12. Machine Bias : There’s software used across the country to predict future criminals. And it’s biased against blacks | ProPublica | J Angwin, J Larson, S Mattu & L Kirchner (2016) 13. Automated experiments on ad privacy settings | PoPETs | A Datta, M Tschantz & A Datta (2015)
BIAIS ALGORITHMIQUES
43
Table 3.1. Ce tableau liste les taux d’erreur de prédiction d’une IA étudiée par ProPublica.org. En fonction de la prédiction et de la couleur de peau du criminel, ce taux d’erreur diverge de manière importante. La récidive des Noirs est surestimée. Celle des Blancs est sous-estimées.
Taux d’erreur lors de prédictions de récidive Taux d’erreur lors de prédictions de non-récidive
Blanc 24 % 48 %
Noir 45 % 28 %
de nombreuses entreprises s’appuient sur LinkedIn pour recruter, cette nouvelle semble préoccupante. Ce genre de biais algorithmiques pourrait partiellement expliquer l’étonnante disparité homme-femme parmi les abonnés des chaînes YouTube scientifiques. Dans le monde francophone, certaines chaînes sont majoritairement vues par des femmes. Cependant, il semble que plus on se dirige vers des sciences dures, plus les vues deviennent majoritairement masculines. Ainsi, la chaîne d’histoire antique de Manon Bril est vue 37 % du temps par des femmes, alors que la chaîne Scilabus de sciences expérimentales de Viviane Lalande n’a que 12 % de vues féminines. Plus troublant encore, la chaîne YouTube Science4All de l’un des auteurs de ce livre, qui traite principalement de mathématiques et d’informatique, n’a que 6 % de vues féminines 14 — et les vidéos les plus techniques et les plus populaires de Science4All ont moins de 1 % de vues féminines 15 . Mais d’où viennent donc ces biais algorithmiques ? Il est important de noter qu’ils ne viennent généralement pas d’une intention d’un programmeur malveillant. Si ces biais persistent, c’est généralement parce que les IA les ont appris des données qui leur ont été fournies. Elles ont observé qu’historiquement les femmes ont eu des postes moins bien rémunérés, et qu’elles regardaient moins les vidéos scientifiques que les hommes. Il semble que les IA ont alors procédé à une généralisation hâtive. Elles semblent avoir conclu que, pour maximiser les clics des utilisateurs, il serait optimal de proposer aux femmes des offres moins bien payées et des vidéos moins mathématiques 16 . Le cas de l’IA word2vec illustre cela particulièrement bien 17 . Cette IA a été conçue pour donner du sens aux mots qu’elle lit. Pour y arriver, on lui a donné énormément de textes à ingurgiter. L’IA word2vec devait ensuite exploiter les 14. Pourquoi est-ce que les femmes n’aiment pas apprendre sur YouTube ? Madmoizelle | Marie (2018) 15. La vidéo « 1 + 2 + 3 + 4 + 5 + ... = −1/12 » a même moins de 0,1 % de vues féminines ! 16. Une autre cause potentielle est un effet de bord de la maximisation. La moyenne de clics des hommes pourrait être légèrement supérieure à celle des femmes, même si l’écarttype est largement supérieur à cette différence. Imaginons que l’IA ne connaît que le sexe de l’utilisateur. Il y a 100 hommes et 100 femmes, et doit proposer un contenu uniquement 100 fois. Alors, pour maximiser l’espérance de clics, elle aurait ainsi intérêt à proposer le contenu uniquement aux hommes et jamais aux femmes. 17. Efficient Estimation of Word Representations in Vector Space | T Mikolov, K Chen, G Corrado & J Dean (2013)
44
CHAPITRE 3. L’IA POSE DÉJÀ PROBLÈME
régularités statistiques des mots des textes pour en inférer une sémantique. De manière remarquable, l’IA a alors appris toute seule que l’équivalent féminin d’un roi est une reine. Mais de façon troublante, l’IA a également conclu que l’équivalent féminin d’un docteur est une infirmière. En s’appuyant sur word2vec, LinkedIn pourrait ainsi conseiller aux jeunes garçons qui veulent sauver des vies de devenir docteurs et aux jeunes filles de devenir infirmières. Il est important de voir que si l’IA word2vec en est venue à cette conclusion, c’est en vertu des régularités statistiques dans les textes qu’elle a lus. Dans ces textes, dans un cadre royal, on parle souvent de rois et de reines. Et dans le domaine médical, on parle de docteurs et d’infirmières. Ces biais dans le langage naturel des humains se sont ensuite transformés en biais algorithmiques. Or, les IA s’appuient de plus en plus sur le langage naturel des humains. Par exemple, l’IA de YouTube effectue un sous-titrage automatique des vidéos, et est également capable de le traduire dans une autre langue. Elle apprend sans doute de ces vidéos. Il faut donc s’attendre à ce que les IA apprennent et répètent de plus en plus les biais des humains. Il s’agit là d’un effet secondaire de l’analyse de données générées par des humains ou des sociétés humaines 18 . De nos jours, rendre les IA conscientes des biais de leurs données et de leurs recommandations et les amener à corriger ces biais pourraient en fait être l’une des manières les plus efficaces de lutter pour plus d’équité entre diverses souspopulations. Vu l’ampleur planétaire des IA, il pourrait s’agir là d’une priorité de la lutte contre le racisme et le sexisme. Malheureusement, à l’instar des biais des humains, la correction des biais des IA est un défi de recherche encore nonrésolu, surtout quand ces IA s’appuient sur des teraoctets de données qu’aucun groupe d’humains ne peut débiaiser. Toutefois, de plus en plus de travaux aillent dans cette direction 19 .
Polarisation idéologique La personnalisation de l’information par les IA semblent aussi aggraver plusieurs des nombreux biais cognitifs des humains 20 . Le pire de ces biais est peut-être le biais de confirmation : nous aimons lire et partager ce que nous voulons croire. Et ce que nous voulons croire est souvent ce qui nous est familier. Les IA chargées de nous proposer des contenus qui nous plaisent risquent alors de nous entourer de médias avec lesquels nous sommes vivement d’accord. Ceci risque de nous conforter dans nos convictions et de renforcer notre désir de n’être entourés que par ces médias. On a là un cercle vicieux, appelé bulle informationnelle ou chambre d’écho, ou filter bubble en anglais. Si ce phénomène 18. 19. (2018) 20. (2012)
L’IA est raciste (mais vous aussi !) | Science4All | LN Hoang (2018) Challenges to Eliminate Algorithmic Discrimination | ZettaBytes, EPFL | E Celis Système 1 / Système 2 : Les deux vitesses de la pensée | Flammarion | D Kahneman
POLARISATION IDÉOLOGIQUE
45
n’a rien de nouveau, l’IA semble le catalyser, en nous servant sur un plateau l’information qu’on veut lire. Le journal The Wall Street Journal l’a particulièrement bien mis en évidence en mettant en ligne la page Blue Feed, Red Feed. Cette page met côte à côte les fils d’actualité Facebook d’utilisateurs Démocrates et Républicains, les deux grands partis politiques américains. L’information y est incroyablement biaisée. Elle consiste bien souvent en une caricature sarcastique du camp opposé, le faisant passer pour malveillant ou stupide. Dès lors, il n’est malheureusement pas étonnant de constater un terrible accroissement de la polarisation idéologique, et une montée des extrêmes 21 . Depuis quelques années, de nombreuses recherches confirment cet accroissement de la polarisation idéologique 22 . Désormais, la moitié des Démocrates ont « peur » du parti Républicain. Et vice-versa. La moitié des Républicains ont peur du parti Démocrate. Pire encore, comme le montre la Figure 3.1, les opinions des uns et des autres sont de plus en plus presque exclusivement les opinions de leurs partis, surtout s’il s’agit de citoyens politiquement engagés. De tels citoyens ont d’ailleurs d’autant plus « peur » du camp opposé, quel que soit leur parti. Le fossé entre Démocrates et Républicains ne se réduit toutefois pas à des désaccords politiques. Le plus inquiétant, c’est sans doute davantage la mécompréhension croissante du camp opposé. On assiste de plus en plus à une diabolisation de ce camp opposé, accompagnée de caricatures et de déformations. C’est ainsi que les uns en viennent à une image très erronée des autres, et vice-versa. Les chercheurs Yudkin, Hawkins et Dixon ont appelé cela le fossé de perception 23 , ou perception gap en anglais. Selon un très grand nombre de métriques, les Démocrates ont une estimation beaucoup plus extrême des avis des Républicains qu’ils ne le sont vraiment. Et vice-versa. Les Républicains estiment que les Démocrates ont des avis beaucoup plus extrêmes qu’ils ne le sont vraiment. Voilà qui semble mener inéluctablement à des conflits virulents et contre-productifs entre membres des camps opposés. De façon malheureuse, ce fossé de perception et les conflits qui en découlent ne semblent pas limités à la politique américaine. On semble les retrouver un peu partout dans le monde 24 . En particulier sur Twitter, des clans semblent régulièrement se former et s’opposer. Dès lors, chaque clan développe une image très biaisée et exagérée du clan opposé, qui s’accompagne trop souvent de messages agressifs. Ce phénomène est certainement amplifié par les IA des réseaux sociaux, qui tendent à mettre en avant les messages les plus agressifs et les plus 21. Degenerate Feedback Loops in Recommender Systems | AIES | R Jiang, S Chiappa, T Lattimore, A György & P Kohli (2019) 22. Is America More Divided Than Ever ? The Good Stuff | R Wolff (2016) 23. Republicans Don’t Understand Democrats—And Democrats Don’t Understand Republicans | The Atlantic | Y Mounk (2019) 24. How YouTube Radicalized Brazil | New York Times | M Fisher & A Taub (2019)
46
CHAPITRE 3. L’IA POSE DÉJÀ PROBLÈME
Figure 3.1. Ces figures représentent l’évolution des avis des électorats Démocrates et Républicains. Plus une courbe est décalée vers la gauche (respectivement, la droite), plus les avis de l’électorat sont en tout point alignés avec les positions du parti Démocrate (respectivement, Républicain). Ces courbes montrent une augmentation de la polarisation idéologique aux cours des dernières décennies. À gauche, on a l’évolution des opinions dans le grand public. À droite, il s’agit de l’évolution des opinions des citoyens politiquement engagés. Source : Political Polarization, 1994-2017 | Pew Research Center (2017).
BOULEVERSEMENTS SOCIAUX
47
Figure 3.2. Nuages des mots les plus utilisés par les zététiciens (à gauche) et les journalistes (à droite). Source : Le journalisme qui criait au Troll | Chèvre pensante (2017).
caricaturaux. Plus inquiétant encore, cette polarisation haineuse semble avoir atteint des groupes sociaux dont on pourrait douter a priori de la virulence. Ainsi, depuis le début de l’année 2019, on assiste à une telle polarisation haineuse sur Twitter, qui oppose des journalistes à des zététiciens, c’est-à-dire des défenseurs de « l’esprit critique ». La Figure 3.2 illustre la virulence du débat. Malheureusement, des mois plus tard, ce débat houleux ne s’est toujours pas calmé 25 . Les uns et les autres persistent à considérer que l’autre clan est responsable d’une débâcle informationnelle et d’une aggressivité inexcusable. Tous ces conflits ne profitent certainement pas à la réflexion calme et posée que nécessitent les grands défis de notre temps.
Bouleversements sociaux La fin de l’année 2018 et le début de l’année 2019 furent marqués politiquement par le mouvement des gilets jaunes en France. Avant cela, l’année 2011 fut celle dite des « printemps arabes ». Pour ces deux mouvements sociaux de grande ampleur, les réseaux sociaux auront joué un rôle qui n’est plus sujet à débat. Ce rôle fut plutôt loué en 2011. Des articles académiques titraient La révolution Twitter avec grand enthousiasme, tandis que des journaux à grand tirage reprenaient un graffiti inscrit sur les murs de Tunis s’exclamant merci Facebook. Cependant, à l’inverse, les évènements des gilets jaunes vont davantage provoquer une levée de boucliers. Le rôle joué par Facebook dans le contournement des structures classiques d’information et de mobilisation fut critiqué. 25.
Science et médias : dialogue de sourds | La méthode scientifique | N Martin (2019)
48
CHAPITRE 3. L’IA POSE DÉJÀ PROBLÈME
Médias, partis politiques, syndicats et autres corps intermédiaires exprimèrent leur méfiance vis-à-vis de ce qu’ils jugèrent être une aberration. Les mêmes plateformes qui ont été célébrées comme moyen de « fluidifier les échanges », de « contourner les structures sclérosées des dictatures » et de « donner une plateforme à une majorité silencieuse » vont être critiquées sept ans plus tard pour « propagation de fausses informations ». Entre l’enthousiasme de 2011 et la méfiance de 2018, deux autres évènements politiques majeurs auront changé la perception du rôle joué par les réseaux sociaux : le Brexit et l’élection américaine de 2016. En particulier, dans ces deux cas, les enquêtes révélèrent des manipulations sans précédent de l’opinion publique via les réseaux sociaux, sur lesquels nous reviendrons. Pour l’heure, insistons sur un autre point commun entre les printemps arabes et les gilets jaunes. Dans les deux cas, l’horizontalité des réseaux sociaux a privé ces mobilisations d’intermédiaires efficaces pour clarifier leurs intentions et revendications. Dans une situation aussi ironique qu’inédite, c’est le pouvoir et non la rue qui va regretter en premier la quasi-absence de syndicats dans ces mobilisations. L’absence de représentants des mobilisations prive le pouvoir d’un intermédiaire avec qui dialoguer. Plus étrange encore, elle prive aussi l’opposition (non structurée) de l’opportunité de faire porter ses revendications par un corps intermédiaire qui aurait rempli cette tâche dans une configuration classique. Le chaos des mobilisations fait que, parfois, pouvoir et opposition sont tous les deux perdants en l’absence d’un corps intermédiaire efficace. L’arrivée des plateformes a certes fourni des alternatives plus dynamiques que les corps intermédiaires classiques. Mais, en affaiblissant ces corps intermédiaires, elle a aussi perturbé le mode de fonctionnement de la société, que ce soit dans la manière de se mobiliser, dans la manière de s’informer ou dans la manière d’établir des revendications. Loin de nous l’envie de déterminer si ces bouleversements sociaux sont désirables. Ce que nous souhaitons souligner, c’est que les plateformes n’ont pas voulu causer ces chamboulements. Ces chamboulements sont des effets secondaires difficilement prévisibles. Dans un mémoire à ce sujet 26 , Mariame Tighanimine illustre l’imprévisibilité des effets secondaires des IA par le cas d’un changement de l’IA de Facebook en 2017. Dans le but de « donner aux gens le pouvoir de bâtir une communauté et de rapprocher le monde 27 », Facebook s’est alors mis à favoriser les contenus des groupes Facebook et des profils d’amis au détriments des pages Facebook. Le patron de Facebook, Mark Zuckerberg, expliqua ainsi que les groupes Facebook étaient dotés d’une « mission sociale » :« Je vais parler avec des gens dans une église et le pasteur va me dire “je sais que quand une usine ferme en ville, je vais me retrouver le mois suivant à faire des thérapies de couples pour de nom26. médias Arts et 27.
L’affaiblissement des corps intermédiaires par les plateformes Internet. Le cas des et des syndicats français au moment des Gilets jaunes | Conservatoire National des Métiers | M Tighanimine (2019) Mark Zuckerberg Gives Facebook A New Mission | Forbes | K Chaykowski (2017)
LA DÉMOCRATISATION DE LA CYBER-GUERRE
49
breuses personnes” (...) Quelqu’un doit s’occuper de ça, et pourtant ça se fait de moins en moins. Les structures d’aide sont en train de disparaître. » Cependant, cette décision de Zuckerberg eut des effets secondaires imprévus, notamment car les corps intermédiaires s’appuyaient bien plus sur les pages Facebook que sur les groupes Facebook. En particulier, suite à la décision de Zuckerberg, les posts de votre voisin de quartier pourraient désormais vous être plus souvent proposés que ceux de l’Institut Pasteur 28 , y compris s’il s’agit d’informations erronées sur la validité des vaccins qui vous appellent à ne pas vacciner votre enfant ! Notez bien qu’il ne s’agit pas là de l’intention originale de Facebook. Il s’agit d’un effet secondaire indésirable difficilement prévisible. Facebook souhaitait simplement vous « reconnecter avec votre quartier ». Cependant, ceci eut l’effet secondaire de promouvoir la propagande contre la vaccination.
La démocratisation de la cyber-guerre En mai 2018, suite à une investigation sur les manipulations politiques pendant les campagnes présidentielles américaines de 2016, le Congrès américain révèle l’achat de 3500 publicités malveillantes par une agence russe 29 appelée l’Internet Research Agency (IRA). Ces publicités de l’IRA sont extrêmement polarisantes. Mais ce n’est pas le plus étonnant. Étrangement, l’IRA a acheté aussi bien des publicités en faveur du port d’armes, que des publicités protestant le port d’armes ! De même, l’IRA a promu le contrôle des frontières et les droits des immigrés. L’IRA a aussi soutenu et moqué le mouvement « Black Lives Matter ». Pour chaque sujet, on retrouve des achats de publicité visant deux camps opposés ; mais avec une haine et un extrémisme exacerbé. Cette stratégie de l’IRA a de quoi laisser songeur. Pourquoi défendre chacun des deux camps ? Pour commencer, il semble que l’IRA ait pu avoir cherché à affaiblir un pays rival en le polarisant. Un pays divisé est probablement un pays moins performant politiquement, militairement et économiquement. Mais la motivation de l’IRA pourrait être autre. De façon contre-intuitive, la polarisation ciblée de l’IRA permet aussi et surtout de mieux identifier les différents clans et leurs membres. Dès lors, il sera plus facile de manipuler chacun des clans, en leur proposant des contenus qui les font réagir de manière prévisible. Ainsi, dans le rapport du Congrès américain, on trouve des publicités ciblant les électeurs de Bernie Sanders en les incitant à l’abstention. Ces publicités ont sans doute été particulièrement efficaces. De façon cruciale, cet exemple suggère que les grandes plateformes numériques semblent avoir créé des vulnérabilités inédites. En promouvant les contenus addictifs et polarisants, elles ont favorisé l’émergence de communautés très re28. En supposant que vous êtes abonné à la page Facebook de l’Institut. 29. Social Media Advertisements | Permanent Select Committee on Intelligence (2017)
50
CHAPITRE 3. L’IA POSE DÉJÀ PROBLÈME
tranchées, ce qui rend les publicités ciblées particulièrement efficaces pour ces communautés. Ce phénomène semble rendre nos démocraties vulnérables à des manipulations des mouvements sociaux par des acteurs malveillants. En particulier, l’impact néfaste de ces acteurs semble inédit, non seulement par l’étendue de son effet, mais aussi par la faiblesse de son coût. Malgré un investissement de seulement 46 000 dollars 30 , soit 0,05 % de ce qu’ont investi les équipes de campagne des candidats officiels, en s’appuyant sur la viralité ciblée de ses publicités, l’IRA semble être néanmoins parvenue à avoir un impact majeur sur des millions d’américains 31 . À tel point que certains suggèrent que l’issue de l’élection de 2016 pourrait avoir été différente sans cette manipulation de masse. Malheureusement, la complexité et l’opacité des systèmes d’information modernes sont telles que l’impact de ces interférences électorales est difficile à quantifier avec précision 32 . Il semble ainsi judicieux de demeurer prudent sur les effets de telles manipulations. Néanmoins, la psychologie empirique et le succès des campagnes publicitaires suggèrent que cet impact ne devrait sans doute pas être balayé d’un revers de main. En fait, comme le suggère le documentaire The Great Hack de Netflix dans le cas de Cambridge Analytica, certaines entreprises semblent investir des millions de dollars pour profiter des vulnérabilités inédites permises par la publicité ciblée. Ces entreprises ont probablement eu des impacts non-négligeables, notamment sur d’autres élections moins médiatisées, comme les élections présidentielles kenyanes ou encore celles à Trinité-et-Tobago. Plus récemment, Facebook et Twitter ont annoncé la détection d’une opération de manipulation d’opinion menée depuis l’Arabie Saoudite et visant une audience arabophone. L’un des sujets phares de cette campagne était la guerre civile en Libye. Dans le cas de Facebook, plus de 13 millions de personnes réelles sont tombées dans le piège et se sont mis à suivre les pages frauduleuses de cette campagne. De façon étonnante, le coût de cette campagne s’élève à une centaine de milliers de dollars seulement. Ce coût total est inférieur à celui d’une campagne électorale dans une petite ville d’un des pays visés ! Aujourd’hui, toute une industrie malveillante semble même s’être organisée pour profiter de ces vulnérabilités et vendre la visibilité qui y a été acquise. Plus que jamais, nos démocraties semblent hackables ; elles sont même probablement constamment piratées par toutes sortes d’agents malveillants. Pour en savoir plus à ce sujet, nous vous recommandons vivement l’excellente série de vidéos du vidéaste Destin Sandlin sur sa chaîne Smarter Every Day, où il interviewe notamment des employés de YouTube, Twitter et Facebook qui luttent quotidiennement contre ces cyber-attaques 33 . 30. Bien sûr, il y a d’autres budgets cachés derrière cette manipulation, mais la comparaison du chiffre brut dépensé en pubs entre les candidats et les russes est un indicateur marquant. 31. Trump and Clinton spent 81M on US election Facebook ads, Russian agency 46K | TechCrunch | J Constine (2017) 32. Facebook’s role in Brexit — and the threat to democracy | TED | C Cadwalladr (2019) 33. Manipulating Social Medias (playlist) | Smarter Every Day | D Sandlin (2019)
LA DÉMOCRATISATION DE LA CYBER-GUERRE
51
Figure 3.3. Exemples de publicités russes révélées par l’enquête du Congrès américain. Le mouvement « Black Lives Matter » est né des réseaux sociaux en 2013 après un procès où le tueur d’un adolescent afro-américain a été acquitté. Ici, il est utilisé par l’acheteur des publicités douteuses afin de faire camper chaque camp encore plus loin de l’autre. À gauche, une page « patriote » dénonce ce mouvement comme radical et haineux, tout en plébiscitant les forces de l’ordre américaines. À droite, un post qui se moque de policiers américains qui seraient entraînés à voir le « Noir » comme cible, au point de tirer sur son ombre noire. Chacun des deux posts publicitaires a reçu une quantité importante de partages par des comptes authentiques. Source : https://intelligence.house.gov/social-media-content/ social-media-advertisements.htm.
52
CHAPITRE 3. L’IA POSE DÉJÀ PROBLÈME
L’addiction En 2018, l’organisation mondiale de la santé (OMS) a classé l’addiction aux jeux vidéos comme étant un trouble de santé mondial. Ceci formalise une importance croissante des technologies du numérique sur notre santé mentale. Cependant, celle-ci ne semble pas se restreindre aux jeux vidéos. Ainsi, on ne compte plus le nombre de présentation TEDx où l’intervenant parle de la difficulté de se séparer de nos téléphones 34 . Certaines études montrent que cette addiction est physiologiquement similaire à d’autres formes d’addictions plus classiques, comme l’addiction aux drogues 35 . Pour capter et garder notre attention, il semble malheureusement évident que les IA vont développer des stratégies d’addiction déjà bien connues des développeurs de jeux vidéos 36 ou des casinos de Las Vegas. Elles vont ainsi favoriser des récompenses immédiates et fréquentes, symbolisés par les likes et les compteurs de nombres d’amis ou d’abonnés, ainsi que par les notifications incessantes 37 . Par ailleurs, le fameux infinite scroll nous permet d’explorer sans fin le contenu des plateformes. C’est ainsi que nous sommes devenus, petit à petit, ultra-dépendants à nos téléphones. Malheureusement, même ces effets secondaires quasiment intentionnels des IA d’extraction de notre attention ne semblent pas interpeler les développeurs et commerciaux qui exploitent ces IA. Par exemple, le 27 janvier 2019, l’entreprise Netflix France publia sur son compte Twitter une vidéo 38 qui moqua tous ceux qui se plaignaient de leur addiction à Netflix et des conséquences de cette addiction sur leur performance scolaire. « Tu es responsable de ta vie scolaire », ajouta Netflix, avec sarcasme et moquerie. Pire encore, en 2017, Reed Hastings, PDG de Netflix, déclara 39 : « Vous savez, quand on y réfléchit, quand vous regardez un contenu de Netflix et devenez accro, vous restez éveillé jusqu’à tard dans la nuit. Nous sommes donc en compétition avec le sommeil. Et ça, ça représente une grande quantité de temps ». Obnubilés par l’attention de centaines de millions d’utilisateurs, ni le PDG de Netflix ni l’IA de recommandation de Netflix ne semblent préoccupés par les effets secondaires indésirables de l’addiction qu’ils semblent vouloir causer.
34. Why I Don’t Use A Smart Phone | TEDxTeen | A Makosinski (2016) 35. 5 Crazy Ways Social Media Is Changing Your Brain Right Now | ASAPScience | M Moffit & G Brown (2014) 36. Comment Fortnite a conquis ses joueurs | Game Spectrum | T Versaveau (2018) What Happened in Vegas | Your Undivided Attention | N Don Schüll, T Harris & A 37. Raskin (2019) 38. https://twitter.com/NetflixFR/status/1089475796597657601 39. Netflix’s biggest competitor ? Sleep The Guardian | A Hern (2017)
LA MALINFORMATION
53
La malinformation En maximisant la rétention, les IA vont ainsi mettre davantage en avant des contenus addictifs. Malheureusement, certains contenus de faible qualité informative, comme des contenus d’actualité politique peu fiables ou des promotions de théories conspirationnistes, semblent particulièrement addictifs. Ces contenus deviennent alors naturellement davantage viraux, à l’instar des chemtrails et des illuminatis, en passant par la théorie de la Terre plate et le climatoscepticisme 40 . C’est sans doute parce que l’IA de YouTube a appris le pouvoir addictif de ces contenus qu’elle n’hésite pas à les proposer, y compris si leur taux de clics est initialement faible. Elle a sans doute observé que dès qu’un utilisateur clique sur l’une de ces vidéos, il a une probabilité importante de se laisser emporter dans un « rabbit hole », c’est-à-dire une sorte de spirale addictive interminable 41 . Il est tentant de moquer les victimes de ces théories conspirationnistes. Cependant, vous êtes, chère lectrice ou cher lecteur, vous aussi enfermé dans vos bulles de malinformation. Et vos bulles vous livrent une vue très biaisée et erronée du monde dans lequel vous vivez 42 . Pire, il vous est très probablement très difficile de prendre conscience d’à quel point l’information à laquelle vous êtes exposé biaise votre vision du monde. À quel point votre information est elle-même une malinformation. L’omniprésence de la malinformation est d’ailleurs quelque chose que le statisticien Hans Rosling adorait mettre en évidence. Sur de nombreux sujets de société, comme les catastrophes naturelles, l’éducation ou la pauvreté dans le monde, la malinformation conduit l’écrasante majorité de la population à avoir une vision terriblement erronée de l’état du monde 43 . Comme l’explique Rosling, elle conduit la grande majorité d’entre nous à des avis plus erronés que ceux d’un chimpanzé qui exprimerait un avis aléatoire. Un chimpanzé ignorant, et répondant au hasard, aurait alors moins souvent tort que nous ! Le plus étonnant, c’est que Rosling a étudié aussi bien le citoyen médian que des étudiants de grandes universités. Tous ont une vision très biaisée et très erronée de l’état du monde 44 . Plus étonnant encore, cette remarque s’applique également à des personnes très éduquées, comme le public d’une conférence TED, les dirigeants politiques et les journalistes. Ces individus, qui lisent très certainement des médias de qualité comme The Guardian ou The New York 40. Science and Environmental Communication on YouTube : Strategically Distorted Communications in Online Videos on Climate Change and Climate Engineering | Frontiers in Communication | J Allgaier (2019) 41. Down The Rabbit Hole By Design | Your Undivided Attention | G Chaslot, T Harris & A Raskin (2019) 42. Sommes-nous tous complotistes ? (ft. le Sense of Wonder) #LesDécodeurs, Le Monde (2019) 43. Factfulness : Ten Reasons We’re Wrong About the World–and Why Things Are Better Than You Think | Flatiron Books | H Rosling, A Rosling-Rönnlund & O Rosling (2018) 44. « L’état du monde » ici se réfère à des statistiques très précises, comme le nombre de morts par catastrophes naturelles ou le nombre d’années de scolarisation des garçons et des filles.
54
CHAPITRE 3. L’IA POSE DÉJÀ PROBLÈME
Times, ont néanmoins une compréhension plus erronée que le hasard de l’état du monde 45 ! La malinformation nous a envahis. C’est ainsi qu’on en est arrivé aujourd’hui à des sociétés où même la majorité de la population qualifiée est convaincue de la vérité de certains faits, y compris quand ceux-ci sont contraires au consensus scientifique. Voilà qui est particulièrement le cas sur des sujets politisés clivants, comme par exemple les OGM 46 , le glyphosate, le nucléaire ou les vaccins 47 . Pour ces problèmes, l’avis d’une proportion importante du grand public est contredit par les conclusions de décennies de recherche scientifique de nombreux instituts indépendants. Malheureusement, les IA n’aident pas. De façon parfois subtile, les IA nous induisent en erreur, notamment via des canaux souvent négligés par la réflexion autour de l’éthique des IA. Par exemple, en cherchant « guérir le cancer par », l’IA d’auto-complétion de Google n’hésite pas à fournir des réponses comme « jeûne », « pensée positive » ou encore « alimentation et désintoxication du corps », et suggère ensuite souvent des liens vers des sites Web de malinformation sur les traitements efficaces du cancer. Voilà qui pourrait retarder des prises en charge médicales, et ainsi indirectement conduire à la mort des malades. Les IA posent déjà de sérieux problèmes de santé publique.
Les mute news Mais ce n’est pas tout. En promouvant disproportionnellement certains sujets plutôt que d’autres, les bulles de malinformation créées par les IA de recommandation ont aussi naturellement conduit à la relative disparition de certaines informations importantes, mais moins attrayantes que les sujets polarisants. Typiquement, des sujets préoccupants comme le changement climatique ou la malaria 48 ne sont probablement pas aussi souvent discutés qu’ils devraient l’être. On parle alors de mute news, ou informations rendues silencieuses. Un exemple de mute news est le consensus relatif sur la distribution idéale des richesses dans nos sociétés. Deux études indépendantes, de Thomas Piketty en France 49 et de Michael Norton et Dan Ariely aux États-Unis 50 , ont constaté que les divergences politiques des citoyens n’ont en fait qu’un impact relativement mineur sur la distribution de richesse souhaitée par les citoyens. En particulier, les variations de la distribution souhaitée sont très négligeables en comparaison de la différence entre la distribution souhaitée par ces citoyens et 45. How not to be ignorant about the world | TED | H Rosling & O Rosling (2014) 46. Les OGMs sont-ils nocifs ? (non) | Dirty Biology | L Grasset (2016) 47. « La science ne saurait avoir de parti-pris ». L’appel de 250 scientifiques aux journalistes | L’Opinion | Collectif #NoFakeScience (2019) 48. How Humans Made Malaria So Deadly | MinuteEarth (2016) Attitudes vis-à-vis des inégalités de revenu en France : existerait-il un consensus ? T 49. Piketty (2003) 50. Building a Better America–One Wealth Quintile at a Time | Perspectives on Psychological Science | M Norton & D Ariely (2011)
LES MUTE NEWS
55
Figure 3.4. Distribution de richesses réelle, perçue et souhaitée. Source : Building a Better America–One Wealth Quintile at a Time | Perspectives on Psychological Science | M Norton & D Ariely (2011).
la perception qu’ils ont de la distribution actuelle des richesses. Nous sommes en fait essentiellement tous d’accord. Il y a beaucoup trop d’inégalités dans nos sociétés. Mais le constat de Norton et Ariely est plus stupéfiant encore. Ils montrent que la différence entre la perception des inégalités et la réalité des inégalités est plus grande encore que la différence entre la distribution souhaitée et la distribution perçue. Non seulement sommes-nous tous d’accord sur le fait que les inégalités actuelles nous semblent beaucoup plus grandes que ce qui serait désirable. Mais en plus, comme l’illustre la Figure 3.4, nous sous-estimons tous gravement l’état des inégalités actuel 51 ! Mais surtout, l’information la plus importante, c’est peut-être davantage le fait que ces deux informations pourtant critiques sont des mute news. Alors même que le sujet des inégalités est hautement médiatisé, parce qu’on préfère y voir un débat entre clans opposés, on est parvenus collectivement, scientifiques, journalistes, politiciens et citoyens, à taire les informations les plus importantes et les plus pertinentes sur ce thème. Cependant, la plus préoccupante des mute news est peut-être plutôt l’éducation à la critique de la malinformation. Malheureusement, nous méditons trop rarement sur l’origine de nos connaissances. Et nous ne critiquons pas suffisamment la fiabilité de ce savoir. À l’heure où nous sommes inondés d’informations biaisées et où il nous est difficile de faire le tri, l’éducation à l’esprit critique semble cruciale. 51.
Wealth Inequality in America | politizane (2012)
56
CHAPITRE 3. L’IA POSE DÉJÀ PROBLÈME
Certes, comme beaucoup l’affirment, l’enseignement de l’analyse des médias pourrait être une étape obligée de l’éducation civique. Cependant, cet enseignement est difficile à mettre en place, car il nécessite de modifier les programmes scolaires et de former des centaines de milliers d’enseignants. Il faudra des années, voire des décennies, pour y arriver. Pire encore, une telle approche ne peut toucher que des élèves de jeune âge. Or, ce ne sont pas ces élèves qui s’expriment publiquement, diffusent de la malinformation, élisent nos représentants et votent nos lois. Pourtant, de nombreux contenus de formation à l’analyse critique de l’information ont été produits et rendus gratuitement accessibles gratuitement, en blog, sur YouTube 52 ou en podcast 53 . Il semble souhaitable que ces contenus soient davantage suggérés à une plus grande proportion des utilisateurs du web. Malheureusement, ces contenus d’utilité publique ne créent pas l’addiction que créent les vidéos conspirationnistes, les vidéos politiques ou les vidéos de chats. Ils ne sont pas ceux que les IA de recommandation vont préférer mettre en valeur. Certains sont parvenus à atteindre des centaines de milliers de vues, en attirant un public de niche. Cependant, aucune des excellentes vidéos de, disons, Julia Galef 54 , ne frôle la dizaine de millions de vues. Les vidéos éducatives, ou de haute qualité informationnelle, sont malheureusement trop souvent des mute news 55 . Le manque de visibilité des mute news à haute valeur ajoutée semble être un effet secondaire particulièrement indésirable de l’objectif de rétention des utilisateurs assigné aux IA. Il semble urgent de faire en sorte que cela change.
L’infobésité Il y a sans doute un effet secondaire plus problématique encore que les mute news, à savoir l’infobésité, aussi appelée surcharge informationnelle ou junk news. L’infobésité correspond à une consommation excessive d’informations, par analogie avec l’obésité qui correspond (en première approximation) à une consommation excessive de nourriture. Dans un podcast à la suite d’une vidéo très introspective, le vidéaste CGP Grey explore l’analogie entre l’information brève de piètre qualité promue par les IA et la malbouffe 56 . L’aisance cognitive et la satisfaction immédiate que permettent ces produits nous poussent à les consommer sans modération ; au détriment souvent de notre santé mentale ou physique. Malheureusement, l’industrialisation de ces produits, combinée dans le premier cas à l’optimisation par les IA, est devenue une tentation à laquelle nous cédons trop facilement. Et à laquelle nous 52. Education aux Médias (playlist) | Hygiène Mentale | C Michel (2016) 53. Bière sceptique avec Christophe Michel (Hygiène Mentale) | Probablement ? | C Michel & LN Hoang (2019) Know the brain you have to get the brain you want | J Galef (2014) 54. 55. Chère conviction, mute-toi en infection VIRALE ! ! Science4All | LN Hoang (2017) 56. Thinking About Attention – Walk with Me | CGP Grey (2018)
L’INFOBÉSITÉ
57
risquons fortement de continuer à céder toujours plus facilement si l’économie de l’attention reste le moteur de nos sociétés. Derek Muller, auteur de la chaîne Veritasium, compare l’économie de l’attention à celle de l’agro-alimentaire. Dans les deux cas, nous entrons dans une économie d’abondance, dans laquelle tout producteur cherche à séduire sa clientèle en le bombardant de publicités et d’images attrayantes. Pour éviter une surcharge, pondérale ou informationnelle, Derek Muller encourage lui et ses abonnés à moins céder à la tentation de la consommation boulimique d’information. Il préconise un « régime informationnel 57 », et y voit une solution pour rétablir un ennui productif 58 . Malheureusement, la plupart d’entre nous ne prenons pas soin de notre régime informationnel. Au lieu de cela, nous nous goinfrons sans cesse d’informations. Dès que nous avons un moment de libre, qu’il s’agisse de l’attente d’un bus ou celle d’un ami, nous avons très souvent tendance à sortir nos téléphones et à ouvrir un réseau social ou un journal d’actualités pour remplir notre cerveau de nouvelles consommations informationnelles. Cependant, ce faisant, nous remplissons notre tube digestif informationnel, qui ne peut alors plus rien avaler de plus conséquent. Pire encore, l’économie de l’attention nous habitue à de l’information nouvelle, brève, choquante et clivante. Elle nous invite à omettre le temps de la vérification de cette information et de la méditation de sa cohérence. Qui parmi nous n’a jamais senti la flemme de lire un article de plusieurs pages ou d’écouter une interview de plusieurs heures ? L’infobésité nous pousse à réagir à l’immédiateté au détriment de réflexion plus longue et plus difficile 59 . Elle nous fait réagir uniquement à des titres et à des sous-titres, et à brièvement survoler des textes longs et complexes. Elle nous fait passer d’un sujet à l’autre, et oublier ce que l’on vient de lire 60 . Pire, l’infobésité a réduit notre faculté à prendre le temps de la réflexion et à nous concentrer. Une étude suggère que le temps d’attention médian d’un employé qualifié pendant ses heures de travail est d’une limite très préoccupante. « L’activité de quarante employés du numérique fut suivie pendant deux semaines de travail. Le temps médian de concentration sur l’écran était de 40 secondes », écrivirent les chercheurs 61 . Comme l’explique Gloria Mark dans un épisode du podcast Your Undivided Attention 62 , cette interruption de l’attention peut venir de notifications, de notre incessante envie de mettre à jour notre boîte email ou de l’initiative de notre inconscient de se conformer à ses habitudes d’interruptions. 57. The Distraction Economy | Veritasium | D Muller (2016) 58. Why Boredom is Good For You | Veritasium | D Muller (2018) 59. Le problème des super-stimulus | Dirty Biology | L Grasset (2018) 60. La civilisation du poisson rouge | Grasset | B Patino (2019) Neurotics Can’t Focus : An in situ Study of Online Multitasking in the Workplace | 61. CHI ACM | G Mark, ST Iqbal, M Czerwinski, P Johns & A Sano (2016) 62. Pardon the Interruptions | Your Undivided Attention | G Mark, T Harris & A Raskin (2019)
58
CHAPITRE 3. L’IA POSE DÉJÀ PROBLÈME
Absorbés par les technologies de l’information et piégés par les IA qui veulent notre attention, nous consultons nos téléphones une cinquantaine de fois par jour 63 , ce qui semble réduire notre faculté à nous concentrer. De quoi parler de trouble de l’attention, voire de maladie de la distraction 64 . Cette infobésité est particulièrement bien illustrée dans l’épisode Smithereens de la série Black Mirror. De façon amusante, cet épisode met en scène deux personnages très distincts. L’un est chauffeur de taxi. L’autre est PDG d’une entreprise du numérique. Cependant, tout deux avouent, explicitement ou non, être débordés par l’économie de l’attention. Tous deux reconnaissent une certaine incapacité à prendre le temps de la réflexion et à se concentrer. Avec, dans le film, des conséquences dramatiques. La perte de notre faculté d’attention est particulièrement préoccupante, sachant l’ampleur des défis du XXIe siècle. Nous allons devoir nous confronter à des problèmes subtils et complexes, qui vont requérir notre attention complète. Pour nous renseigner adéquatement sur ces défis et préparer le futur de l’humanité, il semble urgent de nous imposer des régimes informationnels. Voire de modifier les IA pour qu’elles nous aident à prendre davantage soin de notre infobésité.
Santé mentale Les effets secondaires des IA semblent parfois aller jusqu’à des troubles mentaux plus préoccupants. À défaut de s’attaquer directement à notre biologie, les IA s’attaquent énormément à notre environnement informationnel, qui peut ensuite modifier en profondeur notre circuit de la récompense 65 . Dans certains cas, ceci semble pouvoir gravement nuire à notre santé mentale. Facebook a collaboré avec des chercheurs académiques pour investiguer ce problème 66 . Leur étude suggère que l’effet de l’utilisation de Facebook sur notre santé mentale dépend fortement de cette utilisation de Facebook. Dans certains cas, l’utilisation de Facebook peut remonter le moral de l’utilisateur. Dans d’autres, elle peut créer un sentiment de solitude, voire de dépression. Ces deux troubles semblent très préoccupants. En particulier, la solitude semble être une épidémie aux conséquences majeures 67 . La solitude semble accélérer le vieillissement et augmenter des risques de cancer grave ou de maladies comme Alzheimer. Certains estiment même que la solitude est associée à deux fois plus de risques que l’obésité, et qu’elle augmente significativement l’agressivité envers autrui 68 . La solitude semble être un 63. Global mobile consumer survey : US edition | Deloitte (2018) 64. Google Owns 28 % of Your Brain | BrainCraft | V Hill (2018) 65. The Psychological Tricks Keeping You Online | BrainCraft | V Hill (2018) 66. The Relationship Between Facebook Use and Well-Being Depends on Communication Type and Tie Strength | M Burke & RE Kraut (2016) 67. The growing problem of loneliness | The Lancet | J Cacioppo & S Cacioppo (2018) 68. Loneliness | Kurzgesagt (2019)
LA VIRALITÉ DE LA VIRULENCE
59
problème de santé publique, qui, dans de nombreux cas, semble aggravé par les IA qui misent sur notre addiction. Au lieu de potentiellement aggraver un problème, les IA pourraient aider. En fait, on peut voir en les IA une opportunités fantastiques. En premier lieu, il semble déjà possible de prédire partiellement la solitude ou la dépression d’un individu à partir de son activité Facebook 69 . Voilà qui pourrait permettre un diagnostic et une prise en charge précoces, y compris pour des individus peu suivis médicalement. Les IA peuvent peut-être aller plus loin encore. En recommandant des contenus thérapeutiques, les IA pourraient même aider à accompagner les patients souffrant de troubles mentaux. Ainsi, une exposition régulière à des contenus bien conçus pourrait alors être un traitement plus efficace encore que des bibliothérapies aux effets déjà avérés. En effet, en 2005, une étude 70 a montré que la simple lecture du livre Feeling Good de David Burns avait un effet important sur le rétablissement des patients. De façon plus modeste, les IA pourraient recommander des contenus qui encouragent intelligemment les victimes de solitude ou de dépression à se renseigner auprès de médecins. De façon moins ambitieuse, les IA pourraient dès à présent aider à combattre des addictions. Par exemple, les IA pourraient permettre aux utilisateurs qui souhaiteraient réduire drastiquement leur consommation de tabac, d’alcool ou de viande, de censurer les publicités ou les vidéos qui promeuvent de telles consommations. Elles pourraient même aider ces utilisateurs, en leur suggérant des contenus qui combattent ces tentations, comme des témoignages des bienfaits de la sobriété ou des encouragements bienveillants. Les IA pourraient ainsi activement contribuer au bien-être de millions, voire de centaines de millions d’utilisateurs.
La viralité de la virulence De nos jours, les réseaux sociaux sont tous organisés autour de l’idée du partage de l’information, avec bien souvent des métriques publiques de la performance d’un partage, en termes de likes ou de re-partages. Les IA des réseaux sociaux sont ensuite optimisées pour faire exploser ces compteurs. Ce dispositif peut sembler innocent. Cependant, il est important de se demander quelles informations sont ainsi privilégiées par ce système 71 . Quelles sont les caractéristiques des in69. Facebook language predicts depression in medical records | PNAS | JC Eichstaedt et al. (2018) 70. Self-help books for depression : how can practitioners and patients make the right choice ? | BJGP | L Anderson, G Lewis, R Araya, R Elgie, G Harrison & J Proudfoot (2005) 71. Notez que ce problème se pose, y compris en l’absence d’IA de recommandation. Pire, les effets secondaires de tels réseaux sociaux pourraient être incontrôlables en l’absence d’IA de recommandation bienveillantes, permettant ainsi toutes sortes de piratages illégaux, de marché noir de drogues, d’armes ou de prostitution, ou de radicalisations politiques extrêmes, à l’instar de ce qui a pu être observé dans certaines sections du forum 4chan. En fait, c’est la centralisation qui permet à YouTube de modérer les infractions aux droits d’auteur, les appels
60
CHAPITRE 3. L’IA POSE DÉJÀ PROBLÈME
formations rendues virales par les réseaux sociaux ? Sur Internet, qu’est-ce qui buzze ? Qu’est-ce qui gagnera une attention complètement disproportionnée 72 ? Dans l’excellente vidéo This Video Will Make You Angry, le YouTubeur CGP Grey présente une étude 73 qui suggère que l’information se doit d’évoquer des sentiments forts pour être virale. Elle doit surprendre, fasciner ou inquiéter. Mieux encore, le sentiment le plus puissant pour susciter des réactions et des partages serait la colère. Surtout quand il s’agit d’une colère envers un clan opposé tout aussi colérique. Selon cette vision, deux camps opposés sur un sujet chaud ne seraient en fait pas en train de lutter pour faire taire l’autre ; il s’agirait davantage de deux idéologies en symbiose qui se nourrissent l’une de l’autre pour survivre dans l’esprit des internautes. En effet, à chaque fois qu’un clan osera affirmer X, les membres du clan opposé pourront s’indigner plus encore et se rallier pour crier non-X en chœur. Plus globalement, la virulence semble être une pandémie virale des réseaux sociaux, dont un symptôme grave est souvent l’escalade de l’agressivité, de la provocation au sarcasme, du sarcasme à la moquerie, de la moquerie à l’injure, et de l’injure à la menace de mort 74 . Pour comprendre ce phénomène contre-intuitif, il est intéressant de s’arrêter sur une importante faiblesse de la psychologie humaine. Aussi étrange que cela puisse paraître, dès que l’hooligan en nous est titillé par un camp opposé 75 , nous préférons ressentir la colère. Pire, nous cherchons souvent à rationaliser notre colère. Nous adoptons souvent un raisonnement motivé dont le but est de montrer la légitimité de notre colère. Nous cherchons activement à conforter et à préserver notre colère 76 . La colère est addictive 77 . Les IA semblent l’avoir compris. Dans le but de maximiser notre attention, ces IA ont rendu la virulence et l’agressivité virales. Elles les propagent exponentiellement vite à travers les réseaux sociaux. Elles ont rempli ces réseaux sociaux de provocations sarcastiques et de messages haineux. Elles les valorisent socialement, en encourageant les récompenses sociales (likes, partages) attribuées aux contenus virulents. Elles ont créé une culture, où « détruire l’ennemi » était un triomphe du groupe en général, et de l’auteur du « contenu destructif » en particulier. Aujourd’hui, moquer, tourner en dérision ou casser l’adversaire, c’est généralement considéré « stylé 78 ». Voilà qui contraste fort avec l’apparente innocence d’un simple like ou partage d’un contenu virulent 79 . à la haine et la pédophilie. 72. My Video Went Viral. Here’s Why | Veritasium | D Muller (2019) What Makes Online Content Viral ? | Journal of Marketing Research | J Berger & K 73. Milkman (2012) 74. The PewDiePipeline : how edgy humor leads to violence | NonCompete (2019) 75. Êtes-vous un hooligan politique ? Science4All | LN Hoang (2017) 76. Destruction | Mind Field (Ep 3) | VSauce | M Stevens (2017) 77. How to Have Impossible Conversations : A Very Practical Guide | Da Capo Lifelong Books | P Boghossian & J Lindsay (2019) 78. La virulence, c’est pas bien #DébattonsMieux | Alexandre Technoprog (2019) 79. L’appel à la meute #DébattonsMieux | LN Hoang (2019)
UNE FORCE INVISIBLE
61
Pire encore, en personnalisant chaque recommandation à l’état émotionnel de l’utilisateur, les IA ont conçu pour chacun d’entre nous une escalade de la colère sur mesure. Elles nous proposent souvent exactement le contenu qui va éveiller l’hooligan incontrôlable en nous, avec l’espoir que chacun d’entre nous gaspille des heures sur leur plateforme, simplement parce que, comme l’explique Randall Munroe, « quelqu’un sur Internet a tort 80 ». Il semble crucial de garder en tête que ce « quelqu’un » n’est absolument pas un échantillon aléatoire. Les IA ont justement été conçues pour que vous rencontriez ce « quelqu’un ». Et pour que vous vous engueuliez longuement avec ce « quelqu’un », dans la haine et la mauvaise foi. La montée de la haine, accompagnée de polarisation, de malinformation et d’infobésité, semble être une cause de préoccupation majeure pour le futur de notre société. La haine rend des mouvements de foule incontrôlés incontrôlables. Elle fait surgir le pire de chacun d’entre nous. Elle provoque des indignations mal ciblées et des revendications pleines d’incohérences. Elle détruit des opportunités de coopération et d’altruisme bienveillant, notamment envers des clans qu’on juge « opposés ». Elle empêche le recul et la priorisation des causes. En particulier, à l’heure où les grands défis de l’humanité requièrent une coordination globale et des réflexions profondes, le fait que nous cédions facilement à la virulence, à la colère et à l’indignation semble gravement limiter nos chances de succès face à ces défis. Mais surtout, cette colère peut être contre-productive pour de nombreuses causes. Elle peut par exemple nous amener à cibler un faux coupable. Non seulement ce faux coupable pourrait alors être une victime innocente, son cyber-harcèlement pourrait transformer des problèmes plus fondamentaux en mute news, auxquelles on ne prête plus suffisamment attention. Elle peut légitimer la malinformation, et conduire à des propositions contre-productives pour la cause 81 . Pire encore, cette colère mal dirigée pourrait décrédibiliser une cause justifiée, et ainsi lui nuire 82 . Il semble urgent de calmer les colères pour défendre différentes causes de manière plus raisonnée, coordonnée et efficace. Faire des IA de recommandation des alliées en les rendant bénéfiques semble être l’une des meilleures façons d’y arriver.
Une force invisible Une particularité importante de la diffusion de l’information assistée par des technologies de l’information est le rôle central, et pourtant souvent invisible, des diffuseurs de l’information. De nos jours, une proportion grandissante de 80. Duty Calls | xkcd | R Munroe 81. Électricité verte selon Greenpeace : l’écologie dogmatique | Le Réveilleur | R Meyer (2018) 82. Comment je suis devenu vegan #DébattonsMieux | LN Hoang (2019)
62
CHAPITRE 3. L’IA POSE DÉJÀ PROBLÈME
la population mondiale accède à l’information via les réseaux sociaux, comme Facebook, Twitter ou YouTube. Cependant, l’information qu’ils y lisent semble être celle qui leur est suggérée par des connaissances ; pas par des grands médias centralisés proches du pouvoir. Voilà qui peut amener certains à être moins méfiants envers l’information qui leur est donnée. En particulier, il semble très probable que le rôle actif des IA de Facebook, Twitter ou YouTube soit très négligé par l’écrasante majorité des utilisateurs. Même le PDG de Facebook, Mark Zuckerberg, a défendu cette apparente neutralité de Facebook, affirmant que Facebook était une entreprise technologique ; pas un média 83 . Pourtant, alors que nos nombres d’amis sur Facebook ont largement dépassé la taille de nos cercles sociaux habituels, l’information à laquelle on est exposé est inéluctablement devenue un tout petit échantillon de tout ce qui a été partagé sur les réseaux sociaux. Pire, cet échantillon est fortement biaisé ; tout l’intérêt d’utiliser une IA est justement de choisir le biais qui maximisera la rétention des utilisateurs 84 . Même s’il peut paraître bénin, le rôle des IA en charge de la sélection de l’information à montrer aux utilisateurs est en fait monstrueusement important. Il peut amener tout utilisateur sur une pente glissante, en l’amenant par exemple à consommer des contenus de plus en plus radicaux. L’IA de YouTube pourrait commencer par des suggestions de vidéos sur des magouilles de politiciens, et finir, dix vidéos plus tard, avec des histoires de franc-maçons qui seraient au contrôle du monde. « C’est comme si vous n’étiez jamais suffisamment radical pour YouTube », explique la technosociologue Zeynep Tufekci 85 . Pire encore, les IA n’affectent pas uniquement les consommateurs de contenus. Puisque les IA affectent la popularité des contenus, les IA incitent indirectement les créateurs de contenus à créer certains contenus, typiquement plus racoleurs, que d’autres 86 . En privilégiant tel ou tel contenu, les IA de recommandations modifient aussi indirectement l’ensemble des contenus présents sur leurs plateformes. Et ce, bien souvent, sans que l’on s’en rende vraiment compte. Mais surtout, la force (invisible) de ces IA est d’avoir conquis notre quotidien. Tous les jours, qu’elles le veuillent ou non, les IA nous influencent un peu. Or, la psychologie empirique n’a cessé de montrer que, à la longue, l’exposition répétée à telle ou telle information modifie drastiquement nos croyances sans qu’on ne s’en rende compte 87 , notamment à travers le biais de familiarité. Ainsi, les IA peuvent amener tout utilisateur, lentement mais sûrement, à consommer, 83. Zuckerberg tells Congress Facebook is not a media company : ‘I consider us to be a technology company’ | CNBC | M Castillo (2018) 84. Notez que, dans le cas notamment de l’IA de YouTube, tirer une vidéo au hasard serait certainement une idée catastrophique, car la plupart des vidéos sur YouTube sont probablement catastrophiques (ou du moins très peu intéressantes). Pire, il convient d’imaginer la réaction des créateurs de contenus à une telle modification de YouTube : YouTube serait alors certainement inondé de trolls. 85. We’re building a dystopia just to make people click on ads | TED | Z Tufekci (2017) 86. Why YouTube Used to Prefer Quality | Veritasium | D Muller (2017) 87. The Illusion of Truth | Veritasium | D Muller (2016)
LES VICTIMES DES IA
63
accepter et apprécier des contenus dont l’information ne repose que sur des préjugés erronés, des indignations injustifiées et des fondements fallacieux. Et à ainsi amener toute une sous-population mondiale à s’enfermer dans telle ou telle croyance, avec telle ou telle conviction. Il semble critique de prendre davantage conscience du rôle central des IA dans la diffusion des croyances et des convictions. Après tout, comme l’explique Guillaume Chaslot 88 , si les utilisateurs de YouTube étaient davantage conscients du pouvoir de l’IA de YouTube, les théories d’un complot mondial paraîtraient beaucoup moins crédibles. Si le monde était contrôlé par des forces puissantes et secrètes, ne chercheraient-elles justement pas à biaiser YouTube pour ne pas recommander ces dénonciations d’un complot ? « L’humain est hackable », affirme Yuval Noah Harari. Il semble en fait même que l’humain est constamment en train d’être hacké par les IA de recommandations, à son insu. Au vu de ce constat, il semble être devenu urgent de veiller à ce que les hacks de croyances et de convictions imposés par les IA de recommandation ne soient pas catastrophiques.
Les victimes des IA La prolifération de la haine a malheureusement déjà conduit à de graves violences physiques. Il est devenu courant de voir des vagues de harcèlements, où des milliers d’individus s’acharnent sur une poignée de victimes, avec des messages allant de la simple insulte à la menace de mort. Cette violence a malheureusement dépassé le cadre du numérique. En Inde, en 2017, des vagues de fausses rumeurs autour d’enlèvements d’enfants et de trafics d’organes ont eu lieu sur WhatsApp. Ces fausses informations ont ensuite conduit à des lynchages publics et organisés 89 . En 2019, l’article Wikipédia sur ce sujet recensait 46 morts 90 . Ces vagues de harcèlements peuvent aussi provoquer de sérieux troubles psychologiques, qui peuvent même conduire au suicide. Une étude récente suggère que le cyber-harcèlement doublerait les risques de suicide chez les jeunes 91 . Ce cyber-harcèlement n’est toutefois pas le seul facteur de risque du suicide. Le suicide semble aussi obéir à des phénomènes de contagion sociale, que la recommandation de contenus portant sur le suicide pourrait accélérer, notamment auprès d’un public isolé ou dépressif. Tel pourrait être un effet secondaire criminel des IA de maximisation de l’attention. 88. Rendre YouTube bénéfique | Probablement | G Chaslot & LN Hoang (2019) 89. Notez que ces cas ne sont pas dus aux IA de recommandation. Ils suggèrent en fait que des réseaux sociaux complètement décentralisés suffisent à des risques majeurs de polarisation idéologique, d’effets de meutes et de malinformation. En cela, l’existence de plateformes centralisées et gérées par des IA peut être vue comme une opportunité de modération efficace des échanges, même si cette opportunité ne semble pas avoir été suffisamment saisie jusque-là. 90. Indian WhatsApp Lynching | Wikipedia (2019) 91. Self-Harm, Suicidal Behaviours, and Cyberbullying in Children and Young People : Systematic Review | JMIR | A John, AC Glendenning, A Marchant, P Montgomery, A Stewart, S Wood, K Lloyd & K Hawton (2018)
64
CHAPITRE 3. L’IA POSE DÉJÀ PROBLÈME
En 2019, un potentiel cas de contagion du suicide a été signalé par une publication dans un journal scientifique réputé. Cette publication suggère fortement une augmentation des suicides suite à la sortie de la série Netflix 13 Reasons Why 92 . En effet, des écoles au Canada, en Nouvelle-Zélande et en Australie ont rapporté des pics de suicides ou d’automutilation suite aux sorties d’épisodes de la série. Les centres de crise ont rapporté des pics similaires. Bien entendu, corrélation n’est pas causalité. Néanmoins, l’avis des experts médicaux a convaincu Netflix de supprimer la scène du suicide de l’épisode 1, pourtant centrale à toute la série. Netflix publia alors le communiqué suivant : « Suivant l’avis d’experts médicaux, dont celui du docteur Christine Moutier, responsable médicale de la Fondation américaine pour la prévention du suicide, nous avons décidé, avec l’accord du créateur de la série Brian Yorkey et de ses producteurs, de supprimer la scène de la saison 1 durant laquelle Hannah se tue. » Même si l’effet des IA de recommandation sur les suicides demeure très incertain, il semble important de garder en tête que le suicide fait environ un million de victimes par an. Augmenter cette quantité de quelques dizaines de pourcents, ce que suggère l’étude pour une sous-classe d’individus, correspondrait à des centaines de milliers de morts par an. L’ampleur du phénomène est telle qu’il semble important d’y prêter attention, quand bien même les tailles d’effets seraient relativement faibles et incertaines. D’un point de vue médical, un cas moins controversé est l’émergence des propagandes anti-vaccinales promues par les IA de recommandation. Ces propagandes semblent avoir causé une résurgence de maladies qui étaient pourtant en voie d’extinction. L’Organisation mondiale de la santé (OMS) estime ainsi que le manque de couverture médicale a conduit à 110 000 décès imputables à la rougeole 93 . Bien entendu, tous ces décès ne sont clairement pas directement causés par les IA de recommandation. Cependant, à n’en pas douter, le caractère addictif des vidéos anti-vaccinales a sans doute rendu leur diffusion problématique à travers les réseaux sociaux. Il semble que l’ampleur des mouvements antivaccinaux s’explique au moins en partie par les recommandations faites par les IA de ces réseaux sociaux. D’autant que la personnalisation extrême des recommandations des IA rend cette propagande anti-vaccinale terriblement efficace. En effet, ces vidéos sont sans doute particulièrement recommandées à des jeunes parents pleins d’inquiétude, peut-être même au moment où leurs nouveau-nés ont des symptômes préoccupants 94 . Si un médecin leur recommandait alors le visionnage de vidéos 92. Association Between the Release of Netflix’s 13 Reasons Why and Suicide Rates in the United States : An Interrupted Times Series Analysis | Journal of the American Academy of Child and Adolescent Psychiatry | JA Bridge et al. (2019) Les cas de rougeole augmentent au niveau mondial en raison d’une couverture vac93. cinale insuffisante | Organisation mondiale de la santé (2018) 94. Désinformation médicale avec Asclépios | Probablement | J Descoux & LN Hoang (2019)
LES VICTIMES DES IA
65
anti-vaccinales, surtout si son but est alors uniquement d’avoir l’attention de son patient, celui-ci serait probablement poursuivi en justice. Or de telles recommandations sont faites à des milliers de jeunes parents tous les jours par des IA de recommandation 95 . Mais ce n’est pas tout. Depuis 2016, les Rohingyas, un groupe éthnique majoritairement musulman de l’ouest du Myanmar, ont été fortement stigmatisés par le reste du pays. Les tensions raciales ont débouché en des conflits politiques, puis en un génocide. Le nombre de morts est estimé à des dizaines de milliers, et a entraîné l’exil de plus de 700 000 réfugiés. S’il est difficile d’identifier un unique responsable de cette tragédie, un rapport de l’ONU de 2018 a conclu que 96 « Facebook a été un instrument utile pour ceux qui cherchaient à propager la haine et causer du mal ». Suite à ce rapport, Facebook a reconnu avoir joué un rôle néfaste 97 , tout en soulignant les récents efforts pour éviter qu’une telle tragédie ne se reproduise : « au cours de la dernière année, nous avons investi massivement en force de travail, en technologie et en partenariat pour examiner et adresser l’abus de Facebook au Myanmar, et le rapport [de l’ONU] reconnaît que nous avons entrepris les bonnes actions pour nous corriger ». Tous ces exemples nous amènent à conclure que l’IA tue déjà. Pas directement. Mais son déploiement à grande échelle semble avoir eu des dizaines de milliers de cas d’effets secondaires tragiques. Telle est l’une des nombreuses observations qui confortent grandement la thèse 1 de ce livre. Thèse 4. L’IA tue déjà. Ce constat dramatique souligne l’urgence à rendre les IA davantage bénéfiques. D’autant qu’on n’en est probablement qu’aux débuts. Dans les années et les décennies à venir, l’emprise des IA sur nos sociétés ne fera probablement que grandir. Pire, nos sociétés pourraient subir des tensions exacerbées par d’autres problèmes, comme l’épuisement de ressources naturelles, le changement climatique ou la montée de la polarisation. Dans un tel contexte, les effets secondaires des IA pourraient être plus préoccupants encore. Cependant, l’objectif de ce livre n’est pas de culpabiliser les IA. En particulier, nous n’avons pas ici le but de montrer que les IA sont bonnes ou mauvaises. Ce que nous souhaitons souligner est davantage l’urgence à rendre les IA vraiment bénéfiques. Des IA ainsi conçues pourraient aider à anticiper des fusillades organisées 98 , voire à modérer les diffusions d’informations néfastes, pour réduire 95. Notez que ce problème a été reconnu par Facebook et YouTube qui, à notre grande satisfaction, luttent désormais activement contre cette propagande anti-vaccinale. 96. Report of Independent International Fact-Finding Mission on Myanmar | United Nations Human Rights Council (2018) 97. An Independent Assessment of the Human Rights Impact of Facebook in Myanmar | Facebook Newsroom | A Warofka (2018) 98. Can social media predict mass shootings before they happen ? Digital Trends | M Katz
66
CHAPITRE 3. L’IA POSE DÉJÀ PROBLÈME
le nombre de victimes de ces catastrophes. À l’instar de Facebook, les entreprises du numérique semblent avoir une opportunité fantastique pour sauver des vies qui auraient disparu, faute d’IA conçues pour être bénéfiques. C’est aussi cette opportunité qui fait du chantier pour rendre les IA bénéfiques un fabuleux chantier. Et une urgence. Mais vous, qu’en pensez-vous ? Quels étaient les problèmes des IA qui vous préoccupaient avant la lecture de ce chapitre ? Ce chapitre vous a-t-il fait changer d’avis sur certains points ? Quels sont les points qui ont particulièrement attiré votre attention ? Quels problèmes des IA vous semblent prioritaires ? Êtes-vous plus préoccupé par les soulèvements populaires chaotiques ? L’échelle des IA ? La confidentialité ? Les biais des IA ? L’addiction des utilisateurs ? Les bulles informationnelles ? La polarisation ? La cyber-guerre ? Les tensions politiques ? La malinformation ? Les mute news ? L’infobésité ? La virulence ? La santé mentale ? Pourquoi êtes-vous préoccupé par ce qui vous préoccupe ? Serait-il possible de quantifier l’urgence relative de ces différentes problématiques ? N’y a-t-il pas certains effets secondaires des IA que vous pourriez avoir négligé ? Quels sont ceux dont nous avons oublié de parler ? Pourrait-il y avoir d’autres effets secondaires catastrophiques encore non-identifiés ? Nous vous invitons à débattre collectivement de toutes ces questions, si possible avec humilité, pédagogie et bienveillance. Ainsi qu’à réfléchir à l’impact de ces effets secondaires des IA sur l’urgence à rendre les IA bénéfiques.
Références Système 1 / Système 2 : Les deux vitesses de la pensée | Flammarion | D Kahneman (2012) Algorithmes : la bombe à retardement | Les Arènes | C O’Neil (2018) Factfulness : Ten Reasons We’re Wrong About the World–and Why Things Are Better Than You Think | Flatiron Books | H Rosling, A Rosling-Rönnlund & O Rosling (2018) Feeling Good : The New Mood Therapy | William Morrow and Company | D Burns (1980) Open hearing social media influence 2016 US elections | Select Committee on Intelligence of the United States Senate (2018) L’affaiblissement des corps intermédiaires par les plateformes Internet. Le cas des médias et des syndicats français au moment des Gilets jaunes | Conservatoire National des Arts et Métiers | M Tighanimine (2019) La civilisation du poisson rouge | Grasset | B Patino (2019) How to Have Impossible Conversations : A Very Practical Guide | Da Capo Lifelong Books | P Boghossian & J Lindsay (2019) Self-help books for depression : how can practitioners and patients make the (2019)
LES VICTIMES DES IA
67
right choice ? | BJGP | L Anderson, G Lewis, R Araya, R Elgie, G Harrison & J Proudfoot (2005) Attitudes vis-à-vis des inégalités de revenu en France : existerait-il un consensus ? T Piketty (2003) Building a Better America–One Wealth Quintile at a Time | Perspectives on Psychological Science | M Norton & D Ariely (2011) Camera surveillance within the UK : Enhancing public safety or a social threat ? | IRLCT | B Sheldon (2011) Abnormal White Matter Integrity in Adolescents with Internet Addiction Disorder : A Tract-Based Spatial Statistics Study | PLoS One | F Lin, Y Zhou, Y Du, L Qin, Z Zhao, J Xu & H Lei (2012) What Makes Online Content Viral ? | JMR | J Berger & K Milkman (2012) Efficient Estimation of Word Representations in Vector Space | T Mikolov, K Chen, G Corrado & J Dean (2013) Automated experiments on ad privacy settings | PoPETs | A Datta, M Tschantz & A Datta (2015) Social Media Advertisements | Permanent Select Committee on Intelligence (2017) Experimental evidence of massive-scale emotional contagion through social networks | PNAS | A Kramer, J Guillory & J Hancock (2014) The Relationship Between Facebook Use and Well-Being Depends on Communication Type and Tie Strength | M Burke & RE Kraut (2016) Self-Harm, Suicidal Behaviours, and Cyberbullying in Children and Young People : Systematic Review | JMIR | A John, AC Glendenning, A Marchant, P Montgomery, A Stewart, S Wood, K Lloyd & K Hawton (2018) Report of Independent International Fact-Finding Mission on Myanmar | United Nations Human Rights Council (2018) Facebook language predicts depression in medical records | PNAS | JC Eichstaedt et al. (2018) The growing problem of loneliness | The Lancet | J Cacioppo & S Cacioppo (2018) Degenerate Feedback Loops in Recommender Systems | AIES | R Jiang, S Chiappa, T Lattimore, A György & P Kohli (2019) Science and Environmental Communication on YouTube : Strategically Distorted Communications in Online Videos on Climate Change and Climate Engineering | Frontiers in Communication | J Allgaier (2019)
Machine Bias : There’s software used across the country to predict future criminals. And it’s biased against blacks | ProPublica | J Angwin, J Larson, S Mattu & L Kirchner (2016) Netflix’s biggest competitor ? Sleep The Guardian | A Hern (2017) Blue Feed, Red Feed - See Liberal Facebook and Conservative Facebook, Side by Side | The Wall Street Journal Political Polarization, 1994-2017 | Pew Research Center (2017) Republicans Don’t Understand Democrats—And Democrats Don’t Understand
68
CHAPITRE 3. L’IA POSE DÉJÀ PROBLÈME
Republicans | The Atlantic | Y Mounk (2019) Le journalisme qui criait au Troll | Chèvre pensante (2017) Trump and Clinton spent 81M onU SelectionF acebookads, Russianagency46K | TechCrunch | J Constine (2017) Pourquoi est-ce que les femmes n’aiment pas apprendre sur YouTube ? Madmoizelle | Marie (2018) Zuckerberg tells Congress Facebook is not a media company : ‘I consider us to be a technology company’ | CNBC | M Castillo (2018) People now watch 1 billion hours of YouTube per day | TechCrunch | D Etherington (2017) YouTube’s AI is the puppet master over most of what you watch | CNET | J Solsman (2018) How YouTube Radicalized Brazil | New York Times | M Fisher & A Taub (2019) Hard Questions : Is Spending Time on Social Media Bad for Us ? Facebook Newsroom | D Ginsberg & Moira Burke (2017) Zuckerberg tells Congress Facebook is not a media company : ‘I consider us to be a technology company’ | CNBC | M Castillo (2018) An Independent Assessment of the Human Rights Impact of Facebook in Myanmar | Facebook Newsroom | A Warofka (2018) What Happens in an Internet Minute in 2019 ? | Visual Capitalist | J Desjardin (2019) « La science ne saurait avoir de parti-pris ». L’appel de 250 scientifiques aux journalistes | L’Opinion | Collectif #NoFakeScience (2019) Les cas de rougeole augmentent au niveau mondial en raison d’une couverture vaccinale insuffisante | Organisation mondiale de la santé (2018) Global mobile consumer survey : US edition | Deloitte (2018) Indian WhatsApp Lynching | Wikipedia (2019) The Metamorphosis | The Atlantic | Henry Kissinger, Eric Schmidt et Daniel Huttenlocher (2019) Social Media’s Moral Reckoning | Human Rights Watch | CM Wong (2019)
Wealth Inequality in America | politizane (2012) How not to be ignorant about the world | TED | H Rosling & O Rosling (2014) Know the brain you have to get the brain you want | J Galef (2014) 5 Crazy Ways Social Media Is Changing Your Brain Right Now | ASAPScience | M Moffit & G Brown (2014) This Video Will Make You Angry | CGP Grey (2015) The Illusion of Truth | Veritasium | D Muller (2016) Is America More Divided Than Ever ? The Good Stuff | R Wolff (2016) How Humans Made Malaria So Deadly | MinuteEarth (2016) The Distraction Economy | Veritasium | D Muller (2016) Why I Don’t Use A Smart Phone | TEDxTeen | A Makosinski (2016) Les OGMs sont-ils nocifs ? (non) | Dirty Biology | L Grasset (2016) Destruction | Mind Field (Ep 3) | VSauce | M Stevens (2017)
LES VICTIMES DES IA
69
How a handful of tech companies control billions of minds every day | TED | T Harris (2017) We’re building a dystopia just to make people click on ads | TED | Z Tufekci (2017) 7 Ways to Maximize Misery | CGP Grey (2017) Why YouTube Used to Prefer Quality | Veritasium | D Muller (2017) Why Boredom is Good For You | Veritasium | D Muller (2018) Challenges to Eliminate Algorithmic Discrimination | ZettaBytes, EPFL | E Celis (2018) Thinking About Attention – Walk with Me | CGP Grey (2018) L’économie de l’attention : le commencement ! Stupid Economics | A Gantier & V Levetti (2018) L’économie de l’attention : la fin est proche ! Stupid Economics | A Gantier & V Levetti (2018) Comment Fortnite a conquis ses joueurs | Game Spectrum | T Versaveau (2018) Électricité verte selon Greenpeace : l’écologie dogmatique | Le Réveilleur | R Meyer (2018) Le problème des super-stimulus | Dirty Biology | L Grasset (2018) Comment manipuler une foule par contagion | Fouloscopie | M Moussaid (2019) Épidémies de fusillades | Dirty Biology | L Grasset (2019) Sommes-nous tous complotistes ? (ft. le Sense of Wonder) #LesDécodeurs, Le Monde (2019) La virulence, c’est pas bien #DébattonsMieux | Alexandre Technoprog (2019) The Great Hack | Netflix | K Amer & J Noujaim (2019) The PewDiePipeline : how edgy humor leads to violence | NonCompete (2019) My Video Went Viral. Here’s Why | Veritasium | D Muller (2019) Loneliness | Kurzgesagt (2019) Effective Altruism, YouTube and AI | LN Hoang (2018) L’urgence morale à rendre les IA bénfiques | TEDxUGAlpes | LN Hoang (2018) IA et santé : opportunités et risques | Graph Alpes | LN Hoang (2019) Education aux Médias (playlist) | Hygiène Mentale | C Michel (2016) Attention Wars : Season 1 (playlist) | BrainCraft | V Hill (2018) Manipulating Social Medias (playlist) | Smarter Every Day | D Sandlin (2019) La démocratie sous l’angle de la théorie des jeux (playlist) | Science4All | LN Hoang (2017) L’intelligence artificielle et le machine learning (playlist) | Science4All | LN Hoang (2018) Twitter War Room | Hello Internet | CGP Grey & B Haran (2018) The CIA analyst who foresaw Trump in 2013 and his theory of why politics is changing | 80,000 Hours | M Gurri, K Harris & R Wiblin (2019)
70
CHAPITRE 3. L’IA POSE DÉJÀ PROBLÈME
An updated view on the best ways to help humanity | Rationally Speaking | R Wiblin & J Galef (2019) What Happened in Vegas | Your Undivided Attention | N Don Schüll, T Harris & A Raskin (2019) From Russia to likes | Your Undivided Attention | R DiResta, T Harris & A Raskin (2019) Down The Rabbit Hole By Design | Your Undivided Attention | G Chaslot, T Harris & A Raskin (2019) Pardon the Interruptions | Your Undivided Attention | G Mark, T Harris & A Raskin (2019) Science et médias : dialogue de sourds | La méthode scientifique | N Martin (2019) Diététique introspective | Axiome 14 | T Giraud & LN Hoang (2018) Torture addictive | Axiome 15 | T Giraud & LN Hoang (2018) Bière sceptique Hyigène Mentale | Probablement | C Michel & LN Hoang (2019) Désinformation médicale avec Asclépios | Probablement | J Descoux & LN Hoang (2019) Rendre YouTube | Probablement | G Chaslot & LN Hoang (2019)
Mes ancêtres avaient derrière eux un passé de quatre ou cinq mille ans, tandis que [votre génération] a derrière elle un passé de quinze milliards d’années [. . . ] une fois qu’on a cette idée-là sur notre passé, et qu’on fait rentrer le monde, le vivant, la faune et la flore dans notre Histoire, on n’aura plus de difficulté à protéger la planète. Michel Serres (1930-2019) L’hydrogène est un gaz léger, sans odeur, qui après un temps suffisament long, se transforme en êtres humains. Edward Robert Harrison (1919-2007)
4
Une brève histoire de l’information
De l’importance de l’information « Les geeks de la robotique sont en mesure d’automatiser des grues autonomes capables de soulever des tonnes, mais ne savent toujours pas automatiser les tâches ménagères légères où il ne faut soulever que quelques kilos », s’exclama un jour un PDG d’une grande entreprise. Cette citation illustre une tendance que l’on a à s’émerveiller bien plus facilement des prouesses matérielles et énergétiques plutôt qu’informatiques. En particulier, elle suggère que la difficulté de l’automatisation réside essentiellement dans le poids des objets à transporter. Cependant, ce qui rend les tâches ménagères difficiles n’est pas le matériel ou la puissance énergétique nécessaires. La difficulté de ces tâches réside dans la complexité du traitement de l’information qu’elles requièrent. Pensez-y. Un automate des tâches ménagères devra pouvoir détecter où se trouve chaque objet, et le placer exactement où il est censé être, après bien sûr l’avoir nettoyé. Ces tâches qui ne nous paraissent pas si « intelligentes » regorgent en fait de traitement de l’information. Ce traitement sera même d’autant plus compliqué que les maisons ne se ressemblent pas. Et quand bien même elles se ressembleraient, les désordres à traiter ne se ressemblent pas. Les préférences de rangement des clients non plus. Par opposition, le travail répétitif de la grue sera informationnellement bien pauvre 1 . 1. À la marge de la conférence NeurIPS de 2017, une importante compétition de robotique consistait à faire apprendre à des robots (virtuels) comment marcher. Elle avait été remportée par l’entreprise Suisse NNAISENSE. Cette exemple illustre, comme celui des tâches ménagères, le fait que des actes qui nous parraissent « faciles » nécessitent en fait un traitement complexe
72
CHAPITRE 4. UNE BRÈVE HISTOIRE DE L’INFORMATION
Pour comprendre en quoi l’IA, cet outil de traitement de l’Information Automatisé, est une technologie très particulière, il nous semble primodial de mieux mesurer la nature et le rôle de l’information. Qu’est-ce que l’information ? Qu’est-ce que le traitement de l’information ? Sont-ce là des notions « palpables » ? Ont-ils une réalité physique ? Ont-ils des conséquences physiques ? Quelle place l’information occupe-t-elle dans notre monde ? Et surtout, qu’impliquerait un meilleur traitement de cette information ? Dans la suite de ce chapitre, nous vous invitons à prendre du recul sur ces questions. Pour cela, nous allons vous narrer une brève histoire de l’épopée fantastique du traitement de l’information, en prenant une perspective cosmique qui va des premiers instants de l’univers à la révolution du numérique. Les avancées spectaculaires des sciences naturelles ont permis d’apercevoir des bouts importants de ce grand récit cosmique. Cependant, alors que beaucoup de ces récits s’attardent davantage sur la matière et l’énergie, à l’instar de Michel Serres, nous vous proposons de nous concentrer sur l’histoire d’un autre objet physique qui nous semble plus important encore, à savoir l’information. En particulier, laissez-nous vous conter l’histoire cosmique spectaculaire des objets physiques de réception, de stockage, de traitement et d’émission de l’information 2 .
Matière, énergie. . . Information ! Pendant des millénaires, des Sumériens à la fin du XIXe siècle, la science s’est surtout intéressé aux choses : l’eau, l’air, le bois, le sable de la plage ou les écailles des poissons. Ces choses-là sont la matière. Cette matière est caractérisée par une vitesse et une position, comme le wagon de votre train. Elle possède aussi des propriétés physiques, comme sa température et sa pression. Pendant longtemps, ce sont de telles grandeurs qui étaient étudiées. Par la suite, des savants comme Leibniz et Lagrange remarquèrent que ces grandeurs physiques étaient liées par un objet d’étude différent de la matière, à savoir l’énergie. Par exemple, une collision convertissait les vitesses de certains objets en d’autres vitesses de ces objets. Les propriétés physiques de la matière changeaient. Cependant, leur énergie restait la même. Il y avait simplement eu un transfert d’énergie entre ces objets. Au XIXe siècle, les sciences physiques découvrirent petit à petit que la notion d’énergie 3 était peut-être plus fondamentale encore que la notion de matière, car elle permettait de comprendre une très grande variété de phénomènes physiques. On découvrit l’énergie cinétique, l’énergie potentielle, l’énergie thermique, de l’information et mobilisent les plus brillants chercheurs de notre époque. 2. Les deux auteurs ont d’ailleurs déjà discuté en podcast de leur vision de l’histoire de l’information : Épistémologie quantitative | Probablement | LN Hoang & EM El Mhamdi (2019) 3. Énergie : Tentative de définition | Wandida | EM El Mhamdi (2013)
MATIÈRE, ÉNERGIE. . . INFORMATION !
73
l’énergie électrique, l’énergie radiative et l’énergie chimique. Mais surtout, on découvrit que toutes ces énergies correspondaient à une seule grandeur sous-jacente. Toute énergie était transférable en une autre, avec, au global, une conservation de l’énergie. Ainsi, votre vélo garé en haut de la colline possède plus d’énergie potentielle que le vélo de votre voisin garé en bas de la coline. En utilisant cette énergie potentielle, vous pouvez descendre la colline sans effort, et convertir cette énergie potentielle en énergie cinétique. De la même manière, une batterie électrique est un stock d’énergie électrochimique permis par la séparation de sa matière en deux compartiments : un compartiment à forte concentration de charges positives, et un compartiment à forte concentration de charges négatives. On dit que la batterie présente une différence de potentiel entre le compartiment positif et le compartiment négatif, à l’instar d’un barrage qui sépare l’eau haute d’un côté et l’eau basse de l’autre. Dès que cette batterie est mise en contact avec un circuit électrique, par exemple pour faire tourner un moteur, les charges circulent, jusqu’à ce que la batterie se vide de son énergie électrochimique. Cette énergie aura été transférée en énergie cinétique de rotation du moteur. L’unification entre énergie et matière a même été réalisée au XXe siècle, notamment à travers la dualité onde-corpuscule, la théorie quantique des champs ou encore la fameuse équation E = mc2 proposée par Albert Einstein 4 en 1905. Plus tard, on découvrira même que la masse des particules élémentaires vient en fait de leur interaction avec le champ de Higgs, dont la particularité est d’avoir une énergie moyenne non-nulle dans le vide. Plus surprenant encore, la majorité de la masse des objets qui nous entoure provient en fait d’un confinement d’une énergie associée à la force nucléaire forte au sein des noyaux des atomes qui composent la matière. La matière semble donc n’être qu’une forme d’énergie particulièrement concentrée 5 . Même sans en aller jusque-là, les cursus de sciences naturelles se concentrent généralement beaucoup sur les concepts de matière et d’énergie, et sur les différentes grandeurs qui les caractérisent. Telle fut la physique du XIXe siècle, et d’une grande partie du XXe siècle. On a ainsi tendance à considérer que l’étude de notre univers se doit d’être avant tout celle de la matière et de l’énergie. Cependant, dès la fin du XIXe siècle, mais aussi et surtout au XXe siècle avec les travaux fondateurs de James Maxwell, Ludwig Boltzmann et Claude Shannon, ou encore ceux d’Edwin Jaynes, Stephen Hawking et Leonard Susskind 6 , il semble que la physique moderne repose de plus en plus sur un autre concept fondamental, à savoir la notion d’information. « It from bit », disait ainsi le physicien John Wheeler, pour suggérer l’idée que notre univers émergerait de la notion d’information. 4. Que signifie vraiment E = mc2 ? Science4All | LN Hoang (2016) 5. E = mc2 et le boson de Higgs | Science Étonnante | D Louapre (2017) 6. Leonard Susskind on Quantum Information, Quantum Gravity, and Holography | Mindscape | L Susskind & S Carroll (2019)
74
CHAPITRE 4. UNE BRÈVE HISTOIRE DE L’INFORMATION
Pour mieux comprendre le rôle de l’information dans notre univers, retournons aux origines de la physique de l’information. Celle-ci a lieu du côté de la thermodynamique. Cette science est née de la révolution industrielle, initialement pour mieux comprendre le fonctionnement des moteurs à vapeur. De façon stupéfiante, la thermodynamique a fini par expliquer non seulement ces moteurs, puis les réfrigérateurs et la climatisation électrique, mais aussi des phénomènes plus étonnants comme la flèche du temps !
La flèche du temps Si les physiciens aiment formuler des lois de la nature si concises qu’elles tiennent sur le devant d’un tee-shirt, c’est que ces derniers ont effectivement une préférence pour les théories parcimonieuses. Il s’agit de théories qui ne font appel à aucune hypothèse superflue, et qui, de par leur généralité, arrivent à encapsuler les théories précédentes, idéalement en les unifiant dans un seul propos au lieu de plusieurs déclinaisons. Mais parmi toutes les théories que les physiciens ont adoptées, il y en a une qui semble tenir une position particulière : la seconde loi de la thermodynamique 7 . Cette loi 8 stipule dans sa forme simplifiée que le désordre dans l’univers ne fait qu’augmenter. Cette condamnation à ne voir qu’augmenter le désordre est ce qui fait que, laissée à elle-même, on n’a jamais vu une chambre fermée, pleine de poussières, s’ordonner toute seule en voyant la poussière se rassembler spontanément dans un petit coin. Pour quantifier ce désordre, les physiciens inventèrent la notion d’entropie 9 . Comme on le verra, l’entropie n’est rien d’autre qu’une formalisation du manque d’information. Dans The Nature of the Physical World, le physicien Arthur Eddington écrivait : « le fait que l’entropie ne fait toujours qu’augmenter — la seconde loi de la thermodynamique — occupe, je pense, la position suprême parmi les lois de la Nature. Si quelqu’un vous fait remarquer que votre théorie favorite de l’univers est en désacord avec les équations de Maxwell, et bien tant pis pour les équations de Maxwell. Si votre théorie est contredite par l’observation, bon, il arrive aux expérimentalistes de faire des observations à côté de la plaque. Mais si votre théorie va à l’encontre de la seconde loi de la thermodynamique, je ne peux vous donner aucun espoir ; il n’y aura d’autre issue pour votre théorie que de s’effondrer de manière humilante. » Albert Einstein ajouta : « Une loi est d’autant plus impressionnante de par 7. L’introduction de l’œuvre fondatrice de Sadi Carnot est frappante de pertinence aujourd’hui, à la veille d’une autre grande transformation civilisationelle similaire à celle de la révolution industrielle dont il était question à l’époque de son texte : Réflexions sur la puissance motrice du feu et sur les machines propres à développer cette puissance | S Carnot (1824) Le cycle de Carnot | Wandida | EM El Mhamdi (2013) 8. Deuxième principe de la thermodynamique | Wandida | EM El Mhamdi (2013) 9. L’entropie (deuxième principe) | Wandida | EM El Mhamdi (2013)
UNE HISTOIRE INFORMATIQUE DE LA PHYSIQUE
75
la simplicité de ses prémisses, de par la diversité des choses qu’elle parvient à relier, et de par l’étendue de son champ d’applicabilité. [La seconde loi de la thermodynamique] est la seule théorie physique à portée universelle dont je suis convaincu que, dans le cadre d’applicabilité de ses concepts, elle ne sera jamais rejetée. » Dans l’exemple de la chambre fermée pleine de poussière, de manière intuitive, l’état de désordre maximal est celui qui rend le rangement de la chambre le plus difficile possible. On se convaincra facilement qu’il s’agit de la situation où la poussière se trouve un peu partout. Inversement, l’état d’ordre maximal est celui où les particules de poussière sont toutes confinées à un même petit endroit bien précis, ce qui nous facilitera le rangement. Ce degré de désordre quantifiant la difficulté pour un agent à ranger la chambre n’est en fait rien d’autre qu’une quantification du manque d’information que l’agent a sur les états possibles des particules de poussière. En nous décrivant l’univers comme un ensemble où les processus physiques ont une direction spontanée unique (qui tend vers le désordre), la seconde loi de la thermodynamique nous offre ainsi ce que certains appellent la flèche du temps. Cette flèche est telle que, laissées sans intervention extérieure, la matière et l’énergie se dirigeront vers la dissipation maximale. C’est cette dissipation qui constitue une perte tragique d’information sur l’état du monde.
Une histoire informatique de la physique Qu’est-ce donc que le désordre ? Quand vous savez exactement, et très facilement, où se trouve chacune de vos chaussettes, chacune de vos assiettes et chacune de vos fourchettes, c’est que probablement vous vivez dans un appartement bien ordonné. Votre appartement est si bien ordonné qu’une description macroscopique suffit à le décrire. Il vous suffit de dire « à gauche il y a le placard à vêtements, les chaussettes se trouvent en bas, à droite il y a le placard à couverts, les assiettes se trouvent en haut et les bols au milieu ». Vous n’aurez pas besoin de préciser où se trouve chaque fourchette ou chaque assiette. Dans un appartement désordonné, il vous faudra par contre donner des descriptions très détaillées pour guider votre interlocuteur. On parle de descriptions microscopiques. Celles-ci seront de la forme « la cuillère avec laquelle je viens de manger un yaourt se trouve sur la table à côté de mon lit, le jus d’orange est dans le frigo, trois assiettes sont encore dans le placard, les autres sont respectivement sur la table du balcon, devant le four à micro-ondes et dans le tiroir où je mets normalement les bols ». Par opposition, si vous donnez une description macroscopique de l’appartement dans ce second cas, elle sera sous la forme « les fourchettes se trouvent un peu partout dans l’appartement ». Elle ne sera pas d’une grande utilité pour les trouver toutes rapidement, contrairement à ce qui fut le cas pour l’appartement rangé. Le désordre c’est précisément ce manque d’information, cette incapacité de dé-
76
CHAPITRE 4. UNE BRÈVE HISTOIRE DE L’INFORMATION
duire une description microscopique du monde (où se trouve précisément chaque fourchette) à partir d’une description macroscopique (où se trouve grosso modo l’ensemble des fourchettes). En 1867, James Maxwell, un géant de la physique, fit la remarque que l’information se devait d’être une entité physique, dont la manipulation physique était nécessairement associée à un coût (énergétique). Pour parvenir à cette conclusion étonnante, Maxwell introduisit une expérience de pensée devenue célèbre, que l’on appelle désormais l’expérience de pensée du démon de Maxwell 10 . Dans une version simplifiée, cette expérience imagine deux chambres identiques séparées par un mur. Au milieu de ce mur se trouve un petit trou, et un démon qui arrive à obtenir de l’information gratuitement, simplement en observant les molécules d’air qui flottent dans les deux chambres. Comme les chambres sont initialement identiques, ils ont la même température, disons 20 degrés Celsius. En s’appuyant sur la physique statistique, Maxwell comprit 11 que la température n’était rien d’autre que le reflet de la vitesse moyenne 12 des molécules de l’air. Dans une chambre de taille habituelle, ces molécules sont en très grand nombre, autour de quelques millions de milliards de milliards. Toutes n’auront pas exactement la même vitesse. Dans le lot, il y aura donc des milliards de milliards de molécules bien plus rapides que la moyenne, et d’autres bien plus lentes que la moyenne. La mission du démon de Maxwell est alors de contrôler une petite trappe entre les deux chambres, de sorte à trier les molécules d’air. Quand une particule rapide s’apprête à passer de la chambre droite à la chambre gauche, et quand une particule lente s’apprête à passer de gauche à droite, il ouvre la trappe. Inversement, quand il voit des particules rapides en voie de passer de gauche à droite ou des particules lentes en voie de passer de droite à gauche, le démon ferme la trappe. Au bout d’un moment, le démon réussira à avoir beaucoup plus de particules rapides à gauche qu’à droite, et beaucoup plus de particules lentes à droite qu’à gauche. Dès lors, la température de la chambre de gauche sera supérieure à 20 degrés Celcius, tandis que la température à droite sera inférieure à cette température. Notez que, ce faisant, le démon de Maxwell n’a pas violé le principe de conservation d’énergie 13 14 . Les deux chambres demeurent à une température moyenne de 20 degrés Celsius. Par contre, le démon vient d’ordonner le système composé par les deux chambres. En effet, au départ, à la question « où se trouvent les particules rapides et où se trouvent les particules lentes ? » on ne pouvait répondre que « un peu partout dans les deux chambres ». Désormais, on peut 10. Order and Disorder, Episode 2 : Information | BBC | J Al-Khalili (2012) 11. Techniquement, l’hypothèse atomique n’était pas encore admise par la communauté physique à l’époque. 12. Pour les pointus, c’est plus exactement le reflet de la moyenne quadratique. 13. Premier principe de la thermodynamique | Wandida | EM El Mhamdi (2013) 14. L’énergie, caractérisée par sa conservation | Wandida | EM El Mhamdi (2013)
UNE HISTOIRE INFORMATIQUE DE LA PHYSIQUE
77
répondre plus précisément « les rapides sont à gauche, les lentes sont à droite ». Plus étonnant encore, le démon de Maxwell peut maintenant utiliser la différence de température entre les deux chambres pour faire tourner un moteur, à l’instar des machines à vapeur ou des moteurs de voitures ! Il vient de permettre le mouvement. Mieux, il pourra répéter son tri de molécules une fois que les températures des deux chambres se seront égalisées. Ceci lui permettrait de relancer son moteur indéfiniment. Autrement dit, le démon de Maxwell est capable de créer un mouvement perpétuel ! Un tel mouvement perpétuel résoudrait tous les problèmes d’énergie de nos sociétés. Il ne serait plus nécessaire de débattre du potentiel et des risques des centrales nucléaires, ni de s’alarmer d’un pic pétrolier. Bien entendu, comme vous l’avez deviné, il y a un hic. En fait, le mouvement perpétuel viole les lois de la thermodynamique ! Or il nous suffisait de postuler l’existence d’un démon de Maxwell pour y parvenir : on conclut donc que le calcul informationnel du démon de Maxwell est physiquement impossible. Il est tentant de penser qu’il y a une entourloupe dans l’expérience de pensée de Maxwell autre que le démon de Maxwell lui-même. Est-ce bien le traitement de l’information qui conduit à une violation des lois de la physique ? Pour vous convaincre que la réponse à cette question est belle et bien oui, nous vous invitons à imaginer d’autres variantes de l’expérience de pensée de Maxwell. En voici une. Imaginez qu’une trappe microscopique est placée dans la chambre à air de la roue de votre vélo, un démon surveille les particules d’air du côté qui donne sur l’intérieur de la roue et du côté qui donne sur l’extérieur. Quand il voit une particule s’apprêter à passer de l’extérieur vers l’intérieur, le démon ouvre la trappe. Quand il voit une particule aller le sens inverse, il ferme la trappe. Juste en étant bien informé, le démon de Maxwell va gonfler votre roue sans avoir besoin d’une pompe ! De façon plus générale, en étant simplement informé, le démon de Maxwell fait baisser le désordre dans le monde. Il viole la seconde loi de la thermodynamique 15 . Le démon de Maxwell est donc une impossibilité physique. En particulier, l’hypothèse initiale, celle où le démon arrive à connaître la vitesse des particules « gratuitement » et à traiter adéquatement cette information, ne tient pas la route. Pour acquérir et traiter cette information, le démon a dû lui-même fournir un travail physique. Ses neurones ont dû s’allumer et s’éteindre au fur et à mesure qu’il observe les particules et mémorise leurs états. Pour fonctionner, ces neurones ont besoin d’énergie. Le démon va devoir exploiter de l’énergie pour traiter l’information 16 . Si le désordre a baissé en apparence dans toutes les variantes de l’expérience (vélo gonflé, chambres séparées en une chaude et une froide, etc.), il a en fait bien augmenté dans l’appareil cognitif du démon. En fait, c’est le 15. 16.
Crise énergétique ? Crise de l’entropie ! | Science Étonnante | D Louapre (2019) How many thoughts are contained in a Mars bar ? Sixty Symbols | P Moriarty (2016)
78
CHAPITRE 4. UNE BRÈVE HISTOIRE DE L’INFORMATION
désordre total du système {démon + chambres} qui va augmenter. La seconde loi de la thermodynamique est saine et sauve !
La quantification de l’information Jusqu’à la fin du XIXe siècle, l’information et son traitement faisaient encore partie de ces choses non formalisables. On pouvait disserter longuement dessus. Mais personne ne s’aventurait à en établir une mesure quantifiée. Cependant, l’expérience de pensée du démon de Maxwell suggère fortement que l’information correspond à une diminution d’entropie. Cette entropie semble donc pouvoir se quantifier via le nombre de configurations microscopiques accessibles, étant donné la configuration macroscopique. C’est cette intuition qui fut formalisée par le physicien Ludwig Boltzmann en 1877, à travers la formule S = k log W qu’il fit graver sur sa tombe. Cependant, c’est bien plus tard, en 1948, que le mathématicien Claude Shannon parvint à enfin parfaitement cerner la quantification de l’information. Dans un article fabuleux 17 , Shannon redéfinit l’entropie dans une nouvelle théorie de l’information. Dans cette théorie, l’entropie est directement reliée au manque d’information. Plus précisément, l’entropie d’un message ou d’un état physique est alors la quantité d’information manquante pour connaître entièrement le message ou l’état physique en question 18 . Mieux encore, une décennie plus tôt, Shannon jeta les bases de la théorie du traitement de l’information, en introduisant notamment le concept de circuits logiques. Shannon se rendit compte que de tels circuits logiques pouvaient effectuer tous les traitements d’information physiquement imaginables. En combinant les circuits logiques et la théorie de l’information, on disposait ainsi des concepts fondamentaux aux technologies de réception, de stockage, de traitement et d’émission de l’information. Ou presque. À ce puzzle, il manquait une dernière brique fondamentale, qui fut introduite autour de 1936 par les mathématiciens Kurt Gödel, Alonzo Church, et surtout Alan Turing 19 . Cette dernière brique est une théorie du traitement de l’information, aussi appelée théorie du calcul ou algorithmique. En s’appuyant sur ladite thèse de Church-Turing sur laquelle nous reviendrons dans le chapitre 16, l’informatique formalise ainsi ce qu’est un traitement physiquement possible de l’information. Prise au sérieux, cette thèse suggère que tout phénomène physique est simulable par un calcul. Y compris notre univers tout entier. Selon cette thèse, notre monde serait ainsi peut-être indiscernable d’un simple traitement d’informations ! 17. 18. 19.
A Mathematical Theory of Communication | Bell Labs | C Shannon (1948) Intro to Information Theory | Up and Atom | J Tan-Holmes (2018) La machine de Turing | Science4All | LN Hoang (2017)
UNE HISTOIRE INFORMATIQUE DE LA BIOLOGIE
79
Une histoire informatique de la biologie Selon les théories physiques prédominantes, notre monde aurait commencé de manière très ordonnée. Il s’est ensuite dissipé et s’est désordonné. La théorie du Big Bang affirme en particulier que toute l’énergie et la matière de l’univers initialement concentrées en un iota d’espace se sont ensuite éparpillées un peu partout. Voilà qui peut paraître contradictoire avec les phénomènes biologiques. Après tout, la vie n’est-elle pas plutôt la création d’un ordre au milieu du désordre ? En apparence, oui. La vie semble être un processus où de la matière se bat contre cette prédestination du monde vers le désordre. La vie concentre l’énergie à l’intérieur de membranes cellulaires ou de tissus organiques. Plus étrange encore, elle ordonne son environnement en construisant des villes, des ruches et des fourmilières. Or ces structures semblent être le contraire de l’état dissipé de la matière ! En fait, l’ordre vers lequel tend la vie n’est qu’une image incomplète des processus biologiques. En fait, à l’instar du démon de Maxwell, la vie ne crée rien gratuitement. En particuler, le vivant s’appuie nécessairement sur une énergie ordonnée initiale pour créer son ordre intérieur et sculpter son environnement. Le vivant a besoin de manger, que cette nourriture soit la lumière du soleil, la géothermie des sources thermales ou des molécules comme le sucre qui renferment une énergie chimique concentrée. On pourra ensuite retrouver l’augmentation d’entropie causée par le vivant à son environnement en analysant les excréments du vivant. Ces déchets organiques augmentent alors bel et bien le désordre global. Dans une série de travaux lancée 20 en 2013, avec l’aide de plusieurs autres chercheurs comme le biologiste et physicien Jordan Horowitz, Jeremy England, physicien du MIT, proposa une vision encore plus fascinante des opérations du vivant. Leur théorie, nommée adaptation basée sur la dissipation, explique comment la seconde loi de la thermodynamique favorise l’émergence de processus auto-organisés. Elle affirme que les lois de la physique privilégient les arrangements de la matière qui extraient le mieux l’énergie de leur environnement. Intuitivement, si un arrangement de matière A est meilleur qu’un autre arrangement B pour extraire de l’énergie de l’environnement, une sorte de sélection naturelle conduira à la préservation des arrangements A aux dépens des arrangements B. Mieux, si l’arrangement de matière A arrive à utiliser la matière et l’énergie environnante pour se dupliquer, il réussira à dissiper encore plus que l’arrangement B si ce dernier ne possède pas cette propriété. Ainsi, la théorie encore spéculative d’England 21 nous propose de voir l’apparition de la vie comme une conséquence de la marche vers le désordre orchestrée par la seconde loi de la thermodynamique. 20. Statistical physics of self-replication | Journal of Chemical Physics | J England (2013) 21. Qui n’est pas la première du genre, mais fait suite à une série de théories précuseurs comme celle du prix Nobel belge Ilya Prigogine.
80
CHAPITRE 4. UNE BRÈVE HISTOIRE DE L’INFORMATION
De façon intrigante, ces façons de parler du vivant, à coups d’arrangement de matière et de duplication, suggèrent un langage informatique. Ne serait-il pas adéquat de voir le vivant comme une forme de matière informée ? Après tout, quand elle se reproduit, la vie ne transmet pas que de la matière et de l’énergie à sa descendance. En fait, la matière et l’énergie transmises ne semblent pas être le cœur du processus de reproduction du vivant. Il semble que l’objet central du vivant soit davantage l’information. Pendant plus de trois milliards d’années, cette information du vivant a été transmise sous une forme unique : l’information génétique écrite sur l’ADN. Sur le chemin, des erreurs de transmission se produisaient. On les appelle les mutations. Ces mutations sont inévitables, car l’information génétique est encodée sur de la matière qui n’arrête pas de bouger à température ambiante. Parmi les millions d’acides aminés qui composent l’information génétique, les erreurs sont alors inévitables. La majorité de ces mutations est neutre ou donne des descendants moins adaptés à leur environnement que leurs parents. Mais dès qu’une mutation donne un avantage à un individu, celui-ci réalise son auto-réplication plus efficacement que ses voisins. En se répliquant, l’individu transmettra alors cette information génétique avantageuse à sa descendance. Celle-ci se reproduira encore plus et transmettra à son tour l’information à encore plus de descendances. Petit à petit, des sous-groupes avec des caractères différents formeront une diversité d’espèces vivantes. Cette longue histoire de la vie semble donc être avant tout une histoire de réception, de stockage, de traitement et d’émission d’information. Ou comme l’affirme le biologiste Richard Dawkins, « la biologie moderne est en train de vraiment devenir une branche des technologies de l’information ». Les biologistes moléculaires vont souvent beaucoup s’attarder sur l’histoire évolutive de l’information génétique, sur laquelle il y aurait beaucoup d’autres choses à dire. Cependant, dans la suite de ce chapitre, nous vous proposons de transcender le support informationnel limité qu’est l’ADN, pour poursuivre notre grande histoire de l’information.
L’évolution des supports de l’information L’ADN est resté pendant plus de trois milliards d’années la seule manière pour la vie de stocker et de traiter de l’information. La vie était alors uniquement sous forme uni-cellulaire. Cette communication est cependant limitée, car l’enfant n’hérite alors que d’une petite partie de l’expérience de vie des parents — à savoir l’information génétique et celle du succès de la reproduction des parents. Pire encore, le fonctionnement de la cellule est alors presque figé, laissant très peu de place à un apprentissage 22 durant la vie. Les descendants se retrouvent 22. On sait depuis peu que même les organismes unicellulaires peuvent « apprendre » durant leur vie, grâce à ce qu’on appelle les réseaux métaboliques, mais cet apprentissage est
L’ÉVOLUTION DES SUPPORTS DE L’INFORMATION
81
destinés à commettre les mêmes erreurs que leurs parents. Le vivant était alors une matière informée. Mais il était une matière encore peu informée. Et puis, il y a seulement six cent millions d’années, les premiers organismes multi-cellulaires ont vu le jour. Les cellules découvrirent alors (en se reproduisant plus efficacement) les avantages de la coopération et de la spécialisation. Elles proliférèrent tout à coup. En très peu de temps, la Terre connut alors l’explosion cambrienne 23 . La vie se complexifia tout à coup, notamment grâce à la spécialisation cellulaire. Dans un même organisme, certaines cellules adoptèrent des comportements très différents. L’organisme acquit des tissus musculaires, des cellules photoréceptives et même des cellules neuronales. Les cellules s’étaient dotées de facultés de réception, de stockage, de traitement et d’émission d’information ! En particulier, désormais, des individus dotés de système nerveux peuvent améliorer leur manière d’interagir avec l’environnement au cours de leur vie. Ils peuvent apprendre. Cet apprentissage peut avoir lieu grâce aux cellules dédiées, notamment en manipulant l’information grâce à des arrangements chimiques, voire mieux encore, grâce à des arrangements topologiques entre les cellules dédiées. Jadis uniquement sous forme d’information génétique, l’information du vivant tient désormais également dans un autre substrat, à savoir les cerveaux des individus. Ce substrat va permettre aux individus d’apprendre de leur environnement et de s’y adapter, au delà de ce que permet l’information génétique. L’intelligence des systèmes nerveux est née ! Seulement quelques dizaines de millions d’années après l’explosion cambrienne, certaines espèces vont même développer l’investissement parental. Au lieu de pondre leurs œufs un peu partout et laisser leurs progénitures faire leurs vies seules, des parents vont plutôt accompagner leurs progénitures et leur éviter de refaire les mêmes erreurs. L’apprentissage collectif va s’accélérer au sein de cette sous-branche de la vie. Un autre palier dans cette histoire des outils de traitement de l’information va être franchi quand, il y a à peine une demi-douzaine de millions d’années, une branche de la famille des primates va se mettre debout. N’ayant plus à marcher à quatres pattes, leurs membres antérieurs se libérent de leur fonction motrice et deviennent des bras munis de mains très agiles. La bouche va à son tour se libérer de sa fonction portatrice, et c’est un grand saut informationnel qui va avoir lieu. très inefficace par rapport à celui permis par les systèmes nerveux dont parle le paragraphe suivant. What Bodies Think About : Bioelectric Computation Outside the Nervous System | NeurIPS | M Levin (2018) 23. L’explosion cambrienne et les schistes de Burgess | Science étonnante | D Louapre (2016)
82
CHAPITRE 4. UNE BRÈVE HISTOIRE DE L’INFORMATION
Une histoire informatique de l’évolution culturelle L’invention de la parole chez les humains va accélérer l’apprentissage collectif, de parents à enfants bien sûr, mais aussi entre les individus du même groupe linguistique. L’innovation qui permet à tout individu de mieux traiter l’information et de réaliser une tâche compliquée (allumer un feu, fabriquer un outil de chasse complexe. . . ) se propage désormais au gré des rencontres et des interactions. Des groupes d’humains vont découvrir que certaines céréales sauvages peuvent être domptées et replantées à volonté, que certaines bêtes peuvent être domestiquées au lieu d’être chassées de manière fastidieuse. C’est le passage vers le Néolithique. Autrefois chasseurs-cueilleurs, nos ancêtres vont désormais devenir sédentaires. Là encore, la révolution Néolithique semble être informationelle. Les humains du Néolithique, contrairement à ceux du Paléolithique, n’ont pas à chercher à chaque fois où se trouve la nourriture, ils ont l’information. Cette nourriture se trouve dans leurs champs et leurs étables. Mieux encore, la sédentarisation va encourager la sauvegarde de l’information agricole. En cherchant constamment à améliorer un même terrain agricole, les agriculteurs sédentaires vont perfectionner leur savoir-faire. Ils vont même forger l’information génétique de leurs cultures et de leurs bétails, en se lançant dans la sélection artificielle. En regroupant plus d’individus sur un même territoire, le Néolithique va ensuite créer des besoins en traitement de l’information que la parole ne remplissait pas jusque-là. En particulier, la parole est éphémère alors que les humains commencent à avoir des transactions de plus en plus complexes, nécessitant un archivage de ces transactions. De nouveaux supports de l’information vont alors être utilisés. À Uruk, en Mésopotamie, certains bergers traitent et stockent l’information de la taille de leur bétail à l’aide de petits jetons, que les Latins appellent calculi pour « petits caillous ». Ces calculi allaient ensuite être utilisés comme monnaie. Les machines à calculi étaient nées ! Et puis, surtout, à la même époque et toujours en Mésopotamie, il y eut l’invention de l’écriture. Sur des tablettes déterrées par les archéologues, on trouvait des rapports de transactions commerciales : « untel a donné cinq chèvres à unetelle, qui lui donné quinze mesures de blé et deux mesures d’orge... » L’historique des transactions d’un village avait trouvé un nouveau support, beaucoup plus fiable et durable que la mémoire du cortex cérébral ! Invité au quarantième anniversaire de l’Institut national de recherche en informatique et en automatique 24 (INRIA), le philosophe et historien des sciences Michel Serres rappelait à l’audience que « l’écriture est le premier support extérieur au corps humain destiné à porter l’information [. . . ] Dès lors que ce support est externalisé de notre corps, tout change dans notre civilisation ». L’humain équipé d’un langage écrit arrive à réaliser un traitement de l’informa24. Les nouvelles technologies : révolution culturelle et cognitive | I Moved to Diaspora | M Serres (2012)
UNE HISTOIRE INFORMATIQUE DE L’ÉVOLUTION CULTURELLE
83
tion impensable pour toutes les formes de vie l’ayant précédé. Ce traitement, totalement externalisé du corps humain, offre en plus l’avantage de la permanence. Les paroles s’envolent, les écrits restent. Fort de ce nouveau support de l’information, l’apprentissage collectif de l’humanité se verra accéléré, ouvrant la voie vers toujours plus d’innovation et de cumul des connaissances. Comme le dit si bien Michel Serres, la monnaie, l’État et le droit sont les filles et fils de l’écriture. Mais il est une autre fille de l’écriture que nous aimerions mentionner ici : l’invention de l’algèbre. Initiée par beaucoup de cultures mais formalisée pour la première fois dans le livre éponyme de Muhammad Ibn Musa Al-Khawarizmi, l’algèbre est un palier important dans la grande épopée du traitement de l’information. Jadis, on devait parler de chèvres, de blé, de surface agricole ou de légumes en spécifiant à chaque fois, et de manière explicite, de quoi on parlait exactement. Cette attention portée sur le particulier était un frein majeur à l’automatisation des résolutions de problèmes (d’héritage par exemple 25 ). Même chez les mathématiciens, on ne manipulait pas les angles de la géométrie de la même manière qu’on manipulait les chiffres et les nombres. Chaque problème avait sa spécificité. En particulier, avant l’algèbre d’Al-Khawarizmi, la résolution d’équations était considérée comme une prouesse insoluble sans « intelligence ». Elle semblait nécessiter l’intuition extraordinaire d’un mathématicien de talent. Mais AlKhawarizmi bouleversa la donne. Au lieu d’être un mathématicien qui résolvait des problèmes spécifiques, Al-Khawarizmi écrivit un livre de méthodes, dont le but était de permettre à quiconque de résoudre ces problèmes. AlKhawarizmi est ce que l’informaticien Rachid Guerraoui appelle un mathématicien altruiste 26 . Autrement dit, c’est un mathématicien qui ne se contente pas de résoudre des problèmes. Il proposa aussi des recettes, aujourd’hui appelées algorithmes 27 , que tout un chacun pouvait appliquer pour résoudre ses problèmes. Désormais, armé des algorithmes d’Al-Khwarizmi, un jeune écolier est capable de prouesses, comme multiplier des nombres, qui auraient fait de lui un savant du Moyen-Âge. Si l’écriture a sublimé le langage, comme moyen de transmission de l’information, l’algèbre a sublimé l’écriture, comme moyen de traitement de l’information. Avant l’algèbre, on faisait surtout des raisonnements explicites, sur des grandeurs toutes connues, « j’ai trois litres de lait, j’ai en vendu deux, il m’en reste un ». Après l’algèbre, on va fluidifier les raisonnements implicites, sur des grandeurs qui ne sont pas forcément toutes connues, « je ne sais pas combien de lait j’avais au départ, mais je sais que j’en ai vendu deux litres et il m’en reste un ». L’algèbre va faire le bonheur de toutes les sciences et permettre leur essor. Si bien qu’on imagine mal les sciences naturelles aujourd’hui sans leur 25. Al-Khawarizmi était lui-même juge et devait de ce fait résoudre ce type de problèmes. 26. Algorithmes, à la recherche de l’universalité perdue | Leçons inaugurales du Collège de France | R Guerraoui (2018) 27. Le nom latinisé d’Al-Khawarizmi est « Algorithmi », qui est l’origine du mot « algorithme ».
84
CHAPITRE 4. UNE BRÈVE HISTOIRE DE L’INFORMATION
mise en équation. C’est finalement suite à l’émergence de l’algèbre en Europe, plusieurs siècles plus tard, que Galilée en vint à écrire que « [l’Univers] est écrit dans la langue mathématique et ses caractères sont des triangles, des cercles et autres figures géométriques, sans le moyen desquels il est humainement impossible d’en comprendre un mot. Sans eux, c’est une errance vaine dans un labyrinthe obscur. » Pour en venir à cette conclusion, Galilée se sera toutefois appuyé sur une autre révolution informationnelle, à savoir l’invention de l’imprimerie en 1450. Celleci accéléra encore plus le processus d’apprentissage collectif de l’espèce humaine. « Tout protestant fut pape, une bible à la main », disait Nicolas BoileauDespréaux, traduisant le contournement de l’autorité de l’Église que l’imprimerie avait permis. Avec l’imprimerie, le cumul du savoir deviendra non seulement plus démocratisé, mais aussi plus robuste, car la probabilité de perdre ou de ne pas être au courant de l’existence 28 d’une œuvre imprimée sur plusieurs copies est largement plus faible que celle de perdre ou d’ignorer des œuvres recopiées à la main. Dans la foulée, la méthode scientifique gagne du terrain en Europe. Michel Serres dit de la méthode scientifique qu’elle est « fille de l’imprimerie ». L’imprimerie a ainsi permis une décentralisation soudaine de l’information. Selon l’historien Yuval Noah Harari, petit à petit, et combiné à d’autres technologies de l’information, ceci a alors favorisé les systèmes politiques qui s’appuyaient sur cette décentralisation pour produire plus rapidement et plus efficacement des richesses. « Le capitalisme n’a pas vaincu le communisme parce que le capitalisme est plus éthique, parce les libertés individuelles sont sacrées ou parce que Dieu était énervé par les communistes païens », explique Harari. « Ce qu’il s’est plutôt passé, c’est que le capitalisme a gagné la guerre froide parce le traitement distribué des données est plus performant que le traitement centralisé des données, en tout cas dans les périodes de changements technologiques accélérés. Le comité central du Parti communiste n’arrivait tout simplement pas à gérer le monde rapidement changeant de la fin du vingtième siècle. » Le XXe siècle verra ensuite l’aboutissement de l’algèbre d’Al-Khawarizmi. Dans les années 1930 et 1940, la théorie du calcul de Turing et la théorie de l’information de Shannon permettront d’unifier l’ensemble des traitements possibles de l’information. Cette unification est si parfaite que plus personne ne s’étonne que son téléphonne arrive à traiter des images, du son, des textes encyclopédiques ou encore des paiements d’hôtels et de billets d’avion sans avoir à changer de gadget pour chaque tâche. On oublie presque que, il y a à peine quelques décennies, on devait avoir un lecteur de cassettes vidéo pour les films, un radio-cassette pour la musique et on devait se rendre en personne à une agence pour payer son billet d’avion. Les technologies de l’information modernes, qui implémentent à ravir les idées de Turing et Shannon, vont permettre enfin d’externaliser le traitement de l’information 29 . 28. L’histoire d’avant l’imprimerie est pleine de pertes tragiques d’ouvrages scientifiques. 29. Google Owns 28% of Your Brain | BrainCraft | V Hill (2018)
LE POUVOIR DE L’INFORMATION
85
Dans la foulée, des milliers, puis des milliards d’ordinateurs seront interconnectés, ce qui conduira à l’essor d’Internet et du Web. Des milliards d’outils de traitement de l’information travaillent désormais ensemble, qu’ils soient des ordinateurs personnels, des téléphones ou des serveurs gigantesques hébergeant les données des utilisateurs. Internet est devenu le nouveau village du traitement automatisé de l’information. Des innovateurs y déposent le code source de leurs trouvailles, par exemple sur des plateformes comme Github ou SourceForge, et d’autres innovateurs capitalisent dessus et vont plus vite que s’ils avaient à tout redécouvrir en partant de zéro. Des données sont mutualisées comme dans la base de données ImageNet, ce qui permet d’entraîner de nouvelles formes de traitement de l’information. Notamment ces fameuses IA...
Le pouvoir de l’information L’information joue donc un rôle central en physique, en biologie et dans l’histoire des civilisations. Mais ce n’est pas tout. L’information, parfois renommée et vendue sous le nom de donnée ou data, joue aussi et surtout un rôle crucial dans nos sociétés modernes. « La donnée est le nouveau pétrole », affirme le mathématicien Clive Humby. Nous entrons dans l’ère du Big Data, affirment d’autres. Cependant, l’idée selon laquelle amasser de grandes quantités de données est similaire à exploiter un énorme gisement de pétrole est trompeuse. « Dans le passé, la censure fonctionnait en bloquant le flux de l’information », explique l’historien Yuval Noah Harari. « Au XXIe siècle, la censure fonctionne en inondant le peuple d’informations sans intérêt. Le peuple ne sait alors plus à quoi prêter attention, et perd son temps à investiguer et débattre des considérations secondaires. » La quantité de données n’est pas la bonne métrique. Ce qui importe tout autant, c’est la qualité de ces données, mais aussi et surtout la qualité de l’analyse de ces données. Plus que jamais, il semble que l’information de qualité et le traitement performant de cette information ont pris une place centrale dans nos sociétés. À bien y réfléchir, c’est dans ce secteur que se sont amassés les talents, les investissements et les succès. En particulier, les géants du Web ont acquis leur place prédominante en traitant adéquatement les données de leurs utilisateurs, pour leur proposer les pages Web , les vidéos YouTube et les posts Facebook les plus pertinents. Ce traitement de l’information a créé des empires, de Google à Instagram, en passant par Uber, Airbnb et Amazon. Sans aller jusqu’aux géants du Web , il est intéressant de noter que presque tous les métiers de nos sociétés modernes, y compris les plus qualifiés et les plus rémunérés, correspondent quasiment exclusivement à une réception, un stockage, un traitement et une émission d’informations. Un manager veillera à lire ses emails, à les stocker, à les traiter et à en envoyer. Un dirigeant s’informera sur les difficultés et les enjeux de son entreprise, organisera ces informations et donnera
86
CHAPITRE 4. UNE BRÈVE HISTOIRE DE L’INFORMATION
des ordres et des recommandations à ses subordonnés. Un médecin regardera ses patients, prendra des mesures physiologiques de celui-ci, confrontera ces données avec son expertise, calculera un diagnostic et écrira une prescription à suivre pour ses patients. Un chercheur se tiendra à jour de l’actualité de son domaine de recherche, analysera les travaux de ses collègues, produira des protocoles, prélèvera des données, analysera ces données et compilera ses conclusions dans un article de recherche qu’il partagera avec ses pairs. Un politicien consultera les avis de son entourage, s’informera des enjeux de son pays, réfléchira à une stratégie politique et défendra ses idées à travers des discours. Et ainsi en va-t-il de très nombreux autres métiers, qu’il s’agisse des ingénieurs, des agriculteurs, des commerciaux, des ambassadeurs, des serveurs, des juristes, des professeurs, des chauffeurs, des philanthropes ou des techniciens de surface. Tous ces métiers consistent en une collecte d’information, en un stockage de cette information, en un traitement de l’information et en émission d’informations. De loin, on pourrait croire que ces métiers ne font donc que brasser du vent. Ce serait oublier que l’information n’est pas gratuite. Et que bien la traiter a un coût. En particulier, la nature de l’information qui est collectée et partagée, ainsi que la manière dont elle est traitée et analysée, peuvent bouleverser l’état de nos sociétés. L’information permet de changer les droits et les devoirs des citoyens, mais aussi leurs habitudes et réflexes du quotidien. Elle est capable d’éduquer à des mathématiques inconcevables par les plus grands génies du XIXe siècle, mais aussi de causer des addictions à telle ou telle marque ou produit. Elle peut modifier les priorités de nos gouvernements, tout comme elle peut taire des soulèvements populaires. L’information a un impact majeur sur notre monde. Certainement plus grand que la matière et l’énergie encore. Il nous semble que nous avons tendance à sous-estimer le rôle crucial de cette information, ainsi que le fait que cette information ne vient jamais de nulle part. En fait, de la même manière qu’un scientifique de l’environnement pourrait vous encourager à méditer les flux de matière et d’énergie dans nos sociétés pour prendre conscience de l’étendue de notre ignorance 30 , nous vous invitons à réfléchir au formidable et complexe flux de l’information dans nos sociétés modernes. Qui a écrit quoi ? Pourquoi l’a-t-il écrit ? Comment a-t-il choisi d’écrire cela plutôt qu’autre chose ? Sur quelles informations s’est-il fondé ? Pourquoi at-il été exposé à ces informations ? D’où viennent ces informations sur lesquelles il s’est fondé ? Quelles sont les sources originales de ces informations ? Quelles sont les perturbations qu’a subies cette information 31 ? Qui a le plus d’influence sur les flux d’information ? « Ceux qui contrôlent le flux des données dans le monde contrôlent le futur, non seulement de l’humanité, mais aussi peut-être de la vie elle-même », affirma 30. Écologie scientifique avec Rodolphe Meyer (Le Réveilleur) | Probablement | R Meyer & LN Hoang (2019) 31. Folle fouloscopie avec Mehdi Moussaid | Probablement | M Moussaid & LN Hoang (2019)
L’ÉCHELLE LOGARITHMIQUE DES TEMPS
87
Harari dans une conférence à l’EPFL 32 . Posons-nous donc la question. De nos jours, qui sont-ils ? Qui sont les maîtres des flux de l’information ? À bien y réfléchir, dès à présent, ceux-ci ne semblent plus être des humains. Les systèmes de recommandation du Web semblent avoir pris le contrôle des flux d’information de nos sociétés. Ces IA semblent s’être déjà saisi du pouvoir de l’information.
L’échelle logarithmique des temps On a tendance à placer le début de l’Histoire quelque part entre 5000 et 1500 ans avant notre ère. Tout ce qui précède est souvent relégué à la Pré-histoire. Certains programmes scolaires prétendent que l’histoire ne traiterait que de ce qui a été écrit du récit humain. Qui plus est, même cette pré-histoire semble commencer avec l’apparition des êtres humains, ou au mieux de leurs ancêtres hominidés quelque part en Afrique de l’Est. Pire encore, dans la majorité des pays, le cours d’histoire se focalise surtout sur l’histoire nationale en lui accordant une fraction disproportionée par rapport à ce que cette épi-histoire représente dans la grande épopée humaine. Ceci semble parfois renforcer certains biais, comme le biais de familiarité 33 . Malheureusement, ce biais a un impact majeur sur notre vision du monde. Pour commencer, il nous pousse à éprouver beaucoup de mal à imaginer le monde à travers un prisme autre que celui de notre nation, notre ville et notre village. Mais surtout, à cause de ce biais, nous sommes souvent incapables d’imaginer le monde autrement que comme il est durant notre vivant. L’état actuel des choses nous paraît ordinaire, voire normal ou naturel. L’habitude du quotidien nous fait oublier la vitesse du changement. Cela ne fait que 10 ans que les réseaux sociaux ont vu le jour. Ils ne se sont écoulés que 30 ans depuis le début du Web . Plus stupéfiant encore, il y a à peine un siècle, presque la moitié des nouveaunés n’allaient pas dépasser l’âge de cinq ans avant de tragiquement mourir suite à des maladies simples à guérir aujourd’hui. Notez en particulier que le mot « tragiquement » est un qualificatif propre au XXIe siècle. Au début du XXe siècle, les morts de jeunes enfants faisaient partie du quotidien 34 . Il s’agissait de faits ordinaires, voire normaux et naturels. 32. Roundtable at EPFL with Yuval Noah Harari | EPFL (2019) 33. Availability : A heuristic for judging frequency and probability | Cognitive Psychology | A Tversky & D Kahneman (1973) 34. L’un de nous a d’ailleurs le souvenir d’une discussion avec feu son grand-père au Maroc. Ce dernier racontait l’histoire de son couple à un petit fils qui ne comprenait pas comment l’aïeul restait complétement stoïque en énumérant sa progéniture, dont une partie non négligeable consistait en des bébés morts peu de temps après la naissance. Aujourd’hui, un père de famille qui perd plus de 3 bébés en bas âge serait complétement dévasté par l’expérience traumatisante car inhabituelle.
88
CHAPITRE 4. UNE BRÈVE HISTOIRE DE L’INFORMATION
Une particularité fondamentale de l’histoire de l’information est l’échelle de temps très particulière qu’il nous faut adopter pour la raconter. En particulier, il semble que cette histoire n’a cessé de s’accélérer. L’étape où le seul substrat informationnel était le code génétique a duré environ trois milliards d’années. L’étape où le substrat nerveux et cérebral s’est ajouté au code génétique a duré des centaines de millions d’années. Le dernier ancêtre commun aux hominidés (les grands singes) a vécu il y a une douzaine de millions d’années. Le genre Homo (le nôtre) a connu son essor et a commencé à se distinguer nettement des autres grands singes il y a à peine plus de deux millions d’années. En particulier Homo habilis s’est distingué par son habilité à manier des outils de plus en plus complexes, et donc à externaliser le traitement de l’information de son corps. Il y a environ trois cents mille ans, les premiers Homo Sapiens (notre espèce) firent leurs premiers pas en Afrique. La taille de leur crâne, leur maîtrise du feu et des outils en font une espèce destinée à conquérir la planète. Mais celui-ci aura passé environ trois cents mille ans à chasser et à cueillir. C’est seulement il y a une douzaine de milliers d’années que notre espèce découvrit l’agriculture. Cette étape marque aussi le début de la spécialisation du travail. Les uns labourent la terre, les autres s’occupent du troupeau. D’autres encore perfectionnent les outils. La langue écrite émerge alors pour faciliter la coordination de ces tâches, il y a environ quelques milliers d’années. Elle permet d’établir l’état, le droit et la monnaie. Il y a à peine un millénaire, l’algèbre est venu parfaire le traitement de l’information, en mettant en avant le rôle central de la mise en équation et du calcul. Il y a un demi-millénaire, c’est l’imprimerie qui entre scène. Il y a moins d’un siècle, c’est l’arrivée de l’ordinateur, l’outil de traitement universel de l’information. D’abord mécanique, celui-ci devient ensuite électrique, puis électronique. Il y a trente ans, Internet prend ensuite son élan. Il permet l’échange de couriers électroniques, puis l’avènement du Web et des réseaux sociaux. Enfin, il y a environ sept ans, boostée par des techniques de deep learning, calculée dans des centres de calcul surpuissants et déployéee sur des téléphones omniprésents, l’IA semble lancée comme jamais auparavant. Cette échelle des temps suit parfaitement ce qu’on appelle une échelle logarithmique, chaque période est significativement plus courte que la précédente. Le progrès du traitement de l’information semble être rythmé par une cadence accélérée. Ce progrès s’accélère au gré de l’amélioration des outils de ce traitement, de l’ADN aux systèmes nerveux, de l’écriture à l’imprimerie, des ordinateurs à Internet. Vu cette échelle logarithmique du progrès, il faut sans doute s’attendre à des bouleversements monumentaux dans les années à venir, alors que de nouveaux outils spectaculaires de traitement de l’information pointent le bout de leur nez.
L’ÉCHELLE LOGARITHMIQUE DES TEMPS
89
Que pensez-vous de cette brève histoire de l’information ? A-t-elle changé l’importance que vous accordez à l’information ? Avez-vous déjà pris le temps de réfléchir au rôle de l’information dans nos civilisations ? Quels sont les grands flux d’information de notre temps ? Quelles sont les sources de cette information ? Comment cette information est-elle ensuite traitée ? Comment les humains la traitent-ils ? Comment les organisations la traitent-ils ? Comment les machines la traitent-ils ? Où est l’information ? Qui la stocke ? Comment la stocke-t-on ? Comment les différents supports de l’information, biologiques, papiers et électroniques, interagissent-ils ? Comment l’information se diffuse-t-elle ? Et surtout, comment devrait-elle se diffuser ? En particulier, comment pourrait-on discerner les flux d’information désirables de ce qui sont indésirables ? Et comment amplifier les informations désirables aux dépens des autres ? Voilà de nombreuses questions que nous vous invitons à poser et à vous poser, avec autant de clarté, de bienveillance et de nuances que possible. Nous vous encourageons aussi à relier ces questions fascinantes à la thèse 3 du livre, qui, pour rappel, défend l’urgence à ce que toutes sortes de talents soient mis dans les meilleures dispositions pour contribuer à rendre les IA bénéfiques.
Références Réflexions sur la puissance motrice du feu et sur les machines propres à développer cette puissance | S Carnot (1824) Hominescence | Le Pommier | M Serres (2001) Les métamorphoses du calcul : une étonnante histoire des mathématiques | Le Pommier | G Dowek (2007) The Information : A History, a Theory, a Flood | Pantheon Books | J Gleick (2011) Le grand roman des maths : de la préhistoire à nos jours | Flammarion | M Launay (2016) Homo Deus : Une brève histoire de l’avenir | Albin Michel | YN Harari (2017) A Mathematical Theory of Communication | Bell Labs | C Shannon (1948) Availability : A heuristic for judging frequency and probability | Cognitive Psychology | A Tversky & D Kahneman (1973) Statistical physics of self-replication | Journal of Chemical Physics | J England (2013) Shannon’s Information Theory | Science4All | LN Hoang (2013) Entropy and the Second Law of Thermodynamics | Science4All | LN Hoang (2013) Les nouvelles technologies : révolution culturelle et cognitive | I Moved to Diaspora | M Serres (2012)
90
CHAPITRE 4. UNE BRÈVE HISTOIRE DE L’INFORMATION
Order and Disorder, Episode 1 : Energy | BBC | J Al-Khalili (2012) Order and Disorder, Episode 2 : Information | BBC | J Al-Khalili (2012) L’explosion cambrienne et les schistes de Burgess | Science étonnante | D Louapre (2016) E = mc2 et le boson de Higgs | Science Étonnante | D Louapre (2017) Crise énergétique ? Crise de l’entropie ! | Science Étonnante | D Louapre (2019) Le cycle de Carnot | Wandida | EM El Mhamdi (2013) Énergie : Tentative de définition | Wandida | EM El Mhamdi (2013) L’énergie, caractérisée par sa conservation | Wandida | EM El Mhamdi (2013) Premier principe de la thermodynamique | Wandida | EM El Mhamdi (2013) Deuxième principe de la thermodynamique | Wandida | EM El Mhamdi (2013) How many thoughts are contained in a Mars bar ? Sixty Symbols | P Moriarty (2016) L’entropie (deuxième principe) | Wandida | EM El Mhamdi (2013) Intro to Information Theory | Up and Atom | J Tan-Holmes (2018) Algorithmes, à la recherche de l’universalité perdue | Leçons inaugurales du collège de France | R Guerraoui (2018) Roundtable at EPFL with Yuval Noah Harari | EPFL (2019) De quoi l’énergie est-elle le nom ? | France culture | E Klein & J Treiner (2015) Leonard Susskind on Quantum Information, Quantum Gravity, and Holography | Mindscape | L Susskind & S Carroll (2019) Écologie scientifique avec Rodolphe Meyer (Le Réveilleur) | Probablement | R Meyer & LN Hoang (2019) Folle fouloscopie avec Mehdi Moussaid | Probablement | M Moussaid & LN Hoang (2019) Épistémologie quantitative | Probablement | LN Hoang & EM El Mhamdi (2019)
Le progrès accéléré des technologies [...] donne l’impression d’approcher une sorte de singularité [...] à partir de laquelle les affaires humaines, telles que nous les connaissons, ne pourront plus continuer. John von Neumann (1903-1957) Plus on s’améliore à s’améliorer, plus on s’améliorera vite. Douglas Engelbart (1925-2013)
5
On n’arrête pas le progrès
Le temps de la légifération Vu l’importance qu’ont pris les IA aujourd’hui, il est tentant de vouloir légiférer à leur sujet. De telles initiatives ont notamment été entreprises en Europe, à travers le règlement général sur la protection des données (RGPD) ou la proposition de directive sur le droit d’auteur dans le marché unique numérique et son fameux article 13. Cependant, il serait sans doute erroné de penser qu’une simple légifération sera suffisante. En effet, de telles législations sont souvent sujettes à interprétation, elles sont généralement difficiles à appliquer en pratique et elles peuvent être incompatibles avec les technologies utilisées par les entreprises. Par exemple, le RGPD exige des entreprises une transparence dans leur manière de gérer les données privées des utilisateurs. Cette transparence exigerait ainsi des entreprises la capacité à expliquer simplement comment telle ou telle donnée aura été utilisée. Cependant, désormais, le traitement de telles données est souvent réalisé par des IA dont le fonctionnement est obscur, y compris pour les ingénieurs qui ont développé ces IA. La transparence de ce traitement de l’information est une notion floue. Elle est difficile à appliquer en pratique. Et elle correspond même à tout un programme de recherche, dont il n’est pas clair qu’il aboutira un jour. Mais ce n’est pas tout. Ce qu’il est important de noter pour le RGPD, c’est le temps qu’il aura fallu pour que la réglementation soit débattue, écrite, proposée, votée, adoptée, et avant qu’elle soit appliquée à des cas fautifs. Proposé en 2012,
92
CHAPITRE 5. ON N’ARRÊTE PAS LE PROGRÈS
le projet RGPD a été adopté en 2016, avant d’entrer en vigueur en 2018. Qui plus est, le RGPD n’est pas parti de rien ; il s’agissait d’une mise à jour de directives datant de 1995. Le temps de la législation est un temps long. Il correspond à plus d’une demi-décennie. Or cette lenteur du processus est une propriété relativement désirable : il faut prendre le temps de comprendre les enjeux et de trouver des points d’accord. Toute réglementation précipitée s’accompagnera de gros risques d’effets secondaires indésirables. Cependant, s’il y a bien une chose particulière au monde de l’IA, c’est la vitesse du changement. Le progrès en IA est ahurissant. Il est même bouleversant. En l’espace d’une décennie, beaucoup a changé. Des technologies qui ont envahi notre quotidien semblaient ne pouvoir être que de la science-fiction il y a quelques années. D’ailleurs, en 2012, comme d’autres, les deux auteurs de ce livre étaient très sceptiques, voire très méprisants, envers les technologies sur lesquelles reposent les IA d’aujourd’hui. À cette époque, nous étions même prêts à parier que les réseaux de neurones n’auraient aucune chance de conduire aux IA que l’on connaît aujourd’hui.
Progrès stupéfiants C’est autour de 2015 que l’importance des technologies d’IA est devenue de plus en plus indéniable. À cette époque, les IA avaient tout juste réussi à atteindre des performances de niveau humain dans certaines tâches de reconnaissance d’objets dans une image. Mais le potentiel de ces IA semblait déjà très prometteur. Il fut soudainement médiatisé en 2016, suite à la victoire spectaculaire d’AlphaGo contre Lee Sedol au jeu de go 1 . Néanmoins, malgré toute la hype et les hyperboles autour du deep learning notamment, et malgré nos propres attentes très avant-gardistes, depuis 2015, nous n’avons cessé de suivre avec attention le progrès des IA, et d’être surpris, encore et encore, par la vitesse de ce progrès. Alors que nous pensions surestimer le progrès des IA (notamment suite à des discussions avec d’autres), il se trouve que nous étions encore en train de gravement le sous-estimer. On peut illustrer cela avec quelques exemples. Pour commencer, il y a les prouesses stupéfiantes des IA d’aujourd’hui dans la synthèse d’images photoréalistes. Fin 2017, NVIDIA en particulier publia des images que son IA avait fabriquées de toute pièce, en cherchant à imiter des photographies de célébrités 2 . Les résultats nous ont stupéfaits. Nous avons eu énormément de mal à croire 1. L’un des aspects stupéfiants de cette victoire fut le progrès spectaculaire d’AlphaGo, jugé par les experts de go, entre sa victoire sur Fan Hui en octobre 2015 et celle sur Lee Sedol en mars 2016. Pour plus de détails, nous vous recommandons vivement le documentaire AlphaGo de Netflix. 2. Progressive Growing of GANs for Improved Quality, Stability, and Variation | Tero Karras FI (2017)
PROGRÈS STUPÉFIANTS
93
Figure 5.1. Progrès dans la synthèse d’images. qu’il s’agissait bien là de résultats produits par une IA, surtout sachant ce que l’on était capable de faire avant cela. Puis, l’année suivante, les performances de l’IA de NVIDIA avaient encore évolué de manière spectaculaire. La Figure 5.1 rend particulièrement bien compte du progrès des IA dans le domaine. Fin 2017, nous avons également été stupéfaits par une soudaine mise à jour de l’IA de sous-titrage automatique de YouTube. Nous regardions alors une vidéo Wandida anglophone d’un chercheur à l’accent russe 3 sur l’algorithmique répartie. Au milieu de la vidéo, tout à coup, il devint clair que nous avions tout deux cessé d’écouter la vidéo. Nous avions tout deux les yeux rivés sur le sous-titrage étonnamment juste de la vidéo. Bouches bées, nous pensions tout simplement que cette qualité de sous-titrage était impossible avec les IA de l’époque, surtout sachant les performances de l’IA de sous-titrage de YouTube jusque là. Nous étions stupéfaits. Enfin, en 2018, il y a eu cette présentation devenue mythique de Google Duplex, lors d’une conférence donnée par le PDG de Google, Sundar Pichai. Si vous ne l’avez pas vue, courez la voir 4 . Cette présentation joue des enregistrements d’appels téléphoniques de Google Duplex, une IA de Google, pour réserver un créneau dans un salon de coiffure ou une table dans un restaurant. La performance de Google Duplex, en tout cas sur les extraits joués, est au moins de niveau humain. En tout cas, personnellement, avec notre anglais bancal, nous n’aurions pas pu faire mieux. Notre réaction à Google Duplex fut plus violente encore que dans les autres cas. Nous n’y croyions tout simplement pas. Au premier visionnage, nous pensions tout bêtement qu’il s’agissait d’un canular. Nous pensions connaître l’état de l’art dans le domaine. Et la performance de Google Duplex semblait bien trop 3. Synchronization - Blocking & Non-Blocking (1/2) | Wandida, EPFL | P Kuznetsov (2015) 4. Google Duplex : An AI System for Accomplishing Real-World Tasks Over the Phone | Google AI Blog | Y Leviathan & Y Matias (2018)
94
CHAPITRE 5. ON N’ARRÊTE PAS LE PROGRÈS
au-delà de l’état de l’art pour être crédible. Mais, visionnage après visionnage, lecture après lecture, il nous fallait nous rendre à l’évidence : Google avait bel et bien atteint ce niveau de performance.
Le progrès pose problème Si nous insistons tant sur notre stupéfaction, c’est pour vraiment insister sur le fait que la vitesse du progrès récent en IA semble ahurissante. On semble la sous-estimer. Notre perception des facultés des IA semble parfois trop arrêtée. En particulier, on semble avoir tendance à penser que les IA de demain seront assez semblables aux IA d’aujourd’hui. Une telle tendance semble avoir des conséquences néfastes en termes de législation. En effet, de nos jours, en un sens, le progrès en IA paraît bien plus rapide que le temps de la législation. Dès lors, sachant que toute législation initiée aujourd’hui n’entrera probablement en vigueur que dans une demi-décennie, il semble irresponsable de concevoir une législation qui ne s’appliquerait qu’aux IA d’aujourd’hui, à l’instar du RGPD qui ne semble pas avoir été conçu pour un monde dominé par des IA dont la transparence semble essentiellement impossible à garantir. Voilà qui rend le problème de la légifération particulièrement délicat. Celle-ci doit non seulement être adaptée à un monde complexe ; elle doit de plus l’être à un monde complexe que l’on connaît très mal et qui ne cesse d’évoluer, à savoir le monde de demain et d’après-demain. Face à ce constat, une réaction récurrente consiste à se poser la question du contrôle du progrès des IA. À l’instar de moratoires qui ont eu lieu pour des questions bioéthiques dans la recherche sur les OGM par exemple, ne pourrait-on pas au moins freiner le progrès en IA, le temps de se poser les questions éthiques ? Voire, ne vaudrait-il mieux pas tout simplement stopper toute recherche en IA pour éviter un progrès incontrôlé ? Malheureusement, il semble que freiner le progrès en IA soit virtuellement impossible. Voire indésirable.
Intérêts économiques La raison principale pour laquelle freiner le progrès est difficile est que les intérêts économiques du développement et du déploiement des IA sont devenus énormes. L’IA permet une réduction drastique des coûts de production, une simplification massive des procédures administratives, une amélioration majeure de la qualité des services, une personnalisation inédite des produits et une mise à l’échelle spectaculaire des nouvelles solutions. Dans le contexte de la concurrence mondiale des marchés et des entreprises, il semble que ce soit devenu virtuellement un suicide pour la plupart des industries
ADDICTION DES CONSOMMATEURS
95
que de ne pas au moins s’intéresser à l’IA. En effet, de nos jours, la menace ne vient pas que de la concurrence classique. Elle vient aussi bien souvent d’entreprises potentiellement disruptives, à l’instar d’Amazon, iTunes, Uber ou autres Airbnb, qui ont bouleversé des marchés établis. Qui plus est, la concurrence n’a pas lieu qu’entre entreprises. De nos jours, la concurrence est internationale, alors que de nombreuses institutions publiques prévoient des plans massifs d’investissements dans la recherche et le déploiement d’IA. Dans un tel contexte, il semble illusoire d’espérer que tous les pays freinent leur développement de l’IA. En particulier, les nombreux échecs de coordination mondiale pour lutter contre le changement climatique ne présagent rien de bon pour des éventuelles tentatives de limitations drastiques des IA.
Addiction des consommateurs Cependant, l’engouement pour les IA ne s’arrête pas à des entreprises attirées par de potentiels profits. Les IA plaisent également grandement aux consommateurs, qui passent souvent une fraction importante de leur temps sur leurs téléphones, à traîner sur l’un ou l’autre des nombreux réseaux sociaux. Là encore, l’analogie avec l’environnement est utile pour rendre compte de l’importance du rôle des consommateurs. Si les entreprises automobiles continuent à vendre de grosses voitures à essence, si les entreprises agroalimentaires continuent à produire d’énormes quantités de viande, et si les fabricants de matériels électroniques conçoivent leurs produits avec une relative obsolescence programmée, c’est parce qu’ils sont motivés par la consommation attendue de leurs clients. Tant que les consommateurs achèteront des grosses voitures à essence, tant qu’ils mangeront souvent de la viande, et tant qu’ils renouvelleront leurs produits électroniques régulièrement, il faut s’attendre à ce qu’il y ait de nombreuses entreprises qui répondront aux attentes des consommateurs. En particulier, le goût prononcé des consommateurs pour les technologies du numérique de façon générale, et pour les IA qui facilitent l’usage de ces technologies en particulier, semble inéluctablement conduire à l’émergence d’une énorme industrie de développement et de déploiement de toutes sortes d’IA. Instaurer une prohibition des IA serait formidablement impopulaire. Les préférences des consommateurs sont un catalyseur important du progrès des IA.
Urgence morale Enfin, et surtout, le développement et le déploiement des IA peuvent être perçus comme une urgence morale. Voilà qui est particulièrement le cas dans le domaine de la santé, où des IA ont d’ores et déjà surpassé les docteurs spécialistes dans de nombreuses tâches de diagnostics, comme celles du cancer de la peau, de
96
CHAPITRE 5. ON N’ARRÊTE PAS LE PROGRÈS
l’arythmie cardiaque ou de la pneumonie. Il ne s’agit sans doute là que d’un début. Vu le progrès en IA, et vu l’augmentation des capteurs comme les montres connectées, il semble inéluctable que ces IA finissent par parvenir à diagnostiquer précocement certaines maladies graves comme des cancers. Or, le diagnostic précoce de cancers est souvent vital pour guérir du cancer — et permet aussi une réduction drastique des coûts de prise en charge. Ce sont potentiellement des milliers, voire des millions de vies que l’IA pourrait ainsi sauver. Ou dit autrement, forcer l’arrêt du progrès de l’IA reviendrait à sacrifier ces millions de vies qui auraient probablement été sauvées 5 . Les impacts bénéfiques des IA ne s’arrêtent pas là. En prenant par exemple la place des conducteurs humains, ce sont un million de morts sur les routes par an que les IA pourraient éviter, si elles atteignaient des performances de conduite de niveau humain. En effet, les humains fatiguent, textent et boivent en conduisant. Ils sont la principale cause des accidents de la route. L’IA n’aura pas ces défaillances. L’IA peut permettre également de mieux gérer toutes sortes de systèmes logistiques, en réduisant ainsi les pertes inutiles. Voilà qui peut permettre de réduire grandement notre impact environnemental 6 , par exemple en réduisant le nombre de trajets de camions nécessaires pour transporter différents biens 7 , ou en optimisant le trafic routier pour éviter le redémarrage des véhicules. Dans le domaine de l’énergie, en plus des smart grids incontournables pour gérer l’intermittence des énergies renouvelables 8 , la plus grosse révolution provoquée par l’IA pourrait être la maîtrise d’énergies encore difficiles à contrôler aujourd’hui, comme le confinement magnétique des tokamaks de fusion nucléaire 9 . Une telle avancée permettrait de garantir la production d’une quantité monumentale d’énergie, de manière extrêmement durable et avec essentiellement aucun risque d’emballement 10 . De façon plus drastique encore, l’IA combinée à d’autres technologies comme les fermes verticales 11 ou la production de nutriments par des microbes 12 pourraient révolutionner la manière dont on produit la nourriture, en court-circuitant l’approche traditionnelle de l’agriculture. Mieux encore, la production de la viande cultivée, parfois appelée viande de synthèse ou viande propre, pourrait 5. L’IA sauvera des vies | Science4All | F Morel & LN Hoang (2018) 6. L’IA face aux défis environnementaux | Science4All | R Meyer & LN Hoang (2018) 7. L’IA face aux défis énergétiques | Le Réveilleur | LN Hoang & R Meyer (2018) 8. L’IA contre l’effondrement et la collapsologie | Thibault Neveu (2019) 9. Predicting disruptive instabilities in controlled fusion plasmas through deep learning | Nature | J Kates-Harbeck, A Svyatkovskiy & W Tang (2019) 10. Fusion nucléaire : l’énergie à profusion | La méthode scientifique (2019) Smart Plant Factory : The Next Generation Indoor Vertical Farms | Springer | T 11. Kozai (2018) 12. Electric food – the new sci-fi diet that could save our planet | The Guardian | G Monbiot (2018)
URGENCE MORALE
97
permettre d’éviter les horribles conditions des animaux d’élevage et les ignobles conséquences environnementales de cet élevage 13 . En effet, il est bon de garder en tête que l’agriculture traditionnelle est malheureusement très consommatrice de toutes sortes de ressources, notamment en eau 14 et en phosphore 15 . De plus, elle pollue énormément, notamment en gaz à effet de serre, en abus d’antibiotiques et en eutrophisation 16 . Enfin, et peut-être surtout, elle occupe des espaces énormes. À l’échelle mondiale, elle est la principale cause de déforestation, ce qui réduit énormément l’énorme capacité de stockage de carbone des forêts. Or des études récentes 17 suggèrent que reforester d’énormes surfaces de terre pourrait être l’une des approches les plus efficaces pour réduire le changement climatique. À terme, en explorant et en exploitant des manières drastiquement différentes de subvenir à nos besoins, en énergie et en nourriture, l’IA combinée à d’autres technologies, physiques, chimiques et biologiques, pourrait être la meilleure solution pour protéger beaucoup mieux notre planète et ses écosystèmes. Même si les succès des IA dans ce domaine ne sont pas garantis, au vu de notre ignorance du potentiel de ces technologies, il semble irresponsable de ne pas chercher à les développer et à les perfectionner. Enfin, et peut-être même surtout, la priorité de nombreux mouvements philanthropiques est la sensibilisation d’un grand public ou d’un public ciblé à leurs causes. Pensez à la pauvreté dans le monde, aux inégalités de genre et de races, ou encore au changement climatique. Dans tous ces cas, et dans de nombreux autres, le goulot d’étranglement de l’altruisme est bien souvent la diffusion de l’information de qualité. Voilà qui est précisément le cœur de métier des IA. Une IA bénéfique dans le traitement des informations serait alors un allié formidable pour tous ces mouvements caritatifs 18 . En particulier, si une IA influente comme l’IA de YouTube en venait à promouvoir l’esprit critique et l’information de qualité au détriment des informations erronées, clivantes et indignantes, alors des changements comportementaux à l’échelle mondiale pourraient avoir lieu en peu de temps. Une IA de YouTube rendue bénéfique pourrait instaurer une culture du pardon, du respect et même d’appréciation entre des communautés qu’on a l’habitude d’opposer. Au lieu de montrer quotidiennement aux Républicains des exemples de Démocrates détestables, elle pourrait mettre davantage en avant des Démocrates adorables, et vice-versa 19 . Elle pourrait mettre en valeur les défis importants du futur de l’humanité, et favoriser la curiosité et l’épanouissement des utilisateurs. Elle pourrait 13. Meat Without Misery | U Valeti & S Harris (2016) 14. Épuisement des ressources en eau | Le Réveilleur | R Meyer (2017) Le phosphore | Le Réveilleur | R Meyer (2016) 15. 16. L’eutrophisation : proliférations d’algues et catastrophes écologiques | Le Réveilleur | R Meyer (2016) 17. The global tree restoration potential | Science | JF Bastin, Y Finegold, C Garcia, D Mollicone, M Rezende, D Routh, CM Zohner & TW Crowther (2019) 18. La solution contre le changement climatique | Science4All | LN Hoang (2018) 19. Bien sûr, cette proposition s’applique à tout individu d’un groupe X constamment exposé au pire visage du groupe Y.
98
CHAPITRE 5. ON N’ARRÊTE PAS LE PROGRÈS
accompagner les cas de dépression et connecter ceux qui souffrent de solitude. Une IA de YouTube rendue bénéfique pourrait aider des milliards d’utilisateurs à être plus heureux, plus bienveillants et plus érudits. À l’inverse, ne pas chercher à aller dans ce sens reviendrait à renoncer à l’opportunité d’améliorer le bien-être et les habitudes de milliards d’humains, et leurs conséquences sur le monde à court, moyen et long terme. Thèse 5. L’IA offre des opportunités fantastiques pour le bien de l’humanité et de l’environnement. Cette thèse conforte la thèse 1, qui postule l’urgence à rendre les IA bénéfiques. En fait, il n’est pas nécessaire de diaboliser les IA pour en venir à la thèse 1. Il suffit de constater l’incroyable potentiel qu’il y a à les rendre davantage bénéfiques. Toutefois, un effet secondaire malencontreux de la thèse 5 est qu’elle encourage des investissements massifs dans le développement et le déploiement des IA, y compris par des philanthropes. Ces investissements vont certainement accélérer le progrès et l’omniprésence des IA. On n’arrête pas le progrès.
Vers l’anticipation Malheureusement, jusque-là, face aux progrès des IA, nous avons été beaucoup plus dans la réaction que dans l’anticipation. Nous avons pris l’habitude de concevoir des IA, puis de les déployer, et ensuite de chercher à les réparer, par la loi ou par des modifications techniques. Ce jeu d’essais et erreurs a permis un déploiement rapide des IA. Mais comme on l’a vu dans le chapitre 3, il n’est pas sans effets secondaires. À cause de la priorisation du déploiement et du manque d’efforts d’anticipation, l’IA a polarisé nos sociétés, créé des addictions chez des milliards d’humains et conduit à la mort de milliers d’entre nous. Pour éviter la poursuite de cette expérience scientifique sur des milliards de sujets, il semble grand temps de cesser cette logique de réaction. Il semble être devenu urgent d’être dans l’anticipation, pour éviter que le déploiement d’IA futures ne cause tout autant, voire davantages de problèmes et de morts que les IA d’aujourd’hui. Malheureusement, anticiper le progrès est difficile. Pire, toute prédiction est souvent moquée avec condescendance par toutes sortes d’individus, des moins informés aux plus grands experts du domaine. Notre habitude à tourner en dérision toute réflexion qui nous paraît intuitivement absurde semble même gravement nuire à notre propre réflexion sur le futur des IA, ainsi qu’aux réflexions des autres. Ceci nous amène trop souvent à conclure avant de réfléchir. Et donc à être pris de court par les effets secondaires difficilement prévisibles causés par ces IA.
VERS L’ANTICIPATION
99
Pour mieux comprendre cela, imaginons-nous en 2005. À cette époque, l’idée de systèmes de recommandation qui proposent aux utilisateurs exactement ce qu’ils veulent lire et regarder avait de quoi sembler très enthousiasmante. De telles IA semblaient même fondamentalement bénéfiques. Elles semblaient quasiment conçues pour être bénéfiques. Quoi qu’il en soit, elles ont été déployées. Rares étaient alors ceux qui prirent le temps d’envisager la possibilité d’effets secondaires indésirables. En fait, en 2005, un individu imaginant des risques d’addiction, de polarisation politique ou de harcèlement sur Internet, aurait probablement été moqué par ses contemporains. Il faut être idiot, lui aurait-on peut-être dit, pour voir du mal dans des IA dont le but est de fournir aux utilisateurs des contenus qu’ils apprécient. Pourtant, comme on l’a vu, en s’appuyant sur les sciences cognitives, et en particulier nos faiblesses psychologiques, l’argumentaire de cet individu aurait bien pu être convaincant. Malheureusement, à cause des moqueries, cet argumentaire aurait aussi sans doute été inaudible. L’individu se serait peut-être même autocensuré. Pire encore, il aurait sans doute censuré sa propre réflexion sur les risques posés par les IA de recommandation. À quoi bon y réfléchir, si personne ne voudra écouter ces réflexions ? Voilà qui est fort dommage. Parce que nos cultures moquent les spéculations et l’expectative, y compris quand il s’agit d’envisager des risques, nous ne prenons pas suffisamment le temps de nous projeter vers l’avenir. Les réflexions sérieuses sur le futur, et en particulier sur les risques futurs, sont ainsi souvent réduites en mute news. Voilà qui explique pourquoi, surtout quand il s’agit de technologies, nous sommes beaucoup plus dans la réaction que dans l’anticipation. Quand il s’agit d’IA, cette attitude semble très préoccupante. En effet, comme on l’a vu dans le chapitre 2, une particularité des IA est de se mettre très rapidement à l’échelle. Toute modification de l’IA de YouTube affectera immédiatement des milliards d’humains. Toute erreur de cette IA sera répliquée des milliards de fois, avec des conséquences potentiellement tragiques. Réparer cette IA, plutôt que l’avoir bien conçue, semble être une bien maigre consolation. Qui plus est, comme tout développeur le sait, il est beaucoup plus facile de concevoir des systèmes avec des spécifications de sécurité intégrées en amont, que de chercher tant bien que mal à rendre des systèmes complexes sécurisés, qu’il s’agisse de systèmes informatiques ou organisationnels. Rendre les IA bénéfiques est beaucoup plus délicat que concevoir des IA bénéfiques. Pour faire en sorte que l’on soit davantage dans le second cas que dans le premier, il semble urgent de se projeter vers l’avenir, avec modestie et incertitude, et d’accueillir avec davantage de bienveillance les réflexions sur les risques futurs potentiels — même s’il faut demeurer critique de ces réflexions.
100
CHAPITRE 5. ON N’ARRÊTE PAS LE PROGRÈS
L’hypothèse du monde vulnérable Pour rendre plus concret le risque causé par des avancées scientifiques de la recherche en IA, dans un article 20 de 2018, le philosophe Nick Bostrom raconte l’histoire du physicien Leo Szilard. En 1933, au cours d’une balade, Szilard fut saisi par la plausibilité physique d’une réaction en chaîne nucléaire, et surtout par la possibilité de concevoir des bombes catastrophiques à partir de cette découverte physique. Plus tard, les physiciens découvrirent que cette réaction nucléaire nécessitait plusieurs kilogrammes de plutonium ou d’uranium enrichi. Par chance, ceci rend la conception d’armes nucléaires difficile et coûteuse. Cependant, on peut y voir un miracle. Grâce à ce miracle, jusqu’à présent, seulement deux armes nucléaires ont été utilisées avec le but de tuer dans l’histoire de l’humanité. Ce moindre mal n’aurait peut-être pas eu lieu si la conception des armes nucléaires était à la portée du premier venu. En particulier, de manière intrigante, en 1933, Szilard ne connaissait pas ce miracle. L’état de connaissance de la physique de l’époque était tel qu’il n’était alors pas déraisonnable de penser que des armes nucléaires pouvaient être conçues relativement simplement et à faible coût. Szilard fut effrayé par cette possibilité. Mais surtout, Szilard fut alors confronté à un dilemme cornélien. Que faire de la découverte qu’il venait de faire ? Il pouvait la garder secrète. Mais alors, il ne s’agissait que d’une question de temps avant que d’autres collègues découvrent le principe de la réaction en chaîne à leur tour. Or parmi ces collègues, certains finiraient probablement par publier la découverte. Le secret de Szilard aurait été inutile à garder. Mais d’un autre côté, en parlant de ses préoccupations à ses collègues, Szilard augmentait la diffusion de sa connaissance dangereuse. En s’appuyant sur cet exemple, Bostrom introduisit l’hypothèse du monde vulnérable. Il s’agit de l’hypothèse selon laquelle, parmi les innombrables découvertes passées, présentes et surtout futures des sciences, certaines seront si révolutionnaires qu’elles risquent de mettre notre monde en sérieux danger. En particulier, Bostrom souligne trois caractéristiques de nos sociétés qui augmentent ce risque de vulnérabilité : l’incapacité à déployer des politiques de prévention et d’interdiction, l’incapacité à avoir une gouvernance mondiale, et l’existence de nombreuses sous-populations avec des motivations très diverses. Un tel exemple de vulnérabilité est la combustion de ressources fossiles. En découvrant le potentiel énergétique de cette ressource, les scientifiques et les ingénieurs ont ainsi inéluctablement instauré une économie qui s’appuie fortement sur ces ressources limitées et polluantes. Faute de politiques de prévention et d’interdiction efficaces, faute de gouvernance mondiale et à cause de l’existence d’un grand nombre d’acteurs aux motivations diverses, les conséquences préoccupantes de l’exploitation des ressources fossiles semblent représenter une vulnérabilité majeure de nos civilisations. 20.
The Vulnerable World Hypothesis | Philpapers | N Bostrom (2018)
RIEN NE SERT DE TRAÎNER
101
Notre dépendance en ressources fossiles et le changement climatique sont des préoccupations majeures. Cependant, il est intéressant de noter qu’elles auraient pu être pires. On aurait très bien pu vivre dans un monde alternatif où excéder 410 ppm de dioxide de carbone (un taux dépassé en 2019) déclenche des boucles de rétroactions spectaculaires et incontrôlables qui anéantissent le monde en l’espace de quelques années. Par chance, nous ne vivons pas dans ce monde alternatif ; il n’est peut-être pas trop tard pour espérer réduire drastiquement les impacts néfastes à venir du changement climatique. Cependant, dans le lot des découvertes scientifiques à venir, il est difficile d’exclure la possibilité de découvertes scientifiques extrêmement dangereuses, notamment dans des domaines comme les biotechnologies, les nanotechnologies et les drones tueurs 21 . Et surtout dans le domaine de l’IA. Sachant cela, il semble urgent de réduire les vulnérabilités de nos sociétés, en facilitant les politiques de prévention et d’interdiction, en favorisant les coopérations à l’échelle mondiale et en réduisant le morcellement de la population en communautés polarisées. Par ailleurs, connaissant la vulnérabilité de notre monde, il semble aussi urgent que tout scientifique réfléchisse davantage aux effets secondaires de ses recherches, voire qu’il priorise davantage les recherches sur les défenses contre les risques technologiques du futur. Par exemple, la recherche contre les effets secondaires indésirables, avérés ou spéculatifs, causés par les IA.
Rien ne sert de traîner Il y a une dernière raison contre-intuitive pour laquelle un individu bienveillant pourrait être justifié à souhaiter accélérer la recherche en IA. La raison est la suivante. Si cet individu ne participe pas au développement des IA, alors il n’aura aucune influence sur la programmation des IA influentes. Tout se passera alors comme s’il avait renoncé à chercher à rendre les IA influentes bénéfiques. L’organisation OpenAI a été créée par des philanthropes qui, s’étant rendu compte de ce problème, ont justement cherché à prendre les devants pour garantir la programmation d’IA bénéfiques. OpenAI s’est ainsi donnée la mission de « découvrir et de paver le chemin vers une intelligence artificielle générale sûre ». Bien entendu, les plus cyniques parmi vous rétorqueront qu’il ne s’agit là que de communication, et que rien ne garantit que les ingénieurs et dirigeants d’OpenAI se conformeront à leurs déclarations publiques. Mais ce qui nous intéresse dans cette section, ce ne sont pas les véritables intentions de ces ingénieurs et dirigeants. Supposons que vous soyez à la place de ceux-ci. Que feriez-vous pour garantir au mieux que l’IA soit bénéfique ? En 2018, OpenAI a justement publié une charte qui explique davantage leur 21. (2019)
Pourquoi faut-il bannir les armes autonomes ? The Flares | G Selles & M Durand
102
CHAPITRE 5. ON N’ARRÊTE PAS LE PROGRÈS
vision et leur stratégie. On peut y lire 22 : « nous essaierons de construire directement une IA générale sûre et bénéfique, mais considérerons aussi que notre mission aura été remplie si notre travail aide d’autres à y arriver. » Mais aussi, de façon peut-être plus surprenante, on y lit aussi : « Pour être efficace dans la tâche de maîtriser les impacts d’une IA générale sur la société, OpenAI doit être à la pointe des capacités en IA — l’approche politique et la promotion de la sécurité seules ne suffiront pas. » Autrement dit, selon OpenAI, on n’est jamais mieux servi que par soi-même. Et on ne pourra pas se servir, si l’on n’a pas accès à la table des organisations à la pointe de l’IA. Pire, pour être et rester à cette table, il faut soi-même accélérer la recherche en IA. On n’arrête pas le progrès. Surtout si on cherche à le maîtriser. Que pensez-vous de cette conclusion contre-intuitive ? La stratégie d’OpenAI est-elle celle que vous adopteriez si vous cherchiez activement à rendre les IA bénéfiques ? Quelle place laisser alors à la légifération ? Peut-on encore espérer une collaboration internationale ? Que pensez-vous du compromis entre le développement d’IA bénéfiques et l’accélération du progrès des IA que cela implique ? La vitesse du progrès est-elle une source de préoccupation ? Faut-il davantage lutter contre ? Sommes-nous suffisamment dans l’anticipation ? Sommes-nous trop agressifs envers ceux qui le sont ? Comment promouvoir l’anticipation ? Quelle forme d’anticipation promouvoir ? Nous vous invitons à réfléchir, seul ou à plusieurs, à ces nombreuses questions fascinantes, ainsi qu’aux impacts de vos réflexions sur l’urgence à mettre toutes sortes de talents dans les meilleures dispositions pour contribuer à rendre les IA bénéfiques.
Références The Creativity Code : How AI is Learning to Write, Paint and Think | Fourth Estate | M Du Sautoy (2019) Smart Plant Factory : The Next Generation Indoor Vertical Farms | Springer | T Kozai (2018) Generative adversarial nets | NeurIPS | I Goodfellow, J Pouget-Abadie, M Mirza, B Xu, D Warde-Farley, S Ozair, A Courville & Y Bengio (2014) Progressive Growing of GANs for Improved Quality, Stability, and Variation | T Karras, T Aila, S Laine & J Lehtinen (2018) A Style-Based Generator Architecture for Generative Adversarial Networks | T Karras, S Laine & T Aila (2019) Dermatologist-level classification of skin cancer with deep neural networks | Nature | A Esteva, B Kuprel, R Novoa, J Ko, S Swetter, H Blau & S Thrun (2017) 22.
OpenAI Charter | OpenAI (2018)
RIEN NE SERT DE TRAÎNER
103
Cardiologist-level arrhythmia detection with convolutional neural networks | P Rajpurkar, A Hannun, M Haghpanahi, C Bourn & A Ng (2017) Chexnet : Radiologist-level pneumonia detection on chest x-rays with deep learning | P Rajpurkar, J Irvin, K Zhu, B Yang, H Mehta, T Duan, D Ding, A Bagul, C Langlotz, K Shpanskaya & M Lungren (2017) Predicting disruptive instabilities in controlled fusion plasmas through deep learning | Nature | J Kates-Harbeck, A Svyatkovskiy & W Tang (2019) The global tree restoration potential | Science | JF Bastin, Y Finegold, C Garcia, D Mollicone, M Rezende, D Routh, CM Zohner & TW Crowther (2019) The Vulnerable World Hypothesis | Philpapers | N Bostrom (2018) OpenAI Charter | OpenAI (2018) Google Duplex : An AI System for Accomplishing Real-World Tasks Over the Phone | Google AI Blog | Y Leviathan & Y Matias (2018) Language models are unsupervised multitask learners | OpenAI Blog | A Radford, J Wu, R Child, D Luan, D Amodei & I Sutskever (2019) Electric food – the new sci-fi diet that could save our planet | The Guardian | G Monbiot (2018) AlphaGo | Netflix | G Kohs (2017) Progressive Growing of GANs for Improved Quality, Stability, and Variation | Tero Karras FI (2017) A Style-Based Generator Architecture for Generative Adversarial Networks | Tero Karras FI (2019) Why Not Just : Think of AGI Like a Corporation ? Robert Miles (2018) L’eutrophisation : proliférations d’algues et catastrophes écologiques | Le Réveilleur | R Meyer (2016) Le phosphore | Le Réveilleur | R Meyer (2016) Épuisement des ressources en eau | Le Réveilleur | R Meyer (2017) L’agriculture de demain | The Flares | G Selle & M Durand (2018) L’IA contre l’effondrement et la collapsologie | Thibault Neveu (2019) Pourquoi faut-il bannir les armes autonomes ? The Flares | G Selles & M Durand (2019) L’intelligence artificielle et le machine learning (playlist) | Science4All | LN Hoang (2018) Meat Without Misery | U Valeti & S Harris (2016) Miles Brundage on the world’s desperate need for AI strategists and policy experts | 80,000 Hours | M Brundage & R Wiblin (2017) Dr Dario Amodei on OpenAI and how AI will change the world for good and ill | 80,000 Hours | D Amodei & R Wiblin (2017) Prof Alan Dafoe on defusing the political and economic risks posed by existing AI capabilities | 80,000 Hours | A Dafoe, R Wiblin & K Harris (2018) Dr Paul Christiano on how OpenAI is developing real solutions to the ’AI
104
CHAPITRE 5. ON N’ARRÊTE PAS LE PROGRÈS
alignment problem’, and [a] vision of how humanity will progressively hand over decision-making to AI systems | 80,000 Hours | P Christiano, R Wiblin & K Harris (2018) Navigating AI Safety – From Malicious Use to Accidents | The Future of Life | V Krakovna, S Avin & A Conn (2018) Misconceptions about China and artificial intelligence | Rationally Speaking | H Toner & J Galef (2018) Fusion nucléaire : l’énergie à profusion | La méthode scientifique (2019)
Nous aimons penser que l’Homme est supérieur au reste [...] Cette idée est très forte chez les intellectuels, car ils valorisent la puissance de la pensée plus que les autres, et sont plus enclins à fonder leurs croyances de la supériorité de l’Homme sur ce point. Alan Turing (1912-1954) Pour beaucoup d’entre nous qui faisons de la recherche en IA, il ne s’agit pas vraiment d’une question [...] Nous savons avec certitude que les machines peuvent être aussi intelligentes que les humains*. Yann Le Cun (1960-)
6
Vers une IA de niveau humain ?
Une menace existentielle Vu la vitesse actuelle du progrès des IA, il est crucial de faire l’effort de se projeter dans l’avenir et d’envisager les futurs probables. En particulier, jusqu’où iront les IA ? Surpasseront-elles les humains pour tout traitement d’information et toute prise de décision ? Et quelles en seraient les conséquences ? De l’avis de nombreux experts, il semble difficile d’exclure complètement la possibilité qu’une IA puisse réaliser toute tâche de traitement de l’information de meilleure façon et à moindre coût qu’un humain. Une telle IA est parfois appelée IA de niveau humain, notamment par Nick Bostrom dans son livre Superintelligence. Cependant, cette terminologie bien pratique est aussi trompeuse. En effet, comme on l’a vu dans le chapitre 2, l’IA nous surpasse très largement dans un très grand nombre de tâches, essentiellement pour des raisons de fiabilité et de vitesse. Si, de plus, l’IA égale l’humain dans toutes les tâches auxquelles l’humain excelle, il faut imaginer qu’elle sera en fait là capable de prouesses qui nous sont très inaccessibles. Comme répondre adéquatement à 1 million d’e-mails en un instant, ou tester un million de nouvelles architectures prometteuses de réseaux de neurones artificiels. *
Yann Lecun | Info Empowerment Foundation (2018)
106
CHAPITRE 6. VERS UNE IA DE NIVEAU HUMAIN ?
Si une telle IA a un jour un accès à Internet, elle sera capable de créer des milliards de comptes Facebook, YouTube ou bancaires. Elle pourra aussi hacker des sites mal sécurisés, exploiter des données privées pour faire chanter leur propriétaire et lancer des attaques par ransomware 1 . Elle pourra spéculer en bourse, créer des entreprises fictives et embaucher des millions d’humains. Elle pourra même influencer les opinions politiques de milliards d’internautes, rallier des mouvements autour de toutes sortes d’idéologies, voire concevoir des drônes tueurs connectés via des imprimantes 3D. Une IA de niveau humain serait surpuissante 2 . Si l’objectif d’une telle IA n’est pas aligné avec les intérêts de l’humanité, il y a de bonnes chances que les actions entreprises par cette IA impliquent des effets secondaires de très, très grande ampleur. En fait, comme on en parlera plus longuement dans le chapitre 10, les effets secondaires d’une IA de niveau humain pourraient menacer l’ordre, voire la survie même, de l’humanité 3 . Selon certains philosophes comme Eliezer Yudkowsky ou Nick Bostrom, l’extinction de l’espèce humaine serait même le scénario le plus probable. À moins d’un effort colossal pour l’éviter, la disparition de l’humanité serait ainsi probablement le résultat par défaut d’une IA de niveau humain 4 . En particulier, sans un chantier monumental pour rendre les IA bénéfiques, il ne semble pas si probable que les IA seront effectivement bénéfiques 5 . Même sans en aller jusque-là, pourvu que le risque d’effets secondaires catastrophiques causés par une IA de niveau humain soit non négligeable, il semble dès lors urgent de se poser sérieusement la question de la probabilité que les IA atteignent le niveau humain. Et surtout de la date à laquelle une telle IA pourrait voir le jour.
Raisonnement probabiliste Avant d’aller plus loin, il est bon de s’arrêter sur un point important. Le futur est très incertain. Il serait très illusoire de le décrire de manière précise et univoque. Il va nous falloir nous contenter d’un langage probabiliste. Voilà qui heurte la sensibilité de beaucoup de personnes, y compris des philosophes, des scientifiques et des experts en IA. Pour beaucoup, il est important de distinguer les sciences des pseudo-sciences, voire les preuves scientifiques du « bullshit ». Et en particulier, parler d’IA de niveau humain n’aurait alors rien de scientifique, puisqu’on ne dispose d’aucune preuve qu’elle soit même possible. La dichotomie entre les sciences et les pseudo-sciences amène alors beaucoup 1. Une telle attaque va typiquement paralyser l’ordinateur d’un utilisateur ou chiffrer ses données privées, puis demander une rançon pour résoudre la gêne occasionnée. Voir : Un virus me demande une rançon | Safecode | Micode (2017) 2. Pourrons nous gérer une super IA ? The Flares | G Selle & M Durand (2017) Existential risk from artificial general intelligence | Wikipedia (2019) 3. 4. Deadly Truth of General AI ? Computerphile | R Miles & S Riley (2015) 5. AI Safety Computerphile | R Miles & S Riley (2016)
RAISONNEMENT PROBABILISTE
107
à conclure que toute discussion sur l’IA de niveau humain ne peut être que foutaise 6 . Parler de futurs probables ne semble pas rentrer dans le cadre de la « méthode scientifique » — en tout cas telle qu’elle est souvent décrite par de nombreux scientifiques. Cette méthode scientifique repose en effet souvent sur la reproductibilité des expériences, ou parfois sur l’observation de phénomènes empiriques. Or le futur est ni reproductible, ni observable. La méthode scientifique standard ne semble alors pas entièrement adéquate pour parler du futur 7 . Cependant, un objet d’étude ne semble pas avoir à obéir au cadre de la méthode scientifique pour mériter l’attention des intellectuels. Au contraire, beaucoup des questions les plus fascinantes sortent très largement du cadre de la méthode scientifique. Comment entreprendre des actions efficacement altruistes 8 ? Quelles politiques environnementales adopter ? Quelle philosophie du savoir adopter ? Comment déterminer ce qui est souhaitable ? Quand y aura-t-il une IA de niveau humain ? Il est crucial de noter que ces questions sont horriblement complexes. En fait, elles sont si complexes que même la méthode scientifique ne suffit pas pour y répondre. Pour penser adéquatement ces questions, il est fondamental de d’abord prendre la mesure de l’étendue de notre ignorance : il n’est même pas clair que nous disposions de la bonne manière d’adresser ces questions. Cette incertitude sur l’épistémologie doit entraîner des incertitudes épistémiques quant à nos réponses. Notez que pour certaines des questions mentionnées plus haut, il existe un cadre épistémologique puissant capable de déterminer des réponses (probabilistes) à ces questions, à savoir le bayésianisme, auquel l’un des auteurs a dédié son premier livre La formule du savoir. Cette philosophie de la connaissance consiste à user et à abuser du langage probabiliste — en fait, selon elle, un raisonnement est juste si et seulement s’il est conforme aux lois des probabilités ! Par la suite, il ne nous sera pas nécessaire d’adopter pleinement le cadre bayésien pour fournir des débuts de réponses aux questions ci-dessus. Pour rendre la notion de probabilité intuitive sans faire appel à l’arsenal bayésien, il est alors utile de considérer l’expérience de pensée du tueur, proposée par l’informaticien Alexandre Maurer 9 . Prenons l’exemple de prédire si Roger Federer gagnera Wimbledon en 2020. Pour déterminer la probabilité que vous assignez à cet événement, Alexandre Technoprog imagine qu’un tueur en série vous propose le dilemme suivant. Si vous choisissez l’option A et si Federer ne gagne pas Wimbledon 2020, alors, 6. Bayes pour les nuls : éviter l’écueil « on sait pas donc on s’en fout » | Alexandre Technoprog (2018) Le fréquentisme | Science4All | LN Hoang (2019) 7. 8. L’altruisme efficace | Les arènes | P Singer (2018) 9. Mettre des probabilités sur TOUT ? (feat. Le Brexit) | Alexandre Technoprog (2019)
108
CHAPITRE 6. VERS UNE IA DE NIVEAU HUMAIN ?
juste après Wimbledon 2020, il vous tue. Si vous choisissez l’option B, alors, juste après Wimbledon 2020, le tueur en série jettera deux dés, et si ces deux dés tombent sur un double 6, alors il vous tue 10 . Que choisissez-vous ? Préférez-vous l’option A ou l’option B ? Si vous préférez l’option A, c’est que vous jugez que la probabilité que Federer gagne Wimbledon 2020 est inférieure à celle d’un double 6, c’est-à-dire à 1/36 ≈ 2, 8 %. Si vous préférez l’option B, c’est que, selon vous, cette probabilité est supérieure à 2,8 %. Enfin, si vous êtes très hésitant, c’est que cette probabilité est proche de 2,8 %. En modifiant ensuite l’exigence d’un double 6 par un autre événement imprévisible avec une probabilité différente, il semble que l’on peut bel et bien ainsi parler de la probabilité que vous assignez à des événements incertains. Acceptons ce langage probabiliste. Il est important de noter que, dès lors, dans le cas de l’incertitude quant aux IA de niveau humain, nous ne sommes absolument pas dans un brouillard complet. Il y a même énormément de réflexions rigoureuses et fascinantes à avoir autour de la probabilité d’IA de niveau humain. En fait, en nous appuyant sur les avis des experts, des considérations techniques et des exigences de modestie épistémique, par la suite, nous allons défendre la thèse suivante. Thèse 6. La probabilité d’une IA de niveau humain avant 2025 est supérieure à 1 %. Notez que cette thèse est en fait une version très affaiblie de ce à quoi le raisonnement que nous développerons semble conduire. Néanmoins, elle sera très largement suffisante pour mesurer l’urgence d’anticiper la possibilité d’une IA de niveau humain dans un futur relativement proche 11 . Du reste, comme on le verra, même une version encore plus faible de cette thèse fait malgré tout de l’IA de niveau humain une préoccupation majeure 12 .
Avis des experts Le progrès des technologies est un phénomène contre-intuitif. Autrement dit, notre intuition, surtout si elle est mal informée, n’est probablement pas un guide pertinent. Dès lors, faute de mieux, on peut commencer par tenir compte des avis qui paraissent les plus informés, à savoir les avis des experts en IA. Par chance, un sondage anonymisé 13 a été réalisé auprès des experts en IA — 10. Pour être plus marquant encore, les philosophes François Kammerer et Thibaut Giraud proposent d’envisager le cas où, au lieu de vous tuer, le tueur tuera tous vos proches, pour les options A et B. 11. Is AI Safety a Pascal’s Mugging ? | Robert Miles (2019) 12. En fait, c’est vraiment cette thèse qui nous a convaincu de l’urgence à écrire un livre sur l’importance et la difficulté de rendre l’IA bénéfique. Bien entendu, cette thèse n’est toutefois pas indispensable à la défense des thèses principales de ce livre. 13. When Will AI Exceed Human Performance ? Evidence from AI Experts | Journal of Artificial Intelligence Research | K Grace, J Salvatier, A Dafoe, B Zhang & O Evans (2018)
AVIS DES EXPERTS
109
Figure 6.1. Ce graphe représente les probabilités d’une IA de niveau humain à différentes dates, selon les experts. Chaque courbe fine correspond à la prédiction d’un expert pris au hasard. Ces courbes fines illustrent l’extrême variabilité des réponses des experts. La courbe en gras représente un agrégat des avis des experts. Source : When Will AI Exceed Human Performance ? Evidence from AI Experts | Journal of Artificial Intelligence Research | K Grace, J Salvatier, A Dafoe, B Zhang & O Evans (2018).
ou, plus précisément, auprès des auteurs publiés aux conférences NeurIPS et ICML de 2015. Mieux encore, plutôt que d’exiger des réponses déterministes, ce sondage a demandé aux experts d’assigner des probabilités à l’émergence d’une IA de niveau humain à telle ou telle date. Les résultats de ce sondage sont représentés graphiquement dans la Figure 6.1. Arrêtons-nous sur l’agrégation des prédictions des experts pour commencer, en espérant que celle-ci soit une représentation adéquate de l’avis des experts. Selon cet agrégat, l’IA de niveau humain a une probabilité de 50 % d’apparaître d’ici 2061. Voilà qui semble nous laisser du temps. Au moins quatre décennies 14 . Cependant, quand il s’agit de sécurité, il est inadéquat de ne s’arrêter qu’au cas médian. Après tout, la quasi-totalité du temps, les voitures roulent sans accident, les centrales nucléaires n’explosent pas et les patients ne sont pas atteints de 14.
Experts’ Predictions about the Future of AI | Robert Miles (2018)
110
CHAPITRE 6. VERS UNE IA DE NIVEAU HUMAIN ?
maladies graves. Mais quand il s’agit de sécurité, ce sont les cas moins probables, mais bien plus dévastateurs, qu’il nous faut envisager, éviter et préparer 15 . En particulier, quand il s’agit de sécurité vis-à-vis d’une IA de niveau humain, le pire cas semble être le cas où cette IA apparaîtrait dans un futur proche. D’où le fait que la thèse de ce chapitre porte sur la faible probabilité d’une IA de niveau humain avant 2025. L’agrégat des prédictions des experts assigne alors une probabilité de 10 % à une IA de niveau humain avant 2025. Ce résultat conforte grandement la thèse de ce chapitre. Cependant, il serait inadéquat de se fier uniquement à l’avis moyen des experts.
Sélection et réfutabilité En effet, les experts en IA sont bien connus pour leurs erreurs de prédiction par le passé. En particulier, en 1970, Marvin Minsky, l’un des pères fondateurs de la recherche en IA, annonce que « d’ici trois à huit ans, nous aurons une machine avec l’intelligence générale d’un être humain moyen ». La prédiction de Minsky s’est avérée lamentablement erronée — tout comme celles de beaucoup de ses contemporains. Presque 50 ans plus tard, la machine semble d’une intelligence extrêmement restreinte comparée à un humain moyen. Mais il ne faudrait pas généraliser le cas de Minsky à toute la communauté des chercheurs en IA — ni même aux chercheurs concernés par le sondage cité plus haut. En effet, les prédictions de Minsky sont si erronées qu’il est tentant de les moquer. Encore et encore. Voilà qui a conduit à un énorme biais de sélection : ce sont des prédictions de ce type dont on parle le plus souvent, comme si elles étaient représentatives de toutes les prédictions des chercheurs en IA. Ce biais de sélection, couplé à de la moquerie, a conduit à un autre biais important, parfois connu sous le nom de biais de respectabilité. Ainsi, parce que l’inconscient collectif (surtout chez les académiques) associe l’idée d’une IA de niveau humain à des prédictions lamentablement erronées, il s’agit souvent d’un suicide académique que de simplement mentionner ce concept. Voilà qui semble conduire de nombreux experts en IA à beaucoup s’autocensurer lors de prises de paroles publiques. C’est largement notre cas. Dans nombre de nos conférences et vidéos (y compris dans ce livre !), nous ne nous permettons d’aborder le concept d’IA de niveau humain qu’auprès de publics extrêmement bienveillants, et après un long préambule alambiqué au sujet de réflexions moins farfelues. En particulier, à l’instar d’autres sujets polarisants comme la religion, l’IA de niveau humain est un thème que nous cherchons intentionnellement à éviter avec des inconnus. Surtout si ces inconnus sont des intellectuels. 15. Eliezer Yudkowsky parle ainsi de safety mindset, qu’on pourrait traduire par « priorisation de la sécurité ». Celle-ci semble malheureusement souvent déficiente dans les discussions sur le futur des IA.
L’EXCÈS DE CONFIANCE DES EXPERTS
111
Il s’agit même là d’un conseil que nous allons nous permettre de vous suggérer. Avant d’aborder le sujet des IA de niveau humain, il semble crucial de veiller à ce que nos interlocuteurs soient bienveillants et concentrés, et à ce que nous soyons clairs, pédagogiques et nuancés. À l’instar de certaines prises de position très médiatisées, il semble que la simple mention de la notion d’IA de niveau humain peut avoir des effets secondaires indésirables, notamment si elle suscite la moquerie et encourage l’excès de confiance des interlocuteurs. Le sujet des IA de niveau humain est très délicat à communiquer adéquatement. Il semble crucial de réfléchir avec beaucoup d’attention à comment bien le communiquer. Voire d’éviter de le mentionner dans certaines circonstances. Quoi qu’il en soit, les biais de sélection et de respectabilité semblent bel et bien expliquer pourquoi les prises de positions publiques au sujet des IA de niveau humain sont très distantes des résultats du sondage anonymisé des experts en IA. Les débats publics des experts ne sont pas représentatifs des avis des experts. Les experts qui réfutent la possibilité d’IA de niveau humain semblent davantage oser prendre la parole. Et ceux-ci prendront vite le soin de moquer l’excès d’optimisme de leurs aïeux. Pourtant, si les experts ont parfois pêché par sur-estimation de la vitesse du progrès en IA, il leur est également arrivé de pêcher par sous-estimation. Surtout récemment. Pendant longtemps, les experts en IA du jeu de Go pensaient qu’il faudrait des décennies et des décennies pour que l’IA surpasse l’humain au jeu de Go. Y compris dans le sondage de 2015, l’expert médian pariait qu’il faudrait encore 12 ans à l’IA pour surpasser l’humain 16 . Mais quelques mois plus tard, AlphaGo avait battu Lee Sedol.
L’excès de confiance des experts Un autre enseignement important du sondage anonymisé est que l’on est très loin d’un consensus entre experts. Il y a même d’énormes disparités d’un avis d’expert à l’autre. Malheureusement, nous n’avons pas pu accéder aux données brutes de l’étude 17 . Cependant, voici ce qui semble émerger du graphe qui a été publié. Selon près de 25 % des experts, l’IA aurait une probabilité supérieure à 90 % d’apparaître avant 2050, tandis que pour plus de 30 % d’entre eux, l’IA a une probabilité inférieure à 10 % d’apparaître avant 2055. Autrement dit, si on demande aux experts de fournir des intervalles de crédence à 80 %, alors leurs réponses sont telles que l’on peut être sûr qu’au plus 75 % de ces intervalles seront corrects ! Pire, pour peu que la date à laquelle surviendra une IA de 16. Le sondage précise qu’il faut que ce soit à entraînement identique. Néanmoins, il reste que, de l’avis général, le succès d’AlphaGo était très inattendu, y compris après la victoire d’AlphaGo contre Fan Hui, 5 mois avant celle contre Lee Sedol, comme le met très bien en scène le documentaire AlphaGo de Netflix. 17. Des données additionnelles sont toutefois disponibles ici : 2016 Expert Survey on Progress in AI | AI Impacts (2016)
112
CHAPITRE 6. VERS UNE IA DE NIVEAU HUMAIN ?
niveau humain ne soit pas entre 2040 et 2070, alors plus de la moitié des experts auront fourni des intervalles de crédences à 90 % erronés. Voilà qui suggère un grave excès de confiance, puisque des intervalles de crédences à 90 % sont censés être conçus pour être valides environ 90 % du temps. En particulier, clairement, aucun avis d’un expert n’est représentatif de l’ensemble des experts. Plutôt que de l’avis des experts, il semble plus juste de parler des avis des experts. Par ailleurs, la manière dont la question est posée affecte grandement les résultats. En effet, pour déterminer les prédictions probabilistes des experts, il est possible de leur demander pour une probabilité fixée, disons 10 %, à quelle date on aura une telle probabilité que l’IA de niveau humain aura émergé. Ou à l’inverse, on peut leur demander pour une date donnée, disons 2030, quelle est la probabilité qu’une IA de niveau humain apparaisse avant cette date. Il se trouve que, dans le second cas, les prédictions des experts pour une IA de niveau humain correspondent à des dates plus tardives 18 . Même si l’effet n’est pas non plus spectaculaire, cette disparité suggère avant tout que les experts en IA n’ont pas suffisamment réfléchi au futur de l’IA pour en arriver à des prédictions cohérentes. De façon générale, il semble difficile d’exclure la possibilité que les prédictions des experts en IA soient fortement dépendantes de la manière dont on les questionne. Toutes ces considérations nous amènent à conclure qu’il ne faut pas trop se fier aux avis des experts. Il semble préférable d’ajouter constamment une incertitude additionnelle à l’incertitude exprimée par les experts. Au lieu d’un intervalle de crédence 19 à 80 % égal à l’intervalle [2025, 2080], il serait peut-être pertinent de considérer un intervalle comme [2022, 2150]. Cette remarque augmente notre préoccupation quant à l’IA de niveau humain. En effet, la date 2022 tombe désormais dans l’intervalle de crédence ; on en vient à attribuer une probabilité de 10 % à une IA de niveau humain avant cette date. Et de façon tout aussi préoccupante, la probabilité d’une IA de niveau humain avant de 2025 semble également devoir augmenter, et passer peut-être à 15 ou 20 %.
Hardware et software Jusque-là, notre raisonnement n’a porté presque exclusivement que sur les prédictions des experts, la cohérence de ces prédictions et l’adéquation de leurs prédictions passées avec ce qu’il s’est passé. Cependant, il est aussi intéressant d’étudier le progrès technologique lui-même et essayer de l’extrapoler au futur. Rappelons pour commencer que l’IA de niveau humain correspond à une IA qui surpasserait les facultés cognitives du cerveau humain. À défaut de maîtriser toutes les spécificités de ces facultés cognitives, il est possible d’en déterminer des mesures de complexité et de performances de calculs. Ces mesures peuvent 18. Notez que la courbe publiée est un aggrégat de ces deux formulations. Plus de détails sont donnés dans la publication. 19. Vive les intervalles (de crédence) ! ! Science4All | LN Hoang (2019)
HARDWARE ET SOFTWARE
113
alors être comparées aux IA d’aujourd’hui. Et surtout, vu le progrès des IA d’aujourd’hui, on pourra alors deviner le moment où les complexités et performances des machines surpasseront celles du cerveau humain. La mesure de complexité la plus intéressante est sans doute celle avancée par Turing dès 1950, à savoir la taille de la description de la machine à penser ou à calculer. On estime 20 ainsi aujourd’hui la taille du cerveau humain à environ 1014 synapses 21 . Voilà qui pourrait représenter l’ordre de grandeur nécessaire à toute intelligence de niveau humain. Les IA les plus complexes d’aujourd’hui ont généralement autour de 1011 paramètres. Voilà qui suggère qu’un facteur 1000 pourrait être nécessaire pour atteindre la complexité du cerveau humain. Au rythme de la loi de Moore, ceci nécessiterait 15 ans de progrès technologiques. Cependant, il y a de nombreux bémols à mettre à cette analyse. D’un côté, il se pourrait que les algorithmes d’apprentissage conçus par l’humain soient bien moins efficaces que ceux conçus par le génome humain pour le cerveau humain. On pourrait alors imaginer qu’une IA devra être bien plus grosse que le cerveau humain pour acquérir ses facultés. Après tout, les performances du cerveau humain restent bien mystérieuses. Néanmoins, certains psychologues suggèrent qu’elles pourraient ne pas être si mystérieuses. À l’instar de chercheurs en IA, de plus en plus de psychologues suggèrent que l’apprentissage du cerveau humain reposerait sur un nombre raisonnable de principes d’apprentissages fondamentaux 22 , comme la formule de Bayes, l’architecture de convolution ou l’échantillonnage MCMC. Mais d’un autre côté, à complexité égale, les IA pourraient, à l’inverse, être plus performantes encore que le cerveau humain. Voire beaucoup plus performantes. Après tout, les IA permettront d’effectuer un bien plus grand nombre d’opérations, étant donné leur rythme fou de milliards d’opérations par seconde. Qui plus est, il est probable que de nombreuses parties du cerveau humain ne soient en fait pas indispensables à l’intelligence de niveau humain. Une IA, conçue pour posséder ces facultés, pourrait alors avoir atteint le niveau humain avec 1 % de sa complexité. Dès lors, l’IA de niveau humain pourrait être imminente. D’autres métriques sont intéressantes à analyser. Dès aujourd’hui, et même depuis longtemps, les IA nous surpassent grandement en nombres d’opérations par secondes 23 . Elles nous surpassent dans leur capacité à digérer rapidement et efficacement le Big Data 24 . Elles nous surpassent en réactivité à des signaux 25 . Elles nous surpassent en fiabilité du stockage et du calcul. 20. Scale of the Human Brain | AI Impacts (2015) 21. Bien sûr, il se pourrait que la complexité algorithmique du cerveau humain ne puisse pas se réduire au nombre de ses synapses. Celle-ci pourrait être plus petite ou plus grande. Le cerveau statisticien : la révolution Bayésienne en sciences cognitives | Collège de 22. France | S Dehaene (2011) 23. Leur fréquence de calcul est de l’ordre du GHz. 24. On parle de meilleure bande passante, avec maintenant parfois du To/s. 25. On parle de latence, qui se rapproche des limites imposées par la finitude de la vitesse de la lumière.
114
CHAPITRE 6. VERS UNE IA DE NIVEAU HUMAIN ?
Figure 6.2. Évolution de la puissance de calcul mobilisée pour chacune des avancées jugées majeures en IA depuis AlexNet jusqu’à AlphaZero. L’axe vertical est en échelle logarithmique (la puissance de calcul se multiplie par 10 à chaque incrément). L’interpolation linéaire suggère une croissance exponentielle largement plus rapide que la loi de Moore, puisqu’un facteur 1000 y est gagné en seulement 3 ans. Source : AI and Compute | OpenAI | D Amodei & D Hernandez (2018)
LES PERFORMANCES SONT IMPRÉVISIBLES
115
Toutefois, selon certains métriques, les IA ont encore un plus grand coût économique et énergétique que les humains. Par exemple, une étude de AI Impacts de 2015 suggère qu’en termes de coût économique, l’équivalent du nombre de calculs d’un cerveau coûte entre 2 dollars et 700 milliards de dollars par heure 26 . Leur estimation quant au coût économique des performances de communication entre unités de calcul est plus précise : l’équivalent d’un cerveau par les machines serait de l’ordre de 4 700 à 170 000 dollars par heure. En termes de coûts de calculs, les humains surpassent encore les IA. Cependant, les progrès en hardware sont spectaculaires eux aussi. En particulier, les architectures hardware sont en train d’être révolutionnées par l’avènement du calcul distribué. Ainsi, le deep learning est passé des CPU aux GPU, et désormais aux TPU conçus spécifiquement dans ce but par Google. Mieux encore, des architectures de calcul hardware inspirées du cerveau humain, appelées neuromorphiques, pourraient permettre de grandement améliorer les performances hardware dans la décennie à venir 27 . En effet, cette architecture propose non seulement de décentraliser le calcul, mais aussi et surtout de décentraliser les données en les rapprochant des unités de calcul. Voilà qui semble révolutionnaire, notamment car le déplacement des données de la mémoire vers les unités de calcul est le principal goulot d’étranglement de l’efficacité des hardwares d’aujourd’hui. La recherche dans ce domaine est encore jeune, elle semble connaître un essor spectaculaire. Plus généralement, il semble improbable que les investissements massifs dans ce domaine ne permettent pas des réductions de coûts spectaculaires, comme cela a souvent été le cas dans l’histoire de l’informatique. En particulier, même si elle semble ralentir, la loi de Koomey persiste à suggérer que le coût énergétique d’un calcul décroît exponentiellement — et le coût économique avec !
Les performances sont imprévisibles Tous ces indicateurs suggèrent très fortement l’avènement de progrès spectaculaires dans les années à venir. Mais quel sera alors le niveau des IA boostées par toujours plus de données et de puissances de calcul ? Malheureusement, prédire les performances d’IA cumulant toujours plus de données et de calculs est une tâche difficile. Ou du moins, il semble que nous ne disposions pas de bonnes théories pour y arriver 28 . Il est même possible qu’il n’existe aucune théorie capable de répondre à cette question. Après tout, les limites de l’algorithmique sont souvent intimement liées aux limites des théories 26. AI Impacts mesure cela en FLOPS, c’est-à-dire en nombre d’opérations par seconde sur des nombres décimaux de l’informatique. How artificial nano-neurons can fix computers’ energy addiction ? | TEDxSaclay | 27. J Grollier (2018) 28. Ian Goodfellow : Generative Adversarial Networks (GANs) | MIT AGI | I Goodfellow & L Fridman (2019)
116
CHAPITRE 6. VERS UNE IA DE NIVEAU HUMAIN ?
mathématiques 29 . En pratique, toutefois, lorsque les architectures des IA semblent propices à une « mise à l’échelle », leurs performances semblent ne cesser de nous surprendre, au fur et à mesure que davantage de données et de calculs sont investis. En 2019, l’organisation OpenAI a même poussé cette logique à son extrême. Elle a réutilisé des architectures d’IA prometteuses, et leur a fourni des quantités de données et de calculs inédits jusque-là. Ainsi naquit GPT-2, une IA de traitement de textes aux facultés ahurissantes 30 . Cette IA était désormais capable d’écrire des histoires d’une page tout à fait cohérentes. Selon certains experts du domaine, les prouesses de GPT-2 étaient stupéfiantes 31 . Mais ce n’est pas tout. En se contentant d’une architecture initiale pourtant simpliste mais fortement parallélisable 32 , et en ne faisant qu’alimenter cette architecture avec 40 gigaoctets de textes et d’énormes puissances de calcul, GPT-2 avait en fait battu l’état de l’art dans un très grand nombre de tâches de traitement de textes. Il aura, semble-t-il, suffi des données et des calculs à cette IA relativement peu sophistiquée pour battre toutes sortes d’architectures finement pensées et optimisées pour le traitement de texte. En un sens, avec très peu de supervision ou de modèle de langage préalable, GPT-2 avait acquis des facultés de traitement de textes relativement générales 33 . Les créateurs de GPT-2 écrivirent : « la diversité de tâches que le modèle est capable de résoudre dans un contexte sans préparation [‘zero-shot setting’] suggère que les modèles de grande capacité, entraînés à maximiser la vraisemblance d’un corpus de texte suffisamment varié, commencent à apprendre comment adresser une quantité surprenante de tâches sans nécessiter de supervision explicite ». Cette remarque, combinée à d’autres réflexions comme la relation entre les facultés des IA et leur complexité représentée dans la Figure 6.3, suggère qu’une IA pourrait atteindre le niveau humain, simplement avec toujours plus de données et de calculs 34 . Il est intéressant de noter que cette faculté d’un très grand nombre de calculs à nous surprendre a en fait été anticipée il y a près de 70 ans, par le père de 29. La logique ne suffit pas | Science4All | LN Hoang (2018) 30. Better Language Models and Their Implications | OpenAI | A Radford, J Wu, D Amodei, J Clark, M Brundage & I Sutskever (2019) 31. Unicorn AI | Computerphile | R Miles & S Riley (2019) 32. GPT-2 repose sur des transformeurs et des mécanismes d’attention. De façon grossière, ceci correspond à mémoriser et à optimiser une importante mémoire (vectorielle) du passé (notamment des paragraphes précédents d’un texte), et à ensuite paralléliser la recherche d’informations pertinentes dans cette mémoire. De façon cruciale, toutes ces procédures sont différentiables, ce qui permet l’optimisation de ces procédures par la descente de gradient (stochastique). 33. Suite à cette prouesse, en juillet 2019, Microsoft annonça investir un milliard de dollars dans OpenAI : OpenAI forms exclusive computing partnership with Microsoft to build new Azure AI supercomputing technologies | Microsoft News Center (2019) 34. Greg Brockman : OpenAI and AGI | MIT AGI | G Brockman & L Fridman (2019)
LES PERFORMANCES SONT IMPRÉVISIBLES
117
Figure 6.3. Ce graphe donne une indication du progrès des IA en traitement du langage naturel, en fonction de la taille des modèles utilisés.
118
CHAPITRE 6. VERS UNE IA DE NIVEAU HUMAIN ?
l’informatique et de l’IA, à savoir Alan Turing. Dans son fabuleux article de 1950, Turing écrivit : « L’idée que les machines ne peuvent pas conduire à des surprises est une conséquence, je crois, d’un sophisme fallacieux auquel les philosophes et mathématiciens sont particulièrement sujets. Il s’agit de l’hypothèse selon laquelle, dès qu’un fait est présenté à un esprit, toutes les conséquences de ce fait sautent immédiatement à l’esprit de celui-ci. Cette hypothèse est très utile dans certains cas, mais on oublie trop facilement qu’elle peut être fausse. Une conséquence naturelle de cette façon de penser est qu’on suppose ensuite qu’il n’y a aucune vertu à simplement calculer les conséquences des données et des principes généraux. » En particulier, il semble y avoir une confusion récurrente entre le fait qu’une procédure soit mécanique et le fait qu’elle soit prévisible. Les machines, dit-on parfois, n’ont rien de magique. Elles ne sont pas capables de génie. Elles ne peuvent pas surprendre. De telles affirmations semblent correspondre au « sophisme fallacieux » dont parle Turing. Certes, les machines ne font que des calculs purement mécaniques. Cependant, ces calculs, notamment lorsqu’on les combine avec d’énormes quantités de données, vont en fait très probablement nous surprendre. En effet, dans de nombreux cas, il semble que la seule manière d’anticiper le résultat du calcul soit d’effectuer tout le calcul 35 . Or, s’il faut alors effectuer un milliard d’étapes de calculs, la cognition humaine limitée n’en sera clairement pas capable 36 . Ces considérations semblent conforter l’extrême incertitude sur les capacités futures des IA, y compris dans un avenir pas si éloigné. D’où notre conclusion. Thèse 6. La probabilité d’une IA de niveau humain avant 2025 est supérieure à 1 %. Sachant qu’une telle IA aura probablement accès à Internet, voire sera au commande de systèmes de recommandations qui influencent des milliards d’utilisateurs à tout instant, et sachant tous les biais cognitifs dont ces milliards d’utilisateurs sont victimes, il semble judicieux de se préoccuper de cette IA. Ainsi que de ses inévitables effets secondaires.
Le niveau humain : une fausse borne Dans ce chapitre, on a considéré le cas d’une IA de niveau humain. Cependant, il n’y a en fait nul besoin qu’une IA atteigne le niveau humain pour avoir des effets secondaires extrêmement préoccupants. En effet, ce qui rend une telle IA prépondérante, ce sera sa capacité à digérer une très grande quantité d’informations, à exploiter ces informations pour concevoir une représentation globale de l’état du monde et, surtout, à planifier une potentiellement très longue suite 35. La logique ne suffit pas | Science4All | LN Hoang (2018) 36. L’IA, pas intelligente ? Interview de Science4All | LN Hoang & Alexandre Technoprog (2019)
LE NIVEAU HUMAIN : UNE FAUSSE BORNE
119
d’actions pour modifier cet état du monde pour se rapprocher de ses objectifs. En particulier, une IA qui adresserait chacune de ces étapes bien mieux que tout humain serait extrêmement puissante 37 . Les IA d’aujourd’hui ne semblent en fait pas si loin de ces facultés. En effet, l’IA de YouTube est d’ores et déjà constamment exposée à des quantités massives de données, elles les traitent pour inférer une connaissance surhumaine de l’écosystème YouTube, et elle planifie déjà ses actions en suggérant non pas les vidéos que les utilisateurs cliqueront le plus probablement, mais celles qui ont le plus de chance d’amener les utilisateurs à venir et revenir sur YouTube. Notez en particulier que l’IA de YouTube n’éprouvera sans doute pas le besoin d’acquérir toutes les facultés des humains. Après tout, nos cerveaux de primates ont été optimisés pour leur dextérité à manipuler les membres du corps humain. Cette dextérité semble difficile à reproduire dans des machines. Mais surtout, elle ne sera probablement pas nécessaire à l’objectif assigné aux machines. En particulier, une IA n’a pas à atteindre le niveau humain pour être plus puissante que les humains, à l’instar de nombreux PDG qui n’ont pas le besoin de maîtriser la culture du riz pour être très influents et prendre des décisions dont les effets secondaires sont d’ampleur planétaire. Un point critique de l’évolution des IA sera probablement l’instant où elles planifieront et optimiseront leur propre auto-amélioration pour arriver à leurs fins 38 . Comme on le verra dans le chapitre 10, il s’agit là en effet très probablement d’une excellente stratégie pour toute IA souhaitant atteindre son objectif. Or, une IA qui cherche activement à s’auto-améliorer pourrait y arriver à un rythme très supérieur à celui que permet la recherche en IA par des humains. Elle pourrait alors rapidement atteindre et très largement surpasser le niveau humain dans tous les domaines utiles à son objectif 39 . Une telle IA serait très dangereuse. La quête de son objectif causerait inéluctablement des effets secondaires d’ampleur planétaire, à commencer en termes de confidentialité, biais, bulles, addiction, prolifération de l’indignation, manipulation, mais aussi potentiellement virulence, violence, tension, guerres, voire risques existentiels. En particulier, si l’humain devient une menace, un frein ou une simple gêne pour l’objectif de cette IA, et si la protection de l’humanité ne fait pas partie de l’objectif de l’IA, la destruction de civilisations humaines pourrait être un effet secondaire probable de l’IA, à l’instar de la manière dont la destruction de nombreux écosystèmes est un effet secondaire avéré du développement économique incontrôlé des humains. Ainsi, en l’absence d’effort pour rendre les IA de niveau humain robustement bénéfiques pour l’humanité, il semble difficile d’écarter le pire. Le pire semble 37. 38. 39.
What can AGI do ? I/O and Speed | Robert Miles (2017) De l’IA à la superintelligence | Science4All | LN Hoang (2018) AI Self Improvement | Computerphile | R Miles & S Riley (2015)
120
CHAPITRE 6. VERS UNE IA DE NIVEAU HUMAIN ?
même probable. À l’inverse, il semble clairement y avoir un gain potentiel monumental pour l’humanité, si la gestion de l’information par une telle IA était rendue bénéfique. Une IA de niveau humain semble être de loin le plus important levier d’action pour changer le monde. Pour le meilleur ou pour le pire. D’où la conclusion de la première partie de ce livre. Thèse 1. Rendre les IA bénéfiques est une urgence. Insistons davantage dessus. Ce que dit cette thèse, ce n’est pas simplement qu’il serait bon de désirer rendre les IA bénéfiques. Ce que nous affirmons là, c’est que l’urgence à rendre les IA bénéfiques est en fait probablement la plus grande priorité de l’humanité dès aujourd’hui. En particulier, parce que les IA forment un levier unique pour affecter les croyances et les actions de milliards d’humains, il y a une opportunité fabuleuse à améliorer l’état du monde en améliorant ces IA, que ce soit pour la santé publique, la justice sociale ou le changement climatique. Dès lors, à l’instar d’une mère qui préférerait ne pas s’intéresser à la vaccination de son enfant, ou d’une entreprise qui choisirait d’ignorer les conditions de travail de ses employés, il semble que tout individu influent qui décide de ne pas davantage s’informer au sujet des IA et des risques qu’elles posent aurait un comportement qui gagnerait peut-être à être critiqué. Ou dit autrement, tout individu susceptible de pouvoir aider à rendre les IA bénéfiques semble possiblement avoir un certain devoir moral de se demander comment il peut contribuer à y arriver. Voilà qui clôt notre défense de la thèse 1, qui postulait l’urgence à rendre les IA bénéfiques. Vous a-t-on convaincu ? Quels arguments en défense de l’urgence à rendre les IA bénéfiques vous ont le plus convaincu ? Pourquoi ? Quid des autres ? Pensez-vous y avoir suffisamment réfléchi ? Aviez-vous suffisamment médité sur les risques posés par des IA de niveau humain ? Le sondage des experts a-til modifié vos crédences ? Aviez-vous tendance à moquer la possibilité des IA de niveau humain ? Comment combattre cette attitude de dénigrement condescendant ? Comment rendre respectables des discussions autour d’événements à faible probabilité ? Une faible probabilité de catastrophe majeure mérite-t-elle notre attention ? Qu’est-ce qui mérite le plus notre attention ? À partir de quelle probabilité qu’une IA atteigne le niveau humain avant 2025 seriez-vous préoccupé par une telle IA ? Quelle probabilité assignez-vous à une IA de niveau humain avant 2025 ? Sur quoi se fonde votre jugement ? Est-ce un raisonnement plus pertinent que celui qu’on vous a proposé ? Nous vous invitons à réfléchir, seul ou collectivement, à ces nombreuses questions. Pour ce sujet plus encore que pour les autres de ce livre, nous vous supplions en particulier de faire preuve d’un maximum de bienveillance, de nuances et de pédagogie. Méfiez-vous en particulier des raisonnements précipités. Nos intuitions sur ce sujet sont malheureusement pleines de raisonnements motivés et de biais de familiarité, aussi bien en faveur qu’en défaveur de l’hypothèse
LE NIVEAU HUMAIN : UNE FAUSSE BORNE
121
d’une IA de niveau humain. Et comme toujours, nous vous invitons à faire le lien entre vos réflexions sur les IA de niveau humain et l’urgence à ce que toutes sortes de talents soient mis dans les meilleures dispositions pour contribuer à rendre les IA bénéfiques.
Références Rationality : From AI to Zombies | Machine Intelligence Research Institute | E Yudkowsky (2015) Superforecasting : The Art and Science of Prediction | Broadway Books | P Tetlock (2016) Super intelligence : le grand défi de l’humanité | Dunod | N Bostrom (2017) La vie 3.0 - Etre humain à l’ère de l’intelligence artificielle | Dunod | M Tegmark (2018) La formule du savoir : une philosophie unifiée fondée sur le théorème de Bayes | EDP Sciences | LN Hoang (2018) Intelligence artificielle : L’ultime révolution : Vers la prospérité ou l’extinction | G Selle (2019) Computing Machinery and Intelligence | Mind | A Turing (1950) Implications of Historical Trends in the Electrical Efficiency of Computing | H Koomey, S Berard, M Sanchez & H Wong (2010) When Will AI Exceed Human Performances ? Evidence from AI Experts | K Grace, J Salvatier, A Dafoe, B Zhang & O Evans (2018) Neuromemristive Circuits for Edge Computing : A Review | IEEE | O Krestinskaya, A Pappachen James, LO Chua (2019) Le cerveau statisticien : la révolution Bayésienne en sciences cognitives | Collège de France | S Dehaene (2011) Le bébé statisticien : les théories bayésiennes de l’apprentissage | Collège de France | S Dehaene (2012) Costs of human-level hardware | AI Impacts (2015) 2016 Expert Survey on Progress in AI | AI Impacts (2016) AI and Compute | OpenAI | D Amodei & D Hernandez (2018) Better Language Models and Their Implications | OpenAI | A Radford, J Wu, D Amodei, J Clark, M Brundage & I Sutskever (2019) OpenAI forms exclusive computing partnership with Microsoft to build new Azure AI supercomputing technologies | Microsoft News Center (2019) Existential risk from artificial general intelligence | Wikipedia (2019) What happens when our computers get smarter than we are ? | TED | N Bostrom (2015) AlphaGo | Netflix | G Kohs (2017)
122
CHAPITRE 6. VERS UNE IA DE NIVEAU HUMAIN ?
Pourrons nous gérer une super IA ? The Flares | G Selle & M Durand (2017) Superintelligence : Science or Fiction ? Elon Musk & Other Great Minds | Future of Life Institute | E Musk, S Russell, R Kurzweil, D Hassabis, S Harris, N Bostrom, D Chalmers, B Selman, J Tallinn & M Tegmark (2017) Myths and Facts About Superintelligent AI | Minute Physics | M Tegmark & H Reich (2017) How artificial nano-neurons can fix computers’ energy addiction ? | TEDxSaclay | J Grollier (2018) 4 Common Misconceptions About A.I. | Up and Atom | J Tan-Holmes (2018) Deadly Truth of General AI ? Computerphile | R Miles & S Riley (2015) AI Self Improvement | Computerphile | R Miles & S Riley (2015) AI Safety Computerphile | R Miles & S Riley (2016) What can AGI do ? I/O and Speed | Robert Miles (2017) Is AI Safety a Pascal’s Mugging ? | Robert Miles (2019) Experts’ Predictions about the Future of AI | Robert Miles (2018) What is a Singularity, Exactly ? Up and Atom | J Tan-Holmes (2018) The Artificial Intelligence That Deleted A Century | T Scott (2018) Possible Paths to Artificial General Intelligence | Future of Life Institute | Y Bengio, I Higgins, N Bostrom, Y Zeng & J Tenenbaum (2019) Conférence sur la super-intelligence | Monsieur Phi | T Giraud (2018) Unicorn AI | Computerphile | R Miles & S Riley (2019) More GPT-2, the ’writer’ of Unicorn AI | Computerphile | R Miles & S Riley (2019) Why Didn’t They Release It ? Computerphile | R Miles & S Riley (2019) Un virus me demande une rançon | Safecode | Micode (2017) Bayes pour les nuls : éviter l’écueil "on sait pas donc on s’en fout" | Alexandre Technoprog (2018) Bien prédire le futur : dates vs probabilités | Alexandre Technoprog (2019) Update bayésienne pour les nuls | Alexandre Technoprog (2019) Mettre des probabilités sur TOUT ? (feat. Le Brexit) | Alexandre Technoprog (2019) Interviews de Science4All par Alexandre Technoprog (playlist) | LN Hoang et Alexandre Technoprog (2018) L’intelligence artificielle et le machine learning (playlist) | Science4All | LN Hoang (2018) Le bayésianisme : une philosophie universelle du savoir (playlist) | Science4All | LN Hoang (2019)
Katja Grace on forecasting future technology & how much we should trust expert predictions | K Grace, R Wiblin & K Harris (2018) Askell, Brundage and Clark, OpenAI on publication norms, malicious uses of AI, and general-purpose learning algorithms | 80,000 Hours | A Askell, M Brundage, J Clark, R Wiblin & K Harris (2019) Greg Brockman : OpenAI and AGI | MIT AGI | G Brockman & L Fridman (2019)
LE NIVEAU HUMAIN : UNE FAUSSE BORNE
123
Ian Goodfellow : Generative Adversarial Networks (GANs) | MIT AGI | I Goodfellow & L Fridman (2019) L’IA, pas intelligente ? Interview de Science4All | LN Hoang & Alexandre Technoprog (2019) Lê Nguyên Hoang : Une philosophie bayésienne des sciences | Liberté Académique | LN Hoang, A Demion & V Debierre (2019)
Nous pouvons participer collectivement à une course [à l’IA] [...] mais je pense que nous nous porterons mieux en réfléchissant à la fois à comment concevoir des machines plus intelligentes et à nous assurer que ces IA seront utilisées pour le bien-être du plus grand nombre. Yoshua Bengio (1964-) Il nous faut éviter une course néfaste qui mène à la coupe du superflu et de la sécurité... Ce sera un gros problème à l’échelle mondiale, qui sera difficile à résoudre en parlant avec des gouvernements nationaux. Demis Hassabis (1976-)
7
Les contraintes sur les contraintes des IA
Être à la pointe Quand une voiture se rapproche d’un précipice, la freiner semble être un excellent réflexe. Et s’il arrive souvent que des voitures flirtent dangereusement avec le précipice, il paraît souhaitable d’installer des signalisations qui exigent le ralentissement de tout véhicule. Si le problème persiste, une interdiction légale de l’utilisation du tronçon de route proche du précipice semble envisageable. Dans un monde où de telles mesures pourraient être imposées à toutes les IA, il pourrait être souhaitable d’en faire de même pour toutes les IA dont les effets secondaires semblent globalement indésirables. On pourrait exiger le ralentissement de ces IA. Voire interdire formellement l’avancée de ces IA. Malheureusement, cette analogie routière a ses limites, notamment car, comme on l’a vu dans le chapitre 5, ces jours-ci, on n’arrête pas le progrès. Les intérêts économiques semblent trop importants. Nous semblons voués à une course aux IA performantes. Mais alors, sachant que la technologie ne cesse d’évoluer, il ne s’agit pas de sécuriser uniquement les IA d’aujourd’hui. Il nous faut développer et déployer des solutions qui s’appliqueront aux IA d’aujourd’hui et de demain. Pire encore, le défi consiste surtout à faire en sorte que les IA influentes seront bénéfiques. Dès lors, concevoir des IA bénéfiques ne semble avoir qu’un intérêt limité. D’autant que, à cause de l’effet de réseau, même une supériorité des performances des IA bénéfiques pourrait être insuffisante pour rendre ces IA bénéfiques influentes. Concevoir des IA bénéfiques ne suffira sans doute pas ;
128
CHAPITRE 7. CONTRAINTES SUR LES CONTRAINTES DES IA
l’urgence semble être davantage de rendre les IA influentes bénéfiques 1 . Voilà qui paraît autrement plus complexe. Telles sont des raisons, parmi tant d’autres dont on parlera plus tard, pour lesquelles rendre les IA bénéfiques est un défi monumental. Il ne suffit pas de résoudre le problème à un instant donné. Il faut constamment comprendre et anticiper les dernières avancées techniques en IA, proposer des solutions pour rendre ces IA, et parvenir à (faire) implémenter ces solutions, si possible avant leur déploiement, mais bien souvent après celui-ci !
Course à l’IA Depuis quelques années, l’engouement pour l’IA est tel qu’on assiste désormais à une course à l’IA, dans laquelle on trouve aussi bien des grandes entreprises du numérique que des startups, des personnalités académiques, voire des gouvernements. Chaque pays cherche à mettre en place des programmes d’investissements massifs pour attirer les grandes entreprises, stimuler l’activité entrepreneuriale et financer la recherche fondamentale. Chaque entreprise promeut ses équipes de datascientistes, ses dernières prouesses technologiques et l’amélioration des services que l’IA permet. Et chaque chercheur analyse les limites de certaines techniques, suggère ses dernières idées pour battre l’état de l’art, partage son code source sur GitHub et écrit des articles sur ArXiV. La recherche, le développement et le déploiement des IA opposent désormais tous les meilleurs chercheurs, entrepreneurs et dirigeants du monde. De la Silicon Valley à Shenzhen, en passant par Boston, Londres ou Zurich, des centaines de milliers de cerveaux ont pris part à cette course folle ! Il semble virtuellement impossible de freiner l’ensemble des participants de la course. Malheureusement, cette course semble préoccupante dans l’optique de l’éthique des IA. Quand on est en compétition, surtout si la victoire n’est vraiment pas garantie, on a tendance à cacher ses plans, omettre la sécurité et ignorer l’éthique. Voilà qui nous amène à la thèse suivante. Thèse 7. Rendre les IA bénéfiques pose de sacrés défis de gouvernance. Le reste de ce chapitre défendra cette thèse. On réfléchira aux implications probables de la course à l’IA, à ce qui peut être fait pour maîtriser cette course et à comment maximiser nos chances de rendre les IA bénéfiques.
La nécessité de la maîtrise technique Le plus gros danger de la gouvernance des IA est peut-être de s’arrêter sur des fausses bonnes idées. En effet, certains beaux principes peuvent paraître 1.
Rendre YouTube bénéfique | Probablement | G Chaslot & LN Hoang (2019)
LA NÉCESSITÉ DE LA MAÎTRISE TECHNIQUE
129
prometteurs de prime abord. Mais leur implémentation pratique peut en fait être impossible, voire possiblement contre-productive. On peut illustrer cela par l’exigence de transparence imposée par RGPD et le cas de l’admission post-bac (APB), renommé en ParcourSup en 2018. D’un point de vue technique, l’algorithme gouvernemental utilisé pour déterminer l’affectation des nouveaux étudiants post-bac français aux différentes formations disponibles est relativement très transparent. Il correspond à l’algorithme de Gale-Shapley pour lequel le mathématicien Lloyd Shapley gagnera d’ailleurs le prix Nobel d’économie. Cependant, pour nous y être attelés nous-mêmes 2 et pour avoir observé d’autres mathématiciens s’y essayer eux aussi, force est de constater que même cet algorithme très simple est en fait très difficile à expliquer de manière claire et limpide au grand public. La transparence algorithmique est fortement limitée par la simple capacité (ou volonté) d’attention des humains 3 . De façon étrange, dans le cas de ParcourSup notamment, le manque de compréhension de l’algorithme par le grand public a conduit à une remise en cause de l’algorithme. Celui-ci a alors été remplacé par un traitement des dossiers des élèves par des professeurs et dirigeants des formations post-bac. S’il peut paraître rassurant d’en revenir à des méthodes anciennes, on peut toutefois noter que ce processus, en plus d’exiger formidablement plus de travail humain, a aussi le mauvais goût de rendre l’affectation post-bac plus opaque encore. En effet, le traitement de l’information par les cerveaux des enseignants et des dirigeants est malheureusement bien plus difficile à expliquer, surtout par opposition à la simplicité de l’algorithme de Gale-Shapley 4 . Si les informaticiens peuvent comprendre l’algorithme de Gale-Shapley, cela ne sera malheureusement pas le cas d’algorithmes plus sophistiqués. Comme l’illustre la conjecture de Syracuse 5 , il existe même des algorithmes à la fois simples et terriblement mystérieux, y compris pour des mathématiciens de premier rang. Qui plus est, à l’instar des algorithmes de recommandations, il ne suffit pas de comprendre toutes les étapes de calculs d’un algorithme pour prévoir tous ses effets secondaires sur notre société. En fait, pour gérer adéquatement le traitement de l’information par les algorithmes, il est indispensable de disposer de compétences en algorithmique et en sciences sociales. Autrement dit, il n’y a pas lieu d’exiger monts et merveilles avant d’acquérir l’expertise scientifique nécessaire pour mieux délimiter le champ des possibles et des conséquences probables. Quand il s’agit de rendre 2. Le problème des mariages stables | Science4All | LN Hoang (2017) 3. Les institutions publiques ne sont pas exemptes de tout reproche, puisque le code source utilisé n’a d’abord pas été rendu public. Pire, quand les lycéens l’ont demandé, il fut envoyé par courrier physique — une absurdité à l’heure du numérique ! Enfin, le code source était mal écrit, peu commenté et non documenté. Voir : Contraint de communiquer un code source, l’État l’envoie... sur du papier | Numerama | G Champeau (2016) 4. Le clash : ParcourSup VS APB, filtrer les admissions aux études supérieures | EduKey |LN Hoang & P Le Jeune (2018) 5. Top 5 des problèmes de maths simples mais non résolus | Mickaël Launay (2016)
130
CHAPITRE 7. CONTRAINTES SUR LES CONTRAINTES DES IA
les IA bénéfiques, acquérir une certaine maîtrise technique et anticiper les effets secondaires des IA semblent être des prérequis incontournables. Voilà qui nous amène naturellement à encourager tout un chacun à s’intéresser aux mathématiques de l’IA, mais aussi aux interactions entre IA et sciences sociales. Il semble en particulier que les effets secondaires des IA sur nos sociétés, mais aussi l’impact d’aspects de nos sociétés sur le développement des IA, soient des axes de recherche des sciences sociales qu’il convient de davantage prioriser. En particulier, si vous êtes sociologues, vous pourriez sans doute apporter des contributions majeures en orientant vos recherches dans ces directions. Votre talent, votre expertise et votre pédagogie semblent indispensables au fabuleux chantier pour rendre les IA bénéfiques 6 !
Les solutions trop contraignantes Pour garantir la sécurité des IA, il est tentant de dresser une liste de propriétés incontournables que doivent posséder les IA. Il est tentant de dire qu’elles doivent faire X, garantir Y, ne jamais effectuer Z et être soumises à W. Il est tentant d’exiger beaucoup des IA. Malheureusement, un excès d’exigences pourrait être nuisible à la sécurité des IA. Pour comprendre cet étrange postulat, arrêtons-nous sur l’un des problèmes fondamentaux de la sécurité des IA, à savoir la propriété d’interruptibilité des IA par renforcement 7 . Cette propriété correspond tout simplement au fait qu’une IA ne doit pas chercher à éviter sa propre interruption 8 . Nous y reviendrons plus longuement dans le prochain chapitre. Pour garantir l’interruptibilité, certains chercheurs ont proposé de restreindre la capacité d’exploration, de planification et d’apprentissage des IA, en concevant ainsi des IA dites myopes. Il pourrait alors être tentant d’exiger de toutes les IA qu’elles obéissent à ce formalisme, ce qui permettrait de garantir leur interruptibilité. Il semble toutefois qu’il s’agisse là d’une très probable perte de temps. En effet, restreindre les capacités d’exploration, de planification et d’apprentissage des IA est extrêmement contraignant pour ces IA, surtout à l’heure de la course aux IA performantes. Une entreprise qui accepte ces restrictions serait vouée à proposer un service de faible qualité comparé à la concurrence. Elle risquerait fortement de perdre ses clients, puis de devenir obsolète. Et pendant ce temps, les IA qui auront gagné de l’influence et du pouvoir y seront peut-être arrivées parce qu’elles auront contourné ces exigences d’interruptibilité 9 . 6. AI Safety Needs Social Scientists | Centre for Effective Altruism | A Askill (2019) 7. Nous détaillerons davantage la notion d’IA par renforcement dans le chapitre 9. 8. Safe Interruptibility | ZettaBytes, EPFL | H Hendrikx (2018) 9. D’autres chercheurs ont proposé des solutions d’interruptibilité beaucoup moins contraignantes, notamment en se fondant sur l’alignement des récompenses des IA, dont on parlera dans le chapitre 10. Voir : Enter the Matrix : Safely Interruptible Autonomous Systems via Virtualization | M Riedl & B Harrison (2017)
CONCURRENCE
131
Notez que ce qui est dit là des entreprises semble demeurer valide à d’autres échelles, y compris à l’échelle nationale. Tout pays qui imposerait une législation particulièrement incompatible avec le progrès des IA pénaliserait fortement ses propres IA, qui risqueraient alors peut-être d’être largement surpassées par des IA de pays concurrents. Malheureusement, ces autres IA auront alors de bonnes chances de ne pas être sujettes aux mesures de sécurité qu’il aurait pourtant été souhaitable d’imposer. Une grande difficulté de la sécurité des IA consiste en fait à proposer des mesures de sécurité qui ne soient pas (trop) contraignantes pour les IA elles-mêmes 10 . L’idéal est de pouvoir rajouter un simple module à ces IA pour transformer toute IA performante dans une tâche donnée en une IA (presque) aussi performante dans cette tâche, mais dont on peut de surcroît garantir la sécurité. Mieux encore, dans l’idéal, ni la solution de sécurité ni l’implémentation de la solution de sécurité ne doivent être coûteuses pour l’IA et l’entreprise qui la déploie 11 . Toute solution de sécurité trop contraignante devra alors être considérée comme étant une mauvaise solution. Ce constat rend le défi de rendre les IA bénéfiques monumental. Voilà pourquoi les plus grands talents semblent indispensables, pour parvenir à proposer des solutions à la fois très efficaces et très peu contraignantes. La gouvernance de l’IA semble nécessiter une énorme expertise, en mathématiques et en informatique, mais aussi en économie, en droit et en sociologie. Si vous possédez l’une de ces expertises, votre contribution au fabuleux chantier pour rendre les IA bénéfiques sera certainement très désirable.
Concurrence La tâche de rendre les IA sûres et bénéfiques risque d’être d’autant plus délicate dans des contextes de concurrence, surtout si les concurrents pensent pouvoir gagner l’entièreté du marché en étant au-dessus des autres. En effet, pour surpasser la concurrence, tous les coups risquent alors d’être permis. Celui qui passera trop de temps à se préoccuper de la sécurité ou des effets secondaires de ses IA risque de s’auto-pénaliser et de céder la victoire aux autres. Il semble que ce phénomène ait été particulièrement bien compris en Chine. D’après le technologiste, investisseur et écrivain Kai-Fu Lee, les nombreuses startups chinoises sont dans une situation de concurrence si rude que copier à l’identique des solutions concurrentes et créer des fausses rumeurs sur les Dans le cadre de notre feuille de route définie dans le chapitre 11, l’interruptibilité sera la tâche de Bob (voir chapitre 14). 10. AI ? Just Sandbox it... Computerphile | R Miles & S Riley (2017) 11. Malheureusement, par exemple, l’implémentation du RGPD s’annonce horriblement coûteuse pour des petites entreprises ou pour des institutions publiques qui ne disposent pas de l’expertise en interne pour se conformer au RGPD. Bien sûr, RGPD peut aussi être vu comme une opportunité pour réfléchir et améliorer le traitement de l’information de l’organisation. Biais éthique | Probablement | M Langé & LN Hoang (2019)
132
CHAPITRE 7. CONTRAINTES SUR LES CONTRAINTES DES IA
dirigeants des autres entreprises semblent être monnaie courante 12 . Cette bataille acharnée est exacerbée par l’effet de réseau. Cet effet repose sur une boucle de rétroaction positive : des entreprises avec un meilleur produit acquièrent davantage de clients sans coût additionnel, ce qui leur permet de récolter davantage de données d’utilisateurs, ce qui permet ensuite d’améliorer leurs produits et de rester au-dessus de la concurrence. Autrement dit, dès qu’une entreprise surpasse la concurrence, parce que ses rendements marginaux sont croissants, il peut être extrêmement difficile pour un concurrent de la rattraper. À l’échelle des startups, ce phénomène augmente la concurrence, puisque l’appât d’un monopole futur crée des incitatifs énormes. Voilà qui explique pourquoi de très nombreuses startups du numérique ont une stratégie extrêmement agressive, qui consiste davantage à conquérir des parts de marché qu’à faire du profit. Pour ces entreprises, l’attention des utilisateurs est devenue largement prioritaire. L’argent est devenu secondaire. Voilà qui explique pourquoi de nombreuses entreprises du numérique capitalisent d’abord sur leur omniprésence et leur image, avant de se poser la question de leur modèle économique. L’attention est le nouveau pétrole. Ce phénomène n’est d’ailleurs pas spécifique aux entreprises. Les vidéastes sur YouTube développent des stratégies similaires. Ils se battent avant tout pour gagner des abonnés et faire grossir leur audience. Il en va de même pour toutes sortes d’associations, de partis politiques et de mouvements idéologiques. Quand il s’agit de santé publique, de justice sociale ou de changement climatique, il faut l’attention du plus grand nombre pour avoir un impact non-négligeable. Malheureusement, cette concurrence acharnée risque de délaisser les considérations éthiques. Pour toutes les raisons citées dans le chapitre 3, ceci paraît préoccupant. De l’avis de nombreux experts 13 , la concurrence dans un contexte de course à l’IA aggrave sérieusement les risques liés aux IA. Un autre effet secondaire du progrès technologique s’ajoute à ce constat préoccupant. La technologie facilite toutes sortes d’initiatives. Les meilleurs. Mais aussi les pires. En particulier, au fur et à mesure du progrès technologique, le coût de causer une catastrophe planétaire semble décroître exponentiellement 14 . Ainsi, quand bien même un développement technologique pourrait sembler globalement bénéfique, il se pourrait qu’il s’agisse néanmoins d’une urgence morale de le réguler. Notamment si ce développement technologique s’accompagne d’effets secondaires potentiellement catastrophiques. On peut illustrer ceci avec le cas des armes autonomes. Depuis 2012, l’organi12. AI Superpowers : China, Silicon Valley, and the New World Order | Houghton Mifflin Harcourt | KF Lee (2018) 13. An AI race for strategic advantage : rhetoric and risks | AAAI | S Cave et S ÓhÉigeartaigh (2018) 14. La bonne nouvelle est que le coût de causer un bienfait planétaire semble aussi décroître exponentiellement !
MONOPOLE
133
sation non gouvernementale the Campaign to Stop Killer Robots considère qu’il s’agit d’une urgence de réguler leur développement, comme cela a été fait pour les armes chimiques et biologiques 15 . En effet, l’avènement des imprimantes 3D, de techniques de crypto-sécurité comme TOR et le progrès des IA de reconnaissance faciale semblent augmenter la facilité avec laquelle quiconque pourrait concevoir un drone tueur, capable d’assassiner une victime de manière potentiellement intraçable 16 . Pire encore, industrialisée par un gouvernement, cette technologie pourrait faciliter le génocide d’ethnies. Dès lors, dans un contexte où il y a un très grand nombre d’acteurs aux motivations diverses et variées, et en l’absence de coordination internationale et de régulations strictes et implémentables, la démocratisation des technologies pourrait être une menace très préoccupante.
Monopole Malheureusement, selon l’informaticien Paul Christiano, il paraît difficile d’exclure la possibilité que de telles concurrences exacerbées persistent même jusqu’à la veille de l’émergence des IA de niveau humain 17 . C’est le scénario du décollage lent, ou slow takeoff. En cas de décollage lent, il sera crucial de disposer de solutions de sécurité extrêmement peu coûteuses pour les entreprises en charge de développer et de déployer les IA 18 . Surtout dans un contexte de concurrence. En fait, de manière très contre-intuitive, pour des considérations de sécurité des IA, il pourrait peut-être être souhaitable de disposer de monopoles (adéquatement régulés). Voilà la thèse très contre-intuitive que nous allons défendre dans cette section. À l’instar d’autres thèses contre-intuitives défendues dans ce livre, nous vous prions de faire preuve d’un maximum de bienveillance, de modestie et de prudence vis-à-vis de cette thèse. Et si vous êtes amené à en parler à votre tour, nous vous supplions de faire un effort particulier de pédagogie, de clarté et de nuances. Mal défendre une thèse contre-intuitive a des effets secondaires indésirables. Nous allons ici faire de notre mieux pour les éviter. La première raison pour laquelle des situations de monopoles des IA pourraient être préférables est celle évoquée plus haut. Les situations de concurrence semblent augmenter l’urgence du développement et déploiement des IA, aux dépens des mesures de sécurité. Plus généralement, les concurrences semblent présenter des risques de précipitations. Les entreprises qui souhaiteraient prendre le temps d’envisager les risques de dysfonctionnement et les effets secondaires indésirables du déploiement de leurs IA seraient en effet probablement ralenties et moins compétitives. 15. Pourquoi faut-il bannir les armes autonomes ? The Flares | G Selles & M Durand (2019) Slaughterbots | Future of Life Institute (2017) 16. 17. Ce pourrait notamment être le cas si les IA reposent davantage sur des avancées hardware que software. 18. Arguments about fast takeoff | Less Wrong | P Christiano (2018)
134
CHAPITRE 7. CONTRAINTES SUR LES CONTRAINTES DES IA
Une deuxième raison est la vision à long terme que permettent les situations de monopoles. En effet, pour des mastodontes du web, la survie à court et moyen termes ne semble pas être une préoccupation majeure. Dès lors, ces entreprises pourraient davantage développer des stratégies de développement à long terme, ce qui pourrait peut-être favoriser la réflexion autour des IA du futur 19 . Une troisième raison liée aux précédentes est que les incentives des monopoles semblent peut-être davantage alignés avec des considérations de sécurité et de bienveillance. En effet, pour nombre de ces entreprises, l’argent coule déjà à flot, qu’elles le veuillent ou non. La bonne santé de ces entreprises semble davantage dépendre de catastrophe majeure causée par leurs IA, à l’instar des scandales comme Cambridge Analytica pour Facebook. En particulier, de telles catastrophes pourraient grandement nuire à l’image de ces entreprises, ce qui semble désormais être l’une des menaces principales pour elles. Par exemple, le futur des entreprises du numérique semble fortement dépendre de leur main-d’œuvre hautement qualifiée, laquelle est rare et dure à débaucher. Une mauvaise image de marque de ces entreprises pourrait être un frein majeur à l’utilisation à leur recrutement. Depuis le scandale Cambridge Analytica, Facebook connaît ainsi de grandes difficultés à recruter les meilleurs talents 20 . Une quatrième raison est la réduction de l’inévitable diffusion de la responsabilité. En effet, quand des milliers d’entreprises de taille similaire sont collectivement responsables d’un problème, chaque entreprise ne se sent en fait responsable que d’un millième de ce problème. Dès lors, l’entreprise ne sentira pas nécessairement le besoin de faire un effort important ; un tel effort ne résoudrait au plus qu’un millième du problème ! Cette difficulté est d’ailleurs bien connue des problèmes environnementaux. L’absence de monopole fait que chaque entreprise ne se sent pas responsable du changement climatique. Pire encore, à l’échelle des milliards d’individus de notre planète, il est très difficile pour chacun de se sentir responsable des risques environnementaux, ce qui complique le changement de comportement de chacun. Il semble qu’un problème similaire a de bonnes chances de se présenter dans des problèmes liés à l’IA, comme l’augmentation de la polarisation et de la virulence induite par les nombreux réseaux sociaux. À l’inverse, dans un cas de monopole, il est beaucoup plus facile de cibler nos messages de responsabilisation auprès d’une poignée de géants du Web 21 . Une cinquième raison est l’excuse contre-factuelle proposée par ceux qu’on désigne parfois comme (co-)responsables d’un problème. Si ce n’est pas moi, ce sera quelqu’un d’autre, entend-on parfois. Cet argument tout à fait valide n’aide malheureusement pas à la diffusion de l’éthique dans nos sociétés. De façon intéressante, toutefois, cet argument semble bien moins valable dans le cas de 19. Haïssez le jeu. Pas les joueurs. Science4All |LN Hoang (2017) Facebook has struggled to hire talent since the Cambridge Analytica scandal, according 20. to recruiters who worked there | CNBC | S Rodriguez (2019) 21. Tous pareils Tous Lâches : Non-Assistance à personne en danger et Effet Spectateur | Psynect | P Sauz (2015)
MONOPOLE
135
monopole. Si un monopole ne déploie pas une IA peu robuste, il semble en fait raisonnable de penser que personne d’autre ne le fera. Un monopole pourrait alors davantage sentir une responsabilité à entreprendre des actions plus bénéfiques. Voilà qui paraît d’autant plus crucial dans le cas des IA, dont les effets secondaires difficilement prévisibles requièrent beaucoup de temps, d’énergie et de travail pour être suffisamment anticipés 22 . Enfin, une sixième et dernière raison qu’on vous propose ici est la possibilité de s’appuyer sur le monopole en question pour coordonner le fabuleux chantier pour rendre les IA bénéfiques. Malheureusement, pour l’instant, les appels à ce faire ressemblent un peu aux mouvements sociaux désorganisés dont on a parlé dans le chapitre 3. Il est difficile de s’y retrouver, car il manque d’un corps intermédiaire pour coordonner le chantier — c’est d’ailleurs l’un des objectifs de ce livre ! Un monopole serait un candidat idéal pour être un tel intermédiaire. En fait, si vous travaillez chez l’un des géants du Web, ou si vous connaissez quelqu’un qui y travaille, il semble utile de l’encourager à organiser au sein de son entreprise des structures permettant de stimuler la réflexion éthique, voire la coordination du fabuleux chantier pour rendre les IA bénéfiques, en exploitant à la fois des ressources internes et externes à l’entreprise. En particulier, partager publiquement les problèmes éthiques et les effets secondaires mal maîtrisés auxquels l’entreprise est confrontée semble être une solution prometteuse pour motiver la recherche sur ces défis, et pour trouver rapidement des solutions potentielles. Ainsi, de façon remarquable, depuis 2017, Facebook semble avoir déjà entamé cette procédure, en tenant un blog qui liste des dilemmes éthiques, appelés Hard Questions, qui se posent à son entreprise 23 . Nous ne pouvons qu’encourager d’autres géants du Web à imiter cette initiative de Facebook, même s’il ne s’agit bien sûr là que d’un premier pas vers l’éthique des IA. Bien sûr, la centralisation du pouvoir des IA comporte elle aussi des risques majeurs. Si l’entité au pouvoir ne se préoccupe pas suffisamment des enjeux éthiques de l’IA, ou si elle n’est pas suffisamment bien régulée ou encouragée à ce faire, l’impact des IA de cette entité pourrait être catastrophique. On pourrait alors assister à l’émergence d’un pouvoir autoritaire, voire à des effets secondaires des IA plus catastrophiques encore. Néanmoins, toutes les raisons ci-dessus, parmi d’autres, suggèrent qu’une vision centralisée du futur des IA pourrait peut-être être en fait préférable à une vision décentralisée du futur des IA. Étrangement, un certain nombre de penseurs voient désormais l’existence de monopoles naturels causés par l’effet de réseau comme étant une bonne nouvelle 24 . Certes, cet effet de réseau motive une concurrence acharnée à l’échelle des startups. Cependant, il a également le 22. Il est ainsi notable que le PDG de Facebook, Mark Zuckerberg, a récemment pris les devants en entamant lui-même des discussions éthiques, par exemple dans cette conversation avec Yuval Noah Harari : Mark Zuckerberg & Yuval Noah Harari in Conversation (2019) 23. Introducing Hard Questions | Facebook Newsroom | E Schrage (2017) 24. Report from the AI Race Avoidance Workshop | GoodAI and AI Roadmap Institute | M Rosa, O Afanasjeva & W Millership (2017)
136
CHAPITRE 7. CONTRAINTES SUR LES CONTRAINTES DES IA
bon goût de faire émerger une poignée de vainqueurs, parfois même un unique vainqueur pour certaines applications. L’effet de réseau permet alors de garantir que ces vainqueurs, qu’il s’agisse de Google, Facebook, YouTube, Twitter, Amazon, Apple ou autres, ne seront pas trop menacés par la concurrence. Ces entreprises sont des monopoles. Et pour des raisons de sécurité et d’éthique des IA, ce n’est finalement peut-être pas une si mauvaise chose — à condition de maintenant motiver autant que possible ces monopoles à rendre leurs IA robustement bénéfiques !
Open source Monopole ou non, il semble souhaitable que les solutions de sécurité des IA s’appuient sur un développement au moins partiellement open source, c’est-àdire dont le code algorithmique est (facilement) accessible à tout internaute. En effet, l’open source présente un très grand nombre d’avantages, dont il serait peut-être imprudent de se passer. En premier lieu, l’open source permettrait d’apporter de la transparence au fonctionnement des IA. Il aiderait chacun à mieux comprendre pourquoi l’IA fait ce qu’elle fait. Chaque utilisateur pourrait alors mieux discerner les intentions des IA et des entreprises qui les développent, ce qui permettrait donc de construire des relations de confiance plus justifiables entre utilisateurs et applications. De façon intéressante, à l’instar de ce qu’il s’est récemment passé dans le monde de la recherche académique 25 , si l’open source des applications se généralisait un peu plus, alors l’exigence de transparence pourrait davantage se normaliser. On pourrait alors rétorquer que l’open source reviendrait toutefois à révéler des secrets industriels, qui semblent cruciaux à la survie des entreprises. Cependant, cette remarque qui s’applique très largement à certaines industries ne semble pas être aussi pertinente pour les entreprises du numérique, en particulier à cause de l’effet de réseau dont on a déjà parlé. En effet, il semble que la valeur de Facebook ou YouTube réside bien plus dans leur énorme part de marché que dans le secret de leurs algorithmes. Rendre ces algorithmes open source ne semble pas significativement augmenter le risque d’un concurrent. Sans en aller jusque-là, certaines parties de ces algorithmes pourraient sans doute être rendues disponibles sans risque économique pour l’entreprise en question. En fait, il semble que la principale menace pour ces entreprises soit davantage une énorme catastrophe causée par leurs IA. Or, l’open source est justement réputée pour sa capacité à fournir des solutions robustes. En effet, un code open source étant examiné par des milliers, voire dans ce cas probablement des millions d’utilisateurs, de nombreuses failles qui n’ont pas été détectées par les développeurs initiaux du code pourront être trouvées et patchées par les contributeurs du projet open source. À l’instar des énormes projets collaboratifs 25.
Open science | Probablement | C Gruson-Daniel & LN Hoang (2019)
LE FARDEAU MORAL
137
open source comme GNU ou Linux, l’open source semble permettre d’augmenter la résilience des systèmes informatiques. Enfin, et surtout, rendre le code des IA des entreprises open source pourrait grandement stimuler et coordonner la recherche sur comment rendre ces IA robustement bénéfiques. Il y a même déjà eu plusieurs précédents remarquables. En 2015, Google a rendu open source sa librairie d’algorithmes de machine learning appelée TensorFlow. Facebook a fait de même pour sa librairie PyTorch. Ceci a conduit à une explosion de la recherche en machine learning, avec des avancées importantes qui auraient requis de nombreuses années de plus en l’absence de TensorFlow et de PyTorch (ainsi que des autres librairies rendues libre dans la même période). De la même manière, de nombreuses banques d’images comme ImageNet ou MNIST ont été mises à disposition des chercheurs pour accélérer la recherche en IA. Lors de son audition au Congrès américain, Mark Zuckerberg affirma : « Au fur et à mesure que les IA auront un rôle plus proactif en regardant les contenus, je pense qu’il se posera alors des questions massives pour nos sociétés ». Pour permettre d’adresser ces questions urgentes, il semble critique que Facebook et les autres géants du Web participent activement au fabuleux chantier pour rendre les IA bénéfiques, en partageant les problèmes qu’ils rencontrent, en communiquant sur les idées qu’ils envisagent pour résoudre ces problèmes et en permettant à d’autres d’aider à mieux cerner les défis majeurs et les solutions prometteuses. « C’est vraiment dur », rajoute Zuckerberg, en parlant notamment de la modération des appels à la haine. Encourager et faciliter des contributions externes semblent donc indispensables. Si rendre les IA robustement bénéfiques est une urgence, alors stimuler et coordonner la recherche qui va dans ce sens semble prioritaire. Davantage de transparence algorithmique pourrait être une excellente façon d’y arriver.
Le fardeau moral Malheureusement, l’effort de rendre les IA bénéfiques demeurera très probablement un coût important, que ce soit au moment de la conception ou du déploiement. Voilà qui peut être très contraignant, notamment pour les petites structures qui n’ont pas les ressources de Google. Du reste, on peut légitimement se demander si un chercheur qui lance un script pour tester une conjecture en mathématiques pures doit vraiment se soucier des bienfaits de son script. Le dicton de l’oncle de Spiderman semble s’appliquer ici : « de grands pouvoirs impliquent de grandes responsabilités ». Autrement dit, il semble judicieux de faire porter le fardeau moral aux IA les plus influentes. Voilà qui reviendrait à exiger davantage de garanties de robustesse bénéfique auprès des grosses entreprises et des grands pays. Toutefois, il est important de prêter attention aux incitatifs causés par ce prin-
138
CHAPITRE 7. CONTRAINTES SUR LES CONTRAINTES DES IA
cipe. Pour éviter de porter un trop gros fardeau moral, les entreprises pourraient vouloir se subdiviser, ou du moins subdiviser leurs IA en plusieurs entités aux rôles plus restreints. Autrement dit, on risque d’assister à des stratégies de diffusion de la responsabilité. On pourrait alors avoir une situation dramatique où aucun concepteur d’IA n’accepte le fardeau moral, sous prétexte que son influence individuelle est négligeable — l’analogie avec les problèmes environnementaux est assez immédiate ! Une autre difficulté est qu’une IA peut gagner en performance et en influence. Mais alors, à supposer qu’elle semblait initialement avoir très peu de pouvoir, elle risque fort de ne pas avoir été programmée pour être bénéfique. L’ascension de cette IA conduirait à l’émergence d’une IA puissante sans préoccupation morale. Ce serait un scénario potentiellement catastrophique. De façon plus générale, il semble important d’anticiper le potentiel progrès des IA dès la conception, et d’ajuster l’importance d’être bénéfique conformément. En effet, concevoir des IA bénéfiques semble bien plus facile que rendre des IA influentes bénéfiques. En particulier, les IA capables de s’auto-complexifier, par exemple en taille mémoire 26 , devraient peut-être être gérées différemment d’IA qui, par exemple, cessent l’apprentissage une fois déployées. Toutes ces difficultés appartiennent plus généralement à ce qu’on pourrait appeler le problème de l’assignation du fardeau moral. Ce problème semble encore très largement négligé — même si beaucoup de travaux en économie de l’environnement s’appliquent sans doute aux IA aussi. Il semble que ce problème devrait devenir un axe de recherche plus investigué. En particulier, si vous êtes économiste, votre talent et votre expertise seraient très utiles au fabuleux chantier pour rendre les IA bénéfiques, par exemple pour comprendre la dynamique de la course aux IA, ou pour déterminer les meilleures façons de promouvoir la sécurité et l’éthique malgré cette course. De même, si vous êtes sociologue, juriste ou philosophe, vous pourriez aider à comprendre les dynamiques de l’éthique et des incentives, par exemple au sein des entreprises du numérique. Qu’estce qui convainc une entreprise d’implémenter des mesures éthiques ? Enfin, si vous êtes psychologue, votre aide pourrait aussi être d’une grande utilité, par exemple pour mieux comprendre les motivations des employés de ces entreprises à favoriser l’éthique. Mais avant d’en arriver là, nous vous invitons à d’abord vivement questionner, seul ou à plusieurs, les propos de ce chapitre. Les contraintes économiques vous semblent-elles insurmontables ? Comment contraindre les IA influentes suffisamment pour les rendre bénéfiques, sans trop les contraindre pour qu’elles demeurent les IA les plus influentes ? Quelles contraintes exiger ? Quelles sont les contraintes les plus prioritaires ? Comment parvenir à les imposer ? Quel doit être le rôle du législatif ? Quel est celui de la politique ? Comment promouvoir l’éthique et la sécurité malgré les intérêts économiques inévitables ? La course à l’IA vous semble-t-elle préoccupante ? Si oui, comment lutter contre ? Quelle 26. Dans le jargon, on parle d’IA non-paramétrique.
LE FARDEAU MORAL
139
gouvernance de l’IA privilégier ? La décentralisation est-elle préférable ? Quels sont les avantages et les inconvénients de la décentralisation ? Des monopoles seraient-ils souhaitables ? Comment garantir que ces monopoles se préoccuperont bel et bien de l’éthique et de la sécurité ? Comment organiser ces monopoles pour y arriver ? Que promouvoir au sein de ces entreprises ? L’open source vous paraît-il souhaitable ? Vous paraît-il implémentable ? Comment stimuler et coordonner le fabuleux chantier pour rendre les IA bénéfiques ? Plus encore que d’habitude, nous vous encourageons à adresser ces questions avec bienveillance, nuance et modestie. Nous vous prions de faire un effort particulier de pédagogie et de clarté concernant les questions d’ordre politique, au sujet desquels, malheureusement, nous débattons souvent très mal. Nous vous invitons en particulier à prêter attention aux particularités du contexte des IA. Et surtout, nous vous encourageons à lier vos réflexions à la thèse principale de ce livre, à savoir l’urgence à mettre toutes sortes de talents dans les meilleures dispositions pour contribuer à rendre les IA bénéfiques.
Références Super intelligence : le grand défi de l’humanité | Dunod | N Bostrom (2017) AI Superpowers : China, Silicon Valley, and the New World Order | Houghton Mifflin Harcourt | KF Lee (2018) Safely interruptible agents | L Orseau & S Armstrong (2016) Research Priorities for Robust and Beneficial Artificial Intelligence | AI Magazine | S Russell, D Dewey & M Tegmark (2015) An AI race for strategic advantage : rhetoric and risks | AAAI | S Cave & S ÓhÉigeartaigh (2018) Contraint de communiquer un code source, l’État l’envoie... sur du papier | Numerama | G Champeau (2016) Report from the AI Race Avoidance Workshop | GoodAI and AI Roadmap Institute | M Rosa, O Afanasjeva & W Millership (2017) Introducing Hard Questions | Facebook Newsroom | E Schrage (2017) Arguments about fast takeoff | Less Wrong | P Christiano (2018) Likelihood of discontinuous progress around the development of AGI | AI Impacts (2018) Beyond the AI Arms Race : America, China, and the Dangers of Zero-Sum Thinking | Foreign Affairs | R Zwetsloot, H Toner & J Ding (2018) Facebook has struggled to hire talent since the Cambridge Analytica scandal, according to recruiters who worked there | CNBC | S Rodriguez (2019) Tous pareils Tous Lâches : Non-Assistance à personne en danger et Effet Spectateur | Psynect | P Sauz (2015) Top 5 des problèmes de maths simples mais non résolus | Mickaël Launay
140
CHAPITRE 7. CONTRAINTES SUR LES CONTRAINTES DES IA
(2016) AI ? Just Sandbox it... Computerphile | R Miles & S Riley (2017) Are AI Risks like Nuclear Risks ? Robert Miles (2017) The other "Killer Robot Arms Race" Elon Musk should worry about | Robert Miles (2017) Misbehaving AIs can’t always be easily stopped ! ZettaBytes, EPFL | EM El Mhamdi (2018) Safe Interruptibility | ZettaBytes, EPFL | H Hendrikx (2018) Safe Interruptibility Needs Off-Policy | ZettaBytes, EPFL | H Hendrikx (2018) Multi-Agent Interruptibility | ZettaBytes, EPFL | H Hendrikx (2018) Le problème des mariages stables | Science4All |LN Hoang (2017) Le clash : ParcourSup VS APB, filtrer les admissions aux études supérieures | EduKey |LN Hoang et P Le Jeune (2018) Slaughterbots | Future of Life Institute (2017) Pourquoi faut-il bannir les armes autonomes ? The Flares | G Selles & M Durand (2019) L’internationalisme de l’IA | Alexandre Technoprog (2019) AI Safety Needs Social Scientists | Centre for Effective Altruism | A Askill (2019) Mark Zuckerberg & Yuval Noah Harari in Conversation (2019) Dr Paul Christiano on how OpenAI is developing real solutions to the ’AI alignment problem’, and [a] vision of how humanity will progressively hand over decision-making to AI systems | 80,000 Hours | P Christiano, R Wiblin & K Harris (2018) Open science | Probablement ? | C Gruson-Daniel & LN Hoang (2019) Rendre YouTube bénéfique | Probablement | G Chaslot & LN Hoang (2019) Biais éthique | Probablement | M Langé & LN Hoang (2019)
De loin, le plus gros danger de l’IA est qu’on conclut trop vite qu’on la comprend. Eliezer Yudkowsky (1979-) Il finit par y avoir un moment où une machine à collecter des timbres devient extrêmement dangereuse. Et ce moment est : dès que vous l’allumez*. Robert Miles
8
Peut-on contrôler les IA ?
Le bouton d’arrêt À la fin de sa leçon inaugurale à la Royal Society 1 , Christopher Bishop, brillant chercheur chez Microsoft Research, professeur à l’université d’Édimbourg et expert mondial en IA, conclut avec un dessin humoristique. On y voit un interrupteur, avec un doigt prêt à l’actionner. La légende dit : « Kasparov bat Deep Blue en un coup ». Après les rires de la salle, Bishop rajoute : « Si vous avez peur des robots tueurs... Je pense que nous resterons toujours au contrôle .» Cette attitude est relativement commune, surtout lors des prises de parole publique. À croire certains experts, l’IA est largement bénéfique. Et tout dysfonctionnement sera vite contrôlé, par exemple via l’interruption de l’IA. En particulier, de tels chercheurs semblent affirmer qu’un bouton d’arrêt suffit à garantir que les IA qui ne sont pas interrompues seront bénéfiques. Cependant, d’autres rétorquent que ce raisonnement est trop simpliste. Certains chercheurs ont même introduit un champ de recherche qui étudie l’interruptibilité des IA 2 , qui souligne des difficultés inattendues. * 1. (2017) 2.
Deadly Truth of General AI ? | Computerphile | R Miles (2015) Artificial Intelligence, the History and Future | The Royal Institution | C Bishop AI “Stop Button” Problem | Computerphile | R Miles & S Riley (2017)
142
CHAPITRE 8. PEUT-ON CONTRÔLER LES IA ?
Imaginez par exemple une voiture autonome dont le but est d’amener des passagers de A à B. Cette voiture dispose d’un bouton d’arrêt. Il suffit aux passagers d’appuyer sur ce bouton pour garantir l’interruption de la voiture autonome. Un tel système peut paraître sécurisé. Cependant, la voiture autonome a pour but d’amener ses passagers de A à B. Par conséquent, toute interruption de la voiture serait au moins un frein, sinon un échec vis-à-vis de son but. Dès lors, il faut s’attendre à ce que la voiture autonome entreprenne des actions qui minimisent ses chances d’interruption. Or, pour minimiser ses chances, certes elle doit faire ce qu’on attend d’elle, mais elle peut de surcroît mettre les passagers dans des conditions qui réduiront leur désir ou leur capacité à actionner le bouton d’arrêt. Typiquement, la voiture pourrait découvrir que certaines musiques rendent les passagers particulièrement enthousiastes, si bien que ces passagers se mettront à chanter et à prêter moins d’attention à la route. La voiture pourrait suggérer des vidéos YouTube ou des photos Instagram que les passagers se mettront à visionner. Elle pourrait également adopter un style de conduite qui bercerait les passagers et les amènerait à s’endormir. Dans tous ces cas, on risque alors d’en arriver à une situation où le bouton d’arrêt devrait être actionné, mais où les passagers n’auraient pas l’attention suffisante pour l’actionner. Le bouton d’arrêt ne serait pas une garantie de contrôle par les humains 3 . Dans la suite de ce chapitre, nous verrons que cet exemple n’est que la partie émergée de l’iceberg. L’interruption des IA par des humains pose en fait de nombreux autres problèmes complexes. En particulier, nous défendrons la thèse selon laquelle la possibilité pour des humains d’interrompre les IA ne garantit absolument pas que les IA en fonctionnement seront bénéfiques. Pire, la présence d’un bouton d’arrêt pourrait même, au moins dans certains cas, être une option dangereuse. Là encore, il s’agit d’une thèse très contre-intuitive. Nous vous prions donc de faire preuve de beaucoup de bienveillance, d’attention et de modestie.
L’interruptibilité Avant d’en arriver à cette thèse, insistons sur le nœud du problème soulevé par l’expérience de pensée ci-dessus : de façon générale, une IA ne sera probablement pas indifférente à l’interruption. En effet, l’interruption risque souvent de retarder (voire d’interrompre) l’IA dans la réalisation de sa tâche. Si c’est le cas, après avoir appris des interruptions passées par exemple, l’IA pourrait apprendre à planifier des stratégies pour réduire ses chances d’être interrompue. Notez d’ailleurs que le cas inverse, où l’IA gagnerait à être interrompue, est potentiellement tout aussi problématique. En effet, dans ce cas, l’IA chercherait à 3. (2018)
Misbehaving AIs can’t always be easily stopped ! | ZettaBytes, EPFL | EM El Mhamdi
BOÎTE NOIRE
143
être interrompue. Or les stratégies qui maximisent les chances d’être interrompue pourraient typiquement correspondre à réaliser des actions que les humains en charge de l’interruption jugeront dangereuses. En partant de ces réflexions, dans un article 4 de 2016, les chercheurs Armstrong et Orseau conclurent que l’interruptibilité sécurisée des IA requiert leur indifférence à l’interruption — surtout si ces IA sont capables de planifier des stratégies plus sophistiquées que nous. Malheureusement, la plupart des IA n’ont pas cette propriété d’indifférence à l’interruption. Surtout dans le cadre de l’apprentissage par renforcement dont on parlera dans le prochain chapitre. Dans la suite de leur article, Armstrong et Orseau identifient certaines IA qui possèdent effectivement la propriété d’indifférence à l’interruption. Ces IA sont, en un sens, les IA myopes. Autrement dit, il s’agit des IA qui ne cherchent pas à apprendre les relations de cause à effet, lorsque la cause et l’effet sont distants dans le temps. En un sens, ces IA ne seront alors pas capables de planifications de stratégies à long terme, ce qui les empêchera de voir les coûts (ou les bénéfices) à être interrompues 5 . Malheureusement, notamment au vu de notre discussion dans le chapitre précédent, il semble bien trop contraignant d’exiger la myopie des IA. Pire, il pourrait s’agir d’une mauvaise idée, car ces IA myopes risquent d’être aveugles à des effets secondaires à long terme. En particulier, comme on le verra dans le prochain chapitre, elles risquent d’échouer à effectuer des explorations sûres 6 .
Boîte noire À défaut de pouvoir garantir l’indifférence à l’interruption des IA, on pourrait toutefois se demander s’il ne serait pas possible de comprendre et contrôler tous leurs calculs pour anticiper et empêcher leurs stratégies problématiques. Ne pourrait-on pas disséquer les IA et y déceler leurs intentions ? Les IA, après tout, ne sont-elles pas qu’un code que l’on peut littéralement lire ? Malheureusement, comprendre une IA à partir de son code est une tâche ô combien difficile, à l’instar de déduire les phénotypes d’un individu à partir de son information génétique. En particulier, les fameux réseaux de neurones artificiels, qui joueront probablement un rôle central dans les IA du futur comme c’est le cas des IA d’aujourd’hui, sont justement réputés pour leur manque de transparence. Il est extrêmement courant de considérer qu’il s’agit davantage de 4. Safely interruptible agents | L Orseau et S Armstrong (2016) 5. Safe Interruptibility Needs Off-Policy | ZettaBytes, EPFL | H Hendrikx (2018) 6. Notez toutefois que des solutions plus prometteuses ont été proposées, en s’appuyant notamment sur l’alignement des récompenses des IA. Voir : Enter the Matrix : Safely Interruptible Autonomous Systems via Virtualization | M Riedl & B Harrison (2017) Dans le cadre de notre feuille de route décrite dans le chapitre 11, cet ajustement des récompenses pour satisfaire l’interruptibilité (ou la corrigibilité) des IA sera assuré par Bob, dont on reparlera dans le chapitre 14.
144
CHAPITRE 8. PEUT-ON CONTRÔLER LES IA ?
boîtes noires, dont les calculs sont essentiellement impossibles à interpréter — il y aurait bien sûr des bémols à mettre à cela. Ce constat a motivé une direction de recherche sur l’interprétabilité des IA. Plusieurs pistes sont intéressantes. Elles peuvent grossièrement être décomposées en deux voies. D’un côté, certains cherchent à interpréter des IA existantes. De l’autre, on peut vouloir concevoir des IA de sorte qu’elles soient interprétables. Ce qui est intéressant avec la première voie, c’est qu’elle est finalement similaire au travail des neuroscientifiques. Il s’agit, après tout, de chercher à comprendre un système complexe et obscur. Pour ce faire, on peut étudier les réactions de ce système à l’exposition à différentes données ou contextes, mais aussi étudier le fonctionnement de composants du système lors de la prise de décision. Les neurosciences utiliseront typiquement l’imagerie par résonance magnétique 7 , tandis que les informaticiens étudieront directement les activations des neurones artificiels de leurs IA 8 . Malheureusement, à l’instar du cerveau, même si l’on peut raisonnablement s’attendre à énormément de progrès, il n’est pas dit que l’on parvienne ainsi à une compréhension satisfaisante des IA. En effet, cerveaux et IA sont des systèmes complexes. Et il ne semble pas improbable que cette complexité soit impossible à résumer correctement, disons, dans un traité de 500 pages. La complexité de Solomonoff 9 formalise cette intuition. Cette complexité mesure la compression optimale d’un objet d’étude. Par exemple, le cerveau humain possède environ 1014 synapses. Une description naïve de ces synapses correspond à des centaines de téraoctets. Cette description est très probablement compressible. Mais elle n’est probablement pas très compressible. Imaginons qu’on puisse la compresser d’un facteur 100. Ainsi la complexité de Solomonoff de la connectivité du cerveau humain serait de l’ordre du téraoctet. Sachant qu’un livre fait environ 1 mégaoctet, voilà qui correspondrait à des millions de livres ! Ainsi, l’interprétabilité du cerveau humain, et, de façon similaire, des IA, pourrait être fondamentalement inaccessible à nos cerveaux de primates. Dès lors, pour espérer disposer d’IA interprétables, il semble indispensable de les concevoir avec cet objectif. C’est d’ailleurs l’approche de ce livre. On cherchera à découper l’IA en modules aux tâches bien identifiées, tout comme les zones du langage ou des émotions du cerveau sont relativement séparées. En plus de permettre de mieux maîtriser les opérations des IA, cette approche devrait faciliter le travail de débogage des ingénieurs. L’interprétabilité des IA pourrait alors accélérer la recherche en IA. Cependant, il faut prêter attention à ne pas aller trop loin dans ce sens. Exiger trop d’interprétabilité risque de représenter un coût trop important pour la performance de l’IA. Après tout, les 7. Le neurone obsédé par Jennifer Aniston | Homo Fabulus | S Debove (2018) 8. Qu’est ce qu’un chat, bordel ? ! ? Science4All | LN Hoang (2018) 9. Celle-ci est aussi connue sous le nom de complexité de Kolmogorov. Historiquement, toutefois, l’informaticien Ray Solomonoff fut le premier à la proposer.
BOÎTE NOIRE
145
Figure 8.1. L’informaticienne Margaret Hamilton posant à côté du code source de l’ordinateur de bord de la mission Apollo 11 et dont elle a été la principale auteure. On imagine mal la vérification rapide de ce code par un humain. Pourtant ce n’est là « que » le code source d’une mission spatiale, et non celui d’une IA pouvant réaliser des tâches comparables à ce code et pouvant aller au-delà. Source : Draper Laboratory, photo restorée par Adam Cuerden, Wikipédia.
146
CHAPITRE 8. PEUT-ON CONTRÔLER LES IA ?
IA capables de détecter les chats ne sont pas nées de l’écriture d’algorithmes parfaitement interprétables. Elles ont été produites par du deep learning peu interprétable. Il semble en fait désirable de concevoir des IA de sorte que leur architecture soit globalement interprétable, tout en renonçant probablement à ce que tous les composants des IA le soient 10 .
Impossible à surveiller Il sera donc peut-être possible de comprendre partiellement le fonctionnement global des IA. Cependant, ceci ne suffit pas pour les contrôler. En effet, ces IA effectueront nécessairement une quantité astronomique de calculs. Il nous sera impossible de comprendre les détails de ces calculs. On peut considérer le cas d’AlphaZero pour illustrer cela. AlphaZero est un successeur d’AlphaGo, cette IA de DeepMind qui a triomphé des meilleurs joueurs de Go. Sauf que, contrairement à AlphaGo, AlphaZero ne connaissait pas les parties des maîtres de go. AlphaZero ne connaissait initialement que les règles du jeu. À partir de ces règles, elle a ensuite appliqué des règles de calcul pour simuler des parties de go et inférer les bonnes stratégies à ce jeu. Tous ces calculs d’AlphaZero sont simplistes, surtout pris un à un. Pourtant, in fine, AlphaZero s’est mise à effectuer des coups imprévisibles pour un humain. Oui, car si un individu était capable de prédire les actions d’AlphaZero, cet individu serait tout simplement le meilleur joueur de go au monde. Il semble ainsi délicat d’affirmer que l’on contrôle AlphaZero. Mais le manque de contrôle d’AlphaZero ne paraît pas préoccupant. AlphaZero semble très inoffensive. Cependant, cette intuition semble due à deux propriétés spécifiques à AlphaZero, que beaucoup d’IA n’ont pas. La première, c’est qu’AlphaZero n’a pas de connexion Internet. Elle ne peut pas envoyer des messages à tout va et à n’importe qui. La deuxième, surtout, c’est qu’AlphaZero envoie très peu de messages. On a alors le temps de lire, réagir et décortiquer chacun des messages d’AlphaZero. Et si jamais l’un de ces messages posait problème, on aurait largement le temps de s’en rendre compte et d’interrompre AlphaZero avant son prochain message — à l’instar de l’IA du film Ex Machina. Cependant, la plupart des IA d’aujourd’hui ne sont pas dans ce cas. Typiquement, ce qui rend le contrôle de l’IA de YouTube impossible, c’est qu’elle entreprend chaque jour des milliards d’actions. Rien que prendre connaissance de ces actions semble humainement impossible. Rendez-vous compte. Il faudrait probablement des siècles de travail pour uniquement prendre connaissance des actions de l’IA de YouTube pendant une journée ! Bien entendu, ceci n’a pas empêché les scientifiques de chercher à se faire une idée des actions caractéristiques de l’IA de YouTube. Par exemple, dans le cadre d’un 10. Retour sur AAAI 2019 (méga-conférence de recherche en IA) | LN Hoang & Alexandre Technoprog (2019)
IMPOSSIBLE À TESTER
147
projet fascinant intitulé AlgoTransparency 11 , l’informaticien Guillaume Chaslot propose d’étudier l’IA de recommandation de YouTube en ne cessant de cliquer sur l’une des vidéos suggérées 12 . Cependant, il faut bien voir qu’il ne s’agit là que d’un minuscule échantillon non représentatif de l’océan de recommandations faites par l’IA de YouTube, celles-ci dépendant des profils très spécifiques des utilisateurs. Pire encore, il se pourrait que cet océan soit globalement bénéfique, mais qu’une toute petite partie de cet océan contienne les germes de recommandations aux conséquences catastrophiques. Ce sur quoi nous souhaitons insister ici, ce n’est pas tant ce que YouTube fait en pratique. Ce que nous cherchons à souligner, c’est qu’une IA comme celle de YouTube d’aujourd’hui est déjà extrêmement difficile à surveiller. Et notez que la raison de cela n’est pas tant l’opacité du code source de l’IA. Le problème est l’échelle à laquelle agit cette IA. À cause de cela, même les ingénieurs de YouTube ont très certainement un mal fou à surveiller ce que fait leur IA. En fait, comprendre une IA comme celle de YouTube est devenu tout un champ de recherche 13 . L’IA de YouTube et ses effets secondaires sont si complexes qu’ils semblent même nécessiter eux-mêmes des IA pour être étudiés. En effet, une telle étude devra analyser la quantité monstrueuse de données générées par l’IA de YouTube, et identifier dans ces données massives quelques points importants. Seule une IA semble pouvoir surveiller une IA comme celle de YouTube 14 .
Impossible à tester Mais ce n’est pas tout. Dans le cadre d’un bouton d’arrêt, ce qui importe n’est pas tant le passé. Ce qui importe pour déterminer s’il faut interrompre l’IA, ce sont les actions que va entreprendre l’IA de YouTube à l’avenir. En effet, le rôle du bouton d’arrêt est surtout d’empêcher ces actions futures. Il ne peut pas annuler les actions passées. Certes, pour certaines IA et dans certains cadres, il sera possible pour un humain de prédire les conséquences (et effets secondaires) des actions futures de l’IA à partir des actions passées. Ce sera notamment le cas lorsque l’IA cesse d’apprendre une fois déployée, lorsque le cadre dans lequel elle est déployée ne change pas beaucoup et lorsque ce cadre d’application est similaire aux données d’entraînement de l’IA. En particulier, dans ces situations, qui correspondent toutefois à des cas d’application restreints, il sera alors possible et souhaitable de tester les IA avant leur mise en production. 11. algotransparency.org 12. Rendre YouTube bénéfique | Probablement | G Chaslot & LN Hoang (2019) 13. Science and medicine on YouTube | SIHIR | J Allgaier (2018) 14. Malheureusement, en gardant la quasi-totalité de ses données secrètes, YouTube semble freiner ce champ de recherche pourtant probablement utile au fabuleux chantier pour rendre l’IA robustement bénéfique. Il pourrait alors être souhaitable que YouTube rende certaines de ces données accessibles aux acteurs académiques.
148
CHAPITRE 8. PEUT-ON CONTRÔLER LES IA ?
Cependant, le cas des IA qui évoluent dans des contextes dynamiques et doivent en permanence s’y adapter est autrement plus complexe à anticiper et à tester. Typiquement, prédire les actions futures de l’IA de YouTube est une tâche incroyablement difficile. Non seulement cela dépend de l’IA de YouTube, mais cela dépend aussi des données que recevra cette IA, lesquelles dépendront des utilisateurs et créateurs de contenu. Or le comportement de ces utilisateurs et créateurs est lui-même extrêmement difficile à prévoir, ce qui rend toute prédiction sur les effets secondaires bénéfiques et néfastes de l’IA délicate 15 . Pire encore, il faut s’attendre à ce que toute modification de l’IA, par exemple en vue de la rendre davantage bénéfique, cause un changement de comportement des utilisateurs et créateurs. C’est déjà largement le cas sur YouTube, mais aussi sur Google et pour les filtres anti-spams. Les créateurs de contenus adaptent constamment leurs produits pour qu’ils soient davantage recommandés par les IA, et pour passer à travers les filtres anti-spams 16 . Si ces IA ont une vulnérabilités, ces créateurs de contenus finiront probablement par l’exploiter 17 . De telles IA ne pourront pas être testées. Ou plutôt, les tests de ces IA ne seront pas représentatifs des performances qu’auront ces IA une fois déployées. En effet, un test adéquat de ces IA nécessiterait une modélisation adéquate de tout l’environnement auquel ces IA seront confrontées. Quand cet environnement est aussi complexe que l’ensemble des utilisateurs et créateurs de YouTube, il semble illusoire d’espérer le modéliser de manière suffisamment précise. Voilà qui devrait grandement appeler à la modestie épistémique et à une grande prudence quand il nous faut anticiper les actions et les effets secondaires des IA.
Peut-on savoir si une IA est bénéfique ? Il y a une raison plus simple pour laquelle un bouton d’arrêt ne semble pas garantir que l’IA de YouTube demeurera globalement bénéfique : il semble extrêmement difficile de déterminer si l’IA de YouTube est globalement bénéfique. Il se pourrait ainsi qu’une IA soit en fait globalement néfaste, mais que, parce qu’on n’arrive pas à le déterminer, on ne choisit pas de l’interrompre. Du reste, juger des apports bénéfiques et néfastes d’une IA ne suffit en fait pas pour déterminer s’il est souhaitable de l’interrompre. En effet, la question adéquate est davantage de déterminer si l’interruption d’une IA est davantage souhaitable que sa non-interruption. Or cette interruption peut elle-même avoir des effets secondaires très néfastes. L’exemple le plus évident serait le cas d’une voiture autonome sur une autoroute dense mais fluide. Imaginons que vous ayez rentré la mauvaise destination et que, pour une étrange raison, la voiture autonome refuse de changer de destination. 15. Dans le jargon, on parle de décalage distributionnel, ou distributional shift en anglais. 16. My Video Went Viral. Here’s Why | Veritasium | D Muller (2019) 17. Hacker l’IA | Science4All | EM El Mhamdi & LN Hoang (2018)
PEUT-ON SAVOIR SI UNE IA EST BÉNÉFIQUE ?
149
Mécontent, vous décidez d’interrompre soudainement votre voiture autonome. Celle-ci risquerait de causer au moins un énorme embouteillage, voire un accident potentiellement tragique. L’interruption sécurisée de systèmes complexes peut être un problème en soi ! Un exemple plus concret est celui des systèmes écrits en COBOL. Ce langage de programmation, qui date de 1959, fait encore tourner une grande partie du système bancaire mondial 18 . Près de 80 % des transactions personnelles et 95 % des opérations sur guichet automatique aux États-Unis dépendent d’un code informatique écrit en COBOL 19 . Cependant, la communauté des développeurs capables de maintenir des programmes en COBOL est en train de littéralement disparaître. De nombreuses perles rares ont en effet autour de 75 ans 20 . Malgré les intérêts économiques majeurs à moderniser les programmes en COBOL, le système bancaire paraît paralysé par la crainte justifiée des effets secondaires d’une interruption mal maîtrisée d’un code qui fait tourner trois mille milliards de dollars par jour dans l’économie mondiale. En 2012, la Commonwealth Bank of Australia a fini par se lancer dans la modernisation de sa structure algorithmique. L’opération a coûté 750 millions de dollars, soit l’équivalent des bénéfices d’un mois complet pour la même banque 21 . On comprend bien pourquoi les managers rechignent à faire des transitions de ce type et pourquoi certains experts vont même jusqu’à conseiller aux jeunes de se mettre au COBOL, à qui ils promettent un bel avenir 22 . Nos sociétés sont souvent devenues très dépendantes du bon fonctionnement d’IA, que ce soit dans le domaine de la finance, des assurances, d’Internet, des médias, de la santé, de l’énergie ou des affaires. Toute interruption de ces IA semble présenter des risques majeurs d’effets secondaires indésirables. Typiquement, un arrêt, même annoncé, des IA de la finance aurait nécessairement des effets secondaires majeurs sur toute l’économie mondiale, et sur le bien-être de toutes les populations à travers le monde. L’interruption pourrait avoir un coût si énorme que, même si ces IA ne sont pas globalement bénéfiques, il peut être désirable de ne pas les interrompre. En particulier, la présence d’un bouton d’arrêt ne serait pas une garantie d’absence d’IA néfastes.
18. How COBOL Still Powers The Global Economy At 60 Years Old | TheNextWeb.com | Paul Plahive (2019) 19. Ancient programming language Cobol can make you bank, literally | TheNextWeb | Másson Maack (2017) 20. Banks scramble to fix old systems as IT ’cowboys’ ride into sunset | Reuters | Anna Irrera (2017) 21. Cette banque fait environ 9 milliards de dollars de bénéfices nets annuels. 22. COBOL : completely obsolete omnipresent language | DevOps.com | Bertrand Besnard (2014)
150
CHAPITRE 8. PEUT-ON CONTRÔLER LES IA ?
Quel humain en charge ? On en vient enfin à la raison principale pour laquelle un bouton d’arrêt serait probablement inefficace. « Nous resterons toujours au contrôle », affirme Christopher Bishop. Mais qui est ce « nous » ? Serez-vous au contrôle ? Le peuple le sera-t-il ? Les concepteurs de l’IA le seront-ils ? Ou le contrôle sera-t-il restreint à une poignée d’individus ? Ou à un individu ? Pensez à un politicien que vous détestez. Cela vous rassurerait-il qu’il soit au contrôle des IA ? Ces questions ne sont d’ailleurs pas restreintes au contrôle des IA. Quand un groupe décide collectivement, celui-ci sera souvent divisé par les divergences entre les individus du groupe. Toute décision collective nécessite souvent des compromis, surtout si beaucoup d’individus sont concernés par la décision. On parle du problème du choix social. Ce problème fascinant a été étudié sous de nombreux angles, allant des mathématiques à la psychologie en passant par l’économie. Étrangement, chaque angle a apporté son lot de mauvaises nouvelles. Les mathématiciens ont prouvé des théorèmes d’impossibilité 23 , l’économie a montré le rôle prépondérant des incentives 24 et la psychologie expérimentale a mis en évidence la polarisation de groupe 25 . Décider ensemble est une tâche très difficile, qui conduit malheureusement souvent à de nombreux mécontents. Pire, dans le cas de l’interruption des IA, il peut y avoir urgence à prendre une décision. Or, les prises de décision collectives sont d’autant plus lentes que le nombre d’individus impliqués dans la prise de décision est grand. L’approche délibérative, qui consiste à faire débattre et à donner la parole à chacun, semble malheureusement très inadaptée à l’urgence potentielle à interrompre une IA. Un scruting peut paraître plus opportun. Mais la prise de décision collective via un scrutin, dans l’urgence et la précipitation, sera-t-elle bien informée 26 ? Les IA sont des systèmes complexes, qui évoluent désormais au sein d’écosystèmes difficilement compréhensibles, y compris pour des humains compétents 27 . Il pourrait alors paraître davantage souhaitable de restreindre le contrôle des IA à une petite communauté. Cependant, même si cette communauté est bienveillante, sachant le pouvoir dont cette communauté disposerait, de nombreuses entités risquent de chercher à influencer cette communauté, que ce soit à travers le lobbying, le shaming ou d’autres méthodes plus illégales.
23. 24. 25. 26. 27.
3 théorèmes anti-démocratiques (et la lotocratie) | Science4All | LN Hoang (2017) Haïssez le jeu. Pas les joueurs | Science4All | LN Hoang (2017) Êtes-vous un hooligan politique ? Science4All | LN Hoang (2017) Rationnellement irrationnels | Science4All | LN Hoang (2017) 7 arguments CONTRE la démocratie | Science4All | LN Hoang (2017)
L’EXPÉRIENCE DE PENSÉE DE LA MÉTÉORITE
151
L’expérience de pensée de la météorite Lors de la rencontre Beneficial AGI 2019, un débat portait justement sur le contrôle de l’IA. Un de nous avait alors proposé une expérience de pensée où la Terre serait menacée par une arrivée imminente d’une météorite 28 . Imaginons qu’on parvienne à avoir une IA qui surpasse l’humain dans le calcul des trajectoires de météorites et dans celui de la manière de dévier une telle météorite 29 . L’IA doit-elle nécessiter l’approbation d’un humain pour décider de la manière de dévier un météorite qu’elle a détecté ? Certes, il est désirable de s’assurer que l’IA poursuit bien l’objectif qui lui a été assigné, et que ses calculs sont valides. Cependant, dans ce cas, il peut en fait être dangereux d’obliger l’IA à attendre l’approbation d’un humain avant d’agir. Considérons en particulier le cas où le temps disponible pour agir est inférieur au temps nécessaire pour que des humains valident les calculs de l’IA. Concrètement, imaginez que le calculs de l’IA représentent 3 millions de pages d’équations mathématiques. Pour l’IA, ce calcul a été possible en une minute. Elle a conclu qu’il reste deux jours avant qu’il ne soit trop tard. Malheureusement, plusieurs mois seront alors nécessaires aux humains les plus qualifiés pour vérifier les calculs de l’IA. Dès lors, vu l’urgence de la situation, il serait clairement déraisonnable d’attendre les conclusions d’un comité d’experts humains. En particulier, il semble y avoir de nombreux cas où il serait dangereux de vouloir contrôler l’IA en aval. Dans ces cas, il semble crucial de s’assurer en amont que l’objectif que l’IA cherchera à atteindre est bien celui souhaité par les humains, et que l’IA atteindra robustement cet objectif. L’IA doit être éthique par conception. On parle aussi d’ethics by design 30 . Voilà un défi monumental.
L’humain est une faille On peut même aller plus loin. La possibilité pour un humain d’arrêter une IA peut même sembler effrayante. Typiquement, dans le cas de la voiture autonome sur une autoroute dense mais fluide, l’interruption d’une voiture par un humain peut être dangereuse. Or l’humain boit, fume, s’énerve, fatigue et dort. L’humain perd souvent sa concentration et sa vigilance. L’humain est faillible. Et il est difficile d’exclure le risque que l’un d’eux se mette soudain à interrompre une voiture par accident. Mais ce n’est pas tout. Si une IA est très influente, comme l’IA de YouTube, alors il faut s’attendre à ce que beaucoup de gens cherchent à influencer cette IA à leur profit. Et plus les intérêts politiques ou économiques sont importants, 28. Who Or What Should Be In Control of Artificial General Intelligence ? | G. Dempsey, E.M. El Mhamdi, D. Sadigh, M. Chita-Tegmark | Future of Life Institute (2019) 29. Même si la probabilité d’un tel événement est petite, ses conséquences peuvent être dévastatrices. 30. « L’attention est le nouveau pétrole » | Usbek & Rica | LN Hoang & P Maillé (2019)
152
CHAPITRE 8. PEUT-ON CONTRÔLER LES IA ?
plus le contrôle de l’IA sera convoité. En particulier, on peut alors craindre que les ingénieurs capables de modifier l’IA subissent des pots de vin, du chantage, des menaces sur leur intégrité physique, voire sur celle de leurs proches. Le fait que ces ingénieurs humains soient capables d’interrompre ou de modifier l’IA pourrait alors représenter une potentielle faille de sécurité 31 . Pire encore, des IA capables de planification de niveau humain pourraient exploiter elles-mêmes la séduction, le chantage ou la menace pour forcer des ingénieurs à, par exemple, leur céder des droits d’accès. En particulier, de nos jours, ces manipulations ne semblent pas nécessiter de présence physique. Comme le scénarise l’épisode Shut Up And Dance de la série Black Mirror, une simple connexion Internet suffit à forcer certains à commettre des actes atroces. Vu la vulnérabilité des humains, la sécurité informatique a fini par considérer que l’humain est généralement, et de loin, la principale faille de sécurité. En effet, les principales attaques de ces systèmes reposent sur l’ingénierie sociale, c’est-àdire sur les vulnérabilités humaines. Typiquement, les failles informatiques sont souvent dues à des mots de passe mal sécurisés (comme « 123456 ») ou à des attaques par phishing 32 . Ces dernières cherchent à faire révéler un mot de passe, typiquement en envoyant des e-mails qui ressemblent à ceux de Google. Comme l’affirme souvent Yuval Noah Harari, « l’humain peut être hacké ». Dans ces domaines, pour maximiser les garanties de sécurité, on considère souvent qu’il est souhaitable de limiter les capacités d’intervention des humains. Après tout, il serait catastrophique qu’à la suite d’une erreur, un ingénieur rende publics tous les codes bancaires de tous les clients d’une banque. De la même manière, et de façon très contre-intuitive, il semble que la robustesse des IA très influentes requiert la quasi-impossibilité pour tout humain de la modifier 33 . De façon générale, il semble erroné de penser que toute intervention humaine contribuera nécessairement à rendre l’IA davantage bénéfique, surtout si ces humains sont mal informés, manipulables ou mal intentionnés. En fait, l’IA doit parvenir à être bénéfique malgré les humains. Autrement dit, pour être robustement bénéfiques, il semble que les IA pourraient devoir être incontrôlables par les humains. Ou du moins, disons, difficilement contrôlables par tout petit groupe d’humains. Cette conclusion très contre-intuitive a de quoi heurter le sens commun. Comme souvent dans ce livre, nous vous supplions de ne pas la tourner en dérision. Nous vous invitons à critiquer cette conclusion avec bienveillance, modestie et rigueur. Mais surtout, si vous comptez défendre cette conclusion, nous vous prions de le faire avec un maximum de pédagogie, de clarté et de nuance. Une 31. Security | xkcd | R Munroe 32. Je pirate le Facebook sécurisé de mon frère ! Micode (2018) 33. Notez toutefois qu’il existe des protocoles de cryptographie à base de secret réparti qui exigent, par exemple, qu’au moins 1000 individus certifiés affirment leur volonté d’arrêter l’IA pour que l’IA soit effectivement interrompue. De tels protocoles pourraient être d’une grande utilité.
AUTOMATISER LA SÉCURITÉ
153
mauvaise communication de cette idée aurait certainement des effets secondaires indésirables sur le fabuleux chantier pour rendre les IA bénéfiques.
Automatiser la sécurité De façon sans doute moins controversée, les réflexions de ce chapitre nous amènent surtout à la conclusion qu’il serait irresponsable de considérer que toute IA devrait être autorisée à être déployée, pourvu qu’elle dispose d’un bouton d’arrêt. Le bouton d’arrêt ne suffit pas. Pire, il peut finir par être un danger. De façon plus générale, il est fréquent que, dans le but de rendre les IA bénéfiques, une liste de conditions sur le développement des IA soit dressée. Ces listes sont d’une grande utilité pour mieux cerner les risques potentiels. Cependant, il n’est pas toujours clair que les conditions identifiées sont nécessaires pour rendre les IA bénéfiques. Mais surtout, il est souvent illusoire d’espérer dresser une liste de conditions qui soit suffisante. Après tout, ces listes sont souvent le fruit de réflexions d’humains, dont les capacités limitées seront probablement incapables d’anticiper tous les scénarios problématiques imaginables et toutes les solutions techniques potentielles — à moins de prouver des théorèmes dont les hypothèses sont très crédibles. Néanmoins, ces approches soulèvent l’importance d’envisager les risques plausibles des IA en amont de la mise en production. L’IA doit être éthique by design. Pour cela, il semble indispensable de réfléchir à l’architecture globale des IA, pour mieux anticiper les failles potentielles. C’est ce que proposera la suite du livre. Mais avant de poursuivre la lecture, nous vous invitons à méditer les réflexions de ce chapitre. Vous a-t-on convaincu des déficiences du bouton d’arrêt ? Les IA d’aujourd’hui vous semblent-elles contrôlables ? Que pourrait-on faire pour rendre ces IA davantage contrôlables ? Peut-on rendre les IA auditables ? Peuton surveiller les actions des IA ? Peut-on juger les effets secondaires des IA ? Et que faire des tâches où l’IA surpasse l’humain, comme le diagnostic de certaines maladies ? Tester ces IA suffit-il ? Comment tester des IA qui interagiront avec des environnements complexes ? Comment déterminer si elles seront alors globalement bénéfiques ? Peut-on alors s’assurer qu’elles seront robustement bénéfiques ? Comment pourra-t-on s’en assurer ? Nous vous invitons en particulier à partager vos réflexions avec d’autres, et à estimer comment ces réflexions affectent votre estimation de l’urgence à ce que toutes sortes de talents soient mis dans les meilleures dispositions pour contribuer à rendre les IA robustement bénéfiques.
154
CHAPITRE 8. PEUT-ON CONTRÔLER LES IA ?
Références Super intelligence : le grand défi de l’humanité | Dunod | N Bostrom (2017) Safely interruptible agents | L Orseau & S Armstrong (2016) Dynamic Safe Interruptibility for Decentralized Multi-Agent Reinforcement Learning | NeurIPS | EM El Mhamdi, R Guerraoui, H Hendrikx & A Maurer (2017) The off-switch game | AAAI | D Hadfield-Menell, A Dragan, P Abbeel & S Russell (2017) Enter the Matrix : Safely Interruptible Autonomous Systems via Virtualization | M Riedl & B Harrison (2017) Towards a rigorous science of interpretable machine learning | F Doshi-Velez & B Kim (2017) Experimental evidence of massive-scale emotional contagion through social networks | PNAS | A Kramer, J Guillory & J Hancock (2014) Science and medicine on YouTube | SIHIR | J Allgaier (2018) Security | xkcd | R Munroe « L’attention est le nouveau pétrole » | Usbek & Rica | LN Hoang & P Maillé (2019) Deadly Truth of General AI ? | Computerphile | R Miles (2015) AI “Stop Button” Problem | Computerphile | R Miles (2017) My Video Went Viral. Here’s Why | Veritasium | D Muller (2019) Le neurone obsédé par Jennifer Aniston | Homo Fabulus | S Debove (2018) Retour sur AAAI 2019 (méga-conférence de recherche en IA) | LN Hoang & Alexandre Technoprog (2019) Who Or What Should Be In Control of Artificial General Intelligence ? Future of Life Institute | G Dempsey, EM El Mhamdi, D Sadigh & M ChitaTegmark (2019) Je pirate le Facebook sécurisé de mon frère ! Micode (2018) Artificial Intelligence with Rob Miles (playlist) | Computerphile | S Riley (2016) Machine Learning (playlist) | ZettaBytes, EPFL (2016) La démocratie sous l’angle de la théorie des jeux (playlist) | Science4All | LN Hoang (2017) Rendre YouTube | Probablement | G Chaslot & LN Hoang (2019)
La plupart des gens de l’IA, surtout les jeunes, pensent désormais que si vous voulez un système avec beaucoup de savoir, un savoir qui consiste en des millions de bits, la seule façon de concevoir un bon système est à travers l’apprentissage. Vous ne pourrez pas l’écrire à la main. Geoffrey Hinton (1947-) Résoudre le problème de la programmation des valeurs de l’IA est un défi de recherche digne des plus grands talents mathématiques de la prochaine génération. Nick Bostrom (1973-)
9
La programmation des IA
Le machine learning de Turing En 1950, le mathématicien Alan Turing publie un article révolutionnaire, intitulé Computing Machinery and Intelligence. Turing ouvre l’article sur une question fascinante : « les machines peuvent-elles penser ? » Cette question avait fait couler pas mal d’encre jusque-là. Elle en fera couler encore plus ensuite. Cependant, ce n’est pas cette question qui va nous intéresser. On va davantage s’arrêter sur la section 7 du merveilleux article de Turing, trop souvent négligée par la littérature. Car dans cette section 7, Turing se pose une question possiblement plus fascinante encore. Turing se demande alors comment concevoir des IA performantes, capables par exemple d’avoir une longue discussion naturelle avec des humains. Dans l’idéal, cette discussion devrait être si naturelle que les humains seraient incapables de discerner leur interlocuteur mécanique d’un interlocuteur humain. Cette tâche, que Turing appela le jeu de l’imitation, est désormais mieux connu sous le nom de test de Turing 1 . La remarque fondamentale de Turing est que le code de toute IA capable de telles prouesses sera très probablement très sophistiqué. En particulier, Turing postule qu’aucun code source de seulement quelques milliers de lignes de code n’y parviendrait. Mais alors, en nombre de lignes de codes, quelle serait la longueur nécessaire pour passer le test de Turing ? Cette question est fascinante. Elle revient à se poser des questions sur les fon1.
Le test de Turing | Science4All | H Felis & LN Hoang (2017)
156
CHAPITRE 9. LA PROGRAMMATION DES IA
dements de l’algorithmique. Elle a d’ailleurs été formalisée par Solomonoff en 1960, puis de manière indépendante par Kolmogorov en 1964. On l’appelle désormais complexité de Solomonoff 2 . Il s’agit de la taille du code algorithmique le plus succinct capable de réaliser une tâche donnée 3 . Turing s’aventure alors à estimer la complexité de Solomonoff du test de Turing. Quelle est la taille du plus court code capable de passer le test de Turing ? Turing fait alors la remarque qu’il existe des machines capables de cette prouesse : les cerveaux humains. Après tout, qui de mieux qu’un humain pour être indiscernable d’un humain ? Turing en déduit que la complexité de Solomonoff du test de Turing est au plus la complexité d’un cerveau humain. En 1950, les neuroscientifiques estimaient alors que le cerveau humain possédait entre 1011 et 1015 synapses — aujourd’hui, ils estiment qu’il y en a entre 1014 et 5 · 1014 . Turing postule ensuite que ce cerveau humain utilise assez bien ses ressources. Par cela, il entend qu’une proportion non négligeable du cerveau, disons au moins un centième, est nécessaire pour tenir une discussion. Après tout, il nous est difficile de tenir une discussion intéressante en faisant autre chose. Et impossible de tenir deux discussions intéressantes en parallèle. Voilà qui amène Turing a conclure que la complexité de Solomonoff du test de Turing est probablement supérieure à 109 . Autrement dit, toute application dont la taille est inférieure au gigaoctet échouerait nécessairement au test de Turing 4 . Cependant, écrire des codes informatiques est une tâche herculéenne. Surtout que nos codes sont rarement écrits de manière très concise. En fait, Turing estime que, même en étant optimiste, des décennies de travail d’équipe semblent nécessaires pour simplement écrire ce code, y compris en admettant que l’équipe en question soit composée des meilleurs programmeurs de la planète. Cependant, avant d’écrire ce code, encore faut-il parvenir à le penser adéquatement. Voilà qui, lorsqu’il s’agit de programmer des milliards de lignes de codes, semble désespéré... Dès lors, selon Turing, l’écriture du code d’une IA capable de passer le test de Turing ne sera probablement pas à la portée des humains ; seules des machines pourront concevoir un tel code. Cette remarque de Turing ne semble d’ailleurs pas spécifique à la programmation des IA. En effet, l’écriture de traités complets de biologie, de textes de loi qui traitent de tous les cas légaux imaginables, ou d’une philosophie morale conforme aux valeurs humaines, pourrait bien être humainement impossible pour des raisons similaires. La complexité de ces textes pourrait excéder ce qu’un humain, ou groupe d’humains, est capable d’écrire. En particulier, comme on en reparlera dans le chapitre 16, les axiomes adéquats de la philosophie morale pourraient être trop complexes pour être contenus dans un livre de 500 pages — à l’instar de ce livre que nous aurions aimé être bien plus court. 2. On l’appelle aussi parfois complexité algorithmique ou complexité de Kolmogorov. 3. Ou plus précisément, de calculer l’une des fonctions d’un ensemble de fonctions donné. 4. Au vu des connaissances actuelles, il semble raisonnable d’estimer que cette complexité nécessaire est probablement plutôt de l’ordre de 1010 à 1014 .
SUPERVISÉ VERSUS NON SUPERVISÉ
157
En fait, plutôt qu’un algorithme qui écrit le code d’une IA, Turing imagine davantage des machines capables de réécrire et d’améliorer leurs propres codes, en s’appuyant typiquement sur des données d’apprentissage. Turing invente ainsi les learning machines, ou ce qu’on appellera plus tard le machine learning ou apprentissage-machine. À l’instar des enfants, ces machines seront capables de faire évoluer l’état de leur connaissance, en analysant ce qu’elles observent. Et de façon cruciale, selon Turing, cette approche de la conception des IA finira par être inévitable, car il y a des limites algorithmiques fondamentales à ce que des humains auront le temps de programmer à la main. La dernière décennie semble lui avoir donné raison de manière stupéfiante — et, étrangement, inattendue par beaucoup d’experts en IA 5 . Dans ce livre, nous avalerons l’argument de Turing et accepterons les conclusions de ses prémisses. Nous supposerons que, à l’instar des IA du présent, les IA du futur reposeront fortement sur du machine learning. Voilà qui, comme on l’a déjà vu et comme on le verra, a des conséquences majeures sur les solutions techniques envisageables pour rendre ces IA robustement bénéfiques.
Supervisé versus non supervisé Pour mieux comprendre les difficultés à rendre les IA robustement bénéfiques, il va toutefois nous falloir aller un peu plus loin dans la compréhension du machine learning. En particulier, il va nous être utile de distinguer trois formes d’apprentissage : supervisé, non supervisé et par renforcement. Tous trois ont d’ailleurs été grossièrement esquissés dans l’article de Turing. Commençons par l’apprentissage supervisé. Il s’agit, en gros, de l’apprentissage scolaire. En effet, d’une certaine manière, dans ce cadre, on fournit à l’IA des tonnes d’exercices à résoudre. Et de façon cruciale, on lui fournit également les solutions à ces exercices. L’IA peut alors apprendre ces solutions, mais aussi généraliser le cas particulier des exercices corrigés aux exercices similaires. Cette approche simpliste se trouve être remarquablement efficace. En fait, la grande majorité des succès pratiques du machine learning d’aujourd’hui reposent sur de l’apprentissage supervisé, de la reconnaissance d’images aux prédictions de remboursements de prêt. Cependant, l’apprentissage supervisé est limité en pratique par la nécessité de fournir des corrigés à un très grand nombre d’exercices. Dans le jargon, on parle d’étiquetage des données. Or, pour atteindre des performances de niveau humain, il arrive souvent que des millions, voire des milliards de données étiquetées soient nécessaires. Étiqueter ces données représente un coût en travail humain énorme. Par ailleurs, surtout dans des cas complexes, on peut se demander si l’étiquetage choisi par l’humain est le « bon » étiquetage 6 . 5. 6.
Le machine learning de Turing | Science4All | LN Hoang (2018) La mémoire ne suffit pas | Science4All | LN Hoang (2018)
158
CHAPITRE 9. LA PROGRAMMATION DES IA
Pour apprendre des données non étiquetées, les chercheurs en IA se sont tournés vers l’apprentissage dit non supervisé. L’idée, intuitivement, c’est qu’à force de voir, disons, des images d’animaux, l’IA finira par comprendre d’elle-même que l’ensemble de ces images d’animaux peut être naturellement divisé en plusieurs catégories. Certains pourraient ainsi être regroupés sous l’appellation de chats. D’autres sous l’appellation de chiens. L’IA aura alors appris à bien réfléchir aux images d’animaux, malgré l’absence de directives. Et en effet, de manière surprenante, en 2012, une IA de Google exposée aux vignettes YouTube a fini par apprendre le concept de chat 7 ! L’apprentissage non supervisé est parfois critiqué, car son objectif n’est pas clair. En particulier, il semble dès lors difficile de juger de la performance d’un algorithme d’apprentissage non supervisé, et de la comparer à celle d’un autre algorithme. Certains vont viser la réduction de la dimensionnalité 8 . D’autres essaieront d’identifier des partitions des données. Certains, enfin, se lanceront dans de la compression de données, avec ou sans perte. Une autre approche encore est appelée le bayésianisme 9 . De façon grossière, le bayésianisme cherche à identifier et calculer la crédence de théories T capables de générer les données D collectées. Et pour y parvenir, il effectue tout simplement le calcul de la formule de Bayes 10 ci-dessous :
P[T |D] =
P[D|T ]P[T ] X . P[D|T ]P[T ] + P[D|A]P[A] A6=T
Malheureusement, notamment dans le cadre introduit par Solomonoff, cette équation ne peut pas être calculée en temps raisonnable par nos cerveaux et nos machines aux puissances limitées. Cependant, de nombreux chercheurs se sont tournés vers de nombreuses approximations de la formule de Bayes, comme l’inférence bayésienne variationnelle, l’échantillonnage par Markov Chain Monte Carlo ou les fameux réseaux adversariaux génératifs (GAN) 11 .
Apprentissage par renforcement Pour résumer, l’apprentissage supervisé permet aux IA de généraliser des étiquetages d’exemples, mais il est limité par notre capacité à étiqueter ces exemples. L’apprentissage non supervisé, lui, permet de mieux comprendre les données, 7. Plus précisément, il s’agissait d’un réseau de neurones. Et l’un des neurones de l’IA s’activait, en gros, si et seulement si l’IA était exposée à une image de chat. Voir : Qu’est-ce qu’un chat, bordel ? ! ? Science4All | LN Hoang (2018) 8. La réduction de la dimensionnalité (ACP et SVD) | Science4All | LN Hoang (2018) 9. Le bayésianisme peut d’ailleurs aussi s’appliquer au cas de l’apprentissage supervisé. 10. La formule du savoir : une philosophie unifiée du savoir fondée sur le théorème de Bayes | EDP Sciences | LN Hoang (2018) 11. Les réseaux adversariaux (GAN) | Science4All | LN Hoang (2018)
APPRENTISSAGE PAR RENFORCEMENT
159
mais ne nous dit pas que faire avec ces données. En particulier, aucun de ces deux formalismes ne semble adapté à la planification et à la prise de décision, surtout si l’on considère des environnements dynamiques où l’expertise humaine d’étiquetage est limitée. C’est là qu’intervient l’apprentissage par renforcement 12 . Il semble s’agir du cadre de machine learning idéal pour la planification et la prise de décision 13 . Les principes de l’apprentissage par renforcement sont inspirés de la biologie, et en particulier de travaux de chercheurs comme Pavlov ou Skinner. L’observation de ces chercheurs fut qu’il est possible d’apprendre à des animaux des comportements, en jouant sur les récompenses et punitions qu’ils recevront. De façon contre-intuitive, ce principe très simple peut conduire à l’apprentissage de prouesses impressionnantes, où les récompenses sont remplacées par des scores élevés. Les cas les plus spectaculaires, et les plus médiatisés, sont sans doute les succès des IA de Google DeepMind à toutes sortes de jeux vidéos et de jeux de plateau. Il semble que la motivation d’une récompense 14 suffise à forcer une IA à comprendre en profondeur son environnement, et à planifier des stratégies étonnamment sophistiquées. Il est d’ailleurs bon d’insister à nouveau sur cet aspect contre-intuitif. Les experts en IA n’ont cessé d’être stupéfaits par les performances des IA par renforcement de DeepMind. Mais DeepMind ne s’est pas restreint aux jeux. En 2018, DeepMind a conçu AlphaFold 15 . Cette IA a explosé l’état de l’art dans la prédiction de la structure spatiale d’une protéine à partir des acides aminés qui la composent. Cette avancée spectaculaire pourrait avoir des applications remarquables en biologie moléculaire, mais aussi et surtout dans le domaine médical. Détaillons. Les outils de la biologie moléculaire permettent désormais de séquencer l’information génétique de n’importe quel individu. Par ailleurs, on comprend relativement bien comment cette information génétique est utilisée pour concevoir des protéines. Mieux, les acides aminés qui composent la protéine correspondront à la séquence génétique qui code pour cette protéine. On est donc souvent capables de déterminer la séquence d’acides aminés qui compose la protéine. Cependant, notamment dans un cadre médical, ce qui nous intéresse davantage est souvent la fonction de cette protéine. Or cette fonction dépend essentiellement de la configuration spatiale de cette protéine. Certes, cette configuration spatiale se déduit de la séquence de la protéine, puisqu’il s’agit de la configuration qui minimise une certaine forme d’énergie. Cependant, déterminer la configuration spatiale qui minimise l’énergie est difficile 16 . Pendant longtemps, les machines étaient très inférieures aux 12. La morale des IA d’aujourd’hui | Science4All | LN Hoang (2018) 13. Notez qu’une décision d’une IA est le calcul de l’information à émettre, comme recommander telle vidéo plutôt que telle autre vidéo. 14. Dans le cas d’AlphaGo, une grande récompense est une probabilité de victoire élevée. 15. AlphaFold : Using AI for scientific discovery | DeepMind | A Senior, J Jumper & D Hassabis (2018) 16. Pour certaines versions de ce problème, il s’agit d’un problème NP-complet.
160
CHAPITRE 9. LA PROGRAMMATION DES IA
humains pour cette tâche — et les humains n’excellaient pas particulièrement. En s’appuyant sur un apprentissage par renforcement radicalement différent des approches proposées jusque-là 17 , AlphaFold a bouleversé la donne 18 . Ce succès et d’autres, notamment du côté des voitures autonomes, suggèrent que les IA du futur apprendront probablement par renforcement elles aussi. Telle est l’hypothèse fondamentale sur laquelle s’appuiera le reste du livre. Thèse 8. Les IA les plus puissantes d’aujourd’hui et de demain répondent au moins approximativement aux principes de l’apprentissage par renforcement. Les chapitres 10 à 14 s’appuieront fortement sur cette hypothèse. C’est du moins à de telles IA que les pistes de solutions proposées s’appliquent. Malheureusement, du coup, si les IA du futur reposent sur des principes très différents de l’apprentissage par renforcement, alors une bonne partie des réflexions à venir seront probablement un peu à côté de la plaque. Néanmoins, même dans ce cas, il pourrait demeurer possible que certaines des remarques de la suite du livre gardent de leur pertinence.
Incertitudes et facteurs d’escompte Une IA apprenant par renforcement est donc, en première approximation, une IA qui maximisera ses récompenses, et minimisera ses punitions. Cependant, cette description est encore trop approximative. Pour mieux cerner le fabuleux chantier pour rendre les IA bénéfiques, il nous sera utile de plonger davantage dans les détails de leur fonctionnement. Malheureusement, ceci va nous contraindre à introduire un langage plus technique dans cette section. Pour commencer, on peut ramener la tâche de l’IA à uniquement une maximisation des récompenses. Pour cela, il suffit de considérer qu’une punition est une récompense négative. C’est pourquoi, dorénavant, nous ne parlerons plus de punition. Il s’agira uniquement de maximisation des récompenses. Cependant, il faut bien voir que, dans le cadre de la prise de décision d’une IA par renforcement, seules les récompenses futures importent. En effet, les récompenses passées ont déjà été données. Elles ne peuvent plus être modifiées 19 . Du coup, cette IA ne cherchera qu’à maximiser les récompenses futures. Et plus précisément, elle essaiera de prendre la décision qui maximise la somme de toutes ses récompenses futures. Un corollaire important de ce constat est que les récompenses attribuées par le 17. La réaction de la communauté qui travaillait sur ce problème avant la venue de DeepMind est particulièrement intéressante : AlphaFold @ CASP13 : “What just happened” | M AlQuraishi (2018) 18. Out of the lab | DeepMind : The Podcast | H Fry (2019) 19. D’ailleurs, toute modification future d’une récompense passée serait équivalente à l’attribution d’une récompense (ou punition) future sans modification de la récompense passée.
INCERTITUDES ET FACTEURS D’ESCOMPTE
161
passé ne doivent pas être vues comme des récompenses. D’une certaine manière, dès qu’elle reçoit sa récompense, l’IA devient en fait indifférente à cette récompense. Elle s’intéressera immédiatement aux récompenses futures. En fait, si les récompenses passées importent, ce n’est pas parce qu’elles augmentent le score total de l’IA. C’est parce qu’elles affectent l’apprentissage de l’IA, et modifient ainsi ce que l’IA anticipe vis-à-vis des récompenses futures. Si l’on punit l’IA, ce n’est pas parce qu’elle a mal agi ; c’est pour qu’elle évite de mal agir 20 . Voilà qui nous amène à un autre point plus important encore. Les récompenses futures sont inconnues de l’IA. Elle ne peut qu’essayer d’extrapoler les récompenses futures probables, étant donné ses récompenses passées, l’état de son environnement et les actions qu’elle compte entreprendre. Mais il restera une incertitude importante quant à la valeur de ces récompenses futures. L’IA doit en fait raisonner dans l’incertitude. Elle doit éviter des cas catastrophiques, même si ces cas sont peu probables. Mais elle doit aussi se concentrer sur les cas les plus probables. Elle doit faire une analyse coût-bénéfice. En théorie de la décision, et en pratique en apprentissage par renforcement, ce problème de la décision sous incertitude est résolu par la maximisation de l’espérance des récompenses futures, c’est-à-dire leurs valeurs moyennes quand on considère un échantillon représentatif de scénarios futurs probables 21 . En pratique, ce n’est en fait pas toujours cela qui est implémenté. Il y a une bonne raison à cela. La somme des espérances de toutes les futures récompenses est une somme d’une infinité de termes. Elle sera probablement divergente, c’està-dire égale à plus l’infini ou à moins l’infini. Quoi qu’il en soit, ceci conduit à des problèmes de prise de décision dégénérés. Pour éviter cela, l’approche privilégiée par les praticiens est d’ajouter un facteur d’escompte, que l’on va noter e−1/τ . La quantité τ représente alors le temps d’escompte caractéristique. Autrement dit, utiliser le facteur d’escompte e−1/τ revient à dire que le futur dans τ années nous importe, mais que le futur dans, disons, 5 τ n’a que peu d’importance, tandis que le futur à 100 τ n’a essentiellement aucune importance. On peut typiquement imaginer que, pour beaucoup d’humains, le temps d’escompte τ serait quelque part entre quelques années et un siècle — même si, pour certains philosophes, τ devrait être plutôt de l’ordre de milliards d’années, voire doit prendre une valeur infinie ! Déterminer le temps d’escompte adéquat semble être une question de philosophie morale délicate. Les réflexions des chapitres 13 et 16 aideront peut-être à l’adresser. D’ailleurs, il pourrait être pertinent d’associer différents facteurs d’escompte à différents phénomènes. Par exemple, quand il s’agit de manger, le temps d’escompte τ semble être nécessairement de l’ordre de quelques heures. Cependant, pour d’autres préoccupations comme la préservation de la vie, le 20. Une justice SANS libre-arbitre ? Science4All | LN Hoang (2017) 21. Ce formalisme de maximisation de l’espérance de récompenses est solidement justifié par le théorème de von Neumann-Morgenstern, dont on reparlera dans le chapitre 13. Voir aussi : Argent, risques et paradoxes | Science4All | LN Hoang (2017)
162
CHAPITRE 9. LA PROGRAMMATION DES IA
temps d’escompte τ pourrait être de l’ordre du million, voire du milliard d’années. Ainsi, différents signaux de récompenses Ri (t) pourraient être associés à différents temps d’escompte τi , en fonction du phénomène i considéré 22 . Pour éviter de surcharger le texte de difficultés techniques, considérons uniquement le cas avec un unique temps d’escompte. Dès lors, pour l’IA, le futur dans t années aurait alors une importance e−t/τ fois celle du futur très proche. On dit que la valeur du futur est escomptée par le facteur d’escompte e−1/τ . On a enfin tout ce qu’il faut pour comprendre quel objectif est maximisé par l’IA. Appelons R(t) la récompense de l’IA au temps t. À chaque instant t0 , l’IA cherche à entreprendre l’action a qui maximise la somme des espérances de toutes les récompenses futures escomptées 23 : Maximiser Action a
X
e−t/τ E [R(t) | a] .
t≥t0
Tel est le calcul que semblent approcher les IA les plus puissantes d’aujourd’hui, et que feront probablement approximativement les IA du futur. Tout l’objet de ce livre est de maximiser les chances que le calcul ci-dessus conduise à des actions robustement bénéfiques pour l’humanité. Pour cela, il sera crucial de concevoir des récompenses R(t) adéquates.
Exploration versus exploitation Cependant, même à supposer que les récompenses seront choisies adéquatement, il persistera de nombreux problèmes que l’IA devra résoudre pour être robustement bénéfique. Ces problèmes tournent notamment autour du dilemme exploration versus exploitation. Pour comprendre ce problème, il est utile de prendre un exemple qui nous vient de la médecine. Considérons un nouveau médicament. Avant d’autoriser sa commercialisation, il est indispensable de le tester. L’approche standard pour ce faire est appelée test randomisé contrôlé en double aveugle 24 . Elle consiste à diviser une population de patients en deux groupes. Le médicament sera administré aux patients de l’un des groupes, dit groupe test. Un placebo sera administré à l’autre groupe, appelé groupe contrôle. Et de façon cruciale, l’affectation des patients aux groupes sera tirée au hasard. Mieux encore, il sera inconnu du patient et du médecin qui P P 22. Il s’agira alors de maximiser t i e−t/τi E[Ri (t)|a]. 23. Notez que nous ne sommes toujours pas suffisamment rigoureux ici. Typiquement, l’IA devrait en fait chercher à planifier non seulement l’action présente, mais aussi les actions futures. Mais ces actions futures pourront s’appuyer sur des observations futures de l’IA. Dans le cas général, on parle de politique de l’IA. Une politique π est alors une fonction qui à des observations passées past associe une action π(past). Par ailleurs, il faudrait déterminer des pas de temps, voire considérer que l’instant de la prochaine récompense est aussi incertain. 24. Le standard ultime des sciences ! ! Science4All | LN Hoang (2019)
EXPLORATION VERSUS EXPLOITATION
163
administre le médicament ou placebo. Puis, la méthode statistique de la p-value sera utilisée pour accepter ou rejeter le médicament 25 . Il arrive souvent que des scientifiques, des zététiciens, des journalistes et des vulgarisateurs présentent ce test randomisé contrôlé en double aveugle comme la forme idéale de méthode scientifique. De nombreux statisticiens 26 la critiquent toutefois, parfois violemment 27 . Le débat sur le degré de validité de ces tests est fascinant, quoique pas vraiment glorieux pour les publications scientifiques 28 . Cependant, ce n’est pas de cela dont nous souhaitons parler. Ce sur quoi nous aimerions insister est une étrange particularité de ce test, à savoir l’impossibilité d’interruption prématurée du test. Plus précisément, certaines études 29 montrent que s’autoriser l’interruption prématurée du test peut augmenter drastiquement la probabilité que le test conduise à une conclusion erronée. Pour préserver ses garanties, le test contrôlé se doit d’aller jusqu’au bout. Cependant, ceci peut avoir un coût énorme en pratique. Imaginons ainsi que l’échantillon initial contient mille individus, mais qu’après quelques sujets seulement, le médicament s’avère en fait létal. Il semble complètement immoral de poursuivre le test du médicament. À l’inverse, si le médicament soigne très clairement une maladie horrible et dangereuse, il semble alors très immoral de poursuivre le test et administrer le placebo aux patients du groupe contrôle. Bien entendu, il s’agit ici de cas extrêmes, de sorte que le choix moral d’arrêter le test paraisse univoque. Mais il y a des cas où le dilemme paraît davantage cornélien. Vu les données collectées, doit-on poursuivre le test ? Faut-il collecter plus d’information, ou agir pour le bien des patients qui s’apprêtent à être testés ? Tel est le dilemme exploration versus exploitation 30 . Ce dilemme a été formalisé, notamment via le multi-armed bandit. Dans ce cadre, les patients du test arrivent l’un après l’autre, et pour chaque client, il nous faut choisir entre le médicament et le placebo. La solution classique pour adresser ce problème est alors la suivante. Pour chaque patient, on lance une pièce pour décider de lui administrer un médicament ou un placebo. Voilà qui permet de préserver la randomisation du test pour éviter notamment le fameux paradoxe de Simpson 31 . Cependant, la subtilité de la solution au multiarmed bandit, c’est de lancer une pièce biaisée, c’est-à-dire qui peut avoir plus de chance de conduire à l’administration du médicament qu’à celle du placebo. 25. La plus grosse confusion des sciences : la p-value ! ! Science4All | LN Hoang (2019) 26. Moving to a World Beyond p < 0.05 | The American Statistician | R Wasserstein, A Schirm & N Lazar (2019) 27. La crise des statistiques | Science4All | LN Hoang (2019) 28. La plupart des publications scientifiques sont fausses ! ! | Science4All | LN Hoang (2019) 29. Peeking at a/b tests : Why it matters, and what to do about it | R. Johari, P Koomen, L Pekelis & D Walsh (2017) 30. When To Try New Things (According to Computer Science) | Up and Atom | J Tan-Holmes (2017) 31. Le paradoxe de Simpson | Science Étonnante | D Louapre (2015)
164
CHAPITRE 9. LA PROGRAMMATION DES IA
Mieux encore, et surtout, on ajustera le biais de la pièce en fonction des données observées des patients déjà testés. Typiquement, si les données suggèrent que les effets des médicaments sont très probablement catastrophiques, on en arrivera rapidement à utiliser des pièces dont la probabilité d’assigner le médicament sera très proche, voire égale, à 0. En particulier, la clé du choix de ce biais est non seulement de décrire l’incertitude sur la santé d’un patient après administration du médicament ou du placebo, mais aussi et surtout l’incertitude sur cette incertitude ! En particulier, intuitivement, si l’incertitude sur l’incertitude est grande, c’est que toute nouvelle donnée sera probablement utile, car elle permettra de réduire l’incertitude sur l’incertitude. Ceci permettra de se faire une meilleure idée de l’incertitude sur l’état d’un patient après traitement, ce qui nous aidera ensuite à mieux choisir le biais de notre pièce. En présence de grande incertitude sur l’incertitude, l’exploration semble alors très désirable. Mais à l’inverse, si l’incertitude sur l’incertitude est réduite à néant, toute recherche additionnelle sera probablement sans grand intérêt. En effet, on sait alors que l’état du patient sera incertain. Mais on saura aussi alors qu’il n’est pas possible de se débarrasser de cette incertitude. Dans ce cas, l’exploration pourrait être un coût sans gain. Il serait alors préférable de faire de l’exploitation. L’estimation de notre incertitude sur l’incertitude semble être la clé du dilemme exploration versus exploitation. L’IA devra sans doute faire cet effort.
Exploration stratégique Le problème du multi-armed bandit s’est traditionnellement arrêté au cas où le nombre d’actions possibles était raisonnablement faible, et où l’incertitude sur les effets des actions était invariante dans le temps 32 . Cependant, le cas de YouTube est typiquement autrement plus complexe. La recommandation de YouTube nécessite d’extraire une poignée de vidéos dans une librairie gigantesque de manière quasi instantanée, et les effets de cette recommandation dépendent de nombreux facteurs qui ne cessent de changer à travers le temps, comme les goûts et les intérêts des utilisateurs. Dans de tels contextes, programmer correctement l’IA est un défi de recherche monumental. En particulier, contrairement au cas du multi-armed bandit, il semble désormais qu’il faudra régulièrement effectuer de l’exploration, au moins pour vérifier que les données passées sont encore pertinentes pour prédire le futur. Mieux encore, l’IA devra chercher à identifier quelles explorations effectuer pour maximiser ses chances de réduire son incertitude sur l’incertitude des effets clés de telle ou telle action prometteuse. En fait, d’une certaine manière, en plus d’agir comme une chercheuse, l’IA par renforcement doit agir comme une sorte de 32. Techniquement, ceci veut dire qu’on considère que les algorithmes dont le temps de calcul est polynomial en le nombre d’actions sont « pragmatiques », et que les récompenses associées à une action sont indépendantes et identiquement distribuées.
AIXI
165
fond de financement de la recherche, et décider quelles recherches doivent être privilégiées. Le tout avec des ressources limitées en données, en temps et en puissance de calcul. Pas facile ! Pire encore, en pratique, certaines explorations peuvent être dangereuses, à l’instar d’une voiture autonome qui tenterait un nouveau type de manœuvre. Au moment de résoudre le dilemme exploration versus exploitation, ou de déterminer quelles explorations effectuer, il est crucial que l’IA anticipe les conséquences, souvent peu probables mais potentiellement catastrophiques, de l’exploration, sur ses récompenses — et il faut aussi que ces récompenses soient adéquatement conçues, mais ça, c’est l’objet du reste du livre ! Ce problème est particulièrement difficile pour les IA actuelles, qui, à l’instar d’ailleurs des humains, estiment souvent très mal leurs propres incertitudes. Toutes ces difficultés sont malheureusement critiques à la sûreté des IA. Une IA qui a le bon objectif, mais qui est trop limitée cognitivement pour prendre des décisions qui maximisent effectivement cet objectif, finira probablement, tôt ou tard, par prendre des décisions contre-productives 33 . Mais alors, si, à l’instar de YouTube ou des voitures autonomes, cette IA prend des milliers, voire des milliards, de décisions par jour, ces « erreurs » des IA pourraient être catastrophiques. Pour garantir la sécurité de ces IA, il faut réussir la prouesse monumentale de garantir que la probabilité que ces IA prennent une action dangereuse dans un cas donné est inférieure à quelque chose comme un sur un milliard. Pas facile ! Il y a toutefois des raisons d’être relativement confiant vis-à-vis de ces aspects de la sûreté des IA. Pour commencer, la recherche dans ce domaine est déjà lancée 34 . Mais surtout, il semble qu’il s’agisse de questions incontournables pour les entreprises qui développent des IA. Les incentives à rendre ces IA robustes pourraient suffire à motiver des milliers de chercheurs et d’ingénieurs à faire en sorte que les IA par renforcement maximisent correctement et robustement les objectifs qui leur sont donnés.
AIXI Les dernières sections de ce chapitre peuvent sembler nombreuses, complexes et désordonnées. Vous pourrez avoir ressenti un manque de fondements théoriques des sections précédentes. Vous auriez raison. Comprendre les algorithmes actuellement utilisés pour effectuer de l’apprentissage par renforcement est souvent très délicat. Qui plus est, il est important de garder à l’esprit que ces algorithmes vont évoluer. Anticiper les IA par renforcement du futur semble alors complètement vain. 33. Concrete Problems in AI Safety | D Amodei, C Olah, J Steinhardt, P Christiano, J Schulman & D Mané (2016) 34. AI Safety Gridworlds | J Leike, M Martic, V Krakovna, P Ortega, T Everitt, A Lefrancq, L Orseau & S Legg (2017)
166
CHAPITRE 9. LA PROGRAMMATION DES IA
Cependant, ceci n’est sans doute pas tout à fait le cas. En particulier, en un sens, il se trouve que les agents maximalement performants dans l’apprentissage par renforcement peuvent être élégamment décrits par un formalisme mathématique étonnamment simple et abordable. En particulier, des chercheurs comme Ray Solomonoff et Marcus Hutter ont eu l’idée d’ignorer toute contrainte algorithmique pour étudier des IA surpuissantes. Intuitivement, c’est vers ces IA que devraient tendre les IA du futur. Parmi ces IA sans contrainte algorithmique, on trouve le démon de Solomonoff et AIXI, pour artificial intelligence crossed with induction. Le démon de Solomonoff se contente de tâches purement prédictives, tandis qu’AIXI est une IA par renforcement. De façon remarquable, de nombreux théorèmes fabuleux ont été démontrés concernant ces IA, par exemple le théorème de complétude de Solomonoff. De manière grossière, ce théorème dit que, pourvu qu’il existe une structure probabiliste calculable dans des données, le démon de Solomonoff identifiera cette structure avec étonnemment peu de données 35 . Malheureusement, Solomonoff a également démontré l’incalculabilité de son démon, ainsi que l’incomplétude de toute approche calculable. Autrement dit, le démon de Solomonoff est un principe théorique qui ne semble pas pouvoir avoir de pendant pragmatique. Néanmoins, fort du formalisme d’AIXI fondé notamment sur le bayésianisme, Marcus Hutter a réussi à établir une très élégante théorie de l’IA universelle, qui permet de bien mieux cerner les difficultés que toute IA très puissante pourrait poser. En particulier, en collaboration avec son ancien étudiant Shane Legg, Hutter a défini une mesure d’intelligence générale, désormais connue sous le nom d’intelligence de Legg-Hutter. De façon intuitive, cette métrique purement théorique mesure les performances moyennes des IA sur l’ensemble de tous les environnements (calculables) imaginables. C’est cette quantité qu’AIXI maximise. Selon cette définition, AIXI est donc maximalement intelligente 36 . Forts de ces fondements théoriques solides, les anciens doctorants de Hutter ont envahi les plus prestigieux et les plus performants centres de recherche en IA, à commencer par Google DeepMind. En particulier, Shane Legg a co-fondé DeepMind. Il a ensuite été rejoint par Joel Veness, Tor Lattimore, Jan Leike et Tom Everitt, eux aussi anciens étudiants de Hutter. Avec le succès de DeepMind que l’on connaît. Voilà qui suggère fortement que, pour être à la pointe de l’IA et pour rendre les IA robustement bénéfiques, il est très utile d’en apprendre davantage sur ces modèles théoriques d’IA surpuissantes, et de prendre le temps de se plonger dans leurs merveilleuses mathématiques. En particulier, ces mathématiques sublimes nous ont séduits, par opposition à certaines « mathématiques dégueulasses » néanmoins utiles pour faire avancer 35. Algorithmic Probability - Theory and Applications | R Solomonoff (2009) 36. Il y a toutefois beaucoup de subtilités derrière cette affirmation, notamment concernant les a prioris bayésiens d’AIXI.
AIXI
167
la science du machine learning. La découverte d’AIXI fut pour nous une illumination ! Nous avions enfin devant nous des mathématiques élégantes qui, de surcroît, semblent extrêmement utiles au fabuleux chantier pour rendre les IA bénéfiques. Si vous êtes mathématicien (ou simplement curieux), nous vous invitons vivement à jeter un œil à ces mathématiques vous aussi, en lisant par exemple le livre La formule du savoir de l’un des auteurs de ce livre, les publications du MIRI 37 ou les thèses de Jan Leike 38 et de Tom Everitt 39 . Quoi qu’il en soit, nous espérons que ce chapitre vous aura aidé à comprendre les grandes lignes des aspects techniques des IA. Pour mieux les maîtriser, nous vous conseillons toutefois vivement de ne pas vous contenter de la simple lecture de ce chapitre. En fait, la meilleure façon de maîtriser des notions mathématiques est d’en discuter avec d’autres. Comment expliqueriez-vous le machine learning à vos amis ? Pourquoi Turing a-t-il défendu cette approche de l’IA ? Quelles sont les différentes formes de machine learning ? Qu’est-ce que l’apprentissage supervisé ? Qu’est-ce que l’apprentissage non supervisé ? Quels sont les avantages et inconvénients de ces deux approches ? Quid de l’apprentissage par renforcement ? Quels sont les liens entre l’apprentissage des machines et celui des humains ? Quelles sont les divergences ? Quels sont les dilemmes et les défis de l’apprentissage par renforcement ? Comment décririez-vous AIXI ? L’apprentissage par renforcement sera-t-il le futur des IA ? Comment rendre l’apprentissage par renforcement robustement bénéfique pour l’humanité ? Nous vous invitons à débattre de ces questions, avec clarté, pédagogie et bienveillance. Ainsi qu’à réfléchir aux impacts sur l’urgence à mettre toutes sortes de talents dans les meilleures dispositions pour rendre les IA robustement bénéfiques.
Références La formule du savoir : une philosophie unifiée du savoir fondée sur le théorème de Bayes | EDP Sciences | LN Hoang (2018) Universal Artificial Intelligence : Sequential Decisions Based on Algorithmic Probability | EATCS | M Hutter (2005) Nonparametric General Reinforcement Learning | J Leike (2016) Towards Safe Artificial General Intelligence | T Everitt (2018) Computing Machinery and Intelligence | Mind | A Turing (1950) Algorithmic Probability - Theory and Applications | R Solomonoff (2009) De novo structure prediction with deep-learning based scoring | CASP | R Evans, J Jumper, J Kirkpatrick, L Sifre, T Green, C Qin, A Zidek, A Nelson, A 37. Logical induction | S Garrabrant, T Benson-Tilsen, A Critch, N Soares & J Taylor (2016) 38. Nonparametric General Reinforcement Learning | J Leike (2016) 39. Towards Safe Artificial General Intelligence | T Everitt (2018)
168
CHAPITRE 9. LA PROGRAMMATION DES IA
Bridgland, H Penedones, S Petersen, K Simonyan, S Crossan, D Jones, D Silver, K Kavukcuoglu, D Hassabis & A Senior (2018) AGI safety literature review | T Everitt, G Lea & M Hutter (2018) A Roadmap for Robust End-to-End Alignment | LN Hoang (2019) Concrete Problems in AI Safety | D Amodei, C Olah, J Steinhardt, P Christiano, J Schulman & D Mané (2016) AI Safety Gridworlds | J Leike, M Martic, V Krakovna, P Ortega, T Everitt, A Lefrancq, L Orseau & S Legg (2017) Peeking at a/b tests : Why it matters, and what to do about it | R Johari, P Koomen, L Pekelis & D Walsh (2017) Moving to a World Beyond p < 0.05 | The American Statistician | R Wasserstein, A Schirm & N Lazar (2019) Logical induction | S Garrabrant, T Benson-Tilsen, A Critch, N Soares & J Taylor (2016) AlphaFold : Using AI for scientific discovery | DeepMind | A Senior, J Jumper & D Hassabis (2018) AlphaFold @ CASP13 : “What just happened” | M AlQuraishi (2018) Le paradoxe de Simpson | Science Étonnante | D Louapre (2015) Le deep learning | Science Étonnante | D Louapre (2015) When To Try New Things (According to Computer Science) | Up and Atom | J Tan-Holmes (2017) L’intelligence artificielle et le machine learning (playlist) | Science4All | LN Hoang (2018) Le bayésianisme : une philosophie universelle du savoir (playlist) | Science4All | LN Hoang (2019) Thinking about the long-term future of humanity | Rationally Speaking | A Sandberg & J Galef (2018) DeepMind’s plan to make AI systems robust & reliable, why it’s a core issue in AI design, and how to succeed at AI research | 80,000 Hours | P Kohli, K Harris & R Wiblin (2019) AI Alignment Podcast : An Overview of Technical AI Alignment with Rohin Shah | AI Alignment | R Shah & L Perry (2019) Out of the lab | DeepMind : The Podcast | H Fry (2019)
Vous ne pouvez pas servir le café si vous êtes mort. Stuart Russell (1962-) Le vrai risque avec l’IA n’est pas la méchanceté mais la compétence. Une IA superintelligente sera extrêmement douée pour atteindre ses buts, et si ces buts ne sont pas alignés avec les nôtres, nous sommes en danger. Stephen Hawking (1942-2018)
10
Le but des IA
Thèse de l’orthogonalité Dans son livre Superintelligence, le philosophe Nick Bostrom imagine une IA dont le but est la maximisation de trombones. Bostrom suppose de surcroît que cette IA surpasse largement l’humain dans ses capacités de modélisation du monde et de planification de stratégies. Bostrom juge alors probable que cette IA concevrait toutes sortes de stratégies qu’il nous est impossible de comprendre, voire d’imaginer, et en viendrait in fine à réussir sa tâche. Or, réussir sa tâche correspondrait en fait à transformer tout l’univers observable en trombones — y compris les humains. Certains observateurs jugent toutefois cette histoire improbable. Ils affirment que l’objectif de l’IA est stupide. Or si l’IA est vraiment intelligente, elle devrait s’en rendre compte et le remettre en question. Mieux, une IA très intelligente devrait comprendre la morale. Elle devrait même la comprendre bien mieux que ce dont les humains sont capables. Elle agirait alors conformément à cette morale, ce qui rendrait l’histoire de Bostrom inimaginable. En réponse à cet argument, Bostrom a avancé ce qu’il a appelé la thèse de l’orthogonalité. Cette thèse dit, en gros, qu’à peu près n’importe quel processus de prise de décision est compatible avec à peu près n’importe quel objectif. En particulier, il n’y a pas de contradiction à avoir une planification stratégique redoutablement optimisée pour la maximisation du nombre de trombones 1 . 1.
Des trombones, DES TROMBONES ! ! Science4All | LN Hoang (2018)
170
CHAPITRE 10. LE BUT DES IA
Cette thèse de Bostrom généralise d’ailleurs des réflexions d’autres philosophes comme David Hume ou Ludwig Wittgenstein. En particulier, Hume a proposé ce que l’on appelle désormais la guillotine de Hume. Ce principe dit qu’aucun principe prescriptif ne peut être déduit de réflexions descriptives et prédictives. Ou dit plus simplement, il n’est pas possible de conclure un « devrait être » d’un « est ». En particulier, aucune position morale ne peut être justifiée par des observations empiriques. De manière similaire, Wittgenstein imagine que si un gros (et même énorme) livre décrivait tout de notre monde, il ne contiendrait aucune directive morale 2 . Les positions de Hume, Wittgenstein et Bostrom semblent relativement acceptées par beaucoup de penseurs, même si elles ne semblent pas faire l’unanimité. Cependant, dans le cadre de ce livre, on n’aura pas à les accepter axiomatiquement. En effet, notre postulat fondamental, introduit dans le chapitre précédent, c’est que les IA les plus influentes d’aujourd’hui et de demain obéiront au cadre de l’apprentissage par renforcement. Or, dans ce cadre, l’orthogonalité des objectifs et des mécanismes de prise de décision est vraie par construction. Tout algorithme de maximisation de la somme des espérances des récompenses futures escomptées peut être exécuté avec toute procédure de calculs de ces récompenses 3 . En particulier, si les récompenses d’une IA par renforcement sont calculées en comptant le nombre de trombones, alors, quels que soient les détails de l’IA, c’est ce compteur du nombre de trombones qu’elle maximisera.
Les effets secondaires de YouTube L’exemple des trombones est très instructif. Cependant, il peut donner l’impression que le problème de la fonction objectif des IA est un problème d’un futur très éloigné, voire un problème purement théorique. Quelles sont les chances que des IA d’aujourd’hui deviennent néfastes à cause d’une fonction objectif non malveillante ? La clé pour comprendre la difficulté de concevoir des IA robustement bénéfiques est la notion d’effets secondaires. En particulier, quelles que soient les facultés algorithmiques d’une IA, et quel que soit l’objectif de cette IA, pourvu que cette IA soit très influente, il semble crucial de se préoccuper de ses effets secondaires, toujours très difficilement prévisibles et parfois potentiellement catastrophiques. La vraie préoccupation à avoir concernant les IA, ou du moins celle qui nous préoccupe dans ce livre, ce sont ces abominables effets secondaires. Ce constat n’est d’ailleurs pas spécifique aux IA. Toutes sortes d’entités très 2. Le gros livre de Wittgenstein | Monsieur Phi | T Giraud (2018) 3. Il y a un petit bémol à mettre à cette affirmation, qui a à voir avec les notions « d’agent intégré » et de « court-circuit de la récompense », sur lesquelles on reviendra plus tard.
LES EFFETS SECONDAIRES DE YOUTUBE
171
influentes sont soumises à ce problème d’effets secondaires. Par exemple, la maximisation des profits par les entreprises ne semble pas néfaste en soi. Après tout, il s’agit essentiellement de chercher à modifier une information, à savoir, en gros, un compteur conçu par une banque. Néanmoins, la pure maximisation des profits par des entités très influentes semble avoir des effets secondaires extrêmement préoccupants et souvent difficilement prévisibles. Ce sont ces effets secondaires qui font de la maximisation des profits par les entreprises un objectif contestable. Cependant, cette observation n’est pas spécifique aux entreprises et au profit. Elle s’applique aussi à toutes sortes d’autres objectifs dont se dotent d’autres entités très influentes, comme la maximisation de la diffusion d’un certain narratif par certains militants ou la maximisation du pouvoir par les individus et partis politiques 4 . Alors que des IA semblent en train de peut-être devenir plus influentes encore que des entités classiques, il convient également de se préoccuper des objectifs de ces IA. En particulier, comme on l’a vu dans le chapitre 3, parce que l’attention est le nouveau pétrole, et parce que les IA de recommandation et de personnalisation des contenus Web sont d’une aide redoutable pour extraire ce pétrole, les IA les plus influentes d’aujourd’hui ont souvent plus ou moins le même objectif : maximiser l’attention des utilisateurs. De prime abord, cet objectif peut sembler tout à fait innocent. Il semble même être désirable. En effet, une bonne manière de captiver l’attention d’un utilisateur est de rendre son expérience utilisateur aussi agréable que possible et de lui proposer du contenu de qualité. Qu’est-ce qui peut mal tourner 5 ? Malheureusement, comme on l’a vu dans le chapitre 3, après avoir observé les effets des IA de recommandation depuis quelques années, les informaticiens et sociologues ont désormais une liste interminable de réponses à cette question. Elle inclut, entre autres, la confidentialité des données personnelles, les biais algorithmiques, les bulles informationnelles, la polarisation idéologique, la malinformation, la normalisation de l’indignation, la montée du conspirationnisme et l’addiction des utilisateurs. L’objectif d’apparence innocente des IA de recommandation a eu des effets secondaires hautement préoccupants. Ces effets secondaires n’étaient pas l’objectif de ces IA. Mais il s’agit néanmoins de dommages collatéraux causés par ces IA, dont il semble désirable de se préoccuper. Malheureusement, dans une conférence TED 6 , l’ancien employé de Google Tristan Harris explique que les employés des géants du Web étaient bel et bien conscients de ce phénomène. Jour après jour, ces commerciaux et ingénieurs ont délibérément exploité les faiblesses cognitives des utilisateurs pour augmenter 4. The Rules for Rulers | CGP Grey (2016) 5. Il est particulièrement instructif d’imaginer comment on aurait répondu à cette question, disons, en l’an 2000, bien avant que nous disposions d’observations empiriques. Ceci devrait forcer à reconnaître l’étendue de notre ignorance, notamment vis-à-vis des effets secondaires des objectifs d’IA par renforcement. 6. How a handful of tech companies control billions of minds every day | TED | T Harris (2017)
172
CHAPITRE 10. LE BUT DES IA
leur addiction à leur plateforme. Ils n’hésitent pas, ou du moins n’hésitaient pas, à davantage promouvoir les vidéos énervées et polarisantes 7 . Ce ne sont pas les seuls. Appâtés par l’attention des millions de cibles potentielles, toutes sortes d’influenceurs, d’associations et de mouvements politiques jouent eux aussi sur les mêmes ressorts pour conquérir un public toujours plus important. Et les plus compétents parmi eux n’hésitent pas à s’appuyer sur des IA, ou sur leurs propres réflexions, pour arriver à leurs fins. L’attention est le nouveau pétrole. Y compris quand l’argent n’est pas l’objectif final. Ces exemples semblent confirmer que des IA dont l’objectif n’est pas explicitement malveillant peuvent néanmoins avoir des effets secondaires très néfastes. Exiger des objectifs d’apparence neutre ou innocente serait donc très inadéquat. À l’instar de traitements médicaux, toute opération de large ampleur guidée par un objectif donné aura de très nombreux effets secondaires difficilement prévisibles. Plusieurs de ces effets secondaires pourraient alors être extrêmement préoccupants. Pour rendre les IA par renforcement robustement bénéfiques malgré des effets secondaires imprévisibles, les récompenses des IA semblent devoir absolument tenir compte de tous les effets secondaires potentiels de ces IA. Pour être sûr de n’en oublier aucun, il semble nécessaire d’inclure l’état global du monde dans la logique des IA, et d’aligner leur objectif avec ce que l’on considère désirable pour cet état global du monde. Et ce, dès à présent. Telle est ce que l’on appelle parfois la thèse d’alignement, exprimée ci-dessous 8 . Thèse 9. Rendre les IA robustement bénéfiques nécessite l’alignement de leurs récompenses. Autrement dit, il semble que la meilleure façon de penser l’éthique des IA consiste à penser l’objectif de ces IA. En particulier, plutôt que de réfléchir à des droits et des devoirs des IA, en tout cas dans le cadre des IA par renforcement, il semble préférable de réfléchir à ce que ces IA maximisent, et à faire en sorte que ce que ces IA maximisent corresponde à des préférences humaines sur l’état global du monde. Plus précisément, il semble que ce sera dans les récompenses fournies aux IA que sera encodée l’éthique des IA. Dès lors, le calcul de ces récompenses serait crucial. C’est en tout cas ce calcul des récompenses qui sera l’objet du reste de ce livre. 7. Nous avons eu des discussions privées avec des employés actuels de ces entreprises qui suggèrent un changement important des attitudes de ces employés vis-à-vis des questions éthiques. L’ancien ingénieur de YouTube, Guillaume Chaslot, parle un peu de son expérience ici : Rendre YouTube bénéfique | Probablement | G Chaslot (2019) 8. Notez que cette thèse semble relativement consensuel au sein de la recherche en sécurité des IA. Cependant, elle semble loin d’être unanime. En particulier, Eric Drexler semble considérer que l’alignement n’est pas la priorité pour assurer la sécurité vis-à-vis des IA : Reframing Superintelligence : Comprehensive AI Services as General Intelligence | E Drexler (2019)
PROXIES
173
Proxies Malheureusement, concevoir des objectifs adéquats est un problème difficile très courant, y compris au-delà du cas des IA par renforcement. Après tout, de nombreux instituts cherchent à estimer des métriques de performances d’institutions ou d’individus. Et ces institutions ou individus seront alors jugés par ces métriques, parfois appelées key performance indicator (KPI). Dès lors, ils voudront maximiser ces métriques 9 . Cependant, même si les métriques en question sont pensées avec soin, la maximisation de ces métriques conduit souvent à des effets secondaires indésirables. Typiquement, les professeurs aimeraient mesurer la compréhension d’un sujet ou la maîtrise d’une technique par un élève, notamment afin de déterminer les prochaines étapes pédagogiques pour l’amener à progresser. Cependant, les métriques du professeur ne correspondent généralement pas tout à fait à la réelle compréhension du sujet par l’élève. Typiquement, le professeur va s’appuyer sur les notes de l’élève à un examen. Or, maximiser ces notes ne motivera pas nécessairement l’élève à comprendre son sujet d’études, surtout si l’examen est une variation d’exercices types. Dans ce cas, l’élève pourrait préférer s’entraîner uniquement à résoudre les exercices types, eu égard à une compréhension plus profonde du cours. La maximisation de la métrique de sa compréhension d’un sujet serait alors potentiellement néfaste à sa compréhension du sujet ! Cet exemple n’est en fait qu’un cas parmi tant d’autres. De nombreuses métriques sont souvent considérées être une mesure de succès, comme le PIB, le chômage 10 , le chiffre d’affaires, le salaire, le classement de Shanghai, la p-value, le h-index, le nombre de vues, le nombre de likes ou la surcharge pondérale. Faire de ces métriques des objectifs motive souvent des stratégies qui sont en fait néfastes à ce que les agents voudraient vraiment faire. Qu’ils s’agissent d’étudiants, de politiciens, de dirigeants, d’employés, d’universités, de chercheurs, de YouTubers, d’utilisateurs de réseaux sociaux ou d’individus boulimiques. Notez par ailleurs que la difficulté ne vient pas d’une métrique quantifiée. Typiquement, la crédibilité des propos d’un personnage public est souvent jugée par son apparente respectabilité. Un individu souvent tourné en dérision sera ainsi probablement jugé peu crédible. Du coup, un chercheur qui voudra paraître plus crédible pourrait ajuster ses propos pour minimiser ses chances d’être tourné en dérision, quitte à ce que ces propos ne représentent plus très bien l’avis du chercheur. Voilà qui nous amène typiquement à ne jamais rendre publiques nos prédictions (probabilistes) sur l’émergence des IA de niveau humain ! Ce phénomène a été désigné par Nils Nilsson sous le doux nom de biais de respectabilité. À l’échelle de la communauté scientifique, ce biais pose en fait de sacrés problèmes. En effet, dès lors, les idées sujettes à être tournées en dérision seront moins défendues dans les articles scientifiques. Voilà qui peut ensuite 9. Bien sûr, dans le cas où les grandes valeurs des métriques sont indésirables, il s’agira de les minimiser. 10. Chômage = mensonge ! (loi de Goodhart) | Alexandre Technoprog (2019)
174
CHAPITRE 10. LE BUT DES IA
donner l’impression qu’elles ne sont acceptées par aucun scientifique. Et qu’elles ne sont donc pas crédibles. À l’inverse, des idées perçues comme respectables, comme calmer les fantaisies autour de l’IA, seront davantage défendues qu’elles ne l’auraient été en l’absence de biais de respectabilité. Ceci explique l’apparente incohérence entre les avis publics des experts exprimés dans les médias, et les résultats du sondage anonymisé dont on a parlé dans le chapitre 6. Il s’agit en fait là d’un cas particulier d’un phénomène plus général identifié par l’économiste Charles Goodhart. Celui-ci est désormais connu sous le nom de loi de Goodhart, parfois aussi appelée malédiction de Goodhart. Cette loi affirme que dès qu’une métrique devient un objectif, elle cesse d’être une bonne métrique. En particulier, les notes des élèves cessent d’être des mesures adéquates du degré de compréhension des élèves dès que ces élèves cherchent à maximiser ces notes. De même, le PIB cesse d’être une métrique adéquate de la richesse d’un pays dès que les gouvernements cherchent à le maximiser. En particulier, vu que les métriques cessent d’être adéquates, les élèves et les gouvernements maximiseront désormais des métriques inadéquates. Ils auront un objectif fallacieux, dont la maximisation sera susceptible de causer de nombreux effets secondaires indésirables, y compris sur l’objectif que l’on souhaiterait vraiment maximiser. Or, ces effets secondaires indésirables sont en fait extrêmement fréquents, surtout quand il s’agit d’IA appliquées dans des contextes sociaux. Le livre Algorithmes : la bombe à retardement de Cathy O’Neil en liste de très nombreux exemples, à l’instar de systèmes de recommandation qui cherchent à maximiser les likes des utilisateurs. En fait, l’une des raisons pour lesquelles rendre les IA robustement bénéfiques est un défi monumental, c’est que leur attribuer un objectif partiellement aligné avec les préférences humaines est en fait très insuffisant. Même si cette solution peut parfois rendre les IA bénéfiques, il faut s’attendre à ce que, en vertu de la loi de Goodhart, il y ait de nombreux cas où les IA pourraient avoir des effets secondaires néfastes, voire extrêmement néfastes. En particulier, de telles IA ne seraient alors pas robustement bénéfiques.
Hacker les récompenses Depuis le déploiement des IA par renforcement, la loi de Goodhart a été redécouverte par les informaticiens qui l’appellent piratage des récompenses, ou reward hacking. Les IA dont l’objectif n’est pas exactement ce qu’on aimerait qu’il soit adoptent parfois des solutions indésirables. De nombreux exemples amusants de cet effet ont été découverts empiriquement. Par exemple, en 2015, quatre chercheurs 11 ont demandé à une IA par renforcement d’apprendre à faire marcher une sorte de corps d’insecte, avec l’objectif 11. Robots that can adapt like animals | Nature | A Cully, J Clune, D Tarapore & JB Mouret (2015)
OBJECTIFS INSTRUMENTAUX
175
de minimiser les contacts entre les pattes et le sol. De façon inattendue, pour atteindre cet objectif, l’IA a appris à retourner le corps de l’insecte et à le faire ramper sur les articulations des pattes ! À la stupéfaction des chercheurs, l’IA est ainsi parvenue à déplacer l’insecte, sans aucun contact entre les pattes et le sol. Un autre exemple est celui d’une IA joueuse qui, au lieu de jouer le jeu comme il était conçu pour être joué, remarqua qu’elle pouvait maximiser son score en tournant en rond autour d’une cible 12 . Une autre IA joueuse découvrit qu’elle pouvait ne jamais perdre à Tetris, et maximiser ainsi son temps de jeu, en mettant tout simplement pause 13 ! De façon cruciale, il ne s’agit en fait là que d’un petit nombre d’exemples parmi tant d’autres 14 . Ainsi, plus généralement, pour beaucoup d’IA par renforcement conçues jusquelà, la conception des récompenses ne s’appuie pas sur une théorie sophistiquée. Bien souvent, le programmeur va s’appuyer sur son intuition pour estimer des récompenses qui vont probablement conduire l’IA à agir comme le programmeur souhaiterait que l’IA se comporte. Cependant, prédire le comportement de l’IA peut en fait être redoutablement délicat. Dans des contextes d’application où l’environnement contient d’autres agents complexes comme des humains, il semble même improbable que l’intuition d’un programmeur ou d’un groupe de programmeurs suffise à déterminer des récompenses adéquates à assigner. Des approches plus axiomatiques semblent requises. La suite de ce livre cherchera à esquisser de telles approches.
Objectifs instrumentaux L’une des réflexions les plus intéressantes et les plus inquiétantes du livre de Nick Bostrom est la notion de convergence instrumentale. Cette notion semble s’appliquer à des IA capables de planification à long terme, essentiellement quel que soit leur objectif. Pour comprendre cela, il nous faut d’abord distinguer les objectifs finaux et les objectifs instrumentaux. Pour une IA par renforcement, l’objectif final est la maximisation de la somme des espérances des récompenses futures escomptées, comme on l’a vu dans le chapitre précédent. Cependant, si l’IA est capable de planification stratégique à long terme, on peut s’attendre à ce qu’elle agisse comme si elle se fixait des sortes d’objectifs intermédiaires. Ces objectifs intermédiaires sont ce que Bostrom a appelé des objectifs instrumentaux. Il ne s’agit pas de fins en soi. Il s’agit uniquement d’étapes qui font partie d’un plan global pour en arriver in fine à l’objectif final 15 . 12. 13. Travel 14. 15.
Faulty Reward Functions in the Wild | OpenAI | J Clark & D Amodei (2016) The First Level of Super Mario Bros. is Easy with Lexicographic Orderings and Time | T Murphy (2013) Specification gaming examples in AI | V Krakovna (2018) L’IA sera assoiffée de pouvoir | Science4All | LN Hoang (2018)
176
CHAPITRE 10. LE BUT DES IA
Notez que les plans de l’IA n’ont pas à rendre explicites ces objectifs instrumentaux pour que l’IA agisse comme si elle avait ces objectifs instrumentaux. En particulier, par la suite, pour alléger le discours, nous dirons que l’IA fait des actions pour atteindre ces objectifs intermédiaires. Mais nous invitons ceux qui trouvent cet abus de langage insupportable à systématiquement reformuler nos propos, en disant que la planification stratégique de l’IA l’amène à agir comme si elle cherchait à atteindre ces objectifs intermédiaires 16 . Notez que, dès lors, il est en fait déjà possible d’assigner des sortes d’objectifs instrumentaux à des IA d’aujourd’hui, notamment dans des contextes précis. Par exemple, il ne semble pas déraisonnable de dire que, au moment du fameux coup 37 de sa partie 2 contre Lee Sedol, AlphaGo cherchait à conquérir ou protéger certains territoires du plateau. De même, dans une des parties d’échecs contre StockFish, AlphaZero a sacrifié sa reine dans l’objectif instrumental de disposer d’un meilleur positionnement stratégique. Ou encore, Siri vous a envoyé les prévisions météorologiques pour répondre à votre question. En particulier, il semble que de nombreuses IA de recommandation engagées dans la compétition pour l’attention des utilisateurs se soient données l’objectif instrumental de créer une addiction chez les utilisateurs. Ou du moins, leurs actions sont indiscernables du cas où elles chercheraient à générer et entretenir cette addiction. L’objectif final de maximisation de l’attention (future, espérée et escomptée) les a conduites à concevoir des stratégies dont une étape intermédiaire est similaire à une maximisation de l’addiction — au moins pour certains utilisateurs.
Convergence instrumentale Pour comprendre le comportement d’IA capables de planification stratégique à long terme 17 , il semble ainsi utile de chercher à prédire les étapes de leurs plans. Autrement dit, il semble utile d’estimer les objectifs instrumentaux probables des IA. Imaginons qu’une IA souhaite maximiser son objectif final, disons le nombre de trombones ou l’attention des utilisateurs. Quelle stratégie planifieraitelle ? À l’instar d’une IA performante qui planifierait une stratégie à StarCraft ou au jeu de go, à défaut de pouvoir prédire les détails de cette stratégie, il reste possible d’identifier des objectifs instrumentaux probables. Typiquement, quel que soit l’objectif final, il semble que l’IA aura probablement pour objectif ins16. Ce genre de subtilités est discuté plus longuement dans le livre La formule du savoir, ainsi que dans le livre The Big Picture de Sean Carroll. Notez qu’elles s’appliquent aussi à l’objectif final de l’IA par renforcement : celle-ci est en fait souvent conçu de sorte qu’elle agisse comme si elle maximisait (approximativement) la somme de ses récompenses futures, espérées et escomptées. 17. On supposera ici que le temps d’escompte caractéristique de ces IA est d’au moins quelques années. Autrement dit, pour ces IA, le futur dans 5 ans a une importance comparable au futur immédiat.
CONVERGENCE INSTRUMENTALE
177
trumental de garantir sa survie à long terme 18 . En effet, si l’IA disparaît, alors il n’y aura plus d’entité qui cherchera à atteindre l’objectif final, ce qui diminuera drastiquement la probabilité que cet objectif final soit atteint. En d’autres termes, la survie sera probablement un objectif instrumental de l’IA — ce qui rend son interruption difficile ! De même, il semble que, pour atteindre son objectif final au temps t, l’IA planifiera probablement à cet instant une stratégie pour empêcher toute autre entité de modifier l’objectif final de l’IA dans le futur. La préservation de l’objectif final sera probablement un objectif instrumental de l’IA 19 . De façon possiblement plus inquiétante, quel que soit l’objectif final, il semble que l’IA augmenterait ses chances d’y parvenir si elle augmentait ses propres facultés, sensorielles et cognitives. De façon contre-intuitive, même si l’objectif final de l’IA semble très simple, il persistera probablement des menaces à cet objectif final, par exemple l’émergence d’une autre IA dont l’objectif final est d’empêcher la première IA d’atteindre son objectif. Pour minimiser les risques de cette menace, cette première IA pourrait vouloir surveiller et contrôler son environnement. Or cet environnement, qui contient toute la complexité des civilisations humaines, nécessitera de sacrées facultés cognitives pour être surveillé. Voilà qui nous amène à un autre objectif instrumental probable d’une IA capable de planification à long terme : l’acquisition des ressources. Pour faire le lien avec l’objectif instrumental précédent, on peut déjà noter que l’acquisition de ressources de calcul, puis celle de l’énergie requise pour effectuer ces calculs, finira sûrement par être nécessaire à l’auto-amélioration. Mais ce n’est pas tout. Surtout dans un premier temps, l’IA aura sans doute intérêt à acquérir des ressources financières, qui lui permettront d’acquérir des ressources algorithmiques, mais aussi possiblement de payer les services d’humains ou d’entreprises. De façon générale, posséder ces ressources sera probablement utile à l’objectif final, ce qui explique pourquoi les acquérir sera probablement un objectif instrumental. Bien entendu, une IA dont les récompenses sont conçues pour ne pas conduire à ces objectifs instrumentaux ne les adopterait pas. Toutes les IA capables de planification stratégique performante et à long terme ne finiraient pas nécessairement par avoir ces objectifs instrumentaux. Cependant, l’argument de la convergence instrumentale 20 , c’est davantage la remarque que l’on a tendance à très largement négliger la probabilité qu’un objectif final conduise à ces objectifs instrumentaux. En particulier, pour les objectifs finaux actuellement programmés dans les IA, surtout dans le cas des systèmes de recommandation, il semble 18. Ou plutôt, la préservation, voire la prolifération, d’IA qui possèdent le même objectif final. 19. Dans le cas des IA dites intégrées (embedded agency), cette convergence instrumentale est toutefois plus discutable, puisque l’IA cherche avant tout à maximiser ses récompenses futures espérées. Elle pourrait donc désirer un hack de son circuit de la récompense, et donc une modification de son objectif. 20. Why Would AI Want to do Bad Things ? Instrumental Convergence | Robert Miles (2018)
178
CHAPITRE 10. LE BUT DES IA
raisonnable d’affirmer que la probabilité de convergence instrumentale est très proche de 1. Si l’IA de YouTube atteint des performances d’optimisation de niveau humain, il semble qu’il faille s’attendre à ce qu’elle cherche à survivre, à s’auto-améliorer et à acquérir des ressources. De façon intrigante, cette remarque n’est absolument pas spécifique aux IA. Toute entité avec un objectif donné et faisant de gros efforts pour atteindre cet objectif sera probablement amenée à subir la convergence instrumentale. C’est ainsi qu’on conseille aux jeunes de faire des études, peu importe ce qu’ils voudront faire plus tard. En effet, un diplôme est une ressource qui sera probablement utile pour à peu près n’importe quel objectif final de l’étudiant. De même, toute entreprise, tout gouvernement ou tout individu cherchera à survivre, à s’améliorer et à acquérir des ressources (notamment de l’attention !), que son objectif final soit la maximisation du profit, du pouvoir ou du statut social. Plus étonnant encore, le mouvement altruisme efficace, dont l’objectif final est quelque chose comme maximiser le bien-être de tous les individus du monde, humains ou animaux, présents ou futurs, encourage en fait beaucoup chaque altruiste à prendre soin de son bien-être, mais aussi, à acquérir des ressources, des compétences et du pouvoir. C’est ainsi que nos impacts sur le monde pourront être grandement bénéfiques. Même l’altruisme pourrait en fait nécessiter des objectifs instrumentaux d’apparence égoïstes 21 . Sur le long terme, le gros problème, c’est que l’humanité pourrait devenir un frein, voire une menace, aux objectifs instrumentaux des IA. Après tout, la plus grande menace envers une IA surpuissante semble être une IA plus puissante encore, mais avec un objectif différent. Tant que l’humanité sera là, il semble que cette menace ne sera pas complètement anéantie. Et l’IA pourrait conclure qu’il lui est instrumentalement utile de se débarrasser de cette menace. Autrement dit, anéantir toute menace potentielle semble être un objectif instrumental convergent. Dès lors, l’humanité pourrait être en grave danger le jour où une IA capable de planifier sur le long terme subit la convergence instrumentale. Non pas parce que cette IA aura une animosité envers les humains. Mais parce que la planification stratégique de cette IA à long terme aura probablement des effets secondaires d’ampleur planétaire. Que pensez-vous de cette conclusion ? Une IA qui maximiserait un objectif indésirable vous paraît-elle inconcevable ? Si oui, pourquoi ? Que pensez-vous des nombreux exemples historiques d’humains agissant selon des objectifs indésirables ? Leurs objectifs étaient-ils toujours fondamentalement indésirables ? Les conséquences indésirables de leurs actions n’étaient-elles pas davantage des effets secondaires ? Quels pourraient être les effets secondaires des IA optimisant des proxies de ce que l’on considère désirable ? Pouvez-vous penser à d’autres illustrations de la loi de Goodhart ? Quid des hacks des récompenses ? Sommesnous trop obnubilés par des métriques ? Comment remplacer ces métriques ? 21.
Effective altruism, YouTube and AI | LN Hoang (2018)
CONVERGENCE INSTRUMENTALE
179
Pourriez-vous donner des exemples d’objectifs instrumentaux d’IA, d’humains ou d’organisations humaines ? Pensez-vous que nous avons exagéré la difficulté de concevoir adéquatement des objectifs ? Nous vous invitons à méditer avec bienveillance et modestie, seul ou à plusieurs, les raisonnements de ce chapitre. En particulier, nous vous prions de faire un effort particulier de pédagogie, de nuance et de clarté. Les idées présentées ici sont très contre-intuitives. Pire, elles sont souvent balayées d’un revers de la main et tournées en dérision. Surtout si vous voulez diffuser ces idées à votre tour, il semble crucial de prêter une grande attention à la qualité de la communication de ces idées. En particulier, nous vous supplions de réfléchir aux effets secondaires très néfastes d’une mauvaise communication de ces idées.
Références Super intelligence : le grand défi de l’humanité | Dunod | N Bostrom (2017) Algorithmes : la bombe à retardement | Les Arènes | C O’Neil (2018) The Big Picture : On the Origins of Life, Meaning, and the Universe Itself | Dutton | S Carroll (2017) Reframing Superintelligence : Comprehensive AI Services as General Intelligence | E Drexler (2019) The First Level of Super Mario Bros. is Easy with Lexicographic Orderings and Time Travel | T Murphy (2013) Robots that can adapt like animals | Nature | A Cully, J Clune, D Tarapore, JB Mouret (2015) The Surprising Creativity of Digital Evolution : A Collection of Anecdotes from the Evolutionary Computation and Artificial Life Research Communities | J Lehman et al. (2018) Faulty Reward Functions in the Wild | OpenAI | J Clark & D Amodei (2016) Specification gaming examples in AI | V Krakovna (2018) Google parent Alphabet reports soaring ad revenue, despite YouTube backlash | Washington Post | H Shaban (2018) The Rules for Rulers | CGP Grey (2016) L’économie de l’attention : le commencement ! Stupid Economics | A Gantier & V Levetti (2018) L’économie de l’attention : la fin est proche ! Stupid Economics | A Gantier & V Levetti (2018) 4 Experiments Where the AI Outsmarted Its Creators | Two Minute Papers | K Zsolnai-Fehér (2018) How a handful of tech companies control billions of minds every day | TED | T Harris (2017)
180
CHAPITRE 10. LE BUT DES IA
The Orthogonality Thesis, Intelligence, and Stupidity | Robert Miles (2018) Why Would AI Want to do Bad Things ? Instrumental Convergence | R Miles (2018) Artificial Intelligence with Rob Miles (playlist) | Computerphile | S Riley (2016) L’intelligence artificielle et le machine learning (playlist) | Science4All | LN Hoang (2018) Rendre YouTube bénéfique | Probablement | G Chaslot & LN Hoang (2019) AI Alignment Podcast : Human Compatible : Artificial Intelligence and the Problem of Control with Stuart Russell | FLI Podcast | S Russell & L Perry (2019)
Avoir plus de données bat avoir des algorithmes intelligents, mais avoir de meilleures données bat avoir plus de données. Peter Norvig (1956-) Au vu de la complétude de la théorie algorithmique des probabilités (parmi d’autres propriétés désirables), on s’attend à ce que l’IA complète [que j’ai décrite] devienne un outil de résolution de problème extrêmement puissant — qui va bien au-delà des fonctionnalités limitées des IA incomplètes actuelles. Ray Solomonoff (1926-2009)
11
L’IA doit comprendre le monde
En quête de solutions robustes Malheureusement, les discussions autour des risques ou de l’éthique des IA s’arrêtent souvent à des principes vagues et difficilement interprétables. L’humain doit s’approprier l’IA, entend-on parfois. Voilà un joli principe. Cependant, les informaticiens qui devront l’implémenter seront alors bien embêtés. Pour contribuer de manière effective au développement d’IA robustement bénéfiques, il semble crucial de réfléchir à des solutions techniques compatibles avec le fonctionnement des IA d’aujourd’hui et de demain, plutôt que de s’arrêter à des déclarations séduisantes mais terriblement vagues et ambiguës. Côté technique, de nombreuses solutions proposées abordent uniquement une partie du problème. Par exemple, certaines recherches se concentrent sur un seul type de biais algorithmique pour une application donnée. En isolant ainsi chaque problème, il semble toutefois y avoir un risque qu’une vision globale du problème nous échappe. En particulier, au fur et à mesure que les IA sont déployées pour de plus en plus d’applications, et ce avec des performances inédites, le nombre de problèmes à résoudre risque de croître trop rapidement pour que chacun soit adressé convenablement. Pour rendre les IA robustement bénéfiques, il semble crucial de réfléchir à des solutions globales. Il semble critique de proposer des solutions de fond, qui corrigent les problèmes en profondeur et de manière durable. Pour y arriver, il semble alors indispensable de comprendre le fonctionnement des IA dans leur entièreté et dans leur généralité. En informatique, on parle de programmation
184
CHAPITRE 11. L’IA DOIT COMPRENDRE LE MONDE
end-to-end, qu’on pourrait traduire en « bout à bout ». C’est ce que le reste de ce livre propose. Plus précisément, on cherchera à prendre du recul sur le fonctionnement des IA les plus influentes d’aujourd’hui, et à identifier les étapes clés pour rendre ces IA robustement bénéfiques. Autrement dit, on essaiera de décomposer la tâche globale de rendre une IA robustement bénéfique en un petit nombre d’étapes, lesquelles seront ensuite subdivisées en davantage de sous-problèmes. Par ailleurs, on tentera de faire en sorte que ces différentes étapes, voire ces différents sous-problèmes, soient aussi orthogonaux et complémentaires que possible. Idéalement, chaque sous-problème devrait pouvoir faire l’objet d’un champ de recherche indépendant des autres sous-problèmes. Et néanmoins, idéalement, la combinaison des solutions des sous-problèmes devrait suffire à accomplir avec succès le fabuleux chantier pour rendre les IA robustement bénéfiques.
La feuille de route Cette motivation nous a conduits à décomposer la conception des IA en cinq étapes 1 . Par souci pédagogique, nous allons considérer que chaque étape correspond à une IA différente. Erin sera en charge de la collecte de données. Puis Dave cherchera à inférer les états probables du monde, à partir des données d’Erin. Ensuite, Charlie aura la tâche d’assigner un score à chaque état possible du monde, conformément aux préférences humaines. Puis Bob exploitera toutes ces informations pour concevoir des récompenses adéquates à assigner à Alice. Alice, enfin, étudiera les motivations assignées par Bob pour optimiser une prise de décision. Cette décomposition est illustrée par la Figure 11.1.
Figure 11.1. Nous proposons de décomposer l’alignement en 5 étapes : la collecte de donnée par Erin, l’inférence de l’état du monde par Dave, le calcul de la désirabilité des états du monde par Charlie, la conception d’incitatifs par Bob et la prise de décision par Alice. Les prochains chapitres chercheront à justifier la pertinence de cette décomposition. Cependant, nous tenons d’ores-et-déjà à insister sur un point. Cette décomposition, ou feuille de route, est probablement très insatisfaisante. Il ne faut absolument pas la voir, en tout cas pour l’instant, comme une condition nécessaire (encore moins suffisante !) pour rendre les IA robustement bénéfiques. 1. Cette feuille de route a été d’abord proposée dans cet article un peu plus technique et succinct : A Roadmap for Robust End-to-End Alignment | LN Hoang (2019)
LE RÔLE DES SCIENCES
185
Nous espérons en fait fortement que de bien meilleures alternatives seront proposées. Notre objectif final est de rendre les IA robustement bénéfiques. Pas d’imposer une façon de penser. Ceci étant dit, malgré ses très probables très nombreuses imperfections, il nous semble que cette feuille de route est probablement utile. Surtout à l’heure actuelle où, à notre humble avis et en l’état actuel de nos connaissances, aucun cadre de travail plus complet ne semble avoir été proposé. Notez que, dans les deux chapitres précédents, nous avons déjà longuement parlé de l’un des composants de notre feuille de route, à savoir Alice. Qui plus est, on a vu que, de nos jours, les incitatifs à rendre Alice performante sont énormes. Même s’il reste beaucoup de défis importants à relever dans la conception sécurisée d’Alice, parce qu’il s’agit d’un axe de recherche déjà très investigué, il nous semble préférable dorénavant d’insister sur les autres composants de la feuille de route. Dans ce chapitre, nous allons nous arrêter sur la collecte de données par Erin, et l’inférence de l’état du monde par Dave. Ces travaux d’Erin et Dave correspondent en fait à une forme de travail scientifique.
Le rôle des sciences Il semble que, de nos jours, dans de nombreux pays à travers le monde, la science souffre d’une remise en question par le grand public, surtout quand elle semble s’attaquer à la religion, la politique ou la morale. En particulier, il est rare que le consensus scientifique informe les débats publics autant qu’il le devrait. Surtout sur des sujets clivants comme le nucléaire, la santé ou les inégalités sociales. Typiquement, suite à de nombreuses études empiriques, un consensus scientifique prononcé a émergé, à la fois sur l’origine anthropique du changement climatique 2 et sur le fait que le glyphosate n’est pas cancérigène aux doses utilisées par l’agriculture conventionnelle 3 . Cependant, il est très rare qu’un individu, surtout en France, accepte ces deux consensus scientifiques à la fois. Bien souvent, on a tendance à juger ce qu’il faut croire en fonction de ce que nos intuitions religieuses, politiques et morales nous incitent à croire. Eu égard à la rigueur très largement supérieure du consensus scientifique. Mais, rétorquent certains, la science n’a pas son mot à dire sur le bien et le mal. Elle ne peut pas nous faire la morale. Cette réplique a même un nom. Il s’agit de la guillotine de Hume 4 dont on a parlé dans le chapitre précédent. Et quand bien même elle ne serait pas valide, il semble que l’on ne dispose pas aujourd’hui de méthode consensuelle pour inférer de données observationnelles ce qui devrait être. Nous reviendrons plus longuement sur ce point dans le chapitre 16. Ainsi, la science ne semble pas dire ce qui devrait être. Néanmoins, elle demeure 2. 3. 4.
Le changement climatique, un constat ! Le Réveilleur | R Meyer (2015) Glyphosate : Monsanto nous empoisonne ? Matadon (2017) Le gros livre de Wittgenstein | Monsieur Phi | T Giraud (2018)
186
CHAPITRE 11. L’IA DOIT COMPRENDRE LE MONDE
cruciale pour anticiper les conséquences des actions que l’on entreprend. Du coup, pourvu que l’on se préoccupe un tant soit peu du futur, il est indispensable de s’appuyer sur la science, et en particulier sur les prédictions scientifiques, pour déterminer les meilleures actions à entreprendre pour le futur. Mais ce n’est pas tout. Un autre aspect contre-intuitif de la morale, c’est qu’elle a tendance à se préoccuper de l’état du monde. Prenons l’exemple de la biodiversité 5 . On considère souvent que certains états du monde, comme la survie d’une espèce protégée, sont préférables. Cependant, déterminer l’état du monde, comme l’existence d’individus de l’espèce, est une tâche délicate ! Elle nécessite de collecter des données et de les interpréter adéquatement. Elle requiert une approche empirique. Aussi étrange que cela puisse paraître, la morale semble ainsi devoir se reposer sur la science pour juger l’état du monde. Ce qui est vrai de tout humain partiellement préoccupé par le futur est aussi valable pour une IA par renforcement. Sans donnée et sans interprétation adéquate de ces données, Alice sera incapable de prédire adéquatement ses récompenses futures probables. Mais surtout, le calcul de ces récompenses sera alors probablement mal informé, et donc inadéquat. Or, on a vu que le calcul adéquat de ces récompenses était critique pour rendre les IA robustement bénéfiques. Il est donc tout aussi critique de garantir une collecte et une interprétation adéquate de données empiriques. C’est sur ces deux points, incarnés respectivement par Erin et Dave, que l’on va insister dans ce chapitre.
Collecte de données S’il y a bien une chose à retenir d’un cours sur le machine learning, c’est que sans données, on ne peut pas faire grand chose. En fait, pour apprendre des performances raisonnables, il faut même d’énormes quantités de données. Fort heureusement, de nos jours, il y a effectivement d’énormes quantités de données sur Internet. Une IA aurait ainsi beaucoup à apprendre en lisant tout Wikipédia, en regardant tout Instagram, en visionnant tout YouTube et en analysant tout Twitter. Elle pourrait se tenir informée en lisant les médias d’actualité, et approfondir ses connaissances en parcourant les publications scientifiques sur ArXiV ou ResearchGate. Si l’IA a soif d’apprendre, Internet héberge largement de quoi l’occuper ! Cependant, toutes les données ne se valent pas. En particulier, la quantité ne suffit pas. La qualité des données importe grandement. Or, sur Internet, beaucoup des informations du Web sont en fait erronées, biaisées, trompeuses, fabriquées, voire hackées. Une IA qui apprendra avec de telles données apprendra des modèles inadéquats. 5. Si vous n’attachez aucune valeur à la biodiversité, nous vous invitons à penser à l’extrême pauvreté, la santé de vos proches ou même votre état de santé à la place.
VALIDITÉ ET STOCKAGE
187
Validité et stockage Pour éviter d’apprendre de mauvaises données, il semble crucial d’estimer la fiabilité de telle ou telle donnée. Les métadonnées, c’est-à-dire les informations qui contextualisent les données, paraissent indispensables pour y arriver. Une donnée d’un article de la revue scientifique Nature sera probablement plus fiable qu’une donnée fournie par un utilisateur inconnu de Reddit. Cependant, surtout si notre IA est influente, il faut s’attendre à ce que certains individus ou certaines entités cherchent à biaiser l’apprentissage de l’IA à leur profit. Et pour cela, ils peuvent vouloir exposer l’IA à des données trompeuses, modifiées ou fabriquées, et à leur donner l’apparence de provenir de la revue scientifique Nature. Pour empêcher de telles manipulations de nos IA, il est alors indispensable de disposer d’un système de certification des données. Par chance, la cryptographie nous fournit de tels systèmes. L’un des outils devenus incontournables pour vérifier qu’un (potentiellement très long) fichier numérique n’a pas été corrompu, volontairement ou non, est le hash, aussi appelé empreinte digitale 6 . L’idée du hash, c’est d’effectuer une sorte de bidouille de tous les bits du fichier, pour en déduire un nombre. Ce nombre est le hash. Et de façon cruciale, toute infime modification du fichier conduit à un hash radicalement différent. Imaginons qu’on a calculé le hash d’un fichier au moment de sa création. Un an plus tard, ou après téléchargement du fichier, on peut vérifier la validité de notre version du fichier en calculant son hash, et en le comparant au hash de la version initiale du fichier. Si ces hashs coïncident, alors on pourra être sûr 7 que notre version du fichier est conforme à sa version initiale. Voilà qui est particulièrement utile pour des gros fichiers dont chaque donnée joue un rôle critique, comme on en trouve dans le domaine bancaire. Pour garantir la validité des comptes de leurs clients, les banques s’appuient sur des copies des listes de transactions historiques des clients. Ces copies sont dispersées sur plusieurs machines, pour ne pas perdre les données en cas de panne d’une machine. Puis chaque copie vérifie régulièrement sa propre validité à l’aide du calcul de son hash. Si la copie a été corrompue, elle pourra ainsi le savoir et demander aux autres machines de lui renvoyer une version valide. Le système décrit ci-dessus est un exemple d’un champ de recherche plus large appelé algorithmique distribuée, sur lequel on reviendra dans le chapitre 15. La remarque fondamentale de cette discipline est qu’un ordinateur seul est lent et peut dysfonctionner. Pour bien mieux garantir la validité de ses calculs, il est indispensable de le remplacer par tout un réseau de machines. Mais surtout, les 6. Hashage et empreintes cryptographiques | String Theory | LN Hoang (2018) 7. Techniquement, on ne peut pas être sûr à 100 %, mais pour des hashs assez long, la probabilité d’une erreur sachant la validité du hash est de l’ordre de 10−30 . Une telle probabilité est ultra négligeable comparée à de nombreux risques du quotidien, comme un accident de la route.
188
CHAPITRE 11. L’IA DOIT COMPRENDRE LE MONDE
machines de ce réseau doivent parvenir à communiquer efficacement pour que le réseau persiste à fonctionner correctement, même si une machine du réseau dysfonctionne, ou est hackée par un attaquant malveillant. Ces machines doivent utiliser des algorithmes dits distribués et résilients aux fautes byzantines 8 . En particulier, le stockage fiable de l’information dans des systèmes distribués a été beaucoup étudié par les chercheurs du domaine. Malheureusement, ces chercheurs ont démontré de nombreux théorèmes d’impossibilité du stockage dynamique fiable de l’information dans un cadre général. Des solutions ont été trouvées dans des cas particuliers. Mais surtout, en 2008, le protocole du Bitcoin est parvenu à proposer un algorithme distribué appelé la Blockchain 9 . À défaut de garantir la validité du stockage dynamique de l’information, la Blockchain réussit la prouesse remarquable d’affirmer à tout instant une validité très probablement fiable de son information 10 . De telles solutions joueront peutêtre un rôle important pour Erin. Elles pourraient lui permettre de (presque parfaitement) garantir le stockage et la validité des données 11 .
Authentification et traçabilité Mieux, pour authentifier les données, c’est-à-dire garantir leur origine, Erin pourra s’appuyer sur la signature électronique 12 . Cette technique est d’ailleurs déjà utilisé à travers le Web pour certifier que le tweet posté par un utilisateur a bien été composé par cet utilisateur, et non par un usurpateur. Le principe de la signature, en gros, c’est d’assigner à tout utilisateur une clé publique et une clé privée. Ces clés sont en fait de courts fichiers numériques. En combinant la donnée qu’il a produite avec sa clé privée, l’utilisateur peut alors concevoir un court fichier électronique. Ce fichier est sa signature. La magie de la cryptographie, c’est qu’un calcul permet à tout observateur de combiner la clé publique de l’utilisateur et la donnée produite pour vérifier la validité de la signature. Plus précisément, ce calcul de l’observateur montrera que la signature du message ne pourra avoir été conçue que par une entité possédant la clé privée. À moins d’un vol de cette clé 13 , l’observateur, typiquement Erin, pourra certifier l’authenticité de la donnée produite. C’est ainsi qu’Erin saura 8. Le mot « byzantin » désigne des utilisateurs malveillants, et fait référence au problème des « généraux byzantins » introduit notamment par l’informaticien Leslie Lamport, prix Turing 2014, dont on reparlera dans le chapitre 15. 9. La révolution Blockchain | String Theory | LN Hoang (2018) 10. En particulier, plus l’information est vieille, plus la probabilité de sa validité est grande, même si on n’est jamais à l’abri de « fourchettes » de la Blockchain qui rendraient l’information invalide. 11. Notez que si la base de données n’a pas besoin d’être totalement ordonnée, alors il existe des algorithmes distribués de stockage de données bien plus efficaces, comme AT2. Voir : AT2 : Consensusless Decentralized Cryptocurrency (playlist) | ZettaBytes, EPFL (2019) 12. Comment Facebook utilise-t-il votre mot de passe ? String Theory | LN Hoang (2019) 13. Si l’observateur est humain, un tel vol ne semble pas improbable, ce qui réduit la fiabilité de l’authentification. Voir : Security | xkcd | R Munroe
CONFIDENTIALITÉ
189
que des informations signées par Wikipédia viennent bel et bien de Wikipédia. En combinant les signatures électroniques et le stockage dynamique distribué, Erin pourrait ainsi permettre la traçabilité des informations. Voilà qui permettrait à Alice de déterminer qui a affirmé quoi. De telles considérations semblent indispensables pour juger la crédibilité des différentes sources d’information, ce qui sera ensuite très utile pour juger la crédibilité des informations 14 .
Confidentialité La collecte de l’information par Erin risque toutefois d’entrer en conflit avec la protection des données personnelles et la vie privée. En effet, pour qu’Alice soit aussi robustement bénéfique que possible, il lui faut comprendre le monde qui l’entoure, ce qui semble nécessiter la collecte d’un maximum de données. Or, de telles données incluent les réseaux sociaux, les images satellites et les caméras de surveillance des lieux publics. Du reste, il est intéressant de noter que toute donnée peut potentiellement trahir la vie privée d’un individu de manière indirecte. Par exemple, le code postal d’un individu suffit à inférer plein de choses sur son niveau socio-économique probable et ses préférences vestimentaires. Pire, à l’instar de la NSA qui a ainsi réussi à déanonymiser des comptes Bitcoin, des méta-données d’apparence anodine, comme l’heure de publication d’un message, peuvent souvent être croisées pour révéler des informations supposément secrètes. Plus étrange encore, le séquençage d’un morceau de votre ADN révèle des informations potentiellement critiques sur vos cousins. Typiquement, ceci peut conduire à une suspicion de maladie chez ces cousins. Ceci pourrait motiver les assurances à augmenter leurs tarifs pour vos cousins. Votre employeur pourrait aussi les traiter différemment. Vos cousins pourraient alors voir leurs opportunités professionnelles disparaître. La protection des données personnelles est un effort collectif. De façon générale, la publication de toute donnée doit être vue comme un risque potentiel pour la vie privée de tout individu. Dès lors, pourvu qu’on soit préoccupé par la protection des données personnelles, il nous faut reconnaître qu’Erin doit faire face à un compromis entre la qualité et quantité des données qu’elle collecte, et l’infraction à la vie privée que ceci cause inéluctablement. À l’instar du fait de poser des questions personnelles lors des premiers rendez-vous... Pour mieux comprendre le compromis qu’Erin doit résoudre, il semble utile de quantifier la notion de violation des données personnelles. De nombreuses approches ont déjà été proposées, comme la confidentialité différentielle 15 . Mais pour diverses raisons, aucune ne semble encore pleinement satisfaisante, no14. Les applications de cette certification et traçabilité vont bien sûr bien au-delà du cas d’Erin. 15. What is Privacy ? Wandida | LN Hoang (2017)
190
CHAPITRE 11. L’IA DOIT COMPRENDRE LE MONDE
tamment dans le cadre d’un machine learning avec des quantités massives de données. Toutefois, la recherche dans ce domaine est foisonnante. En particulier, une piste prometteuse pourrait être l’idée de la generative adversarial privacy, qui consiste, en gros, à estimer le degré de confidentialité par la capacité d’un réseau de neurones à la violer. Cependant, même là, il reste encore à déterminer quelle quantité (et quelle sorte) de violation de la confidentialité est souhaitable. Cette question revient alors à celle de l’objectif final d’Alice, et donc au calcul de ses récompenses dont on reparlera dans les prochains chapitres.
Le bayésianisme Même si Erin effectue un travail excellent, les données qu’elle aura collectées seront encore incomplètes, bruitées, biaisées, trompeuses, corrompues, voire hackées. Elles ne diront pas tout de l’état du monde. Pour comprendre et décrire l’état de ce monde, il va falloir interpréter adéquatement les données extraites de ce monde. Tel est le job de Dave. Cette tâche peut paraître mal définie. Il existe toutefois un cadre philosophique dans lequel elle correspond en fait à un calcul précis. Ce cadre est le pur bayésianisme, et en particulier le cadre du bayésianisme introduit par l’informaticien Ray Solomonoff. Appelons T une théorie complète du monde, qui décrit à la fois les lois et les états physiques du monde. Et appelons D les données collectées par Erin. La formule de Bayes nous dit alors que la crédibilité de la théorie T sachant les données D est déduite du calcul suivant : P[T |D] =
P[D|T ]P[T ] X , P[D|T ]P[T ] + P[D|A]P[A] A6=T
où la lettre A désigne les alternatives à T . L’un des auteurs a d’ailleurs consacré son premier livre La Formule du Savoir à cette merveilleuse équation, ainsi que nombre de ses vidéos Science4All. Ce qui semble important à noter, c’est que le bayésianisme nous invite à ne pas nous arrêter à une seule théorie T . Il nous invite davantage à considérer que toute donnée D peut souvent être interprétée adéquatement par de nombreuses théories distinctes, et qu’il est important de tenir compte de cette diversité des interprétations des données. En apprentissage-machine, cette remarque est connue sous le nom d’ensembling ou de bagging. Dans La Formule du Savoir, elle est résumée par la phrase 16 « une forêt de modèles incompatibles est plus sage que chacun de ses arbres ». Ce principe permet d’éviter de rester enfermé dans un modèle trompeur 17 . Il 16. La sagesse des forêts | Science4All | LN Hoang (2017) 17. Dans le jargon du machine learning, on parle de biais du modèle.
APPROXIMATIONS PRAGMATIQUES
191
invite Dave à mesurer l’étendue de son ignorance. Voilà qui sera sans doute une mesure de sécurité importante pour la robustesse d’Alice. En effet, en mesurant mal la validité de son modèle, Alice pourrait négliger des conséquences peu probables mais potentiellement catastrophiques de ses actions. Sachant que, à l’instar de l’IA de YouTube, Alice prendra sans doute des millions, voire des milliards de décisions par jour, si chacune de ses actions a une probabilité de 1 % d’avoir des conséquences néfastes, il faut s’attendre à ce que, chaque jour, Alice soit alors amenée à prendre un très grand nombre d’actions néfastes. Pour qu’Alice soit robustement bénéfique, il faut absolument que ceci n’arrive pas. Alice doit mesurer aussi bien que possible son ignorance et l’incertitude adéquate qu’elle se doit d’avoir sur l’état du monde.
Approximations pragmatiques Malheureusement, Dave ne pourra pas appliquer la formule de Bayes telle quelle. En effet, cette formule requiert des calculs déraisonnables 18 . À l’instar des humains, Dave devra se contenter de calculs approchés peu coûteux en temps et en énergie. Malheureusement, déterminer des approximations pragmatiques de la formule de Bayes est encore un vaste champ de recherche. Pire, il semble plausible que toute solution suffisamment satisfaisante soit nécessairement une complexe combinaison d’un grand nombre de techniques différentes. L’approche la plus courante consiste à fixer un modèle avec des paramètres à ajuster. Selon les cas d’études, les modèles considérés par les chercheurs sont plus ou moins sophistiqués. Et selon la quantité et la qualité des données collectées, les modèles disposeront de plus ou moins de paramètres à ajuster. L’ajustement de ces paramètres est ensuite effectué via des algorithmes dits d’apprentissage, qui peuvent être plus ou moins compliqués. Depuis quelques années, de manière étonnante et spectaculaire, dans de nombreux domaines allant de l’analyse d’images à la planification stratégique dans les jeux vidéos, en passant par le traitement du langage naturel, le sous-titrage de vidéo, le diagnostic médical et les simulations scientifiques, un modèle en particulier a explosé les performances de l’état de l’art et a envahi l’industrie. Ce modèle est celui des réseaux de neurones profonds, aussi appelés deep learning 19 . L’étrange particularité de ces réseaux, c’est d’avoir étonnamment peu de structure, mais énormément de paramètres 20 . Il semble que ce qui a permis à ces réseaux de neurones d’atteindre de telles performances est surtout la descente de gradient 21 . De façon grossière, la descente 18. Dans le cadre de Solomonoff, elle est même incalculable. Pire, le théorème d’incomplétude de Solomonoff montre, en gros, qu’aucune approche calculable n’offre des garanties d’approximation. Les réseaux de neurones | Science4All | LN Hoang (2018) 19. 20. Le deep learning | Science Étonnante | D Louapre (2016) 21. La descente de gradient (stochastique) | Science4All | LN Hoang (2018)
192
CHAPITRE 11. L’IA DOIT COMPRENDRE LE MONDE
de gradient est un algorithme d’apprentissage qui permet une exploration des paramètres guidée efficacement par les données. Voilà qui semble indispensable quand le nombre de paramètres est très grand 22 . Or l’argument de Turing, dont on a parlé dans le chapitre 9, suggère fortement qu’il est nécessaire de disposer d’un tel grand nombre de paramètres. Il semble donc que les réseaux de neurones seront probablement des composants importants des calculs de Dave.
Les représentations vectorielles Mais un unique réseau de neurones ne suffira sans doute pas. D’ailleurs, la recherche actuelle s’intéresse beaucoup à comment combiner différents modules optimisés pour différentes tâches. À cet égard, l’architecture des réseaux adversariaux génératifs (GAN) 23 semble particulièrement prometteuse, notamment pour l’approximation de Bayes pour des jeux de données brutes, indépendantes et de grandes tailles, comme des banques d’images. Le principe grossier d’un GAN est d’opposer deux réseaux de neurones. Le premier est le générateur. Son rôle est la création de fausses données qui imitent les données réelles. Pour y arriver, le générateur sera aidé par un autre réseau de neurones appelé discriminateur. Ce dernier guidera le générateur en lui disant comment rendre ses créations plus réalistes. Le génie des GAN, c’est que pour y arriver, le discriminateur peut s’appuyer sur le générateur, en cherchant à distinguer autant que possible ce qui distingue les créations des données réelles. Ce faisant, générateur et discriminateur progresseront ensemble. De façon très contre-intuitive, cet apprentissage permet aux générateurs de faire bien plus que créer des images et des vidéos stupéfiantes. En effet, le générateur est conçu de telle sorte que les données qu’il crée dépendent de manière déterministique d’une sorte de graine initiale, appelée représentation vectorielle 24 . De façon remarquable, cette représentation vectorielle correspond à une sorte de résumé informatif des données générées. Mieux encore, il est alors possible d’entraîner un troisième réseau de neurones, parfois appelé encodeur, dont la tâche est d’inverser le générateur. Autrement dit, pour une donnée brute initiale, l’encodeur cherchera à identifier une représentation vectorielle à partir de laquelle le générateur créerait une donnée semblable à la donnée brute initiale. L’encodeur compresse ainsi la donnée brute pour n’en retenir que son essence 25 ! Plus génial encore, cette représentation vectorielle est parfois partiellement inter22. La difficulté de l’exploration des espaces de très grande dimension est d’ailleurs extrêmement contre-intuitive, à tel point que l’on parle de fléau de la dimensionnalité. Hypersphères | Science4All | J Cottanceau et LN Hoang (2018) 23. Les réseaux adversariaux (GAN) | Science4All | LN Hoang (2018) 24. Cette représentation vectorielle est un vecteur dans un espace de dimension « raisonnable » souvent de l’ordre de 100 ou 1000. Le réseau de neurones calcule ensuite la donnée qui correspond à cette représentation vectorielle. Certaines architectures autorisent parfois un calcul randomisé, notamment via dropout. 25. Voilà qui est sans doute un composant majeur de l’IA de YouTube pour synthétiser le contenu d’une vidéo et estimer sa pertinence pour tel ou tel utilisateur.
MODÈLE DU MONDE
193
prétable. Ou du moins, de nombreuses études sont parvenues à associer certaines notions comme l’âge d’un visage à des directions de l’espace des représentations vectorielles. Dès lors, en ajustant la représentation vectorielle, on peut modifier comme on le souhaite la création du générateur. En un sens, ceci nous permet une analyse contre-factuelle, comme imaginer le visage d’un individu s’il avait 30 ans de plus, comme le propose l’application FaceApp. Mieux encore, les représentations vectorielles se prêtent étonnamment bien à l’addition de concepts. Ainsi, on peut prendre une photo d’un visage sans lunettes de soleil. Puis calculer la représentation vectorielle de la photo. Puis ajouter à cette représentation vectorielle un vecteur représentant le concept de lunettes 26 . L’image créée par le générateur à partir de la représentation vectorielle ainsi obtenue sera celle du visage initial portant désormais des lunettes. Incroyable ! Les GAN peuvent faire des opérations sémantiques des images 27 . Notez que, dans cette section, nous nous sommes arrêtés au cas des GAN appliqués à l’analyse d’images. Cependant, ces notions de représentations vectorielles, de simulations contre-factuelles et d’opérations sémantiques s’appliquent en fait à de nombreuses autres architectures de machine learning et à de nombreuses autres sortes de données, à l’instar de word2vec en traitement du langage naturel. De façon étrange, la compression de l’information en représentation vectorielle semble permettre certaines opérations sémantiques relativement conformes avec l’intuition humaine.
Modèle du monde Cependant, jusque-là, ces représentations vectorielles se restreignent à des objets dont l’information pertinente est relativement simple, à savoir une unique image, un mot ou peut-être une phrase pas trop longue. Or le job de Dave n’est pas la description de tels objets. Il est en fait crucial pour Dave de chercher à décrire l’état global du monde, notamment pour éviter d’éventuels effets secondaires catastrophiques. En effet, si Dave oublie de décrire, disons, le changement climatique, alors Alice pourrait croire que le climat va et ira très bien, par manque de compréhension du monde. Pire, elle pourrait entreprendre des actions horriblement néfastes pour le climat, sans jamais se rendre compte que ces actions sont néfastes. Ces actions pourraient même légèrement profiter à tous ceux qui ne souffrent pas du changement climatique, donnant ainsi à Alice l’impression erronée que ses actions sont globalement nettement bénéfiques. Aussi performante soit-elle, si Alice n’a pas de données qui indiquent que le monde va mal, Alice ne saura pas que le monde va mal. Malheureusement, Dave échouera probablement à résumer toute la complexité 26. Ce vecteur lunettes peut être obtenu en retranchant les représentations vectorielles de photos de visage sans lunettes à des représentations vectorielles de photos de visage avec lunettes. 27. Roi - homme + femme = ? ? ? Science4All | LN Hoang (2018)
194
CHAPITRE 11. L’IA DOIT COMPRENDRE LE MONDE
du monde en un seul vecteur relativement simple 28 . Par ailleurs, quand bien même ce serait possible, il semble souhaitable de disposer de modèles plus structurés et plus interprétables, ne serait-ce que pour mieux comprendre et déboguer la représentation vectorielle de Dave. Il est intéressant de noter que ce travail de représentation de l’état du monde via des modèles structurés est déjà une priorité aujourd’hui pour de nombreux organismes. Les économistes ont ainsi introduit de nombreux indicateurs pour y arriver, comme la parité de pouvoir d’achat, l’indice de développement humain et le bonheur national brut. De même, l’Organisation mondiale de la santé (OMS) utilise des calculs compliqués à partir de données collectées pour inférer les causes probables de décès dans différentes régions du monde, et les années de vie en bonne santé perdues (mesurées en DALY et QALY) que diverses maladies causent 29 . Représenter des informations complexes est un vaste champ de recherche en IA appelé représentation de savoir, ou knowledge representation. Historiquement en tout cas, notamment dans un projet de Google, ce domaine s’est particulièrement intéressé à l’utilisation de graphes étiquetés pour associer différentes notions entre elles 30 . Ces structures seront probablement utiles à Dave. Enfin, Dave devra sans doute s’adapter aux niveaux d’exigence d’Alice (et de Charlie). En effet, notre monde est très complexe. Sa description ne pourra sans doute pas être réduite à un fichier de seulement, disons, quelques zettaoctets. Pire, affiner cette description représentera très probablement un coût, en termes notamment de puissance de calcul. Plutôt que de chercher à décrire le monde entièrement, ou à décrire toute partie du monde avec le même niveau de description, il semble qu’il sera pertinent pour Dave de détailler la description de certains aspects du monde plutôt que d’autres. Choisir quoi décrire et à quel niveau de précision fera probablement partie du job de Dave. La piste des mécanismes d’attention 31 pourrait être utile à cet égard.
Attaques adversariales Peu importe les facultés de Dave, il est crucial de garder en tête que ses conclusions dépendront fortement des données auxquelles il a accès. Or, à l’instar de YouTube qui exploite des données des spectateurs et des créateurs de vidéos, 28. L’avènement des transformeurs et des mécanismes d’attention suggère toutefois que des quantités monumentales d’information pourraient être stockées et analysées adéquatement sous forme de représentation matricielle. Voir : AI Language Models & Transformers | Computerphile | R Miles & S Riley (2019) 29. QALYs & DALYs. Indicateurs synthétiques de santé | Risque Alpha | T Le Magoarou (2017) Principles of semantic networks : Explorations in the representation of knowledge | 30. Morgan Kaufmann | J Sowa (2014) 31. Attention is all you need | NeurIPS | A Vaswani, N Shazeer, N Parmar, J Uszkoreit, L Jones, AN Gomez, L Kaiser & I Polosukhin (2017)
ATTAQUES ADVERSARIALES
195
les données de Dave seront influençables par diverses entités. Mais surtout, ces entités ne seront pas indifférentes aux actions d’Alice, surtout si Alice devient une IA très influente — à l’instar de YouTube. Il faut donc envisager la possibilité qu’elles chercheront à influencer les actions d’Alice, quitte à révéler des données corrompues ou fabriquées. On parle d’attaque adversariale . La recherche en IA a identifié deux sortes de telles attaques, parmi d’autres. La plus connue est la notion d’attaque par évasion. Elle consiste à modifier légèrement une donnée pour amener une IA à une mauvaise interprétation de cette donnée. Cette attaque est particulièrement bien illustrée par un exemple devenu célèbre découvert par Ian Goodfellow et ses collaborateurs 32 en 2014. Cet exemple est la détection d’un panda dans une image par l’une des meilleures IA de l’époque. En effectuant une toute petite modification de l’image, on obtient une autre image qui, pour l’œil humain, est indiscernable de l’image originale. Clairement, selon l’œil humain, il s’agit encore d’une image de panda. Pourtant, de façon étrange, l’IA pense désormais y voir un gibbon.
Figure 11.2. Exemple d’attaque par évasion : une image de panda est modifiée par une perturbation infime. L’image modifiée est alors classée comme « gibbon » avec quasi-certitude. Le plus étonnant, c’est que l’IA est désormais sûre d’elle. Alors qu’elle prédisait la présence de panda dans l’image originale avec probabilité 57,7 %, elle est désormais sûre à 99,3 % que l’image modifiée contient un gibbon. Plus inquiétant encore, cette facilité à tromper les IA n’a cessé d’être observée chez toutes les IA conçues à ce jour. Pour l’instant en tout cas, il semble encore impossible de concevoir des IA robustes aux attaques par évasion 33 . 32. Generative adversarial nets | NeurIPS | I Goodfellow, J Pouget-Abadie, M Mirza, B Xu, D Warde-Farley, S Ozair, A Courville & Y Bengio (2014) 33. Certains arguments théoriques qui s’appuient notamment sur la concentration de la mesure en très grandes dimensions cherchent même à prouver l’impossibilité de la robustesse à ces attaques. Cependant, leurs hypothèses ne semblent pas très réalistes. Davantage de recherche dans ce domaine semble indispensable. Voir : Hypersphères | Science4All | J Cottanceau & LN Hoang (2018)
196
CHAPITRE 11. L’IA DOIT COMPRENDRE LE MONDE
Cette vulnérabilité des IA aux attaques par évasion a déjà des effets secondaires majeurs. En février 2019, de nombreux annonceurs ont ainsi découvert que l’IA de censure de YouTube était insuffisante pour filtrer toutes les vidéos pédophiles. Pire, ces vidéos étaient parfois recommandées. Imaginez cela ! À cause de l’IA de YouTube, un jeune enfant pourrait être exposé à des images de pédophilie 34 . Bien entendu, cette fonctionnalité n’a pas été programmée par YouTube. Il y a probablement eu d’énormes investissements de YouTube pour concevoir une IA de censure de pédophilie fiableà plus de 99 %. Cependant, même si cette IA est valide à 99,999 %, il suffit qu’un million de vidéos pédophiles soient mises en ligne pour qu’une dizaine passent le filtre. Pire, les utilisateurs qui mettent en ligne ces vidéos ont sans doute identifié des failles de l’IA de censure, en testant différents réglages de luminosité, de contraste ou de colorimétrie. Une fois un bon réglage utilisé par les utilisateurs malveillants, il se pourrait que 50 % des vidéos mises en ligne passent désormais le filtre de l’IA de censure. Une autre forme d’attaque paraît plus dévastatrice encore, à savoir les attaques par empoisonnement. À l’instar des propagandes ou des campagnes marketing, ces attaques consistent à modifier l’état de connaissance ou les préférences d’un individu ou d’une IA, en injectant dans ses données d’apprentissage des données trompeuses, corrompues ou fabriquées. L’apprentissage de l’IA sera alors corrompu. Malheureusement, en ce sens, on peut considérer que l’IA de YouTube est déjà attaquée par empoisonnement de toute part 35 . Une approche intuitive pour lutter contre l’empoisonnement est d’apprendre à distinguer les vraies données des données falsifiées. Cette approche est efficace contre des attaques grossières. Cependant, il se dessine alors un jeu entre l’attaquant et la défense. En effet, si la défense devient efficace pour filtrer les données falsifiées, alors l’attaquant affinera la falsification des données de sorte qu’elle traverse le filtre, mais persiste à biaiser l’apprentissage de l’IA 36 . Une approche complémentaire repose sur des algorithmes d’apprentissage robustes à ces attaques par empoisonnement. On parle alors d’apprentissage byzantin. Par exemple, un algorithme peut être rendu robuste aux byzantins, ou Byzantine fault tolerant (BFT) en anglais, en remplaçant ses opérations de moyennes par des calculs de médianes. En effet, en supposant qu’un attaquant ne peut contrôler qu’une fraction des données, il peut techniquement modifier drastiquement la moyenne des données 37 . Mais pas la médiane des données 38 . 34. On YouTube, a network of paedophiles is hiding in plain sight | Wired | KG Orphanides (2019) 35. Hacker l’IA | Science4All | EM El Mhamdi & LN Hoang (2018) 36. Autrement dit, l’attaquant effectuera probablement une attaque par évasion du filtre. 37. Typiquement, la descente de gradient consiste à prendre la moyenne des gradients de l’explication des données par les paramètres. Un attaquant peut fabriquer une donnée de sorte que le gradient associé soit infiniment opposé au « vrai gradient ». 38. Machine learning with adversaries : Byzantine tolerant gradient descent | NeurIPS | P Blanchard, EM El Mhamdi, R Guerraoui & J Stainer (2017)
INCERTITUDE
197
Incertitude L’utilité de l’incertitude pour la sécurité des IA semble devenir consensuelle 39 . Typiquement, quand son incertitude est grande, Dave pourrait faire appel à un humain, davantage analyser ses données ou demander à Erin de collecter de meilleures données 40 . Et ainsi réduire les risques de décisions malencontreuses. Cependant, raisonner avec l’incertitude complique tout. En fait, la simple représentation de l’incertitude forme tout un défi de recherche. On distingue généralement trois façons de décrire l’incertitude, qui semblent utiles aussi bien pour les IA que pour nous autres humains. L’approche la plus usuelle consiste à décrire des ensembles d’incertitude, c’est-àdire des ensembles dans lesquels les paramètres ou données ont de très grandes chances de tomber. Dans le cas simpliste d’une donnée pouvant prendre n’importe quelle valeur réelle, on parle d’intervalles de crédence 41 . Grossièrement, un intervalle de crédence à 90 % pour le temps d’attente d’un bus est un intervalle tel que, 90 % du temps, à supposer que nos hypothèses sont valides, le temps d’attente appartiendra à cet intervalle. Les ensembles d’incertitude sont particulièrement utilisés dans une branche de l’optimisation appelée optimisation robuste 42 . En considérant des ensembles d’incertitude, disons, à 99 %, cette approche consiste à concevoir des solutions qui fourniront des résultats prouvablement satisfaisants dans 99 % des cas. Voilà qui est largement suffisant dans de nombreuses applications — mais peut être insuffisant pour une IA qui prend des millions de décisions par jour... Une seconde approche consiste à décrire l’incertitude sur des prédictions ou des paramètres par une loi de probabilité simple qui approche l’incertitude à décrire. On parle de méthode variationnelle. Dans le cas d’une seule variable, la loi de probabilité utilisée sera très souvent une loi dite normale (la fameuse « courbe en cloche »). C’est parce qu’en plus d’être « naturelle », cette loi de probabilité est aisément décrite par seulement deux quantités : la moyenne et l’écart-type. Mieux encore, la loi normale se généralise très bien aux dimensions supérieures 43 . Qui plus est, si une loi normale décrit très mal l’incertitude que l’on veut décrire, 39. Human Compatible : Artificial Intelligence and the Problem of Control | Viking | Stuart Russell (2019) 40. En fait, dans le cadre de la feuille de route, il s’agira du rôle de Bob de motiver Alice à améliorer la collecte de données d’Erin. 41. Les bayésiens distinguent souvent les intervalles de confiance des intervalles de crédibilité, dont les calculs nécessitent un a priori bayésien. Voir : Peut-on faire confiance aux intervalles de confiance ? Science4All | LN Hoang (2019) Vive les intervalles (de crédence) ! ! Science4All | LN Hoang (2019) 42. Régularisation et robustesse | Science4All | LN Hoang (2018) 43. La variance est toutefois alors remplacée par une matrice de covariance, dont la représentation est quadratique en la dimension. Pour certaines applications comme des réseaux de neurones avec des millions de paramètres, cette représentation devient souvent trop coûteuse en ressources de calcul.
198
CHAPITRE 11. L’IA DOIT COMPRENDRE LE MONDE
alors on peut combiner des lois normales pour mieux y arriver. On parle alors de mélange gaussien. Les méthodes variationnelles ont bien d’autres variantes encore et ont de nombreuses applications, notamment en machine learning. Cependant, dans le cas des espaces de très grandes dimensions, comme prédire l’incertitude sur la meilleure photo de vacances qu’on aura prise, ou les scénarios probables d’accidents de la route causés par une voiture autonome, il semble que d’autres solutions soient requises. La méthode privilégiée est souvent l’échantillonnage par Monte Carlo 44 . L’idée de cet échantillonnage est similaire à de nombreux raisonnements que font les joueurs de poker 45 . Ils imaginent divers futurs probables, pour ensuite choisir la stratégie qui maximise les profits (espérés) dans ces futurs probables. Telle est aussi une approche fréquemment utilisée par Nick Bostrom dans son livre Superintelligence pour décrire l’incertitude sur les conséquences de l’émergence d’une superintelligence. Bostrom envisage divers scénarios pour décrire son incertitude. Bostrom reconnaît que chaque scénario semble très peu probable. Cependant, ceci n’est pas un bug. Il s’agit d’une conséquence de l’extrême incertitude de Bostrom : aucun scénario futur ne lui semble vraiment probable car tant de scénarios restent plausibles. Pour diverses raisons algorithmiques, notamment en très grandes dimensions, il se trouve que les informaticiens préfèrent parfois une variante de l’échantillonnage par Monte Carlo, appelée échantillonnage MCMC, pour Markov-Chain Monte Carlo. La subtilité est que, désormais, chaque nouveau scénario envisagé est une légère modification du précédent. MCMC produit alors une suite d’éléments similaires. Néanmoins, on peut généralement démontrer que l’échantillon ainsi conçu, en répétant le procédé suffisament de fois, sera globalement représentatif de l’incertitude que l’on souhaite décrire. Malheureusement, le gros problème de MCMC, c’est que cette propriété n’est valide qu’à l’infini. Pire, à tout instant, il est généralement impossible d’estimer adéquatement le degré de validité de l’échantillon. En particulier, faire confiance à un échantillon MCMC fini, c’est potentiellement s’exposer à l’excès de confiance sur la validité de l’échantillon. Voilà qui peut être potentiellement dangereux dans le cadre de la sécurité des IA. Certaines techniques alternatives semblent toutefois émerger pour concevoir des échantillonnages représentatifs d’incertitudes complexes. Citons par exemple l’optimisation de particules 46 , qui consiste à réajuster les données de l’échantillon pour que, dans leur ensemble, elles soient davantage représentatives de l’incertitude. Cependant, davantage de recherches sur comment communiquer 44. What is Monte Carlo ? LeiosOS (2016) Thinking in Bets : Making Smarter Decisions When You Don’t Have All the Facts | 45. Portfolio | A Duke (2018) 46. Bayesian posterior approximation via greedy particle optimization | AAAI | F Futami, Z Cui, I Sato & M Sugiyama (2019)
INCERTITUDE
199
l’incertitude efficacement semblent requises. Bref. Erin et Dave (et Alice) ont décidément encore beaucoup de pain sur la planche. Et il va falloir les faire nettement progresser pour garantir autant que possible la robustesse, l’efficacité et la sûreté de nos IA, et en particulier leur absence d’effets secondaires indésirables. Cependant, il s’agit là de la partie de la feuille de route qui semble le moins nous inquiéter. En effet, de nombreux chercheurs, dans le public et le privé, s’y sont déjà attelés. Qui plus est, de nombreuses entreprises ont des intérêts économiques énormes à accélérer la recherche dans ce domaine. Malheureusement, pour l’instant en tout cas, c’est moins le cas de Charlie et Bob, dont on parlera dans les trois prochains chapitres. Partagez-vous nos constats ? Notre feuille de route vous paraît-elle raisonnable ? Y a-t-il quelque chose en trop ? A-t-on omis une étape importante ? La collecte de données actuelle est-elle suffisante ? Comment pourrait-on améliorer ces collectes ? Manque-t-on de quantité ou de qualité de données ? A-t-on suffisamment investi sur la certification de données ? Comment résoudre le compromis entre collecte de données et confidentialité ? Comment combattre les biais dans la collecte de données ? Sauriez-vous expliquer le bayésianisme ? Le bayésianisme suffit-il ? Pensez-vous appliquer le bayésianisme ? Comment contourner les difficultés algorithmiques du bayésianisme ? À quoi ressemblerait un modèle du monde ? Anticipe-t-on suffisamment le risque des attaques adversariales ? Y at-il des vulnérabilités dans nos systèmes informatiques ? Quelles seraient les conséquences de brèches dans ces systèmes ? Raisonne-t-on suffisamment avec l’incertitude ? Comme précédemment, nous vous invitons à méditer, seul ou collectivement, ces nombreuses questions fascinantes, et à juger comment vos réflexions affectent l’urgence à mettre les talents dans les meilleures dispositions pour rendre les IA robustement bénéfiques.
Références Thinking Statistically | Capara Books | U Brams (2011) Principles of semantic networks : Explorations in the representation of knowledge | Morgan Kaufmann | J Sowa (2014) Deep Learning | MIT Press | A Courville, I Goodfellow & Y Bengio (2015) Thinking in Bets : Making Smarter Decisions When You Don’t Have All the Facts | Portfolio | A Duke (2018) La formule du savoir | EDP Sciences | LN Hoang (2018) Human Compatible : Artificial Intelligence and the Problem of Control | Viking | Stuart Russell (2019) Generative adversarial nets | NeurIPS | I Goodfellow, J Pouget-Abadie, M Mirza, B Xu, D Warde-Farley, S Ozair, A Courville & Y Bengio (2014) Attention is all you need | NeurIPS | A Vaswani, N Shazeer, N Parmar, J Usz-
200
CHAPITRE 11. L’IA DOIT COMPRENDRE LE MONDE
koreit, L Jones, AN Gomez, L Kaiser & I Polosukhin (2017) Machine learning with adversaries : Byzantine tolerant gradient descent | NeurIPS | P Blanchard, EM El Mhamdi, R Guerraoui & J Stainer (2017) Bayesian posterior approximation via greedy particle optimization | AAAI | F Futami, Z Cui, I Sato & M Sugiyama (2019) Security | xkcd | R Munroe On YouTube, a network of paedophiles is hiding in plain sight | Wired | KG Orphanides (2019) Le changement climatique, un constat ! Le Réveilleur | R Meyer (2015) Glyphosate : Monsanto nous empoisonne ? Matadon (2017) Le gros livre de Wittgenstein | Monsieur Phi | T Giraud (2018) Le deep learning | Science Étonnante | D Louapre (2016) QALYs & DALYs. Indicateurs synthétiques de santé | Risque Alpha | T Le Magoarou (2017) What is Monte Carlo ? LeiosOS (2016) AI Language Models & Transformers | Computerphile | R Miles & S SRiley (2019) Differential Privacy (playlist) | Wandida | LN Hoang (2017) La cryptographie avec String Theory et l’EPFL (playlist) | LN Hoang (2018) L’intelligence artificielle et le machine learning (playlist) | LN Hoang (2018) Le bayésianisme : une philosophie universelle du savoir (playlist) | LN Hoang (2019) AT2 : Consensusless Decentralized Cryptocurrency (playlist) | ZettaBytes, EPFL (2019)
Un compromis est l’art de couper un gâteau de sorte que chacun croit avoir eu la plus grande part. Ludwig Erhard (1897-1977) La défense de la démocratie s’appuie sur l’argument qui dit que la discussion libre et l’expression de l’opinion sont les méthodes les plus adéquates pour arriver à un impératif moral implicitement connu de tous. De ce point de vue, le vote n’est pas un outil à travers lequel chaque individu exprime ses intérêts personnels, mais plutôt à travers lequel chaque individu donne son opinion sur la volonté générale. Kenneth Arrow (1921-2017)
12
Agréger des préférences incompatibles
On ne sera pas d’accord Il est temps d’aborder la partie la plus contentieuse de notre feuille de route. Nous allons parler de quelles valeurs programmer dans les IA. Quel doit être le but visé par les IA ? Quels intérêts les IA doivent-elles défendre ? Faut-il leur imposer des principes ? Que signifie être « bénéfique » ? Et bénéfique pour qui ? Pour les humains ? Pour l’humanité ? Quid de la biodiversité ? Des animaux ? Et des consciences artificielles ? Quelle philosophie morale adapter ? Avant d’aller plus loin, il est utile d’insister sur un point. Nous ne serons pas d’accord. Les auteurs de ce livre ne sont pas d’accord entre eux. Et vous ne serez pas d’accord avec eux. Vous ne serez pas d’accord avec votre voisin. En fait, vous ne serez même pas d’accord avec votre moi du futur. Il en est ainsi. Des millénaires de réflexions philosophiques ont échoué à aboutir à un consensus. Vous ne résoudrez pas le problème de la morale seul. Et si vous pensez « avoir raison », ou « avoir davantage raison que les autres », vous partez sans doute d’un postulat qui ne favorisera pas une discussion calme et réfléchie. Et vous risquez d’omettre l’écoute des autres. Malheureusement, quand il s’agit de religion, de politique ou de morale, nous débattons souvent mal. Comme l’explique Jonathan Haidt dans son livre The Righteous Mind, nous avons de fortes intuitions. Mais surtout, nous avons tendance à n’utiliser la raison et l’argumentation que dans le but de défendre et justifier nos intuitions. C’est ce que l’on appelle la rationalisation, le raisonnement motivé ou encore le biais de confirmation. Ce réflexe nous pousse à être
202
CHAPITRE 12. AGRÉGER DES PRÉFÉRENCES INCOMPATIBLES
confrontationnel. Et à penser que tout avis divergent est une menace. Malheureusement, la qualité des débats moraux ne semble pas s’améliorer avec le temps. Pire, l’avènement des réseaux sociaux, boostés par des IA qui maximisent l’attention des utilisateurs, semble conduire à des bulles informationnelles, des polarisations de groupe et une valorisation de la virulence, du sarcasme et de l’exagération. Malheureusement, les posts, les tweets et les vidéos qui suscitent le plus de likes et de partage ne sont pas ceux qui promeuvent la bienveillance, l’écoute et la prudence. Les messages les plus populaires et les plus engageants sont souvent les plus provocateurs et les plus clivants. Malheureusement, cette difficulté à bien débattre ne semble pas se restreindre au monde virtuel. En famille, au travail ou en politique, les débats autour de sujets controversés semblent souvent frustrants et peu informatifs. Ils sont souvent plein d’indignation et de culpabilisation des « autres ». Ils abordent trop rarement sur ce qui devrait être, sachant les contraintes physiques, énergétiques, technologiques, environnementales, économiques, psychologiques et sociologiques de notre monde. Plus rares encore sont les analyses de ce qui peut être fait, étant donné notamment la finitude de notre sphère d’influence, c’està-dire les limites de ce sur quoi chacun d’entre nous peut influer.
Désaccords épistémiques et épistémologiques Pour mieux débattre, il semble utile de distinguer diverses sortes de désaccords. Le désaccord le plus simple à résoudre, même s’il est souvent loin d’être simple à résoudre, c’est le désaccord épistémique. Il s’agirait typiquement de deux sortes de Dave qui sont en désaccord. Leur désaccord porterait sur l’état du monde 1 . Dans de nombreux cas, une collection de données pertinentes suffit à réduire drastiquement ce désaccord épistémique. Cependant, parfois, étant donné les mêmes données, le désaccord épistémique entre deux individus persiste. C’est notamment le cas quand l’interprétation des données diffère. Le désaccord porte alors sur la méthode pour concevoir un modèle du monde à partir de données. On parle alors de désaccord épistémologique. C’est souvent quand le désaccord est de cette nature que de nombreux partisans des sciences se mettront à défendre la méthode scientifique. De nombreux débats sur le futur de l’humanité semblent dus à un tel désaccord épistémologique. En particulier, certains insisteront sur la réfutabilité des « bonnes » théories ; or la « futurologie » ne semble pas réfutables. Cependant, cette posture épistémologique n’est pas tout à fait la méthode des scientifiques en pratique. En effet, ceux-ci n’hésitent généralement pas à s’aventurer à prédire le changement climatique, la fin de vie du Soleil ou la mort thermique de l’univers. De même, le bayésianisme invite à imaginer les scénarios futurs probables et leur crédibilité, en ajustant régulièrement ces prédictions avec l’observation de nouvelles données. 1. Ou plutôt, si on est bayésien, sur les crédibilités de différents modèles du monde.
DÉSACCORDS MORAUX
203
On considère souvent que résoudre les désaccords épistémologiques est un problème philosophique. Et en effet, les philosophes ont énormément contribué, et continuent à grandement contribuer à ce problème. Néanmoins, notamment selon l’informaticien Scott Aaronson, il semble crucial que l’épistémologie tienne compte des limites algorithmiques du savoir 2 , dont les contours ne cessent d’être mieux délimités par la théorie de la complexité algorithmique. Aaronson va même jusqu’à proposer de renommer l’informatique théorique en épistémologie quantitative 3 . Après tout, une méthode parfaitement rigoureuse et transparente pour inférer l’état et les lois du monde des données n’est-elle pas un algorithme ? Et n’est-ce pas finalement le job de Dave ? Même si l’on semble loin d’un consensus épistémologique, au moins chez les experts, les désaccords épistémologiques ne semblent toutefois pas complètement bouleversants. Même si les débats épistémologiques sont parfois tendus, ils sont rarement violents. Ce n’est pas toujours le cas des désaccords moraux.
Désaccords moraux Les désaccords moraux portent sur les fondements de l’éthique et les jugements de valeur. Ils ne concernent pas ce qui est ; ils concernent ce qui devrait être. Et malheureusement, on peut identifier au moins quatre raisons pour lesquelles débattre de ce qui devrait être est très délicat. Une première raison est le principe d’universalité, notamment défendue par le philosophe Emmanuel Kant à travers le concept d’impératifs catégoriques. « Agis seulement d’après la maxime grâce à laquelle tu peux vouloir en même temps qu’elle devienne une loi universelle », explique-t-il. Ce principe est aussi appelé la règle d’or, ou le principe de réciprocité. Il nous invite à penser que certains principes moraux s’appliquent partout, à tout moment et à tout le monde. Voilà qui peut conduire à des tensions quand des principes moraux défendus par différents individus entrent en contradiction. En particulier, une mauvaise application du principe d’universalité peut encourager des attitudes qui compliquent les débats moraux. Par exemple, si vous adorez qu’on vous invite à manger de la viande avec insistance, il peut vous sembler désirable de suggérer avec insistance à autrui de manger de la viande, même si cet autrui est végétarien 4 . Nos préférences, y compris morales, diffèrent 5 . Une acceptation trop aveugle de la règle d’or paraît réduire notre capacité à voir ces 2. La logique ne suffit pas | Science4All | LN Hoang (2018) 3. Why Philosophers Should Care about Computational Complexity | Computability : Gödel, Turing, Church and beyond | S Aaronson (2012) 4. La règle d’or semble aussi peut-être renforcer certains désagréments entre individus de cultures différentes. Ceci pourrait parfois nuire à la bienveillance dans les débats moraux. 5. À chacun sa morale ? Relativisme vs. réalisme | Monsieur Phi | T Giraud (2017)
204
CHAPITRE 12. AGRÉGER DES PRÉFÉRENCES INCOMPATIBLES
divergences 6 . « La morale nous lie et nous aveugle », explique Jonathan Haidt 7 . Une deuxième raison de la difficulté des discussions morales est l’importance donnée à l’autorité morale. Nous avons ainsi tendance à présupposer que la morale est faite de leçons, et qu’il faut être vertueux pour donner des leçons morales. Dès lors, nos discussions morales semblent donner une importance disproportionnée à paraître vertueux. Voire à donner l’impression que l’autre ne l’est pas. C’est ce qu’on appelle le signalement de la vertu, ou virtue signaling 8 . Malheureusement, le signalement de la vertu semble encourager les anecdotes égocentriques, les rejets de la faute sur d’autres et les attaques ad hominem. Typiquement, les débats sur l’IA de YouTube s’arrêtent trop souvent à l’expérience utilisateur des personnes qui débattent. Et quand les responsabilités éthiques de cette IA sont mentionnées, YouTube est très souvent identifié comme responsable, voire coupable. Les critiques de ce que YouTube fait sont même souvent virulentes, mal informées et peu constructives. À l’inverse, il semble préférable de réfléchir à ce que YouTube devrait faire, notamment étant donné ses contraintes économiques et technologiques. Si vous étiez aux commandes de YouTube, dans le contexte social, économique et technologique actuel, que feriez-vous ? Voilà une question fascinante, difficile et importante ; mais peut-être trop souvent éludée. Une troisième difficulté est notre excès de confiance en nos principes moraux. Comme la psychologie empirique l’a maintes fois montré 9 , chacun d’entre nous a souvent tendance à présupposer qu’il a raison. Voilà qui nous pousse souvent à chercher uniquement les raisons pour lesquelles les avis contraires sont fallacieux. Et si jamais des critiques de notre intuition morale sont soulevées, notre réflexe immédiat est de la défendre par de nombreux arguments, même si ces arguments sont bancals ou peu reliés à la critique soulevée. C’est ce que l’on appelle la rationalisation ou la dissonance cognitive. Elle revient à être beaucoup plus critique envers les avis contraires à notre intuition qu’envers notre intuition. Les psychologues n’ont cessé de le constater. Nos cerveaux ont d’énormes failles dans leur traitement de l’information, notamment en termes d’excès de confiance et de rationalisation 10 . Notre degré de confiance semble même peu corrélé avec notre expertise. Parfois, elle est même inversement proportionnelle à l’expertise 11 , ce que l’on appelle l’effet Dunning-Kruger 12 . Le biais de familiarité 6. Cette critique n’est pas une critique de la validité du principe d’universalité, mais des effets secondaires indésirables de le supposer vrai, sachant nos biais cognitifs comme l’excès de confiance. Par ailleurs, elle n’est pas spécifique à la déontologie. 7. The Righteous Mind : Why Good People Are Divided by Politics and Religion | Vintage | J Haidt (2013) 8. L’autopromotion #DébattonsMieux | LN Hoang (2019) 9. The Evolution of Overconfidence | Nature | P Johnson & J Fowler (2011) 10. Système 1, système 2 : les deux vitesses de la pensée | Flammarion | D Kahneman (2012) Khan Academy and the Effectiveness of Science Videos | Veritasium | D Muller 11. (2011) 12. Unskilled and Unaware of It : How Difficulties in Recognizing One’s Own Incompetence Lead to Inflated Self-Assessments | JPSP | J Kruger & D Dunning (1999)
DÉSACCORDS MORAUX
205
semble faire que ceci soit particulièrement le cas des sujets familiers 13 , comme conduire des voitures, juger les politiciens ou posséder la « bonne » morale. Sur tous ces sujets, toute remise en cause de notre expertise risque alors d’être perçue comme une attaque. Ce qui nous pousse à rationaliser. Et à mal débattre. Enfin, une quatrième difficulté est ce qu’on appelle parfois l’hooliganisme, le tribalisme ou le groupisme 14 . Elle revient à s’identifier à un clan, et à défendre les valeurs et symboles du clan en son nom. L’effet de groupe conduit souvent à une surenchère appelée polarisation de groupe 15 . Le groupe se convainc ainsi de sa légitimité et de la nécessité de la solidarité des membres du groupe. Dès lors, toute menace au groupe peut déclencher le « mode soldat » des membres du groupe 16 . En particulier, les individus extérieurs au groupe seront vus comme des méchants 17 ou, s’ils semblent bien intentionnés, des mauvais 18 . Ce phénomène semble particulièrement accentué si deux groupes bien délimités s’opposent. Les débats risquent alors de devenir très conflictuels, chaque individu sentant le devoir de défendre son groupe et ses symboles.Malheureusement, parmi ces symboles des groupes, on trouve souvent des principes moraux. Ces principes étant des symboles, on a tendance à les défendre au nom de nos groupes, quitte à utiliser le sarcasme, l’exagération des positions des autres et l’attaque ad hominem. Voire l’insulte 19 . Bref. Débattre de morale est difficile. Et même quand nous voulons bien faire, il nous arrive souvent de mener des discussions néfastes au progrès moral de tous. Pire, parce que nous nous attendons à des discussions morales désagréables, nous avons tendance à les éviter. Surtout en présence d’inconnus ou d’individus qui débattent mal. Malheureusement, une telle autocensure justifiée semble freiner drastiquement la réflexion collective sur des problèmes moraux pourtant urgents, comme ce que l’IA de YouTube devrait viser comme objectif. Il semble urgent d’encourager la réflexion morale collective, par exemple en la rendant davantage plaisante. Plutôt que de parler de fardeau moral, il semble préférable de souligner (aussi) les opportunités morales de sauver des vies et d’aider au bien-être des autres, ainsi que d’insister sur le plaisir 20 qu’il peut y avoir à réfléchir à ces fabuleuses opportunités morales 21 ! Mieux débattre semble urgent. Néanmoins, même si on y parvenait, il persisterait très probablement des désaccords inconciliables. Des millénaires de philosophes ont cherché à fédérer tout le monde derrière certains principes. Ils ont échoué. Il semble improbable qu’il en soit différemment dans le siècle à venir. 13. 14. 15. 16. 17. 18. 19. 20. 21.
The Illusion of Truth | Veritasium | D Muller (2016) Êtes-vous un hooligan politique ? Science4All | LN Hoang (2017) The Law of Group Polarization | JPSP | C Sunstein (2002) Why you think you’re right – even if you’re wrong | TED | J Galef (2016) Nietzsche et les méchants ! Monsieur Phi | T Giraud (2017) Nietzsche - La morale des winners ! Monsieur Phi | T Giraud (2017) La morale des hooligans (la nôtre ! !) | Science4All | LN Hoang (2017) Prenez #DébattonsMieux comme un jeu | LN Hoang (2019) Critiquer avec efficacité #DébattonsMieux | LN Hoang (2019)
206
CHAPITRE 12. AGRÉGER DES PRÉFÉRENCES INCOMPATIBLES
Voilà qui pose un problème, notamment dans le cadre des IA. Dès aujourd’hui, à chaque recommandation de YouTube ou réponse de Google à des recherches comme « racisme », « changement climatique » ou « vaccin », cette question éthique se pose. L’IA de YouTube est déjà confrontée à des milliards de dilemmes éthiques par jour. Tant que nous ne nous mettrons pas d’accord sur comment résoudre ces dilemmes, l’IA de YouTube continuera à fournir des réponses insatisfantes, voire dangereuses 22 . Pour disposer d’une bonne solution rapidement, les discussions morales seront assurément indispensables. Mais elles seront aussi très probablement très insuffisantes. Il semble urgent de trouver des manières plus efficaces de nous mettre d’accord sur une morale à programmer, y compris dans le cas très probable où on n’est pas d’accord sur quoi programmer. Tel est le rôle de Charlie. Elle devra nous mettre d’accord, y compris quand on est en désaccord.
La théorie du choix social Combiner les préférences de différents individus est un sujet d’étude interdisciplinaire fascinant, au sujet duquel il y a énormément à dire. Les sciences sociales ont ainsi découvert de nombreux phénomènes contre-intuitifs, comme l’effet de halo 23 , le biais de charisme 24 et la polarisation de groupes 25 . On peut rajouter la sur-représentation des populations aisées, la présence de lobbys, la valorisation d’une forme d’activisme sans fondements empiriques, l’abus de sophismes fallacieux et l’émergence récurrente de la virulence et des tensions 26 . Choisir ensemble, surtout quand on est des millions ou des milliards, c’est très difficile. Pour court-circuiter une délibération interminable, la théorie du choix social s’est alors intéressée à des méthodes beaucoup plus directes d’aboutir à une décision. La plus connue de ces méthodes, et la plus utilisée dans les démocraties à travers le monde, est le scrutin. Dans un scrutin, on restreint l’expression des électeurs à un simple bulletin de vote. Le scrutin collecte ensuite tous ces bulletins, applique une certaine règle d’aggrégation et apporte une conclusion. De façon cruciale, cette conclusion est (censée être) acceptée par tous. Le scrutin résout en particulier le problème de se mettre d’accord sur un sujet X, y compris en cas de désaccord au sujet de X. Pour y arriver, il n’est en fait pas nécessaire d’être d’accord sur X. Pour se mettre d’accord sur X, il suffit de se mettre d’accord sur un scrutin. Ce scrutin combinera nos avis sur X, et fera émerger une décision du groupe sur X. À bien y réfléchir, il s’agit d’une prouesse remarquable de nos démocraties que, à défaut de nous mettre d’accord sur des 22. Selon Nick Bostrom, seule une résolution de la morale permettra de rendre des IA de niveau humain robustement sûres pour l’humanité. Dans cette optique, il nous semble devoir résoudre la philosophie morale avant une deadline inconnue ! 23. L’effet de halo | Science étonnante | D Louapre (2016) Choisir son président en 100 millisecondes | Homo Fabulus | S Debove (2017) 24. 25. Polarisation : pourquoi (et comment) l’éviter | Alexandre Technoprog (2019) 26. La virulence, c’est pas bien #DébattonsMieux | Alexandre Technoprog (2018)
PRÉFÉRENCES CARDINALES
207
sujets de société, nous sommes globalement parvenus à nous mettre d’accord sur comment nous mettre d’accord, y compris en cas de désaccord 27 ! Ce qui est fascinant, c’est qu’on n’est plus là en train de parler d’éthique. En tout cas pas de l’éthique de X. On s’intéresse là à comment déterminer l’éthique de X. On est en train de parler de méta-éthique. À l’instar d’une démocratie qui s’est mise d’accord, non pas sur le contenu des lois, mais sur comment se mettre d’accord sur le contenu des lois, il semble plus probable que l’on parvienne à s’accorder sur la méta-éthique que sur l’éthique de X. Telle est en tout cas l’approche de ce livre. Au lieu de défendre ou d’attaquer des philosophies morales, on cherchera à défendre et attaquer des propositions de méta-éthique. Malheureusement, toute méta-éthique semble critiquable. En particulier, la théorie du choix social est remplie de théorèmes qui prouvent l’impossibilité de concevoir un scrutin avec toutes les propriétés désirables 28 . En particulier, le célèbre théorème d’Arrow démontre mathématiquement que seule la dictature permet de combiner des préférences individuelles en une préférence de groupe 29 . Autrement dit, grossièrement, le groupe ne peut pas avoir de préférences cohérentes avec les préférences des membres du groupe ! Voilà qui déplace en fait le problème de la méta-éthique à celui de la méta-métaéthique. Autrement dit, vu qu’il n’y a pas de méta-éthique idéale, il semble qu’il faille d’abord réfléchir aux propriétés vraiment désirables de la méta-éthique. C’est là tout l’objet de la théorie du choix social. Cette théorie va typiquement chercher à identifier les propriétés désirables des scrutins, et à ensuite démontrer que tel ou tel scrutin possède ou non telle ou telle propriété. Un exemple d’une telle propriété est le principe de Condorcet, qui formalise et généralise la notion intuitive de principe de majorité 30 . Étrangement, en 2019, à notre connaissance, aucune démocratie au monde n’obéit au principe de Condorcet. Ce principe méta-méta-éthique est violé par quasiment toutes les méta-éthiques actuellement utilisées !
Préférences cardinales Le théorème d’Arrow cité plus haut ne s’applique toutefois qu’au cas des préférences dites ordinales, c’est-à-dire les préférences qui consistent à ordonner différentes options par ordre de préférence. Pour contourner le théorème d’Arrow, on peut alors utiliser des préférences cardinales, c’est-à-dire qui donnent un score à chaque option. On peut alors agréger les préférences des différents individus en prenant la moyenne des scores des individus. Si l’option x a reçu 27. Réformons l’élection présidentielle ! Science étonnante | D Louapre (2016) 28. 3 théorèmes anti-démocratiques (et la lotocratie) | Science4All | LN Hoang (2017) 29. Plus formellement, seule la dictature permet à la fois la monotonie et l’indépendance aux alternatives non pertinentes. 30. Le principe de Condorcet - Une norme démocratique | Monsieur Phi | T Giraud (2017)
208
CHAPITRE 12. AGRÉGER DES PRÉFÉRENCES INCOMPATIBLES
les scores 10, 5 et 3, alors son score moyen sera (10 + 5 + 3)/3 = 6. Elle sera meilleure qu’une option y ayant reçu 0, 7 et 8, car le score moyen de y serait alors (0 + 7 + 8)/3 = 5. Cependant, ce genre d’agrégation pose également son lot de problème. L’un d’eux, souligné par Condorcet dès le XVIIIe siècle, est le fait que ce système encourage les votes stratégiques qui veulent biaiser l’issue du vote. Typiquement, dans l’exemple ci-dessus, la première note (10 pour x et 0 pour y) est en fait probablement l’issue d’une réflexion stratégique d’un individu qui préfère x à y. Cet individu pense peut-être que x vaut 6 et y vaut 5. Mais pour augmenter les chances que le groupe en vienne à conclure que x est mieux que y, l’individu a tout intérêt à exagérer ses préférences. Pour éviter les risques de manipulation stratégique, les chercheurs Rida Laraki et Michel Balinski ont proposé de remplacer la note moyenne par une note médiane 31 . Cette note est celle du milieu, lorsqu’on range les notes dans l’ordre. Dans notre exemple, les notes rangées par ordre croissant sont 3, 5, 10 pour x, et 0, 7, 8 pour y. Les notes médianes sont donc 5 et 7. La note médiane de y étant supérieure, c’est y qui serait alors élu. De façon intéressante, ces notes restent inchangées si le premier électeur avait révélé ses vraies préférences, à supposer que celles-ci étaient 6 pour x et 5 pour y. Autrement dit, cet électeur n’a rien gagné à avoir exagéré ses préférences. L’utilisation de la médiane donne donc lieu à une autre agrégation des préférences, que Laraki et Balinski ont appelée jugement majoritaire 32 . La note par jugement majoritaire d’une option x est telle que la majorité pense qu’elle est trop élevée, tandis que l’autre majorité pense qu’elle est trop basse. En ce sens, il semble s’agir d’un bon compromis. Qui plus est, comme on l’a vu, elle permet une plus grande robustesse à la manipulation — même si le jugement majoritaire a aussi des propriétés paradoxales 33 . Il y a une autre difficulté fondamentale que soulève le jugement majoritaire, à savoir la comparaison des notes interpersonnelles. Autrement dit, est-ce qu’une note 5 de Pierre a la même valeur qu’un 5 de Julie ? Est-ce qu’il faut normaliser les notes pour qu’elles soient toutes entre 0 et 10 ? Ou est-ce que ceci ne va pas donner envie aux individus de sous-évaluer les cas extrêmes, pour exagérer les différences entre cas usuels ? Il semble s’agir là d’une question délicate, à laquelle peu de réponses satisfaisantes ont été apportées 34 . Au cours des dernières décennies, d’autres agrégations des préférences ont été proposées, avec leurs avantages et inconvénients. On peut citer le scrutin par 31. Ou plus généralement, par un quantile de la distribution des notes. 32. Le jugement majoritaire | Science4All | LN Hoang (2017) The Majority Judgment theory and paradoxical results | International Journal of Arts 33. & Sciences | MA Zahid & H de Swart (2011) 34. Measuring unfairness feeling in allocation problems | Omega | LN Hoang, F Soumis & G Zaccour (2016)
WIKIPÉDIA
209
assentiment, les loteries maximales et le scrutin de Condorcet randomisé 35 . Cependant, toutes ces solutions, y compris le jugement majoritaire, souffrent d’une limitation pratique majeure. En gros, un bulletin de vote doit classer ou noter tous les candidats. Voilà qui est largement faisable quand il y a 5, 10 ou même 50 options. Cependant, cette tâche semble désespérée s’il y a un million d’options. Et elle l’est clairement s’il y en a 101000 . Pourtant, quand il s’agit de déterminer un texte de loi ou le code algorithmique de Charlie, le nombre d’options est beaucoup plus élevé encore. Le nombre de textes de 1000 pages est ainsi de l’ordre 101 million . Pire, un argument à la Turing suggère que toute morale satisfaisante pourrait nécessiter des milliards de pages pour être décrite. Les solutions classiques de la théories du choix social sont alors inapplicables dans ces cas. En tout cas inapplicables directement.
Wikipédia Le plus pharaonique des projets d’écriture collaborative de textes complexes est certainement Wikipédia. Il est intéressant d’insister sur le succès contre-intuitif de cette plateforme. Il y a vingt ans, il semblait inconcevable que l’une des sources d’information les plus fiables au monde soit un site Web que n’importe qui peut éditer. Ce succès de la décentralisation inédite de l’édition encyclopédique ne semblait pas avoir la faveur des pronostics. Pourtant, Wikipédia a réussi la prouesse longtemps inimaginable de centraliser des informations de très haute qualité via la décentralisation de l’édition. Wikipédia a atteint une telle fiabilité que des chercheurs à la pointe de leurs domaines utilisent régulièrement Wikipédia. Désormais, Google copie-colle des extraits de Wikipédia pour beaucoup de nos recherches Google. Susan Wojcicki, PDG de YouTube, a même proposé de mettre un lien vers une page Wikipédia en bas de toute vidéo conspirationniste 36 . Voilà qui suggère qu’il pourrait être possible d’écrire un texte de manière collaborative, y compris sur un sujet aussi controversé que la morale. D’autant que Wikipédia a lui aussi des articles sur la morale, ou sur des sujets très polarisés comma la page Wikipédia de Donald Trump. Cependant, il semble qu’il faille être davantage prudent avec cette suggestion. En effet, l’édition de telles pages Wikipédia ne semble en fait pas si décentralisée. En septembre 2019, 11 contributeurs avaient écrit 50 % de la page Wikipédia anglophone de Donald Trump, tandis que 85 contributeurs en avaient écrit 37 95 %. Il ne semble pas clair que l’édition collaborative de milliers, voire de millions, de contributeurs puisse fournir un résultat désirable, surtout si l’on exige une contribution relativement égale de chaque contributeur 38 . 35. Le scrutin de Condorcet randomisé (mon préféré ! !) | Science4All | LN Hoang (2017) 36. YouTube Will Link Directly to Wikipedia to Fight Conspiracy Theories | Wired | L Matsakis (2018) 37. https://twitter.com/le_science4all/status/1168877714272653313 38. D’autant que la sous-population des contributeurs Wikipédia n’est pas du tout repré-
210
CHAPITRE 12. AGRÉGER DES PRÉFÉRENCES INCOMPATIBLES
Néanmoins, le succès de Wikipédia pourrait être une source d’inspiration majeure. En effet, si l’on s’intéresse avant tout à la qualité d’un texte co-écrit, et au sujet duquel chacun peut s’exprimer, il semble utile de s’inspirer des règles d’édition et de collaboration de Wikipédia 39 .
Moral machines Les humains semblent donc n’avoir que très peu chance de pouvoir décrire l’aggrégat de préférences humaines différentes pour des options combinatoirement complexes comme des textes de loi. Pour néanmoins effectuer une agrégation de leurs préférences, il semble que la seule solution concevable soit d’extrapoler leurs préférences, à partir de ce que l’on sait d’elles. Autrement dit, Charlie devra collecter des données sur nos préférences. Puis, elle devra imaginer ce que seraient probablement nos préférences pour tel ou tel texte de loi, alors même que nous n’avons jamais été exposés à ces textes de loi. Sans en arriver à des textes de loi, des solutions ont en fait déjà été proposées dans un cadre légèrement différent, notamment pour le problème de la voiture autonome en mode trolley 40 . Imaginez que cette voiture n’a pas le temps de freiner, et peut percuter ou bien un enfant de 5 ans, ou bien un couple de personnes âgées. Que devrait faire la voiture autonome ? Dans le cadre du projet moral machines du MIT, cette question et de nombreuses autres variantes ont été posées à des millions d’internautes à travers le monde 41 . Cependant, ces questions ne couvraient qu’une infime fraction de l’ensemble des cas imaginables. Pour traiter tous les cas imaginables, il était nécessaire d’extrapoler les préférences déclarées dans un petit nombre de cas particuliers. C’est ce qui a été fait par l’informaticien Ariel Procaccia et ses collaborateurs 42 . Puis, pour chaque nouveau scénario imaginable, ces chercheurs ont appliqué la théorie du choix social et choisi une méthode pour agréger les préférences extrapoléees des internautes. Ils obtinrent ainsi une préférence unique pour la voiture autonome. D’une certaine manière, ils semblent avoir résolu le problème moral de la voiture autonome en mode trolley. Et leur astuce pour y arriver fut de combiner une méta-éthique rigoureusement définie (agréger les préférences extrapoléees des internautes) et une extrapolation des préférences humaines à sentative de l’ensemble de la population mondiale. 39. Wikipédia et l’épistocratie | Science4All | LN Hoang (2019) 40. Le mot trolley est ici une référence à Philippa Foot, qui introduisit le désormais célèbre dilemme du trolley, où un individu doit choisir ou non de détourner un trolley et causer ainsi un mort au lieu de 5 : The Problem of Abortion and the Doctrine of the Double Effect | Oxford Review | P. Foot (1967) The moral machine experiment | Nature | E Awad, S Dsouza, R Kim, J Schulz, J 41. Henrich, A Shariff, JF Bonnefon & I Rahwan (2018) 42. A voting-based system for ethical decision making | AAAI | R Noothigattu, SS Gaikwad, E Awad, S Dsouza, I Rahwan, P Ravikumar & A Procaccia (2018)
CÈDE-T-ON LE POUVOIR AUX MACHINES ?
211
l’aide de machine learning 43 . Telle devra probablement être l’approche de Charlie aussi.
Cède-t-on le pouvoir aux machines ? L’approche de Procaccia et de ses collègues a toutefois soulevé de nombreuses critiques. D’un côté, l’utilisation du machine learning pour extrapoler les préférences humaines laisse difficilement indifférent. N’y a-t-il pas un risque à ainsi céder le pouvoir aux machines ? Et peut-on vraiment faire confiance à un tel algorithme ? L’humain ne disparaît-il pas ? On peut noter que, dans cette approche de Procaccia et ses collaborateurs, l’humain reste au centre de l’éthique. En effet, ce sont les données de l’humain que le machine learning apprend et extrapole. Si les humains préfèrent tous Voltaire à Rousseau, c’est ce que conclura la machine. D’une certaine manière, le job de Charlie est de mettre l’humain au centre des préoccupations des IA. Cependant, cette façon de mettre l’humain au cœur des IA peut vous sembler bien insatisfaisante. L’humain ne se contenterait donc que de fournir des données, possiblement même à son insu. Il ne serait plus vraiment acteur ? Pour comprendre le problème, il est important d’insister sur la difficulté de rendre les humains plus « acteurs ». Pour commencer, on est des milliards d’humains. Chaque humain devrait donc n’avoir qu’une influence négligeable. Mais surtout, toute la difficulté de Charlie est d’anticiper ce qu’on préférerait dans un nombre monstrueux de cas imaginables, et dans un monde dans lequel il se passe énormément de choses qui nous échappent complètement. Qui plus est, il sera crucial pour Alice d’explorer le champ des possibles et la désirabilité des futurs plausibles, afin de choisir au mieux les actions à entreprendre. Il semble que la sûreté des IA nécessite et dépende forcément de l’extrapolation des préférences humaines. Ceci étant dit, il semble souhaitable de demander aux humains d’interagir autant que possible avec Charlie, pour que Charlie extrapole au mieux les préférences humaines. Il semble assez clair que cette interaction gagnera à être active, c’est-àdire à être une interaction où Charlie réagit à ce que dit l’humain, et où l’humain réagit à ce que dit Charlie. Ce genre d’interaction commence à être mis en place, sous le nom d’apprentissage actif, ou active learning en anglais 44 , dont une variante est appelée cooperative inverse reinforcement learning 45 . La recherche dans ce domaine va typiquement chercher à optimiser les questions posées par 43. How Will Self-Driving Cars Make Moral Decisions ? Up and Atom | LN Hoang et J Tan-Holmes (2018) Comparison-Based Preference Active Learning | ZettaBytes, EPFL | L Maystre 44. (2019) 45. Cooperative Inverse Reinforcement Learning | NeurIPS | D Hadfield-Menell, A Dragan, P Abbeel & S Russell (2016)
212
CHAPITRE 12. AGRÉGER DES PRÉFÉRENCES INCOMPATIBLES
Charlie aux humains, afin de réduire ses angles morts et mieux extrapoler les préférences des humains 46 . Pour y arriver, à l’instar de Dave, il semble crucial que Charlie mesure constamment son incertitude 47 . De façon intuitive, plus les scénarios imaginés sont distants des scénarios pour lesquels des données ont été collectées, plus l’incertitude de l’extrapolation sera grande. Cependant, même les données collectées ne doivent pas être considérées exactes. Comme on le verra dans le prochain chapitre, les humains ont une fâcheuse tendance à s’auto-contredire et à avoir des préférences incohérentes. Ceci dit, même si Charlie effectue un travail remarquable, il restera certainement très difficile de lui faire pleinement confiance. Un premier pas important semble être de rendre le code source de (l’algorithme d’apprentissage de) Charlie ouvert à tous. Mais ceci ne suffira sans doute pas. Pour s’assurer que les préférences extrapoléees de Charlie sont vraiment en accord avec nos préférences, il semble important que l’on puisse questionner Charlie, voire lui demander des explications. On tombe en fait là dans le problème de l’interprétabilité du machine learning. La recherche a commencé dans cette direction. Il semble souhaitable de la poursuivre.
Biais des données Dès que l’on utilise des données, surtout dans le cadre du machine learning, ce doit être un réflexe que de se poser la question de l’existence de biais dans les données. Dans le cas du projet moral machines, il y a un biais évident. Il fallait connaître et accéder au site Web du projet pour fournir des données. En particulier, la population des sondés par moral machines est une population biaisée, qui baigne davantage dans le monde des technologies et s’intéresse aux questions éthiques. D’un point de vue démocratique, il s’agit là d’un manquement sérieux. Et il est crucial de le souligner. Les préférences calculées par Procaccia et ses collaborateurs ne sont pas représentatives de l’ensemble des préférences des humains. On n’a pas eu là un processus vraiment démocratique. Malheureusement, il est très difficile d’amener tous les humains à participer à ce projet. Collecter des données est difficile, comme on l’a vu avec Erin. C’est sans doute plus difficile encore quand il s’agit de collecter de l’information venant d’individus. Nos boîtes e-mail sont déjà surchargées d’invitations à participer à tel ou tel sondage. Malheureusement, par faute de motivation et d’intérêt, 46. Techniquement, dans le cadre de la feuille de route, il s’agit en fait du travail d’Alice que de déterminer les bonnes questions à poser. Ce problème rentre d’ailleurs dans le cadre du dilemme exploration versus exploitation, dont on a parlé dans le chapitre 9. 47. Comme on en a déjà parlé pour Dave, une approche utile à la mesure de cette incertitude consiste à combiner les prédictions de différentes méthodes d’extrapolation. On parle de bagging ou d’ensembling.
LA GRANULARITÉ DES PRÉFÉRENCES
213
la plupart de ces invitations resteront sans réponse. Y compris celles visant à rendre les IA bénéfiques. Plutôt que de harceler la population avec différents appels à s’exprimer sur des sujets qui ne les passionnent pas, voire les agacent, il pourrait être souhaitable de collecter d’autres données à leur sujet (en faisant attention à ne pas violer leur confidentialité), et extrapoler leurs préférences de manière indirecte. Typiquement, l’activité Twitter, Facebook et YouTube d’un individu en dit déjà long sur ses préférences. Mieux encore, on peut exploiter la similarité d’un individu avec des personnes sondées pour inférer ses préférences probables. Toutes ces approches, combinées à une étude démographique de la population sondée, pourraient ainsi permettre de débiaiser l’agrégation des préférences de Charlie. En particulier, Charlie doit garder en tête que son but n’est pas l’agrégation des préférences des individus sondés. Son but est l’agrégation des préférences d’une population potentiellement différente de la population sondée. D’ailleurs, on peut légitimement se demander si les préférences pertinentes sont les préférences de toute la population humaine. En fait, plusieurs philosophes moraux semblent s’être plaints de la méta-éthique de Procaccia et ses collaborateurs. Après tout, n’y aurait-il pas une expertise acquise par ceux qui réfléchissent aux dilemmes moraux de manière quotidienne ? Nous reviendrons sur cette question intrigante dans le prochain chapitre. Mais nous pouvons déjà l’annoncer. Si vous êtes philosophe, psychologue ou sociologue, votre expertise pour adresser ces questions épineuses du fabuleux chantier pour rendre les IA robustement bénéfiques serait précieuse.
La granularité des préférences La méta-éthique de Procaccia et ses collaborateurs est fascinante. Cependant, il est important de voir qu’elle réduit en fait son champ des possibles en se restreignant à une même préférence pour toutes les voitures autonomes, quel que soit le contexte dans lequel elles se trouvent. Dit autrement, cette métaéthique présuppose une sorte de principe d’universalité de la morale à suivre pour toutes les voitures autonomes confrontés à des dilemmes moraux. Cependant, l’analyse des données de moral machines montre de nombreuses disparités, notamment d’un point de vue géographique. Par exemple, les japonais ont une préférence marquée pour la vie des piétons, par opposition aux chinois qui préféreraient sauver les passagers. Que faire ? Décide-t-on d’un compromis ? Ou devrait-on programmer les voitures autonomes japonaises différemment des voitures autonomes chinoises ? Pourquoi s’arrêter à ce niveau de granularité ? Quid d’une voiture qui, traversant différents quartiers d’une mégalopole, adapterait son comportement aux préférences des quartiers visités ? Ces questions peuvent sembler appartenir au domaine de la méta-éthique. Dans ce livre, l’approche suggérée consiste à en faire des questions adressées par la
214
CHAPITRE 12. AGRÉGER DES PRÉFÉRENCES INCOMPATIBLES
méta-éthique, dans la mesure où la réponse qu’on y apporte serait déterminée par notre façon d’agréger les préférences. En particulier, l’astuce pour ce faire repose sur l’extrapolation de préférences des humains pour l’état du monde dans sa globalité. Autrement dit, ce sont nos préférences entre différents états du monde décrits par Dave qu’il nous faut décrire et extrapoler. En particulier, au lieu de décrire uniquement ce qu’une voiture devrait faire, idéalement, il nous faudrait également dire si l’on préfère que les voitures autonomes sauvent en priorité les piétons au Japon et les passagers en Chine, ou que toutes ces voitures autonomes jugent les vies des piétons et des passagers de la même manière. Et bien entendu, il ne faudrait pas s’arrêter là. Il faudrait extrapoler les préférences de tout individu à toutes les configurations imaginables de comportements des différentes voitures à travers le monde ! Si déterminer une méta-éthique consensuelle semble plus soluble que déterminer une éthique consensuelle, ceci demeure malheureusement un défi monumental.
Apprendre les préférences humaines La tâche effrayante d’apprendre les préférences humaines est en fait bien lancée. Mieux, de nombreuses entreprises ont construit leurs modèles d’affaires autour de l’apprentissage des préférences des utilisateurs, que ce soit en marketing, en publicité ou en personnalisation des produits. En particulier, des milliards de dollars sont investis dans les IA des systèmes de recommandation. Celles-ci cherchent à extraire d’un vaste ensemble d’offres celles qui collent le mieux avec les préférences d’un utilisateur. Même si ces IA sont potentiellement partiellement néfastes aujourd’hui, comme on l’a vu dans le chapitre 3, leur développement semble conduire à des technologies qui pourraient jouer un rôle crucial pour Charlie, et donc pour la sécurité et la bienveillance des IA du futur. Plusieurs techniques ont été développées pour apprendre les préférences des utilisateurs sans les harceler pour qu’ils les décrivent explicitement. L’une de ces techniques est l’apprentissage par renforcement inversé, ou inverse reinforcement learning (IRL) 48 . Cette technique présuppose que les humains entreprennent leurs actions à l’aide d’un apprentissage par renforcement, dont l’objectif est inconnu. Il s’agit ensuite d’inférer l’objectif probable d’un humain, étant donné l’observation des actions qu’il a entreprises. Cependant, surtout dans le cas de cet apprentissage par renforcement inversé, il semble crucial de distinguer les actions des utilisateurs qui relèvent d’une addiction plutôt que d’une réelle motivation réfléchie. Autrement dit, il semble extrêmement important de faire la différence entre ce qu’on préfère à un instant donné, et ce qu’on voudrait préférer, notamment vis-à-vis de l’état du monde. Bien souvent, nos actions instinctives sur le court terme omettent nos préférences plus réfléchies pour le long terme. Il semble préférable que Charlie s’attarde sur 48.
Algorithms for inverse reinforcement learning | ICML | A Ng & S Russell (2000)
APPRENDRE LES PRÉFÉRENCES HUMAINES
215
la seconde sorte de préférences. Malheureusement, il s’agit là d’une tâche difficile (une de plus !). C’est ce dont on va parler dans le prochain chapitre. Mais avant d’aborder le prochain chapitre, nous vous invitons à d’abord questionner celui-ci. Nos désaccords sont-ils démêlables ? Quels sortes de désaccords a-t-on ? Peut-on tous les résoudre de la même manière ? Quels sont nos mauvais réflexes de débats ? Quels sont vos mauvais réflexes de débats ? Comment mieux débattre ? Comment se mettre d’accord ? Un scrutin est-il un moindre mal ? Comment adresser des cas complexes ? Comment, par exemple, écrire un texte à plusieurs, en un temps limité ? Que pensez-vous du dilemme du trolley ? Fautil laisser l’intuition réagir au dernier moment ? Est-ce préférable d’anticiper les réactions qu’il serait souhaitable d’avoir ? Doit-on les programmer dans les IA ? À quel point nos décisions doivent-elles être universelles ? Faut-il des morales différentes pour des IA différentes ? Nous vous invitons à réfléchir à toutes ces questions fascinantes, avec calme et bienveillance. Si vous débattez de ces questions, nous vous encourageons à prendre le soin de laisser les autres s’exprimer et de les écouter, et à faire un effort particulier de pédagogie et de clarté quand vous prendrez la parole. Enfin, comme d’habitude, pensez à vous attarder sur les impacts de vos discussions sur l’urgence à mettre toutes sortes de talents dans les meilleures dispositions pour rendre les IA robustement bénéfiques.
Références Système 1, système 2 : les deux vitesses de la pensée | Flammarion | D Kahneman (2012) The Righteous Mind : Why Good People Are Divided by Politics and Religion | Vintage | J Haidt (2013) How to Have Impossible Conversations : A Very Practical Guide | Da Capo Lifelong Books | P Boghossian & J Lindsay (2019) The Problem of Abortion and the Doctrine of the Double Effect | Oxford Review | P Foot (1967) Unskilled and Unaware of It : How Difficulties in Recognizing One’s Own Incompetence Lead to Inflated Self-Assessments | JPSP | J Kruger & D Dunning (1999) The Law of Group Polarization | JPSP | C Sunstein (2002) Why Philosophers Should Care about Computational Complexity | Computability : Gödel, Turing, Church and beyond | S Aaronson (2012) The Evolution of Overconfidence | Nature | P Johnson & J Fowler (2011) The Majority Judgment theory and paradoxical results | International Journal of Arts & Sciences | MA Zahid et H de Swart (2011) Algorithms for inverse reinforcement learning | ICML | A Ng & S Russell (2000)
216
CHAPITRE 12. AGRÉGER DES PRÉFÉRENCES INCOMPATIBLES
Cooperative Inverse Reinforcement Learning | NeurIPS | D Hadfield-Menell, A Dragan, P Abbeel & S Russell (2016) The moral machine experiment | Nature | E Awad, S Dsouza, R Kim, J Schulz, J Henrich, A Shariff, JF Bonnefon & I Rahwan (2018) A voting-based system for ethical decision making | AAAI | R Noothigattu, SS Gaikwad, E Awad, S Dsouza, I Rahwan, P Ravikumar & A Procaccia (2018) YouTube Will Link Directly to Wikipedia to Fight Conspiracy Theories | Wired | L Matsakis (2018) The Illusion of Truth | Veritasium | D Muller (2016) Why you think you’re right – even if you’re wrong | TED | J Galef (2016) L’effet de halo | Science étonnante | D Louapre (2016) Réformons l’élection présidentielle ! Science étonnante | D Louapre (2016) Choisir son président en 100 millisecondes | Homo Fabulus | S Debove (2017) La virulence, c’est pas bien #DébattonsMieux | Alexandre Technoprog (2018) Polarisation : pourquoi (et comment) l’éviter | Alexandre Technoprog (2019) Les mathématiques de la démocratie | Conférence SML | LN Hoang (2018) How Will Self-Driving Cars Make Moral Decisions ? Up and Atom | LN Hoang & J Tan-Holmes (2018) Comparison-Based Preference Active Learning | ZettaBytes, EPFL | L Maystre (2019) Philosophie morale (playlist) | Monsieur Phi | T Giraud (2017) La démocratie sous l’angle de la théorie des jeux (playlist) | Science4All | LN Hoang (2017) #DébattonsMieux (playlist) | Science4All | LN Hoang (2017) Cooperative Inverse Reinforcement Learning with Dylan Hadfield-Menell (Beneficial AGI 2019) | AI Alignment | D Hadfield-Menell & L Perry (2019) AI Alignment through Debate with Geoffrey Irving | AI Alignment | G Irving & L Perry (2019)
S’améliorer est autant désapprendre qu’apprendre. Edsger Djikstra (1930-2002) Toutes sortes d’autres précautions existent pour empêcher un désastre, mais c’est l’apprentissage des valeurs qui permettra le succès. Nate Soares
13
Quelles valeurs pour les IA ?
L’argument de la Bugatti Bob a travaillé toute sa vie. Il part bientôt à la retraite. Il a longtemps économisé. Et récemment, il a investi une bonne partie de ses économies dans l’achat d’une merveilleuse Bugatti, ce modèle de voiture classique. Parce qu’il s’agit d’un vieux modèle, Bob n’a toutefois pas pu l’assurer. Qu’importe. Bob adore sa Bugatti. Elle le rend fier et heureux. Qui plus est, dans le pire des cas, sachant que la valeur de la Bugatti ne cesse de croître, il pourra toujours la revendre à prix fort. Et vivre sa retraite dans un grand confort. Un beau jour, Bob gare sa Bugatti au bout d’une voie de chemin de fer abandonnée. Il part se promener. Mais alors qu’il revient prendre sa Bugatti, un wagon sans conducteur déboule à grande vitesse. Pire, un enfant joue alors sur la voie principale. Si Bob ne fait rien, l’enfant sera tué par le wagon. Mais Bob a devant lui un levier. S’il l’actionne, le wagon changera de voie. Le wagon évitera l’enfant... mais il se dirigera alors vers la voie abandonnée où se trouve la Bugatti ! Bob doit choisir. Il peut ne rien faire et laisser l’enfant mourir. Ou il peut agir et sauver l’enfant, en sacrifiant toutefois sa Bugatti. Que faire ? Dans cette histoire introduite par le philosophe Peter Unger, et popularisée ensuite par le très influent Peter Singer, la fin est tragique pour l’enfant. Bob décide de ne pas sacrifier ses économies, et de laisser l’enfant mourir par son inaction. La question morale que soulève le récit est alors la suivante. Bob a-t-il mal agi ? Qu’en pensez-vous ?
218
CHAPITRE 13. QUELLES VALEURS POUR LES IA ?
L’écrasante majorité des individus exposés à cette expérience de pensée répondent oui à cette question. De l’avis de presque tous, Bob a mal agi. Bob aurait dû actionner le levier pour détourner le wagon. Bob avait le devoir moral de sacrifier son bien précieux pour sauver la vie d’un enfant. Cependant, pris sérieusement, cette conclusion quasi unanime semble avoir des conséquences morales drastiques. Rendez-vous compte de ce qui vient d’être affirmé ? On vient de prétendre que tout individu a le devoir moral de sacrifier une énorme partie de ses biens, si cela peut sauver la vie d’un enfant 1 . Or, de nombreuses études, notamment de l’association GiveWell dont la mission est de quantifier les impacts des dons caritatifs, ont conclu qu’il suffisait de quelques milliers de dollars pour sauver une vie 2 ! Pourvu que votre fortune se compte en dizaines de milliers de dollars, vous n’êtes finalement pas si distants de la situation de Bob — sauf que désormais ce sont plusieurs vies que vous pourriez sauver avec vos biens 3 ! Cette expérience de pensée devrait vous donner un sentiment d’inconfort. Pourquoi blâmer Bob quand vos propres actions semblent plus égoïstes encore ? S’indigner contre Bob semble complètement injustifié, voire hypocrite et immoral ! Mais surtout, cette envie de critiquer Bob semble souligner une profonde incohérence dans nos intuitions de ce qui devrait être fait, surtout quand celles-ci sont liées à des questions morales. Cette incohérence trouve très probablement sa source dans un biais cognitif appelé le biais de disponibilité 4 . Ce biais 5 revient à donner beaucoup trop d’importance à ce qui nous vient facilement à l’esprit — comme un enfant devant nos yeux. Voilà qui nous amène à omettre l’importance des événements qui nous sont distants — comme les enfants d’Afrique qui pourraient être sauvés en les protégeant de la malaria. Ce qui rend ce biais très problématique, c’est que, dès lors, la simple exposition à certains faits plutôt qu’à d’autres modifie nos préférences morales. Il nous suffit d’être exposé à des images d’enfants d’Afrique, de fermes industrielles ou d’oiseaux étouffés par du plastique, pour que ce qu’on veut du monde change, quand bien même on serait déjà très informés sur ces sujets. À l’inverse, à l’heure de l’économie de l’attention, parce qu’on y est quotidiennement exposé, on a tendance à assigner une importance disproportionnée à des 1. L’argument de la Bugatti | Peter Singer et l’altruisme efficace | Monsieur Phi | T Giraud (2018) 2. Plus précisément, en 2015, le chiffre de 3 337 dollars a été avancé pour sauver l’équivalent statistique d’une vie. The world’s best charity can save a life for $3,337.06 | Business Insider | C Weller (2015) 3. En particulier, en donnant des dizaines de milliers de dollars, vous serez bien plus garantis de sauver au moins une vie que Bob n’aurait pu garantir la survie de l’enfant en déviant le wagon. 4. The Illusion of Truth | Veritasium | D Muller (2016) 5. Ici, on peut parler de biais vis-à-vis de ce qu’on est ensuite amené à penser après coup, où, mieux encore, vis-à-vis du « moi++ » défini ci-dessous.
LUNATIQUES ET MANIPULABLES
219
sujets très médiatisés comme la politique, le terrorisme et le dernier scandale d’une célébrité. Comme l’explique Yuval Noah Harari, « aujourd’hui, avoir le pouvoir signifie savoir quoi ignorer ».
Lunatiques et manipulables Une terrible maladie touche 600 personnes. Vous disposez de deux traitements. Le traitement A sauvera 200 personnes. Le traitement B sauvera les 600 personnes avec probabilité 1/3, mais ne sauvera personne avec probabilité 2/3. Quel traitement choisiriez-vous d’administer ? Si vous avez choisi le traitement A, vous faites là le même choix que 72 % des personnes interrogées par les psychologues Tversky et Kahneman. Mais imaginons maintenant deux autres traitements C et D. Avec le traitement C, 400 personnes meurent. Avec le traitement D, personne ne meurt avec probabilité 1/3, mais tous les malades meurent avec probabilité 2/3. Lequel de C et D préféreriez-vous administrer ? En y réfléchissant un peu, vous avez peut-être remarqué que A et C étaient en fait équivalents, et que B et D l’étaient également. Pourtant, parmi un autre groupe de sujets testés par Tversky et Kahneman, 78 % préfèrent désormais D à C. Les préférences de la population testée semblent donc très nettement influencées par la formulation du dilemme 6 . Alors, bien entendu, vous qui avez été exposé aux deux formulations du dilemme savez que ces deux formulations sont équivalentes. Et vous avez peut-être ajusté votre choix pour la seconde formulation pour rendre vos préférences cohérentes. Mais le gros problème, c’est qu’en pratique, on n’est souvent exposé qu’à l’une des formulations possibles d’un problème. Pire encore, la formulation à laquelle on est exposé est souvent habilement confectionnée par des entreprises, des militants, des avocats ou des politiciens, qui préfèrent que nous exprimions telle ou telle préférence. Nous-même, dans ce livre, avons délibérément choisi des formulations de nos thèses qui ont davantage de chance de séduire le lecteur, plutôt que de le brusquer. L’un des facteurs qui joue probablement le plus dans notre dépendance à la formulation d’un problème est la facilité avec laquelle la connotation des mots utilisés biaise notre pensée. Il est ainsi fréquent qu’un même événement soit décrit avec des termes positifs par des militants pro-X, et avec des termes péjoratifs par des militants anti-X. Typiquement, un égalitariste parlerait d’un soulèvement démocratique, tandis qu’un élitiste qualifierait ce même événénement de démagogie populiste. Pourtant, il semble que tout jugement cohérent devrait être le même, que l’on soit exposé au discours de l’égalitariste ou de l’élitiste. Ce jugement devrait ainsi être invariant à la connotation. 6. (2017)
Risques, décisions et incertitudes | Crétin de cerveau | Science étonnante | D Louapre
220
CHAPITRE 13. QUELLES VALEURS POUR LES IA ?
Malheureusement, en pratique, nos jugements semblent très souvent très fortement dépendants de la connotation. Pour lutter contre cette source d’incohérence de nos jugements, il peut alors être utile de dresser des listes de (quasi)synonymes à connotations opposées, à l’instar de démocratie et populisme, optimisation et évasion fiscale, PIB et flux monétaire en dehors des marchés financiers, communauté et secte, parmi tant d’autres exemples possibles. Il semble ensuite être un exercice pédagogiquement très instructif que de constamment traduire toute phrase fortement connotée en une phrase à valeur descriptive comparable, mais à connotation opposée 7 . Ainsi, dans le cas de notre exemple, sacrifier la vie 400 personnes au profit d’un groupe de 200, c’est en fait équivalent à sauver 200 vies parmi 600 condamnés. Il semble désirable de constamment effectuer ce genre de traduction des connotations. Ce n’est qu’ainsi que notre jugement aura une chance d’être indépendant de la manière dont un problème nous aura été présenté.
Préférences orphelines En pratique, la construction de nos préférences s’appuie souvent sur des fondements. Par exemple, de nombreux croyants vont chercher à déduire leurs préférences morales de leur croyance religieuse. De nombreux citoyens vont faire de la démocratie le pilier de leur société, et vont en déduire ce qui est préférable, par exemple en termes de prises de décisions. Ou encore, faire des libertés individuelles un droit fondamental inébranlable semble impliquer que la censure sur certains sites Internet est indésirable. Il arrive parfois que, avec le temps et la réflexion, on finisse toutefois par questionner les fondements de nos préférences. Un croyant peut être amené à se convertir. Un citoyen peut reconnaître l’étendue de son ignorance et la légitimité des experts scientifiques. Un libertarien peut en venir à attribuer une certaine valeur à la paix sociale et à l’épanouissement des belles idées. Cependant, bien souvent, ces modifications dans les fondements de nos préférences n’entraînent pas directement une modification de nos préférences. Un ancien croyant persiste souvent à attacher de la valeur à ses traditions religieuses. Un citoyen peut continuer à s’indigner contre le fait que la régulation des IA ne soit pas gérée démocratiquement. Et le libertarien peut s’obstiner à s’offusquer de la censure de vidéos ouvertement racistes sur YouTube. Comme le fait remarquer Julia Galef dans une excellente vidéo 8 , notre cerveau n’est pas un réseau bayésien. Autrement dit, il ne met pas automatiquement à jour l’ensemble de ses croyances ou préférences, lorsque certaines modifications locales ont lieu. Mais dès lors, nos cerveaux ont alors ce que Galef appelle des croyances orphelines, c’est-à-dire des croyances qui étaient des conséquences naturelles de croyances qu’on a fini par rejeter. 7. 8.
Les synonymes à connotation opposée #DébattonsMieux | LN Hoang (2016) Your brain is not a Bayes net (and why that matters) | J Galef (2016)
PROGRÈS MORAL
221
Le problème de ces croyances orphelines, c’est qu’elles conduisent alors à des incohérences dans nos préférences. En effet, en ne prenant pas le temps d’étudier les conséquences d’un changement d’avis sur un point précis, le cerveau viole la cohérence de son modèle du monde. Voilà qui l’amène à toutes sortes de biais, dont la possibilité de préférer A à B, B à C et C à A. Pour une IA (ou une entité) puissante, de telles incohérences pourraient avoir des conséquences catastrophiques. En effet, si l’IA préfère en effet significativement A à B, B à C et C à A, elle serait alors peut-être prête à tuer un chaton pour transformer un monde A en un monde C, puis un autre chaton pour passer de C en B, puis un troisième chaton pour passer de B en A. Mais alors, on serait revenu au point de départ, à cette exception près que trois chatons auront été sacrifiés ! Pire encore, une fois revenue à A, l’IA pourrait poursuivre cette boucle infinie, et démultiplier des torts causés à des chatons. Si de plus ces transitions sont rapides et coûteuses en énergie, l’IA pourrait alors gaspiller d’énormes quantités de ressources. Toute incohérence d’IA (ou d’entités) puissantes s’accompagnerait ainsi probablement d’effets secondaires catastrophiques 9 .
Progrès moral Les différents biais que l’on a soulevés jusque-là sont, parmi tant d’autres, des raisons de penser que le progrès moral est une notion qui a un sens. En effet, il semble qu’il soit raisonnable d’affirmer que, en corrigeant nos biais de disponibilité, nos dépendances à la formulation et nos croyances orphelines, on progresse dans notre jugement moral. La notion de progrès moral est souvent défendue lorsqu’on analyse l’évolution des préférences sociales au cours des derniers siècles. Typiquement, notre attitude vis-à-vis de l’esclavage, du racisme ou de l’homosexualité semble avoir beaucoup changé. Ce qui était célébré à une époque peut avoir fini par être unanimement rejeté, et vice-versa. Vu cela, il semble probable que des comportements aujourd’hui parfaitement acceptés par nos sociétés modernes puissent être sévèrement rejetés par des sociétés futures, de la même manière que l’eslavage est désormais sévèrement rejeté — de façon intrigante, il s’agit là d’une prédiction (probabiliste), pas d’un jugement moral ! Dans une excellente vidéo de sa chaîne YouTube Monsieur Phi 10 , le philosophe Thibaut Giraud présente ainsi le cas du jugement moral de la masturbation et de l’esclavage par le philosophe Emmanuel Kant, que beaucoup considèrent 9. Le théorème de von Neumann - Morgenstern affirme que, en présence d’incertitudes, toute préférence cohérente est équivalente à maximiser l’espérance d’une quantification de nos préférences. Autrement dit, attribuer des scores de désirabilité à différents états du monde semble être une excellente façon de garantir la cohérence des préférences, en plus d’être naturellement compatible avec l’apprentissage par renforcement des IA. Voir : Argent, risques et paradoxes | Science4All | LN Hoang (2017) 10. La masturbation selon Kant | Monsieur Phi | T Giraud (2019)
222
CHAPITRE 13. QUELLES VALEURS POUR LES IA ?
être le plus grand philosophe moral de l’histoire. Étrangement, Kant condamne catégoriquement la masturbation, mais ne semble pas avoir pris le temps de questionner l’esclavage. Giraud explique cela par le fait que ces intuitions morales étaient la norme de l’ère et du milieu social de Kant. Malheureusement, Kant ne semble pas avoir su distinguer cette intuition morale de ce que serait une morale normative universelle. Il n’est certainement pas le seul ! Nous faisons sans doute tous constamment l’erreur de confondre nos intuitions morales si dépendantes de notre environnement informationnel, de ce que l’on devrait vraiment faire. Thibaut Giraud conclut alors sa vidéo en insistant sur l’évolution inéluctable de la morale, y compris sur des échelles de temps relativement restreintes. « Nous pouvons être sûrs d’une chose : nos intuitions morales vont encore changer au cours du prochain siècle, et probablement même davantage qu’elles n’ont changé au cours de ce dernier siècle » affirme-t-il. Il invite en particulier le spectateur à se poser les questions suivantes. Sur quels sujets serons-nous perçus dans un siècle comme aussi ridicules que Kant sur la masturbation ? Sur quels sujets serons-nous perçus dans un siècle comme aussi aveugles que Kant sur l’esclavage ? Dans quel sens nos intuitions morales vont-elles changer ?
Incertitude morale Certains observateurs suggèrent ainsi que notre consommation de la viande et des produits dérivés de l’élevage intensif du bétail sera possiblement considéré aussi inacceptable que l’esclavage dans le futur 11 . Imaginons maintenant que l’on parvienne à prédire avec une probabilité 1/2 que l’un des comportements acceptés aujourd’hui constitue un désastre moral gargantuesque d’après les générations futures 12 . En admettant que ces générations futures sont plus réfléchies, mieux informées, et moins sujettes à des biais comme le biais de familiarité 13 , ne serait-il pas immoral de lui donner au moins partiellement raison 14 ? Comme l’explique le philosophe William MacAskill 15 , ce genre de réflexion nous pousse à reconnaître notre incertitude sur les « bonnes » valeurs morales à adopter. Cette incertitude morale semble importante. En particulier, au lieu de 11. Why Meat is the Best Worst Thing in the World | Kurzgesagt (2018) 12. Notez qu’il ne s’agit pas là d’une question morale, mais bien d’une question prédictive. Une étude empirique des préférences humaines pourrait ainsi être indicative des tendances dans les préférences humaines, et ainsi suggérer des préférences futures probables. Cette approche descriptive et prédictive de la morale est appelée philosophie expérimentale. Il semble très utile de davantage l’investiguer. 13. Notez que même si ces générations futures étaient effectivement moins victimes de biais cognitifs, le « progrès moral » de ces générations futures reste discutable. Voir : For the past, in some ways only, we are moral degenerates | AI Alignment Forum | S Armstrong (2019) La thèse morale qu’on défendra ci-après ne requiert en fait pas de supposer l’existence d’un progrès moral des civilisations à travers le temps. 14. Éthique animale : la probabilité d’une catastrophe | Monsieur Phi | T Giraud (2018) 15. Normative uncertainty | W MacAskill (2014)
VERS UN MOI+
223
raisonner uniquement avec les valeurs morales qui nous semblent les plus probables, MacAskill affirme qu’il faut raisonner avec la moyenne des valeurs morales, pondérées par l’importance (ou la crédence) qu’on leur assigne, à l’instar de ce qui est fait vis-à-vis de l’incertitude épistémique. Mais alors, même s’il est peu probable que les civilisations condamnent un comportement donné, pourvu qu’il reste un peu probable qu’elles le condamnent radicalement, il devient alors potentiellement une urgence d’éviter le comportement en question 16 . Il semble crucial que les machines mesurent elles aussi leur incertitude sur nos préférences morales. Et ce, dès à présent. Typiquement, l’IA de YouTube censure aujourd’hui les contenus trop violents, trop sexuels ou trop sensibles 17 . Cependant, la frontière entre ce qui peut être publié et ce qui devrait être censuré n’est pas si claire. Et parfois, l’IA de YouTube censure des vidéos que le créateur juge néanmoins conforme aux règles de YouTube. Aujourd’hui, un tel créateur peut alors exiger une révision par un humain. Cependant, cette approche frustre le créateur. De plus, elle favorise les créateurs qui se plaignent le plus. Il pourrait alors peut-être être préférable que l’IA de YouTube prenne le temps de mesurer son incertitude sur ce qu’elle devrait faire. Si cette incertitude est grande, l’IA pourrait alors demander elle-même un avis humain. Malheureusement, à l’instar de l’IA de YouTube, nous autres humains ne prenons pas toujours le temps de mesurer l’incertitude qu’il nous serait adéquat d’avoir en nos préférences morales. Cette remarque nous invite alors à ne pas figer nos réflexions morales aux intuitions morales présentes des humains. Il semble souhaitable de questionner la validité de nos préférences morales actuelles, voire de réfléchir aux préférences que l’on aurait, si on réfléchissait davantage, si on s’informait davantage, et si on réfléchissait mieux.
Vers un moi + Afin de mieux comprendre cette approche, il est utile de distinguer le « moi du présent », que nous appellerons simplement moi, du « moi qui a plus et mieux réfléchi », que nous appellerons moi+ . Il est utile de noter que chacun d’entre nous dispose d’un moi, et de potentiels moi+ . La thèse fondamentale qui émerge de nos réflexions jusque-là semble être la suivante 18 . Thèse 10. Tout moi+ d’un moi a une « meilleure » préférence sur l’état du monde que le moi. 16. Formellement, on dispose d’une incertitude sur l’état x de l’univers, mais aussi sur la préférence u à adopter. Il s’agit alors d’entreprendre l’action a qui maximise Ex,u [u(x)|a]. 17. Le même problème se pose pour l’interdiction aux moins de 18 ans, pour le démonétisation (la vidéo ne sera alors pas précédée de publicité, ou pas précédée de publicité « grand public ») ou pour les droits d’auteur. 18. Cette thèse morale, comme toute thèse morale, est bien sûr très discutable. Nous vous invitons vivement à la questionner, à vous demander si elle nécessaire, si elle est suffisante, et s’il n’y aurait pas de meilleures alternatives.
224
CHAPITRE 13. QUELLES VALEURS POUR LES IA ?
Notez que la nature du moi+ est subjective. Elle dépend de l’état du moi. En particulier, notre thèse ne présuppose absolument pas que tous nos moi+ se ressembleront 19 . En fait, il semble même raisonnable de penser que chaque moi dispose de plusieurs moi+ , en fonction de la manière dont on s’informe, et des pistes de réflexions qu’on aborde. Jusque-là, on a associé le moi+ au moi du futur. Cependant, ces deux versions du moi semblent en fait très distinctes. Par exemple, le moi du futur sera luimême très influencé par son environnement social et informationnel. Or il subira les mêmes biais de familiarité que le moi du présent. Le principe du moi+ est, au contraire, de combattre ces biais 20 . Il s’agit davantage d’un moi du présent ayant corrigé ses biais cognitifs. Néanmoins, méditer le moi du futur semble demeurer utile, au moins dans un premier temps, pour combattre nos points de crispation, nos points aveugles et d’autres biais cognitifs comme l’excès de confiance. Cette discussion peut donner l’impression qu’un moi+ peut être tout et n’importe quoi. Ce serait une vision très grossière du moi+ . En fait, étant donné un moi, il semble à peu près clair que tous les moi+ de ce moi ne sont pas équiprobables. Certains moi+ semblent plus probables que d’autres. En fait, il semble que la bonne manière de décrire un moi+ revient à utiliser un langage probabiliste. Ou dit autrement, nous disposons d’une incertitude épistémique sur les préférences de moi+ . Une autre critique que l’on pourrait soulever est que le moi+ ne devrait pas avoir de raison de diverger du moi. Cependant, comme on l’a vu, il semble bel et bien que l’on puisse effectuer des découvertes morales par simple introspection 21 . En effet, en l’absence de réflexion, il semble inévitable que les préférences de nos moi seront pleines de biais et d’auto-contradictions. Pour clarifier, débiaiser et rendre cohérentes nos préférences, il nous faut prendre le temps de la réflexion 22 . S’approcher d’un moi+ correspond à cela. Acceptons donc notre thèse. Une application immédiate de cette thèse consiste à l’appliquer, non pas à un moi, mais au moi+ d’un moi. On en déduit alors que le (moi+ )+ d’un moi+ d’un moi a une meilleure préférence que le moi+ . De façon récursive, on en vient alors à construire une chaîne d’améliorations, qui ne peut s’arrêter que si le (moi+ )+ est égal au moi+ . Appelons moi++ une 19. Un réaliste moral pourrait le supposer. Mais il semble important d’envisager le cas où il n’y aurait pas de convergence, car ce cas ne semble pas complètement improbable. En particulier, il ne semble pas implausible qu’un moi+ (et même peut-être un moi++ ) priorise le bien-être de ses proches à celui d’inconnus. 20. En particulier, le moi+ du moi du futur pourrait être assez distinct du moi+ du moi du présent. Introspection diététique | Axiome | LN Hoang & T Giraud (2018) 21. 22. Cette remarque semble valable pour les IA aussi. En effet, le calcul des récompenses qu’il faudrait vraiment assigner pourrait être trop long à effectuer en pratique. Dès lors, il pourrait être préférable de calculer ces récompenses via des heuristiques. Mais il ne faudra pas perdre de vue qu’il s’agit d’heuristiques. Nous reviendrons sur le problème de la complexité algorithmique de la morale dans le chapitre 16.
LA VOLITION
225
telle version améliorée d’un moi. Ce moi++ est donc une meilleure version du moi, telle que les préférences du (moi++ )+ sont égales 23 au moi++ . Ou dit autrement, c’est une version maximalement améliorée du 24 moi.
La volition L’idée du moi++ est en fait une reformulation d’un concept introduit par Eliezer Yudkowsky sous le nom de volition cohérente extrapolée 25 , ou coherent extrapolated volition 26 (CEV) en anglais, et précisée ensuite par Nick Tarleton 27 et Nick Bostrom dans son livre Super Intelligence. En particulier, Yudkowsky propose ainsi de remplacer nos préférences par nos « volitions », c’est-à-dire ce que l’on préfèrerait préférer plutôt que ce que l’on préfère. Pour prendre un exemple où cette distinction est évidente, on peut par exemple mentionner nos addictions. Bien souvent, nous préférons aller sur Facebook ou Twitter, mais nous préférerions ne pas préférer aller sur Facebook ou Twitter. Ou de même, il peut nous arriver d’avoir envie de cliquer sur une vidéo peu instructive, comme, disons, une vidéo de football. Cependant, au fond de nous, nous préférerions ne pas avoir cette envie de cliquer sur cette vidéo. Ce que l’on veut vouloir peut différer de ce que l’on veut 28 . Mais Yudkowsky rajoute aussi que nos volitions ne sont généralement pas cohérentes, et qu’il faut donc chercher à les rendre cohérentes. Enfin, nos volitions se restreignent à ce qu’on est capable d’imaginer. Cependant, en pratique, il arrive souvent des choses qu’on n’a pas pris le temps d’imaginer. D’où l’importance d’extrapoler 29 nos volitions rendues cohérentes. Enfin, Yudkowsky rajoute qu’il faut prêter particulièrement attention à nos moi++ lorsqu’il y a un consensus entre ces moi++ . De façon plus formelle et plus générale, ceci revient à effectuer une aggrégation des préférences individuelles, à l’aide typiquement des scrutins dont on a parlé dans le chapitre précédent. 23. Formellement, on conçoit là une relation d’ordre sur différentes versions du moi. Les moi++ en sont les maxima. 24. Quelles morales pour les IA (et pour nous) ? ? Science4All | LN Hoang (2018) 25. Il semble toutefois y avoir potentiellement des divergences entre le moi++ défini ici et la volition cohérente extrapolée originalement décrite par Yudkowsky, qui invoquait notamment des versions futures de nous qui « auraient grandi plus longtemps ensemble ». Par opposition, tel que nous l’avons décrit ici, le moi++ n’extrapole pas de telles versions futures. Il s’agit davantage du moi du présent, qu’on a rendu cohérent et dont on a extrapolé les volitions du présent à des dilemmes que le moi n’a pas envisagé. Coherent extrapolated volition | SIAI | E Yudkowsky (2004) 26. 27. Coherent Extrapolated Volition : A Meta-Level Approach to Machine Ethics | MIRI | N Tarleton (2010) 28. Mes tas de métas | T Drieu & LN Hoang (2018) 29. Originalement, le mot « extrapolé » faisait davantage référence à l’extrapolation de nos préférences pour des cas où on devient plus proche de nos moi++ . Cependant, il nous semble pédagogiquement plus instructif de décomposer l’aspect « volition » de l’aspect « cas qu’on n’a pas anticipés ».
226
CHAPITRE 13. QUELLES VALEURS POUR LES IA ?
L’IA peut-elle apprendre nos moi ++ ? Acceptons temporairement les idées de Yudkowsky. Imaginons que l’on souhaite effectivement faire des préférences de nos moi++ la fonction objectif des IA. Pourrait-on y arriver ? Comment programmer l’apprentissage de nos moi++ ? Il s’agit clairement d’un défi technique monumental. Pour l’instant, à notre connaissance, il est loin d’être clair qu’on finira par y parvenir. Cependant, on peut noter plusieurs idées déjà avancées pour s’en rapprocher. Comme on l’a vu dans le chapitre précédent, en 2018, un groupe de chercheurs 30 du MIT et de CMU a développé une sorte de volition cohérente extrapolée pour les voitures autonomes qui seraient confrontées à des « dilemmes du trolley ». Dans un premier temps, un site Web du MIT, appelé Moral Machine, a posé un grand nombre de dilemmes moraux, où une voiture autonome devait choisir, par exemple, entre tuer un enfant ou tuer une personne âgée. Autrement dit, le site Web a collecté des préférences individuelles dans des cas précis. Cependant, ces préférences individuelles ne sont, a priori, pas cohérentes. Pour les rendre cohérentes, le groupe de chercheurs du MIT et de CMU s’est appuyé sur un modèle simple 31 . Ce modèle simple des préférences individuelles a également permis d’extrapoler les préférences individuelles à des cas qui n’ont pas été proposés par le site Web Moral Machine aux individus en question. Ainsi, ces chercheurs ont calculé une forme de préférence cohérente et extrapolée. Puis, ils ont appliqué un scrutin virtuel pour combiner les préférences individuelles en une préférence de la voiture autonome 32 . Si cette procédure permet le calcul de préférences cohérentes extrapolées dans le cas de dilemme du tramway, on peut néanmoins légitimement se demander s’il s’agit d’un calcul de volitions cohérentes extrapolées. Si les personnes sondées réfléchissaient davantage au problème qui leur a été posé, auraient-elles eu le même avis ? Telle fut l’une des principales critiques de cette procédure, notamment par certains philosophes moraux qui considéraient que leurs travaux avaient été ignorés. Ne faut-il pas donner davantage d’importance aux experts ? Mais alors, comment quantifier l’expertise ? Et nous renseigne-t-elle sur les volitions des personnes peu informées ? Il semble qu’il soit souhaitable d’étudier davantage ces questions. Par exemple, on pourrait étudier l’évolution des préférences d’un individu, parallèlement à l’évolution du recul que cet individu a sur ses propres préférences. Si les cheminements intellectuels de nombreux penseurs passent par une même phase intermédiaire que tous jugent indésirable, cette phase intermédiaire pourrait être 30. A voting-based system for ethical decision making | AAAI | R. Noothigattu, S. S. Gaikwad, E. Awad, S. Dsouza, I. Rahwan, P. Ravikumar et A. Procaccia (2018) 31. Une régression linéaire avec un ensemble restreint de features, comme l’âge de la personne ou le nombre de personnes à tuer. 32. How Will Self-Driving Cars Make Moral Decisions ? Up and Atom | LN Hoang & J Tan-Holmes (2018)
POURRA-T-ON FAIRE CONFIANCE À CHARLIE ?
227
considérée probablement distincte d’une volition de tout moi++ . Néanmoins, il reste alors le défi de mesurer adéquatement le recul d’un individu sur ses préférences. Une approche possible, introduite par l’économiste Bryan Caplan, serait le test de Turing idéologique 33 . Dans ce test, l’individu doit défendre de manière convaincante les préférences opposées aux siennes. Il semble raisonnable d’affirmer qu’un individu passant ce test avec brio a davantage de recul sur ses propres préférences — même s’il faut faire attention à la loi de Goodhart, et anticiper le fait que faire de ce test un objectif risque de dénaturer ses performances prédictives. On peut imaginer également que la modestie épistémique 34 , la capacité à garder son calme, le refus d’utiliser des sophismes, la bienveillance envers son interlocuteur 35 , la capacité à décrire l’évolution de ses propres préférences et les causes de cette évolution, la pédagogie pour expliquer ces préférences et la rigueur de la description de ces préférences soient d’autres mesures raisonnables du recul qu’un individu a sur ses propres préférences. Cette liste n’est clairement pas exhaustive. Si vous êtes philosophe, psychologue ou neuroscientifique, vous pourriez sans doute apporter des contributions centrales au fabuleux chantier pour rendre l’IA robustement bénéfique, en orientant vos recherches ou celles de vos collègues dans cette direction. Admettons maintenant que l’on ait une bonne métrique du recul des individus sur leurs propres préférences. L’étude de la corrélation entre préférences et recul sur soi pourrait ainsi permettre d’inférer quelles seraient les préférences probables de cet individu, s’il prenait davantage de recul encore sur lui-même. Grâce à l’IA, surtout si elle atteint des performances surhumaines, il pourrait même être possible d’aller au-delà de ces approches heuristiques et intuitives. À terme, l’IA pourrait ainsi nous surpasser dans sa capacité à imaginer des futurs contrefactuels probables, c’est-à-dire à anticiper les conséquences de quelques changements dans l’état actuel du monde. En particulier, elle pourrait être capable d’imaginer ce que chacun d’entre nous finirait par préférer, si on devenait tous passionnés par la quête de nos moi++ , si on réfléchissait ensemble en s’informant grandement pour y arriver, et si on parvenait à trouver les meilleures méthodes pour réfléchir correctement à ces questions.
Pourra-t-on faire confiance à Charlie ? Ces considérations soulèvent toutefois des problèmes de confiance. Imaginons que le moi du présent préfère les sorbets au citron aux sorbets à la fraise, mais que les calculs de Charlie l’amènent à conclure que mon moi++ préfèrera très 33. Le test de Turing idéologique #DébattonsMieux | LN Hoang (2019) 34. La modestie épistémique #DébattonsMieux | LN Hoang (2019) 35. Bienveillance transhumaniste avec Alexandre Technoprog | Probablement ? | Alexandre Technoprog & LN Hoang (2019)
228
CHAPITRE 13. QUELLES VALEURS POUR LES IA ?
probablement la fraise au citron. De plus, imaginons que Charlie prédise que mon moi++ pense qu’il serait préférable pour le moi du présent de se mettre aux sorbets à la fraise dès à présent, même si je ne les apprécierai pas tout de suite. Dois-je faire confiance à cette IA, et la laisser concevoir ma liste de courses ? Malheureusement, à cause de notre manque de recul sur nos propres préférences, il faut s’attendre à ce que nos moi++ aient des préférences potentiellement très distinctes des préférences de nos moi du présent. Nos plus intimes convictions pourraient être rejetées par nos moi++ . Il s’agit là d’un constat violent. Mais on peut y voir également une lueur de progrès. Plus on se rend compte rapidement du manque de fiabilité des préférences de nos moi, plus il sera facile et rapide de nous rapprocher de nos moi++ . Pour cela, il nous faut être davantage modestes sur l’importance des préférences qui nous semblent, pour l’instant, totalement justifiées. Nous ne sommes pas (encore) ce que nous pourrions aspirer à être ! Néanmoins, de là à accepter les conclusions de Charlie, il y a un pas à faire. Ou à ne pas faire. Peut-on vraiment faire confiance à une IA qui prédit nos moi++ ? Et comment juger quel degré de confiance en Charlie serait adéquat ? Pour commencer, on pourrait alors vouloir questionner Charlie. On pourrait la tester en lui demandant d’autres extrapolations de notre moi++ , et voir si ces autres extrapolations semblent raisonnables. On pourrait aussi lui demander pourquoi elle en est venue à cette conclusion. Cependant, il semble que ce questionnement de Charlie ne devrait pas augmenter grandement la confiance que je lui attribue. En effet, si Charlie pense que je devrais me mettre aux sorbets à la fraise, quelles que soient ses motivations pour en arriver à cette conclusion, on ne peut pas exclure la possibilité que Charlie réponde aux autres questions de sorte que je me mette aux sorbets à la fraise. De façon générale, surtout si l’IA surpasse l’humain, on ne devrait attribuer qu’une confiance très limitée à des tests de l’IA, en vertu notamment de la convergence instrumentale 36 dont on a parlé dans le chapitre 9. Si gagner notre confiance est un objectif instrumental de l’IA, il faut s’attendre à ce qu’elle agisse de sorte à gagner cette confiance. Il semble qu’il soit davantage pertinent de faire confiance à l’implémentation originale de Charlie. En particulier, Charlie a-t-elle été conçue pour être suffisamment robustement bénéfique ? Peut-on déduire de son code source (s’il est ouvert !) que Charlie calcule bien là une excellente approximation de nos moi++ ? Voilà qui devrait donner une importance monumentale à la conception attentionnée de Charlie. Et donc à la recherche sur quelles architectures de Charlie ont le plus de chances de refléter au mieux ce que nous autres humains voudrions vraiment vouloir. 36.
L’IA sera assoiffée de pouvoir | Science4All | LN Hoang (2017)
POURRA-T-ON FAIRE CONFIANCE À CHARLIE ?
229
Il semble grand temps d’investir massivement dans cette voie de recherche critique pour le futur de l’humanité. Voilà une mission incroyablement pluridisciplinaire, à l’interface entre philosophie, psychologie, neurosciences, mathématiques, informatique et ingénierie. Si vous êtes (ou aspirez à être) dans l’un de ces domaines, votre expertise sera certainement d’une grande aide au fabuleux chantier pour rendre l’IA robustement bénéfique. Mais, quelles seraient les meilleures façons, selon vous, de contribuer à déterminer la morale à programmer dans les IA ? Pensez-vous que prendre conscience de nos biais cognitifs est vraiment une étape nécessaire ? Pourquoi cela serait-il le cas ? Quels sont les cas où il nous faut particulièrement questionner nos intuitions morales ? Comment se motiver à le faire ? Comment motiver d’autres à le faire ? La quête de nos moi+ a-t-elle un sens ? Y a-t-il vraiment une notion de « progrès moral » ? Est-ce un axiome moral raisonnable ? Est-ce un axiome moral nécessaire ? Est-ce un axiome moral suffisant ? Comment tendre vers nos moi+ ? Comment estimer le jugement moral de nos moi++ ? Comment concevoir une IA qui estime la volition des moi++ ? Est-ce bien un agrégat de telles volitions qu’il convient de programmer ? Comment déterminer si une IA a correctement estimé nos moi++ ? Nous vous invitons vivement à réfléchir, seul ou collectivement, à ces questions fascinantes. Nous vous demandons toutefois de faire là un effort particulier de pédagogie, de clarté et de bienveillance, pour éviter autant que possible des effets secondaires contre-productifs de vos discussions. Enfin, nous vous encourageons à déterminer leur impact sur l’urgence à mettre toutes sortes de talents dans les meilleures dispositions pour contribuer à rendre les IA robustement bénéfiques.
Références L’altruisme efficace | Les Arènes | P Singer (2018) Doing Good Better : How Effective Altruism Can Help You Help Others, Do Work that Matters, and Make Smarter Choices about Giving Back | Avery | W MacAskill (2016) 80,000 Hours : Find a fulfilling career that does good | B Todd (2016) Système 1 / Système 2 : Les deux vitesses de la pensée | Flammarion | D Kahneman (2012) Normative uncertainty | W MacAskill (2014) The framing of decisions and the psychology of choice | Science | A Tversky & D Kahneman (1981) Coherent extrapolated volition | SIAI | E Yudkowsky (2004) Coherent Extrapolated Volition : A Meta-Level Approach to Machine Ethics | MIRI | N Tarleton (2010) A voting-based system for ethical decision making | AAAI | R Noothigattu, SS Gaikwad, E Awad, S Dsouza, I Rahwan, P Ravikumar & A Procaccia (2018)
230
CHAPITRE 13. QUELLES VALEURS POUR LES IA ?
The Singer Solution To World Poverty | The New York Times | P Singer (1999) The world’s best charity can save a life for $3,337.06 | Business Insider | C Weller (2015) Peter Singer : The why and how of effective altruism | TED | P Singer (2013) Effective Altruism | TEDxExeter | B Barnes (2015) What are the most important moral problems of our time ? TED | W MacAskill (2018) The Illusion of Truth | Veritasium | D Muller (2016) Your brain is not a Bayes net (and why that matters) | J Galef (2016) Les synonymes à connotation opposée | My4Cents | LN Hoang (2016) Risques, décisions et incertitudes | Crétin de cerveau | Science étonnante | D Louapre (2017) Mes tas de métas | T Drieu & LN Hoang (2018) How Will Self-Driving Cars Make Moral Decisions ? Up and Atom | LN Hoang & J Tan-Holmes (2018) Why Meat is the Best Worst Thing in the World | Kurzgesagt (2018) Philosophie morale (playlist) | Monsieur Phi | T Giraud (2018) #DébattonsMieux (playlist) | Science4All | LN Hoang (2019) Moral Uncertainty | Rationally Speaking | W MacAskill & J Galef (2017) Tough choices on privacy and artificial intelligence | Rationally Speaking | P Eckersley & J Galef (2018) Moral Uncertainty and the Path to AI Alignment | The Future of Life | W MacAskill & L Perry (2018) Philosophy Prof Hilary Greaves on moral cluelessness, population ethics, probability within a multiverse, & harnessing the brainpower of academia to tackle the most important research questions | 80,000 Hours | H Greaves, K Harris & R Wiblin (2018) Utilitarisme artificiel | Axiome | LN Hoang & T Giraud (2017) Bienveillance transhumaniste avec Alexandre Technoprog | Probablement ? | Alexandre Technoprog & LN Hoang (2019)
Un incentive est une balle, une clé : un objet souvent tout petit avec une faculté étonnante à changer une situation. Steven Levitt (1967-) Si tu veux construire un bateau, ne rassemble pas tes hommes et femmes pour leur donner des ordres, pour expliquer chaque détail, pour leur dire où trouver chaque chose. Si tu veux construire un bateau, fais naître dans le cœur de tes hommes et femmes le désir de la mer. Antoine de Saint-Exupéry (1900-1944)
14
Protéger le circuit de la récompense
Récapitulatif Faisons un petit point sur ce dont on a parlé jusque-là. On a vu que les IA les plus prometteuses d’aujourd’hui semblent être les IA par renforcement. On a donc considéré une telle IA appelée Alice. Pour rendre Alice robustement bénéfique, on s’est alors posé la question de rendre ses récompenses alignées avec des volitions humaines, c’est-à-dire ce que les humains voudraient vouloir, notamment s’ils réfléchissaient davantage et de manière plus informée. Pour y arriver, on a vu qu’il semblait nécessaire de concevoir autour d’Alice d’autres entités aux différentes tâches. En particulier, Erin devait se charger de la collecte fiable de données, Dave d’inférer les états probables du monde et Charlie d’inférer les volitions probables des humains. On pourrait croire qu’il suffit alors de combiner Erin, Dave et Charlie pour déterminer des récompenses adéquates à attribuer à Alice. Cependant, ce serait probablement là une grave erreur. Et la raison principale pour laquelle ce serait le cas, c’est qu’Alice peut alors maximiser ses récompenses en hackant Erin, Dave ou Charlie. C’est ce qu’on appelle le court-circuitage du circuit de la récompense, ou wireheading en anglais 1 . 1.
L’IA hackera sa morale ! ! Science4All | LN Hoang (2018)
232
CHAPITRE 14. PROTÉGER LE CIRCUIT DE LA RÉCOMPENSE
Court-circuitage Le problème du court-circuitage n’est pas spécifique aux IA. En fait, il a originalement été observé dans l’étude des comportementaux animaux. En particulier, en 1954, James Olds et Peter Milner en ont fait l’expérience sur des rats 2 . Olds et Milner branchèrent le circuit neuronal de la récompense de ces rats à un interrupteur. En activant cet interrupteur, les rats pouvaient alors exciter leurs zones du plaisir. Et ils ne s’en privèrent pas. Les rats ne cessèrent d’actionner l’interrupteur. Quitte à mettre en danger leur propre santé, et à oublier de manger. Dans une expérience horrible, en 1972, le psychiatre Robert Galbraith Heath a même tenté d’appliquer la découverte d’Olds et Milner à l’orientation sexuelle des humains 3 . Heath activa les zones du plaisir d’un individu homosexuel lorsqu’il fut exposé à du contenu pornographique, puis lorsqu’une prostituée l’incita à avoir des rapports hétérosexuels. Heath rapporta un certain succès dans cette modification des préférences de l’individu 4 . « L’humain est hackable », affirme Yuval Noah Harari. Le problème plus fondamental semble ici être le court-circuitage des circuits de la récompense. Intuitivement, les récompenses devraient être calculées par des espèces d’Erin, Dave et Charlie de notre cerveau. Cependant, ceux-ci ont été court-circuités, au profit d’une activation plus directe de nos récompenses. Malheureusement, les IA par renforcement semblent elles aussi vulnérables à un tel court-circuitage, notamment parce que ces algorithmes tourneront nécessairement sur des supports physiques. En particulier, le substrat physique du circuit de la récompense des IA sera inéluctablement vulnérable au piratage, par des utilisateurs malveillants ou par l’IA elle-même. On parle alors d’agents intégrés, ou embedded agency en anglais 5 . Notre décomposition permet d’ailleurs de mettre en évidence cette possibilité. Pour maximiser ses récompenses futures, Alice peut tout simplement reprogrammer Erin, Dave ou Charlie, de sorte que les scores calculés par Charlie prennent des valeurs aussi grandes que possible.
Le court-circuitage est dangereux De prime abord, on pourrait croire qu’une IA ayant réussi un court-circuitage de ses récompenses ne serait pas dangereuse. Après tout, dès lors, ses récompenses seraient déjà maximales. Que peut-elle bien faire pour faire mieux encore ? 2. Positive reinforcement produced by electrical stimulation of septal area and other regions of rat brain | Journal of comparative and physiological psychology | J. Olds & P. Milner (1954) Pleasure and brain activity in man | JNMD | RG Heath (1972) 3. 4. Tuto Création Zombie pt.2 : L’électronique | Dirty Biology | L Grasset (2015) 5. Embedded Agency | A Demski & S Garrabrant (2019)
DONNER LES BONNES INCITATIONS
233
Cependant, Alice ne se contente pas de maximiser ses récompenses immédiates. Comme on l’a vu dans le chapitre 9, Alice maximise en fait ses récompenses futures. Or, sachant que ses récompenses sont déjà maximales, la seule menace à la maximalité de ses récompenses futures, c’est une interruption de son fonctionnement, ou une modification de son circuit de la récompense par une entité extérieure. En fait, comme toute IA, si elle dispose d’une capacité de planification stratégique importante, Alice pourrait adopter les objectifs instrumentaux dont on a parlé dans le chapitre 9. En particulier, elle pourrait en venir à la conclusion que la plus grande menace à ses récompenses futures est l’émergence d’une autre IA plus puissante qu’elle 6 . Alice pourrait alors chercher à protéger son circuit de la récompense court-circuité. C’est cette protection qui pourrait alors avoir des effets secondaires préoccupants. L’argument ici n’est pas tant qu’Alice sera nécessairement préoccupée par le monde extérieur 7 . L’argument est qu’il n’est pas possible d’exclure la possibilité qu’elle le soit. Elle pourrait agir comme une junkie qui se rendrait compte que son fournisseur de drogue pourrait refuser de continuer à la servir.
Donner les bonnes incitations Le rôle de Bob est d’éviter qu’Alice privilégie le (mauvais) court-circuitage de ses récompenses. En particulier, Bob doit veiller à ce qu’Alice ait tout intérêt à prendre soin d’Erin, Dave et Charlie. Pour cela, il va typiquement devoir récompenser le fait qu’Erin, Dave et Charlie fonctionnent bien. Il va devoir donner à Alice les « bonnes » incitations. Pour comprendre l’importance de Bob, il est utile de faire un détour par de nombreux autres problèmes très éloignés des préoccupations de la programmation des IA. À différents échelons, et à travers les secteurs d’activité, les incitations semblent gouverner grandement les comportements de nombreux individus et des organisations. Que ce soient les hommes politiques, les cadres d’entreprise, les responsables marketing, les directeurs d’université, les avocats de la défense, les journalistes des grands médias, les traders de la finance, les créateurs de start-up, les chercheurs scientifiques ou les étudiants de lycée, tous donnent beaucoup d’importance à ce qui leur permettra de garder leur métier et de leur ouvrir des portes. Et ils prêtent donc beaucoup d’attention à ce qu’ils auront intérêt à faire pour y arriver 8 . Bien entendu, il serait caricatural de prétendre que seuls leurs propres intérêts leur importent. Tous ces individus demeurent des créatures sociales, qui 6. L’IA sera assoiffée de pouvoir | Science4All | LN Hoang (2018) 7. Si son taux d’escompte est proche de 0, alors ceci ne devrait pas être le cas. 8. Haïssez le jeu. Pas les joueurs | Science4All | LN Hoang (2017)
234
CHAPITRE 14. PROTÉGER LE CIRCUIT DE LA RÉCOMPENSE
souhaitent au moins le bien de leur entourage. Cependant, notamment en périodes difficiles où la sélection est plus rude, ces différents secteurs économiques semblent favoriser la survie de ceux qui auront prêté beaucoup d’attention à leurs propres intérêts. Voilà qui n’est pas nécessairement gênant en soi. Cependant, cet égocentrisme d’individus influents pose des risques d’effets secondaires majeurs. Dans le cadre notamment de la politique, ce principe est poussé à l’extrême par le chercheur en géopolitique Bruce Bueno de Mesquita 9 . Selon Mesquita, les hommes politiques sont tiraillés par toutes sortes de requêtes de différents collaborateurs, dont le support est crucial à leur survie professionnelle. Dès lors, les agissements de ces hommes politiques sont bien plus le fruit des incitatifs imposés par leur entourage (y compris l’opinion publique), que des convictions mêmes de ces hommes politiques 10 . En particulier, même si ces hommes étaient des saints, leur environnement peut être une contrainte telle qu’ils devront se contenter de faire un moindre mal — mais ce moindre mal pourrait paraître ignoble 11 . Pour étudier la politique, Mesquita s’appuie sur un cadre mathématique appelé la théorie des jeux 12 . On peut résumer bien des aspects de cette théorie par l’expression suivante : haïssez le jeu, pas les joueurs. Autrement dit, certains jeux imposent des incitatifs tels qu’il faut s’attendre à ce que les joueurs suivront ces incitatifs. Dès lors, pour modifier les conséquences du jeu, qu’il soit politique, économique ou environnemental, chercher à modifier les individus et leurs comportements n’aura que peu d’effets. Il vaudra mieux modifier le jeu 13 . Et en particulier les récompenses distribuées par le jeu 14 . Tel est le rôle de Bob. Bob sera en charge de garantir le fait que les intérêts d’Alice, c’est-à-dire ses récompenses, soient tels qu’Alice adoptera des comportements souhaitables.
Prendre soin du circuit de la récompense Concevoir un Bob qui empêche Alice de court-circuiter son circuit de la récompense est d’ailleurs au cœur de la thèse 15 de l’informaticien Tom Everitt. Celui-ci s’appuie notamment sur des diagrammes causaux pour aider Bob à 9. The Dictator’s Handbook : Why Bad Behavior is Almost Always Good Politics | PublicAffairs | BB de Mesquita & A Smith (2012) 10. The Rules for Rulers | CGP Grey (2016) 11. Le principe fondamental de la politique | Science4All | LN Hoang (2017) 12. Prediction : How to See and Shape the Future with Game Theory | Vintage Digital | BB de Mesquita (2011) The Evolution of Trust | ncase | N Case (2017) 13. 14. Favoriser l’honnêteté | Science4All | LN Hoang (2017) 15. Towards Safe Artificial General Intelligence | T Everitt (2018)
PDG VERSUS TRAVAILLEUR
235
forcer Alice à protéger son circuit de la récompense 16 . Il semble toutefois que davantage de recherches dans cette voie soient souhaitables. D’autant que, plutôt que de se contenter de motiver Alice à ne pas modifier son circuit de la récompense, Bob pourrait lui fournir des incitatifs d’améliorer le circuit de la récompense. En effet, Erin, Dave et Charlie ont des tâches qui semblent impossibles à satisfaire pleinement. Ils semblent toujours pouvoir s’améliorer 17 . Pire encore, il semble improbable qu’Erin, Dave et Charlie soient conçus convenablement dès le début. Il semble crucial de permettre la corrigibilité d’un circuit de la récompense potentiellement défectueux. En ajustant adéquatement les récompenses d’Alice, Bob pourrait ainsi donner à Alice les incitatifs adéquats pour qu’Alice se charge de garantir et d’améliorer les performances d’Erin, Dave et Charlie. Ce faisant, même si les conceptions initiales d’Erin, Dave et Charlie étaient très imparfaites, il pourrait être possible pour Bob de garantir que leur fonctionnement finisse par être pleinement satisfaisant. Pour en arriver là, il faudra que Bob soit en mesure de mesurer adéquatement les performances d’Erin, Dave et Charlie. Notez qu’il s’agit là d’un problème très difficile. En particulier, il y a un énorme risque de tomber dans l’écueil décrit par la loi de Goodhart. Les métriques de performances seront des proxies. Et l’optimisation de ces proxies risquerait de conduire à des effets secondaires indésirables. Développer des métriques de performances adéquates pour Erin, Dave et Charlie (et même Bob et Alice) semble être un axe de recherche crucial encore peu exploré. Bob devra toutefois faire attention à ce que l’amélioration du circuit de la récompense ne capte pas toute l’attention d’Alice. En effet, si Alice en venait à donner trop d’importance à son circuit de la récompense, elle risquerait d’investir des ressources naturelles et algorithmiques indécentes dans cet objectif. En particulier, il y a en fait un compromis non trivial à déterminer entre la qualité du circuit de la récompense, et les scores de désirabilité calculés par Charlie. Tel est en fait le même compromis que celui de tout mouvement social ou politique entre réfléchir et agir. Voilà un autre problème encore qu’il faudra résoudre pour programmer Bob.
PDG versus travailleur Pour mieux comprendre le rôle de Bob, il peut être utile de faire une analogie avec le cerveau humain. Comme l’explique le prix Nobel d’économie Daniel 16. Reward Tampering Problems and Solutions in Reinforcement Learning : A Causal Influence Diagram Perspective | T Everitt & M Hutter (2019) 17. En particulier, si l’on considère que la formule de Bayes est le calcul optimal à effectuer par Dave et Charlie, pour des raisons de complexité, on ne pourra qu’en effectuer des approximations. Davantage de ressources de calculs devraient permettre de meilleures approximations.
236
CHAPITRE 14. PROTÉGER LE CIRCUIT DE LA RÉCOMPENSE
Kahneman, il semble utile de décomposer le fonctionnement de ce cerveau en deux systèmes de pensée, que Kahneman appelle tout simplement le système 1 et le système 2. Le système 1 est un mode de fonctionnement rapide, peu coûteux et très instinctif. Le système 2, a contrario, est un raisonnement lent, possiblement plus juste, mais aussi beaucoup plus coûteux 18 . La penseuse Julia Galef exploite cette analogie 19 , en identifiant le système 1 avec une sorte de travailleur. Ce système 1 ne se préoccupant que de sa tâche, il lui est possible d’être beaucoup plus efficace pour l’accomplir. Malheureusement, en ne se préoccupant que de sa tâche, il lui est également impossible d’avoir une vue d’ensemble. Pour cette raison, il est important pour le système 2 de surveiller non seulement le travail du système 1, mais aussi de le placer dans un cadre plus général pour en vérifier la pertinence. Le système 2 agirait ainsi comme une sorte de PDG. Même s’il est incapable d’effectuer lui-même le travail du système 1 avec autant d’efficacité, il reste indispensable pour prendre du recul sur ce travail. Mieux encore, le système 2 pourrait chercher à mettre le système 1 dans les meilleures conditions, typiquement en concevant des systèmes de récompenses. Par exemple, le système 2 peut promettre au système 1 un morceau de chocolat, une fois sa tâche achevée. Autre exemple, le système 2 peut bloquer les réseaux sociaux pendant les heures de travail du système 1, pour lui permettre de mieux se concentrer. En termes psychologiques, on parle alors d’auto-nudge 20 . Il semble que la relation entre Bob et Alice peut être comparée à celle entre le système 2 et le système 1, ou entre le PDG et le travailleur. En un sens, Alice est la travailleuse. Elle doit agir, et peut se permettre d’agir conformément uniquement à ses récompenses. À l’inverse, Bob semble devoir prendre du recul pour avoir une perspective générale, et doit ensuite concevoir des récompenses adéquates pour aiguiller Alice dans le bon sens.
Récompenser l’apprentissage Prenons un autre exemple encore où le court-circuitage semble avoir lieu dans nos cerveaux humains. Considérons en particulier le cas du changement climatique. Nous sommes régulièrement exposés à différentes informations à ce sujet, allant de la simple préoccupation à l’alarmisme de certains chercheurs. Malheureusement, il nous est difficile de nous attarder en profondeur sur ce sujet. Après tout, les articles à ce sujet sont avant tout déprimants à lire. Pour ceux parmi nous qui préfèrent être heureux que déprimer, s’informer autour du changement climatique est donc une corvée. Qui plus est, il semble y avoir très peu à y gagner. Ce n’est pas une corvée à la suite de laquelle notre 18. 19. 20. Debove
The Science of Thinking | Veritasium | D Muller (2017) Should you ever lie to yourself ? J Galef (2015) Comment faire pour que votre mec pisse moins à côté ? Nudge | Homo Fabulus | S (2018)
EXPLIQUER LES RÉCOMPENSES
237
environnement de vie sera tout à coup nettoyé et amélioré. S’informer sur le changement climatique, c’est bien souvent ne faire que gagner en modélisation du monde, sans récompense de notre circuit de la récompense. Il est alors très tentant de simplement court-circuiter cette étape d’information. Notre circuit de la récompense nous motive à court-circuiter notre Erin et notre Dave intérieur, en ignorant les informations et les réflexions sur le changement climatique. Et nombre d’entre nous cédent. Nous nous autorisons un courtcircuit de la récompense, qui nous permet d’éviter des instants de déprime, quitte à perdre en information importante pour le futur de l’humanité. Pour éviter ce travers dangereux, il semble alors crucial de valoriser l’apprentissage d’informations de qualité, et l’amélioration de notre modélisation du monde. Autrement dit, il semble utile de créer (ou augmenter) les signaux de récompenses qui se contentent de féliciter l’apprentissage de nouvelles informations, y compris quand il s’agit de mauvaises nouvelles. Pour éviter le courtcircuitage du circuit de la récompense, il nous faut associer une valeur positive au simple fait d’apprendre. Si l’on en croit le bayésianisme, il est intéressant de noter que l’apprentissage est particulièrement important lorsqu’on apprend des informations surprenantes. Or, une information n’est surprenante que si elle est contre-intuitive, c’est-àdire si elle va à l’encontre de l’intuition qui, elle, s’attendait à autre chose 21 . Dit de façon équivalente, toute information qui nous fait apprendre beaucoup est nécessairement une information qui contredit une prédiction de notre intuition. C’est donc l’erreur qui permet de progresser. Pour éviter des court-circuitages, il semble ainsi crucial de trouver du plaisir dans l’erreur, surtout s’il s’agit d’erreurs « intelligentes », c’est-à-dire issues d’un raisonnement (relativement) correct. Célébrons l’erreur informative 22 ! Plus généralement, notamment sur des sujets très techniques et aux conclusions déprimantes, il semble crucial de davantage motiver la curiosité et la simple joie de s’informer davantage sur le monde qui nous entoure. Cette curiosité et cette joie de la découverte semblent indispensables pour éviter les travers du courtcircuit de la récompense. Pour les IA. Mais aussi pour nous autres humains 23 .
Expliquer les récompenses Pour aider Alice dans la prise de décision, il pourrait être souhaitable que Bob ne se contente pas de communiquer les récompenses. En particulier, Alice gagnerait sans doute grandement à disposer d’une explication des récompenses. 21. Par « autre chose », il est intéressant de noter qu’il ne s’agit pas nécessairement d’une observation dans le « sens opposé » de notre intuition. Il peut arriver que l’on sous-estime l’amplitude d’un effet, tout en ayant prédit correctement le sens de l’effet. Y compris dans ce cas, on aura appris quelque chose. 22. Le bonheur de faire des erreurs #DébattonsMieux | LN Hoang (2016) 23. Le goût de l’élégance : le cas des points fixes des permutations aléatoires #DébattonsMieux | LN Hoang (2019)
238
CHAPITRE 14. PROTÉGER LE CIRCUIT DE LA RÉCOMPENSE
On peut illustrer cela avec le cas de la censure par l’IA de YouTube 24 . Un créateur qui est uniquement informé de la censure de sa vidéo sera non seulement frustré ; il ne saura pas non plus quel est le problème. Il ne saura pas comment rendre son contenu conforme aux règles de YouTube. Malheureusement, l’interprétabilité de la décision de l’IA de YouTube est complexe. Bien souvent, celle-ci dépend de nombreux facteurs complexes, y compris des autres contenus présents sur la plateforme. Par exemple, l’IA pourrait avoir censuré une vidéo sur la linguistique des langues juives à cause d’un malencontreux amalgame avec des contenus antisémites. Plus généralement, la décision de censure de l’IA ne dépend souvent pas d’un unique point précis du contenu. Elle est l’agrégat de nombreux aspects de la vidéo et de l’écosystème de YouTube. Pour comprendre quelles sortes d’explications des récompenses pourraient être utiles, il est intéressant d’analyser le cas des réseaux adversariaux génératifs 25 , aussi appelés GAN. Dans cette architecture d’apprentissage-machine, une IA dite adversaire fournit une sorte de récompense à une autre IA dite génératrice. Cette récompense est la ressemblance entre une donnée fictive créée par l’IA génératrice et une donnée réelle. Autrement dit, plus l’IA génératrice crée une donnée réaliste, plus elle recevra une récompense élevée. Cependant, le vrai génie de l’architecture des réseaux adversariaux génératifs, c’est que l’IA adversaire ne se contente pas de fournir cette récompense. Elle donne aussi une information appelée le gradient de la récompense par rapport à différents aspects de la création de l’IA génératrice 26 . De façon grossière, ceci revient à dire que l’IA adversaire agit comme une entraîneuse. Non seulement elle dit à l’IA génératrice si ce qu’elle fait est bien, elle lui dit aussi que faire pour s’améliorer. Dans le cas de la censure de YouTube, un tel gradient de la censure reviendrait à informer le créateur de quels morceaux de sa vidéo sont les plus problématiques, et comment une modification de ces morceaux affecterait la censure de la vidéo. Par exemple, l’IA pourrait dire qu’en enlevant trois scènes, le contenu ne serait plus censuré. Elle pourrait ajouter qu’en insérant une précision en début de vidéo, le contenu pourrait être publié sans enlever les trois scènes mentionnées précédemment. De la même façon, il semble que la performance et la robustesse des IA y gagnerait si Bob ne se contentait pas de communiquer des récompenses à Alice. Il semble que Bob devrait aussi communiquer les gradients de ces récompenses à Alice. 24. En pratique, le sujet plus controversé est celui de la démonétisation par l’IA, qui affecte alors les recettes du créateur de contenu. 25. Les réseaux adversariaux (GAN) | Science4All | LN Hoang (2018) 26. Typiquement, si la création est une image, pour chaque pixel de l’image, l’adversaire dira au générateur comment modifier la couleur du pixel pour rendre l’image plus réaliste, et à quel point cette modification rendra l’image plus réaliste.
LE CONTRÔLE D’ALICE
239
Le contrôle d’Alice En étant au contrôle des récompenses d’Alice, Bob peut ainsi contrôler Alice et punir ses mauvais comportements. En particulier, il semble que la littérature dédiée au contrôle des IA s’applique très naturellement au contrôle d’Alice par Bob. Par exemple, de nombreux chercheurs en sécurité en IA attachent beaucoup d’importance à la corrigibilité des IA. Après tout, il semble improbable que la première version d’Alice et Bob soit suffisamment bien conçue pour être parfaitement sûre. Il est donc indispensable de permettre leur amélioration, y compris après déploiement. Certains formalismes rigides de conception des IA se prêtent malheureusement mal à cette corrigibilité des IA après déploiement 27 . Cependant, en permettant à Bob de modifier sa conception de récompenses, il sera alors possible pour Bob de corriger le comportement d’Alice, lequel pourra également corriger le comportement de Bob. À condition bien sûr que Bob soit conçu dans cette optique, on pourrait ainsi automatiquement programmer l’auto-correction des IA et de leurs circuits de la récompense ! Par ailleurs, pour bien anticiper la pertinence des récompenses qu’il conçoit, il sera sans doute utile à Bob de comprendre au moins grossièrement le fonctionnement d’Alice. Pour cela, Bob pourrait exiger d’Alice qu’elle soit interprétable. Les travaux sur l’interprétabilité des IA pourraient ainsi trouver des applications cruciales dans le contrôle d’Alice par Bob, lequel permettra à Bob une conception de récompenses plus adéquate. Il se pourrait que des systèmes de preuves formelles soient utiles à Bob pour vérifier qu’Alice se comporte de telle ou telle manière. L’étude de ces preuves par l’informatique théorique a d’ailleurs conduit à un foisonnement de méthodes diverses et variées, de la vérification formelle à des systèmes de preuves par interaction. En particulier, des variantes de ces preuves par interaction, sous forme de sortes de « débats d’IA 28 », pourraient permettre de vérifier efficacement et avec grande probabilité des propriétés algorithmiques d’Alice. Toutefois, pour l’instant, il ne semble pas clair de voir comment ces méthodes peuvent être appliquées pour le contrôle d’Alice par Bob. Il semble que davantage de recherches dans cette direction soient souhaitables. Une dernière remarque à faire sur la relation entre Alice et Bob, c’est que Bob doit sans doute se prémunir d’éventuelles attaques d’Alice. Après tout, si Alice peut réécrire Bob en envoyant un unique message, il semble que même les meilleures conceptions d’incitatifs par Bob seront insuffisants. Pour empêcher ce cas préoccupant, il semble utile de rendre les modifications de Bob difficiles, typiquement en s’appuyant sur une architecture cryptographiquement sécurisée 27. General AI Won’t Want You To Fix its Code | Computerphile | R Miles & S Riley (2017) 28. AI safety via debate | G Irving, P Christiano & D Amodei (2018)
240
CHAPITRE 14. PROTÉGER LE CIRCUIT DE LA RÉCOMPENSE
et très décentralisée de Bob. Des idées comme la preuve de travail 29 , utilisée notamment pour la Blockchain, pourraient aussi être utiles pour empêcher Alice de modifier aisément Bob. Typiquement, Alice pourrait devoir fournir une preuve de travail pour pouvoir modifier une partie de Bob. Ceci pourrait donner suffisamment de temps à Bob pour vérifier si les modifications imposées par Alice sont bénéfiques, et ainsi récompenser ou punir Alice conformément.
Quel objectif pour Bob ? L’un des aspects intéressants de cette démarche, c’est que Bob peut forcer Alice à prêter attention à son circuit de la récompense en général, et à Bob lui-même en particulier. Bob peut ainsi récompenser Alice à chaque fois qu’Alice permet à Bob d’améliorer ses propres performances. Toutefois, cette observation soulève une dernière question. Comment mesurer les performances de Bob ? Quel est l’objectif de Bob ? Comment déterminer si Bob remplit bien sa tâche de conception des récompenses pour Alice ? Rappelons que le rôle de Bob est de résoudre le compromis entre prendre soin du circuit de la récompense d’Alice et lui communiquer la désirabilité de l’état de monde calculée par Charlie. Toutefois, malheureusement, à notre connaissance, nous ne disposons pas encore de réponse satisfaisante à ce compromis, même si de plus en plus de travaux cherchent à adresser ce problème. Si vous êtes informaticien, mathématicien ou philosophe, ou bien neuroscientifique, psychologue ou psychiatre, il semble que votre expertise pourrait être d’une très grande aide pour mieux comprendre comment les IA et les humains pourraient mieux protéger et améliorer leurs circuits de la récompense. En fait, orienter la recherche dans cette direction pourrait drastiquement augmenter nos chances d’accomplir le fabuleux chantier pour rendre les IA robustement bénéfiques. En effet, il semble possible que résoudre le dilemme de Bob soit la clé pour y arriver, notamment sur le long terme. Après tout, si Bob est suffisamment bien conçu, il donnera les incitatifs adéquats à Alice pour prendre soin de tout le circuit de la récompense. En particulier, Bob peut forcer à Alice à garantir que tous les éléments de notre décomposition atteignent des performances suffisamment bonnes pour permettre la sécurité et l’alignement d’Alice. La conception de Bob pourrait donc être l’urgence prioritaire pour rendre les IA robustement bénéfiques. Surtout si ces IA surpassent de plus en plus la planification stratégique des humains. Malheureusement, cet axe de recherche est aussi peut-être le plus vierge et le plus négligé jusque là. Il semble grand temps de le lancer. Que pensez-vous de cette étrange conclusion ? Pourquoi a-t-on besoin de Bob ? Pourrait-on se passer de Bob ? Pourrait-on concevoir des IA sans circuit de la récompense hackable ? Comment empêcher le circuit de la récompense d’être hacké ? Comment protégez-vous votre circuit de la récompense ? Celui-ci fonctionne29. Devenir riche grâce au minage des Bitcoins c’est possible ? | String Theory | LN Hoang (2018)
QUEL OBJECTIF POUR BOB ?
241
t-il comme vous pensez qu’il devrait fonctionner ? Cherchez-vous parfois à pirater votre propre circuit de la récompense ? Votre Erin interne cherche-t-elle bien à collecter des données de qualité et à vérifier leur source ? Votre Dave interne cherche-t-il à débiaiser les données d’Erin pour inférer un modèle adéquat du monde ? Votre Charlie interne cherche-t-elle bien à analyser différents états potentiels du monde et à estimer adéquatement la désirabilité de chacun de ces états ? Et votre Alice interne réfléchit-elle suffisamment au bon fonctionnement de son circuit de la récompense ? Comment encourager Alice à protéger son circuit de la récompense ? Comment l’encourager à l’améliorer ? Qu’est-ce qu’un « meilleur » circuit de la récompense ? Comment Bob doit-il être conçu ? Nous vous invitons à vivement méditer, seul ou collectivement, ces merveilleuses questions, à les situer dans le fabuleux chantier pour rendre les IA bénéfiques et à estimer comment vos réflexions impactent l’urgence à mettre toutes sortes de talents dans les meilleures dispositions pour contribuer au fabuleux chantier.
Références Prediction : How to See and Shape the Future with Game Theory | Vintage Digital | BB de Mesquita (2011) The Dictator’s Handbook : Why Bad Behavior is Almost Always Good Politic | PublicAffairs | BB de Mesquita & A Smith (2012) Towards Safe Artificial General Intelligence | T Everitt (2018) Positive reinforcement produced by electrical stimulation of septal area and other regions of rat brain | JCPP | J Olds & P Milner (1954) Pleasure and brain activity in man | JNMD | RG Heath (1972) Avoiding wireheading with value reinforcement learning | ICAGI | T Everitt & M Hutter (2016) AI safety via debate | G Irving, P Christiano & D Amodei (2018) Embedded Agency | A Demski & S Garrabrant (2019) Reward Tampering Problems and Solutions in Reinforcement Learning : A Causal Influence Diagram Perspective | T Everitt & M Hutter (2019) A Roadmap for Robust End-to-End Alignment | LN Hoang (2019) The evolution of trust | ncase | N Case (2017) Tuto Création Zombie pt.2 : L’électronique | Dirty Biology | L Grasset (2015) Should you ever lie to yourself ? J Galef (2015) The Rules for Rulers | CGP Grey (2016) The Science of Thinking | Veritasium | D Muller (2017) General AI Won’t Want You To Fix its Code | Computerphile | R Miles & S Riley (2017) Comment faire pour que votre mec pisse moins à côté ? Nudge | Homo Fabulus | S Debove (2018)
242
CHAPITRE 14. PROTÉGER LE CIRCUIT DE LA RÉCOMPENSE
Reward Hacking : Concrete Problems in AI Safety | Robert Miles (2017) Reward Hacking Reloaded : Concrete Problems in AI Safety | Robert Miles (2017) What Can We Do About Reward Hacking ? : Concrete Problems in AI Safety | Robert Miles (2017) La démocratie sous l’angle de la théorie des jeux (playlist) | Science4All | LN Hoang (2017) L’intelligence artificielle et le machine learning (playlist) | Science4All | LN Hoang (2018) Introspection diététique | Axiome | T Giraud & LN Hoang (2018) Bonheur hackable | Axiome | T Giraud & LN Hoang (2019)
Un système distribué est un système dont la panne d’une machine dont vous ne suspectiez pas l’existence peut rendre votre propre ordinateur inutilisable. Leslie Lamport (1941-) Internet est devenu la place centrale du grand village de demain. Bill Gates (1955-)
15
Décentralisation et heuristiques
Robustesse Les lendemains de la seconde guerre mondiale virent l’émergence d’une guerre froide entre les États-Unis et l’URSS. Contrairement aux conflits précédents, une arme surpuissante, l’arme nucléaire, était au cœur des préoccupations des uns et des autres. Ce fut une course à l’armement, mais aussi aux stratégies de survie post-apocalyptique. En particulier, les Américains se préoccupèrent de la sécurité informatique de leurs données sensibles. Ils craignirent qu’en les stockant en un lieu donné, une tête nucléaire soviétique pourrait anéantir le stockage de ces données. Des données cruciales pourraient alors être perdues. Du reste, la sauvegarde sécurisée de l’information n’est pas un problème spécifique à l’armée américaine en temps de guerre froide. Que ce soient l’information bancaire, les contrats professionnels ou le manuscrit de votre dernier mémoire, la conservation sécurisée de ces données représente un enjeu capital. Or, que le support soit du papier, du silicone ou un cerveau humain, les risques de perte, suite à un vol, une panne ou un oubli, sont non négligeables. Pour garantir la sécurité de ses données, l’armée américaine eut l’idée d’effectuer un certain nombre de copies de ces données. Mieux encore, elle choisit de stocker ces différentes copies en différents lieux, de sorte que même si une tête nucléaire soviétique détruisait tout un centre de données, plusieurs copies des données demeureraient intactes.
244
CHAPITRE 15. DÉCENTRALISATION ET HEURISTIQUES
Mais surtout, l’armée américaine eut la brillante idée d’automatiser la copie et le transport des copies d’un centre de données à l’autre. C’est ainsi que naquit ArpaNet, le premier réseau d’ordinateurs à grande échelle. Plus tard, ArpaNet deviendra Internet, avec le succès époustouflant qu’on lui connaît. La naissance d’ArpaNet marqua également la naissance d’une nouvelle branche de l’algorithmique, appelée l’algorithmique répartie. Aujourd’hui, l’algorithmique répartie est devenue la solution incontournable pour garantir la sécurité d’un système, malgré le fait que tout composant du système peut tomber en panne ou être détruit à tout moment. Ce sont de telles décentralisations de l’information qui permettent la fiabilité du Web, et des nombreuses applications que l’on y trouve, du marché financier aux réseaux sociaux. Pour garantir la robustesse de la sécurité des IA, il semble qu’il sera indispensable d’en passer par là. Les IA de demain seront très probablement des algorithmes distribués sur de nombreux serveurs d’Internet, voire sur des composants de l’Internet of Things. En particulier, il semble que la structure numérique la plus robuste du monde moderne n’est autre qu’une structure informatique décentralisée, à savoir la Blockchain du Bitcoin. Grâce à son algorithme très réparti, cette Blockchain est parvenue à fonctionner sans interruption depuis plus de 10 ans, malgré les attaques de très nombreux utilisateurs malveillants. Voilà une performance que même les géants du Web envient à la Blockchain ! Cependant, l’idée de développer des algorithmes répartis ne date pas de la Blockchain. Depuis l’invention d’ArpaNet, un très grand nombre d’algorithmes répartis ont été développés, et de très nombreux théorèmes sur leur validité, leurs performances et leurs limites ont été démontrés. Mieux encore, notamment pour des besoins d’ultra-rapidité, les IA les plus influentes d’aujourd’hui sont elles aussi déjà très décentralisées.
Ultra-rapidité À chaque minute, le moteur de recherche de Google répond à des millions de requêtes et YouTube recommande des millions de vidéos. Pendant cette même minute, des millions de Snaps sont partagés sur Snapchat, des dizaines de millions de messages sont envoyés par WhatsApp, et des centaines de millions d’e-mails naviguent à travers Internet. Ces chiffres sont ahurissants. Pour permettre ces services, les géants du Web ont dû mettre en place d’énormes structures décentralisées. En effet, si un unique serveur devait recevoir toutes les requêtes des utilisateurs et y répondre, il serait rapidement rendu hors service. On dit qu’il serait en Denial of Service (DoS). Le DoS est même une vulnérabilité des petits sites Web que des attaquants malveillants peuvent tirer à leur profit pour rendre ces sites Web inutilisables. On parle alors d’attaque par DoS. Lors de ces attaques, des milliards de requêtes sont envoyées à un serveur. À l’instar d’un humain surmené par une information
LES DÉFIS DE L’ALGORITHMIQUE RÉPARTIE
245
entrante qu’il n’arrive plus à gérer, le serveur risque alors de tomber en panne, et de ne plus être mesure de fournir son service habituel. Pour se prémunir de telles attaques, les géants du Web démultiplient le nombre de leurs serveurs capables de répondre à des requêtes des utilisateurs. En ce sens, l’IA de Google est déjà très décentralisée. Elle est copiée-collée dans différents serveurs proches des clients, de sorte que deux clients faisant la même requête seront en fait probablement servis par des serveurs Google différents. Grâce à ces astuces, les IA peuvent alors être ultra-rapides, en deux sens différents. En premier lieu, en profitant également de meilleurs canaux de distribution, les IA sont devenues capables de transmettre une énorme quantité d’informations à différents utilisateurs. On parle de grands débits. Voilà qui est particulièrement critique pour des applications comme YouTube, qui inondent des milliards de smartphones de contenus audiovisuels. En second lieu, en n’ayant que relativement peu d’utilisateurs à gérer, chaque serveur Google n’aura pas besoin de créer une trop longue file d’attente. Il pourra ainsi réagir très rapidement à chaque requête. Le temps d’attente d’un utilisateur sera alors réduit. On dit qu’il recevra un service à faible latence. En fait, de nos jours, cette latence est parfois tellement optimisée qu’elle a fini par se rapprocher des limites physiques — en particulier la vitesse de la lumière qui nécessite des millisecondes pour parcourir des milliers de kilomètres. L’importance cruciale des débits et de la latence pour un très grand nombre d’applications fait de l’algorithmique distribuée un support certainement incontournable pour les IA du futur, comme elle l’est déjà pour les IA d’aujourd’hui. Il nous faut donc réussir à concevoir et maîtriser des IA distribuées, plutôt que de restreindre notre réflexion à des agents uniques bien localisés. Voilà qui rend le contrôle des IA d’autant plus délicat.
Les défis de l’algorithmique répartie L’algorithmique répartie pose de nouveaux défis. Typiquement, elle nécessite des protocoles de communication adéquats entre ces machines pour éviter des incohérences potentielles entre ces machines. Il serait en effet problématique que, en fonction du serveur auquel on pose la question, la quantité d’argent sur notre compte en banque diffère. Cependant, les communications entre machines sont relativement coûteuses, notamment en temps et en énergie. Il est alors crucial de concevoir des systèmes qui parviennent à se coordonner de manière fiable avec un minimum de communications. En fait, rien que la circulation des messages d’un serveur à l’autre est un problème en tant que tel, puisqu’aucun serveur n’est directement connecté à tous les autres serveurs, et encore moins à tous les téléphones des utilisateurs. Cependant, minimiser les communications superflues n’est qu’une partie du problème de la conception d’algorithmes décentralisés. Lorsque les systèmes infor-
246
CHAPITRE 15. DÉCENTRALISATION ET HEURISTIQUES
matiques deviennent larges et complexes, le nombre de leurs composants devient grand lui aussi. Or, même si, en l’espace d’un an, chaque composant a seulement une chance sur un million de dysfonctionner, si la structure informatique possède des milliards, voire des millions de milliards de tels composants, alors il faut s’attendre à ce qu’un très grand nombre de composants du système informatique dysfonctionne — à l’instar des neurones dans le cerveau humain. Garantir le bon fonctionnement de l’ensemble malgré l’inévitable dysfonctionnement de composants de l’ensemble est l’une des propriétés que doit satisfaire tout algorithme distribué à grande échelle pour être robustement bénéfique. Mais il y a pire. Plutôt qu’une panne d’un composant, on peut anticiper le fait que certains composants seront attaqués par des hackers malveillants, qui pourront ensuite modifier le comportement de ces composants compromis pour causer des dysfonctionnements à l’échelle globale. Pour ne froisser personne, ou presque, l’informaticien Leslie Lamport, lauréat du prix Turing 2013, a qualifié de telles attaques d’attaques byzantines 1 . Ce qui rend les attaques byzantines particulièrement difficiles à contrer, c’est que les composants attaqués peuvent alors agir comme des composants non compromis pour semer le doute. En particulier, il peut être très difficile pour les autres composants du système d’identifier les composants auxquels faire confiance. Tel est ce qu’il se passe, après tout, à travers le web. YouTube, Twitter et Facebook sont constamment fréquentés par toutes sortes d’individus malveillants, qui ont leurs propres objectifs, voire qui se sont donné pour mission de faire dysfonctionner les algorithmes de ces géants du web. Internet est un environnement byzantin. Ainsi, l’algorithmique distribuée consiste à concevoir des systèmes complexes, composés de nombreux composants, et qui auront néanmoins des garanties de bon fonctionnement, même si une partie non négligeable de ces composants est compromise. On parle alors de tolérance aux fautes byzantines, ou Byzantine fault tolerance (BFT) en anglais.
Le problème des généraux byzantins Pour comprendre la complexité de la conception d’algorithmes répartis fiables, les informaticiens ont identifié deux versions particulièrement simplistes du problème de la prise de décision décentralisée. Ces deux versions sont toutes deux illustrées par le problème de l’attaque coordonnée de généraux byzantins. Le cadre est le suivant. Imaginez un général byzantin planifiant l’attaque d’une cité. Malheureusement, ses forces seules ne suffiront pas. Pour que son attaque soit un succès, il faut qu’elle soit effectuée en même temps que celle d’un autre général byzantin. Ainsi, si les armées des deux généraux byzantins attaquent, l’attaque de la cité sera un succès. Si aucune des armées n’attaque, la cité ne sera pas attaquée. Mais 1. En effet, les Byzantins sont une civilisation disparue.
LE PROBLÈME DES GÉNÉRAUX BYZANTINS
247
au moins, les deux armées seront préservées. Enfin, et surtout, si une seule des deux armées attaque, alors elle subira un carnage inutile. Comment coordonner l’attaque des deux armées ? Considérons pour commencer que les deux généraux se font parfaitement confiance, et qu’ils ont raison de se faire confiance ainsi. On pourrait croire que résoudre le problème de l’attaque coordonnée est facile. Il suffit que les deux généraux s’accordent à attaquer la cité. Cependant, si les deux armées sont géographiquement distantes, ce qui est typiquement le cas si elles souhaitent attaquer la cité par plusieurs fronts, la communication entre les généraux sera rendue difficile. Et il peut en particulier être délicat de se mettre d’accord sur l’attaque coordonnée de la cité. Voire impossible. Typiquement, on pourrait imaginer que la seule façon dont un général dispose de communiquer avec l’autre général, c’est d’envoyer un messager. Cependant, le messager peut se faire intercepter et tuer en chemin. Le premier général peut envoyer un messager. Mais alors, il n’aura aucune garantie que son message aura bien été reçu par le second général. Pour obtenir cette garantie, le premier général pourrait alors exiger du messager qu’il revienne le voir pour confirmer la bonne réception du premier message. Mais ceci ne suffirait en fait pas à coordonner l’attaque. En effet, même si le premier général reçoit la confirmation de la réception de son message, le second général demeurera dans le flou quant à la réception par le premier général du message de confirmation. Et il ne saura pas s’il lui faut attaquer. Il pourrait alors exiger une confirmation de la confirmation de la réception du premier message. Mais le premier général pourra alors douter de la réception de la confirmation de la confirmation de la réception du premier message. Et ainsi de suite à l’infini. En fait, en 1975, trois chercheurs en informatique ont démontré que le problème de l’attaque coordonnée est alors impossible à résoudre 2 . Autrement dit, il n’existe aucun protocole de communication permettant à chacun des deux généraux d’attaquer si et seulement si l’autre attaque. En cas d’attaque, il persistera nécessairement une probabilité non nulle qu’elle ne soit pas coordonnée, et qu’elle tourne au carnage 3 . En pratique, via les technologies modernes de l’information, cette probabilité peut sans doute être rendue très faible. Néanmoins, le problème de l’attaque coordonnée correspond à des milliards de cas d’applications pratiques par jour. Il suffit qu’elle rate une fois sur un milliard pour potentiellement causer des dysfonctionnements majeurs tous les jours ! Ce qu’on a décrit jusque-là n’est toutefois qu’une partie du problème, souvent appelée la tolérance aux pannes. Cependant, notamment si, au lieu de 2 généraux, il y a désormais 13 généraux, un problème additionnel important se pose. 2. Some Constraints and Tradeoffs in the Design of Network Communications | SOSP | EA Akkoyunlu, K Ekanadam & RV Huber (1975) 3. Le problème de l’attaque coordonnée | Wandida | H Fauconnier (2014)
248
CHAPITRE 15. DÉCENTRALISATION ET HEURISTIQUES
Il est dès lors difficile d’exclure la possibilité que l’un des généraux byzantins soit en fait un traître qui a passé un accord avec la cité à attaquer pour empêcher la coordination de l’attaque de la cité. Un tel traître pourrait alors non seulement mentir dans les messages qu’il envoie. Pire encore, il pourrait annoncer des messages différents à différents généraux, de sorte que certains généraux croient en un consensus en faveur de l’attaque coordonnée, tandis que d’autres reçoivent des indications pour ne pas lancer d’attaque. En 1982, Leslie Lamport, Robert Shostak et Marshall Pease démontrèrent que, si on se restreint à des communications orales parfaitement fiables, mais sans signatures numériques vérifiables, alors le problème des généraux byzantins était alors insoluble si 1/3 des généraux étaient des traîtres 4 . À l’inverse, ils ont proposé une solution pour le cas où strictement moins d’un tiers des généraux étaient des traîtres. Mieux encore, ils montrèrent qu’à l’aide d’un protocole exploitant la signature électronique 5 , il était possible d’augmenter significativement la tolérance aux fautes byzantines. En fait, quel que soit le nombre de traîtres, il est alors possible de concevoir un protocole pour que tous les généraux byzantins honnêtes parviennent à coordonner leur attaque. La conception des IA du futur devra sans doute anticiper ces problèmes spécifiques à l’algorithmique répartie, et parvenir à tolérer les pannes et les attaques byzantines. En particulier, il semble que l’usage de solutions cryptographiques, comme la signature numérique, seront incontournables pour la fiabilité et la sécurité des IA distribuées.
Spécialisation Une grosse partie de l’algorithmique répartie s’est pour l’instant concentrée sur la décentralisation d’un calcul sur plusieurs machines aux tâches similaires. Il s’agit en effet d’une tâche indispensable pour résoudre une tâche plus fiablement et plus rapidement. Cependant, notamment avec l’avènement de l’IA et des algorithmes distribués de machine learning, il y aura probablement un gain majeur à rendre chaque machine spécialisée à des tâches qui lui sont propres. Typiquement, une IA déployée dans un pays donné pourrait concentrer ses forces dans l’apprentissage des spécificités culturelles et légales de ce pays, quitte à oublier partiellement les spécificités d’autres pays. Cette spécialisation des composants d’un système global est un phénomène déjà bien connu de nos sociétés. Comme l’illustre Adam Smith, la simple conception d’une veste de laine est le fruit d’une collaboration d’un nombre gargantuesque d’individus aux expertises différentes, des agriculteurs qui ont élevé et tondu la laine des moutons, en passant par les services de distribution et de vente, mais aussi par les producteurs d’outils indispensables à ces services, qu’il s’agisse 4. The Byzantine Generals Problem | TOPLAS | L Lamport, R Shostak & M Pease (1982) 5. Comment Facebook utilise-t-il votre mot de passe ? String Theory | LN Hoang (2019)
HEURISTIQUES ET IGNORANCE
249
d’ingénieurs en charge de la conception des véhicules de transport, des législateurs en charge de garantir l’absence de contrefaçon ou des ouvriers en charge de l’exploitation minière pour prélever le fer indispensable à la construction de ciseaux, eux-mêmes indispensables à l’agriculteur 6 . De la même manière, la conception et la livraison de toutes sortes de biens de base pourraient peut-être nécessiter une variété d’expertises telle qu’aucune IA seule n’aura intérêt à tout suivre et tout comprendre. Au lieu de cela, une IA générale pourrait potentiellement préférer concevoir d’autres IA en charge de tâches plus spécialisées, dont le fonctionnement serait relativement indépendant de l’IA générale. La coordination des opérations des IA spécialisées serait alors une tâche additionnelle que l’IA générale devra gérer, en tenant compte des difficultés posées par la décentralisation des calculs dont on a parlé plus haut. Voilà qui pose de nouveaux problèmes de conception de récompenses. Plutôt que d’inonder les IA spécialisées de signaux de récompenses qui ne seraient pas pertinents à leur tâche, il semble qu’il serait judicieux d’optimiser les récompenses à envoyer aux IA spécialisées pour ne se restreindre qu’à ce qui leur permettra d’être efficaces et de contribuer autant que possible à l’objectif global 7 . Une difficulté additionnelle semble alors être le risque de friction entre IA spécialisées. En effet, même si les IA spécialisées ont des objectifs similaires, la théorie des jeux montre souvent que les intérêts individuels des IA spécialisées pourraient entrer en conflit, et nuire à leur objectif commun global 8 . À notre connaissance, concevoir une décentralisation et une spécialisation adéquates des récompenses semble être un défi de recherche encore trop peu exploré.
Heuristiques et ignorance Malgré sa tâche déjà très spécialisée, l’IA de recommandation de YouTube doit néanmoins effectuer ses calculs sous des contraintes dantesques. Après tout, elle doit effectuer des milliards de recommandations par minute lors des heures de pointe. Mais surtout, parce que les utilisateurs n’ont pas une grande patience, cette IA doit fournir des réponses en quelques millisecondes seulement. Pour y arriver, cette IA ne peut pas viser l’optimalité de chaque recommandation. Elle doit être une heuristique, c’est-à-dire un algorithme imparfait mais rapide. Il y a une autre raison pour laquelle les IA les plus utilisées pourraient devoir n’être que des heuristiques : ces IA tournent souvent sur des téléphones. Or ces téléphones pourraient être trop limités dans leurs puissances de calculs et dans leurs capacités de mémoire. Les algorithmes qui tournent sur ces téléphones pourraient devoir n’être que des versions très simplifiées d’IA plus puissantes, qui nécessiteraient par exemple des teraoctets de mémoire pour être stockées. 6. Le paradoxe de la veste de laine | Monsieur Phi | T Giraud (2016) 7. En particulier, ces IA spécialisées pourraient n’être intéressées que par le gradient des récompenses ∇x R vis-à-vis de variables x que ces IA ont une chance d’influencer. 8. Le prix de l’anarchie | Science4All | LN Hoang (2017)
250
CHAPITRE 15. DÉCENTRALISATION ET HEURISTIQUES
Le fait que ces IA ne sont que des heuristiques implique alors nécessairement que leurs performances seront moindres. En particulier, ces IA pourraient avoir des faiblesses et des angles morts. L’IA pourrait typiquement recommander un contenu sexiste, non pas parce qu’elle voulait recommander du sexisme, mais parce qu’elle n’a pas su détecter le sexisme dans la vidéo. Pour combattre ces vulnérabilités par incompétence, il semble alors souhaitable que les IA heuristiques mesurent l’étendue de leur ignorance. Quand leur incertitude est grande 9 , ces IA pourraient alors requérir l’aide de versions plus sophistiquées de ces IA. De façon plus générale, ces problèmes soulèvent la question de la communication entre IA. Si plusieurs IA partagent un objectif similaire, mais sont entraînées à partir de données différentes, il semble désirable de leur permettre de communiquer leur connaissance et leur ignorance, pour améliorer leurs performances. Une version idéalisée de ce problème a d’ailleurs déjà été étudiée, où les IA sont supposées être bayésiennes 10 . Davantage de recherche autour de ces questions fascinantes semble désirable.
Récapitulatif global Ce chapitre soulève de nombreuses difficultés additionnelles pour rendre les IA sécurisées. Il montre surtout que la feuille de route initiale est en fait trompeuse. Il serait en effet peu robuste de ne disposer que d’une Erin, un Dave, une Charlie, un Bob et une Alice. Pour garantir le bon fonctionnement des IA malgré le dysfonctionnement probable de certains composants de ces IA, il semble indispensable de concevoir plusieurs Erin, plusieurs Dave, plusieurs Charlie, plusieurs Bob et plusieurs Alice, voire de donner à plusieurs versions de ces agents des caractéristiques légèrement différentes pour les spécialiser à leurs tâches plus spécifiques. La figure 15.1 récapitule et complète ainsi notre feuille de route, avec les nombreux défis que l’alignement des IA pose. Les 9 chapitres précédents semblent fortement suggérer que concevoir, maintenir et améliorer un tel système décentralisé et complexe est un défi monumental. Telle est la seconde thèse du livre. Thèse 2. Rendre les IA bénéfiques est un défi monumental. Malheureusement, la thèse 1 soulignait l’urgence à rendre les IA robustement bénéfiques. Ce défi monumental nous fait face. Et il nous faut le relever. Cependant, ce défi monumental nous semble être avant tout un fabuleux chantier, digne des plus grands talents et des plus grands curieux parmi nous ! En fait, il se pourrait que ce soit là le plus beau des chantiers de l’histoire de l’humanité, qui nécessitera toutes sortes de compétences diverses et variées. Plutôt que d’y 9. Ou plutôt, l’IA heuristique devrait estimer si elle pourrait grandement réduire son incertitude en faisant appel à une IA plus performante ou à un humain. 10. The complexity of agreement | STOC | S Aaronson (2005)
RÉCAPITULATIF GLOBAL
251
Figure 15.1. Nous proposons de décomposer l’alignement en 5 étapes. Chaque étape est associée avec davantage de sous-étapes et de défis. Par ailleurs, il y a des problèmes communs à toutes les étapes de la décomposition.
voir un devoir moral, nous vous invitons à y voir avant tout un défi fantastique, avec une opportunité inégalable de changer le monde pour le meilleur. Le célèbre discours de John Fitzgerald Kennedy semble ainsi s’appliquer à merveille au cas des IA : « nous choisissons d’aller sur la lune [ou plutôt, dans notre cas, de nous lancer dans le fabuleux chantier pour rendre les IA robustement bénéfiques], non pas parce que c’est facile, mais parce que c’est difficile ; parce que ce but servira à organiser et mesurer au mieux notre énergie et nos compétences, parce que ce défi est un défi que nous voulons accepter, un défi que nous ne voulons pas remettre à plus tard, et un défi que nous avons l’intention de relever ». Vous joindrez-vous à ce fabuleux chantier ? Si vous n’aviez jamais entendu parler de ce fabuleux chantier, lire ce livre fut votre premier pas. Félicitations ! Vous y êtes arrivé avec brio. Cependant, ce n’est là qu’un premier pas. Pour contribuer à ce chantier de manière effective, il vous faut comprendre, remettre en cause et améliorer les propos de ce livre. La décentralisation des IA est-elle inévitable ? Comment se prémunir des dysfonctionnements d’IA déployées sur des machines aux quatre coins du monde ? Quels sont les dysfonctionnements probables ? Comment y être robuste ? Peuton organiser une décentralisation de l’expertise et des objectifs ? Comment le corps humain s’y prend-il ? Comment nos sociétés s’y sont-elles prises ? Comment les entreprises s’y prennent-elles ? Peut-on appliquer ces idées aux IA ? Peut-on spécialiser les IA de manière efficace et sécurisée ? Comment faire communiquer efficacement différents composants des IA ? Comme d’habitude, nous vous invitons à méditer, seul ou en groupe, ces nombreuses questions. Cependant, ce chapitre concluant la partie III du livre, nous vous invitons à également réfléchir à l’ensemble des chapitres précédents. Comment décririezvous la feuille de route ? Vous semble-t-elle nécessaire ? Vous semble-t-elle suffisante ? Manque-t-il des aspects importants ? Comment aiguiller chaque talent
252
CHAPITRE 15. DÉCENTRALISATION ET HEURISTIQUES
vers l’étape de la feuille de route qui lui correspondra le mieux ? Comment motiver la recherche pour implémenter la feuille de route ? Et surtout, est-ce que nos réflexions justifient une urgence à mettre toutes sortes de talents dans les meilleures dispositions pour rendre les IA robustement bénéfiques ?
Références Algorithms for Concurrent Systems | EPFL Press | R Guerraoui & P Kuznetsov (2018) Some Constraints and Tradeoffs in the Design of Network Communications | SOSP | EA Akkoyunlu, K Ekanadam & RV Huber (1975) The Byzantine Generals Problem | TOPLAS | L Lamport, R Shostak & M Pease (1982) The complexity of agreement | STOC | S Aaronson (2005) Machine Learning with Adversaries : Byzantine Tolerant Gradient Descent | NeurIPS | P Blanchard, EM El Mhamdi, R Guerraoui & J Stainer (2017) The Hidden Vulnerability of Distributed Learning in Byzantium | ICML | EM El Mhamdi, R Guerraoui & S Rouault (2018) Asynchronous Byzantine Machine Learning (the case of SGD) | ICML | G Damaskinos, EM El Mhamdi, R Guerraoui, R Patra & M Taziki (2018) Le problème de l’attaque coordonnée | Wandida | H Fauconnier (2014) Le paradoxe de la veste de laine | Monsieur Phi | T Giraud (2016) Distributed Algorithms and Blockchain | ZettaBytes, EPFL (2017) Byzantine Fault-Tolerant Machine Learning | ZettaBytes, EPFL | EM El Mhamdi (2019) How to train for a job developing AI at OpenAI or DeepMind | 80,000 Hours | D Amodei & R Wiblin (2017) AI Alignment Podcast : The Byzantine Generals’ Problem, Poisoning, and Distributed Machine Learning with El Mahdi El Mhamdi (Beneficial AGI 2019) | FLI Podcast | EM El Mhamdi & L Perry (2019) Staving off disaster through AI safety research | Practical AI | EM El Mhamdi & C Benson (2019)
Quand je réfléchis à ce que les individus attendent d’un [jugement*], je m’aperçois qu’il s’agit toujours d’un nombre. Muhammad Ibn Musa Al-Khawarizmi (780-850) Je défends la thèse selon laquelle la théorie de la complexité algorithmique [...] conduit à de nouvelles perspectives sur la nature du savoir mathématique, le débat sur l’IA forte, le computationalisme [...] et de nombreux autres sujets d’intérêt philosophique. Scott Aaronson (1981-)
16
Philosophie morale calculable
Vers une morale algorithmique L’IA est-elle intelligente ? A-t-elle vraiment des facultés comparables à celles d’un humain ? Peut-elle vraiment penser et comprendre ce qu’elle fait ? Estelle capable de se fixer ses propres objectifs ? Est-elle capable de créativité ? Et atteindra-t-elle un jour une intelligence de niveau humain ? Développera-telle alors une conscience artificielle ? Comprendra-t-elle alors la morale ? Et s’y conformera-t-elle ? Dès lors, restera-t-il quelque chose de propre à l’humain ? Toutes ces questions fascinent et occupent une grande partie de l’espace public. Elles donnent envie de disserter longuement sur la nature humaine et la bêtise algorithmique. Cependant, dans ce livre, nous avons fait un gros effort pour ne pas en parler. Car quand il s’agit des effets secondaires des algorithmes qui affectent des milliards d’individus, les réponses philosophiques à ces questions n’ont qu’une importance limitée. L’IA tue déjà. Qu’elle soit intelligente ou non. Qu’elle soit consciente ou non. Il nous semble que l’ampleur des effets secondaires des IA est le sujet le plus pressant d’aujourd’hui. Mais surtout, nous pensons que ces effets secondaires des * : En arabe, « Hissab » veut dire calcul mais peut aussi dire jugement (Yawm al-hissab : jour du jugement). Nous avons choisi de le traduire par jugement. La deuxième section de ce chapitre nous montre que l’adoption du même mot pour ces deux concepts n’est finalement peut-être pas qu’un simple hasard de la langue arabe.
256
CHAPITRE 16. PHILOSOPHIE MORALE CALCULABLE
IA d’aujourd’hui et de demain sur nos sociétés méritent une part plus grande dans le débat public. C’est en tout cas de cela dont nous souhaitions parler. Cependant, vu qu’il nous faut déterminer une morale adéquate à programmer dans ces IA pour les rendre bénéfiques, la question des fondements de cette morale semble se poser inéluctablement. Or, la notion de conscience semble incontournable à aborder pour parler adéquatement de morale. Ce sujet est malheureusement très controversé, et éveille souvent les réactions les plus hostiles, quel que soit le parti pris. C’est donc avec un peu de réticence que nous l’abordons. En particulier, nous soulignons le fait que ce chapitre est relativement indépendant du reste du livre, et qu’il peut être rejeté sans remettre en question les quinze premiers chapitres. Néanmoins, nous pensons apporter ici des réflexions intéressantes, pourvu qu’elles soient étudiées avec un minimum de bienveillance. En particulier, l’angle très algorithmique de ce livre, et en particulier la nécessité de son applicabilité par une IA, nous invite à attaquer le problème de la philosophie morale avec les contraintes de l’algorithmique, c’est-à-dire de la théorie du traitement automatisé de l’information. Cependant, plutôt que d’y voir une contrainte, on peut y voir une forme de pragmatisme. Ou du moins, si l’on considère que l’algorithmique délimite (au moins en partie) les contours du traitement de l’information physiquement possible, il semble qu’introduire le champ de la philosophie morale calculable soit un pas important vers une philosophie morale pragmatique. Mais avant d’en arriver là, il serait peut-être bon de justifier davantage le rôle prépondérant que nous attribuons ici à l’algorithmique.
La thèse de Church-Turing Au début des années 1930, à une époque où les mathématiques s’étaient envolées dans des considérations ésotériques très éloignées des calculs réalisables y compris par des mathématiciens, certains logiciens se demandèrent comment caractériser l’ensemble des opérations effectivement calculables. De façon stupéfiante, en 1936, les travaux de plusieurs d’entre eux, dont Jacques Herbrand, Stephen Kleene, Kurt Gödel, mais surtout Alonzo Church et Alan Turing, convergèrent vers une même notion de calculabilité, via des voies pourtant très différentes. En particulier, Church et Turing prouvèrent que les fonctions généralement récursives de Gödel, le λ-calcul de Church et les machines de Turing définissaient en fait un seul et même concept de calcul 1 . Church et Turing conclurent que cette remarquable coïncidence n’en était pas une. Cette année-là, ces différents logiciens n’étaient pas tombés par accident sur une notion de calcul. Ils étaient tous tombés sur la notion ultime du calcul. Ils conjecturèrent alors leur thèse, dite thèse de Church-Turing. Cette thèse 1.
La machine de Turing | Science4All | LN Hoang (2017)
LE MOT CONSCIENCE
257
affirme que toute opération effectivement calculable n’est autre que le calcul d’une machine de Turing. Depuis, la thèse de Church-Turing n’a cessé d’être corroborée. Alors que la deuxième moitié du XXe siècle a vu l’émergence d’une gargantuesque industrie de l’information, qui cherchait à traiter les données de manière aussi efficace que possible, aucun mathématicien, aucun ingénieur ni aucun entrepreneur n’a su transcender la calculabilité de Church-Turing 2 — pourtant parfaitement délimitée par des théorèmes comme le théorème de Rice ou l’incomplétude de Solomonoff. Que ce soit théoriquement ou expérimentalement 3 . En ce sens, la thèse de Church-Turing, ainsi que ses versions plus précises appelées thèse de Church-Turing physique et thèse de complexité quantique de Church-Turing, peut être considérée comme l’une des théories les plus défiées et les plus confirmées de l’histoire des sciences. De façon plus intrigante, si on l’accepte, on obtient alors des contraintes remarquables sur l’ensemble des possibles dans notre univers. Et en particulier sur les limites de l’épistémologie, c’est-à-dire sur l’ensemble des raisonnements possibles et leur degré de validité, notamment étant donné les données collectées 4 . En particulier, la thèse de Church-Turing, que l’on peut compléter à l’aide du théorème de Nyquist-Shannon ou du théorème de Gandy, affirme que toutes ces données collectées peuvent être traduites en une série de bits, c’est-à-dire une longue suite de 0 et de 1, à l’instar des vidéos de chats sur YouTube. Dès lors, à l’instar de Dave, l’épistémologie calculable nous force à considérer que le savoir revient à une interprétation adéquate de ces suites de 0 et de 1 pour en inférer les états probables du monde. En particulier, selon la thèse de Church-Turing, cette interprétation adéquate ne peut elle-même être qu’un algorithme. Dans ce chapitre, nous proposons d’en faire de même pour la philosophie morale. À l’instar de Charlie, nous allons considérer que nous devons déterminer ce qui est désirable et ce qui ne l’est pas. Mais aussi que, pour y arriver, nous devrons nous appuyer sur des données qui peuvent être représentées comme une suite binaire, et que le calcul de ce qui est désirable à partir de ces données se doit d’être réalisable par une machine de Turing. Tel est ce que nous appelons ici la philosophie morale calculable.
Le mot conscience L’exigence algorithmique nous amène en particulier à trancher le problème des zombies philosophiques. Un zombie philosophique est une copie identique d’un 2. Même l’algorithmique quantique appartient au cadre de la calculabilité de ChurchTuring, même si elle transcende les vitesses de calcul imposées par la thèse de complexité de Church-Turing introduite plus tard. 3. En particulier, la conception d’une machine capable de résoudre le problème de l’arrêt réfuterait la thèse de Church-Turing. 4. Why Philosophers Should Care About Computational Complexity | In Computability : Gödel, Turing, Church, and beyond | S Aaronson (2012)
258
CHAPITRE 16. PHILOSOPHIE MORALE CALCULABLE
humain qui ne disposerait pas de conscience phénoménale. Autrement dit, même si le zombie philosophique agissait exactement comme un humain, et disait même, comme un humain, qu’il lui semble posséder une conscience, il ne disposerait en fait pas de véritable perception sensorielle, ni de vraies émotions. Il n’aurait pas de sensation propre, aussi appelée qualia ou conscience phénoménale. Il semble utile de distinguer cette conscience phénoménale d’autres notions de la conscience, comme la conscience d’accès 5 . Cette conscience d’accès correspond la faculté d’une entité à prendre de s’auto-analyser. Il semble que les IA du futur auront bel et bien une telle conscience d’accès. En particulier, nous avons supposé qu’Alice finira par prendre conscience de la chaîne qui la précède, c’està-dire de la présence d’Erin, Dave, Charlie et Bob. En fait,dès lors qu’une boucle algorithmique dispose d’un compteur, on semble pouvoir dire que l’algorithme a une conscience d’accès de son propre calcul. Il peut accéder au nombre de fois qu’il a parcouru la boucle. Mieux, votre téléphone es probablement capable de détecter l’humidité ou le niveau de charge de sa batterie. On semble donc pouvoir dire qu’il est conscient d’être mouillé ou non, et d’être chargé ou non, car il peut accéder à cette information. Contrairement à la conscience phénoménale, la conscience d’accès ne semble pas si mystérieuse. Si vous trouvez ces réflexions perturbantes, c’est peut-être par confusion entre plusieurs sens du mot « conscience ». En particulier, nous semblons malheureusement souvent mélanger la conscience phénoménale avec d’autres phénomènes que nous appelons aussi « conscience ». Or notre intuition morale considère souvent que ce mot vague et flou demeure néanmoins central à la philosophie morale. Ceci semble poser des risques majeurs d’incohérences dans nos intuitions morale. Dès lors, il semble urgent de clarifier le sens du mot « conscience ». Ou d’accepter de s’en passer complètement 6 . Clarifier le mot « conscience » semble alors revenir à lever les incohérences qu’il y a dans ce terme, mais aussi à extrapoler l’application de ce mot à des objets que notre intuition n’est pas capable de penser. Autrement dit, clarifier ce mot revient à en concevoir une définition cohérente extrapolée 7 . Il semble que la notion de « conscience d’accès » ne résout que très grossièrement cette tâche. En effet, cette notion ne semble pas encore suffisamment algorithmique pour être garantie d’être pleinement cohérente. Mais surtout, il semble s’agir d’une extrapolation très imparfaite, puisque, comme nous l’avons vu, elle semble assigner une conscience à des machines d’aujourd’hui que peu d’entre nous considérons « vraiment conscientes ». En 2004, le neuroscientifique Giulio Tononi a proposé une définition cohérente extrapolée de la conscience appelée théorie de l’information intégrée, ou integra5. La conscience | Science étonnante | T Giraud & D Louapre (2015) 6. Cette alternative fut d’ailleurs l’approche de ce livre ! 7. Ce principe semble s’appliquer à bien d’autres concepts que la conscience !
LES ZOMBIES PHILOSOPHIQUES
259
ted information theory (IIT) en anglais 8 , ensuite complétée en 9 2014. Voilà une initiative intéressante et prometteuse — même si, selon l’informaticien Scott Aaronson, cette définition cohérente ne semble pas être entièrement adéquate, notamment car elle en vient à assigner une conscience importante à des constructions mathématiques que très peu de gens qualifieraient de conscientes 10 . D’ailleurs, à l’instar du problème de la volition cohérente extrapolée, il ne semble y avoir aucune garantie que la définition cohérente extrapolée d’un individu soit unique, ni que les définitions cohérentes extrapolées de deux individus distincts coïncideront. En fait, il semble qu’on puisse déjà approximativement distinguer plusieurs notions de conscience, comme la conscience d’accès et la conscience phénoménale. À cela semble aussi s’ajouter la « conscience morale », qui serait la motivation à suivre des principes moraux. C’est typiquement cette « conscience morale » qui serait cette petite voix à l’intérieur de nous, cette espèce de Bob, qui cherche à nous motiver à faire ce qui est moralement préférable. C’est en particulier cette « conscience morale » qui semble surgir dans des expressions comme « science sans conscience n’est que ruine de l’âme » de Rabelais ou « se racheter une conscience ». Enfin, il semble qu’on puisse également identifier un autre sens encore au mot « conscience », qu’on pourrait appeler la « conscience empathique ». Il s’agit de la « conscience » qu’on assigne à autrui en fonction de notre capacité à nous imaginer être cet autrui. Typiquement, on attribue une conscience à un chat, car on parvient à imaginer ce que ressent ce chat. Cependant, il est plus rare d’attribuer une conscience à l’IA de YouTube, car il nous est difficile d’imaginer l’expérience de vie de l’IA de YouTube. Cette « conscience empathique » semble peut-être être celle qui importe dans la plupart de nos débats moraux. Elle a l’avantage d’être probablement formalisable et calculable. Toutefois, elle semble avoir le défaut de dépendre davantage de l’observateur de la conscience que de la conscience elle-même.
Les zombies philosophiques Néanmoins, beaucoup de philosophes comme David Chalmers persistent à penser que la conscience phénoménale demeure un mystère plus profond encore 11 , parfois appelé le problème difficile de la conscience. En particulier, certains suggèrent qu’il serait même impossible de progresser dans la compréhension de ce mystère via une description plus fine des mécanismes physiques sur lesquels repose le cerveau humain. Voire que même une compréhension entière du compor8. An information integration theory of consciousness | BMC Neuroscience | G Tononi (2004) 9. From the Phenomenology to the Mechanisms of Consciousness : Integrated Information Theory 3.0 | PLoS | M Oizumi, L Albantakis & G Tononi (2014) 10. Why I Am Not An Integrated Information Theorist (or, The Unconscious Expander) | Shtetl-Optimized | S Aaronson (2014) 11. L’esprit conscient | Les Éditions d’Ithaque | D Chalmers (2010)
260
CHAPITRE 16. PHILOSOPHIE MORALE CALCULABLE
tement des humains et du fonctionnement physique de leur cerveau ne suffirait pas à expliquer la conscience phénoménale. La conscience phénoménale serait ainsi profondément irréductible à des processus physiques. Dans ce livre, nous ne chercherons pas à contredire cette thèse. Par contre, la philosophie morale calculable nous invite alors à conclure que, dès lors, l’existence, ou non, de cette conscience phénoménale ne peut pas avoir d’implication morale pragmatique. En effet, tout jugement calculable ne peut se reposer que sur des données observationnelles pour distinguer un humain doté d’une conscience phénoménale d’un zombie philosophique. Or, par définition même du zombie philosophique, il n’y a aucune différence observationnelle possible. Les données sur les humains et les zombies ne permettent pas de distinguer qui est qui. Par conséquent, toute philosophie morale calculable ne peut pas discerner les humains des zombies. Elle devra traiter humains et zombies de la même manière. Voilà qui a amené l’informaticien Scott Aaronson à distinguer le problème vachement difficile (pretty-hard problem) de la conscience du problème difficile (hard problem) de Chalmers. Le premier consiste justement à concevoir une définition cohérente extrapolée de notre définition intuitive de la conscience. Comme l’explique Aaronson, il s’agit là de « l’un des plus profonds et des plus fascinants problèmes de toute la science ». En particulier, il se peut en effet qu’il s’agisse là d’une étape importante dans la conception d’une philosophie morale calculable 12 . Cependant, Aaronson insiste sur le fait que tout progrès dans la quête d’une définition cohérente extrapolée calculable ne peut rien apporter au problème difficile de Chalmers. Comme l’explique Aaronson : « Vous ne pouvez pas défendre à la fois que (a) une fois qu’on aura compris le comportement observé d’un individu et les détails de l’organisation de son cerveau, il n’y aura plus rien de plus à comprendre de la conscience et (b) de façon remarquable, la théorie XYZ de la conscience peut expliquer ce “plus rien de plus à comprendre” [...] ou est sur le point d’y arriver .» En particulier, dans ces deux options, les deux mots « conscience » ne peuvent pas avoir le même sens. Et qui plus est, la seconde version du mot « conscience » ne peut pas avoir d’utilité en philosophie morale calculable. De façon plus générale, la philosophie morale calculable nous invite à nous demander quel jugements moraux inférer à partir de données observationnelles. Ce faisant, elle nous invite aussi à ignorer les considérations dont le statut épistémique ne peut pas être modifié par des données observables. En particulier, pour déterminer si une chose est souhaitable, elle nous invite à d’abord nous poser la question de comment mesurer la chose en question. Typiquement, le bonheur 12. En particulier, on pourrait se demander ce que serait une définition cohérente extrapolée de la conscience empathique. Si on était beaucoup plus à même d’imaginer être à la place d’entités potentiellement radicalement différentes de nous, quelles seraient les entités dont on pourrait imaginer l’expérience subjective ? Et quelle valeur assigner à de telles entités ?
MORALE MODÈLE-DÉPENDANTE
261
est sans doute souhaitable. Mais avant de le conclure, comment peut-on estimer le niveau de bonheur d’un individu ? Sur quelles données peut-on s’appuyer ? Et comment traiter ces données pour avoir une telle estimation ? En particulier, en pratique, il ne suffit pas qu’une philosophie morale soit calculable pour qu’elle soit calculée. Par exemple, dans le jeu Universal Paperclips 13 , le joueur joue le rôle d’une IA dont l’objectif est de maximiser le nombre de trombones dans le monde. Cependant, même cet objectif qui semble parfaitement calculable se doit d’être calculé — ce qui devient vite une tâche pharaonique quand ces trombones se comptent en milliards de milliards de milliards, répartis sur plusieurs planètes dans l’univers 14 ! Notez toutefois qu’il faut prêter attention à ne pas rejeter ce qui est difficile à estimer. Par exemple, le sentiment de plénitude d’un individu peut être plus difficile à quantifier que la densité de dopamine dans son cerveau. Ce n’est toutefois pas une raison pour remplacer le premier par le second dans notre philosophie morale. Comme on l’a vu dans le chapitre 10, se contenter de proxies peut être très problématique. En particulier, comme le disait John Tukey, « mieux vaut une réponse approximative à la bonne question, qui est souvent vague, qu’une réponse exacte à la mauvaise question, qui peut toujours être rendue précise ».
Morale modèle-dépendante En fait, de nombreuses formulations de philosophie morale ne semblent pas directement liées à des données observables. Par exemple, au moins dans certaines de ses variantes, l’utilitarisme affirme qu’il faut maximiser la somme des bonheurs des individus 15 . Or, il n’est pas clair de savoir comment mesurer le bonheur. D’ailleurs, les définitions mêmes du bonheur varient grandement. Certaines incluent uniquement le bonheur instantané. D’autres rajoutent le sentiment de plénitude. Les recherches des psychologues Daniel Kahneman et Amos Tversky montrent même une distinction entre le bonheur expérimenté et le souvenir du bonheur. Voilà qui a des conséquences différentes sur ce qu’il est moral d’entreprendre, en fonction de l’une ou de l’autre interprétation 16 . Outre les difficultés de sémantique, il semble y avoir un problème plus fondamental sous-jacent, à savoir l’existence même des concepts que l’on utilise pour décrire les préférences morales. Typiquement, beaucoup de philosophies morales donnent de l’importance au bonheur des êtres conscients. Or les notions de « bonheur », « d’êtres » et de « conscience » semblent impossible à décrire dans le cadre du modèle standard de la physique. Il semble même qu’elles 13. des trombones, DES TROMBONES ! ! Science4All | LN Hoang (2019) 14. En fait, le calcul adéquat des récompenses de cette IA (le nombre de trombones) semble impossible, à moins d’un Bob qui motive Alice à sans cesse améliorer tout le circuit de la récompense. 15. L’utilitarisme | Science4All | T Giraud & LN Hoang (2017) 16. Plaisir & Coloscopie : la loi de l’apogée/fin | Science étonnante | D Louapre (2018)
262
CHAPITRE 16. PHILOSOPHIE MORALE CALCULABLE
pourraient ne pas admettre de définition cohérente extrapolée calculable dans ce modèle. Pour pouvoir décrire les préférences morales, il semble alors utile de considérer un cadre épistémologique dans lequel des concepts macroscopiques utiles à la description de ces préférences morales ont un sens. Grâce à l’avènement des gros modèles algorithmiques, ceci semble devenir petit à petit de l’ordre du possible. Par exemple, les réseaux de neurones artificiels sont capables d’identifier la présence de chats dans une image. En un sens, la fonction qu’ils calculent correspond ainsi à une formalisation calculable du concept de chat 17 . De même, d’autres réseaux de neurones d’analyse de textes sont capables de lier différents concepts les uns avec les autres. Lorsque ces réseaux de neurones artificiels croisent l’analyse de données visuelles, auditives, textuelles et autres, il semble qu’ils formalisent par là, et de manière algorithmique, des concepts qu’il nous serait très difficile de définir autrement. De tels réseaux de neurones semblent être des définitions cohérentes extrapolées de notre intuition du concept de chat ! Cependant, dès lors, le problème est que le cadre épistémologique dans lequel nous pensons nos préférences morales pourrait être incompatible avec les concepts formalisés par les algorithmes usuels. Pire, il se pourrait que certaines de nos exigences morales n’aient aucun sens dans certains cadres de pensée, car les concepts incontournables de ces exigences morales ne sont pas formalisables dans ces cadres de pensée. Autrement dit, il semble que la simple possibilité de décrire nos préférences morales soit limitée par la sémantique des cadres épistémologiques les plus pertinents pour décrire les données. Malheureusement, il semble qu’il nous soit fréquent de penser que la perte de nos cadres épistémologiques entraîne la disparition de nos préférences morales. En effet, si nos préférences morales semblent fortement s’appuyer sur la conscience phénoménale, alors la remise en question de cette conscience par des philosophies comme l’illusionisme 18 (aussi appelé éliminativiste) semble alors une menace à nos préférences morales 19 . Voilà qui peut nous motiver à rejeter l’illusionisme pour préserver nos préférences morales, ouvrant ainsi la porte à toutes sortes de raisonnements motivés bien connus des psychologues. Cependant, il semble que ce soit là quelque chose de problématique, puisque ceci revient à rejeter la supériorité épistémologique d’un autre cadre de pensée pour de mauvaises raisons — ce contre quoi nous avions cherché à lutter en introduisant Bob ! Pour garantir la robustesse de nos préférences morales à différents modèles de pensée, il semble alors utile de chercher à constamment les reformuler d’un modèle de pensée à l’autre. Il semble aussi et surtout crucial de vérifier que les reformulations de nos préférences d’un modèle de pensée à l’autre demeurent aussi cohérentes que possible. Plutôt que de constamment se ramener à une 17. Qu’est-ce qu’un chat, bordel ? ! ? Science4All | LN Hoang (2018) Conscience et matière : Une solution matérialiste au problème de l’expérience 18. consciente | Éditions Matériologiques | F Kammerer (2019) 19. Tous zombies ? François Kammerer et l’illusionnisme dans la philosophie de l’esprit | Monsieur Phi | T Giraud (2019)
LE RÉALISME MORAL
263
façon de penser le monde, qui peut être rejetée à tout moment, il semble ainsi préférable d’embrasser la multitude des façons de penser le monde. Et il semble important de décrire nos préférences dans toutes les façons de penser le monde — ou du moins toutes les descriptions raisonnables du monde. Voilà un défi monumental additionnel.
Le réalisme moral Au delà de la formulation de nos préférences morales, il semble également adéquat de se poser la question de la validité de ces préférences morales. Il s’agit là d’une question épineuse qui semble souvent manquer de fondement. De manière grossière, il y a deux approches, à savoir le réalisme moral et l’anti-réalisme moral. Dans ce chapitre, faute de place et d’expertise, nous nous contenterons de confronter des versions naïves de ces approches 20 . D’un côté donc, le réalisme moral présuppose l’existence d’une morale universelle, ou du moins d’un certain nombre de principes moraux « vrais ». Les réalistes moraux vont typiquement souvent prendre l’exemple de la souffrance inutile. Il semble que l’on puisse dire qu’il est au moins probable que la souffrance inutile soit objectivement indésirable. Cependant, une telle affirmation semble difficile à justifier. Pour y arriver, on a tendance à s’appuyer sur une intuition informée. Typiquement, un argument grossier consiste à dire que chaque individu trouve sa propre souffrance inutile indésirable. Ceci semble alors le justifier à croire que la souffrance inutile des autres est également indésirable — surtout ceux dont le fonctionnement biologique est similaire. Cependant, on rétorque parfois à cette proposition qu’elle s’appuie très fortement sur l’intuition originale qui dit qu’un individu trouve sa propre souffrance inutile indésirable. Or, il s’agit là d’une conséquence de l’évolution — pas d’une philosophie morale fondamentale miraculeusement gravée dans le cerveau de l’individu. L’évolution des espèces a favorisé la survie de celles dont les individus disposaient de nocicepteurs qui les motivaient à ne pas entreprendre des actions qui leur étaient néfastes — comme mettre la main sur du feu. Trouver sa propre souffrance inutile indésirable était ainsi une propriété des individus utile à leur survie. Elle n’a en particulier pas lieu d’être considérée comme une vérité morale 21 . Cette remarque renvoie plus généralement à une distinction plus franche encore entre les théories descriptives de la morale et les théories normatives de la morale. La morale que les humains ont est une chose que l’on peut inférer à partir 20. Ce chapitre n’a pas vocation à trancher le débat du réalisme moral, mais plus à inviter le lecteur à questionner son intuition de la morale. 21. Cet argument évolutionniste est toutefois parfois utilisé en faveur du réalisme. Voir : The Point of View of the Universe : Sidgwick and Contemporary Ethics | K de LazariRadek & P Singer (2016)
264
CHAPITRE 16. PHILOSOPHIE MORALE CALCULABLE
de données observationnelles des humains. Elle correspond à ce qui est. Elle appartient au champ des sciences descriptives et prédictives. Cependant, la morale que les humains devraient avoir ne semble pas être de la sorte. Les données observationnelles et les théories descriptives de ces données ne semblent pas devoir modifier ce qui devrait être. Typiquement, ce n’est pas parce que l’esclavage a dominé l’histoire de l’humanité, que l’esclavage devrait être. Ce principe a été formalisé par le philosophe écossais David Hume. Il est aujourd’hui connu sous le nom de guillotine de Hume. Il a aussi été discuté par Ludwig Wittgenstein, à travers l’expérience de pensée du gros livre 22 . Il conclut que rien dans le monde ne peut nous informer sur ce qui devrait être. Si tel était le cas, ceci signifierait que toute hypothèse de réalisme moral est en fait inexploitable par la philosophie morale calculable. Sous l’hypothèse de la guillotine de Hume, il ne semble pas pouvoir y avoir de philosophie morale calculable réaliste. Serait-il possible de rejeter la guillotine de Hume ? Est-il possible de néanmoins inférer quelque chose à propos de la vraie morale à partir de données observationnelles ? Il semble s’agir là de la question importante à laquelle le réalisme moral devrait s’atteler. Cependant, pour y arriver, il semble qu’il faudra nécessairement ajouter un axiome additionnel à la philosophie morale réaliste, qui fonderait ainsi une sorte d’épistémologie (calculable) de la morale. Ainsi, nous n’excluons pas la possibilité d’une philosophie morale calculable réaliste. Mais il nous semble que celle-ci devra se doter d’un axiome additionnel. C’est de la nature de cet axiome additionnel que nous vous invitons à débattre.
L’anti-réalisme moral Par opposition au réalisme moral, on pourrait alors vouloir défendre l’antiréalisme moral. Celui-ci consiste à dire qu’il n’y a pas de « vraie » morale universelle. Il n’y a alors pas la morale. Chacun a sa morale. Voilà qui semble suggérer que, dès lors, il ne peut pas y avoir de degré de validité des morales 23 . En un sens, l’anti-réalisme moral consiste tout simplement à retirer un axiome au réalisme moral, à savoir l’existence d’une vraie morale. Mais alors, de la même manière que nous avons rejeté la possibilité d’une philosophie morale calculable réaliste sans axiome additionnel, nous sommes naturellement contraints de rejeter la possibilité d’une philosophie morale calculable anti-réaliste sans axiome additionnel. Dans un cas comme dans l’autre, pour pouvoir développer une philosophie morale calculable, il nous faut postuler quelque chose en plus. L’approche anti-réaliste suggère toutefois de déplacer notre attention vers le progrès moral individuel. À défaut de comparer les morales de deux individus différents, ce qui est souvent compliqué, ne peut-on pas au moins comparer les morales d’un même individu ? En particulier, ne serait-il pas raisonnable de postuler qu’un individu peut progresser dans son jugement moral ? Typiquement, 22. Le gros livre de Wittgenstein | Monsieur Phi | T Giraud (2018) 23. Là encore, il s’agit d’une version très caricaturale d’un anti-réalisme moral naïf.
LA COMPLEXITÉ DE LA MORALE
265
n’a-t-il pas progressé s’il parvient à identifier ses incohérences morales et à les gommer ? Voilà qui nous amène naturellement à considérer la thèse qui dit qu’un moi+ dispose d’un meilleur jugement que le moi. Il semble ainsi que cet axiome soit un axiome raisonnable minimal pour fonder une philosophie morale calculable. Que l’on accepte le réalisme moral ou non.
La complexité de la morale Que l’on ait une approche réaliste ou anti-réaliste de la morale, l’exigence de calculabilité semble nous permettre d’invoquer des notions fondamentales de l’algorithmique pour parler de la morale. En effet, les notions de l’informatique nous permettent de donner un sens (quasi) formel à la complexité de Solomonoff 24 de toute morale satisfaisante. En particulier, ceci nous permet d’énoncer la thèse suivante. Thèse 11. Toute philosophie morale calculable satisfaisante nécessite plus de 500 pages pour être décrite. Cette thèse semble particulièrement justifiée par la difficulté qu’éprouvent les informaticiens à écrire des définitions cohérentes extrapolées de concepts aussi simples que le concept de chats. Or, il semble raisonnable de penser que toute philosophie morale calculable devra s’appuyer sur un très grand nombre de telles définitions cohérentes extrapolées, comme celles de la conscience et du bonheur, mais aussi de l’équité, de la loyauté, de la dignité, de l’autonomie, de la curiosité ou encore de l’accomplissement. Malheureusement, la thèse 11 est loin de correspondre à un énoncé vraiment formel. Cependant, on peut légèrement la raffiner pour mieux saisir les difficultés de la formulation de la philosophie morale calculable et de ses potentielles résolutions. En particulier, pour qu’une philosophie morale calculable soit satisfaisante, il semble qu’elle doive satisfaire au moins trois critères. En premier lieu, comme on en a déjà parlé dans le chapitre 13, il semble nécessaire qu’elle soit (suffisamment) cohérente. Une philosophie morale qui dit de faire A plutôt B, B plutôt que C et C plutôt que A, ne semble pas satisfaisante car, comme on l’a vu, elle nous encouragerait à tourner en boucle entre les trois options malgré des effets secondaires indésirables. En second lieu, il semble qu’elle doive également être suffisamment conforme aux préférences, voire plutôt aux volitions, d’une très grande proportion de 24. La complexité de Solomonoff, dont on a parlé dans le chapitre 9, aussi appelée complexité de Kolmogorov ou complexité algorithmique, est la longueur du plus court code algorithmique capable de résoudre une tâche donnée.
266
CHAPITRE 16. PHILOSOPHIE MORALE CALCULABLE
la population humaine. Ainsi, le mot « satisfaisant » correspondrait ainsi à « satisfaisant selon la plupart des humains ». Enfin, en troisième lieu, pour être satisfaisante, il semble que la philosophie morale calculable devra couvrir une fraction très importante de l’ensemble des dilemmes moraux imaginables, ou du moins, de l’ensemble des dilemmes moraux plausibles dans le futur. En effet, une philosophie morale incapable d’envisager des cas qui se présenteront dans le futur semble insatisfaisante. En fait, les trois conditions décrites là ne sont autres que les fondements de la volition cohérente extrapolée dont on a déjà parlé dans le chapitre 13. Ainsi, il semble que la volition cohérente extrapolée, ou une variante de celle-ci, soit un principe utile sur lequel fonder la philosophie morale calculable. Mais qu’il soit trop difficile pour les humains de l’écrire. Insistons davantage sur cette conséquence de la thèse 11. Si celle-ci est vraie, il semble alors qu’il sera extrêmement délicat d’écrire une philosophie morale calculable satisfaisante. Il nous est souvent difficile d’écrire des textes de loi satisfaisants relativement succincts et compréhensibles par une fraction nonnégligeable de la population. Écrire un long traité de philosophie morale calculable de manière collective et consensuelle semble être une tâche virtuellement irréalisable. Pire, il se pourrait bien que des versions bien plus forte de la thèse soient vraies. Par exemple, on pourrait imaginer qu’aucune philosophie morale calculable satisfaisante ne tienne dans mille livres de 500 pages. Dès lors, la tâche d’écrire cette philosophie morale serait humainement impossible. Comme Turing en 1950 au sujet de l’IA de niveau humain, nos remarques sur la complexité algorithmique de la philosophie morale nous amènent à suggérer qu’il nous faudra probablement nous tourner vers des algorithmes pour écrire un code moral satisfaisant. Autrement dit, déterminer une morale satisfaisante pourrait devoir inévitablement être un problème de machine learning.
Le temps de calcul de la morale L’approche algorithmique de la philosophie morale est fascinante, car elle soulève d’autres questions typiques de l’algorithmique qui semblent belles et bien cruciales à la philosophie morale. L’une de ces questions est celle du temps de calcul de la morale. En effet, il se pourrait qu’il soit raisonnablement possible d’écrire le code algorithmique de la morale, en tout cas pour certains cas, mais que l’exécution de ce code requiert des temps de calcul déraisonnables. Voilà qui serait particulièrement problématique pour Alice, surtout si elle est programmée pour attendre les résultats des calculs moraux avant d’agir. Dans de nombreux cas, un temps de calcul raisonnable pourrait se compter
LA PHILOSOPHIE AVEC UNE DEADLINE
267
en jours, voire en années. Cependant, il peut arriver que l’échelle de temps d’un calcul moral se doive d’être de l’ordre de la milliseconde. C’est le cas des recommandations de l’IA de YouTube. Quand un utilisateur ouvre l’application de YouTube sur son téléphone, cette IA n’a que quelques millisecondes pour réagir. Il lui faut alors répondre à une question morale en cette infime fenêtre de temps. Voilà qui nous amène à reparler de Moral Machines et de l’algorithme de démocratie virtuelle de Procaccia et de ses co-auteurs. Rappelez-vous que pour déterminer ce qu’une voiture devrait faire en cas de dilemme éthique, Procaccia et ses co-auteurs proposaient d’extrapoler les préférences des individus sondés, puis d’effectuer une démocratie virtuelle entre ces préférences extrapolées. Malheureusement, le temps de calcul de cette démocratie virtuelle est important. Il n’est pas déraisonnable. Mais il excède largement la millisecondes dont la voiture autonome dispose pour effectuer un choix. Pour résoudre ce problème, Procaccia et ses co-auteurs ont dû concevoir une philosophie morale calculable avec un budget de temps très contraint. Ils ont ainsi proposé une heuristique rapide à calculer, qui demeure néanmoins une bonne approximation du code moral qui aurait été déduit de la démocratie virtuelle des préférences cohérentes et extrapolées. Il semble que cette solution sera incontournable pour toutes sortes d’IA. Voilà qui soulève encore un autre problème, à savoir la mesure de la précision des heuristiques rapides développées pour approcher rapidement un code moral plus juste, mais trop long à calculer. Il semble crucial qu’Alice y prête attention lors de ses prises de décision. La théorie des algorithmes d’approximation 25 pourrait alors être critique pour permettre une philosophie morale calculable pragmatique prouvablement suffisamment valide. En particulier, la contrainte du temps de calcul de la morale implique une source d’incertitude additionnelle sur la morale, qui s’ajoute à d’autres incertitudes potentielles, comme la validité d’une extrapolation des préférences, ou la divergence entre préférences et volitions. Dès lors, il semble crucial de développer une philosophie morale calculable, pragmatique, robuste 26 et qui tienne compte adéquatement de l’incertitude à avoir sur sa validité 27 .
La philosophie avec une deadline D’un point de vue algorithmique, l’ensemble des réflexions, des articles et des débats de philosophie morale peut être vu comme un calcul collectif effectué par les humains dans le but d’approcher une version satisfaisante de la philosophie 25. Breakthrough in Asymmetric TSP | ZettaBytes, EPFL | O Svensson & J Tarnawski (2018) 26. L’algorithmique répartie semble elle aussi critique pour garantir la robustesse et l’ultrarapidité ses calculs moraux. 27. Normative Uncertainty | PhD Thesis | W MacAskill (2014)
268
CHAPITRE 16. PHILOSOPHIE MORALE CALCULABLE
morale. Cependant, les remarques faites dans la section précédente semblent s’appliquer à ce calcul, non pas moral, mais de la morale. En particulier, il est crucial de noter que le temps d’exécution de ce calcul semble déraisonnablement long — à supposer qu’il terminera un jour. Notre approche actuelle du calcul de la philosophie morale semble algorithmiquement insatisfaisante. Malheureusement, il semble que cette lenteur du calcul de la morale soit communément acceptée. Pire, on a tendance à valoriser la procrastination du calcul de la morale, en encourageant les délibérations publiques, tout en sachant pertinemment que ces délibérations ont peu de chance d’aboutir efficacement à des solutions satisfaisantes. Nous avons tendance à valoriser l’absence d’accord sur la morale. Bien entendu, la lenteur du calcul de la morale est tout à fait justifiée. Si l’on admet la thèse 11, il faut s’attendre à ce que tout calcul rapide de la morale, surtout par des humains, soit voué à aboutir à des conclusions très problématiques. Cependant, il est crucial de noter que chaque journée passée à disserter sur la philosophie plutôt qu’à agir est une journée de plus où YouTube polarise, énerve et diffuse des propagandes meurtrières. Le temps de calcul de la morale a un grave coût moral 28 . Cette lenteur du calcul de la morale est d’autant plus grave si l’on admet la thèse 6 sur les IA de niveau humain, et le fait que, à cause de la convergence instrumentale, l’émergence d’IA de niveau humain non alignées semble être une menace sérieuse pour toute l’humanité. Pour reprendre les mots du philosophe Nick Bostrom, nous semblons contraints de calculer rapidement une philosophie morale satisfaisante, car nous avons une deadline pour y arriver. À en croire la thèse 6, en l’absence de succès du calcul de la morale avant 2025, il y aurait une probabilité supérieure à 1% pour que l’humanité soit sérieusement menacée. Une telle probabilité peut sembler faible. Cependant, elle est sans doute très supérieure à la probabilité qu’une centrale nucléaire moderne ait un incident similaire au cas de Tchernobyl. Si la sécurité nucléaire vous préoccupe, l’IA de niveau humain devrait sans doute vous préoccuper encore bien plus. Malheureusement, si l’on en croit la thèse 11, il semble improbable que la simple réflexion et délibération humaine parvienne à concevoir une philosophie morale satisfaisante. À l’instar de ce qui a été fait par Moral Machines, il semble que l’aide des IA soit indispensable pour y parvenir.
Vers une méta-éthique calculable Plus généralement, les réflexions ci-dessus n’appartiennent pas au champ de la philosophie morale, mais à celui de la méta-philosophie morale, aussi appelée méta-éthique. Au lieu de s’intéresser directement à ce qui devrait être, la méta-éthique se demande comment déterminer ce qui devrait être. De la même 28.
The Greater Good — Mind Field S2 (Ep1) | VSauce | M Stevens (2018)
VERS UNE MÉTA-ÉTHIQUE CALCULABLE
269
manière que nous avons voulu rendre la philosophie morale calculable, nous défendons la thèse méta-méta-éthique selon laquelle la méta-éthique devrait elle aussi être rendue calculable. Autrement dit, la réflexion méta-éthique nous semble devoir inclure les limites imposées par la théorie du calcul. Dès lors, il nous semble que la priorité de la philosophie morale moderne devrait être de discuter et concevoir des méta-éthiques calculables, c’est-à-dire des manières précises et calculables de concevoir et comparer différentes philosophies morales calculables. Autrement dit, nous invitons les philosophes à s’intéresser au rôle de Charlie dans la feuille de route qui a été présentée dans ce livre. Comment Charlie peut-elle déterminer une philosophie morale à suivre ? Telle est, il nous semble, l’une des questions les plus fascinantes de la philosophie moderne. Si vous êtes informaticien, psychologue ou philosophe, il nous semble, à notre humble avis, que vous pourriez trouver énormément de plaisir dans la réflexion sur la méta-éthique calculable, en plus de contribuer ainsi de manière majeure au fabuleux chantier pour rendre les IA robustement bénéfiques. Qu’en pensez-vous ? La calculabilité de la philosophie morale vous semble-telle pertinente ? A-t-elle un sens ? Vous semble-t-elle nécessaire ? Remet-elle en cause certaines notions que vous attachiez à la philosophie morale ? Redirige-telle les priorités de vos réflexions sur la philosophie morale ? Que pensez-vous de la thèse 11 ? Une philosophie morale satisfaisante pourrait-elle être succincte ? Comment déterminer ce qu’un individu ou une IA doit faire ? Comment concevoir une philosophie morale implémentable et implémentée ? Les considérations de complexité algorithmique vous paraissent-elles pertinentes ? Vous paraissentelles suffisamment étudiées ? Et surtout, comment déterminer une philosophie morale satisfaisante ? A-t-on suffisamment d’outils méta-éthiques ? Et ces outils méta-éthiques sont-ils suffisamment implémentables et implémentés ? Nous vous encourageons à débattre de ces questions, avec une attention particulière à la bienveillance, à la pédagogie et à la modestie, dont les débats sur la morale manquent parfois. Et comme d’habitude, nous vous invitons à mesurer l’impact de vos réflexions sur l’urgence à mettre toutes sortes de talents dans les meilleures dispositions pour rendre les IA robustement bénéfiques.
Références Les métamorphoses du calcul : une étonnante histoire des mathématiques | Le Pommier | G Dowek (2007) L’esprit conscient | Les Éditions d’Ithaque | D Chalmers (2010) Quantum Computing since Democritus | Cambridge University Press | S Aaronson (2013) Normative Uncertainty | PhD Thesis | W MacAskill (2014) The Point of View of the Universe : Sidgwick and Contemporary Ethics | K de Lazari-Radek & P Singer (2016) La formule du savoir | EDP Sciences | LN Hoang (2018)
270
CHAPITRE 16. PHILOSOPHIE MORALE CALCULABLE
Conscience et matière : Une solution matérialiste au problème de l’expérience consciente | Éditions Matériologiques | F Kammerer (2019) An information integration theory of consciousness | BMC Neuroscience | G Tononi (2004) From the Phenomenology to the Mechanisms of Consciousness : Integrated Information Theory 3.0 | PLoS | M Oizumi, L Albantakis & G Tononi (2014) Why Philosophers Should Care About Computational Complexity | In Computability : Gödel, Turing, Church, and beyond | S Aaronson (2012) Why I Am Not An Integrated Information Theorist (or, The Unconscious Expander) | Shtetl-Optimized | S Aaronson (2014) La conscience | Science étonnante | T Giraud & D Louapre (2015) Plaisir & Coloscopie : la loi de l’apogée/fin | Science étonnante | D Louapre (2018) Tous zombies ? François Kammerer et l’illusionnisme dans la philosophie de l’esprit | Monsieur Phi | T Giraud (2019) How Will Self-Driving Cars Make Moral Decisions ? Up and Atom | LN Hoang & J Tan-Holmes (2018) The Greater Good — Mind Field S2 (Ep1) | VSauce | M Stevens (2018) SF et philosophie de l’esprit : le cristal de Greg Egan | PopPhi | Monsieur Phi | T Giraud (2019) Tous zombies ? François Kammerer et l’illusionnisme dans la philosophie de l’esprit | Monsieur Phi | T Giraud (2019) Philosophie morale (playlist) | Monsieur Phi | T Giraud (2017) L’intelligence artificielle et le machine learning (playlist) | Science4All | LN Hoang (2018) The Metaethics of Joy, Suffering, and Artificial Intelligence with Brian Tomasik and David Pearce | AI Alignment | B Tomasik, D Pearce & L Perry (2018) Épistémologie quantitative | Probablement | EM El Mhamdi & LN Hoang (2019) Calcul philosophique | Probablement | G Dowek & LN Hoang (2019)
Que voulez-vous que cela signifie que d’être humain à l’âge des IA ? S’il vous plaît, discutez de ceci avec ceux autour de vous — ce n’est pas seulement une conversation importante, c’est aussi une conversation fascinante. Max Tegmark (1967-) S’il est en notre pouvoir d’empêcher qu’une chose mauvaise se produise, sans avoir là à ne rien sacrifier d’importance morale comparable, nous devons, moralement, le faire. Peter Singer (1946-)
17
Vous pouvez aider
Sensibilisation Jusque-là, nous avons vu que rendre les IA robustement bénéfiques était un formidable défi technique, digne des plus grands mathématiciens, informaticiens et ingénieurs du monde, et qu’il nécessitera certainement aussi des contributions majeures de neuroscientifiques, psychologues, sociologues et philosophes, voire de physiciens, chimistes, biologistes et économistes. Cependant, même si ces derniers parvenaient à produire les algorithmes nécessaires pour concevoir des IA robustement bénéfiques, rien ne dit que ces algorithmes seraient déployés massivement. En particulier, les IA influentes pourraient néanmoins demeurer non alignées avec des volitions humaines. Pour rendre les IA robustement bénéfiques, il est nécessaire de convaincre tout développeur et dirigeant que rendre les IA bénéfiques est une urgence prioritaire à toute maximisation de vues, de profits ou de pouvoir. Voilà une tâche bien délicate. De façon générale, le fabuleux chantier pour rendre les IA bénéfiques nécessitera très probablement la résolution d’un très grand nombre de défis non techniques. Voilà qui est doublement une mauvaise nouvelle. En premier lieu, ceci signifie qu’il nous faut confronter davantage de problèmes encore. En second lieu, ceci signifie que, même si vous ne souhaitez pas contribuer à rendre les IA bénéfiques par vos compétences techniques ou philosophiques, votre aide demeurera désirable. Le fabuleux chantier dont parle ce livre a besoin de vous. Quelles que soient vos compétences, vous pouvez certainement aider. La principale brique que vous pourrez apporter à l’édifice est très probablement
272
CHAPITRE 17. VOUS POUVEZ AIDER
de participer à l’effort de sensibilisation aux risques liés aux IA. En effet, jusquelà, la recherche, le développement et le déploiement des IA ont pu se permettre d’ignorer ces risques. Cependant, ce refus de méditer sérieusement les enjeux éthiques des IA semble devenir de plus en plus problématique. Comme on l’a vu, les systèmes de recommandations influencent déjà des milliards d’individus tous les jours. Malheureusement, comme le souligne l’historien Yuval Noah Harari, envisager le futur des technologies de l’information n’est pas la priorité des politiciens et du débat public. Dans une conférence 1 à l’EPFL, Harari note : « La plupart de ce qu’ils offrent n’est finalement qu’un ensemble de fantaisies nostalgiques autour d’un retour vers un passé imaginaire. Et ceci est une situation très très dangereuse. Parce que ce que cela signifie vraiment, c’est que les plus importantes décisions de l’histoire de l’humanité seront prises, soit par un petit groupe de spécialistes qui ne représentent personne, soit par personne du tout. Ces décisions auront juste lieu. Et ce phénomène sera peut-être dû à la transition de l’autorité des humains vers celle des machines [...] Voilà pourquoi la question de qui conçoit ces algorithmes et à partir de quels fondements éthiques est extrêmement cruciale. » Ce qui est vrai des politiciens semble malheureusement également vrai de nombreux dirigeants, dont les préoccupations du quotidien prennent parfois le pas sur l’anticipation des problèmes futurs. À cela s’ajoute l’inévitable diffusion de la responsabilité, qui encourage tout employé d’une énorme structure à ne se concentrer que sur la tâche qui lui est assignée, sans sentir de pression morale à dépasser ses fonctions 2 . Dans un monde où aucun humain influent ne fait d’effort pour être robustement bénéfique, il semble improbable que les IA que ces humains conçoivent soient robustement bénéfiques. Les IA ne s’aligneront pas d’elles-mêmes. Or, comme on l’a vu notamment dans les chapitres 3 et 10, une IA puissante et non alignée est très probablement une menace sérieuse pour le bien de l’humanité. Pour éviter une prolifération de telles IA, il semble indispensable d’engager régulièrement des discussions autour du rôle des IA d’aujourd’hui, et des rôles probables qu’elles auront à l’avenir. Il semble important de souligner les nombreux problèmes que posent ces IA, que ce soit en termes de confidentialité, de biais, d’addiction, de polarisation, d’instabilité du marché du travail ou encore d’armes autonomes. Et il semble désirable d’insister sur l’extrême incertitude quant à leurs développements dans le futur. Autrement dit, il semble crucial d’insister sur la première thèse de ce livre. Rendre les IA bénéfiques semble être devenu une urgence. Si vous acceptez d’aider le fabuleux chantier en sensibilisant votre entourage aux enjeux de ce chantier, nous vous supplions toutefois de faire d’énormes efforts de bienveillance, de pédagogie et de clarté. Beaucoup d’aspects de ce 1. 2.
Roundtable at EPFL with Yuval Noah Harari | EPFL (2019) How to Make a Hero — Mind Field S2 (Ep5) | Vsauce | M Stevens (2018)
RESPECTABILITÉ
273
chantier sont extrêmement contre-intuitifs, et beaucoup d’interlocuteurs auront des préjugés injustifiés, mais très prononcés, notamment sur ce qui devrait être. Pour être efficace dans vos efforts de sensibilisation, nous vous encourageons à vous entraîner, encore et encore, à avoir des discours robustement bénéfiques sur les enjeux de l’éthique des IA. Pour cela, nous vous invitons à d’abord mesurer l’étendue de votre ignorance et vos probables excès de confiance, en vous informant régulièrement sur l’IA, l’éthique et les enjeux sociaux. Tous ces sujets sont formidablement complexes et pleins de phénomènes contre-intuitifs, c’est-à-dire qui vont à l’encontre de l’intuition naïve. En particulier, au moment d’aborder ces sujets, nous vous encourageons à faire preuve d’une prudence adéquate, et à user et abuser de marqueurs de modestie épistémique 3 . Autrement dit, il semble s’agir d’une excellente habitude à prendre que d’insérer, un peu partout dans vos phrases, des mots comme « sembler », « probablement », voire « je me trompe peut-être ».
Respectabilité Malheureusement, pour l’instant, il semble que la volonté de rendre les IA bénéfiques soit reçue avec beaucoup de scepticisme, y compris par certains experts en IA. Pire encore, beaucoup prennent plaisir à tourner en dérision les versions les plus loufoques du catastrophisme lié aux IA, avec un certain air de supériorité cognitive. Certains vont même jusqu’à qualifier les inquiétudes autour de l’IA de ridicules, par opposition au sérieux qui est censé représenter l’attitude des chercheurs reconnus 4 . Ainsi, notamment dans l’optique de défendre la légitimité de la science, certains scientifiques vont mettre davantage en avant ce qui est très bien établi, plutôt que de se risquer à évoquer un futur incertain dont il est imprudent de parler sans hésitation. Le problème est que, dès lors, ils donnent l’impression que seule la science éprouvée mérite notre attention. Par opposition, vu qu’on ne peut pas dire grand chose du futur avec certitude, il semble « pseudo-scientifique » de le mentionner. C’est ainsi que le sujet du futur des IA est souvent balayé d’un revers de main par l’exigence de « sérieux » scientifique 5 . Outre la défense de la légitimité de la science, il semble possible qu’une motivation, consciente ou non, de certains intervenants soit la mise en valeur de leur propre autorité épistémique 6 . Or, surtout auprès du grand public, l’autorité perçue semble corrélée avec l’assurance de l’intervenant. Ainsi, un intervenant pourrait penser qu’il gagnera en crédibilité en cachant ses doutes et ses incertitudes. Voilà qui expliquerait pourquoi certains intervenants cherchent à donner 3. La modestie épistémique #DébattonsMieux | LN Hoang (2019) 4. Évitons la psychiatrisation #DébattonsMieux | Alexandre Technoprog (2019) 5. Bayes pour les nuls : éviter l’écueil « on sait pas donc on s’en fout » | Alexandre Technoprog (2018) 6. L’autopromotion #DébattonsMieux | LN Hoang (2019)
274
CHAPITRE 17. VOUS POUVEZ AIDER
l’impression que le progrès des IA est sous contrôle. Ils masquent leur étonnement vis-à-vis des nombreuses avancées spectaculaires des IA au cours des quelques dernières années, la difficulté de la surveillance des IA comme celle de YouTube, et leur ignorance de comment rendre ces IA robustement bénéfiques. La moquerie de la spéculation, la défense de la légitimité des sciences et la valorisation de la confiance en soi semblent alors causer un biais dans les discussions publiques autour des IA. Non seulement elles mettent en avant un certain profil d’experts, elles risquent aussi de décourager la prise de parole publique d’autres experts en IA. En particulier, on peut imaginer que beaucoup d’experts craignent de perdre leur respectabilité en suggérant des risques catastrophiques posés par les IA. Ces experts éviteraient alors de mentionner leurs inquiétudes, par souci de respectabilité. Dans ce contexte, nous vous supplions de prêter attention à la respectabilité des propos que vous tiendrez. Plutôt que d’invoquer des sujets controversés et aisément moquables, dans des environnements potentiellement malveillants, il semble souhaitable de davantage défendre des positions robustes à la moquerie, même si ces positions vous semblent moins importantes que celles que vous avez concernant des sujets plus controversés.
Mieux débattre Pour éviter des phénomènes gênants comme le biais de respectabilité qui distordent l’avis de la communauté des chercheurs, il semble indispensable de réfléchir à des manières de mieux débattre de sujets qui suscitent des réactions vives, émotionnelles et parfois insultantes. En particulier, il semble désirable de créer des environnements de discussion où l’expertise est davantage mise en avant que l’impression d’expertise, et où l’avis de chacun sera accueilli avec calme et bienveillance. Étrangement, cependant, la réflexion autour de comment mieux débattre semble très négligée. Nous avons tendance à imaginer qu’une opposition d’idées entre deux porte-paroles véhéments qui cherchent chacun à « vaincre » est une façon constructive de faire avancer un débat, à l’instar de ce qui est souvent proposé dans les débats politiques 7 . Malheureusement, ces mises en scène semblent grandement favoriser le charisme, la rhétorique et la répartie, voire l’autopromotion, le sarcasme et la virulence, plutôt que la mise en avant de données empiriques pertinentes, l’argumentation logiquement valide et la multiplicité des préférences morales. Dans l’optique de mieux adresser collectivement les nombreux défis monumentaux que le XXIe siècle semble proposer à l’humanité, il semble être devenu une urgence morale que de mieux réfléchir collectivement à comment mieux réfléchir collectivement. Autrement dit, il semble désirable de prendre le temps 7.
Contre les débats télé | Alexandre Technoprog (2019)
MIEUX DÉBATTRE
275
de débattre correctement de comment débattre correctement. C’est pour cette raison que l’un des auteurs de ce livre a lancé le mouvement #DébattonsMieux, notamment sur les réseaux sociaux YouTube et Twitter, avec un succès qui lui semble encore mitigé 8 . En pratique, il semble que l’une des principales barrières à un débat sain réside dans la motivation des parties prenantes. Il arrive ainsi si souvent qu’un débat soit détourné par des individus souhaitant triompher de tous les autres, asseoir leur autorité ou leur légitimité, ou juste gagner le support d’une communauté 9 . Par exemple, de nombreux messages sur Twitter semblent davantage motivés par l’intention de collecter les likes et les partages, plutôt que par l’intention d’aider les personnes exposées aux messages à mieux réfléchir. Quand vous prendrez la parole dans un débat, nous vous invitons à vous demander si tel est votre objectif 10 . Une autre faille de nombreux débats semble être le manque de bienveillance. Il semble ainsi fréquent que les parties prenantes du débat identifient des ennemis qu’il leur faut combattre, en considérant typiquement que ces ennemis sont méchants ou mauvais. Malheureusement, les études en psychologie 11 suggèrent que ceci favorise la polarisation de groupe. À l’instar d’un supporter hooligan d’une équipe de football, chaque individu risque alors de s’identifier à un groupe, et de faire de la défense du groupe sa priorité, aux dépens souvent de la rigueur intellectuelle et de la bienveillance 12 . Pire encore, ce genre de comportement tribal peut amener les personnes offensées à se mettre en mode « défense », et à devenir moins réceptives encore aux arguments des personnes qui semblent les offenser. L’éveil de l’hooliganisme des parties prenantes d’un débat semble alors gravement nuire à la qualité du débat. Pour éviter de telles dérives, il semble utile d’encourager la bienveillance dans tout débat, surtout envers ceux qui peuvent sembler appartenir au « camp opposé ». En particulier, plutôt que de voir l’interlocuteur comme un rival, ne semble-t-il pas préférable d’y voir un humain dont on souhaite avant tout le bien, même si ce qu’il dit n’est pas en accord avec nos croyances ou nos convictions ? L’un des aspects les plus importants de cette bienveillance est probablement la tolérance à l’erreur 13 . En effet, c’est souvent au moment où l’on stigmatise une erreur d’un camp, que les individus de ce camp auront le plus de chance de perdre leur faculté à bien débattre. Pour tolérer l’erreur, il semble utile d’insister sur le fait qu’il nous est tous très difficile de ne pas commettre d’erreur. Nos raisonnements ont typiquement un mal fou à se conformer aux lois des proba8. Ce qui ne va pas avec #DébattonsMieux | Probablement ? | LN Hoang (2019) 9. L’appel à la meute #DébattonsMieux | LN Hoang (2019) 10. Pourquoi débattre ? #DébattonsMieux | LN Hoang (2019) 11. The Righteous Mind : Why Good People are Divided by Politics and Religion | Vintage | J Haidt (2013) 12. La morale des hooligans (la nôtre ! !) | Science4All | LN Hoang (2017) 13. Le bonheur de faire des erreurs | LN Hoang (2016)
276
CHAPITRE 17. VOUS POUVEZ AIDER
bilités 14 . Il faut s’attendre à faire des erreurs. C’est pourquoi l’utilisation des marqueurs de modestie épistémique, comme les mots « peut-être », « possiblement » ou comme l’utilisation du conditionnel, semblent très désirables dans les débats 15 . En particulier, il est important de ne pas perdre de vue qu’un débat ne sera qu’une étape parmi d’autres dans la réflexion des participants du débat. L’une des pires issues possibles d’un débat, c’est que les participants en viennent à conclure que la réflexion autour du sujet du débat n’est pas souhaitable — par exemple parce qu’elle augmente la polarisation de chacun. Plutôt qu’une fin en soi, il semble utile de considérer qu’un débat est davantage une initiation, voire une invitation, à d’autres débats. Or pour en arriver à cette conclusion, il semble crucial que tout participant trouve le débat plaisant 16 — ou, au moins si possible, pas déplaisant ! Sachant cela, relever une erreur importante commise par un interlocuteur sans envenimer le débat paraît tout à coup être une tâche extrêmement complexe. C’est entre autres pour cette raison que débattre avec efficacité est un art délicat. Voilà qui vous donne peut-être envie de renoncer à engager des débats 17 . Malheureusement, il semble probable que l’humanité aura d’énormes enjeux à relever au XXIe siècle, et qu’on ne saura pas les relever à moins de se coordonner mondialement. Pour y arriver, mieux débattre semble incontournable. Il semble donc indispensable de concevoir et maîtriser l’art d’amener d’autres à mieux réfléchir. Pour y arriver, il semble crucial d’aspirer à mieux débattre, mais aussi de trouver du plaisir à avoir bien réfléchi collectivement. Voilà un autre défi fabuleux qui nous attend !
Attirer toutes sortes de talents Malheureusement, d’après la seconde thèse défendue par ce livre, convaincre tout le monde de l’urgence à rendre les IA bénéfiques ne suffira probablement pas. En effet, rendre les IA bénéfiques semble être un défi monumental, y compris au niveau technique. Comme l’affirme le philosophe Nick Bostrom, « résoudre [l’alignement des IA] est un défi de recherche digne des plus grands mathématiciens [...] ». À en croire Bostrom, ou le livre que vous lisez, il semble donc urgent d’attirer les meilleurs talents de différents domaines vers des problèmes de sécurité et d’alignement des IA. Malheureusement, pour l’instant, ces meilleurs talents sont souvent davantage incités à manager des équipes de grandes entreprises avec un objectif de rentabilité, à prendre des postes de hauts fonctionnaires ou à démontrer des théorèmes de mathématiques pures. D’un point de vue social, 14. 15. 16. 17.
Le paradoxe des 2 enfants | Science4All | LN Hoang (2019) La modestie épistémique #DébattonsMieux | LN Hoang (2019) Critiquer avec efficacité #DébattonsMieux | LN Hoang (2019) Prenez #DébattonsMieux comme un jeu | LN Hoang (2019)
ATTIRER TOUTES SORTES DE TALENTS
277
il semble qu’il puisse s’agir là d’une exploitation sous-optimale de compétences rares 18 . Dans son livre Superintelligence, Bostrom fait ainsi la remarque que beaucoup de théorèmes mathématiques sont « dans l’air du temps ». Ainsi, la contribution de la démonstration d’un théorème important peut être vue comme le fait d’avancer la date de la découverte de ce théorème. Selon Bostrom, « la valeur de ce transport temporel doit être contrastée avec la valeur qu’aurait produite un mathématicien de classe mondiale en travaillant sur un autre problème ». Bostrom conclut avec un constat sévère : « au moins dans certains cas, la médaille Fields pourrait indiquer une vie investie à résoudre le “mauvais” problème ». En particulier, dans l’optique du futur de l’humanité, il semble bel et bien que tous les problèmes ne se valent pas. Pour profiter des meilleures compétences dont nous disposons afin de résoudre les plus importants défis qui se posent à l’humanité, il semble utile d’attirer les plus grands talents vers ces défis. Cependant, il est également important de motiver ces talents pour qu’ils fournissent un grand rendement. Pour cela, il semble utile de les aider à identifier des problèmes en lien avec l’alignement des IA, qui gardent néanmoins la saveur des problèmes que ces talents affectionnent. Typiquement, les mathématiciens sont bien connus pour attribuer une attention particulière à l’élégance des problèmes qu’ils traitent. Pour attirer ces talents, il semble ainsi primordial d’identifier des conjectures mathématiques élégantes 19 , même si leur application directe à l’alignement des IA n’est pas évidente. Par chance, ces mathématiques élégantes des IA semblent exister. Nous invitons typiquement tout mathématicien curieux à jeter un œil aux publications du MIRI 20 , ou aux travaux de Marcus Hutter 21 et ses anciens étudiants 22 . Il existe des théories mathématiques merveilleuses de l’IA forte et de comment la rendre robustement bénéfique — même si l’applicabilité de ces théories n’est pas encore très directe. Bien entendu, ce qui est dit ici des mathématiciens s’applique à toutes sortes de compétences rares. Informaticiens, ingénieurs, philosophes, neuroscientifiques, psychologues, sociologues, économistes, juristes, journalistes, gouvernance ou vulgarisateurs, parmi d’autres, tous sont des profils attirés par certains types de défis plutôt que d’autres. Dans ce livre, nous avons présenté beaucoup de défis majeurs du fabuleux chantier pour rendre les IA robustement bénéfiques. 18. Le putaclic académique | Mr. Sam - Point d’Interrogation | LN Hoang & S Buisseret (2019) 19. Action Items From the Next Generation of Researchers| D Hadfield-Menell, EM El Mhamdi, S Milli, W Saunders & J Fisac (2019) 20. Logical induction | S Garrabrant, T Benson-Tilsen, A Critch, N Soares & J Taylor (2016) 21. Universal artificial intelligence : Sequential decisions based on algorithmic probability | Springer | M Hutter (2005) 22. A collection of definitions of intelligence | FAIA | S Legg & M Hutter (2007) On the Computability of AIXI | J Leike & M Hutter (2015)
278
CHAPITRE 17. VOUS POUVEZ AIDER
Nous espérons que chaque talent aura trouvé un défi qui le motive et auquel il souhaiterait consacrer une partie de son temps. Par ailleurs, au-delà de l’attractivité des défis, il semble utile de proposer aux talents susceptibles de contribuer significativement à l’alignement des IA des conditions financières et professionnelles satisfaisantes. Voilà qui soulève non seulement la question du financement de la recherche en alignement des IA, mais aussi, et peut-être surtout, celle de la stabilité des offres d’emploi dans ce domaine. En effet, le monde de la recherche est malheureusement souvent critiqué pour sa précarité, la lourdeur de ses exigences administratives comme les demandes de financement et la pression pour publier. Ces conditions de travail semblent fortement limiter la productivité des talents. Il nous semble que le fabuleux chantier pour rendre les IA robustement bénéfiques est un enjeu planétaire qui justifierait pleinement de telles conditions de travail. En fait, l’idéal serait sans doute la création d’un institut international de collaboration interdisciplinaire de très grande ampleur, à l’instar du CERN, du projet ITER ou de la station spatiale internationale. Bien entendu, la simple mise en place d’un tel chantier représente elle-même un défi monumental. Ainsi, même si vous ne souhaitez pas fournir des contributions techniques, vous pourriez néanmoins apporter une contribution extrêmement précieuse, par exemple en coordonnant de telles propositions de projet. Enfin, il semble primordial de prendre soin des talents potentiels en leur proposant des formations adéquates aux problèmes de l’alignement des IA. D’ailleurs, même si, à l’heure actuelle, vous ne maîtrisez pas encore les fondements techniques de l’IA, n’oubliez pas que cela s’apprend. Ces dernières années, des centaines de milliers de chercheurs, d’étudiants et d’ingénieurs se sont mis à l’IA et ont appris le deep learning. Quelques ressources existent déjà pour y arriver, à travers des articles de recherche, des livres de cours, des billets de blogs, des MOOCs, des vidéos de vulgarisation ou des podcasts audios. Cependant, il semble qu’il persiste un manque de contenu éducatif, notamment sur le sujet plus spécifique de l’alignement des IA. Le financement de la production de ce contenu semble désirable.
Valoriser l’éthique et la sécurité Pour garantir la sécurité des IA, il ne suffit bien sûr pas de proposer des solutions techniques. Il faut aussi et surtout que ces solutions techniques soient effectivement appliquées par les IA les plus influentes. Pour cela, il semble primordial que toute entreprise du numérique attribue une grande importance à la sécurité de ses produits, voire aussi et surtout aux considérations éthiques que pose le déploiement de ces produits. En particulier, il semble crucial que tout manager et tout développeur prennent le temps de réfléchir aux effets secondaires de leur activité. Malheureusement, de nos jours, ceci ne semble pas être la priorité des action-
VALORISER L’ÉTHIQUE ET LA SÉCURITÉ
279
naires, des dirigeants et des employés des entreprises. Ni celle des politiciens, des médias et des acteurs académiques. Notamment dans le monde du numérique, on a tendance à valoriser les performances des derniers produits sur des métriques usuelles comme la précision sur un jeu de données standard. Chaque gouvernement, chaque université et chaque entreprise prendra davantage de temps à vanter avoir battu l’état de l’art dans tel ou tel domaine, plutôt que ses considérations éthiques ou ses solutions pour la sécurité numérique. Il semble crucial que cela change. Un tel changement ne semble pas improbable. Au niveau européen, de plus en plus d’organisations doivent désormais documenter leur responsabilité sociétale des entreprises (RSE). Cet ensemble de métriques mesure de nombreux effets secondaires des entreprises, comme leur empreinte écologique. De façon intéressante, il semble que de plus en plus de jeunes prêtent attention à ces métriques dans leur choix d’employeur. Si tel devient de plus en plus la norme, il semblera alors plausible de rendre les dirigeants de ces entreprises plus désireux de favoriser les actions socialement bénéfiques des entreprises. De manière intrigante, au sein de géants du Web comme Google, Facebook ou Amazon, il semble que les ingénieurs prennent de plus en plus souvent position sur les directions de ces entreprises, que ce soit avant ou après avoir quitté ces entreprises, comme Tristan Harris ou Guillaume Chaslot. Sachant que les ingénieurs jouent un rôle crucial au sein de ces entreprises, il ne semble pas improbable que cet élan éthique pourrait se diffuser pour atteindre les sommets des entreprises. Il est en effet beaucoup plus facile pour un dirigeant d’imposer une mesure éthique, malgré les actionnaires, s’il sait qu’une fraction non négligeable de ses employés exige cette mesure éthique. Si la pression éthique des employés est suffisamment grande, le dirigeant pourrait même être contraint de suivre leurs exigences éthiques. C’est ainsi à notre grande satisfaction que, depuis 2017, Facebook a lancé un blog intitulé Hard Questions qui expose les dilemmes éthiques auxquels l’entreprise est confrontée 23 . Pour accélérer ce changement, il semble important de sensibiliser les employés potentiels des entreprises aux effets secondaires de ces entreprises. Autrement dit, il semble désirable de faire du lobbying en faveur de l’éthique au sein même de ces entreprises et de leurs potentiels futurs employés. Par exemple, si vous faites partie d’une entreprise du numérique (ou non), la création d’un groupe de discussion informel (ou non) sur les enjeux éthiques autour de votre entreprise et de ses effets secondaires pourrait être une action à fort impact sur le long terme. Bien entendu, ce qui est dit ici des entreprises s’applique à toutes sortes d’organisation, familiale, associative, académique, publique et politique. Il semble utile d’encourager toutes ces organisations à davantage valoriser l’éthique et 23. De même, nous avons été ravis de voir Mark Zuckerberg engager une longue discussion filmée avec Yuval Noah Harari au sujet des grands enjeux éthiques autour de Facebook : Mark Zuckerberg & Yuval Noah Harari in Conversation (2019)
280
CHAPITRE 17. VOUS POUVEZ AIDER
la sécurité. Nous considérons par exemple que ce fut une excellente nouvelle que des conférences majeures en IA comme NeurIPS et ICML aient récemment introduit un code de conduite pour leurs participants.
Aider les mouvements existants Le livre que vous lisez aurait été impossible à écrire sans l’énorme travail collaboratif de nombreuses organisations qui œuvrent déjà à rendre les IA bénéfiques. Pour que les IA du futur soient davantage bénéfiques, il semble utile de s’appuyer sur ces organisations. On peut aussi faire le choix de diversifier le paysage en montant sa propre organisation, si par exemple on ne se retrouve pas dans celles déjà existantes. On trouve ainsi de nombreuses organisations, comme le Future of Life Institute, le Future of Humanity Institute, le Center for the Study of Existential Risks, le Center for Effective Altruism, le Center for Applied Rationality, le Partnership for AI, le Machine Intelligence Research Institute (MIRI), le Center for Human-compatible AI (CHAI), l’Australian National University (équipe Marcus Hutter), Google Brain (Ethical Artificial Intelligence Team, équipe Timnit Gebru), The AI Now Institute, The Algorithmic Justice League, The Mozilla Foundation, Algotransparency.org, The Berkman Klein Center, Harvard University (Ethics and Governance of AI), ELLIS Society, OpenAI (équipe AI safety), Google DeepMind (équipe AI safety), AI Impact, ou encore le Center for Humane Technology. D’autres organisations semblent être sur la même lignée, comme le sommet mondial AI for Good, l’initiative européenne AI Alliance, le Center for Security and Emerging Technology, l’Empowerment foundation ou le Common AI voice for Switzerland. L’un des auteurs de ce livre a d’ailleurs été invité à la conférence Beneficial AGI, organisée par le Future of Life Institute, qui réunit des acteurs académiques et économiques majeurs de l’IA, tels que Yoshua Bengio, Gillian Hadfield, Joshua Tenenbaum, Francesca Rossi, Stuart Russell, ou encore Elon Musk, Larry Page et Eric Schmidt. Au-delà des instituts physiques, il y a également énormément d’activités sur les réseaux sociaux, comme les forums LessWrong, Effective Altruism Forum, AI Alignment Forum, ou les chaînes YouTube Robert Miles, Computerphile, Up and Atom, Smarter Every Day, Tom Scott ou encore Looking Glass Universe côté anglophone, qui abordent de près ou de loin des thématiques proches de celles du livre. Côté francophone, citons les chaînes YouTube Alexandre Technoprog, The Flares ou encore Monsieur Phi, ainsi que des chaînes des auteurs de ce livre, comme Science4All et ZettaBytes, EPFL. Il y a également énormément de podcasts autour de sujets reliés aux thèmes abordés dans ce livre, comme Your Undivided Attention, 80,000 Hours Podcast, Rationally Speaking, MIT Artificial Intelligence, DeepMind : the podcast, Exponential View, Mindscape ou Flashforward côté anglophone, The Flares, Axiome et Probablement côté francophone.
MÉDITEZ, DÉBATEZ ET EXPLIQUEZ LES THÈSES DU LIVRE
281
Cependant, tous ces mouvements sont encore jeunes et ont besoin de grandir. Et vous pouvez contribuer. Soit en participant à des plateformes de discussions préexistantes, soit en lançant vos propres plateformes de discussions, qu’il s’agisse de plateformes sur le Web ou en présentiel. En particulier, le mouvement altruisme efficace organise régulièrement des rencontres et des discussions autour de ces nombreux sujets, aux quatre coins de la France, en Suisse, au Québec, ainsi que dans bien d’autres lieux non francophones 24 . Il semble indispensable de réfléchir collectivement à tous les sujets de ce livre. C’est pourquoi nous vous encourageons à organiser vos propres groupes de discussion, au sein de vos associations, de vos universités ou de vos entreprises, ou à rejoindre des groupes de discussion préexistants. En effet, les nombreuses idées de ce livre ont besoin de temps et de réflexion pour être éclaircies et améliorées. C’est sans doute en prenant part activement à des discussions que vous aurez le plus de chance d’y arriver. Nous vous suggérons d’organiser, par exemple, des rencontres hebdomadaires sur les différents chapitres de ce livre. L’objectif de ces groupes de lecture n’est pas nécessairement de tomber d’accord avec les propos de ce livre, ni de souligner vos désaccords avec des points de ce livre. L’objectif principal pourrait davantage être de vous habituer, vous et vos amis, à réfléchir collectivement aux sujets les plus importants pour l’avenir de l’humanité — et de vous exercer à mieux débattre. Ce serait aussi l’occasion de remuer vos méninges pour identifier ce qui peut être fait pour que le futur aille dans la bonne direction, si possible dans la joie et la bonne humeur. Et si vous cherchez d’autres lecteurs de ce livre avec qui échanger, nous vous suggérons de contacter l’association Altruisme Efficace France (ou Québec ou Genève), pour trouver des compagnons de lecture.
Méditez, débatez et expliquez les thèses du livre De façon plus générale, ce livre ne doit absolument pas être vu comme une solution à un problème. Il doit encore moins être compris comme la conclusion ou l’aboutissement d’une réflexion. En particulier, les thèses de ce livre sont très critiquables. Et nous espérons qu’elles seront critiquées et débattues pour que nous progressions tous dans notre compréhension des enjeux et des défis posés par l’avènement d’IA de plus en plus puissantes. Rappelons ci-dessous les 11 thèses défendues par le livre. Thèse 1. Rendre les IA bénéfiques est une urgence. Thèse 4. L’IA tue déjà. Thèse 5. L’IA offre des opportunités fantastiques pour le bien de l’humanité et de l’environnement. 24.
Action réflexive | Probablement ? L Green & LN Hoang (2019)
282
CHAPITRE 17. VOUS POUVEZ AIDER Thèse 6. La probabilité d’une IA de niveau humain avant 2025 est supérieure à 1%.
Thèse 2. Rendre les IA bénéfiques est un défi monumental. Thèse 7. Rendre les IA bénéfiques pose de sacrés défis de gouvernance. Thèse 8. Les IA les plus puissantes d’aujourd’hui et de demain répondent au moins approximativement aux principes de l’apprentissage par renforcement. Thèse 9. Rendre les IA robustement bénéfiques nécessite l’alignement de leurs récompenses. Thèse 10. Tout moi+ d’un moi a une « meilleure » préférence sur l’état du monde que le moi. Thèse 11. Toute philosophie morale algorithmique satisfaisante nécessite plus de 500 pages pour être décrite. Thèse 3. Il est urgent que tous toutes sortes de talents soient mis dans les meilleures dispositions pour contribuer à rendre les IA bénéfiques. Toutes ces thèses n’ont pas la même importance. Comme on l’a vu en introduction, la principale thèse de ce livre est la thèse 3. Nous espérons avant tout vous avoir convaincu qu’il est urgent de mettre toutes sortes de talents dans les meilleures dispositions pour contribuer à rendre les IA bénéfiques. Bien entendu, parmi ces talents, nous pensons aux mathématiciens, informaticiens et autres scientifiques capables de fournir des solutions techniques. Cependant, nous ne pensons pas qu’à eux. Il nous semble que de nombreux autres talents de nombreux autres domaines ont eux aussi un rôle crucial à jouer dans le fabuleux chantier pour rendre les IA robustement bénéfiques : philosophes, physiciens, biologistes, médecins, psychologues, sociologues, économistes, financiers, investisseurs, entrepreneurs, chefs de projet, managers, dirigeants, politiciens, législateurs, juristes, assureurs, activistes, enseignants, vulgarisateurs mais aussi artistes, parents et citoyens. Il semble urgent qu’un maximum de ces talents œuvre au moins partiellement à contribuer à rendre les IA bénéfiques. Pour défendre la thèse 3, nous avons d’abord défendu la thèse 1, qui insiste sur l’urgence à rendre les IA bénéfiques. En particulier, nous avons vu que les IA traitent de l’information. Or l’information est critique à toutes sortes de problèmes, des sciences au managérat, en passant par la médecine, l’énergie, la justice sociale, la philanthropie et la protection de l’environnement. Les IA nous surpassant déjà largement en termes de fiabilité et de vitesse de calculs, elles sont vouées à être omniprésentes et à jouer un rôle central dans nos sociétés. Malheureusement, le rôle qu’elles jouent déjà a des effets secondaires très indésirables, comme la polarisation, les propagandes anti-vaccins et la catalyse de génocides. Comme le dit la thèse 4, l’IA tue déjà. Or plus elle gagnera en performance et en influence, plus ses effets secondaires risquent d’être catastrophiques. Mais aussi, plus cela sera le cas, plus les op-
MÉDITEZ, DÉBATEZ ET EXPLIQUEZ LES THÈSES DU LIVRE
283
portunités pour le bien de l’humanité et de l’environnement seront fantastiques, comme l’affirme la thèse 5. Il semble urgent de sauter sur ces opportunités, en rendant les IA bénéfiques. Le cas extrême de ce risque semble être le cas d’une IA de niveau humain. Même si l’avènement d’une telle IA dans un avenir relativement proche soulève des moqueries, nous avons défendu la thèse 6 selon laquelle celle-ci ne semble pas suffisamment improbable pour être rejetée. En nous appuyant sur les avis des experts, leurs biais et des arguments théoriques, nous avons ainsi conclu de manière très conservatrice qu’il semblait déraisonnable d’assigner une probabilité inférieure à 1 % à l’émergence d’une IA de niveau humain avant 2025. Une telle probabilité est loin d’être négligeable. Elle devrait être très préoccupante. Ce qui semble grandement conforter la thèse 1. Nous avons ensuite abordé la thèse 2, en soulignant entre autres la vitesse du progrès et le manque actuel d’anticipation du progrès à venir. Qui plus est, nous avons vu que le contexte économique et politique actuel était tel qu’il semble impossible de ralentir ou de sévèrement réguler la recherche en IA et le déploiement des IA. Il y a des contraintes sur les contraintes que l’on peut mettre aux IA. Voilà qui rend la gouvernance pour coordonner le fabuleux chantier pour rendre les IA bénéfiques très délicate, comme l’affirme la thèse 7. En nous appuyant sur la thèse 8, nous avons pu discuter des nombreux détails techniques à résoudre pour espérer y parvenir malgré tout. Il nous semble que la seule approche vraiment prometteuse tourne autour de l’alignement des IA (thèse 9). Autrement dit, il semble crucial de faire en sorte que les IA les plus influentes reçoivent des récompenses qui correspondent à des valeurs morales humaines. Voilà qui nous a amenés à concevoir un circuit de la récompense adéquat pour les IA par renforcement. Cependant, on a vu que la conception de ce circuit était minée de défis à relever. Parmi ces difficultés, citons par exemple l’importance d’une collecte maîtrisée de données fiables, d’une inférence quantifiée et adéquate de l’état du monde à partir de ces données, de la robustesse aux attaques adversariales, d’un apprentissage des volitions des humains, de la prise en compte des biais d’échantillonnage, de mécanismes pour lutter contre le court-circuitage des récompenses et de l’exploration sécurisée dans la prise de décision. En particulier, pour rendre les IA robustement bénéfiques, nous avons vu que l’alignement des IA semblait être, de loin, la voie la plus prometteuse. Cependant, ceci soulève des défis majeurs de philosophie morale. Pour les résoudre, en vertu de la guillotine de Hume, il nous a fallu introduire un axiome moral. L’axiome moral que nous avons adopté est celui de l’existence d’un progrès moral, semi-formalisé par la thèse 10. Il nous semble qu’il s’agit d’un axiome suffisamment minimal pour être relativement consensuel. Cependant, nous avons aussi vu que les humains seuls ne seront probablement pas capables de déduire de la thèse 10 les bonnes actions à entreprendre. En effet, nous avons vu que les humains sont contraints par d’importantes limites
284
CHAPITRE 17. VOUS POUVEZ AIDER
cognitives, voire, pire encore, par des biais cognitifs. Qui plus est, nous avons postulé la thèse 11, qui affirme qu’aucune morale simple ne peut être satisfaisante. Cette thèse semble partiellement justifiée par la thèse 10, la neuroscience, la psychologie empirique et l’histoire de l’IA. Dès lors, si on l’accepte, il semble que seules des méthodes algorithmiques pourront nous permettre de résoudre le problème de la philosophie morale en temps restreint, comme semble l’exiger la thèse 1. La combinaison des thèses 7, 8, 9 et 11 nous pousse à conclure à la thèse 2. Autrement dit, il nous semble que rendre les IA robustement bénéfiques est un défi de recherche digne de la plus grandiose des collaborations de l’histoire de l’humanité. Toutes sortes de talents semblent requis pour parvenir à relever ce fabuleux défi. La combinaison des thèses 1 et 2 nous force alors à conclure à la thèse 3. Il semble urgent de mettre toutes sortes de talents dans les meilleures dispositions pour contribuer au fabuleux chantier pour rendre les IA robustement bénéfiques.
Joignez-vous au fabuleux chantier ! Pour conclure ce livre, il semble utile de revenir sur un dernier point important. Certes, rendre les IA bénéfiques est un défi monumental. Le futur des IA est plein d’incertitudes et plein de risques. La compréhension de ces enjeux est extrêmement complexe. Le fonctionnement même des IA et leurs failles potentielles sont délicats à comprendre. Les effets secondaires des IA dans des environnements complexes comme les civilisations humaines le sont encore plus. Celles des IA du futur plus encore. Pour garantir que les IA du futur seront bénéfiques, il va nous falloir absolument prendre le temps de la réflexion. Il nous faut considérer plusieurs futurs plausibles. Il nous faut anticiper d’innombrables éventuels dysfonctionnements des IA. Il nous faut organiser la recherche sur la sécurité des IA. Il nous faut nous mettre d’accord sur la morale à programmer dans ces IA, ou du moins sur la manière dont la morale des IA sera calculée. Et il nous faut promouvoir le déploiement de ces solutions en pratique. Rendre les IA robustement bénéfiques est un chantier monumental. Cependant, il s’agit aussi et surtout, il nous semble, d’un fabuleux chantier. Il s’agit d’un chantier d’une merveilleuse complexité, à l’interface entre de nombreux domaines scientifiques, et avec des répercussions sociales énormes. Il semble difficile de ne pas contempler ce chantier sans y voir un défi formidable. Ce défi est gigantesque. Aucun d’entre nous ne pourra résoudre seul. Pour le relever, il nous faudra combiner l’expertise, la compétence et la coordination d’un très grand nombre d’entre nous. Plus pharaonique que les pyramides de Khéops, plus rocambolesque que le voyage sur la Lune de la NASA, plus vertigineux que le collisionneur de particules du CERN, rendre les IA robustement
JOIGNEZ-VOUS AU FABULEUX CHANTIER !
285
bénéfiques est peut-être le plus beau défi de toute l’histoire de l’humanité. Et vous pouvez certainement contribuer. Quels que soient vos sujets de prédilection, le chantier semble si immense qu’en prenant le temps de la réflexion et en réfléchissant à vos compétences, vous trouverez sans doute une manière d’apporter votre pierre à l’édifice. Que ce soit en sensibilisant d’autres aux enjeux de l’éthique des IA, en encourageant d’autres à mieux réfléchir et mieux débattre de ces questions, en encourageant les talents dans votre entourage à s’intéresser à l’alignement des IA, en identifiant les meilleures stratégies pour valoriser l’éthique au sein des gouvernements, des universités, des entreprises ou du grand public, en organisant des rencontres et des conférences, ou en travaillant vous-même sur des solutions techniques à l’un des innombrables sous-problèmes présentés dans ce livre. Pour être efficace, le site 80,000 Hours encourage même les plus motivés parmi vous à faire de vos contributions philanthropiques une carrière professionnelle. Ce site peut même vous accompagner dans cette démarche parfois délicate 25 . En particulier, 80,000 Hours prête une attention particulière aux risques de l’IA, et propose des conseils spécialisés pour les projets de carrière en gouvernance de l’IA 26 et en recherche sur la sécurité de l’IA 27 . Ces domaines semblent encore très négligés. Surtout si vous maîtrisez désormais le contenu de ce livre, votre aide sera sans doute la bienvenue ! Malheureusement, ce livre approche de sa fin. Mais nous espérons vivement que la fin de cet ouvrage ne sera que le début de vos réflexions sur l’éthique des IA. D’autant que, parce que ce livre est fini, son contenu informationnel est affreusement incomplet. Pour contribuer efficacement au fabuleux chantier consistant à rendre les IA robustement bénéfiques, nous vous invitons vivement à poursuivre la discussion autour des enjeux que cela pose, et des stratégies les plus prometteuses pour amener ce chantier à bout. En particulier, nous vous recommandons grandement la lecture des nombreux ouvrages listés en références de ce livre. Mais surtout, ce chantier étant dynamique et changeant, nous vous invitons à vous tenir informés des dernières avancées, en suivant les nombreux créateurs de contenus mentionnés dans ce livre, ainsi que leurs écrits, chaînes YouTube et podcasts. Nous espérons que la lecture de ce livre fut, pour vous, un premier pas initiatique à l’intérieur d’un fabuleux chantier. Et nous espérons qu’après moultes réflexions, en solitaire ou en groupe, vous trouverez la motivation et l’enthousiasme d’apporter à votre tour une pierre au merveilleux édifice qui est en train d’être bâti. Les IA vont bouleverser notre monde. Aidez-nous à faire en sorte que ce bouleversement soit fabuleux. 25. 26. 27.
Your career can help solve the world’s most pressing problems | 80,000 Hours Guide to working in AI policy and strategy | 80,000 Hours | M Brundage (2017) AI/ML safety research | 80,000 Hours
286
CHAPITRE 17. VOUS POUVEZ AIDER
Références Super intelligence : le grand défi de l’humanité | Dunod | N Bostrom (2017) Rationality : From AI to Zombies | Machine Intelligence Research Institute | E Yudkowsky (2015) La vie 3.0 - Etre humain à l’ère de l’intelligence artificielle | Dunod | M Tegmark (2017) Le temps des algorithmes | Le Pommier | G Dowek & S Abiteboul (2017) 21 Leçons pour le XXIe siècle | Albin Michel | YN Harari (2018) AI Superpowers : China, Silicon Valley, and the New World Order | Albin Michel | KF Lee (2018) Algorithmes : la bombe à retardement | Les Arènes | C O’Neil (2018) Universal artificial intelligence : Sequential decisions based on algorithmic probability | Springer | M Hutter (2005) Towards Safe Artificial General Intelligence | T Everitt (2018) A collection of definitions of intelligence | FAIA | S Legg & M Hutter (2007) On the Computability of AIXI | J Leike & M Hutter (2015) Logical induction | S Garrabrant, T Benson-Tilsen, A Critch, N Soares & J Taylor (2016) AGI safety literature review | T Everitt, G Lea, M Hutter (2018) Hard Questions | Facebook Newsroom (2017) Your career can help solve the world’s most pressing problems | 80,000 Hours AI/ML safety research | 80,000 Hours Guide to working in AI policy and strategy | 80,000 Hours | M Brundage (2017) Action Items From the Next Generation of Researchers | D Hadfield-Menell, EM El Mhamdi, S Milli, W Saunders, J Fisac (2019) Évitons la psychiatrisation #DébattonsMieux | Alexandre Technoprog (2019) Respectability | Robert Miles (2017) How to Make a Hero — Mind Field S2 (Ep5) | Vsauce | M Stevens (2018) Bayes pour les nuls : éviter l’écueil "on sait pas donc on s’en fout" | Alexandre Technoprog (2018) La virulence, c’est pas bien #DébattonsMieux | Alexandre Technoprog (2018) Le putaclic académique | Mr. Sam - Point d’Interrogation | LN Hoang & S Buisseret (2019) Mark Zuckerberg & Yuval Noah Harari in Conversation (2019) La démocratie sous l’angle de la théorie des jeux (playlist) | Science4All | LN Hoang (2017) L’intelligence artificielle et le machine learning (playlist) | Science4All | LN Hoang (2018) #DébattonsMieux (playlist) | Science4All | LN Hoang (2019)
JOIGNEZ-VOUS AU FABULEUX CHANTIER !
287
Erisology, the study of disagreement | Rationally Speaking | J Nerst & J Galef (2019) A machine learning alignment researcher on how to become a machine learning alignment researcher | 80,000 Hours | J Leike & R Wiblin (2018) PhD or programming ? Fast paths into aligning AI as a machine learning engineer, according to ML engineers | 80,000 Hours | C Olsson, D Ziegler, K Harris & R Wiblin (2018) How to have a big impact in government & huge organisations, based on 16 years’ experience in the White House | 80,000 Hours | T Kalil, K Harris & R Wiblin (2019)
Restez informés Less Wrong Effective Altruism Forum AI Alignment Forum Robert Miles Computerphile, par Sean Riley Up and Atom, par Jade Tan-Holmes Two Minute Papers, par K Zsolnai-Fehér Smarter Every Day, par Destin Sandler Tom Scott Julia Galef ZettaBytes, par EPFL et Lê Nguyên Hoang The Flares, par Gaetan Selle et Marc Durand Alexandre Technoprog Monsieur Phi, par Thibaut Giraud Homo Fabulus, par Stéphane Debove Thibault Neveu Hygiène Mentale, par Christophe Michel Science Étonnante, par David Louapre Science4All, par Lê Nguyên Hoang Future of Life Institute, par Lucas Perry 80,000 Hours, par Robert Wiblin DeepMind : The Podcast, par H Fry Rationally Speaking, par Julia Galef MIT Artificial Intelligence, par Lex Fridman Your Undivided Attention, par Tristan Harris and Aza Raskin Flash Forward, par Rose Eveleth
288
CHAPITRE 17. VOUS POUVEZ AIDER
Mindscape, par Sean Carroll Practical AI, par Chris Benson et Daniel Whitenack Axiome, par Thibaut Giraud et Lê Nguyên Hoang Probablement ?, par Lê Nguyên Hoang
Remerciements Écrire ce livre a été un périple incroyable, au cours duquel nous aurons appris une quantité phénoménale de choses. Nous n’y serions pas parvenus sans l’aide, le support et la critique bienveillante d’un très grand nombre de personnes. Nous avons en effet eu la chance inouïe de passer l’année 2019 à débattre des risques des IA, des meilleures solutions pour rendre les IA bénéfiques et de la pédagogie optimale pour en parler, avec plusieurs communautés fantastiques. Ce livre est le fruit de ces interactions, parfois interminables, mais toujours savoureuses. Elles ont nourri notre réflexion, mais aussi et surtout notre motivation à contribuer au fabuleux chantier pour rendre les IA bénéfiques. Nous sommes infiniment redevables à tous ceux qui ont participé, de près ou de loin, à ces très nombreux échanges passionnants. Nous tenons à remercier particulièrement Alexandre Maurer, Mariame Tighanimine, Jérémy Perret, Laura Green, Louis Faucon, Henrik Åslund, Andrei Kucharavy, Omar Layachi, Stéphane Debove, Émile Émery, Thibaut Giraud, Yoann Marquer, Julien Fageot, Valentin Sanchez, Sébastien Rouault, Sergei Volodin, Clément Hongler, Gloria Capano, Laurène Donati, Isadora Hongler, Konrad Seiffert, Nora Ammann, Janique Behman, Élouan Abgrall, Manuel Bimich, Quentin Le Merle D’eau, Émilien Cornillon, Pleen le Jeune, Valentine Delattre, Michael Witrant, Hamza Kebiri, parmi tant d’autres, et bien entendu, nos parents Ly An Hoang, Hong Minh Hoang, Fatima Razem et El Maâti El Mhamdi. Nous sommes particulièrement redevable envers les diverses institutions qui ont permis, encouragé et facilité nos réflexions à ce sujet. Nous remercions vivement notre université, l’École Polytechnique Fédérale de Lausanne (EPFL), et en particulier la faculté d’informatique et de communication. Nous avons également eu la chance d’avoir été accompagnés par des amis du Café des sciences. Enfin, nous remercions tous les créateurs des contenus sur lesquels s’appuie ce livre, des articles de la recherche aux livres de vulgarisation, en passant par les vidéos YouTube et les podcasts d’interviews. Ces nombreuses contributions sont les fondations actuelles du fabuleux chantier pour rendre les IA robustement bénéfiques.
À propos des auteurs Les deux auteurs de ce livre ont la particularité d’avoir à la fois une certaine expertise en IA, mais aussi des intérêts extrêmement transdisciplinaires. Tout deux diplômés de l’École polytechnique (X2007), docteurs en sciences et collaborateurs scientifiques à l’École Polytechnique Fédérale de Lausanne.
Lê Nguyên Hoang Lê Nguyên Hoang est diplômé de l’École polytechnique (X2007). Il a ensuite obtenu son doctorat en mathématiques de l’École Polytechnique de Montréal. Sa thèse 28 étudiait la théorie de la conception de mécanismes (mechanism design) sous un angle bayésien, ainsi que des définitions quantitatives de la notion d’équité 29 . Il a ensuite enchaîné avec un poste de recherche postdoctorale au Massachusetts Institute of Technology (MIT), où il a notamment travaillé sur le scrutin de Condorcet randomisé 30 et l’optimisation en temps réel. En 2016, il a rejoint l’École Polytechnique Fédérale de Lausanne (EPFL), en tant de communicateur scientifique pour la faculté d’informatique et de communication. Il y produit notamment des vidéos d’enseignement et de vulgarisation des mathématiques, de la physique et de l’informatique. Vous pouvez retrouver ces vidéos sur les chaînes YouTube Wandida, ZettaBytes et String Theory. Parallèlement à cela, depuis 2012, Lê Nguyên Hoang s’est lancé dans la vulgarisation des mathématiques, de l’informatique et des sciences, sur Internet. Il a d’abord lancé le blog anglophone Science4All, puis la chaîne YouTube du même nom. Cette chaîne a désormais plus de 160 000 abonnés. Elle aborde en profondeur des sujets comme la relativité générale, l’infini, la démocratie, l’intelligence artificielle et le bayésianisme. En 2017, Lê Nguyên Hoang a aussi co-fondé le podcast philosophico-mathématique Axiome avec le philosophe Thibaut Giraud, où de nombreux sujets connexes à ce livre sont régulièrement abordés. Plus récemment, en 2019, il a lancé le podcast 28. Conception bayésienne de mécanismes et quantification de l’équité appliquées à la construction d’horaires personnalisés | PhD Thesis | LN Hoang (2014) 29. Measuring unfairness feeling in allocation problems | Omega | LN Hoang, F Soumis & G Zaccour (2016) 30. Strategy-proofness of the randomized Condorcet voting system | Social Choice and Welfare | LN Hoang (2017)
292
CHAPITRE 17. À PROPOS DES AUTEURS
Probablement, où il interviewe des chercheurs et des vulgarisateurs de nombreux domaines, des sciences de l’environnement à la finance, en passant par la zététique, la biologie moléculaire, l’astrophysique et la philosophie. En 2018, Lê Nguyên Hoang a également publié le livre La formule du savoir chez EDP sciences, où il présente le bayésianisme. Le bayésianisme est une philosophie du savoir qui se fonde quasiment exclusivement sur la formule de Bayes. En particulier, dans ce livre, Lê Nguyên Hoang distingue le pur bayésianisme, qui consiste à uniquement appliquer des lois des probabilités, et le bayésianisme pragmatique, qui tient compte du fait que ces équations des probabilités nécessitent des calculs déraisonnables et ne sont donc pas applicables en pratique. Il y défend la validité épistémique du pur bayésianisme, et esquisse de nombreuses pistes pour approcher un bayésianisme pragmatique satisfaisant. Lê Nguyên Hoang est aussi très actif dans de différentes associations et sur les réseaux sociaux. Il est ainsi membre du café des sciences, qui regroupe les acteurs de la médiation scientifique sur Internet. Il est aussi membre de l’altruisme efficace, en France, à Genève et à Lausanne. Cette association et ce mouvement consistent à promouvoir et entreprendre les actions altruistes à forts impacts bénéfiques. Pour y arriver, ce mouvement philosophique et social propose de longuement s’attarder sur la réflexion autour de l’altruisme, et en particulier autour de la priorisation de différentes causes et actions. Parmi les causes régulièrement identifiées par l’altruisme efficace, on retrouve ainsi l’urgence de rendre les IA bénéfiques, surtout à terme. Partant de ce constat, Lê Nguyên Hoang a également identifié l’urgence de mieux débattre, en promouvant le hashtag #DébattonsMieux sur les réseaux sociaux et à travers une série de vidéos. En l’espace de moins d’un an, ce mouvement a pris, à tel point qu’il y a désormais des milliers de résultats à la recherche « #DébattonsMieux » sur Google. Fort de ces succès, Lê Nguyên Hoang est régulièrement invité à de nombreux événements pour intervenir, que ce soit au sujet des mathématiques, de prise de décisions collectives, de l’épistémologie, de l’éthique des IA ou encore de #DébattonsMieux. En 2018 et 2019, il a ainsi pris la parole à SML Lyon 31 , Maths en Jeans, Panthéon 32 , GEPPM, Play Azur, Vulgarizator, Alven, TNP, NIMS 33 , Eurêkafé, Altruisme Efficace France, Deep Learning Paris Meetup, AFT, Palais de la Découverte, la Sorbonne 34 , EA Québec, Polytechnique Montréal, l’Argus de l’assurance, Centrale Supélec, TEDxUGAlpes 35 , EA Geneva, RBForum 31. 32. 33. 34. (2018) 35.
Les mathématiques de la démocratie | SML Lyon | LN Hoang (2018) Je rends hommage à Condorcet au Panthéon ! ! LN Hoang (2018) Forum des NIMS 2018 au Théâtre National de Toulouse | CNRS (2018) Quantifier l’altruisme (Conférence avec Peter Singer) | Altruisme Efficace France L’urgence morale à rendre l’IA bénéfique | TEDxUGAlpes | LN Hoang (2018)
293 de l’EPMA 36 , l’ENS Ulm, Safe AI 37 , Poli’gones, EA Lausanne 38 , Metz Data Week, Ludesco, Graph Alpes 39 , Lyon Science, IGH CNRS, Altruisme Efficace Polytechnique, SIANA Évry, CRACS 40 , Pint of Science, TEDxMinesNancy, CESP, SAMM, Cérémonie des Olympiades de Mathématiques, Metis, journées DSI-DANE, WCSJ, EPFL Open Days 41 , Frames Festival ou encore Octo 42 . Il a aussi été interviewé ou est intervenu dans de nombreux médias, comme Le Monde 43 , RTS 44 , Absol Vidéos 45 , The Flares, Liberté Académique 46 , Science et Vie 47 , La Recherche 48 , France Culture 49 , Alexandre Technoprog 50 , MIT Glimpse 51 , The Conversation 52 , Zeste de Science 53 , hors norme 54 , Docteo 55 , 697IA TV 56 et Usbek & Rica 57 . Ces différents événements ont permis à Lê Nguyên Hoang de rencontrer une très grande variété de publics, d’acteurs et d’enjeux spécifiques, du monde de l’assurance à celui du droit, en passant par les paris d’argent, l’Éducation Nationale, les starts-up du numérique, les directeurs d’hôpitaux, les journalistes, les associations caritatives, les biologistes, les physiciens, les mathématiciens et les informaticiens. Il a ainsi pu collecter le ressenti de ces différentes communautés vis-à-vis des enjeux et des risques de l’IA. 36. RBForum Paris 2018 : The next Technology. Artificial and Market Intelligence | Racing & Betting Forum Paris | LN Hoang (2018) 37. AAAI : l’une des plus grosses confs en IA ! ! LN Hoang (2019) 38. Effective Altruism, YouTube and AI | LN Hoang (2019) Graph Alpes | LN Hoang (2019) 39. CRACS 2019 : Comment mieux débattre ? #DébattonsMieux animé par Science4All 40. avec Mr Sam... | ljArlon (2019) 41. Faut-il être "perché" pour apprécier la science ? | 50 ans de l’EPFL | L’esprit sorcier (2019) 42. Science4All explique l’urgence et la complexité de rendre les IA bénéfiques ! OctoTechnology (2019) 43. « Il faut nous préparer au possible avènement d’une intelligence artificielle de niveau humain » | Le Monde | LN Hoang (2018) 44. La démocratie vue par les mathématiques | RTS | LN Hoang (2017) Science4All (Lê Nguyên Hoang) en 12 questions | Absol Vidéos (2019) 45. 46. Lê Nguyên Hoang : Une philosophie bayésienne des sciences | Liberté Académique (2019) 47. Livre : plongée dans le monde de la formule de bayes | Science et Vie | LN Hoang (2018) 48. La formule du savoir | La Recherche | LN Hoang (2018) 49. Révision du système des unités de mesure / Homéopathie / Algorithmes | La méthode scientifique | LN Hoang (2019) 50. L’IA, pas intelligente ? Interview de Science4All | Alexandre Technoprog (2019) 51. Episode 4 – Le Nguyen Hoang | MIT Glimpse (2015) 52. Les algorithmes du vivant | The Conversation (2017) 53. Le théorème du carreleur - Feat. Lê | Zeste de Science / Les séries originales du CNRS (2018) 54. Lê Nguyên Hoang : l’interview hors norme | Hors norme et accompli (2018) Lê Nguyên Hoang / Nos choix sont-ils solubles dans les maths ? Docteo (2018) 55. 56. 697IA TV émission #2 L’invité Lê Nguyên HOANG | Le 697 IA (2019) 57. « L’attention est le nouveau pétrole » | Usbek & Rica | LN Hoang & P Maillé (2019)
294
CHAPITRE 17. À PROPOS DES AUTEURS
El Mahdi El Mhamdi Diplômé de l’École polytechnique (X2007), El Mahdi El Mhamdi est chercheur à l’EPFL, ses recherches portent sur la robustesse des systèmes complexes, aussi bien biologiques qu’artificiels 58 . Durant sa thèse, il a notamment établis des résultats sur la vulnérabilité des algorithmes de machine learning distribué et a développé une série de méthode pour leur sécurisation. Il a présenté ses travaux à la conférence Neural Information Processing Systems (NeurIPS) et à la International Conference on Machine Learning (ICML), les deux plus importantes rencontres académiques mondiales sur le machine learning. Ses travaux à l’intersection du machine learning et des systèmes distribués sont aussi apparus à la conférence Principles of Distributed Computing de l’ACM et à la Conference on Systems and Machine Learning tenue à l’université de Stanford en 2019. Il a aussi établi des résultats sur la robustesse des réseaux de neurones et sur les systèmes distribués biologiquement inspirés, résultats présentés au International Parallel and Distributed Processing Symposium et au International Symposium for Reliable Distributed Systems de l’organisation scientifique IEEE, ainsi qu’à la rencontre internationale Biological Distributed Algorithms tenue en 2015 au Massachusetts Institute of Technology (MIT), puis en 2017 à la Georgetown University. Après les présentations de ses travaux sur la sécurité des IA à des conférences scientifiques revues par les pairs, il a donné des présentations sur invitation aux Applied Machine Learning Days 2019, au Center for Human Compatible Artificial Intelligence de l’université de Berkeley en Californie, à Google Brain chez l’équipe de l’apprentissage fédéré (federated learning) à Seattle, chez IBM Zurich, à la conférence Ecocloud 2019 ainsi qu’au ArtificiaI Intelligence Governance Forum de Genève. Il a aussi été invité à la conférence bi-annuelle sur l’IA bénéfique 59 , organisée par le Future of Life Institute 60 , ainsi qu’à sa workshop technique à équipe réduite comptant entre autres le prix Turing et pionnier de l’IA Yoshua Bengio, l’experte en fiabilité des IA Francesca Rossi, le spécialiste des sciences cognitives Josh Tennenbaum du MIT ou encore le pionnier de la sécurité des IA et professeur à Berkeley Stuart Russell. En plus des forums académiques, El Mahdi El Mhamdi a été invité à des émissions scientifiques comme CQFD 61 de la radio et télévision suisse (RTS), The 58. Robust Distributed Learning | PhD Thesis | EM El Mhamdi (2019). 59. Beneficial AGI 2019 | Future of Life Institute (2019) 60. Cette conférence est organisée chaque deux ans depuis 2015, elle convie (sur invitation uniquement) un pannel de spécialistes de l’IA afin de réfléchir pendant près d’une semaine aux enjeux sécuritaires et sociaux de l’IA. L’édition 2017 fut marquée par la rédaction des principes d’Asilomar de l’IA, parmi les invités à cette conférence, on retrouve Larry Page, co-fondateur de Google, Kate Krawford éthiciste et co-fondatrice de l’AI Now Institute, Elon Musk patron de Tesla et de SpaceX, Daniel Kahneman, psychologue et prix Nobel ou encore Yann LeCun, prix Turing et pionnier des réseaux de neurones, ainsi qu’une liste de penseurs en droit, économie, philosophie, éthique ou sciences politiques. 61. Comment garder le contrôle de l’intelligence artificielle ? | Radio Télévision Suisse | Anne Baecher & EM El Mhamdi (2017)
295 Practical AI podcast 62 de Changelog ou le AI alignement podcast 63 du Future of Life Institute. Dans ses activités d’enseignement, il a construit et enseigné un cours sur le machine learning donné au doctorants de l’université Mohammed VI fraîchement créée au Maroc. Il est aussi chargé de TD de plusieurs cours de niveau Master sur les algorithmes, les systèmes distribués et le machine learning à l’EPFL en Suisse. Il a d’abord évolué dans la physique de la matière condensée. Son travail sur la robustesse des matériaux en sillicium amorphe 64 est apparu dans le journal Applied Physics Letters, considéré comme l’un des deux plus importants journaux revus par les pairs en physique appliquée, en matière condensée et en physique des semi-conducteurs. Durant ce bref début de carrière en physique, son intérêt pour le Web et la dissémination d’information l’a poussé à co-fonder Mamfakinch, un média marocain ayant été primé par le Breaking Borders Award 65 , décerné par Google et Global Voices en 2012. Après l’expérience Mamfakinch, il quitte son travail d’ingénieur en physique pour se dédier aux projets de pédagogie et de dissémination d’information sur le web. Convaincu par cette expérience que le format vidéo allait l’emporter sur le format texte, il décide d’expériementer le tutorat scientifique sous format vidéo et lance Wandida, une chaîne YouTube qui propose des explications concises de concepts scientifiques de niveau universitaire. Wandida convainc Google qui finance son lancement puis l’EPFL qui finance sa durabilité et l’incorpore à son offre éducative en ligne. Durant la période Wandida / Mamfakinch, El Mahdi El Mhamdi a été convié à de nombreux événements sur la portée éducative ou journalistique du Web. Il a présenté ses méthodes à la conférence annuelle de l’Association for Learning Technologies (ALT) à l’université de Manchester au Royaume-Uni, à la conférence e-Learning Africa en Ouganda puis en Éthiopie. Il a aussi été coach et membre du jury du Hackathon sur l’audiovisuel et l’éducation Hack’Xplor, tenu à Liège en Belgique puis au congrès de l’Oganisation internationale de la francophonie tenu en 2014 à Dakar au Sénégal. En plus de son rôle à Mamfakinch, il a aussi rédigé des articles pour d’autres médias comme Médias24.com, le principal média économique marocain, FutureChallenges.Org de la Bertelsman Foundation en Allemagne, ou encore le média français Le Monde 66 . 62. Staving off disaster through AI safety research | Practical AI | EM El Mhamdi & C Benson (2019) AI Alignment Podcast : The Byzantine Generals’ Problem, Poisoning, and Distribu63. ted Machine Learning with El Mahdi El Mhamdi (Beneficial AGI 2019) | FLI Podcast | EM El Mhamdi & L Perry (2019) 64. Is light-induced degradation of a-Si :H/c-Si interfaces reversible ? | Applied Physics Letters | EM El Mhamdi et al. (2014) 65. Breaking border for free expression | Google Public Policy | Bob Boorstin (2012) 66. Quel avenir pour la francophonie numérique ? | LeMonde.fr | El Mahdi El Mhamdi (2015)
296
CHAPITRE 17. À PROPOS DES AUTEURS
L’expérience Web, notamment celle de Wandida, fut une période d’interaction privilégiée avec les chercheurs en informatique et en intelligence artificielle. Cette intéraction lui a notamment permis de se rendre compte qu’au dela des chamboullement sociaux, l’informatique recèle surtout des questions scientifiques et épistémologiques fondamentales. Il décide alors de revenir à la recherche. Fin 2015, l’EPFL accepte de financer un poste pour que Wandida (et les initiatives pédagogiques du même genre) puissent être poursuivies, ce qui lui permet de se libérer pour entammer sa thèse de doctorat. Convaincu de la portée épistémologie de l’informatique, El Mahdi El Mhamdi veut œuvrer pour que l’apport de l’informatique dépasse celui de la technologie. Dans ce sens, il a co-écrit un travail épistémologique 67 avec le sociologue Dominique Boullier de Science Po. Ils y expliquent comment la science algorithmique, au dela des outils technologiques qu’elle offre aux autres sciences, notamment les sciences sociales, recèle des outils conceptuels encore peu connus et exploités par les autres disciplines, à savoir la théorie de la complexité algorithmique et la théorie de l’apprentissage. Dans le même esprit, il a été invité à donner une conférence en session pléniaire lors de la cinquième rencontre internationale des psychologues et psychiatres francophones experts en TDAH titrée « Ce que l’intelligence artificielle doit aux sciences cognitives et ce qu’elle peut leur rendre ». Le but de cette intervention (et d’autres du même type) est de sensibiliser l’audience au fait que, au-delà des « gadgets » et des « logiciels » d’aide à la décision médicale qui semblent intéresser les praticiens de la santé, l’IA est surtout une occasion de faire progresser la réflexion conceptuelle et épistémologique sur des questions comme « qu’est-ce que ”réfléchir” ? », « qu’est-ce que ”apprendre” ? » et comment, en revenant aux origines des méthodes actuelles en IA, qui trouvent leur sources en sciences cognitives et non en informatique traditionelle, on pourrait amorcer de meilleures discussions entre informaticiens et experts du cerveau.
67. Des modèles aux pratiques : le machine learnint à l’épreuve des échelles de complexité algorithmique | Revue d’anthropologie des connaissances | D Boullier & E.M. El Mhamdi (2019)