L'intelligence Artificielle en images 9782759819515

L’intelligence artificielle n’est plus de la science-fiction. Après un demi-siècle de recherches, nous avons abouti à de

199 75 45MB

French Pages 176 [177] Year 2016

Report DMCA / Copyright

DOWNLOAD PDF FILE

Recommend Papers

L'intelligence Artificielle en images
 9782759819515

  • 0 0 0
  • Like this paper and download? You can publish your own PDF file online for free in a few minutes! Sign Up
File loading please wait...
Citation preview

Dans la même collection : Les mathématiques en images, 2015, ISBN : 978-2-7598-1737-5 La génétique en images, 2015, ISBN : 978-2-7598-1767-2 La logique en images, 2015, ISBN : 978-2-7598-1748-1 La relativité en images, 2015, ISBN : 978-2-7598-1728-3 Le temps en images, 2014, ISBN : 978-2-7598-1228-8 La théorie quantique en images, 2014, ISBN : 978-2-7598-1229-5 La physique des particules en images, 2014, ISBN : 978-2-7598-1230-1 La psychologie en images, 2014, ISBN : 978-2-7598-1231-8

Édition originale : Artificial Intelligence, © Icon Books Lts, London, 2012. Traduction : Alan Rodney, relecture Gaëlle Courty Imprimé en France par Présence Graphique, 37260 Monts Mise en page de l’édition française : studiowakeup.com

ISBN : 978-2-7598-1772-6 Tous droits de traduction, d’adaptation et de reproduction par tous procédés, réservés pour tous pays. La loi du 11 mars 1957 n’autorisant, aux termes des alinéas 2 et 3 de l’article 41, d’une part, que les « copies ou reproductions strictement réservées à l’usage privé du copiste et non destinés à une utilisation collective », et d’autre part, que les analyses et les courtes citations dans un but d’exemple et d’illustration, « toute représentation intégrale, ou partielle, faite sans le consentement de l’auteur ou de ses ayants droit ou ayants cause est illicite » (alinéa 1er de l’article 40). Cette représentation ou reproduction, par quelque procédé que ce soit, constituerait donc une contrefaçon sanctionnée par les articles 425 et suivants du code pénal. © EDP Sciences, 2015

2

L’Intelligence Artificielle Nous avons été les témoins, depuis cinquante ans environ, d’intenses recherches sur la construction de machines dites « intelligentes », c'est-à-dire dans la création d'Intelligence Artificielle. Désormais, des machines jouant aux échecs sont capables de battre les meilleurs maîtres humains et, par ailleurs, des robots peuvent se déplacer dans de nouveaux environnements et interagir avec les gens.

De nombreux progrès ont des applications pratiques…

Les systèmes d’ordinateur peuvent extraire des connaissances d’immenses masses de données afin d’aider les chercheurs à découvrir de nouveaux traitements médicamenteux. Des machines intelligentes…

… peuvent faire la différence entre la vie et la mort.

Des systèmes d'ordinateur sont installés dans les aéroports pour « renifler » la présence d’explosifs cachés dans les bagages. Le matériel militaire dépend de plus en plus de ces recherches en équipements intelligents : les missiles modernes peuvent trouver et verrouiller leurs cibles au moyen de systèmes de vision assistée par ordinateur. 3

La problématique de l’Intelligence Artificielle (IA) La recherche en Intelligence Artificielle (IA) a donné lieu à de véritables succès technologiques. Mais, plus important encore peut-être, l’IA – comme nous la désignerons en abrégé par la suite – soulève des questions qui dépassent le cadre de projets strictement techniques.

Le Graal de l’IA sera la compréhension de l’Homme en tant que Machine.

L’Intelligence Artificielle vise aussi à proposer une théorie générale de l’action intelligente des AGENTS : pas seulement des êtres humains ou des animaux, mais des individus (ou entités) au sens large.

La capacité d’un agent peut dépasser ce que nous pouvons imaginer aujourd’hui. C’est une aventure extraordinairement courageuse qui aborde de façon frontale des débats philosophiques faisant rage depuis des milliers d’années. 4

Mais d’abord, qu’est-ce qu’un « agent » ? On définit l’agent comme quelque chose ayant un comportement intelligent. Cela peut être un robot ou un programme d’ordinateur. Les agents physiques, tels que les robots, peuvent être spécifiés clairement. Ils prennent la forme de dispositifs ou d'assemblages physiques qui interagissent avec un environnement physique. Toutefois, la majeure partie des recherches en IA concernent les agents virtuels ou de logiciel, dont l’existence est contenue dans l’environnement virtuel que représente un ordinateur.

Cette distinction entre agent physique et agent virtuel n’est pas toujours des plus claires.

Les chercheurs peuvent mener des expériences avec des agents VIRTUELS qui peuvent prendre une forme PHYSIQUE en les téléchargeant dans le corps d'un robot.

Un agent peut lui-même comprendre de nombreux sous-agents.

Certains systèmes d’IA peuvent résoudre des problèmes en utilisant des techniques observées dans les colonies de fourmis. Dans cet exemple, ce qui semble être l’œuvre d’un seul agent peut dépendre du comportement collectif de centaines de sous-agents. 5

L’IA en tant que science empirique L’Intelligence Artificielle représente une entreprise énorme. Marvin Minsky (1927-), l’un des pères fondateurs de la discipline, opinait : « Le problème de l’IA est l’un des plus difficiles jamais abordés par la science ». L’IA a un pied dans la science et l’autre dans la technologie et l’ingénierie. Dans sa forme la plus extrême, connue sous le nom D’IA FORTE, son but est de construire une machine capable d’être consciente, de penser et d’avoir des émotions. Ce point de vue soutient l’idée que les Hommes ne sont rien de plus que des ordinateurs complexes.

L’IA FAIBLE est moins audacieuse.

6

L’objectif assigné à l’IA Faible est de développer des théories de l’intelligence humaine et animale, puis de les tester en construisant des modèles de validation, le plus souvent sous la forme de programmes pour ordinateurs ou de robots.

Un chercheur en IA considère ces modèles comme autant d’outils pour aider à comprendre ce qui se passe.

Cela ne suggère pas que les machines elles-mêmes puissent être le siège de pensées, de consciences ou d’émotions.

En résumé, le modèle en IA Faible est un outil qui sert à comprendre l’esprit : pour les tenants de l’IA Forte, le modèle est un esprit. 7

L’IA et l’ingénierie extraterrestre L’IA vise aussi à créer une « machinerie » qui n’est pas nécessairement basée sur l’intelligence humaine ou animale.

De telles machines peuvent faire preuve d’un comportement intelligent, mais la base de ce comportement n’est pas importante en soi.

Le but est de concevoir des machines intelligentes, quels que soient les moyens mis en œuvre.

Et puisque les mécanismes sous-jacents à de tels systèmes ne sont pas censés être le miroir des mécanismes qui sous-tendent l’intelligence humaine, cette approche de l’IA est parfois surnommée IA extraterrestre (IA des Aliens). 8

Comment résoudre le problème de l’IA Pour certains, résoudre le problème de l’IA reviendrait à identifier les moyens nécessaires à la construction de machines dotées de capacités égales ou supérieures à celles des humains.

Les Hommes et les animaux pourraient s’avérer être les moins intelligents dans une classe d’agents intelligents qui reste à découvrir.

Le but de l'IA Forte suscite de vifs débats et pourrait se révéler en définitive impossible à réaliser.

Mais pour la plupart des chercheurs qui y travaillent, l'issue d’un débat sur l’IA Forte n’a que peu de répercussions directes. 9

Une ambition contenue L’IA, dans sa forme faible, s’occupe davantage du degré auquel nous pouvons expliquer les mécanismes qui sous-tendent les comportements humains et des animaux.

On se sert de la construction de machines intelligentes pour comprendre des actions intelligentes.

L’IA Forte est très ambitieuse et se fixe des buts qui pourraient être tout simplement hors de notre portée.

Cette position forte s’oppose à l'objectif, plus répandu et plus prudent, de construire des machines intelligentes – comme cela est déjà fait aujourd’hui – atteint par la réussite de projets techniques. 10

Pousser l'IA dans ses retranchements L’immortalité et le transhumanisme « Nous ne pouvons pas plus empêcher l’IA de se répandre que l’homme primitif ne pouvait arrêter la dissémination du langage » – Douglas B. Lenat (1950-), directeur de Cycorp Inc., Austin, Texas, et son mentor Edward Feigenbaum (1936-), colauréat du prix Turing en 1994. Si nous supposons que l’IA Forte est une réelle possibilité, nous devons alors aborder plusieurs questions fondamentales. Imaginez que vous pouvez quitter votre corps et placer votre esprit dans une machine ayant de bien meilleures perspectives de vie à long terme que votre corps organique et vieillissant que vous « habitez » pour le moment.

Cette possibilité est promue par les TRANSHUMANISTES et les EXTROPÉIENS.

Le problème que l’IA Forte vise à résoudre se doit d’éclairer cette possibilité. L’hypothèse de l’IA Forte est que la pensée – comme d’autres caractéristiques mentales d'ailleurs – n’est pas indissociablement liée à notre corps organique. Atteindre l’immortalité devient alors possible, car nos vies mentales pourraient être hébergées sur des supports plus durables que nos corps. 11

L’Intelligence surhumaine Notre capacité intellectuelle est peut-être limitée par la conformation de notre cerveau. C’est une structure qui a évolué pendant des millions d’années. Il n’y a aucune raison de supposer qu’il ne puisse évoluer encore davantage, soit par l’évolution naturelle et biologique, soit par des interventions d'ingéniérie humaine. Le travail qu’accomplit notre cerveau est tout à fait étonnant au vu de sa « machinerie » très lente comparée aux composants bon marché qui équipent nos ordinateurs.

Des cerveaux construits à partir d'une « machinerie » plus sophistiquée pourraient donner naissance à une « intelligence surhumaine ».

Pour certains, cela constitue l’un des objectifs de l’IA.

12

Des disciplines proches de l’IA « Certum quod factum » [On ne peut être certain que de ce que l’on construit soi-même], Giambattista Vico (1668-1744). Ce qui distingue l'IA des autres tentatives pour comprendre les mécanismes qui sous-tendent la cognition humaine et animale se donne comme but d’atteindre cette compréhension par la construction de modèles opérationnels. Par cette construction synthétique de modèles opérationnels, l’IA peut tester et développer des théories d’une action intelligente.

Les grandes questions sur les « processus mentaux » qu’aborde l’IA sont liées à certaines disciplines, parmi lesquelles la psychologie, la philosophie, la linguistique et les neurosciences.

Le but assigné à l’IA – construire des machines intelligentes – est sous-tendu par la logique, les mathématiques et l’informatique.

Une découverte significative dans une quelconque de ces disciplines peut impacter le développement de l’IA.

13

L’IA et la psychologie Les objectifs de l’IA et de la psychologie se recouvrent en partie. Les deux disciplines visent à comprendre les processus mentaux qui déterminent les comportements humain et animal. Vers la fin des années 1950, les psychologues ont commençé à abandonner l’idée que seul le comportementalisme allait nous permettre de comprendre scientifiquement les humains. Le chien de Pavlov

Les comportementalistes croient que les explications des comportements humain et animal ne doivent pas faire appel à des « entités mentales » non-observées. Nous devrions nous focaliser plutôt sur ce qui est avéré : LES OBSERVATIONS COMPORTEMENTALES.

Au lieu de se limiter à l’étude des rapports stimuli-réponses, ceux qui ont délaissé le comportementalisme ont commencé à s’intéresser à des processus « mentalistes » internes, tels que la mémoire, l’apprentissage et le raisonnement, autant de concepts valables pour expliquer pourquoi les humains agissent intelligemment.

14

La psychologie cognitive À cette même époque, l’idée qu’un ordinateur pouvait servir de modèle de la pensée gagnait du terrain. En rapprochant ces deux concepts, on en est venu tout naturellement à suggérer une approche de la psychologie fondée sur une théorie « computationnelle » du fonctionnement de notre esprit.

En 1957, HERBERT SIMON (1916-2001), économiste américain qui s’est d’abord intéressé à la psychologie cognitive et l’un des pionniers de l’IA, prédit…

… qu’en moins d’une décennie, les théories psychologiques auraient la forme de programmes informatiques.

La fin des années 1960 a vu l’émergence de la psychologie cognitive comme une « branche » de la psychologie qui étudie et explique les fonctions cognitives en termes de traitement informatique et où, finalement, l’ordinateur devient une métaphore de la cognition. 15

Les sciences cognitives Il est clair que l’IA et la psychologie cognitive ont beaucoup de points communs.

C’est ce recouvrement qui a donné lieu à la discipline des SCIENCES COGNITIVES.

L’IA se situe aux côtés de la psychologie cognitive au cœur d’une approche interdisciplinaire visant à comprendre l'activité intelligente.

Les concepts présentés dans ce livre sont autant attribués aux sciences cognitives qu’à l’IA.

16

L’IA et la philosophie Certaines questions fondamentales abordées par l’IA ont constitué la matière « dure » des philosophes depuis des milliers d’années. L’IA est peut-être unique parmi les sciences. Elle entretient un rapport intime et réciproque avec la philosophie.

Lors d’une enquête, on a demandé à des chercheurs en IA de quelle spécialité ils se sentaient le plus proches.

La réponse la plus fréquente était LA PHILOSOPHIE.

17

Le dilemme corps-esprit C’est un problème philosophique remontant à l'époque de René Descartes (1596-1650), qui défendait l’idée selon laquelle il doit exister une différence fondamentale entre le domaine de l’esprit et celui du corps. Pour Descartes, l’Homme est le seul à posséder une faculté mentale ; les animaux étant de simples bêtes sans vie mentale à proprement parler. Mais dans le cas de l’Homme, comment et à quel point le corps physique peut-il être affecté par des processus qui existent dans le domaine mental NON-PHYSIQUE ?

C’est un dilemme qui remonte à la nuit des temps…

18

L’IA alimente actuellement des discussions sur le dilemme corps-esprit en proposant la métaphore informatique, établissant un parallèle entre le rapport qu’entretiennent les programmes avec les ordinateurs et l’esprit avec le cerveau physique.

Un programme informatique, tout comme l’esprit, ne possède pas de « masse » et pourtant, à l’évidence, il crée un lien causal avec l’ordinateur qui va exécuter ce programme.

De même, notre esprit peut affecter notre corps.

Les programmes informatiques ont besoin d’ordinateurs pour se manifester, comme l’esprit a besoin d’un cerveau.

19

Ontologie et herméneutique Des tentatives pour équiper des machines intelligentes exigent que l’on fasse des suppositions ontologiques. L’ontologie est la branche de la philosophie qui traite des espèces (ou familles) de choses qui existent. Des projets en IA, qui durent des dizaines d’années, ont essayé de distiller des connaissances de bon sens dans les ordinateurs. Pour ce faire, les concepteurs doivent décider quelles choses une machine doit connaître pour avoir une vision « sensée » du monde.

La herméneutique philosophique a critiqué avec véhémence la possibilité même de formaliser les processus mentaux de cette manière...

Récemment, ces critiques ont donné lieu à de nouvelles approches de la cognition et ont une influence positive sur l’IA. Nous y reviendrons par la suite. 20

Un démarrage positif L’expression « Intelligence Artificielle » a été proposée pour la première fois en 1956 lors d’une petite conférence organisée au Dartmouth College, New Hampshire, États-Unis. Quelques-uns des meilleurs protagonistes ont débattu de l’hypothèse suivante…

« N’importe quel aspect de l’apprentissage ou toute autre manifestation de l’intelligence peut en principe être décrit avec une précision telle que l’on pourra assembler une machine permettant de le modéliser. »

Depuis cette rencontre, cette hypothèse a été régulièrement soumise à d’intenses travaux de recherche. Nombre d’inscrits à la conférence ont poursuivi leurs recherches pour devenir des acteurs décisifs dans cette nouvelle discipline, connue sous son sigle AI en anglais (IA en français). 21

Optimisme et affirmations téméraires La conférence de Dartmouth a duré deux mois. Deux des participants, Allen Newell et Herbert Simon, ont largement contribué aux débats, arguant que…

Nous avons conçu un programme informatique capable de raisonner de façon non-numérique…

… résolvant, du même coup, la mythique question du lien esprit-corps.

C’était peut-être la première d’une longue série d’affirmations qui jalonnent l’histoire de l’IA.

L’IA a toujours suscité un grand intérêt. La possibilité qu’il y ait des machines qui pensent a été l’un des piliers de la science-fiction. Cela est dû, en partie, à notre fascination quant aux limites de la technologie, ainsi qu’à des chercheurs enthousiastes travaillant dans le domaine de l’AI. 22

L’une des critiques entendues fréquemment sur l’IA vise son autosatisfaction sans bornes ou, pour reprendre l’expression de Théodore Roszak (1933-2011), parue en 1986 dans New Scientist : « L’histoire de déception effrontée des chercheurs en IA n’a pas son pareil dans les annales de la recherche scientifique. » En 1957, Herbert Simon défendait l’idée que les machines pouvaient penser…

« Ce n’est pas dans mes intentions de vous surprendre ou de vous choquer – mais… il existe dans le monde aujourd’hui des machines capables de penser, d’apprendre et de créer. »

Cinquante ans plus tard, le doute est toujours permis quant à cette affirmation. Les machines peuvent-elles réellement penser ? Comme nous le verrons plus loin, c’est une question importante, truffée toutefois de problèmes conceptuels. Néanmoins, on peut admettre qu’il existe des machines « capables » d’apprendre et de créer. 23

Intelligence et cognition Qu’est-ce exactement que l’intelligence et comment décidons-nous que quelque chose est en réalité un artéfact et non une chose réelle ? Aucune de ces questions n'admet de définition précise, ce qui fait d’ailleurs qu’accoler les termes de « Intelligence et Artificielle » fut un choix malheureux pour une discipline scientifique. En ce qui concerne le concept de l’intelligence, Arthur S. Reber (1940-), psychologue cognitiviste américain, avait noté, en 1995, que « peu de concepts en psychologie ont reçu plus d’attention et peu d’entre eux ont résisté si efficacement à des tentatives de classification ».

Dans le contexte de l’IA, le meilleur sens que peut prendre le terme « intelligent » est « qui démontre un comportement intéressant ».

On détecte des comportements intéressants chez les fourmis, les termites, les poissons et chez la plupart des animaux…

Mais on ne considère pas ces animaux comme étant intelligents au sens communément admis.

24

L’intelligence, c’est la partie   « computationnelle » de notre capacité à atteindre des buts. On trouve des formes et des degrés d’intelligence variables chez les Hommes, chez de nombreux animaux et dans des machines.

Ainsi il existe des degrés différents d’intelligence, les humains se trouvant dans la partie « supérieure » du spectre.

Les humains manifestent sans aucun doute des comportements intéressants que l’on ne voit pas chez d’autres organismes vivants – par exemple, ils maîtrisent le langage.

Le rapport entre comportement et intelligence est très problématique. Pour illustrer cela, nous allons nous intéresser au premier jalon d’une robotique autonome. 25

Le mimétisme de la vie Au cours des années 1950, dans la ville de Bristol (Somerset, Angleterre), William Grey Walter (1910-1977), neurophysiologiste et roboticien britannique, pionnier de l’assemblage de robots autonomes, avait effectué un travail déterminant bien avant la mise en place d’ordinateurs permettant de puissants calculs numériques. Il s’intéressait à la discipline appelée Cybernétique – l’étude de la gamme de tous les comportements possibles des animaux et des machines.

La cybernétique se base sur la supposition que les lois qui gouvernent les actions des Hommes, des animaux et des machines ont une portée UNIVERSELLE.

Cela implique que les mêmes principes de comportement s’appliquent aux trois sphères (humaine, animale et mécanique), même si leur matière constitutive est très différente.

Walter s’intéressait au « mimétisme de la vie » et a construit des robots qui continuent de nous intéresser aujourd’hui. À partir de matériaux très basiques, tels que, par exemple, des rouages de compteurs à gaz, Walter a assemblé une série de « machines » qui ressemblaient à des tortues. 26

Ces robots étaient autonomes, donc ne demandaient aucune intervention humaine ou contrôle extérieur pour commander leur comportement. Les robots de Walter étaient équipés de trois roues, entourées d'une carapace équipée pour détecter les collisions.

En plus de posséder cette faculté de détecter d'éventuelles collisions avec d’autres objets, le robot-tortue était équipé d’un capteur de lumière…

J’ai été conçu pour être attiré par la lumière.

Avec deux moteurs agissant sur la roue avant, l’une pour la direction, l’autre pour la propulsion, le robot était programmé pour se diriger vers des sources de lumière. Cependant, quand la lumière était trop forte, une partie de la programmation du robot l’empêchait de s’en approcher. 27

Des comportements complexes Walter a raconté que l’une de ses « créatures », du nom d’Elsie, avait un comportement imprévisible. Par exemple, Walter avait placé dans son environnement une niche avec une lumière forte et une station de recharge des batteries du robot.

Après s’être déplacée un peu partout, à droite et à gauche, à grande vitesse, comme le ferait un animal, les batteries d’Elsie se sont épuisées et, à ce moment-là, son comportement habituel, qui consistait à éviter la niche fortement illuminée, a changé radicalement.

Au fur et à mesure que mes batteries s’épuisent, ma sensibilité à la lumière diminue.

Elsie entrait dans ce qu’elle percevait à présent comme une niche faiblement éclairée et y rechargeait ses batteries. Une fois la charge complète effectuée, Elsie récupérait sa pleine sensibilité et sortait en trombe de la niche pour reprendre ses déplacements erratiques comme avant. 28

Elsie est-elle intelligente ? Les créatures conçues par Walter étaient rustiques comparées aux normes modernes, mais elles révélaient des problèmes de la robotique moderne, notamment sur l’apparition de comportements complexes chez des machines censées être simples. Walter ne disposait d’aucun moyen pour prédire le comportement exact de ses robots-tortues.

Elsie a un comportement qui dépend beaucoup trop de son environnement et de facteurs tels que la diminution de ses réserves de batterie.

Je pourrais sûrement accomplir des tâches dans le monde externe, puisque j’ai la possibilité de maintenir durablement le niveau de mes batteries.

Mais les capacités d’Elsie sont bien loin de ce que nous pouvons appeler une « véritable » intelligence. Il est important de noter qu’Elsie avait beaucoup de points communs avec un célèbre cheval appelé « Clever Hans ». 29

Clever Hans, un récit à prendre avec des pincettes Clever Hans était un célèbre cheval qui avait appris à effectuer des opérations d’arithmétique avec son entraîneur Wilhelm Von Osten. Hans, en frappant son sabot au sol, donnait la bonne réponse aux problèmes posés, au grand étonnement de la foule, et ne commettait que rarement de fautes. Des experts ont validé les dires de l’entraîneur : ce cheval avait réellement appris l’arithmétique. Mais un autre expert avait remarqué que le cheval donnait une mauvaise réponse quand Von Osten lui-même ne connaissait pas la réponse. Le subterfuge était découvert.

En réalité, le cheval recevait des signaux de Von Osten pour indiquer quand arrêter de frapper le sol.

Commettre une « faute de type Clever Hans » signifie attribuer par erreur une capacité à un agent particulier quand, en réalité, la réponse attendue provient de l’environnement – en l’occurrence d’un humain, l’entraîneur, doué en opérations arithmétiques. 30

Ceux et celles qui ont cru aux dons de Clever Hans ont attribué l’intelligence de l’entraîneur Von Osten au cheval. Des critiques du même ordre ont été adressées aux robots-tortues de Walter.

L’environnement dans lequel évoluaient les robots de Walter avait été soigneusement conçu pour obtenir le comportement voulu.

Hans et Elsie semblaient se comporter de manière intelligente, mais ni l’un ni l’autre ne possédaient en réalité cette capacité, contrairement à ce que pouvait laisser suggérer leur comportement.

Hans ne sait pas compter, pas plus qu’Elsie n'a envie de recharger ses batteries.

Ces exemples servent à illustrer le problème d'attribution d'une certaine capacité à un agent, seulement en observant son comportement. Comment l’IA peut-elle prétendre construire des machines intelligentes quand une action intelligente dépend si étroitement de son environnement ? La majorité des recherches en IA esquivent la question de deux manières. D’abord, en se concentrant sur des phénomènes cognitifs d'agent en dehors des complexités apportées par l’environnement réel. Ensuite, l'IA étudie préférentiellement des processus cognitifs internes, plutôt que d’analyser les comportements mis en évidence par des observations extérieures. 31

Langage, cognition et environnement La position affichée des chercheurs sur la cognition et l’environnement est mise en exergue par le linguiste américain, expert en cognition, Noam Chomsky (1928-). L’intuition forte de Chomsky est que nous naissons tous avec une forte disposition biologique pour le langage.

J’ai pu noter que les enfants, quel que soit leur lieu de naissance, arrivent tous à maîtriser un contenu complexe de langage.

L’ENTRÉE (au sens informatique) pour l’enfant correspond au discours de ses parents et à celui d’autres humains.

LA SORTIE est une maîtrise manifestement « complète » du système complexe grammatical qui sous-tend n’importe quelle langue naturelle.

32

Concernant le rapport entre les entrées et les sorties, Chomsky déclare : « Un ingénieur appelé à concevoir un dispositif qui remplirait les conditions nécessaires et suffisantes imposées par les entrées et sorties conclurait naturellement que les propriétés de base de la réponse résultent de la conception elle-même. Et tel que je vois les choses, il n’y a pas d’alternative plausible. »

De manière critique, la quantité d’entrées à laquelle un enfant est confronté est largement en deçà de la quantité de connaissances qu’il va finalement acquérir.

Je donne à ce phénomène le nom de PAUVRETÉ DU STIMULUS entrant et je maintiens que nous NAISSONS avec une connaissance certaine du langage.

En d’autres termes, quand nous considérons les aptitudes humaines pour le langage, l’environnement ne joue qu’un rôle mineur. Pour Chomsky, le langage est un processus cognitif qui n’est que « partiellement formaté » par l’environnement. 33

Deux pistes qui traitent des questions de l’IA La position sur le langage adoptée par Chomsky constitue le schéma fédérateur de la majorité des travaux de recherche en IA de ces cinquante dernières années. La recherche en IA se concentre, pour l’essentiel, sur les processus dits de « haut niveau » de la cognition, tels le langage, la mémoire, l’apprentissage et le raisonnement. Une présupposition forte de l’IA est que l’on peut comprendre ces capacités sans devoir tenir compte de leurs relations troubles avec un environnement complexe qui, par ailleurs, ne cesse d’évoluer. 

La robotique, cependant, est engagée dans une bataille sans fin contre les complexités du monde réel ; par conséquent, elle est à l'origine d'un ensemble de problèmes très différents.

Notre propos est de montrer comment ces deux pistes ont été explorées et développées au cours du dernier siècle. On ne pourra parler de succès — qu’il s’agisse de l’IA Forte ou de l'IA Faible — que lorsque les résultats des deux pistes seront confrontés et unifiés. Cela devrait se produire à terme, la recherche en IA visant à créer des robots opérationnels dotés de capacités cognitives dites de haut niveau. 34

Le dogme central de l’IA : le cognitivisme L’Intelligence Artificielle est basée sur l’idée que la cognition est « computationnelle » : l’esprit et le cerveau ne sont rien d'autres qu’un ensemble formant un ordinateur élaboré. C’est le point de vue des cognitivistes. Le cognitiviste affirme que tous les aspects de la cognition – nos processus mentaux comprenant l’apprentissage, la mémoire, voire nos émotions – peuvent être effectués par des ordinateurs.

Mais pour saisir le sens profond de cette affirmation, il nous faut une meilleure compréhension de ce qu’est la COMPUTATION.

35

Qu’est-ce que la computation ? « Je rejette toute proposition qui suppose que la computation peut être définie ». Brian Cantwell Smith, professeur à l’Université de Toronto, Canada. La notion de computation est au cœur du cognitivisme et, pourtant, la computation est notoirement difficile à définir. En termes simples, le sens à donner à ce mot est « types de calculs effectués par les ordinateurs ».

Comme première approximation, cette définition est satisfaisante.

Mais il s’agit là d’une affirmation empirique. Elle nous renseigne seulement sur la nature des calculs que nos ordinateurs actuels peuvent effectuer.

En dépit de ce manque de définition précise, la théorie de la computation constitue une branche bien développée et rigoureuse de l’informatique qui s’inspire énormément de la machine de Turing. Le mathématicien britannique Alan Turing (1912-1954) fut un pionnier important dans l’histoire de l’IA, de la logique et de l’informatique naissante. 36

La machine de Turing L’une des réussites de Turing fut sa proposition de créer un dispositif de calcul virtuel, connu plus tard comme la machine de Turing. Celle-là était imaginaire et comprenait, entre autres parties, un ruban infiniment long portant des inscriptions symboliques.

Le ruban avec ses inscriptions est soumis à un sous-ensemble qui effectue un « CONTRÔLE PAR ÉLÉMENTS FINIS ».

Le contrôle par éléments finis définit un ensemble d’états de la machine, qui dépendent du contenu du ruban.

La machine de Turing a fait avancer nos connaissances théoriques du calcul informatisé. Grâce à sa machine virtuelle, Turing a obtenu des résultats fondamentaux qui restent vérifiables quels que soient les ordinateurs considérés, Turing y est parvenu avant même l’invention des ordinateurs tels que nous les connaissons aujourd’hui. 37

Le cerveau : un dispositif de calcul ? En 1943, informés des travaux de Turing sur la computation, Warren McCulloch (1898-1968) et Walter Pitts (1923-1969) ont publié « A Logical Calculus of the Ideas Immanent in Nervous Activities »*. Dans cet article, les auteurs expliquent comment les neurones du cerveau agissent comme de minuscules ordinateurs. Quand il était adolescent, Pitts se faufilait dans les salles de classe de l’Université de Chicago. Impressionné par ses talents précoces en logique, un physiologiste, Warren McCulloch, l’a invité à travailler avec lui.

Nous avons entrepris ensemble, et avec succès, des travaux qui ont révolutionné les sciences du cerveau.

Nous avons expliqué comment de petits groupes de neurones agissent comme des PORTES LOGIQUES – celles qui constituent les briques élémentaires de nos ordinateurs modernes.

et ou ni Finalement, ils ont réussi à démontrer que des réseaux de neurones peuvent exécuter correctement n’importe quel calcul, réalisable par une machine de Turing. Par conséquent, leur découverte signifiait que l’on pouvait considérer les cerveaux comme des ordinateurs, semblables dans leur manière d'opérer à la machine de Turing. * Le calcul logique des idées immanentes dans les activités nerveuses.

38

La « computation » universelle Tous les ordinateurs, même les plus récents, les plus sophistiqués ou les plus coûteux, ont leurs limites. Les calculs qu’ils peuvent traiter sont exactement ceux réalisables par la machine de Turing. Ce constat implique que nous n’avons qu’à nous référer à la machine de Turing pour distinguer ce qui est « calculable » de ce qui ne l’est pas. Toutes les machines, y compris les cerveaux humains, peuvent être réduites à une machine de Turing.

Les types de calculs possibles avec un ordinateur ou un cerveau sont identiques à ceux possibles en utilisant la machine de Turing.

Ces résultats prouvent que nous pouvons considérer la machine de Turing comme un MODÈLE DE COMPUTATION UNIVERSELLE.

Tout calcul qu’il est possible d’effectuer par le biais de votre ordinateur ou par votre cerveau peut être réalisé aussi en utilisant une machine virtuelle de Turing, vieille pourtant de 80 ans. 39

La computation et le cognitivisme Bien que l’on puisse assimiler tous les ordinateurs à une machine de Turing concernant le type de calculs qu’ils peuvent effectuer correctement, les opérations peuvent se dérouler de façons très différentes.

La machine de Turing lit et transcrit des symboles sur un ruban virtuel…

Un ordinateur de bureau (PC) effectue une série d’opérations de base sur ses processeurs par le biais d’une mémoire appelée RAM (Random Access Memory [mémoire à accès aléatoire]).

Le cerveau humain effectue ses opérations au travers d’un vaste réseau de neurones. Quand nous parlons de « computation » en termes de classes de calculs possibles sur ordinateur, nous en apprenons un peu plus sur les résultats des calculs plutôt que sur la manière dont les ordinateurs y parviennent. Alors, quel est le modèle de computation proposé par le cognitivisme ? Et l’esprit, comment calcule-t-il ? 40

Le cerveau-machine Tout au long de notre Histoire, les scientifiques n’ont cessé de dire que l’activité cérébrale etait mécanique. À la Renaissance, on avait rapproché cette activité mécanique de celle d’une horloge et même, plus tard, de celle des machines à vapeur. Au cours du siècle passé, par analogie, la métaphore est devenue celle du central téléphonique.

Mais aucune métaphore n’a été soumise à autant d’analyses que CELLE DU CERVEAU.

La métaphore de l’ordinateur énonce que le rapport entre le cerveau et l’esprit est semblable à celui liant matériel et logiciel.

Le cerveau est comme le matériel informatique : c’est un dispositif physique. L’esprit correspond aux logiciels : il a besoin du matériel physique pour fonctionner mais, n’ayant aucune masse, il n’est pas matérialisé. 41

La séparation fonctionnaliste de l’esprit et du cerveau Le fonctionnalisme défend l’idée que ce sont les types d’opérations que comporte une computation qui sont importants, plutôt que la nature de leur instanciation physique. Pour autant que les deux processus effectuent la même fonction, ils peuvent être considérés comme étant identiques. Ainsi, le fonctionnalisme implique une réalisation multiple, puisque la même opération peut être effectuée de différentes manières.

Pour donner un exemple, le même logiciel de tableur peut être exécuté sur différents types d’ordinateur.

Ce qui importe, c'est que les fonctions inhérentes au tableur soient identiques. Mais elles peuvent être mises en œuvre de plusieurs façons différentes. Le fonctionnaliste va énoncer que la cognition n’est pas liée exclusivement à une forme de machine donnée. L’esprit est particulier en raison des catégories d’opérations qu’il est capable d’effectuer, plus que pour le fait qu’il a pour support physique un cerveau composé de près de 100 milliards de neurones. 42

L’hypothèse du système de symboles physiques C’est en 1976 qu’Allen Newell (1927-1992), chercheur en informatique et psychologie cognitive, et Herbert A. Simon ont publié leur « physical symbol system hypothesis (PSSH) », une hypothèse qui propose un ensemble de propriétés caractérisant les catégories de computation qu’utilise le cerveau. Cette PSSH énonce qu’une action intelligente doit se baser sur la manipulation syntactique de symboles, résumée ainsi : « Un système de symboles physiques possède les moyens nécessaires et suffisants pour entreprendre une action intelligente ». Cela implique que la cognition requiert la manipulation de représentations symboliques et que ces dernières se réfèrent à des objets/notions qui existent dans le monde réel. Le système doit être mis en œuvre physiquement, mais sa « matière » constitutive importe peu.

Si je comprends bien, cette matière pourrait très bien être des neurones, mais aussi de la silicone, voire des boîtes de conserve.

Pour l’essentiel, Newell et Simon ont commenté le type de programme exécuté par l’ordinateur – mais ils n’ont rien dit quant au type d’ordinateur utilisé pour exécuter ces programmes. 43

Vers une théorie de l’action intelligente L’hypothèse de Newell et Simon tente de clarifier la question de savoir quels types d’opérations sont nécessaires pour mener une action intelligente. Toutefois, la PSSH n’est qu’une hypothèse et elle doit être vérifiée. Sa validité doit être démontrée ou réfutée au moyen d’expériences menées par des scientifiques. Il est convenu que l’IA est la science de vérification de cette hypothèse. Rappelons que la PSSH défend une position relative aux types de programmes exécutés par le cerveau humain.

De la sorte, si vous identifiez le BON PROGRAMME, vous avez tout ce qu’il vous faut pour défendre une théorie d’une action intelligente.

Newell et Simon avaient adopté une position fonctionnaliste et la nature même de l’équipement n’était pas leur préoccupation principale.

44

Une machine pourrait-elle réellement penser ? Examinons à présent ce que défendent les cognitivistes et, pour commencer, supposons qu’ils aient réussi à atteindre les objectifs de l’IA Forte, en assemblant une machine intelligente qui pense réellement. Devons-nous les croire ? Ou bien le cognitivisme est-il naïf ? Peut-être existe-t-il un argument décisif démontrant qu’une machine ne peut pas penser. Alan Turing, dans un article majeur publié en 1950, intitulé « Les machines à calculer et l’intelligence », s’était penché sur la question : « Les machines peuvent-elles penser ? ». Turing était d’avis que la question était mal formulée et « si dénuée de sens qu’elle ne méritait pas d’être débattue ».

J’ai remplacé la question du titre par le JEU DE L’IMITATION.

Ce jeu consiste, pour un humain qui reçoit une communication par ordinateur, à décider si l’agent à l’autre bout de la liaison est un humain ou bien un ordinateur.

L’envoyeur et le récepteur se trouvent dans des pièces séparées… 

45

Le test de Turing L’humain devant son écran peut poser n’importe quelle question et, en se basant sur les réponses — qui ne sont pas nécessairement « honnêtes » — doit décider s'il a affaire à un autre être humain ou à un robot. Pour son test, Turing a donc imaginé le dialogue : S’il vous plaît, composez-moi un sonnet qui a pour sujet un pont à Paris.

Faites l’addition 34 957 + 70 764.

Après une attente de 30 secondes…

Si l’ordinateur peut faire croire à l’humain qu’il est lui aussi humain, il aura réussi le test de Turing. 46

Le problème avec la question « Les machines peuvent-elles penser ? » est qu’elle est étroitement liée au sens du terme « penser ». Qu'est-ce exactement que la pensée ? Comment pouvons-nous décider quand une pensée a lieu ? Si l'on se réfère à un usage quotidien du mot, on renverrait la question posée, selon Turing, à une analyse par sondage.

Mais ce n’est pas comme ça que nous voulons décider si une machine est capable ou non de penser.

Noam Chomsky aussi avait des problèmes avec cette question.

C’est comme si l'on demandait : « les sous-marins savent-ils nager ? »

Les réponses, quelles qu’elles soient, traitent peu des faits mais plus « d'aiguisage » de notre utilisation de mots comme « penser » ou « nager ». 47

Le Prix Loebner En 1990, à l'initiative de Hugh Loebner (1942-), le test de Turing est devenu un concours annuel connu sous le nom de Prix Loebner. La première personne qui concevra un ordinateur capable de « réussir le test de Turing » recevra 70 000 euros et la médaille d’or. Jusqu’à ce jour, personne n’a gagné cette médaille mais certains concurrents ont reçu une médaille de bronze et de l’argent récompensant des tentatives jugées les meilleures de l’année. Voici un extrait d’une des conversations entre un humain-juge et un ordinateur. Dites-moi, Ella, si vous achetez une vache pour 10 dollars, combien vous coûteront deux vaches ?

Pour l’instant, je ne veux pas d’une histoire drôle. Je veux savoir combien vont coûter deux vaches.

48

Non, alors allez-y. Racontez-moi une histoire drôle.

Pourquoi pas ?

Non, je veux une histoire d’avocats.

Il est peu vraisemblable qu’un ordinateur, aussi performant soit-il, réussisse le test de Turing dans un avenir proche. 49

Problèmes avec le test de Turing Beaucoup de critiques soulignent – au sujet de ce « jeu de l’imitation » proposé par Turing – qu’il ne s’agit pas d'un test d’intelligence ou de pensée. Leur argument principal est que ce test ne prend en compte que le seul comportement linguistique de la machine et laisse de côté la question de savoir comment elle fonctionne. « Le but fondamental de cette recherche n’est pas simplement de copier l’intelligence ou de produire un ‘faux’ plus vrai que vrai. Pas du tout. L’IA ne cherche que des machines dotées d’esprit, au sens entier et littéral du terme » – John Haugeland (1945-2010), Professeur de Philosophie, Université de Chicago. Supposons qu’il existe une machine qui réussisse le test de Turing, en employant des moyens non intelligents pour y parvenir. Par exemple — comme expérience virtuelle — imaginons une machine capable de mémoriser et de ressortir tout fragment d’une conversation humaine, jusqu’à une certaine longueur.

Bonjour… je m’appelle Roddy…

Je vais y réfléchir… Une telle machine, en « recrachant » des bribes de phrases authentiques, pourrait éventuellement réussir le test de Turing.

Vous avez peut-être raison mais je vois les choses autrement… Bien qu’en pratique une réussite au test soit quasi impossible, certains critiques s’en servent pour illustrer les carences mêmes du test. 50

À l’intérieur de la machine : la chambre chinoise de Searle Au cours des années 1980, John Searle (1932-), professeur de philosophie à Berkeley, dépité par les déclarations des chercheurs en IA, selon lesquelles ils disposaient de machines qui « comprenaient » les structures qu’elles manipulaient, a construit une expérience virtuelle avec l’espoir d’asséner un coup définitif à ces autoproclamés de l’approche IA Forte. À la différence du test de Turing, mon raisonnement concerne la nature des calculs qui ont lieu DANS les processeurs de l’ordinateur.

Searle a essayé de démontrer qu’une simple manipulation syntaxique de symboles, telle que proposée au moyen du PSSH de Newell et Simon (cf. p. 43), ne suffit pas pour construire une machine capable de penser ou de comprendre.

51

La chambre chinoise de Searle Searle s’était imaginé dans une chambre. Au travers d’un des murs, par un passe-plat, des questions lui étaient transmises, rédigées en chinois. La mission de Searle consistait à répondre aux questions, également en chinois et à renvoyer ses réponses vers l’extérieur, par un second passe-plat. Le problème était que Searle ne comprenait pas un traître mot de chinois, et même les idéogrammes ne lui disaient rien.

Afin de bâtir des réponses aux questions posées, je me suis procuré un ensemble complexe de règles sur le maniement des symboles en chinois (pour moi incompréhensibles), me permettant de construire des réponses.

Avec de la pratique, Searle devient assez doué dans cette construction de réponses. Pour les gens de l’extérieur, le comportement de Searle ne différait pas beaucoup de celui d'une personne de langue maternelle chinoise – ainsi, la chambre chinoise parvint à réussir le test de Turing. 52

À la différence de quelqu’un qui a appris le chinois, Searle ne comprend strictement rien aux symboles qu’il est en train de manipuler. De la même façon, un ordinateur pourrait effectuer ces opérations – à savoir, manipuler des symboles abstraits – sans avoir besoin de comprendre ces symboles chinois pour le faire.

Je dispose de tout ce qui est nécessaire pour vérifier (ou invalider) l’hypothèse d’un système de symboles proposé par Newell et Simon – et, pourtant, je ne comprends pas le chinois.

Le point capital du raisonnement de Searle est que, QUELS QUE SOIENT les principes formels dont on équipe l’ordinateur, ils ne lui suffisent pas pour « comprendre » ce qu’il fait…

Car, même si c’est un être humain qui manie ces symboles, l’ordinateur ne comprend absolument rien à ce qu’il fait.

La conclusion qu’en tire Searle est que la manipulation formelle de symboles n’est pas suffisante pour expliquer ou mettre en évidence ce qu’est la « compréhension ». Cette conclusion est en contradiction directe avec l’hypothèse de système de symboles avancée par Newell et Simon. 53

Une réponse à Searle Une des récriminations entendues est que même si Searle ne comprend pas le chinois au départ, la combinaison « Searle + livre de règles de construction » comprend le chinois.

Je rejette ce point en montrant que la combinaison de constituants sans compréhension ne peut pas invoquer magiquement la compréhension.

En somme, l’argument de Searle est que le tout ne peut excéder la somme des parties.

Pour de nombreuses personnes, cela constitue une faiblesse de l’argumentation de Searle.

Le tout peut-il excéder la somme des parties ? Nous avons de solides preuves que la « combinaison de parties constituantes » peut en effet résulter en un tout d’un ordre de complexité plus élevé, c’est-à-dire un « tout plus grand ». 54

En appliquant la théorie de la complexité La complexité – la science qui cherche à comprendre le phénomène d’ordre qui résulte d’interactions de constituants simples – traite de la possibilité d’émergence. Les propriétés d’émergence sont celles que l’on ne peut prédire seulement en ayant une compréhension des comportements des parties constituantes.

Les interactions complexes entre parties simples peuvent générer une AUTO-ORGANISATION.

L’auto-organisation apparaît quand des propriétés de haut niveau émergent de l’interaction de composants simples.

Nous allons à présent examiner un exemple d’émergence en biologie… 55

La compréhension, une propriété émergente ? Les Hommes émergent du génome humain, qui ne précise pas – loin s’en faut – comment construire un humain. Nous sommes, bien évidemment, le produit de nos gènes, mais seulement en raison des interactions extraordinairement complexes qui ont lieu entre eux et entre les chaînes de polypeptides qu’ils créent, et de la manière dont ces chaînes continue d'interagir.

Le génome humain, SEUL, ne décrit pas ce qu’est l’Homme.

De la même manière, Searle et son livre de règles ne suffisent pas pour décrire précisément la propriété de compréhension, mais ils peuvent ensemble déclencher son émergence.

Pour résumer, la théorie de la complexité nous dit que le tout peut être plus grand que la somme de ses parties constituantes, mais aussi que cet argument seul ne fournit pas d’explication quant à l’émergence de la compréhension. 56

Des machines assemblées à partir des bons ingrédients Il est important de noter que Searle ne nie en rien la possibilité d’une IA Forte. En effet, Searle croit que nous ne sommes nous-mêmes que des machines complexes et que, par conséquent, nous sommes capables d’assembler des machines aptes à penser et comprendre. L’argument central de Searle est que pour atteindre et constater une compréhension de la part d'une machine, il suffit de trouver le bon programme. Searle frappe ici au cœur du fonctionnalisme. L’argument des fonctionnalistes présuppose que la nature de la machine importe peu, voire pas du tout – à condition qu’elle assure les opérations de computation demandées.

En d’autres termes, les problèmes de la pensée et de la compréhension dépendent uniquement de l’exécution du bon PROGRAMME.

En opposition au fonctionnalisme, je prétends que le BON ASSEMBLAGE est tout aussi important. Les phénomènes mentaux dépendent des propriétés physico-chimiques des composants de la machine.

57

IA et dualisme D'après Searle, pour argumenter quoi que ce soit d’autre, il faut croire à une forme de dualisme, c’est-à-dire défendre l’idée que le mental n’a aucun lien de cause à effet avec le domaine physique. Selon Searle, c’est précisément la position adoptée par bon nombre de chercheurs en IA. Ils croient que leurs modèles possèdent une « vie mentale » uniquement parce que le bon programme a été exécuté. On ne comprend les processus mentaux qu’en termes de programmes (l’esprit), indépendamment des composants de la machine (le cerveau).

Il s’agit là d’une affirmation provocatrice, car bien peu de scientifiques seraient à même d’admettre l’existence d’un domaine mental sans support physique.

Bref, les ordinateurs, tels que nous les connaissons aujourd’hui, ne sont pas constitués des bons composants pour servir de support à la pensée, à la compréhension ou à l’état de conscience.

Searle estime que les recherches en IA qui visent à identifier les « bons programmes » sont mal orientées. Les qualités telles que la compréhension exigent aussi le bon type de machines. 58

L’expérience de la prothèse de cerveau Le roboticien Hans Moravec (1948-), professeur à l’Institut de Robotique en Pennsylvanie, a proposé « The Brain Prosthesis Experiment » [l’expérience de la prothèse du cerveau] qui illustre à merveille la divergence d’opinion quant au siège de la pensée, de la compréhension et de la conscience. Imaginons que l’on procède, l’un après l’autre, au remplacement de vos neurones par des équivalents électroniques – de sorte que, progressivement, votre cerveau, au départ dispositif biologique, devient un dispositif électronique. Supposons de plus que nous ayons une parfaite compréhension du fonctionnement de nos neurones et que ceux de substitution, électroniques, imitent bien le comportement biologique quel que soit les conditions ; alors le comportement du cerveau « transformé » sera identique à celui du cerveau biologique. Et cela doit être le cas, puisque les neurones électroniques ont un COMPORTEMENT IDENTIQUE à celui des neurones biologiques.

Et, au fur et à mesure que le processus de substitution avance, quel impact pensez-vous qu’il aura sur votre expérience consciente ?

À mon avis, vous ne verrez aucun changement de votre conscience.

Au contraire, je pense que votre niveau de conscience va progressivement se dégrader.

59

Roger Penrose et les effets quantiques Pour John Searle, la nature de la « machinerie » nécessaire à un état de conscience reste un mystère. Il ne revendique pas d’avoir une réponse pour expliquer pourquoi les ordinateurs ne peuvent héberger des propriétés telles que la compréhension et la conscience, alors que les cerveaux biologiques le peuvent. À l’opposé, le professeur Roger Penrose (1931-), physicien mathématicien de l'Université d'Oxford, propose un « matériau » candidat à ces fonctions. Tout comme Searle, Penrose pense que les ordinateurs classiques ne peuvent être le siège d’une conscience. Pour lui, un esprit conscient nécessite des caractéristiques physiques très spécifiques. J’admets qu’un état mental dérive nécessairement d’un état physique.

Quant à moi, je pense qu’il nous faudrait une nouvelle forme de physique pour expliquer la pensée consciente.

Si Penrose a raison, alors un problème se pose pour les chercheurs en IA…

Les ordinateurs, de par leur construction, sont limités quant aux processus qu’ils peuvent effectuer. 60

Penrose et le théorème de Gödel Penrose, pour appuyer son argumentation, fait appel à un théorème fondamental en logique mathématique – le théorème de Gödel qui énonce que certaines vérités mathématiques ne peuvent être vérifiées par calcul. Et, dans la mesure où les mathématiciens humains, de toute évidence, parviennent à ces vérités, c’est la preuve, selon Penrose, que les humains procèdent en effectuant des opérations « non calculables ». Si la pensée inclut une part non calculable, les ordinateurs ne seront pas capables de faire tout ce que peuvent faire les Hommes.

Par conséquent, la  non-calculabilité de la conscience, sous certains aspects, et, plus particulièrement, dans la compréhension mathématique, nous invite fortement à avancer que la non-calculabilité doit être considérée comme UNE caractéristique de TOUTE manifestation de conscience. Voilà ma suggestion.

Si la pensée humaine comprend une part de processus non calculables, comment le cerveau héberge et met-il en œuvre ces processus ? Penrose fait appel à la physique pour répondre à cette question ; il défend la thèse que c’est du côté de la physique quantique que nous pourrions sans doute trouver de quoi expliquer ce qu’est l’esprit conscient. 61

Gravité quantique et état de conscience La théorie dite de la gravité quantique, qui en est encore à ses balbutiements, vise à rendre compte et à tenter d’expliquer les imprécisions mesurables que nous constatons par le biais de la physique classique. Autrement dit, ni la théorie quantique, ni la théorie de la relativité ne parviennent à expliquer de manière globale et satisfaisante des phénomènes à très petite échelle. Penrose affirme : « Cette nouvelle théorie ne serait pas simplement une modification mineure de la mécanique quantique, mais représenterait quelque chose aussi éloigné de la mécanique quantique ‘standard’ que la théorie générale de la relativité l’est de la gravité newtonienne. Cela devrait être quelque chose qui s’inscrit dans un cadre conceptuel totalement nouveau ». L’idée que la gravité quantique puisse se révéler importante pour notre compréhension de l’état conscient est antérieure à Penrose, mais c’est ce dernier qui a eu l'audace de proposer que les effets de la gravité quantique sur le cerveau seraient probablement liés à l’existence de microtubules – des structures internes aux neurones qui ressemblent à des bandes convoyeuses.

Chaque neurone ne se comporte pas seulement comme un interrupteur, mais implique de très nombreux microtubules qui peuvent chacun effectuer des tâches très complexes.

Les microtubules, selon Penrose, renferment un substrat supportant les effets de gravité quantique nécessaires à un état de conscience. Il est important de noter que ces processus sont non calculables et ne peuvent donc être hébergés sur des ordinateurs. Il s’agit là d’une pensée spéculative qui corrobore l’affirmation de Penrose selon laquelle la pensée humaine dépend de processus non calculables. 62

Et puisque nos ordinateurs ne possèdent pas aujourd'hui de structure cellulaire comprenant des microtubules, ils ne peuvent être le siège d’une conscience. Il se peut que Penrose ait raison, mais il faut admettre que pour l’heure rien ne prouve cette idée. Dire qu’il existe un ingrédient jusqu’ici inconnu dans notre compréhension des systèmes biologiques est une conclusion courante en ce qui concerne la possibilité d’avoir un jour des machines pensantes. La théorie de Penrose est très controversée et, de fait, peu de scientifiques sont d’accord avec ses conclusions. Penrose, dans sa tentative d’atteindre une forme de matérialisme scientifique, a invoqué l’existence d’une force supérieure, mystérieuse… son propre dieu en somme, celui de la mécanique quantique.

Personnellement, je suis mal à l’aise quand certains parlent de la conscience, notamment les physicistes théoriciens… L’argument de Penrose est, d’un côté, que la conscience est un mystère et, de l’autre, que la gravité quantique est aussi un mystère ; par conséquent, il en conclut que les deux doivent être liées.

Stephen Hawking (1942-) 63

L’IA traite-t-elle réellement de machines pensantes ? La compréhension, la conscience et la pensée sont autant de mystères. Étant donné notre niveau actuel de compréhension, il n’y a pas de réponse, loin s’en faut, à la question de savoir si l'on peut identifier une compréhension, une conscience ou une pensée mécanique. Ce débat se réduit au mieux à une question d’intentionnalité, qui perturbe les philosophes depuis le Moyen Âge.

Le terme « intentionnalité », quand il est employé par des philosophes, se réfère à la « caractéristique de la conscience d'être toujours dirigée vers un objet », pour citer le philosophe autrichien Edmund Husserl. Les états mentaux possèdent cette caractéristique – par exemple, nos croyances et nos désirs – et il faut avoir un esprit conscient pour accéder à ces états d’intentionnalité.

L’état conscient se réfère toujours à la conscience de l’existence de quelque chose, y compris DE lui-même.

Edmund Husserl (1859-1938) fondateur de la phénoménologie

Franz Brentano (1838-1917) psychologue et philosophe allemand

L’IA est arrivée presque par inadvertance sur ce problème qui remonte à la nuit des temps. Mais, qu'est-ce au juste que l’intentionnalité et, d’abord, existe-t-elle vraiment ? Et si la réponse est « oui », possède-t-elle un support physique ? Malheureusement, le débat sur l’intentionnalité reste un mystère, malgré les affirmations de certains chercheurs en IA sur la capacité de leurs machines à penser et à comprendre. 64

Pour aborder le problème de l’intentionnalité Savoir quelles sortes de machines sont utilisées par les chercheurs en IA et comment ces machines peuvent clarifier le problème de l’intentionnalité, sont des questions rarement posées par ceux activement engagés dans la recherche en IA. La recherche expérimentale avance indépendamment de ce débat. La plupart des chercheurs en IA s'accordent sur le fait que nous pouvons explorer les théories du comportement intelligent et que nous pouvons mettre en œuvre ces théories sous la forme de modèles pour ordinateur, sans devoir pour autant rendre compte du phénomène d’intentionnalité du processus engagé. Le chercheur lambda en IA développe des programmes informatiques en se servant d’ordinateurs courants.

De même, les roboticiens n’essaient pas d’aborder la question d’intentionnalité en se servant de certains types de machine.

Traiter au fond la question d’intentionnalité est considéré implicitement par les chercheurs comme une opération de « finition ». Tout d’abord, ils ont pour but de créer des ordinateurs et des robots qui se comportent intelligemment, puis ils aborderont les questions fondamentales… de compréhension, de pensée, de conscience et d’intentionnalité. 65

Quelle est la position des cognitivistes ? L’approche classique des études de l’IA englobe un ensemble de principes et de pratiques utilisés pour explorer non seulement la validité du cognitivisme, mais plus particulièrement l’hypothèse avancée par Newell et Simon. La cognition est prise ici au sens de la manipulation formelle de structures symboliques.

La contribution la plus fondamentale jusqu’ici de l’Intelligence Artificielle et des sciences informatiques à la science cognitive a été le concept d’un système physique de symboles…

… des systèmes capables de renfermer et de manipuler des symboles, et réalisables dans notre univers physique.

L’approche classique de l’IA a donné lieu à des projets d’ingénierie tels que celui-ci et que nous nous proposons d’examiner plus en détail par la suite. 66

• • • •

Des ordinateurs joueurs d’échecs capables de battre les meilleurs joueurs humains. Des tentatives d'équiper des ordinateurs avec des connaissances de « bon sens ». Des systèmes d’analyse d’images capables d’extraire des informations spécifiques sur des objets dans des scènes enregistrées par caméra. Shakey, un robot capable d’effectuer des tâches, mettant en œuvre plusieurs technologies d’IA, telles que la vision embarquée, la mise en place de plannings et le traitement de langues naturelles (humaines).

Sentir – Penser – Agir L’IA traditionnelle est sous-tendue par l’idée qu’une activité intelligente exige d’abord qu’il y ait un agent capable de SENTIR son environnement.

Sur la base de cette information sensorielle, l’agent va alors effectuer un TRAITEMENT COGNITIF.

Ces processus résulteront en un agent qui entreprend une ACTION.

En résumé, un acte de cognition joue le rôle d’intermédiaire dans la connexion entre la perception et l’action. 67

Au-delà d’Elsie Comme nous allons le voir, le robot Shakey possède des capacités cognitives qui dépassent de loin celles de la tortue Elsie (pp. 26-29). Rappelons ce qui manquait à Elsie…

• • •

Elle ne savait pas où elle se trouvait ni où elle allait. Elle n'était pas programmée pour atteindre des buts. Elle possédait peu (voire pas du tout) de capacités cognitives.

Il manquait à Elsie précisément les capacités que l’IA cherche à comprendre : les capacités cognitives telles que le raisonnement, l’apprentissage, la vision et la compréhension des langues naturelles.

Shakey, à la différence d’Elsie, est un excellent exemple de robot cognitif.

Shakey a besoin d’un ensemble de technologies en IA. Mais avant même de l’assembler, les ingénieurs-chercheurs ont dû réfléchir aux caractéristiques de ses composants.

68

Les modèles cognitifs Une large part de l’IA dépend de la modélisation cognitive. Cela implique que l’on construise des modèles d’ordinateurs capables d’effectuer certaines fonctions cognitives.

La manière dont ces modèles s’acquittent de tâches peuvent refléter la théorie de la cognition humaine.

À l’opposé, le modèle cognitif peut renfermer une façon absolument nouvelle de résoudre le problème posé, en se servant de méthodes qui ne se trouvent pas dans la nature.

Mais le problème n’a pas été résolu pour autant. L’assemblage d’un modèle performant ne constitue pas en soi une explication à ce qui lui sert de modèle. 69

Le modèle n’explique pas tout Supposons que quelqu’un nous donne le schéma complet des circuits du câblage du cerveau humain – une carte intégrale de sa structure neuronale. Avec ce schéma de câblage, nous pourrions alors procéder à l’assemblage d’un cerveau mécanique.

Imaginons à présent que nous réussissons à créer une machine qui apprend, qui raisonne et qui est dotée d’autres capacités cognitives.

La question est : avez-vous maintenant une explication réellement satisfaisante de la cognition humaine ?

Par exemple, le modèle proposé nous aidera-t-il à comprendre les processus cognitifs tels que le rapport entre les mémoires à long et court termes ? Mais un problème subsiste : nous pouvons disposer d’un modèle efficace et, cependant, ne pas comprendre ce modèle de la manière dont nous l'aurions souhaité. 70

Le nématode Nous possédons un schéma complet, celui du système nerveux d’un nématode du nom de Caenorhabditis elegans. La biologie de ce ver est remarquablement bien comprise aujourd’hui. En 2002 déjà, Sydney Brenner, H. Robert Horwitz et John E. Sulston ont reçu le prix Nobel de physiologie pour leurs travaux qui révélaient avec précision comment se développe le ver jusqu'à l'âge adulte (long d’environ 1 mm) à partir de son ADN. Étant donné la transparence du ver, nous pouvons suivre l’évolution de sa formation, de sa cellule initiale aux 959 cellules constituant l'individu adulte.

Certaines de ces cellules – les neurones – constituent le cerveau du ver, tandis que d’autres servent à construire les structures cellulaires telles que ses organes sensoriels et ses muscles.

Sir John Edward Sulston (1942-) 71

Vers une vraie compréhension du comportement Les récents progrès de nos connaissances sur le ver Caenorhabditis elegans sont fondamentaux pour l’avancement de la biologie. Le parcours de son développement depuis le stade initial, unicellulaire, jusqu’à celui adulte implique une série extraordinairement complexe d’interactions.

Caenorhabditis elegans est suffisamment simple pour que nous obtenions une carte détaillée de sa structure cellulaire.

Mais, si nous comprenons très bien le niveau neural du ver, nous comprenons à peine la manière dont les structures neurales sont CONFIGURÉES POUR DÉTERMINER LE COMPORTEMENT DU VER.

En conclusion, même si nous décidons de construire ce nématode en utilisant nos connaissances sur ses « circuits », il resterait un « trou » énorme dans notre compréhension des mécanismes de contrôle qui sous-tendent le comportement de Caenorhabditis elegans. 72

Réduire le degré de description L’un des problèmes liés à une explication basée sur un schéma de câblage détaillé est que le niveau choisi, est trop « fin » pour nous être utile. Alors, où se situe le niveau pertinent de vocabulaire conceptuel pour expliquer des processus cognitifs ? En IA traditionnelle, quand nous analysons l’hypothèse de Newell et Simon, nous visons à expliquer la cognition en termes de programmes informatiques où sont manipulées des représentations symboliques. L’IA traditionnelle adopte la métaphore d’un ordinateur qui exécute un programme informatique comme modèle pour comprendre le fonctionnement de notre esprit.

Les chercheurs en IA espèrent obtenir par cette approche, une « image » plus simple que ce qu'il est possible de glaner au moyen d’explications provenant des millions d’interactions qui ont lieu entre neurones.

73

La simplification du problème L’enthousiasme évident des débuts de la recherche en IA a été tempéré dès dès que l'on a constaté à quel point le problème était exceptionnellement difficile à traiter. Par exemple, on pensait au départ – dans les années 1950 – que la traduction automatique serait sans difficulté et viable.

La traduction automatique, disons du russe vers l’anglais, nécessiterait pour l’essentiel que l'on construise des « dictionnaires mécaniques » pertinents.

Les chercheurs ont vite compris que cela ne suffisait pas.

Après avoir dépensé 20 millions de dollars pour la recherche sur la traduction automatique, l’Agence fédérale de financement (NRC) a conclu que : « Il n’y a pas de perspective à court terme ou même prévisible pour atteindre un niveau de traduction automatique qui soit utile » — National Academy of Sciences – National Research Council (NRC), 1963. Face à un problème difficile, la recherche en IA commence souvent par une simplification. Il existe deux types de simplifications auxquels les chercheurs ont fréquemment recours. 74

Décomposer et simplifier Heureusement pour nous, les fonctions cognitives du cerveau n’entrent pas dans un « méli-mélo » qui ne peut être décomposé. De nombreux chercheurs défendent l’idée que notre cerveau a plutôt une structure proche d’un ensemble de sous-ordinateurs interconnectés. Certains de ces sous-ordinateurs semblent fonctionner comme des entités indépendantes, ce qui est une bonne nouvelle pour les chercheurs en IA. Le psychologue américain Jerry Alan Fodor (1935-) a imaginé, dans les années 1980, que notre esprit se composait d’un ensemble de modules destinés à accomplir des tâches spécifiques.

Les données sensorielles sont transformées quand elles traversent ces modules et chaque module met en forme sa solution Plus important encore, nombre à une tâche donnée. de ces modules ne peuvent « lire » le contenu des autres modules – il s’agit donc de systèmes autonomes.

Si nous considérons l’illusion dite de Muller-Lyer, les lignes 1 et 2 sont strictement de même longueur mais la ligne 2 semble plus grande que la ligne 1. Même quand notre intelligence et nos connaissances nous informent ici que les lignes sont de longueur égale, notre perception ne le sait pas et n’a pas accès à ces connaissances. Il s’ensuit que notre module de « perception » doit travailler de manière indépendante de cette connaissance. 75

La base modulaire Si nous admettons que l’esprit est modulaire, alors en prenant chaque module l’un après l’autre, et en s’efforçant de les comprendre au point de pouvoir les construire, on peut progresser vers le but de l’IA, qui est de comprendre et construire des capacités cognitives, par cette approche module par module. Donc, au lieu de lâcher un modèle de cognition dans le monde réel, complexe à souhait, il s’avère bien plus facile de bâtir un monde virtuel, simplifié. Un micromonde correspond bien à ce monde simplifié, virtuel.

Les micromondes ont pour objectif de ne capter que les parties pertinentes du monde réel, infiniment plus complexe.

En faisant ainsi abstraction de tous les détails « sordides » qui rendent justement le monde réel si complexe, les micromondes facilitent la création de modèles..

76

Le micromonde La quintessence des micromondes est appelée le monde des blocs – un monde tridimensionnel composé de blocs, de pyramides et d’autres solides géométriques colorés.

Comme nous le verrons, Shakey habite un vrai monde de blocs.

D’autres programmes d’IA s’exécutent à l’intérieur d’un monde de blocs virtuel, c’est-à-dire un monde modélisé par ordinateur. En construisant une machine capable d’opérer dans un micromonde, nous espérons que le même type de machine pourra être généralisé pour fonctionner dans des environnements plus complexes. 77

Les premiers succès : l’art des jeux Des jeux comme « les dames » ou « les échecs » fournissent un environnement idéal pour un programme en IA. La forme et le niveau de compétences nécessaires pour jouer, à l’un ou l’autre jeu, sont ici bien spécifiques. Les micromondes associés aux jeux sont composés d’ensembles de règles strictes, d'environnements simples et de conséquences des coups joués prévisibles. L’IA se porte bien avec de telles propriétés et, par conséquent, les « machines à jouer » ont connu un vif succès.

Le tout premier programme utilisé pour une partie complète d’échecs contre un adversaire humain fut conçu par Alan Turing en 1951.

Peu après, Arthur Samuel (1901-1990) a développé un programme, devenu célèbre, pour le jeu de dames. Et ce programme a commencé à me battre régulièrement.

78

Des programmes qui s’autoperfectionnent Apprenant de sa propre expérience, le programme a continué rapidement de s'améliorer et bientôt battu un champion d'échec. Ce dernier a déclaré après sa défaite en 1965...

En ce qui concerne la fin de la partie, je n’ai pas connu, depuis 1954 lors de ma dernière défaite, un tel niveau de concurrence.

Cette victoire d’une machine contre un homme a été largement citée, et ce, pour une bonne raison. On y trouve la démonstration que les capacités d’un agent artificiel ne sont pas nécessairement limitées par les capacités de conception de son inventeur. Le programme de Samuel joue aux dames bien mieux que lui-même. 79

La représentation interne du jeu La plupart des « machines à jouer » fonctionnent en construisant une représentation symbolique appelée l’arbre de jeu. À partir du point de démarrage du jeu (en l’occurrence, le premier déplacement d’une pièce), l’arbre détaille toutes les éventualités pour le déroulement du jeu. Cette représentation est symbolique : elle peut faire appel, par exemple, à un symbole pour une pièce blanche et à un autre symbole pour une pièce noire.

En nous servant de ces symboles de base, avec une représentation de l’aire de jeu (damier, échiquier), nous pouvons représenter dans l’ordinateur la position de chaque pièce à l’instant t.

Par exemple, voici une partie de l’arbre de jeu pour le jeu du morpion.

80

Il y a deux trajectoires possibles à travers l’arbre. Ces deux possibilités représentent deux déroulements possibles du jeu.

À la différence du joueur humain, l’ordinateur peut facilement générer son arbre de jeu et l’avoir toujours présent à l’esprit. Avec cette représentation interne, l’ordinateur pourra prédire les conséquences logiques de ses actions. 81

La force brute : « l’exploration de l’espace » Le morpion n’est pas, à vrai dire, un jeu très exigeant. La plupart des joueurs se rendent compte rapidement qu’ils peuvent au moins assurer le match nul en employant une stratégie simple. De même, il est facile de développer un logiciel pour atteindre ce niveau de compétences car le morpion ne compte que 362 880 positions possibles (factoriel 9 !).

L’ordinateur, en générant l’arbre complet, va toujours prendre la « bonne » décision car il prévoit les coups à l’avance. Il peut être certain de gagner ou au pire de faire un match nul. Il n’y a plus de facteur de surprise, dès lors que vous pouvez prévoir à l’avance tous les coups, et pour toutes les parties. 82

Les espaces infinis des échecs L’espace de tous les jeux possibles pour le morpion est dérisoire comparé aux possibilités offertes par les échecs. L’un des plus célèbres grands maîtres, Garry Kasparov (1963-), a exprimé cette difficulté avec précision et clarté.

Le nombre de déplacements possibles aux échecs dépasse le nombre d’atomes que contient notre Univers. C’est un nombre qui dépasse toutes nos possibilités de calcul.

Aux échecs, prévoir ne serait-ce qu’un nombre modeste de mouvements devient irréalisable, le nombre de combinaisons possibles étant trop grand pour être concevable*. L’arbre de jeu pour les échecs ne rentrerait pas dans notre Univers, encore moins dans un ordinateur, quelles que soient sa taille et sa puissance de calcul. *N.D.L.R. : rien que pour les 4 premiers coups joués, il y a plus de 4 millions de coups possibles.

83

Avec l’aide de l’heuristique Aux échecs, les positions dites gagnantes sont enfouies profondément dans l’arbre de jeu. Les ordinateurs jouant aux échecs n’ont pas la capacité de rechercher ces positions avantageuses ; cela leur prendrait trop de temps. De ce fait, ils ne prévoient que plusieurs coups d’avance. Pour cela, ils utilisent une mesure qui indique le degré d’avantage que confère telle ou telle position, puis les classent et choisissent la meilleure.

Le classement est obtenu en affectant à chaque configuration possible des pièces un score…

Ce score, que l’ordinateur calcule par une FONCTION D’ÉVALUATION, donne une bonne indication quant à la valeur tactique de la configuration envisagée et tient compte de l’expérience (par exemple perdre une pièce est considéré comme une mauvaise stratégie) ainsi que de stratégies dites de plus haut niveau. Ces règles pragmatiques portent le nom d’heuristique et interviennent un peu partout dans les systèmes d’IA. L’heuristique ne garantit ni le succès, ni la précision des conclusions intermédiaires, mais en offre une bonne approximation. On y a recours quand d’autres méthodes, pourtant plus précises et plus exhaustives, ne marchent pas. 84

Deep Blue® La victoire sans doute la plus emblématique d’une machine sur l’Homme a eu lieu en 1997. Un ordinateur d’IBM, nommé Deep Blue®, a battu Garry Kasparov, le joueur d’échecs le plus haut classé du monde. Cette victoire était un jalon très important pour l'IA.

La communauté de l’IA avait pu concevoir une machine capable de battre un homme hautement qualifié pour une tâche que la plupart des gens considèrent comme nécessitant de l’intelligence.

Mais est-ce que la victoire de Deep Blue® sur Kasparov constitue réellement un jalon significatif pour l’IA ?

« Deep Blue® est étonnamment efficace quand il s’agit de résoudre des problèmes stratégiques aux échecs, mais il s’avère être moins « intelligent » que le plus stupide des humains » - Site web de Deep Blue®, d’IBM.

85

Un manque de progrès Les ordinateurs joueurs d’échecs apportent peu d’éclairage sur la question de la cognition mécanisée. Ils dépendent sans vergogne de la capacité de la machine à passer en revue des centaines de millions de coups à la seconde. Kasparov était capable d’analyser seulement trois coups par seconde. Deep Blue® a gagné en utilisant sa « force brute » et non sa « cervelle » En citant Deep Blue® comme l’un des rares exemples de succès de l'IA, certains dans les rangs mêmes des chercheurs de cette discipline pensent qu’il y a là une démonstration du MANQUE de progrès en IA.

Visiblement, Deep Blue® avait besoin pour réussir de se fier à une « mécanique » très rusée, plutôt qu’à une forme de dextérité mentale.

En se gaussant du succès de Deep Blue®, les chercheurs et ingénieurs en IA ont, pour ainsi dire, reconnu leur impuissance et admis le manque de progrès à copier quoi que ce soit qui s’approcherait de la cognition humaine. 86

Doter les machines d’intelligence Notre monde ressemble plus à un jeu d’échecs qu’à un jeu de morpion. Nous sommes incapables de prévoir très loin dans l’avenir ; le nombre d’événements possibles au quotidien est bien trop grand pour qu’on l'envisage.

Les machines joueuses d’échecs ont besoin de connaissances précodées dans leurs fonctions d’évaluation…

Tout comme nous, humains, avons besoin de connaissances pour nous aider à fonctionner dans un environnement complexe.

87

Logique et pensée L’idée que l’on puisse formaliser la pensée n’est pas récente. Pendant des siècles, on considérait que l’acte de la pensée était une sorte de calcul basé sur un raisonnement logique. L’hypothèse des systèmes symboliques de Newell et Simon trouve son fondement dans les travaux du philosophe anglais Thomas Hobbes (1588-1679). Pour Hobbes, la pensée n’était qu’une manipulation syntaxique des « unités atomiques de base » … Et ces unités, une fois assemblées, permettraient de décrire les riches structures nécessaires à la pensée et aux connaissances.

Quand un homme raisonne, il ne fait rien d’autre que concevoir une somme totale en additionnant des parcelles.

Les « parcelles » dans la vision de Hobbes étaient des unités de base de la pensée, tout comme les symboles forment la base de l’hypothèse des systèmes symboliques de Newell et Simon. 88

Mathématicien et philosophe, Gottfried Wilhelm Leibniz (1646-1716) a fait progresser les idées de Hobbes. Leibniz a essayé d’identifier un système pertinent de parcelles – une langue logique. Il a imaginé transcrire vers cette langue logique tous les faits connus de l’Homme et lui a donné le nom de Characteristica Universalis. Ainsi, Leibniz a cru qu’il pouvait résoudre n’importe quel problème par le calcul.

Même des débats d’ordre moral pourraient trouver une issue uniquement par le calcul.

Une fois que les nombres caractéristiques [atomes] seront établis pour la plupart des concepts, l'humanité possédera un nouvel instrument qui permettra d'améliorer les capacités de l'esprit, bien plus que les instruments optiques augmentent la vue ; et il remplacera le microscope et le télescope de même que la raison est supérieure à la vue.

Le raisonnement logique nécessite que l’on manie des phrases exprimées dans une langue logique. Ces phrases peuvent être interprétées comme la représentation de concepts tels que la situation dans le monde – ou la connaissance. Ayant recours à des ordinateurs pour automatiser ce processus, les chercheurs en IA se sont emparés du postulat « logique égale pensée » et ont bâti leurs réflexions et leur recherche dessus. 89

Le projet « CYC » et la fragilité Bien que nombre de penseurs aient exploré le lien entre la logique et la pensée, peu d’entre eux ont traduit leurs idées en un projet d'ingénierie aussi téméraire que celui de Doug Lenat (1950-), chercheur en IA et chef du projet « CYC », dont le nom qui provient du mot encyclopédie. Le projet a démarré en 1984 et est sans précédent de par son objectif de doter les machines avec des notions de bon sens. Lenat lui-même décrit le projet comme « la première exploration faite par l’humanité dans le domaine de l’ingénierie ontologique à grande échelle ». Des millions de dollars ont déjà été dépensés pour ce projet prévu sur 20 ans qui ambitionne de rassembler 100 millions d'« affirmations d’utilité quotidienne » dans sa base de connaissance. Avec ses 250 000 « règles » à terme, le projet nécessitera quelque 350 hommes-années de travail de collecte et de traitement des données. Il est relativement facile d’équiper des systèmes d'IA avec des connaissances spécialisées.

Mais le moindre écart du domaine d’expertise de la machine mènera inévitablement à des affirmations dénuées de sens. On appelle cela la FRAGILITÉ DU SYSTÈME…

Si vous demandez à un programme spécialisé en médecine d’ausculter une vieille voiture rouillée, il peut diagnostiquer un cas de rougeole.

90

L’objectif du projet CYC est d’atténuer le problème posé par la fragilité en encodant le fond de connaissances sensées que nous partageons tous. Concernant la difficulté de la tâche, Lenat avance…

Un grand nombre des compétences et présuppositions sont, en réalité, devenues implicites, d’une part, après des millénaires d’évolution tant sur le plan culturel que biologique, et d’autre part, en fonction de nos expériences « universelles » vécues quand nous étions plus jeunes.

Mais avant que des machines soient en mesure de partager des connaissances de façon aussi flexible que les humains, ces  prérequis devront nécessairement être résumés sous des formes explicites et donc « calculables ».

Certains commentateurs ont vu un parallèle entre le projet de Lenat et celui de Leibniz. Une part conséquente de notre conception du monde peut-elle réellement être traduite sous forme d’éléments de langage formel, logique ? Comme nous le verrons par la suite, l’idée même que nos connaissances implicites puissent être formalisées est controversée. 91

Le projet CYC sera-t-il un succès ? Le projet CYC entre aujourd’hui dans sa phase finale et Lenat estime ses chances de succès à 50-50. En plus des bénéfices pratiques qui s’en suivraient, l’objectif théorique du projet CYC est de vérifier l’hypothèse avancée par Newell et Simon. Le « bon sens » est-il quelque chose qui se prête à une formalisation et à une automatisation en utilisant des représentations symboliques ?

Si le projet CYC réussit, cela surprendra énormément de monde. S’il ne réussit pas, le projet CYC n’aura qu’un intérêt limité…

Mais il ne manque, peut-être, que quelques règles importantes ou faits.

Une justification récurrente de l'incapacité des systèmes basés sur la logique réside dans la ligne de défense : « seulement une règle en plus ». Plutôt que de mettre en doute l'ensemble du projet, la tendance actuelle est de persévérer avec l’idée puissante d’accéder à une formalisation des connaissances qui remonte à Hobbes. 92

Shakey, le robot cognitif Shakey est un robot mobile et autonome. Il représente un exemple classique de combinaison réussie de plusieurs techniques d’IA. À la différence d’Elsie, Shakey a une « vie intérieure riche », étant le premier robot à être commandé par ordinateur. Construit à l’Institut de recherche de Stanford, vers la fin des années 1960, Shakey a la taille d’un petit réfrigérateur et se déplace sur des roulettes.

Je me déplace intelligemment à l’aide d’un détecteur de distance optique, de détecteurs de collision, mais principalement par l’analyse de données fournies par une caméra de télévision.

Le robot a tendance à « gigoter » un peu sur ses roues, en raison du poids considérable de ses équipements, d’où son nom, Shakey.

93

L’environnement de Shakey Shakey est placé dans un environnement simplifié composé d'une suite de pièces reliées par un couloir. Les pièces sont vides, mis à part quelques objets en forme de boîtes.

Je vis dans un monde de blocs réel.

En raison de cet environnement « contraint », Shakey était capable de travailler avec efficacité pour localiser les blocs au moyen de son système de vision autonome. 94

Sentir-Modéliser-Planifier-Agir La conception de Shakey reflète le point de vue traditionnel selon lequel un agent devrait être constitué de quatre composants fonctionnels. Ce modèle est basé sur le cycle : sentir-modéliser-planifier-agir. Pour commencer, l’agent « sent » le monde qui l’entoure. Puis il « modélise » ce monde sur la base d'« entrées sensorielles » (par ses capteurs). Grâce à ce modèle, le robot peut prévoir et « planifier » comment il devra et va « agir » dans ce monde.

Par exemple, Shakey se voit assigner la tâche de « déplacer le bloc 1 de A à B ».

Ayant reçu l’ordre d’exécuter cette tâche, Shakey fait appel à un ensemble de techniques en IA pour effectuer le cycle sentir-modéliserplanifier-agir…

• • •

Des techniques de vision artificielle pour localiser les blocs.

Une planification du parcours pour atteindre les emplacements des blocs. Une planification symbolique de haut niveau, afin de décomposer la tâche en sous-tâches formant un plan que Shakey peut gérer tout seul. 95

Un robot limité au plan imposé En déplaçant les blocs qui l’entourent selon le plan imposé, Shakey peut accomplir tout seul la mission qui lui a été assignée. Par exemple, le plan peut avoir prévu la mise en place d’une cale pour servir de rampe inclinée pour déplacer un bloc et le positionner sur un autre. Mais en raison de son propre poids, les roues de Shakey ont tendance à déraper et, de ce fait, la navigation du robot devient imprécise. Ces problèmes ont mis en évidence l’incapacité de Shakey à prévoir et/ou mettre en œuvre des CHANGEMENTS DANS LE PLAN INITIAL.

Les représentations internes, par exemple la localisation de Shakey, étaient désynchronisées par rapport au monde extérieur.

La conception de Shakey était « monolithique », car une fois le plan démarré, le robot ignorait largement les informations que lui renvoyait le monde réel. Par exemple, si quelqu’un enlevait, sans rien dire, un bloc auquel s’intéressait Shakey, celui-ci devenait très confus. 96

Un nouveau Shakey Les efforts déployés pour remédier aux problèmes de Shakey ont permis d’y apporter des améliorations. Par exemple, un niveau moins fin de détection des mouvements lui assure de bénéficier d'une synchronisation plus précise.

Dès lors qu’il était probable que des imprécisions allaient survenir, le système embarqué vérifiait, en faisant le point sur la position exacte de Shakey, que les représentations et les plans prévus étaient toujours conformes à l’environnement.

97

Les limites de Shakey L’intégration de nombreux sous-systèmes, qui au départ n’étaient pas conçus pour une utilisation par Shakey, a représenté une réussite formidable. Le cycle complet, depuis la perception jusqu’à la modélisation, la planification et l’exécution et, pour finir, la correction d’erreurs, n’avait pas atteint à ce niveau de perfection auparavant.

Mais peut-être plus significatif encore, les roboticiens ont tiré de riches enseignements des limites observées chez Shakey.

Tout d’abord, ma technologie de base dépendait beaucoup du fait que j’avais affaire à un environnement simplifié.

Le système de vision embarqué savait à quoi s’attendre et celui de planification n’avait qu’à gérer le mouvement des blocs. 98

Si l’environnement de Shakey avait été plus complexe, ses technologies et techniques n’auraient pas suffi.

Par certains aspects, Shakey était trop intelligent il en « faisait de trop ».

Par moments, je restais sur place de longues minutes à calculer de nouveaux plans et à imaginer de nouvelles routes.

Étant donné que l’on a préféré garder un monde simple autour de Shakey, il va de soi que les problèmes se multiplieraient dans un environnement plus complexe. 99

La position des connexionnistes Si l'on évoque la métaphore d’un ordinateur exécutant un programme, l’IA classique cherche à expliquer la cognition en termes de manipulation de représentations symboliques. Notre esprit manipule des représentations symboliques de la même façon qu'un programme manipule des données. Le vocabulaire de l’explication employé – si nous nous référons à l’hypothèse d’un système symbolique – est NÉCESSAIRE, justement pour expliquer le fondement d’une action intelligente. LE CONNEXIONNISME, une approche inspirée de la structure neuronale des cerveaux humain et animal, propose un vocabulaire alternatif pour ces explications.

Le connexionnisme est devenu populaire dans les années 1980 et est souvent décrit comme un écart radical de l’approche symbolique, classique de l’IA. Plutôt que de voir les processus mentaux de notre esprit comme un programme informatique, le connexionnisme établit un parallèle entre les processus de l’esprit et ceux du cerveau. 100

L’influence biologique Si nous examinons les systèmes biologiques qui sous-tendent la cognition, nous distinguons des cerveaux de tailles différentes, construits à partir de neurones.

Les neurones sont les cellules cérébrales qui ont la capacité de transmettre des signaux à d’autres neurones.

Le cerveau humain comprend quelque 100 milliards de neurones ; ainsi, en moyenne, chaque neurone est connecté à environ 10 000 autres neurones au moyen de structures « câblées » appelées axones. 101

La computation neuronale Comme nous l’avons vu précédemment, les « paquets » de neurones peuvent être assimilés à des « ordinateurs », et si nous nous référons aux travaux de McCulloch et Pitts sur les neurones artificiels (MCNs), ces paquets sont capables d’effectuer les mêmes types de calculs qu’une machine de Turing. Les modèles connexionnistes n’offrent aucun avantage par rapport aux modèles symboliques concernant la classe de problèmes qu’ils sont à même de résoudre.

L’enjeu est de savoir si l’ensemble des concepts alternatifs proposé par le connexionnisme peut servir à expliquer la COGNITION.

102

Les réseaux neuronaux Les modèles connexionnistes prennent généralement la forme de réseaux neuronaux artificiels que l’on appelle réseaux neuronaux. Il s’agit de paquets de neurones artificiels assemblés de telle sorte qu’ils puissent effectuer un calcul. On commence à connaître de mieux en mieux les réseaux neuronaux aujourd’hui.

À titre d’exemple, les personnages dans les versions modernes de Star Trek discutent souvent du réseau neuronal de l’ordinateur de bord de leur vaisseau spatial, l’Enterprise.

103

L’anatomie d’un réseau neuronal Les blocs constitutifs des réseaux neuronaux sont des versions simplifiées de neurones biologiques que l’on appelle les unités d’activation. Ces unités possèdent un ensemble de connexions d’entrée et un ensemble équivalent de connexions de sortie. Ces connexions modélisent le travail effectué par les axones.

Les connexions d’entrée fournissent les signaux transmis vers d’autres neurones.

Selon le niveau combiné de tous les signaux d’entrée, l’unité d’activation transmettra un signal à toutes les unités auxquelles elle est connectée crâce à ses connexions de sortie.

104

La plausibilité biologique On néglige souvent le fait que les réseaux neuronaux sont des versions abstraites des réseaux neuronaux de nos cerveaux biologiques. Les unités d'activation ressemblent à de réels neurones seulement de manière générale. Les unités d’activation émettent un simple SIGNAL NUMÉRIQUE tandis que les neurones biologiques émettent une séquence d’IMPULSIONS.

De même, les cerveaux biologiques comprennent de nombreux types de neurones, tandis que les réseaux neuronaux tendent à n’utiliser qu’une sorte d’unité d’activation.

Cependant – et cela peut surprendre – même si les réseaux neuronaux artificiels représentent une simplification, somme toute grossière, des réseaux neuronaux biologiques, ils partagent avec eux certaines propriétés fondamentales. 105

Les processeurs parallèles et distribués Les ordinateurs calculent plus vite que nos cerveaux. Les circuits de base que l’on trouve dans les processeurs de nos ordinateurs sont nettement plus rapides que les neurones biologiques. Le neurone le plus rapide peut émettre environ 1 000 signaux par seconde. Des circuits électroniques fonctionnent environ un million de fois plus vite. Et, en dépit de cette « lenteur relative », nos cerveaux arrivent à effectuer des opérations extrêmement complexes de manière étonnamment rapide – il ne faut, par exemple, qu’un dixième de seconde pour reconnaître le visage de votre propre mère.

106

Calcul parallèle versus calcul séquentiel L’immense majorité des ordinateurs calculent de manière séquentielle. Par exemple, pour calculer (1 + 4) + (4 × 8), un ordinateur va d’abord faire l’addition (1 + 4) pour trouver 5, puis effectuer la multiplication (4 × 8) pour trouver 32. Enfin, il additionnera les deux sous-totaux pour trouver 37. Autrement dit, le calcul est subdivisé en sous-calculs effectués les uns après les autres. Dans un ordinateur équivalent à fonctionnement parallèle, les deux sous-calculs seront effectués en même temps et c’est pourquoi on parle de calcul parallèle.

Notre cerveau met en œuvre un fonctionnement « massivement » parallèle, alors que la plupart des ordinateurs sont « séquentiels ». C’est pour cette raison que le cerveau est si rapide, malgré la lenteur relative de sa « machinerie interne ». C’est cette propriété de parallélisme retrouvée dans les réseaux neuronaux qui rend attractifs les modèles connexionnistes. La manière dont ils effectuent des traitements de données est beaucoup plus proche de la méthode de calcul du cerveau humain. 107

La robustesse et la « dégradation en beauté » Si vous endommagez, de façon délibérée, un tant soit peu un processeur d’ordinateur, il s’arrêtera irrémédiablement de fonctionner. Conclusion : la « machinerie » de nos ordinateurs classiques n’est pas très robuste. En revanche, un endommagement léger du cerveau entraînera rarement la mort subite de la personne, voire n'aura même aucune conséquence. En réalité, le processus de vieillissement détruit nombre de nos neurones régulièrement. C’est ce que nous appelons la « DÉGRADATION EN BEAUTÉ ».

De petites perturbations auront peu d’influence sur le fonctionnement du système.

De grosses perturbations entraîneront, bien entendu, des défaillances catastrophiques.

108

Il est important de noter que le degré de dégradation est en quelque sorte proportionnel à l’étendue de l’endommagement du système. Les réseaux neuronaux montrent précisément ce comportement puisque chaque neurone agit comme un processeur indépendant. Chaque neurone contribue un peu au calcul dans son ensemble.

Si vous retirez un neurone, cela affecte une part réduite du calcul.

Un ordinateur standard ne contient généralement qu’un seul processeur et quand il est endommagé, c’est tout l’ordinateur qui est affecté.

109

Apprentissage machine et connexionnisme L’apprentissage machine est une discipline de l’IA qui englobe l’approche symbolique classique et le connexionnisme. Dans cette spécialité, les modèles d’apprentissage déterminent la capacité d’un agent à s’améliorer en fonction des informations provenant de son environnement. Souvent, la capacité des systèmes connexionnistes à apprendre est donnée comme une caractéristique déterminante et, en effet, jugée très attractive aux yeux des chercheurs en IA.

Au départ, on considérait les systèmes connexionnistes comme des « balles miraculeuses » pour pallier les progrès insuffisants de l'’IA.

Il est vrai que les réseaux neuronaux ont trouvé des applications dans une large gamme de problèmes liés à l’apprentissage.

Certains voyaient dans le connexionnisme « l’ultime brindille qui surnage » pour paraphraser une expression du neurophysiologiste Jerome Y. Lettvin (1920–2011) qui a travaillé au MIT dans les années 1950 et 1960.

Notez que les approches symboliques sont également bien adaptées à l’apprentissage. L’approche par réseaux neuronaux dans l'apprentissage peut être considérée comme un supplément à une longue histoire de recherches autour de ce questionnement fondamental de l’IA. 110

L’apprentissage dans les réseaux neuronaux Une grande variété de problèmes a été analysée en invoquant des mécanismes d’apprentissage des réseaux neuronaux. En se basant sur de précédentes expériences, on peut apprendre à des réseaux neuronaux à faire des rapprochements entre diverses séquences vécues en modifiant la force des connexions entre les unités d’activation. On a eu recours à des réseaux neuronaux pour résoudre, par exemple, les problèmes suivants.

La prise de décision en matière de prêts immobiliers Quand vous déposez une demande de prêt, la décision de l’établissement prêteur peut être le fruit d’un calcul par réseaux neuronaux.

L’établissement ou la société qui accorde ou non le prêt a alimenté un réseau neuronal grâce aux milliers de décisions de prêts antérieures.

Le but est de déterminer à l’avance si l’emprunteur sera ou non un bon client.

111

Le classement des échos perçus par des sonars

Les réseaux neuronaux sont supérieurs à l’Homme quand il s’agit de classer des échos obtenus par sonar dans des sous-marins, par exemple pour distinguer des roches de fond de mer de mines.

L’apprentissage de la parole L’un des réseaux neuronaux, baptisé NETtalk, a appris comment produire des sons à partir d’un assemblage de phonèmes, qui sont les briques constitutives des mots parlés. Des mots, que NETtalk n’avait jamais rencontrés auparavant, peuvent être prononcés tout à fait correctement.

112

Le jeu de dames

Des réseaux neuronaux ont été formés à jouer aux dames. Nous avons vu précédemment qu’il s’agit là d’un problème classique d'IA que l’on résout généralement par des approches SYMBOLIQUES.

Des cerveaux robotiques De nombreux robots commandent et contrôlent les mouvements de leur moteur grâce àdes réseaux neuronaux, apprenant ainsi comment éviter des obstacles.

113

Les représentations locales Les représentations symboliques sont au cœur de l’IA traditionnelle. Dans un système symbolique, des unités d’information sont déplacées et subissent des opérations dictées par le modèle.

Par exemple, un modèle symbolique pour classer des animaux peut utiliser, comme unité d’information, le nombre de jambes/pattes de chaque animal observé.

Ces informations peuvent être stockées par paquets dans une partie de la mémoire de l’ordinateur.

Ce format de représentation est qualifié de local parce que les informations relatives au nombre de jambes/pattes sont stockées en un paquet localisable. 114

Les représentations distribuées Les catégories de traitements d’information effectués par des réseaux neuronaux peuvent être radicalement différentes de celles que l’on rencontre dans les systèmes symboliques. Les représentations sont souvent distribuées de la même manière que le traitement des données peut l’être. Une représentation distribuée est répartie sur tout le réseau, plutôt que d’être localisée en un endroit précis (ou être construite à partir d’unités atomiques).

L’information n’est pas stockée en un endroit spécifique. Elle est plutôt stockée un peu partout.

Il serait plus judicieux que l’information soit « évoquée » plutôt qu'« identifiée ».

Bien sûr, les réseaux neuronaux sont eux-mêmes composés d’unités atomiques – les neurones artificiels – mais ces unités sont rarement utilisées par le concepteur du système pour représenter quoi que ce soit en elles-mêmes. 115

L’activité complexe Ainsi, dans une représentation distribuée, il est improbable qu’un seul neurone soit responsable de la représentation du nombre de jambes/pattes de notre animal candidat. Au contraire, le nombre de jambes/pattes sera représenté par un schéma complexe d’activités réparties sur un grand nombre de neurones. Quelques-uns de ces neurones vont jouer un rôle dans la représentation d'une autre propriété du système. Un grand nombre de représentations se partagent des neurones et font ainsi partie d’un réseau complexe d’activités neuronales.

Le philosophe Ludwig Wittgenstein (1889-1951) avait entrevu l’activité neuronale distribuée…

Rien ne me paraît plus probable que des gens, un jour, en viennent à la conclusion définitive qu’il n’existe aucune « copie » dans le système nerveux qui corresponde à une pensée, une idée ou un souvenir particulier.

116

L’interprétation des représentations distribuées En règle générale, vous ne pouvez localiser des items spécifiques d’information simplement en pointant du doigt un endroit particulier dans une représentation distribuée, comme vous pouvez le faire dans une représentation locale.

On peut se représenter les réseaux neuronaux comme des dispositifs holistiques qui servent à résoudre des problèmes.

La manière dont le dispositif s'organise pour résoudre le problème sera rarement transposable sous forme d’une organisation humaine interprétable.

117

Des approches complémentaires Le connexionnisme est souvent dépeint comme une révolution au sein de l’IA – une avalanche d’idées nouvelles qui traitent de problèmes anciens et qui remplacent à point nommé « l’IA de la vieille école ». Historiquement parlant, le connexionnisme et l’IA symbolique prennent leurs racines dans des travaux antérieurs à l’IA. Indépendamment des travaux de McCulloch et Pitts, Alan Turing avait réfléchi à l’idée que des groupements de neurones artificiels pouvaient agir comme des ordinateurs. Les prémonitions d’Alan Turing sur l’IA étaient profondes, d’autant plus si nous considérons ses travaux de pionnier peu connus sur le connexionnisme.

Dans les années 1940, j’ai expérimenté la conception de machines NON ORGANISÉES des versions un peu fantasques de ce que nous appelons aujourd’hui les réseaux neuronaux.

C’était un accident de l’histoire qui nous a menés à ce que l’IA symbolique devienne le vocabulaire conceptuel de choix pendant si longtemps. En dépit des querelles récentes entre les deux camps rivaux, la plupart des protagonistes seraient aujourd’hui d’accord pour dire que les deux approches sont en réalité complémentaires. 118

Les réseaux neuronaux peuvent-ils penser ? L’argument central de la chambre chinoise de Searle est l’idée que les ordinateurs, tels que nous les connaissons aujourd’hui, sont capables de « manipuler » des symboles dépourvus de sens. Une machine ne peut jamais comprendre le sens des symboles qu’elle manipule. Que l'on soit d’accord ou non avec Searle, cette question reste une énigme. Toutefois, il existe deux raisons de croire que le connexionnisme peut contribuer au débat. En premier lieu, les réseaux neuronaux diffèrent de manière significative des ordinateurs traditionnels dès lors qu’ils ont un substrat physique…

… et la clef de mon argument est l'incapacité de la machinerie physique traditionnelle à devenir le support de la compréhension.

En second lieu, dans un système connexionniste, le processus de computation se passe à un niveau sous-symbolique – et le rapport entre computation et atomes symboliques devient moins clair.

119

Le gymnase chinois Comme on pouvait s’y attendre, Searle résiste aux critiques et réplique avec ce qu’il appelle le gymnase chinois. Au lieu d’être seul dans une chambre, Searle s’imagine dans un gymnase occupé par de nombreuses personnes dont aucune ne parle un mot de chinois, chacune d’entre elles représentant un neurone dans le réseau neuronal.

L’argument reste dans la même ligne que l’argument initial…

Puisqu’aucune des personnes présentes dans le gymnase ne comprend le chinois, il s’ensuit que le gymnase entier ne comprend pas le chinois.

Searle est d’avis que le connexionnisme ne peut rien apporter de nouveau au débat.

120

Toutefois, le gymnase chinois sert à illustrer le fait que l’ensemble peut dépasser la somme des éléments constitutifs. Dans un système sous-symbolique, les unités atomiques, les neurones et leurs rapports structurés avec d’autres neurones ne font pas grand-chose en réalité. C’est seulement lorsque cet ensemble est considéré sous l’angle d’un tout que nous pouvons commencer à parler de concepts tels que les représentations distribuées ou la cognition per se.

Par conséquent, les réseaux neuronaux exhibent les propriétés d’émergence et d’auto-organisation abordées précédemment.

121

La difficulté d’identifier une base symbolique L’argument de Searle traite de l’incapacité des symboles que l’on manipule à porter une quelconque signification. En soi, ces symboles ne sont que des formes géométriques sans sens créées par un enchaînement d’activités électriques (dans le cas d’un ordinateur traditionnel). Le sens que nous attribuons à chaque symbole est un transfert parasite du sens que nous lui donnons dans notre cerveau. C’est le psychologue d’origine hongroise, Stevan Harnard (1945-) qui a proposé – pour aborder cette question – ce qu’il a appelé le PROBLÈME DE L’IDENTITÉ D’UNE BASE SYMBOLIQUE.

Un système ne peut contenir de sens que si une partie du système est ancrée dans le monde, plutôt que de faire partie d’un système fermé autoréférencié de symboles.

Harnard est d’avis que le connexionnisme est un excellent candidat pour réussir cet enracinement, surtout quand il est couplé à un système symbolique. 122

L’enracinement symbolique Imaginons, pour commencer, qu’un francophone se mette à apprendre le chinois, aidé seulement d’un dictionnaire chinois-chinois. Harnard rapproche cette situation de celle du spécialiste en cryptologie qui tente de déchiffrer un message crypté.

Vous pouvez « briser », c'est-à-dire, déchiffrer la langue chinoise, mais cela dépend de la bonne compréhension de votre propre langue maternelle.

Dans ce processus, le sens des éléments du chinois que vous apprenez est greffé sur celui du français.

123

Rompre le cercle Est-ce possible d’apprendre le chinois comme première langue, en vous aidant seulement d’un dictionnaire chinois-chinois ? Harnard appelle ça le « manège symbolique ».

Des symboles dépourvus de sens ne peuvent être représentés que par d’autres symboles sans sens.

C’est précisément le type de situation dans lequel se trouve une machine.

Mais comment les symboles peuvent-il être enracinés par autre chose que des symboles sans sens ? Une partie de ce problème de l’attribution d’un sens à un symbole requiert que l'on rompe le cercle de « non-sens ». 124

Harnard a imaginé un système symbolique traditionnel se positionnant au-dessus d’un système symbolique connexionniste. Il est important de noter que le système connexionniste possède des entrées enracinées dans le monde extérieur au moyen de capteurs. De cette façon, les représentations symboliques ne sont plus définies en termes d’autres symboles, mais sont plutôt reliées aux représentations iconiques liées directement aux surfaces sensorielles du système. Un symbole qui représente un CHIEN emprunte son sens à un ensemble complexe d’images sensorielles en rapport avec les chiens…

… plutôt que de se référer à d’autres symboles dénués de sens tels que « ABOIE », « POSSÈDE 4 PATTES » et « RENIFLE ».

C’est bien le système connexionniste qui fournit les images sensorielles. En combinant les systèmes symbolique et connexionniste, Harnard pense que l'on peut commencer à se détacher du monde fermé des symboles dénués de sens dont Searle parlait. 125

La chute de l’IA ? Après un demi-siècle de recherches en IA, les fruits des travaux se sont révélés décevants par rapport aux résultats escomptés. Nous ne sommes même pas proches du but qui consistait à assembler des machines capables de rivaliser avec les capacités cognitives des êtres humains. Le philosophe américain, Jerry Fodor (1935-) résume bien le problème posé.

L’IA s’est aventurée dans un jeu d’échecs en 3 dimensions, pensant avoir affaire à un jeu de morpion.

Formulé autrement par Rodney Brooks (1945-), du MIT...

L’Intelligence Artificielle a échoué… l’hypothèse du système symbolique, sur laquelle s’appuie l’IA traditionnelle, comporte des failles fondamentales…

126

Ce manque avéré de progrès a incité les « praticiens » de l’IA à réévaluer la situation. Les approches actuelles sont-elles maladroites ou sommes-nous à la veille d’une découverte déterminante ? Nombre de chercheurs pencheraient plutôt pour la première hypothèse et s'efforcent activement de réorienter leurs recherches. « … le fait que le paradigme cognitiviste ignore que les agents intelligents vivent dans un monde réel, physique, mène à des lacunes significatives dans la quête pour expliquer l’intelligence » - Rolf Pfeifer (1947-) et Christian Scheier. L’analyse de l’IA des processus cognitifs de haut niveau d’agents détachés des complexités d’un environnement physique a été identifiée comme la source de plusieurs de ses problèmes les plus sérieux.

127

Vers une nouvelle IA « Avant, nous pouvions nous disputer sur la question de savoir si une machine était capable de penser. La réponse est « Non ». Ce qui pense est un circuit au complet comprenant, par exemple, un ordinateur, un opérateur humain et un environnement. » dit le chercheur britannique Gregory Bateson (1904-1980), spécialiste renommé en anthropologie, psychiatrie et cybernétique. Les propos de Bateson ont ouvert ici la voie vers un nouvel ensemble de principes. Cette nouvelle orientation n’est pas encore mature – il lui manque un nom usuel, mais on entend souvent parler de « nouvelle IA ».

Loin d’être de la spéculation oisive, ces nouveaux principes ont donné naissance à d’impressionnantes œuvres technologiques.

Mais avant de voir en quoi consiste la nouvelle IA, analysons la gamme de problèmes dont on accuse l’approche traditionnelle d’être à l’origine.

128

Les micromondes ne ressemblent en rien au monde quotidien Les chercheurs en IA ont pris l’habitude d’évaluer une théorie en termes de micromonde simplifié. Dans le cas présent, ces chercheurs distillent ce qu’ils croient être les propriétés saillantes d’un environnement réel vers un environnement virtuel. Le succès d’un projet en IA se mesure alors par la manière dont les humains pourraient exécuter la même fonction dans le monde de tous les jours.

Les projets en IA sont rarement placés dans les mêmes situations que celles des Hommes.

« Les micromondes ne sont pas, à proprement parler, des mondes. Ce sont des domaines dénués de sens et il devient clair, petit à petit, qu’ils ne peuvent, en aucune manière, être combinés ou étendus pour représenter le monde de tous les jours » – Hubert Dreyfus (1929-), professeur de philosophie et Stuart Dreyfus, professeur émérite d’ingénierie et de recherche opérationnelle (extrait de Mind over Machine, Oxford, Royaume-Uni, Blackwell, 1986). 129

Les problèmes de l’IA traditionnelle Changements d’échelle

Un système pourrait très bien fonctionner vis-à-vis d'un micromonde, mais échouera souvent à généraliser à des situations plus élaborées

Étant donné qu’un des objectifs de l’IA consiste à établir des théories générales de l’intelligence, ce manque d’adaptabilité aux variations d’échelles est un obstacle au but consistant à établir des théories générales. 130

La robustesse Un trait qui est partagé par de nombreux systèmes en IA – et qui fait partie intégrante du projet CYC – est leur incapacité à réagir correctement face à des circonstances imprévues. Les systèmes en IA se trouvent souvent en échec quand ils sont confrontés à une situation nouvelle. Il est très difficile, en effet, de concevoir un système assez « robuste » pour faire face à toutes les éventualités. On notera, cependant, que les Hommes et les animaux, au contraire, sont rarement victimes de ce problème. Bien sûr, un scarabée qui se trouve sur le dos peut mourir…

Mais dans la durée moyenne de vie d’un animal ou d’un Homme…

… l’environnement va présenter de nombreuses circonstances jamais rencontrées jusque-là par un membre de l’espèce choisie. 131

L’exécution en temps réel Le cycle « sentir-modéliser-planifier-agir », qui sous-tend la conception d’agents intelligents, traditionnels, implique d’énormes quantités de données à traiter. Avant que le système ait le temps de réagir à un changement de son environnement, les informations sensorielles doivent transiter par des processus complexes de modélisation et de planification. Cette boucle complexe du flux de données fait qu’il est extrêmement difficile de rester en phase avec le monde externe. Le robot Shakey en est la parfaite illustration.

Mon comportement était caractérisé par de longues pauses, pendant lesquelles mes circuits procédaient au traitement de données complexes.

En revanche, les Hommes et les animaux peuvent réagir très rapidement aux événements qui les entourent.

Cela laisse penser qu’il y a autre chose que le modèle « sentir-modéliserplanifier-agir ».

132

En un sens, le problème de la création d’agents intelligents a déjà été résolu. Au cours des 4,5 milliards d’années d’existence de la Terre, les processus d’évolution ont résolu le problème à maintes reprises. Les mammifères sont apparus il y a 370 millions d’années. Notre dernier ancêtre commun avec les singes s’affairait sur Terre il y a 5 millions années.

Comment l'évolution a-t-elle fait ?

L’évolution biologique part de modèles préexistants et y ajoute, de temps à autre, une éventuelle amélioration.

L’évolution – à commencer par l’existence d’espèces capables de survivre en milieu hostile et de se reproduire – a perfectionné la « machinerie », couche après couche, sur des millions d’années. 133

Un nouvel argument tiré de l’évolution des espèces Le roboticien Rodney Brooks (1954-) considère les bases évolutionnaires comme la preuve que les tâches difficiles – le raisonnement, la planification et la maîtrise du langage – peuvent se révéler plus faciles à comprendre dès lors que les « capacités de base » sont acquises.

L’intelligence est intimement liée à la capacité pour un agent de réagir face à un environnement donné.

Est-ce que nos connaissances sur l'évolution nous aident à mieux comprendre l’IA ? Brooks pense que « oui » et défend l’idée que nous devrions commencer par élaborer des créatures mécaniques « basiques », avant d’essayer de construire des humanoïdes. 134

Les arguments biologiques Les liens intimes entre un organisme et son environnement ont été observés et analysés par les biologistes dès le xixe siècle. Mais l’IA n’a que rarement puisé dans les découvertes des biologistes. Par exemple, les circuits neuronaux dans la rétine de l’œil de la grenouille, étudiés par le biologiste chilien Humberto R. Maturana (1928-) et de son élève Francisco J. Varela (1946-2001), s’excitaient en présence de structures « globulaires » qui ressemblent à des mouches. En étudiant son comportement, nous pourrions être tentés d’attribuer à la grenouille un « modèle interne du monde » comprenant des mouches et, par extension, d’autres grenouilles.

Mais cela n’est simplement pas la sorte de phénomène qui existe dans le monde de tous les jours d'une grenouille. 135

Les comportements non cognitifs Maturana et Varela ont mis en évidence ce point, en commençant par présenter une mouche appétissante dans le champ de vision de la grenouille, en haut et à gauche précisément.

La grenouille projette sa langue et attrape la mouche.

Ensuite, ils ont sectionné une partie des muscles oculaires, de manière à ce que l'oeil soit retourné de 180° dans le plan vertical. En présentant la mouche exactement au même emplacement qu’auparavant, la grenouille projette sa langue, mais cette fois à 180°, c’est-à-dire vers le bas et à droite par rapport à son champ de vision.

Jamais la grenouille ne modifiera son comportement. Elle ne s’adaptera pas en fonction des tentatives infructueuses pour attraper la mouche. 136

La morale de cette histoire est que l’œil de la grenouille ne réagit pas comme une caméra fournissant des informations à son module de planification, qui aurait pour tâche de créer un plan lui permettant d’attraper la mouche.

Le cycle sentirmodéliser-planifier-agir ne s’applique pas ici.

Si c’était le cas, j’aurais, bien évidemment, changé mon comportement.

Au lieu de cela, comme Maturana et Varela l’ont démontré par la suite, le comportement d’« attrape-mouche » de la grenouille est déterminé par la rétine elle-même, indépendamment des autres processus se déroulant ailleurs dans le cerveau. Cette expérience illustre comment certains comportements, tels que la cueillette de nourriture, s'effectuent par le biais d'une interaction entre la perception et le geste, indépendamment (et sans en avoir besoin d’ailleurs) d’une intervention de processus d’un niveau plus élevé. 137

Les arguments philosophiques De nombreux concepts au cœur de l’IA trouvent leurs racines dans des travaux de philosophes tels que Descartes, Hobbes, Leibniz, comme nous l’avions fait remarquer plus haut, et aussi dans le Tractatus LogicoPhilosophicus de Ludwig Wittgenstein (1889-1951), en ces termes :

Le monde est un ensemble global de faits et non de choses.

Nous, nous avions défendu l’idée qu’il était possible de parvenir à une théorie formelle du monde tel qu’il existe, fondée sur un rassemblement de postulats FORMELS PRIMITIFS.

L’IA a transposé cette idée sous la forme du langage du traitement de données symboliques…

Si vous fournissez à un ordinateur un ensemble approprié de postulats de base, il devrait pouvoir fonctionner dans le monde de la même manière qu’un être humain.

138

Des arguments contre le formalisme Wittgenstein, dans une vision philosophique postérieure, et Martin Heidegger (1889-1976) ont rejeté avec force la présupposition formaliste du sens. Mais quelles sont les parties constituantes simples de la réalité ? … Cela ne veut rien dire, par exemple, de parler des « parties simples d’une chaise ».

Nous avons combattu la présupposition selon laquelle il était possible de parler de représentations mentales « ayant du sens », non liées à des activités vécues.

Ils ont affirmé qu'une théorie formelle est, de par sa nature, détachée de l'activité qui lui donne du sens. Cette position philosophique alternative nous suggère qu’une interprétation du monde ne peut être explicitée et qu’entreprendre des tentatives en ce sens nous mènerait à des formes de compréhension grossièrement imprécises. 139

L’intelligence sans corps, ça n’existe pas Cet argument – il ne peut exister d’intelligence sans corps – sous-tendait l’une des critiques le plus percutantes de l’IA. Le philosophe Hubert Dreyfus (1929-), professeur à l’Université de Berkeley, a affirmé dans les années 1970 que l’IA se trompait en pensant qu’une intelligence sans corps pouvait exister. Concernant cette faille de l’IA traditionnelle, Dreyfus a déclaré :

La tradition rationaliste a finalement été soumise à un test empirique, et ne l’a pas réussi. Cette idée, que l’on pouvait bâtir une théorie formelle, atomiste de notre monde quotidien de « bon sens », et représenter cette théorie par un agent « manipulateur » de symboles a rencontré précisément les mêmes difficultés que Heidegger et Wittgenstein venaient de mettre à jour.

140

Les agents du monde réel Les chercheurs en IA peuvent-ils apprendre quelque chose d’utile de ce débat philosophique ? Si Heidegger, Wittgenstein et Dreyfus avaient raison de rejeter la notion d’intelligence désincarnée, l’IA devrait par conséquent se focaliser sur la manière dont le comportement d’un agent est « contraint » et déterminé (au moins partiellement) par ses activités en cours. Ce focus suggère que les agents devraient être modelés et non désincarnés, détachés et isolés, mais plutôt impliqués dans le monde de tous les jours.

Au début, la critique formulée par Dreyfus fut méprisée poliment par la communauté de chercheurs en IA, mais petit à petit, elle gagna du terrain, jusqu’à devenir un sujet acceptable de débat.

141

La nouvelle IA Les arguments évolutionnaires, biologiques et philosophiques s’opposent à de nombreuses recherches traditionnelles menées en IA. Mais, pour les mettre en œuvre concrètement, ils doivent être traduits en termes de principes d’ingénierie. Ainsi, trois principes caractérisent la nouvelle approche en IA.

Premier principe – l’embodiment

L’embodiment recouvre l’idée qu’avoir un corps a un sens THÉORIQUEMENT significatif.

Cela veut dire en clair que les contraintes d'un corps imposées à un agent sont déterminantes quant à la façon de ce dernier d’interagir avec le monde.

Le degré à partir duquel l’embodiment devient significatif reste un sujet controversé. Rodney Brooks va jusqu’à affirmer que « l’intelligence a besoin d’un corps ». Par exemple, le design du « corps » d'un robot va déterminer à l’avance les phénomènes sensoriels qu’il sera capable de percevoir. 142

Le second principe – « situatedness »* Ce second principe, le « situatedness » se réfère à l’environnement complexe dans lequel est placé l’agent, plutôt que d’être dans un micromonde très abstrait. Les complexités des environnements réels sont considérées comme fondamentalement différentes de celles qui régissent des micromondes abstraits. En effet, « être en situation » permet d’exploiter les structures du monde complexe, tel qu’il est, et réduit d’autant le poids superflu des représentations internes.

Elsie, la tortue-robot de Walter, a exploité sa connaissance de l’emplacement de sa station de recharge placée dans la niche.

Elsie n’a jamais invoqué le modèle de niche. Ses fonctions résultaient seulement de l’interaction entre ses capteurs et le monde réel.

* être en situation

Rodney Brooks a résumé ce type de relation (tortue-niche) en avançant que : « le monde est son propre meilleur modèle ». 143

Troisième principe – le « design bottom-up »* Si le but est de construire un agent intelligent, la méthodologie souvent employée par les chercheurs en IA est de construire leur modèle de haut en bas (« top-down » comme disent les Anglo-Saxons).

C’est-à-dire que les fonctions de « haut niveau », telles que l’acquisition de connaissances et le raisonnement, sont ciblées en premier, et les fonctions plus « basses » sont reléguées à un traitement ultérieur.

La nouvelle IA se propose d’aborder le design des agents de « bas en haut », donc en commençant par les fonctions les plus basiques…

* conception de bas en haut ou ascendante 

Par exemple, Rodney Brooks assemble des machines « basiques », qui ressemblent à des insectes. Son idée est que c’est seulement en comprenant les fonctions de base d’abord que nous pourrons espérer un jour comprendre les complexités de la cognition humaine. 144

La robotique basée sur le comportement Les principes qui sous-tendent la nouvelle IA ont été mis en œuvre de façon exemplaire par Rodney Brooks, qui a été à la pointe d’une approche connue sous le nom de robotique basée sur le comportement.

Je souhaite construire des agents mobiles, totalement autonomes qui coexisteraient dans le monde aux côtés des êtres humains et qui seraient considérés par ces derniers comme des êtres intelligents per se. Je me propose d’appeler ces agents créatures…

Comment Brooks peut-il réussir, en passant par une conception « bottom-up » (ascendante), à construire de simples créatures robotiques qui ressembleraient à des insectes ? 145

Les comportements comme unités de conception L’évolution est un processus d’empilage par couches. Elle est incrémentale. Elle perfectionne et élabore de nouvelles conceptions à partir de CONCEPTIONS DÉJÀ EXISTANTES.

Une robotique basée sur les comportements s’inspire de cette approche. Les unités de conception sont les COMPORTEMENTS eux-mêmes.

On part de comportements existants pour, en réalité, élaborer d’autres comportements plus complexes. À la différence de la robotique traditionnelle, qui se base sur le cycle sentir-modéliser-planifier-agir, les robots de Brooks contiennent des modules et des composants autonomes qui fonctionnent en parallèle. Il n’y a pas de module de commande centrale. Les comportements observés mettent en œuvre un couplage « fort » entre perception et action, évitant ainsi de recourir à des processus cognitifs pour assurer une médiation entre les fonctions de perception et d'action. 146

Le robot Genghis Dans les années 1980, Brooks a assemblé, avec ses collègues, un robot à 6 pattes baptisé Genghis, conçu pour traverser des environnements hostiles à la recherche de rayonnements infrarouges émis par les humains (ou des animaux). Ce fut une réussite, pour deux raisons.

En premier lieu, je pourrais traverser des terrains hostiles, comme le font les insectes.

Après avoir étudié des vidéos sur les mouvements d’insectes, j’ai construit une machine qui se déplaçait bien, comme un insecte.

En second lieu, je note que Brooks a réussi en appliquant des techniques novatrices. Genghis ne possède pas de module de commande centrale. Il ne renferme aucune description de la fonction « comment marcher ». Les logiciels de Genghis, au lieu d’être intégrés dans un seul programme informatique, se répartissaient en 51 petits programmes parallèles. 147

Comment la conception dicte les comportements Genghis comprend de nombreux comportements autonomes simples, organisés comme autant de couches de commande. Chaque couche ajoute un comportement plus sophistiqué, mieux contrôlé.

Par exemple, l’une des couches renferme le comportement SE METTRE DEBOUT.

Une autre couche traite des rudiments de la marche, tels que le BALANCEMENT et la COORDINATION DES PATTES.

Des couches supplémentaires aident Genghis à devenir de plus en plus résistant.

Le schéma de conception de Genghis dépend du type de terrain dans lequel il va évoluer. Les comportements introduits sont influencés fortement par les contraintes imposées par sa structure mécanique. 148

Regroupements d’agents Bien que les principes de la nouvelle IA soient directement traduits en robotique, ils ne sont aucunement limités par les problèmes de cette dernière. Un traitement plus fin de l’interaction entre les agents et leurs environnements peut s’appliquer à toutes les disciplines couvertes par l’IA. Le chercheur belge Luc Steels (1952-), directeur du laboratoire IA de l’Université Libre de Bruxelles, a ajouté un nouveau « chapitre » à l’approche ascendante, en étudiant l’évolution de systèmes de communication et le concept de sens au sein de regroupements d’agents.

Dans ma nouvelle approche, le concepteur humain ne fournit pas son choix de langage ou de concepts aux agents, mais essaie de mettre en place des systèmes qui génèrent de façon automatique leurs propres langage et concepts.

149

L’expérience des « Têtes qui se parlent » Dans l’expérience Talking Heads (« les têtes qui se parlent »), les agents existent indépendamment de tout robot physiquement constitué. Ils se situent dans un environnement virtuel, supporté par un ordinateur qui couvre un grand nombre d’emplacements d’agents. Quand ces agents ressentent le besoin d’interagir, ils se « téléportent » dans des structures mécaniques robotiques vers des emplacements physiques du monde réel, par exemple à Bruxelles, Paris ou Londres.

En empruntant des structures mécaniques robotiques à la demande, on voit que cette expérience des « têtes qui se parlent » peut supporter de nombreux agents, même si le nombre de ces structures peut être limité. On appelle ces structures robotiques des TALKING HEADS.

Elles comprennent une caméra, un haut-parleur et un microphone. En résumé, les Talking Heads agissent comme des coquilles robotiques vides qui peuvent être occupées par des agents virtuels quand cela est nécessaire. 150

La catégorisation des objets Le but assigné à cette expérience consiste à étudier comment un langage partagé peut résulter d'interactions entre agents. On notera, et c’est très important, que ce langage n’est défini nulle part dans le déroulement de l’expérience ; il ne provient que des interactions entre agents. Les agents partent d’une « ardoise vide » et développent de façon autonome leurs propres « ontologies » – le fait d’appartenir au monde réel – et cela leur permet d’identifier et de discriminer des objets du monde réel.

Dès que les agents acquièrent la capacité de catégoriser des objets, ils essaient de les nommer en communiquant entre eux.

Cette catégorisation du monde par les agents n’est pas programmée, elle émerge « naturellement ». Elle est construite et apprise par les agents eux-mêmes.

151

Le jeu de « nommage » Les agents de Steel interagissent par le biais de jeux de langage. Un tel jeu commence quand deux agents sont sélectionnés, puis téléportés dans un même lieu. Ces deux agents « assis » dans des structures robotiques distinctes observent la même scène mais sous deux angles différents. Chaque scène inclut un certain nombre de formes coloriées, placées sur un tableau blanc.

Chaque agent va avoir une perception des objets différente.

Un agent peut choisir, par exemple, de catégoriser les objets par leur couleurs…

Tandis que l’autre va se référer à sa forme.

Les agents en arrivent à des conceptions différentes du monde puisqu’ils occupent des emplacements légèrement différents, et vont se concentrer sur différents objets au cours de leur vie opérationnelle. C’est pour cette raison que les agents développent leurs propres ontologies. 152

Et, dès lors que les agents possèdent la capacité de catégoriser des objets dans les scènes qu’ils observent, ils peuvent commencer à initier des jeux de langage. D’abord, les deux agents se mettent d’accord sur un contexte, à savoir une partie précise de la scène observée. L’un des agents parle à l’autre, en employant une expression qui identifient l’un des objets de l'environnement.

Au départ, les paroles prononcées sont du charabia. Elles sont choisies et agencées de manière aléatoire et, de ce fait, il y a peu de chances qu’elles soient comprises par un quelconque autre agent.

Le sens des paroles prononcées dépendra de la manière dont l’agent qui parle voit le monde. L’agent peut vouloir dire « l'objet vert » et prononcer le mot « Vivebo ».

153

Un processus de rétroaction L’agent qui écoute essaie de comprendre ce que l'autre agent entend par « Vivebo » et désigne ce qu’il croit être l’objet identifié par le premier agent.

Si les deux agents se mettent d’accord sur l’objet qu’ils cherchent à nommer, le jeu est réussi dans la mesure où les deux agents sont d’accord sur le fait que le nom VIVEBO est approprié pour cet objet.

Sinon, les agents vont recoordonner leur comportement, de sorte qu’ils auront plus de chances de réussir à leur prochaine rencontre.

De cette manière, l’ensemble des signaux utilisés par un agent pour se référer aux objets dans le monde peut être renforcé ou révisé, suivant la rétroaction obtenue en jouant à ces jeux de langage. 154

L’auto-organisation chez les robots cognitifs L’enseignement principal tiré de l’expérience des Talking Heads est que les agents développent séparément – et de façon interne – leur propre manière de catégoriser le monde tel qu’ils le voient. Mais dans le même temps, ils négocient par communication externe un lexique partagé. Différents agents peuvent parler d’un même objet, mais en le conceptualisant de manière différente, tout en partageant des mots de leur lexique. Les expérimentations de Steel illustrent comment un système de communication, ancré dans le monde de tous les jours, peut émerger au travers des interactions entre agents, sans être défini en tant que tel ni chez l’un ni chez l’autre des agents.

Cette forme d’auto-organisation de haut niveau ne peut être comprise que dans le contexte d’agents ayant de multiples emplacements – comme cela se fait d'ailleurs dans le monde des humains qui interagissent.

La présence d’autres agents construit en partie le monde de phénomènes avec lequel chaque agent interagit.

155

L’avenir de l’IA Les chercheurs en IA ont avancé d’audacieuses prédictions.

« D’ici à 2029, les logiciels conçus pour des activités intelligentes seront largement maîtrisés, de sorte que l’ordinateur personnel aura une puissance équivalente à 1 000 cerveaux ». Ray Kurzweil, 1999, auteur américain.

Si j’exclus la survenue d'un cataclysme, je considère inévitable, dans un proche avenir, le développement de machines intelligentes.

Ces prédictions – en considérant le fait qu'il existe peu de preuves jusqu'à présent suggérant que quoi que ce soit approchant de l'intelligence humaine soit transposables dans des machines – sont prématurées. Les scientifiques sont des habitués de l’annonce de découvertes révolutionnaires pour une date proche de leur propre retraite ! Il est difficile de prendre au sérieux les déclarations affirmant que l’IA atteindra ce but dans un avenir proche. 156

L’avenir proche

« Aucune des tentatives en robotique n’a réalisé les prédictions des années 1950, en total contraste avec l’explosion largement inattendue des ordinateurs dans nos vies au quotidien ». Hans Moravec (1948-), enseignant-chercheur au Centre de robotique de l'université Carnegie-Mellon. La plupart des gens savent ce qu’est un robot et peuvent peut-être même en nommer un célèbre.

Mais hormis les robots industriels qui sont assez répandus, par exemple dans les chaînes de montage des automobiles, on en voit rarement en dehors des laboratoires. Les robots utiles n’ont pas encore vu le jour. 157

L’avenir plus proche Il est évident, désormais, que les robots vont commencer à être de plus en plus répandus, quittant les laboratoires pour être opérationnels dans le monde de tous les jours.

Nous serions avisés, lors de discussions sur les perspectives de l’IA, d’essayer de voir ce qui va se produire dans un proche avenir et de comparer ces perspectives avec ce que les chercheurs avaient prédit, mais pour plus tard.

158

Le robot de rêve de Sony Début 2002, le groupe Sony a annoncé le développement de leur « Sony Dream Robot » (SDR), un prototype de robot humanoïde. SDR avait des possibilités dépassant de loin celles de tout autre robot bipède assemblé jusque-là.

Le SDR peut marcher, aborder des escaliers et des obstacles, et résiste à la plupart des efforts pour le renverser.

Les robots marcheurs ont longtemps été un objectif pour les roboticiens.

Un robot marcheur pourrait théoriquement vivre dans une maison et effectuer certaines corvées dans des endroits que les robots à roues ne peuvent atteindre. 159

Et ça chante et ça danse Mais c’est la robustesse qui impressionne chez le SDR. Des robots marcheurs existaient avant le SDR mais ne possédaient qu’une gamme limitée de comportements et, dans la plupart des cas, étaient placés sous contrôle à distance d'un humain.

Si un SDR chute, il se relève, exactement comme le fait un être humain.

Le SDR est capable d’éviter des obstacles, grâce à sa vision stéréoscopique, plutôt que de les bousculer au passage.

Le marché prévu pour le SDR est celui des divertissements. À part ses talents de marcheur, le SDR chante, danse et sait reconnaître des visages et des voix. 160

Le but assigné au SDR par ses créateurs est d’interagir avec ses propriétaires pour établir un lien émotionnel.

« En plus d’être équipé de fonctions de mémorisation à court terme, pour mémoriser temporairement des personnes et des objets, le SDR-4X possède des fonctions de mémorisation à long terme pour retenir des visages et des noms, au travers d’une interaction plus poussée avec les gens. Des informations d’ordre émotionnel, basées sur l’expérience de communication «  vécue  » par le robot, sont également stockées dans un module de mémoire à long terme. En se servant de ses mémoires à court et à long termes, le SDR-4X réussit à avoir des conversations et des comportements plus complexes ». Communiqué de presse Sony ; mars 2002. 161

Le SDR est un robot sérieux Bien que le SDR (Sony Dream Robot) soit très impressionnant, peut-il réellement nous aider à faire la lumière sur l’objectif premier de l’IA qui est de comprendre ce qu’est la cognition en construisant des machines dites intelligentes ? L’un des résultats importants des projets comme le SDR est qu’ils offrent une plateforme sur laquelle explorer d’autres technologies en IA. Si nous prenons le postulat de Rodney Brooks, selon lequel « l’intelligence a besoin d'un corps », la disponibilité d’un « corps improvisé », peut s’avérer très utile. Luc Steels, par exemple, en liaison avec le groupe Sony a un projet pour combiner son expérience des « têtes qui se parlent » avec un SDR-4X.

En communiquant verbalement l’un avec l’autre, l’être humain et le robot peuvent se rencontrer à mi-chemin…

162

Son but est de permettre au propriétaire du SDR et à celui-ci de développer un système de communication qui leur serait propre.

… en mettant au point leur propre système de communication.

Les possibilités futures En se basant sur la probabilité de pouvoir disposer prochainement, et en nombre, d'une machinerie assez puissante, le célèbre roboticien Hans Moravec a prévu dans le détail les quatre prochaines générations de robots. Cependant, il est important de souligner que certains spécialistes n'y voient rien d'autre que de la science-fiction, car il y a peu de preuves aujourd’hui qu’ils soient réalisables un jour.

Le parcours que j’ai esquissé récapitule grossièrement l’évolution de l'intelligence humaine – mais 100 millions de fois plus rapidement.

Il suggère que l’intelligence des robots dépassera la nôtre bien avant 2050.

Moravec a imaginé quatre générations de ce qu’il appelle des robots universels, en raison de leur présumée disponibilité universelle, un peu comme nos ordinateurs de bureau aujourd’hui. Dès lors que les robots seront utiles et à un prix abordable, Moravec prédit qu’ils deviendront bien plus courants et disponibles que les ordinateurs, car on pourra leur confier plus de tâches. 163

La prédiction de Moravec Première génération D’ici 2010, les robots pouvant effectuer 3 000 MIPs (millions d'instructions par seconde) seront largement répandus. Ces robots auront l’intelligence d’un lézard dans un corps d’humanoïde.

Nous effectuerons des tâches très simples, comme le ménage à domicile.

Deuxième génération D’ici 2020, la puissance de calcul (le traitement d’instructions élémentaires) passera à 100 000 MIPs, et les robots de deuxième génération auront le niveau d’intelligence que l’on prête aux souris. Nous serons capables d’apprendre à partir de notre expérience et de converser avec les humains.

164

Troisième génération D’ici 2030, la puissance de calcul aura atteint les 3 000 000 MIPs. Ces machines seront ainsi dotées d’un niveau d’intelligence que Moravec décrit comme comparable à celui des singes.

Les robots de 3e génération pourront, par exemple, apprendre de nouvelles tâches simplement en observant les autres.

Quatrième génération D’ici 2040, nous aurons des machines capables d’effectuer 100 000 000 MIPs… et aurons face à nous une intelligence comparable à la nôtre.

Nous commencerons alors à concevoir notre propre progéniture.

Réalité ou fiction ? Les prédictions de Moravec sont particulièrement hardies et de nombreux spécialistes seraient en désaccord avec lui. Les progrès des chercheurs vers une Intelligence Artificielle digne de ce nom sont souvent en deçà des progrès observés du côté des ordinateurs, de plus en plus sophistiqués et puissants. Pour cette simple raison, les revendications visionnaires de Moravec doivent être considérées comme les meilleurs scénarios imaginables. 165

L’IA Forte : vers une nouvelle forme d’évolution ? Si on l'accepte l’idée que l’IA Forte est possible et si nous croyons les prédictions de certains scientifiques réputés, une nouvelle forme d’évolution va apparaître. Au lieu de donner naissance à des enfants biologiques, nous commencerons à produire ce que Moravec appelle des enfants de l’esprit, des êtres techniques « supérieurs à nous ». L’information est transmise de génération en génération par deux formes d’évolution. L’ÉVOLUTION BIOLOGIQUE découle de la transmission des informations nécessaires à la « construction » d’un être humain. Ces informations, codées, sont contenues dans nos gènes.

L’ÉVOLUTION CULTURELLE découle de la transmission de concepts et de savoir-faire, tels que la science, la religion, l'art… Ces informations sont transmises d’un esprit à l’autre par des codes de stockage et par l’apprentissage auprès d’autrui.

L’évolution, tant biologique que culturelle, crée des informations rémanentes, transmissibles d’une génération à l'autre. 166

Si nous parvenions à concevoir techniquement notre progéniture, de nombreux chercheurs prédisent que cela mènerait à une évolution lamarckienne de notre espèce. À l’opposé de la théorie de Darwin, qui a décrit l’évolution des espèces par un processus de sélection naturelle, Lamarck avait suggéré que des caractéristiques acquises au cours de la vie pouvaient être transmises aux générations futures.

Si vous êtes amputé d’un bras, cela n’augmente pas la probabilité qu’il manquera un bras à vos enfants !

La « caractéristique acquise » n’altère pas les gènes et, par conséquent, cette information ne sera pas transmise à vos descendants.

C’est vrai, mais imaginons un instant que nous pouvons concevoir techniquement l’évolution sans avoir recours à la biologie.

167

Vers une évolution sans apport biologique Si nous avons la possibilité de concevoir techniquement notre progéniture, nous serons tentés de modifier sa conformation. Cette capacité acquise de nous reproduire (autrement que biologiquement) affectera notre évolution. La vitesse d'évolution pourrait s’accélérer. « Un processus évolutionnaire accélère parce qu’il s’appuie sur ses propres moyens pour évoluer davantage. Les Hommes ont vaincu l’évolution. Nous créons des entités intelligentes en un temps largement inférieur à celui que l’évolution biologique a pris pour nous créer. » - Ray Kurzweil.

Notre évolution sera – pour la première fois – non seulement séparée mais totalement indépendante de contraintes biologiques.

168

La culture va alors évoluer indépendamment de la biologie – et bien plus rapidement.

« Nous avions pris l’habitude, par le passé, de nous considérer comme le produit final de l’évolution, mais la nôtre n’est pas encore terminée. En effet, nous sommes en train d’évoluer plus rapidement qu'avant… en raison de l’arrivée de formes inventives de sélection non naturelle. » - Marvin Minsky (1927-), scientifique américain, MIT. Si le but de l’IA – faire passer les êtres humains pour de simples machines – aboutissait, nous ne devrions plus souffrir des restrictions de notre « machinerie » organique. Les êtres humains et les machines intelligentes, prises au sens large, pourraient par conséquent, en théorie, évoluer en dehors des restrictions imposées par l’évolution biologique. 169

Une prévision De nombreux critiques avancent que la vision du futur de l'IA de Moravec est peu vraisemblable. Les dates annoncées pour l’arrivée de ses robots universels sont particulièrement audacieuses. Au début du livre, nous avions souligné que l’histoire de l’IA pouvait être tracée en fonction des progrès notés dans deux disciplines : la recherche en robotique et la recherche sur la question plus générale de nos capacités cognitives.

Les robots sont sur le point de devenir largement accessibles.

De grandes compagnies industrielles comme Sony ou Honda investissent fortement dans le domaine des robots utiles.

Au moment où j’écris ces lignes, un robot aspirateur à prix abordable vient d’être commercialisé. Ainsi, la robotique vient de quitter à grands pas les laboratoires de recherche académique pour entrer dans le domaine de l'industrie mondiale. C’est une démarche très prometteuse en termes de progrès escomptés. Il est peu vraisemblable qu’un projet technique aussi avancé que le robot SDR de Sony ait pu être développé dans un cadre académique. 170

Vers une cognition mécanisée Doter les machines de capacités cognitives est une tout autre affaire qui représente toujours un obstacle de taille. La majorité des spécialistes en IA vont probablement continuer à explorer les possibilités d’une Intelligence Artificielle en empruntant des chemins traditionnels et connexionnistes.

Les approches traditionnelles de l’IA ont maintenant de solides assises.

Mais la nouvelle IA, basée sur le constat qu’une activité intelligente résulte d’une interaction complexe entre l’agent et son environnement, devrait continuer à gagner du terrain et de la respectabilité.

Sans les apports de la nouvelle IA, il est difficile de prédire où vont se produire les futures découvertes majeures. 171

La future croisée des chemins Si les principes qui définissent la nouvelle IA sont établis, l’IA va devoir placer désormais les agents dans des environnements bien plus riches, qui reflètent les phénomènes réels auxquels font face les Hommes et les animaux. L'IA étudie la cognition entre agents. Dans le même temps, l’IA a largement omis de prendre en compte le fait que l’évolution naturelle a déjà résolu le problème.

La théorie de l’évolution nous apprend que les organismes cognitifs ont évolué de façon à résoudre des problèmes très spécifiques.

Nombre de ces problèmes requièrent une exploitation particulière de l’environnement.

On admet généralement que l’IA n’a pas su reconnaître l’importance des interactions entre agent et environnement. 172

De nombreux spécialistes en IA commencent à penser que ces interactions sont fondamentales. Poussée à l'extrême, cette idée exigera que les chercheurs en IA travaillent soit avec des corps robotisés, soit avec des micromondes mieux informés. Jusqu’ici, l’IA a considéré la complexité environnementale comme une problématique secondaire. La conception de micromondes relève pour l’essentiel d’un jeu de devinettes.

L’IA ne va pouvoir commencer à résoudre le « bon problème » qu’une fois que l’interaction entre les humains et leurs environnements sera parfaitement comprise. Les deux pistes, celle de la robotique et celle de la modélisation cognitive, devront s’informer mutuellement si elles espèrent un jour se rencontrer.

173

Suggestions de lectures supplémentaires Pour une bonne introduction générale à l'IA, les ouvrages suivants sont bien écrits et appréciés par les chercheurs. Pfeifer et Scheier offrent une analyse complète et actuelle des grandes problématiques de l’IA.

• •

Rolf Pfeifer et Christian Scheier, Understanding Intelligence (Cambridge, MA: MIT Press, 2001). Roger Penrose, The Emperor’s New Mind: Concerning Computers, Minds, and Laws of Physics (Oxford: Oxford University Press, 1989). Les articles suivant présentent des réponses à certaines des questions philosophiques clés.

• • • •

Douglas R. Hofstadter et Daniel C. Dennett, The Mind’s I: Fantasies and Reflections on Self and Soul (New York, NY: Basics Books, 1981). John Haugeland (ed.), Mind Design II: Philosophy, Psychology, and Artificial Intelligence (Cambridge, MA: MIT Press, 1997). Stuart Russel et Peter Norvig, Artificial Intelligence: A Modern Approach (Harlow : Prentice Hall, 1994). Nils J. Nilsson, Artificial Intelligence: A New Synthesis - (San Francisco, Ca. USA : Morgan Kaufmann, 1998). Le deux ouvrages suivants ont été écrits par des roboticiens de tout premier plan mais s’adressent aux lecteurs non spécialistes. Pour ceux qui s’intéressent à la robotique, ces livres représentent un excellent point de départ.

• •

Rodney Brooks, Robot : The Future of Flesh and Machines (Londres : Penguin, 2002). Hans Moravec, Robot : Mere Machine to Transcendent Mind (Oxford : Oxford University Press, 1999).

174

L’auteur et l’illustrateur Henry Brighton – qui travaille au Centre du Comportement et de la Cognition à l’Institut Max Planck, Berlin [mpib-berlin.mpg.de] – a entrepris des recherches en apprentissage machine, tant dans un cadre commercial qu’académique. Plus récemment, ses travaux ont porté surtout sur la problématique de l’évolution du langage, où il fait appel à des techniques d’apprentissage machine pour modéliser les évolutions linguistiques au niveau de populations multi-agents. Howard Selina est né à Leeds, en Angleterre, et a étudié la peinture à la Saint Martin’s School of Arts et à la Royal Academy, à Londres. Il travaille à Londres comme peintre et illustrateur et, ayant rafraîchi un vieux bateau à coque d’acier, rénove en ce moment une ancienne demeure en pierre dans le Yorkshire.

Remerciements L’auteur tient à remercier Luc Steels, directeur du laboratoire en IA à l’Université Libre de Bruxelles, les chercheurs de l’Unité d’étude de l’évolution du langage de l’université d’Edimbourg qui ont énormément aidé et en particulier, Joseph Poulshock, Kenny Smith et Andrew Smith. L’auteur tient aussi à remercier Simon Kirby et Jim Hurford pour leur compréhension, et Anna Claybourne, Jelle Zuidema et Paul Vagt pour leurs conseils éclairés. L’artiste remercie à son tour Richard Appignanesi pour ses idées et suggestions, et pour n’avoir jamais cédé à la panique, sans oublier Mme Paola di Giancroce pour ses tasses de thé, ses verres de vin et pour les sorties en vélo partagées.

175

L’auteur et l’illustrateur Henry Brighton – qui travaille au Centre du Comportement et de la Cognition à l’Institut Max Planck, Berlin [mpib-berlin.mpg.de] – a entrepris des recherches en apprentissage machine, tant dans un cadre commercial qu’académique. Plus récemment, ses travaux ont porté surtout sur la problématique de l’évolution du langage, où il fait appel à des techniques d’apprentissage machine pour modéliser les évolutions linguistiques au niveau de populations multi-agents. Howard Selina est né à Leeds, en Angleterre, et a étudié la peinture à la Saint Martin’s School of Arts et à la Royal Academy, à Londres. Il travaille à Londres comme peintre et illustrateur et, ayant rafraîchi un vieux bateau à coque d’acier, rénove en ce moment une ancienne demeure en pierre dans le Yorkshire.

Remerciements L’auteur tient à remercier Luc Steels, directeur du laboratoire en IA à l’Université Libre de Bruxelles, les chercheurs de l’Unité d’étude de l’évolution du langage de l’université d’Edimbourg qui ont énormément aidé et en particulier, Joseph Poulshock, Kenny Smith et Andrew Smith. L’auteur tient aussi à remercier Simon Kirby et Jim Hurford pour leur compréhension, et Anna Claybourne, Jelle Zuidema et Paul Vagt pour leurs conseils éclairés. L’artiste remercie à son tour Richard Appignanesi pour ses idées et suggestions, et pour n’avoir jamais cédé à la panique, sans oublier Mme Paola di Giancroce pour ses tasses de thé, ses verres de vin et pour les sorties en vélo partagées.

175

Index Action intelligente (théorie) 44 Agents 4-5 Agents, groupes 149 Alien 8 Apprentissage (machine) 110 Arbres de jeux 80-1 Auto-organisation 55, 121, 154-5 Axones 101, 104 Base symbolique 122-5 Brooks, Rodney 126, 134, 142-7 Caenorhabditis elegans 71-72 Cerveau métaphore 19, 41 Cerveau (qui calcule) 38 Cerveau (prothèse) 59 Chambre chinoise (Searle) 51-3, 119 Chomsky, Noam 32-3, 34, 37 Clever Hans 30-1 Cognition 32, 34, 66, 70, 102, 172 Cognition mécanique 171 Cognition (modélisation) 69, 173 Cognition (psychologie) 15, 16 Cognition (sciences de) 16, 66 Cognitivisme 35, 40, 66 Comportement complexe 28 Comportement noncognitif 136-7 Comportementalisme 14 Comportements 146, 148 Compréhensions (émergence) 56 Computation 35-6, 40 Computation neuronale 102 Computation universelle 39 Conception « ascendante » 144 Connaissances 87-92 Connexionnisme 100, 110, 118 Conscience (l'état) 64 Contrôle fini 37 Cybernétique 26 CYC (projet) 90-2, 131 Dames (programmes) 78-9, 113 Dégradation « en beauté » 108 Descartes, René 18 Dreyfus, Huber 139-40 Dualisme 58 Échecs (programmes) 83-87 Échelles 130 Elsie 28-9, 31, 68, 93, 143 Embodiment 142 Émergence 55-6, 121

176

Enfants de l’esprit 166 Environnement 32-4, 127-9 Évolution 133-4, 166-9, 172 Extropéiens 9 Fodor, Jerry 75, 126 Fonctionnalisme 42, 57 Fonctions d’évaluation 87 Formalisme 139 Genghis 147-9 Gravité quantique 62-3 Gymnase chinois 120-1 Harnard, Steven, 122-5 Heidegger, Martin 139-41 Herméneutique 20 Heuristique 84 Hobbes, Thomas 88 IA Faible 7 IA Forte 5, 9-11, 166 IA Nouvelle 128, 132, 171-2 Immortalité 11 Intelligence 24-5 Intelligence surhumaine 12 Intentionnalité 64-5 Jeu de l’imitation 45, 50 Kasparov, Garry 83, 85-6 Langage 32-3, 34, 152 Leibnitz, G.W. 89, 91 Lenat, Doug 9, 90-2 Logique (pensée) 88-9 Machinerie (bonne) 578 Machines non-organisées 118 Maturana, Humberto A. 135-7 McCulloch, Warren 38, 102 Micromondes 76-7, 129, 143, 173 Mimétisme de la vie 26-7 Minsky, Marvin 6, 169 Monde des blocs 77, 94 Moravec, Hans 59, 157, 163-6, 170 Morpion (jeu) 80-3 Muller-Lyer (illusion) 75 Newell, Allen 22, 43 Ontologie 20, 153 Opérations noncomputables 61-2

Ordinateur (métaphore) 19, 41 Parallélisme 107 Pauvreté (stimulus) 33 Penrose, Roger 60-3 Philosophie 17, 138 Pitts, Walter 38, 102 Portes (logiques) 38 Prévisions (d’avenir) 156-73 Prix Loebner 48 Problème esprit-corps 18-9, 22 Programme (le bon) 44, 57, 58 PSSH (hypothèse) 43-4, 51, 53, 88 Psychologie 14-16 Représentations symboliques 114 Réseaux (apprentissage) 111-13 Réseaux (neuronaux) 103-5 Robotique (comportementales) 145 Robotique 34, 145-7, 157, 170 Robots (autonomes) 26, 27 Robots (cognitifs) 93 Robots (universels) 163-5, 170 Robustesse 108, 130, 160 Samuel, Arthur 78-9 Searle, John 51-4, 57, 58 Sentir-modéliser-planifieragir 95, 132, 137, 145 Sentir-penser-agir 67 Shakey (robot) 67-8, 77, 93-9, 132 Simon, Herbert 15, 22, 23, 43 Situatedness 143 Sony Dream Robot (SDR) 159-62 Steels, Luc 5, 9-11, 166 Talking Heads 150-5, 162 Traduction (machine) 74 Transhumanistes 11 Turing (machine de) 36-7, 39-40 Turing (test) 46, 48, 50 Turing, Alan 36-7, 45, 78, 118 Unités d’activation 104-5 Varela, Francisco J. 135-7 von Osten, Wilhelm 30-1 Walter, W.G. 26-9, 31, 68 Wittgenstein, Louis 116, 138-40