Contacter l'auteur / Contact the author

Recherche dans ce site / Search in this site

 

La philosophie des sciences

L'androïde Data au cerveau positronique. Document Paramount/TNG.

Le paradigme du comportement[1]

Avant d’étudier les principes directeurs de la pensée et la philosophie des sciences, essayons de dégager les principes de l’intelligence. Ils nous aideront à saisir toute la complexité de notre démarche.

Commençons par nous demander comment peut-on définir un comportement "intelligent", peut-on le subdiviser en actions élémentaires, en règles fondamentales ?

Grâce à la biologie, à l’étude du comportement et de l'écologie, nous savons que la vie consiste en une adaptation permanente de l’organisme et de son écosystème.

Cette biosphère assure une symbiose entre toutes les espèces, un flux d’actions réciproques s’établissant entre les êtres vivants et leurs besoins. Le philosophe français Frédéric Paulhan (1856-1931) parlait de "connaissance du système" global, comme d’autres parlent "d’intelligence organique" à propos des fleurs ou de la Terre (cf. la théorie de Gaïa de James Lovelock).

Mais adaptation n’est pas synonyme d’intelligence. Un mécanisme aussi complexe et autonome soit-il ne peut faire de choix ou apporter de solution à son problème. Réagir à une sensation ou à un besoin peut être un acte réflexe. Quand la dionée se referme sur un insecte, il n’y a aucune prise de conscience, la chose ne pense pas et ne connaît pas l’objet qu’elle sent. Un arbre dont le tronc se plie pour résister au vent n'a pas conscience de la nature du vent. Des végétaux ou des animaux qui émettent des substances chimiques pour éloigner les prédateurs n'ont pas acquis le concept de guerre biologique. Nous avons déjà analysé ces sujets dans les dossiers consacrés à l’évolution des systèmes vivants et à la faculté d'adaptation. Mais alors qu’est-ce que l’intelligence[2] ?

Notre pouvoir déductif est-il la preuve d’une intelligence ? Observer, interpréter, agir. En étudiant l’activité cérébrale de l’être humain (cf. le système nerveux), on se rend compte que ce comportement logique complexe semble obéir à un paradigme. Au XVIIe siècle Descartes[3] avait déjà fait la remarque suivante dans ses "Méditations" : "Mais que suis-je donc ? Une chose qui pense. Qu’est-ce que cela ? Une chose qui doute, entend, conçoit, affirme, nie, qui imagine aussi, et qui sent […] ; ce qui n’est précisément rien d’autre que penser". Par le cogito, Descartes avait la certitude du sujet pensant. Mais ce sentiment a-t-il un fondement scientifique ? Le retrouve-t-on ailleurs dans la nature ?

Réfléchir puis agir

Il est loin le temps des premiers robots qui agissaient avant de réfléchir. Pas étonnant que la plupart butaient contre des obstacles ou étaient incapables de réagir : la force brute et les "têtes brûlées" ne sont pas réputées pour faire preuve d'intelligence ou disons d'une forme très élémentaire ! Cela signifie donc que les tâches élémentaires doivent être exécutée dans un certain ordre, selon certaines priorités.

Pour accomplir une action sans risque et progresser vers un objectif, il faut réfléchir, prévoir, calculer, bref discuter la prochaine action avant de l'exécuter. Cela paraît évident mais la majorité des projets échouent à cause d'un manque d'analyse notamment. Et ce principe s'applique également à la cybernétique.

Le biologiste cybernéticien voit dans l’activité de tout être vivant capable d’actions élaborées - ce qui inclut tous les êtres "vivants" y compris les robots calculant plutôt que réfléchissant et leurs homologues humanoïdes - l’organisation d’une structure de délibération : discuter d’abord puis agir. En observant les résultats d’une mission qui est confiée à cet être imaginaire, tout semble indiquer qu’à partir des informations qu’il récolte sur le monde extérieur il peut construire son plan d’actions.

Grâce à des algorithmes capables de gérer l’information brute et la mémoriser, il peut en déduire un ensemble d’informations, lesquelles l’aideront à planifier sa prochaine tâche. Si les informations qu’il a recueillies sont contradictoires, la délibération d’une solution permettra de juger quel résultat est le plus approprié en fonction de l’expérience ou des données acquises. Ce paradigme est celui de l’architecture élaborée.

Chacun de nous est d’accord pour considérer cette démarche comme une caractéristique de l’intelligence très aboutie chez l’être humain. Et de fait, ce scénario fut accepté par la communauté scientifique dès les années 1950. Mais depuis la fin des années 1980 un autre paradigme du comportement traduit l’intelligence en terme d’architecture réactive : agir puis réagir, mais sans discuter[4].

Pour le roboticien le résultat de la mission ne dépend pas de la délibération des actions à prendre. Toutes les activités sont menées de front, en parallèle : notre explorateur fait un pas, il évite un obstacle, il trouve un objet, il le classe. Dans ce mécanisme aucun cycle n’est réservé au jugement. Pour combiner ces activités indépendantes les unes des autres et éviter des situations qui pourraient s’avérer dommageables, notre explorateur devra réagir en fonction des situations. S’il s’aperçoit qu’il vient de créer un court-circuit, il prendra le temps de changer le fusible endommagé ; voyant un précipice, il réagira en neutralisant le pas qui lui serait fatal. La logique est du genre "si ceci arrive alors je fais cela".

Nous savons tous qu’une telle démarche, guidée plus par les sens que par l’intelligence diront certains est très rapide dans son exécution puisqu’elle ne prend plus le temps de délibérer. Elle réagit immédiatement. Mais est-elle bien applicable aux comportements complexes de l’intelligence humaine ? Il est vrai que pour un observateur extérieur au monde terrestre, a priori rien ne permet de considérer nos activités comme le résultat d’une architecture élaborée plutôt que réactive.

Le roboticien américain Rodney A. Brooks du MIT Artificial Intelligence Laboratory soutient en tous cas cette thèse en créant des animalcules électroniques capables de missions élaborées dans un environnement hostile, telle la sonde Sojourner qui explora la surface de Mars en 1997. Il s’apprête en effet à envoyer des colonies de fourmis-robots sur Mars ou dans les laboratoires industriels.

Humanoid Robotic Group

Visite du MIT Artifical Intelligence Laboratory

Brooks et ses collègues considèrent que l’architecture élaborée est une sorte de diplomatie désuète car elle est basée sur un travail séquentiel. Les informations sont recueillies par des détecteurs, elles sont interprétées et si aucun conflit ne surgit une action est entreprise. En cas de doute ou d’erreur, un système très hiérarchisé délibère en fonction du but poursuivi et entame une démarche visant à corriger la planification des actions ultérieures. Ce mécanisme requiert une grande consommation d’énergie et les délibérations ne sont jamais rapides.

L’architecture réactive à l’inverse agit de tous côtés simultanément. Elle ne prend pas le temps de délibérer mais réagit en situation. Cette architecture est très économe et très peu sophistiquée. Aussi simples qu’elles soient, les fourmis-robots de Brooks peuvent développer une activité complexe sans concevoir explicitement ce qu’elles font.

Bertrand A. Russell

Mais tous les chercheurs en Intelligence Artificielle ne partagent pas l’avis de Brooks et de ses élèves. Thomas M. Mitchell de Carnegie Mellon considère que les travaux de Brooks "sont très séduisants mais contiennent de très mauvaises idées".

A ses yeux, l’architecture réactive est plus adaptée à la construction de thermostats que des robots intelligents. Si les inférences[5] logiques sont supposées déduire toute chose à partir d’une contradiction, certains paradoxes mettent en évidence un véritable problème pour l’Intelligence Artificielle.

Mitchell reprend l’exemple d’inférence logique citée par le philosophe Bertrand Russell : "Le barbier rase chaque homme qui ne le fait pas lui-même. Qui rase le barbier ?". Ce prédicat reflète la parfaite logique mais il réduit en même temps l’apparente perfection des règles mathématiques.

En fait le système n’est pas paradoxal, mais il est incomplet. La phrase de Russell peut manifestement être vrai mais impossible à prouver en termes formels. Nous reviendrons sur ce paradoxe de l’inférence lorsque nous discuterons des travaux de Kurt Gödel.

Brooks[6] parle d’"intelligence sans raison". A travers ses travaux il cherche le sens des mots "le système connaît quelque chose". Cela signifie-t-il que le robot doit se comporter de façon à ne pas cogner les murs ou doit-il disposer d’une quelconque représentation explicite des structures qu’il appréhende ?

Comme on le constate l'intelligence est loin d'être un concept simple à formuler surtout lorsqu'on essaye de l'associer à une structure artificielle telle un robot.

Il peut sembler naïf de parler en termes de propositions logiques et d’inférences mais tous les programmes ne doivent pas être représentés en termes de logique explicite. Il est évident que la logique se caractérise par sa grande précision et par son pouvoir de décision lorsque survient une contradiction. Mais le temps de déterminer la véracité d’une proposition logique est antinomique avec la rapidité d’exécution. Dans ces conditions, l’élégance de la logique doit faire place à son efficacité. C’est la raison pour laquelle les mobiles de Brooks ne calculent rien mais agissent.

Bien sûr tous les robots ne sont pas réglés sur ce concept. D’autres projets donnent les moyens aux robots de planifier leurs actions et même de planifier leur planning. Etant donné que les ressources des ordinateurs – tout comme celles de l’homme – ne sont pas infinies, Herbet A. Simon considère que les machines ne pourront jamais qu’exercer une "rationalité limitée".

Les organismes vivants exploitent huit fonctions essentielles pour assurer leur survie

- Capter les signaux

- Analyser les situations

- S'adapter

- Se signaler

- Utiliser les ressources

- Agir

- Contrôler

- Maintenir la stabilité.

Ces huit fonctions correspondent également aux principales fonctions des robots ainsi qu'aux traits de personnalité ou aux caractériques que l'on recherche chez les travailleurs.

L'utilité de l'apprentissage

Tous les ethologues, biologistes et zoologues vous diront qu'un mammifère supérieur privé de toute vie sociale, isolé et inculte, éprouvera beaucoup de difficultés pour s'intégrer dans un nouvel environnement et dans une société. C'est le cas des animaux de laboratoire replacés dans des zoos, des animaux sauvages vivant en société, capturés bébés qu'on essaye de réintroduire dans leur biotope (singes, loups, etc) mais aussi des êtres humains isolés durant des années (prisonniers, réfugiés dans la jungle ou kidnappés) et qui ont finalement retrouvé la liberté. Dans le cas des êtres humains, dans la plupart des cas, tout intelligent et de bonne volonté qu'elles soient, ces personnes se sentent mal en société et préfèrent vivre en solitaire, loin de la foule. Mais il ne faut pas avoir subi ces traitements ou être asocial pour préférer le calme de la campagne à l'agitation urbaine.

Ce comportement révèle que même une personne réellement intelligente (QI élevé) doit apprivoiser son environnement, l'accepter, le reconnaître et s'y adapter si elle veut s'y épanouir et y vivre normalement. Ce comportement commence dès la petite enfance. Si l'enfant est mal encadré ou mal conseillé, même s'il est très bien éduqué et très bien instruit, à l'adolescence il peut se sentir incompris, vouloir fuir la réalité qu'il ne comprend pas ou qui est devenue oppressante. Dans les cas extrêmes, il refusera la société qu'on lui propose et deviendra un délinquant ou il finira par se suicider. L'apprentissage et son encadrement correct et notamment le fait d'être remercié et encouragé quand on réussit et de tirer des leçons de ses erreurs sont donc essentiels au développement harmonieux de l'individu.

Yaser Abu-Mostafa

Dans le monde informatisé qui nous entoure, peut-on créer des systèmes informatiques fonctionnant comme les humains, c'est-à-dire des machines intelligentes capables de résoudre des problèmes et d'apprendre par elles-mêmes ? Depuis les années 1980, la réponse est positive.

L'ingénieur Yaser S.Abu-Mostafa[7] de Caltech développe des systèmes informatiques qui apprennent par eux-mêmes. Il s’attaque aux problèmes de la reconnaissance des formes, des réseaux neuronaux, du neuromorphisme, de la théorie de l’information et de la complexité informatique.

Travaillant avec les banquiers et les industriels, Abu-Mostafa essaye de mettre au point des machines capables tout à la fois de résoudre des problèmes structurés, ne requérant aucun exemple, et des problèmes aléatoires, totalement indéfinis et dont les solutions dépendent entièrement des cas d’écoles et de l’apprentissage.

Si l’ordinateur manque d’informations pour résoudre son problème, il suffit de lui proposer quelques données en rapport avec celui-ci. Le système mémorisera l’information et apprendra à en tenir compte à l’avenir. Ce genre de suggestion va de la simple observation d’un objet sous différents angles à une expertise complexe.

On voit donc que les cas d’école et les exercices d'apprentissage (le drill) qu’on fait subir à certains systèmes neuronaux sont essentiels pour qu’ils puissent choisir seuls les valeurs des paramètres libres le jour où surgira un problème. Grâce à ces suggestions, qui déterminent non seulement l’orientation que doit prendre l’algorithme de recherche, mais également la précision des itérations et des mesures en un temps raisonnable, le système mémorisera des centaines de cas réels qui lui permettront d’affiner ses paramètres internes, et il finira par reproduire de mieux en mieux la fonction pour laquelle il a été programmé.

Ainsi, face à un nouveau problème, le système pourra extrapoler une solution à partir de son "expérience" et pourra "rationnellement" - ou plutôt logiquement avec un certain degré de certitude, prédire le comportement de son sujet.

La machine humanoïde Asimo de Honda.

Mais que se passe-t-il quand le système est confronté à une situation imprévue pour laquelle il ne dispose d'aucune donnée de référence, d'aucune expérience et aucun moyen de changer ses plans ?

Et bien dans ce cas le résultat est prévisible, pour ainsi dire "programmé d'avance" :  le programme ou le robot sera face à l'inconnu, une donnée qui n'est pas dans son programme, le conduisant à s'arrêter, à se planter ou à exécuter la même action en boucle faute de pouvoir prendre une autre décision.

Nous avons de nombreux exemples de ce type, notamment dans les programmes pour ne citer que les GPS embarqués dans les voitures qui, faute de pouvoir calculer un itinéraire alternatif, vous forcent parfois à faire demi tour pour suivre l'itiniraire prévu, celui qui a été calculé initialement et aucun autre, même s'il dispose de nouvelles données de géolocalisation. Dans ce cas-ci on peut réellement parler d'un bug du programme qui nécessitera une mise à jour. Dans le cas d'un système robotisé on parle parfois de nouvelle génération tant le changement est radical.

Le robot Asimo de Honda par exemple est aujourd'hui le robot le plus intelligent que l'homme ait fabriqué c'est du moins l'impression qu'il donne. Asimo est capable d'apprendre, de vous comprendre, de vous aider, de vous suivre et de prendre seul des décisions en fonction du contexte.

Mais paradoxalement Asimo est plus stupide qu'un moustique dont l'intelligence est multiple et adaptable. Asimo doit être programmé en dur pour accomplir le moindre geste. Cette programmation peut prendre 3 heures pour lui demander de faire le tour d'une pièce. Bien sûr une fois qu'il a acquis les données et leurs paramètres, il est ensuite tout à fait capable de gérer tout évènement les concernant. Mais il ne peut pas s'adapter à l'imprévu et il lui arrive encore de tomber des escaliers et de ne pas pouvoir se relever, révélant toute la faiblesse de sa machinerie.

A lire : Les robots au services hommes

De l'analytique au système expert universel

Dans un autre contexte mais complémentaire, il faut citer le data mining consistant à rechercher des relations dans des ensembles très importants de données ou "Big Data".

Par "Big Data", on entend des millions de terabytes (des exabytes), et même des zettabytes (1021 bytes soit mille milliards de gigabytes) de données si on prend par exemple tout ce qui a été produit dans le monde en 2012 et que la NSA par exemple serait en théorie capable d'analyser.

Le data mining est une technique très utilisée par les services d'espionnage notamment, rappelez-vous le scandale PRISM de la NSA en 2013, mais aussi par les entreprises qui d'un point de vue marketing cherchent à mieux cibler leurs clients potentiels, c'est l'idée de l'IP tracking et autres cookies que connaissent bien les internautes surfant sur le web ou encore les chercheurs ou les historiens qui doivent établir des relations entre des données disparates.

Quand vous combinez la puissance de calcul des superordinateurs qui se chiffre en PFLOPS (tel Mira d'IBM qui atteint 10 PFLOPS), à l'intelligence artificielle et à des algorithmes capables de gérer des "Big Data" tel que le fait le système cognitif Watson d'IBM (10 TFLOPS, il est capable d'indexer et d'analyser 200 millions de pages en 3 secondes), vous obtenez un système extrêmement performant, capable de vous aider à prendre des décisions et même de répondre à votre place aux concours les plus difficiles !

Ajoutez-lui une interface biologique comme tente de le faire Blue Brain par exemple et vous obtiendrez un jour ce qu'on appelle un robot humanoïde intelligent. Offrez-lui enfin la capacité de se déplacer un peu mieux qu'Asimo de Honda et celle d'explorer et d'analyser du rover Curiosity de la NASA, et il deviendra un compagnon humanoïde inséparable !

Puisque ces systèmes existent déjà, de même que les réseaux et les interfaces, leur union dans un système expert universel n'est qu'une question de temps. Et à la vitesse où va le progrès, tout indique que cette échéance ne se chiffre pas en millénaires mais plutôt en siècles et même en générations.

A lire : The Big data Revolution, CNRS, 2013

A voir : Jeopardy - L'ordinateur Watson contre l'être humain : 1-0 (sur le blog)

En attendant "le réveil des robots", l’Intelligence Artificielle n'en est encore qu’à ses balbutiements et il est à parier que les tartines tomberont encore longtemps du côté confiture. Les travaux de Brooks, Minsky, Abu-Mostafa, Honda, IBM et consorts sont très instructifs pour comprendre notre comportement et la façon dont nous gérons les informations. Mais la relation qui existe entre notre perception sensible et sa représentation interne est tellement ardue qu’il est trop tôt aujourd’hui pour créer un modèle consistant et logique du monde extérieur.

Quant à déduire que nous percevons le monde à travers les yeux d'une fourmi-robot, de Watson ou d'un humanoïde comme Asimo, certainement pas et d'autant moins que ces machines ne sont pas polyvalentes et nécessitent une programmation figée dans leurs circuits.

Néanmoins nous ne pouvons pas non plus affirmer que l’homme délibère toujours sa solution, mais quand il le fait, il est très efficace. Elle devient même extraordinaire quand on assiste aux démonstrations des facultés intellectuelles des quelques génies et des médiums qui nous entourent dont la manière de traiter l'information est réellement stupéfiante.

Dans l’avenir il est probable que la méthode déductive conditionnera toujours l’exécution d’une action, mais pour conserver notre autonomie peut-être devrons-nous dans un lointain futur éviter toute délibération et réagir rapidement en fonction de l’environnement. Ou à l'inverse, dans le froid glacial de l'espace nos actions seront peut-être ralenties. Dans tous les cas ce nouveau paradigme nous offre l’occasion d’une critique du discours scientifique et mérite d’être étudié.

Prochain chapitre

Abrégé d’histoire des sciences

Retour à la Philosophie des sciences


[1] Ce concept est à différencier des sciences du comportement, tel le béhaviorisme ou la sociologie qui se réfèrent à une idéologie sociale parfois malsaine.

[2] P.Oléron, “L’intelligence”, PUF-Que sais-je ?”, 210, 1994.

[3] R.Descartes – Oeuvres (13 volumes), Ed.Adam et Tannery, Vrin, 1964-1974, Vol.VI : Méditations, IX-1, 22.

[4] R.Brooks et P.Maes, American Association of Artificial Intelligence, 796, MIT Press, 1990.

[5] Les règles d’inférences sont l’ensemble des opérations logiques permettant de transformer une suite de symboles, un axiome, en un autre.

[6] R.Brooks, “Intelligence without reason”, Morgan Kauffman Publishing, 1991.

[7] Y.S.Abu-Mostafa, Scientific American, April 1995, p68.


Back to:

HOME

Copyright & FAQ