Contacter l'auteur / Contact the author

Recherche dans ce site / Search in this site

 

 

 

 

 

La cybernétique

Alan Turing vers 1940. Document D.R.

Les principes de l'intelligence artificielle (I)

En 1837, le polymathe anglais Charles Babbage inventa le concept de "machine analytique", un ensemble combinant du matériel et du logiciel (des cartes perforées) contenant une unité arithmétique et logique (UAL), une unité de contrôle de flux et une mémoire intégrée. Babbage est considéré comme le père de l'informatique.

En 1910, les philosophes Bertrand Russel et Alfred Whitehead ont donné au mot "calcul" une extension cognitive en formalisant les propositions.

Vingt cinq ans plus tard, le mathématicien anglais Alan Turing démontra que tous les problèmes pouvaient être transcrits sous forme d'algorithmes et exécutés par des "machines de Turing" universelles. A partir d’une bande infinie codée en langage binaire et d’un déchiffreur, Turing prétendait pouvoir résoudre n’importe quel problème.

Le logicien anglais John von Neumann fit un premier pas dans ce sens en inventant l’ENIAC, une machine monotâche dans laquelle les relais électromécaniques étaient remplacés par une logique opératoire universelle : c'était la naissance du langage de programmation. Mais trop lourd, trop encombrant et consommant trop d’énergie, von Neumann le remplacera par l’EDVAC fin 1948.

Bientôt équipée de transistors et de microprocesseurs, cette machine donnera finalement naissance aux superordinateurs vectoriels et aux micro-ordinateurs qui pilotent aujourd'hui la plupart des processus et des machines. Sans ces moyens et infrastructures informatiques, notre civilisation retournerait plus de 70 ans en arrière.

En 1950, Alan Turing s'intéressa à l'intelligence artificielle et souleva la question "Les machines peuvent-elles penser ?" dans son essai "Computing Machinery and Intelligence". C'est également dans cet article qu'il inventa son fameux jeu d'imitation, le "Test de Turing" qui devait permettre de qualifier une machine de "consciente". Mais au fil du temps, ce test évolua et Turing lui-même l'a redéfini plusieurs fois (cf. cet article) jusqu'à aboutir au concept de "Learning machine", l'apprentissage automatique qui permet aujourd'hui aux ordinateurs d'"apprendre" et de s'améliorer à partir des données qu'ils enregistrent et sans être reprogrammés.

Le Test de Turing donnera naissance vers 1966 au jeu ELIZA de Joseph Weizenbaum, l'ancêtre du chatbot ou agent conversationnel virtuel imitant un dialogue avec un psychiatre qui eut assez bien de succès à l'époque des premiers micro-ordinateurs.

Télécharger la machine de Turing

Illustration du logiciel (400 KB).

Un programme Windows de Cheran Software

A l’époque, le neurobiologiste Warren Mac Culloch et le mathématicien Walter Pitts démontrèrent que la dynamique du cerveau humain possédait les mêmes algorithmes que le calcul des propositions de Russel. Cette isomorphie entre des états biologiques et un système artificiel (robot) conduira à la cybernétique[1]. Les machines universelles de Turing trouvent aujourd'hui des applications en neurobiologie, en biologie moléculaire et en psychologie cognitive.

A consulter : Les modèles informatiques de l'évolution

La société de l'esprit

L'évolution de l'informatique et de la cybernétique sont aujourd'hui intimement liées aux progrès de l'électronique. Ci-dessus, l'ENIAC de John von Neumann en 1946 et le CRAY Y-MP de 1995 constitué de 2 CRAY-II. Ci-dessous, la "bête-machine" de Descartes et les robots humanoïde Asimo et P3 de Honda. Documents François Guillier/Histoire de l'Informatique et Honda.

Pour de nombreux chercheurs en intelligence artificielle et des neurobiologistes tels Warren Mac Culloch, Marvin Minsky, Herbert Simon ou Norbert Wiener, l'inventeur de la cybernétique, tout système vivant et l'homme en particulier n'est qu'une espèce du genre machine; son intelligence peut-être démontrée par le mécanisme de Turing, c’est-à-dire par la programmation. Ce concept mécaniste du vivant trouve pignon sur rue : des laboratoires de biologie étudient la "logique du vivant", des logiciens et des biologistes travaillent sur la "cybernétique auto-organisée" tandis que des physiciens étudient les lois scientifiques comme des algorithmes. Depuis ces découvertes dans le domaine de la logique, il y a eu une dérive de la méthodologie vers le discours ontologique, sur les termes en soi. Cette réponse quasi métaphysique aux comportements humains signifie peut-être que le monde devient logique et compréhensible, une espèce de "méta-calculateur", à la plus grande joie d'Einstein qui appréciait la cohérence de l'univers.

Les visages de la cybernétique

De gauche à droite Warren Mac Culloch, Marvin Minksy, Walter Pitts et Herbert Simon

Depuis la fin de la Seconde guerre mondiale nous savons que l'ordinateur peut effectuer certaines tâches dans des conditions optimales pour nous soulager des travaux ingrats, dangereux ou routiniers. Ses capacités de simulation ou d'apprentissage sont quelquefois étonnantes et surprennent même leurs concepteurs. Mais peut-on assimiler ces capacités à de l'intelligence ?

Ainsi qu'Alan Turing se le demandait, Une machine peut-elle penser ? Pourra-t-on parler un jour “d’ordinateur de chairs et d’os” comme le soutient Minsky ? Ici comme dans toutes les disciplines deux écoles s'affrontent, en particulier les logiciens - Alan Turing, Marvin Minsky, Kurt Gödel - contre les philosophes - John Searle, Hubert Dreyfus, John Lucas - pour lesquels les ordinateurs ne penseront jamais. Quelques pages ne suffiront pas à expliquer leurs positions respectives, d'autant que leurs ouailles se retrouvent dans les deux camps. Aussi nous abordons directement les conclusions de chaque courant et les conceptions avant-gardistes. Consulter le dossier consacré à la philosophie des sciences où nous tenterons de définir l’intelligence et le rôle des sciences.

John von Neumann devant l'un des "plugboard" de l'ENIAC en 1946

Dans les années 1940, à l'époque de von Neumann, l'ordinateur était à peine ébauché; on parlait encore de "plugboard" puis bientôt de calculateur numérique sans imaginer qu'à l'autre bout de la console cette machine pouvait acquérir l'apparence d'un être humain.

Savant de génie, von Neumann n'a jamais réellement dit que les machines ne penseraient jamais, mais il faisait une distinction entre les fonctions des organes biologiques et leurs homologues artificiels. Il était sceptique face à l'idée de pouvoir construire un ordinateur offrant les mêmes capacités que notre cerveau. von Neumann n'imagina jamais un support artificiel capable de reproduire les capacités de traitement de nos neurones, la vitesse de l'influx à travers les axones, les performances des synapses, etc. Mais peut être von Neumann se trompait-il.

Le paradigme de la méthode comportementale

Depuis plus de trois milles ans, des statues égyptiennes aux créatures virtuelles, en passant par Adam, le Golem et Frankenstein, l’homme a toujours essayé de créer des objets à son image. Mais comment leur donner réellement vie, comment créer une "machine" à l'image des êtres vivants ?

Dans la mythologie grecque Pygmalion sculpta une statue qui devint vivante mais ce n'est qu'en 1738 que l'automaticien Vaucanson parvint à créer un canard mécanique capable de battre des ailes, manger du pain et le digérer. Mais il n'était pas pour autant doté d'intelligence et encore moins de facultés sensorielles, tout ce qui représente l’Homme en ce qu’il a d’humain.

Aujourd'hui, il ne fait aucun doute qu'on voit aisément la différence entre un être humain et une machine, aussi évoluée soit-elle. L'adaptation et les facultés du premier sont encore largement inégalées dans les robots et autres cyborgs en devenir.

Pour les précurseurs de la cybernétique et inventeurs de l’intelligence artificielle que sont Norbert Wiener, John von Neumann et Alan Turing, il ne fait aucun doute qu’à l’avenir les sociétés accorderont une large place aux systèmes de communications, dans une symbiose entre l’homme et la machine. Nous y arrivons doucement, à pas mesurés, en commençant par l'informatisation à outrance dans tous les domaines techniques et même au-delà.

Mais comment construire une représentation de l’Homme, savoir ce qu’il est à travers son cerveau et sa capacité à échanger de l’information ?

Une représentation de l’Homme

Modèle proposé par Wiener :

Constituants de l’Univers = Différences entre objets

Objets = Formes informationnelle, humaine ou non

Différences = Comportements complexes

Complexité = Intention - rétroaction

Pour le mathématicien Norbert Wiener[2] qui recevra son Ph.D d'Harvard à 18 ans, on peut approcher le réel par la méthode comportementale d’étude : “Cette méthode dit-il néglige, dans l’objet, sa structure spécifique et son organisation propre. Elle s’occupe des relations (comportements) qu’entretiennent les objets”.

A ses yeux, l’univers tout entier est accessible à la connaissance puisqu’il est entièrement composé de formes informationnelles, sans distinguer les humaines des autres objets. Ces formes informationnelles sont transparentes au regard. Nous pouvons dès lors les maîtriser et même les reproduire. Pour Wiener seul le support matériel différencie l’homme de la machine. C’est ce modèle que les spécialistes en IA essayent de mettre au point.

Selon ce schéma mis au point par Norbert Wiener l’analogie informatique est presque irrésistible. Au sens large, cette assertion est indéniable. Le système prend connaissance de l’information à travers les sens qui, à l’instar des composants d’entrées-sorties électroniques, sont relativement lents, opérant sur une échelle de temps de quelques millisecondes, mais dont les informations sont utilisées à l’instar d’un calcul, d’un traitement de données. C'est ici que la cybernétique nous offre concrètement l'opportunité d'explorer et de concrétiser le mythe de Pygmalion.

La philosophie de la cybernétique

Fin 1948, à l'époque de l'EDVAC, le philosophe et logicien français le Père Dominique Dubarle présentait ainsi le nouvel ordinateur de von Neumann qui touchait plus à une représentation informationnelle de l’humain, qu’à la description d’une machine à calculer[3] : “Traduisons maintenant en langage psychophysiologique. Organes d’enregistrement: terminaisons nerveuses fonctionnant elles aussi suivant la loi du tout ou rien. Circuits transmetteurs d’impulsions : neurones. Combinateurs élémentaires de la machine : synapses nerveuses. Organes de contrôle local : ganglions nerveux. Organes de mémoire, de conduite, de programme général : système nerveux central, aux différentes fonctions, elles aussi coordonnées et hiérarchisées avec des bases organiques à cette coordination et à cette hiérarchisation [...] l’analogie n’est même pas seulement organique, elle est aussi fonctionnelle et quasi mentale : les machines ont comme pour ainsi dire leurs réflexes, leurs troubles nerveux, leur logique, leur psychologie et même leur psychopatologie [...]. Un claquage de circuit se traduit par un résultat erroné, des erreurs dans les circuits de contrôle peuvent désorganiser tout le circuit de fonctionnement d’un organisme partiel de calcul, des failles dans le programme peuvent retentir sous forme d’une véritable folie de la part de la machine, s’emportant alors dans un travail. absurde jusqu’à ce qu’on y remédie. On devine quelles perspectives de pareils faits peuvent ouvrir à ceux qui étudient d’une part le fonctionnement du système nerveux, d’autre part les possibilités de réaliser des machines à exécuter les tâches de la pensée”.

La philosophie cybernétique. Illustration d'Oskar Woinski.

Un ingénieur et neurophysiologiste de renom tel Alain Berthoz[4] ancien membre du Collège de France ne peut éviter de faire des rapprochements entre les mouvements du corps ou certaines stratégies du cerveau et le monde de la robotique. Je le cite : “Pour moi, le cerveau est un simulateur, au sens d’un “simulateur de vol”; Le développement des modèles de réseaux neuronaux en composants à silicones appelés VLSI relève [...] de la même idée : il faut incarner les modèles biologiques dans la réalité physique comme le cerveau est incarné dans le corps. Un muscle qui se contracte atteint son maximum de force environ 80 millisecondes après une commande nerveuse [...] Dans le langage des systèmes asservis, on dit que “l’avance de phase des fuseaux [musculaires] compense les propriétés de filtre passe-bas des muscles”; Selon la théorie du contrôle non linéaire des mouvements de robots élaborés par Slotine, des “variables composites” (un mélange de grandeurs et de leurs dérivées successives) pourraient être utilisées par le système nerveux; Soit le cerveau maintient les muscles des doigts peu contractés (en termes de robotique, on dira qu’il s’agit d’une stratégie “compliante”); Les roboticiens, qui, à ce jour, ne sont toujours pas capables de réaliser des machines de la complexité du moindre insecte, savent à quel point tous les ordinateurs sont vite saturés, à la fois en capacité de calcul et en rapidité, par les quelques degrés de liberté des robots qu’ils essayent de construire. Quelles sont les astuces que la nature a trouvées pour réduire ce nombre de degrés de liberté ?”

Berthoz utilise également des expressions imagées telles la “décharge” d’un neurone, l’“intégrateur neuronal fuit”, la “bande de fréquences”, le “filtre de Kalman”, autant de termes empruntés à l’électronique et incorporées aux neurosciences. Enfin il n’oublie pas les mathématiques pour formaliser ces concepts quand il parle de fonctions de transferts, de covariance, d’intégration, de dérivée, de fonction de puissance, de modèles, etc, tout en discutant du sens du mouvement.

A l’entendre, la limite entre l’homme et la machine se dissipe...mais en guise de clôture Berthoz[5] nous met en garde : "le cerveau n’est pas un ordinateur ni une machine semblable à aucun des dispositifs d’intelligence artificielle [...]. La métaphore du cerveau-ordinateur est un guide utile de la pensée, mais elle est extrêmement dangereuse. Elle repose, en effet, sur l’hypothèse implicite d’une séparation des processus cognitifs complexes [...] semblables au logiciel et un substrat neuronal [...]. On pourrait y voir une forme moderne du mentalisme de Bergson, que je ne suivrai pas lorsqu’il dit, en substance, que l’esprit est au cerveau ce que le manteau est au clou qui le supporte".

Malgré ce dualisme bien ancré, suites aux études théoriques de Wiener, von Neumann et Turing en particulier, des travaux remarquables ont été effectués pour tenter de rapprocher la technologie des robots de l’architecture du cerveau.

De grands esprits face à la logique

Kurt Gödel et Norbert Wiener, le logicien et le mathématicien ont cru qu'il était possible de réaliser la symbiose entre l'homme et la machine. A droite, Bertrand Russell.

Depuis la fin des années 1970, les chercheurs de Stanford, Yale ou de MIT parmi d’autres considèrent que l'architecture électronique, son côté matériel n'est plus le niveau fondamental du traitement de l'information. Dans les langages de programmation évolués (4GL), les algorithmes sont quasi indépendants de l'outil qui les supporte.

Grâce à Bertrand Russel, la pensée put ainsi être décomposée en propositions élémentaires et être transplantée sur un matériel non biologique. Comme l'a écrit avec intelligence le philosophe Daniel Dennett[6] "[la cause matérielle des états cognitifs] ne provient pas du matériel, mais du fonctionnement". Il rejoint ainsi l’idée exprimée en 1943 par Norbert Wiener dans son texte fondateur de la cybernétique.

Cette distinction que certains jugeront hardie traduit l'état actuel de la recherche en intelligence artificielle. Cette discipline a retenu la “géométrie d’assemblage des noeuds de calcul” comme la structure fondamentale des superordinateurs et des robots; les centres de calculs équipés de processeurs sont organisés sous forme d’arbre, sous forme d’hypercube, d’assemblage total, etc. Les performances et l’encombrement sont les facteurs sélectifs de façon à pouvoir échanger les données le plus rapidement possible. Ces robots fonctionnent actuellement dans l'industrie et sont à la base de ce qu'il convient d'appeler le concept "néo-mécaniste".

La géométrie des noeuds de calcul

L’intelligence Artificielle organise les noeuds de calcul en arbre de façon à répartir le traitement et pouvoir traiter plusieurs données en même temps. Elle peut toutefois s’avérer encombrante.

Dans un assemblage total tous les noeuds sont reliés entre eux. La circulation est optimale mais la structure devient rapidement très complexe.

En fait les chercheurs étaient déjà disposés à comparer nos neurones au fatras de silicium depuis la fin des années 1950. Tous les chercheurs ont essayé d'expliquer nos états cognitifs de manière réductionniste, à partir des processus fonctionnels jugés élémentaires. Les plus avant-gardistes sont déjà parvenus à reproduire électroniquement certains neurones de la mouche, d’autres planchent sur des "réseaux de neurones" (structure arborescente ou assemblage total en général), des ordinateurs bourrés de silicium et construits sur le modèle des cellules du cerveau humain.

Les projets

Les efforts théoriques aboutirent à plusieurs réalisations, notamment le programme d'anagrammes Jumbo du Prof. Hofstadter de l'Université d'Indiana. Jumbo est capable de choisir certaines combinaisons parmi un ensemble de lettres en fonction de "l'entropie du système"; le programme Eurisko élaboré par Douglas Lenat de l'Université de Stanford est capable de modifier ses propres règles (heuristiques) et ses propres concepts par un processus "naturel", tandis que le programme Perceptron de Frank Rosenblatt de l'Université de Cornell est capable de reconnaître et d'apprendre différents symboles.

L’un des projets les plus avancés est celui développé par Gerald Edelman de l'Université Rockfeller. Dénommé Darwin III, son ordinateur est réglé par des algorithmes équivalents à un réseau de 6000 neurones et 100000 synapses neuronales, loin en deçà du cerveau du plus stupide insecte. Mais ces réseaux sont "conditionnés" par l'apprentissage. Leur mémoire est répartie dans l'ensemble des circuits et les données sont traitées de façon globale. Ces ordinateurs sont capables de reconnaître des visages, de prononcer des mots ou de détecter des odeurs. On en reparlera à propos des robots.

Les chercheurs envisagent également d’appliquer les biotechnologies et notamment la nanotechnologie à la mise au point de circuits moléculaires, sortes de mémoires chimiques.

Rappelons également que Peter Fromherz à l’Institut Max Planck de Munich ou le Dr Wyatt de MIT étudient le développement de cellules nerveuses sur des supports de silicium, premices des implants bioniques dans le cortex cérébral.

Enfin, régulièrement, la médecine bionique réhabilite des handicapés moteurs et les chercheurs nous rappellent que les androïdes sont à notre porte. Faut-il craindre ou applaudir cette évolution, c'est ce que nous allons essayer d'évaluer.

Deuxième partie

La place de l'homme : entre idéal et réalisme

Page 1 - 2 -


[1] J.von Neumann, "L'ordinateur et le cerveau", La Découverte, 1992.

[2] N.Wiener, Philosophy of Science, 1943 - Citer in P.Breton, “A l’image de l’Homme”, Seuil, 1995, p109.

[3] D.Dubarle, “Une nouvelle science : la cybernétique - Vers la machine à gouverner ?”, Le Monde, 28 décembre 1948 et cité in P.Breton, “A l’image de l’Homme”, Seuil, 1995, p137-138.

[4] A.Berthoz, “Le sens du mouvement”, Odile Jacob, 1997, pp28, 30, 37, 99, 154.

[5] A.Berthoz, “Le sens du mouvement”, op.cit., p285.

[6] D.Dennett, "How we know" (Can Machine Think ?), Harper and Row, 1985.


Back to:

HOME

Copyright & FAQ