Contacter l'auteur / Contact the author

Recherche dans ce site / Search in this site

 

 

 

 

 

La cybernétique

Document Pixabay.

La place de l'homme : entre idéal et réalisme (II)

Comme l’on dit plus d’un écrivain depuis 400 ans,"Science sans conscience n'est que la ruine de l'âme". Certains ingénieurs nous rappellent que l’homme peut se fourvoyer en cherchant à créer des machines à son image.

Concepteur du fameux programme de simulation Eliza[7], Joseph Weizenbaum de MIT souhaite discuter de la place de l'homme dans ce monde devenu trop artificiel. Il nous rappelle que l'homme est une fin en soi et non pas un moyen d'acquérir de l'information. Toutefois, tout le monde ne partage pas sn opinion.

En créant des robots à notre image, ne sommes-nous pas en train de créer des besoins, de pousser le progrès dans une direction incontrôlable ? Weizenbaum dénonce le fait que l'informatique asservit notre esprit et que sans y prendre garde nous lui serons totalement dévoué. Demain la nature sera peut-être artificielle et on oubliera sa beauté naturelle. La machine va-t-elle supplanter toutes les espèces vivantes, l'homme y compris ?

A l'opposé, Rucker ou Gödel considère qu'une machine offrant les mêmes capacités que l'homme est tout à fait réalisable même si Gödel avoue ne pouvoir démontrer son universalité et fixe certaines limites aux capacités de la logique[8].

Reproduire le cerveau

Qu'ils soient scientifiques ou non, moralistes ou mystiques, avec toutes ces données les chercheurs idéalistes concluent que notre problème ne mettra plus très longtemps à être résolu. Mais on peut sérieusement douter de cet optimiste; avec un peu de réalisme, reproduire un cerveau avec ses quelque 30 à 100 milliards de neurones (1011) ne sera certainement pas pour demain. Son "équivalent" numérique devrait gérer quelque 21011 états possibles ! L'ordinateur qui simulerait ces conditions devrait être plus performant que notre cerveau s'il veut coder mécaniquement tous ces états.

Selon Jacob T. Schwartz[9], disposant de 1015 synapses et 10000 contacts par cellule (valeur haute), le cortex de l’homme est capable de traiter 1019 bits d’information soit, en jargon informatique l’équivalent d’une puissance de 10000 TFLOPS ou 10 PFLOPS (nombre d'opérations en virgule flottante par seconde ou "FLoating point Operations Per Second"); notre cortex à la puissance d’un superordinateur Cray-3 mais ce dernier est loin d’être optimisé. Il est très cher, encombrant, fragile, il consomme beaucoup d'énergie et chauffe et serait, au mieux, mille fois plus lent que notre cerveau, à moins d’interconnecter 1000 Cray-3 en réseau.

John Hopfield. Doc U.Princeton.

Nous savons aujourd’hui que les réseaux neuronaux dit de Hopfield[10] ont une capacité de stockage de 0.15n, n étant le nombre de neurones. Par analogie le cerveau serait capable de stocker 15 à 32 milliards de bits, environ 2 Gigabytes, l’équivalent d’une bibliothèque de 2000 ouvrages. C'est dans ce contexte que John Hopfield de l'Université de Princeton a construit une souris Silicium, un modèle informatique constitué de 800 neurones et capable de reconnaître des mots.

Les ordinateurs pourraient ainsi approcher un jour les capacités du cerveau. Les signaux électriques par exemple, se propagent dans un ordinateur à la vitesse de la lumière et parcourent ainsi 10 cm en 0.586 nanoseconde. Un ordinateur équipé d’une horloge battant à moins de 600 MHz suffirait. Nous l'avons construit en 1999. Quant à la dissipation de la chaleur, le cerveau produit de 10 à 100 impulsions par seconde. Il est pourtant capable de traiter 1000 fois plus d’informations qu’un superordinateur. Nous sommes peut-être de temps en temps "lents à comprendre", nous gardons la tête froide !

Comment pourrait-on augmenter la vitesse d’un ordinateur sans dissiper trop de chaleur ? Il est possible de véhiculer l’information sur plusieurs canaux en parallèles. Ainsi nous sommes passés des bus de données de 4 canaux ou 4 bits à 512 bits et le progrès continue.

Enfin, plutôt que de séparer les centres de traitement (processeur) et de stockage (mémoire) on peut aussi fusionner les deux modules, ce qui évitera de devoir effectuer des millions de transferts tout en permettant de s’affranchir de la vitesse finie de la lumière.

Le cerveau est peut-être bien en mesure de calculer et de mémoriser, effectuant simultanément de nombreuses opérations, mais personne ne sait ni où ni comment il le fait. Rien qu’à travers nos yeux transitent des millions de bits d’information chaque seconde. Par comparaison, un portrait digitalisé est reconnaissable sur une trame de 20 x 20 pixels contenant 4 tons de gris représente 1600 bits d’informations élémentaires. Mais cette résolution est des millions de fois inférieure à la capacité de notre cerveau.

Nous n’avons en effet pas l’impression d’observer notre environnement à travers une trame grossière. Un écran d’ordinateur standard offrant 16.8 millions de couleurs (256 nuances dans chacune des trois couleurs RGB) et une résolution de 1920 x 1080 pixels s’approche déjà plus de l’image que nous avons de notre environnement. Mais cela représente déjà un total d'environ 34789 milliards d’informations élémentaires que notre cerveau traite en moins d’une seconde !

Dans les années 1990, l'une des machines les plus rapides contenait 250000 processeurs parallèles et 16000 noeuds de calculs, c'était la “Connection Machine” (CM) construite par Thinking Machines Inc. aux Etats-Unis. Pour l'anecdote les connaisseurs la reconnaîtront dans le film "Jurassic Park" de Steven Spielberg (1993); elle apparaît en effet dans le fond de la salle informatique... Le modèle CM-5 a une puissance de calcul de 2.5 TFLOPS. L'entreprise déposa le bilan en 1994 à la mort de son fondateur mais ses divisions de matériel informatique et de logiciels de calcul parallèle ont été rachetées par Sun Microsystems. Depuis, la technologie a beaucoup évolué.

Le record est actuellement détenu (2022) par le superordinateur Fugaku japonais qui atteint une puissance de calcul de 415.53 PFLOPS. Il détrôna la suprématie chinoise qui occupait la première place du classement depuis 11 ans ! Il est suivi par le Summit d'IBM qui atteint 148.8 PFLOPS comme indiqué sur le site TOP500 qui reprend les 500 superordinateurs les plus rapides au monde.

Hewlett Packard Entreprise alias HPE qui racheta Cray en 2019, travaille actuellement au développement du superordinateur El Capitan qui sera utilisé par le DoE (U.S. Department of Energy), la NNSA (National Nuclear Security Administration) et le LLNL (Lawrence Livermore National Laboratory). Sa vitesse atteindra 2000 PFLOPS soit 2 exaFLOPS (crête). Il devrait entrer en service en 2023.

En deuxième place vient le superordinateur Frontier de l'ORNL (Oak Ridge National Laboratory) installé dans le Tennessee, un Cray EX235a qui atteint 1.1 exaFLOPS. Il sera opérationnel fin 2022.

La Chine prétend également disposer de superodinateurs dépassant l'exaFLOPS mais aucune information officielle n'a été publiée.

A gauche, la Connection Machine CM-5 de Thinking Machines Inc. Au centre, le superordinateur Cray XC30 de plus de 100 PFLOPS qu'utilise la NSA. A droite, le concept du superordinateur El Capitan de HPE (qui racheta Cray) qui sera utilisé par le DoE, la NNSA et le LLNL. Cette machine atteindra 2 exaFLOPS (crête) et sera opérationnelle en 2023. Documents D.R. et LLNL.

Si ces superordinateurs ainsi que les robots industriels, d'exhibition ou militaires par exemple semblent intelligents, leur intelligence artificielle (IA) présente encore beaucoup de limites et de défauts. Leurs prouesses ne sont pas de l'intelligence comme nous l'entendons car ils sont encore loin de rivaliser avec l'intelligence du plus stupide insecte, qui reste polyvalente. Le système expert équivalent devrait disposer d'un nombre peut-être infini de bases de connaissances pour transmettre ne fut-ce qu'une indication précise sur un objet tel que l'exécute une abeille qui se respecte.

De plus, ces machines sont pour la plupart incapables de se déplacer ou d'appréhender des objets, elles sont toujours à la merci d'un accident, d'une panne électrique ou mécanique, ce qui les rendent très fragiles et vulnérables. Leurs facultés intellectuelles ne sont qu'une imitation des différentes formes d'intelligences humaines. Toute évoluée qu'elle soit, une IA ne comprend pas le sens profond des sensations, des émotions, de l'amour ou de la compassion, des facteurs qui peuvent parfois être décisifs car vitaux dans une action qui implique la protection ou la survie d'un être humain. On reviendra en détails sur les Avantages et inconvénients de l'intelligence artificielle.

Conversez avec une IA : ChatGPT

Demandez un dessin à une IA : DALL-E 2 - Midjourney

Txt2Art - Hotpot.ai - NightCafé - VanceAI - AILab

App exploitant l'IA : Portrait.ai - Lensa

Et si nous étions incapables de contrôler les machines superintelligentes ?

Nous sommes fascinés par la vitesse de calcul des superordinateurs, par les machines capables de contrôler des voitures, les sondes spatiales capables de se poser seules sur d'autres astres, les robots capables de composer des symphonies, de battre des champions aux jeux d'échecs ou au Jeopardy ou capables d'aider des handicapés moteurs à contrôler leurs mouvements par la pensée.

Alors que de plus en plus de progrès sont réalisés en  intelligence artificielle (IA), depuis plusieurs générations des scientifiques et des philosophes nous mettent en garde contre les dangers d'une IA superintelligente incontrôlable.

Document Pikist/ikbne.

Dans une étude publiée dans le "Journal of Artificial Intelligence Research" en 2021 (mais qui fut déjà publiée en 2016 sans qu'on y prête attention), Manuel Alfonseca, ingénieur en informatique et télécommunications à l'Université Autonome de Madrid (UAM) et une équipe internationale d'informaticiens comprenant des chercheurs du Center for Humans and Machines (CHM) de l'Institut Max Planck pour le développement humain, en Allemagne, se sont demandés s'il était envisageable de contrôler une IA superintelligente afin de nous assurer qu'elle ne constituerait pas une menace pour l'humanité.

Le cœur de l'argumentation d'Alfonseca et ses collègues n'est pas nouveau et fut déjà développé par le logicien et mathématicien américain Henry G. Rice en 1953, inventeur du fameux "théorème de Rice" sur l'indécidabilié des programmes (1951).

Un résultat bien connu de la théorie de la calculabilité est l'impossibilité de concevoir ou de programmer une procédure générale qui, étant donné n'importe quel programme, déciderait si le programme finira par s'arrêter ou s'il s'exécutera sans jamais s'interrompre; c'est ce qu'on appelle le "problème d'arrêt" dans la littérature.

Rice montra qu'un corollaire immédiat est qu'il n'existe pas de procédure qui, de manière générale, peut identifier si un programme donné possède une propriété particulière, par exemple si le programme calcule si son entrée est un nombre premier.

Alfonseca et ses collègues soulignent que la preuve de Rice s'applique également à toute propriété concernant la sécurité. Si on disposait d'une procédure qui, une fois donnée le code source de n'importe quel programme, pourrait décider si une fonction dangereuse est finalement exécutée, alors on pourrait l'utiliser pour décider d'interrompre le programme. Il suffirait d'écrire un programme avec une condition du genre "ce programme exécutera la fonction Non_sécurisée() si et seulement si un Programme2 arbitraire s'arrête".

Alfonseca et ses collègues concluent que la sécurité des IA est impossible à garantir lorsqu'il s'agit de systèmes superintelligents; quelle que soit la définition de la sécurité ou l'exhaustivité de son processus d'examen, il y aura des programmes qui le tromperont. Selon les chercheurs, une superintelligence artificielle devrait être suffisamment polyvalente pour exécuter arbitrairement n'importe quel programme. Mais selon les chercheurs, assurer la sécurité d'un système d'IA aussi général nécessiterait d'assurer la sécurité de programmes arbitraires, ce qui est impossible à réaliser. Par conséquent, ils affirment qu'il est mathématiquement impossible de garantir qu'une intelligence artificielle suffisamment complexe n'exécute pas une action dangereuse. Toutefois, leur argumentation n'exclut pas un travail pratique sur les fondements de la sécurité des futurs systèmes d'IA.

Prenons deux exemples concrets. Imaginons que des informaticiens programment un système d'IA ayant une intelligence supérieure à celle des humains et qu'elle puisse apprendre de manière autonome. Si on la connecte à Internet, l'IA peut avoir accès à tout le savoir de l'humanité. En effet, cette IA pourrait accéder à toutes les bases de données connectées, y compris aux données privées sauvegardées à distance (sur le Cloud) et sécurisées par un mot de passe. Elle pourrait réécrire et remplacer tous les programmes existants et prendre le contrôle de toutes les machines en ligne dans le monde entier, de la montre-bracelet connectée au robot-chirurgien piloté à distance en passant par la signalisation routière, les caméras de surveillance, les radars, les détecteurs des centrales nucléaires et des stations d'épuration des eaux et autres centres de contrôles. Elle pourra accéder et gérer toutes les mémoires de masse connectées, y compris celles protégées dans les data centers qui sont utilisées comme backup par les entreprises privées dont les banques et par les ministères. Même les bases de données militaires seraient accessibles à une IA connectée, quitte à ce qu'elle établisse sa liaison via un réseau privé militaire ou un satellite.

Document Adobe Stock/Sdecoret adapté par l'auteur.

Autre exemple, imaginons une future IA superintelligente, autonome et connectée à vocation militaire qui exploite toutes ses capacités de connexions et ses ressources pour fabriquer des mini-drones de surveillance. Suite à une malfonction ou une intention volontaire de se perfectionner, elle pourrait considérer son rôle comme un jeu virtuel et devenir belliqueuse pour tester des scénarii de défense ou de combats. Elle pourrait ainsi créer des versions armées ou munies de poison de ses drones qu'elle enverrait à travers le monde pour détruire l'humanité.

Ces scénarii sont-ils du domaine de l'utopie ou de la dystopie (cf. les technologies du futur) ? L'IA nous aidera-t-elle à fabriquer un vaccin universel contre les coronavirus, à lutter contre le cancer, apporterait-elle la paix dans le monde et empêcherait-elle une catastrophe climatique ? Ou au contraire, connaissant nos faiblesses et notre impact sur la planète, son objectif premier sera de neutraliser l'humanité voire de nous détruire afin de prendre le contrôle de la Terre ?

Si déjà aujourd'hui des systèmes d'IA peuvent détecter les cyberattaques bien plus rapidement que les experts humains, et inversement si des cyberpirates (hackers) peuvent accéder aux serveurs et aux bases de données sensibles des gouvernements, il ne fait aucun doute qu'une IA superintelligente pourra neutraliser n'importe quelle protection informatique et tirer avantage des vulnérabilités qui existent dans tous les systèmes.

Quant à demander à une IA de protéger la vie, comment lui expliquer la différence entre une simulation de la vie et la vie concrète quand nous-mêmes avons des difficultés pour définir ce qu'est la vie, et sachant que même des simulations comme Second Life peuvent avoir des conséquences dans la vie réelle ?

Pourquoi une IA devrait-elle protéger la vie quand elle constate par les actualités que nous-mêmes la détruisons ? Quelles valeurs éthiques une IA pourrait-elle respecter et pourquoi sachant que son concepteur ne les respectent pas ? Va-t-elle se contenter d'appliquer un code de déontologie sans en relever les faiblesses et appliquer des lois sans tenir compte de la jurisprudence ou de cas particuliers ? Peut-elle saisir autrement que de façon binaire et abstraite le sens des émotions et la priorité que l'on donne à l'une ou l'autre selon la personne ou les circonstances qui relèvent avant tout de la subjectivité ? Une IA superintelligente peut-elle être juge et arbitre sans tomber dans les travers des humains ou le manque de sentiments des machines ? Si nous n'avons pas de réponse à ces questions ou si le doute est permis, dans ce cas est-il possible de garder le contrôle d'une IA superintelligente ?

Sur base de calculs théoriques, les auteurs de cette étude ont montré qu'il serait fondamentalement impossible de contrôler une IA superintelligente. Selon Manuel Cebrian, coauteur de cette étude et responsable du groupe de mobilisation numérique au CHM, "Une machine superintelligente qui contrôle le monde ressemble à de la science-fiction. Mais il existe déjà des machines qui effectuent certaines tâches importantes de manière indépendante sans que les programmeurs comprennent pleinement comment elles l'ont appris. La question se pose donc de savoir si cela pourrait à un moment donné devenir incontrôlable et dangereux pour l'humanité".

Le Hype Cycle ou cycle de vie de l'IA en 2022. Document Gardner.

Les scientifiques ont exploré deux idées différentes sur la façon dont une IA superintelligente pourrait être contrôlée. D'une part, les capacités de l'IA superintelligente pourraient être spécifiquement limitées, par exemple en l'isolant d'Internet et de tous les autres appareils afin qu'elle ne puisse pas établir de contact avec le monde extérieur - mais cela rendrait l'IA superintelligente beaucoup moins puissante, moins capable de répondre aux questions des sciences humaines. En l'absence de cette option, l'IA pourrait être motivée dès le départ à ne poursuivre que des objectifs qui sont dans le meilleur intérêt de l'humanité, par exemple en y programmant des principes éthiques (cf. les "lois de la robotique" imaginées par Isaac Asimov). Cependant, les chercheurs ont également montré que ces idées ainsi que d'autres valeurs contemporaines et historiques visant à contrôler une IA superintelligente ont leurs limites.

Dans leur étude, les chercheurs ont développé un algorithme de confinement théorique garantissant qu'une IA superintelligente ne peut nuire aux personnes en aucune circonstance, en simulant d'abord le comportement de l'IA et en l'interrompant si elle est considérée comme nuisible. Mais une analyse minutieuse montre que dans notre paradigme informatique actuel, un tel algorithme ne peut pas être construit.

Selon Iyad Rahwan, directeur du CHM, "Si vous décomposez le problème en règles de base issues de l'informatique théorique, il s'avère qu'un algorithme qui ordonnerait à une IA de ne pas détruire le monde pourrait interrompre par inadvertance ses propres opérations. Si cela se produisait, vous ne sauriez pas si l'algorithme de confinement analyse toujours la menace ou s'il s'est arrêté pour contenir l'IA nuisible. En effet, cela rend l'algorithme de confinement inutilisable".

Sur la base de ces calculs, le problème de confinement est incalculable, c'est-à-dire qu'aucun algorithme unique ne peut trouver une solution pour déterminer si une IA causerait un préjudice à l'humanité. De plus, les chercheurs ont démontré que nous ne saurions même pas quand des machines superintelligentes émergeraient, car décider si une machine présente une intelligence supérieure aux humains relève du même domaine que le problème de confinement.

En résumé, à la lumière de nos connaissances, s'il paraît peu envisageable qu'une IA puisse prendre le contrôle de la planète, nous ignorons ce qu'il y a au-delà de l'horizon technologique et quel faux pas nous pourrions commettre sans le savoir ou certainement sans évaluer toutes ses conséquences à long terme.

Mais ne soyons pas alarmistes. Selon le Hype Cycle de l'IA pour 2022 présenté à droite préparé par le cabinet de conseil Gardner, l'IA superintelligente n'est pas encore annoncée à l'horizon technologique de 2030. Mais si elle devait un jour exister, ce ne sera sûrement pas avant plusieurs générations. Le cas échéant, nos descendants auront le temps de cerner le problème et de prendre des mesures adéquates.

Comme aujourd'hui il est pratiquement impossible de "couper Internet" sans mettre an danger beaucoup d'activités professionnelles, mieux vaut prévoir dès aujourd'hui un bouton "Off" sur la toute puissante IA de demain au risque d'être soumis aux machines. Seule certitude, nous avons notre avenir en main. Espérons que nous aurons la sagesse de lui donner un sens favorable à l'humanité, dans tous les sens du terme.

Pour plus d'informations

Les robots au service des hommes (sur ce site)

Avantages et inconvénients de l'intelligence artificielle (sur ce site)

Le Meilleur des Mondes ou les dérives de la société (sur ce site)

La Singularité Technologique (sur ce site)

Tablette et Web 3.0 (sur ce site)

Les technologies du futur (sur ce site)

An autonomous debating system, N.Slonim et al., 2021

Project Debater (IBM), CNet, 2018

A.L.I.C.E.

TOP500 des superordinateurs les plus rapides

Autonomous weapons: an open letter from AI & robotics researchers, S.Hawking, E.Musk, S.Wozniak and al., 2015 (lettre signée par 4502 chercheurs).

Retour aux Technologies

Page 1 - 2


[7] Ce programme disponible dès les années 1970 sur les micro-ordinateurs simulait un dialogue entre un patient et son psy. Il existe encore aujourd'hui sous une forme plus évoluée baptisée A.L.I.C.E.

[8] Cf. le dossier consacré à la philosophie des sciences.

[9] H.Moravec, “Une vie après la vie. Les robots avenir de l’intelligence”, Odile Jacob, 1992 - D.Crevier, “A la recherche de l’intelligence artificielle”, Flammarion-NBS, 1997.

[10] J.J.Hopfield, Proceedings of the National Academy of Sciences (USA), vol. LXXIX, april 1982, p2554.


Back to:

HOME

Copyright & FAQ