|
La cybernétique
La place de l'homme : entre idéal et réalisme (II) Comme l’on dit plus d’un écrivain depuis 400 ans,"Science sans conscience n'est que la ruine de l'âme". Certains ingénieurs nous rappellent que l’homme peut se fourvoyer en cherchant à créer des machines à son image. Concepteur du fameux programme de simulation Eliza[7], Joseph Weizenbaum de MIT souhaite discuter de la place de l'homme dans ce monde devenu trop artificiel. Il nous rappelle que l'homme est une fin en soi et non pas un moyen d'acquérir de l'information. Toutefois, tout le monde ne partage pas sn opinion. En créant des robots à notre image, ne sommes-nous pas en train de créer des besoins, de pousser le progrès dans une direction incontrôlable ? Weizenbaum dénonce le fait que l'informatique asservit notre esprit et que sans y prendre garde nous lui serons totalement dévoué. Demain la nature sera peut-être artificielle et on oubliera sa beauté naturelle. La machine va-t-elle supplanter toutes les espèces vivantes, l'homme y compris ? A
l'opposé, Rucker ou Gödel considère qu'une machine offrant
les mêmes capacités que l'homme est tout à fait réalisable même si Gödel
avoue ne pouvoir démontrer son universalité et fixe certaines limites
aux capacités de la logique[8].
Reproduire
le cerveau Qu'ils
soient scientifiques ou non, moralistes ou mystiques, avec toutes ces données
les chercheurs idéalistes concluent que notre problème ne mettra plus très
longtemps à être résolu. Mais on peut sérieusement douter de cet optimiste;
avec un peu de réalisme, reproduire un cerveau avec ses quelque 30 à 100 milliards
de neurones (1011)
ne sera certainement pas pour demain. Son "équivalent" numérique
devrait gérer quelque 21011
états
possibles ! L'ordinateur qui simulerait ces conditions devrait être
plus performant que notre cerveau s'il veut coder mécaniquement tous ces
états. Selon Jacob T. Schwartz[9],
disposant de 1015
synapses et 10000 contacts par cellule (valeur haute), le cortex de l’homme
est capable de traiter 1019
bits d’information soit, en jargon informatique l’équivalent d’une puissance
de 10000 TFLOPS ou 10 PFLOPS (nombre d'opérations en virgule flottante par seconde ou
"FLoating point Operations Per Second"); notre cortex à la puissance d’un
superordinateur Cray-3 mais ce dernier est loin d’être optimisé. Il est très cher,
encombrant, fragile, il consomme beaucoup d'énergie et chauffe et serait, au mieux,
mille fois plus lent que notre cerveau, à moins d’interconnecter 1000 Cray-3 en réseau. John
Hopfield. Doc U.Princeton. Nous
savons aujourd’hui que les réseaux neuronaux dit de Hopfield[10]
ont une capacité de stockage de 0.15n, n étant le nombre de neurones.
Par analogie le cerveau serait capable de stocker 15 à 32 milliards de
bits, environ 2 Gigabytes, l’équivalent d’une bibliothèque de 2000
ouvrages. C'est dans ce contexte que John
Hopfield de l'Université de Princeton a construit une souris
Silicium, un modèle informatique constitué de 800 neurones et
capable de reconnaître des mots. Les
ordinateurs pourraient ainsi approcher un jour les capacités du cerveau.
Les signaux électriques par exemple, se propagent dans un ordinateur à
la vitesse de la lumière et parcourent ainsi 10 cm en 0.586 nanoseconde.
Un ordinateur équipé d’une horloge battant à moins de 600 MHz
suffirait. Nous l'avons construit en 1999. Quant à la dissipation de la
chaleur, le cerveau produit de 10 à 100 impulsions par seconde. Il est
pourtant capable de traiter 1000 fois plus d’informations qu’un
superordinateur. Nous sommes peut-être de temps en temps "lents à
comprendre", nous gardons la tête froide ! Comment
pourrait-on augmenter la vitesse d’un ordinateur sans dissiper
trop de chaleur ? Il est possible de véhiculer l’information sur
plusieurs canaux en parallèles. Ainsi nous sommes passés des bus de
données de 4 canaux ou 4 bits à 512 bits et le progrès continue. Enfin,
plutôt que de séparer les centres de traitement (processeur) et de stockage
(mémoire) on peut aussi fusionner les deux modules, ce qui évitera de
devoir effectuer des millions de transferts tout en permettant de s’affranchir
de la vitesse finie de la lumière. Le
cerveau est peut-être bien en mesure de calculer et de mémoriser,
effectuant simultanément de nombreuses opérations, mais personne ne sait
ni où ni comment il le fait. Rien qu’à travers nos yeux transitent des
millions de bits d’information chaque seconde. Par comparaison, un portrait
digitalisé est reconnaissable sur une trame de 20 x 20 pixels contenant
4 tons de gris représente 1600 bits d’informations élémentaires. Mais cette
résolution est des millions de fois inférieure à la capacité de notre
cerveau. Nous
n’avons en effet pas l’impression d’observer notre environnement à travers
une trame grossière. Un écran d’ordinateur standard offrant 16.8
millions de couleurs (256 nuances dans chacune des trois couleurs RGB) et
une résolution de 1920 x 1080 pixels s’approche déjà plus de l’image que
nous avons de notre environnement. Mais cela représente déjà un total
d'environ 34789 milliards d’informations élémentaires que notre cerveau
traite en moins d’une seconde ! Dans
les années 1990, l'une des machines les plus rapides contenait 250000 processeurs parallèles et
16000 noeuds de calculs, c'était la “Connection Machine” (CM) construite par Thinking
Machines Inc. aux Etats-Unis. Pour l'anecdote les connaisseurs la reconnaîtront
dans le film "Jurassic Park" de Steven Spielberg (1993); elle apparaît
en effet dans le fond de la salle informatique... Le modèle CM-5 a une puissance
de calcul de 2.5 TFLOPS. L'entreprise déposa le bilan en 1994 à la mort de son
fondateur mais ses divisions de matériel informatique et de logiciels de calcul
parallèle ont été rachetées par Sun Microsystems. Depuis, la technologie a beaucoup évolué. Le
record est actuellement détenu (2022) par le superordinateur Fugaku japonais qui
atteint une puissance de calcul de 415.53 PFLOPS. Il détrôna la suprématie
chinoise qui occupait la première place du classement depuis 11 ans ! Il est suivi
par le Summit d'IBM qui atteint 148.8
PFLOPS comme indiqué sur le site TOP500
qui reprend les 500 superordinateurs les plus rapides au monde. Hewlett
Packard Entreprise alias HPE
qui racheta Cray en 2019, travaille actuellement au développement du superordinateur
El Capitan qui sera utilisé par le DoE (U.S. Department of Energy), la NNSA (National
Nuclear Security Administration) et le LLNL (Lawrence Livermore National Laboratory).
Sa vitesse atteindra 2000 PFLOPS soit 2 exaFLOPS (crête). Il devrait entrer en service
en 2023. En
deuxième place vient le superordinateur Frontier
de l'ORNL (Oak Ridge National Laboratory) installé dans le Tennessee, un Cray EX235a
qui atteint 1.1 exaFLOPS. Il sera opérationnel fin 2022. La
Chine prétend également disposer de superodinateurs dépassant
l'exaFLOPS mais aucune information officielle n'a été publiée. A
gauche, la Connection Machine CM-5 de Thinking Machines Inc. Au centre, le superordinateur Cray XC30 de plus de 100 PFLOPS qu'utilise
la NSA. A droite, le concept du superordinateur El Capitan de HPE (qui racheta Cray) qui sera utilisé par
le DoE, la NNSA et le LLNL. Cette machine atteindra 2 exaFLOPS (crête) et sera opérationnelle en 2023.
Documents D.R. et LLNL. Si
ces superordinateurs ainsi que les robots industriels, d'exhibition ou
militaires par exemple semblent intelligents, leur intelligence
artificielle (IA) présente encore beaucoup de limites et de défauts.
Leurs prouesses ne sont pas de l'intelligence comme nous
l'entendons car ils sont encore loin de rivaliser avec l'intelligence du
plus stupide insecte, qui reste polyvalente. Le système expert
équivalent devrait disposer d'un nombre peut-être infini de bases de
connaissances pour transmettre ne fut-ce qu'une indication précise sur un
objet tel que l'exécute une abeille qui se respecte. De
plus, ces machines sont pour la plupart incapables de se déplacer ou d'appréhender
des objets, elles sont toujours à la merci d'un accident, d'une panne électrique
ou mécanique, ce qui les rendent très fragiles et vulnérables. Leurs facultés
intellectuelles ne sont qu'une imitation des différentes formes d'intelligences
humaines. Toute évoluée qu'elle soit, une IA ne comprend pas le sens profond des
sensations, des émotions, de l'amour ou de la compassion, des facteurs qui peuvent
parfois être décisifs car vitaux dans une action qui implique la protection ou la
survie d'un être humain. On reviendra en détails sur les Avantages
et inconvénients de l'intelligence artificielle. Conversez
avec une IA : ChatGPT Demandez
un dessin à une IA : DALL-E
2
- Midjourney Txt2Art
- Hotpot.ai
- NightCafé - VanceAI
- AILab App
exploitant l'IA : Portrait.ai
- Lensa Et
si nous étions incapables de contrôler les machines superintelligentes ? Nous
sommes fascinés par la vitesse de calcul des superordinateurs, par les machines
capables de contrôler des voitures, les sondes spatiales capables de se poser
seules sur d'autres astres, les robots capables de composer des symphonies, de
battre des champions aux jeux d'échecs ou au Jeopardy ou capables d'aider des
handicapés moteurs à contrôler leurs mouvements par la pensée. Alors
que de plus en plus de progrès sont réalisés en intelligence artificielle (IA),
depuis plusieurs générations des scientifiques et des philosophes nous mettent
en garde contre les dangers d'une IA superintelligente incontrôlable. Document
Pikist/ikbne. Dans
une étude publiée dans le "Journal of
Artificial Intelligence Research" en 2021 (mais qui fut
déjà publiée en 2016
sans qu'on y prête attention), Manuel Alfonseca, ingénieur en informatique
et télécommunications à l'Université Autonome de Madrid (UAM) et une équipe
internationale d'informaticiens comprenant des chercheurs du Center for Humans and Machines
(CHM) de l'Institut Max Planck
pour le développement humain, en Allemagne, se sont demandés s'il était envisageable
de contrôler une IA superintelligente afin de nous assurer qu'elle ne constituerait
pas une menace pour l'humanité. Le
cœur de l'argumentation d'Alfonseca et ses collègues n'est pas nouveau et fut déjà développé
par le logicien et mathématicien américain Henry
G. Rice en 1953, inventeur du fameux "théorème
de Rice" sur l'indécidabilié des programmes (1951). Un
résultat bien connu de la théorie de la calculabilité est l'impossibilité de concevoir
ou de programmer une procédure générale qui, étant donné n'importe quel programme,
déciderait si le programme finira par s'arrêter ou s'il s'exécutera sans jamais s'interrompre;
c'est ce qu'on appelle le "problème d'arrêt" dans la littérature. Rice
montra qu'un corollaire immédiat est qu'il n'existe pas de procédure qui, de manière
générale, peut identifier si un programme donné possède une propriété particulière,
par exemple si le programme calcule si son entrée est un nombre premier. Alfonseca et
ses collègues soulignent que la preuve de Rice s'applique également à toute propriété
concernant la sécurité. Si on disposait d'une procédure qui, une fois donnée le code
source de n'importe quel programme, pourrait décider si une fonction dangereuse est finalement
exécutée, alors on pourrait l'utiliser pour décider d'interrompre le programme. Il suffirait
d'écrire un programme avec une condition du genre "ce programme exécutera la fonction
Non_sécurisée() si et seulement si un Programme2 arbitraire s'arrête". Alfonseca
et ses collègues concluent que la sécurité des IA est impossible à garantir
lorsqu'il s'agit de systèmes superintelligents; quelle que soit la définition
de la sécurité ou l'exhaustivité de son processus d'examen, il y aura des programmes
qui le tromperont. Selon les chercheurs, une superintelligence artificielle devrait
être suffisamment polyvalente pour exécuter arbitrairement n'importe quel programme.
Mais selon les chercheurs, assurer la sécurité d'un système d'IA aussi général
nécessiterait d'assurer la sécurité de programmes arbitraires, ce qui est impossible
à réaliser. Par conséquent, ils affirment qu'il est mathématiquement impossible de
garantir qu'une intelligence artificielle suffisamment complexe n'exécute
pas une action dangereuse. Toutefois, leur argumentation n'exclut pas un
travail pratique sur les fondements de la sécurité des futurs systèmes d'IA. Prenons
deux exemples concrets. Imaginons que des informaticiens programment un système
d'IA ayant une intelligence supérieure à celle des humains et qu'elle puisse
apprendre de manière autonome. Si on la connecte à Internet, l'IA peut avoir
accès à tout le savoir de l'humanité. En effet, cette IA pourrait accéder
à toutes les bases de données connectées, y compris aux données privées
sauvegardées à distance (sur le Cloud) et sécurisées par un mot de
passe. Elle pourrait réécrire et remplacer tous les programmes existants
et prendre le contrôle de toutes les machines en ligne dans le monde
entier, de la montre-bracelet connectée au robot-chirurgien piloté à
distance en passant par la signalisation routière, les caméras de
surveillance, les radars, les détecteurs des centrales nucléaires et des
stations d'épuration des eaux et autres centres de contrôles. Elle pourra accéder et gérer
toutes les mémoires de masse connectées, y compris celles protégées dans
les data centers qui sont utilisées comme backup par les entreprises
privées dont les banques et par les ministères. Même les bases de données
militaires seraient accessibles à une IA connectée, quitte à ce
qu'elle établisse sa liaison via un réseau privé militaire ou un
satellite. Document
Adobe Stock/Sdecoret adapté par l'auteur. Autre
exemple, imaginons une future IA superintelligente, autonome et connectée à vocation
militaire qui exploite toutes ses capacités de connexions et ses ressources
pour fabriquer des mini-drones de surveillance. Suite à une malfonction
ou une intention volontaire de se perfectionner, elle pourrait considérer
son rôle comme un jeu virtuel et devenir belliqueuse pour tester des scénarii de
défense ou de combats. Elle pourrait ainsi créer des versions armées ou munies de poison
de ses drones qu'elle enverrait à travers le monde pour détruire l'humanité. Ces
scénarii sont-ils du domaine de l'utopie ou de la dystopie (cf. les technologies
du futur) ? L'IA nous aidera-t-elle à fabriquer un vaccin universel contre
les coronavirus, à lutter contre le cancer, apporterait-elle la paix dans le monde et
empêcherait-elle une catastrophe climatique ? Ou au contraire, connaissant nos faiblesses
et notre impact sur la planète, son objectif premier sera de neutraliser l'humanité voire
de nous détruire afin de prendre le contrôle de la Terre ? Si
déjà aujourd'hui des systèmes d'IA peuvent détecter les cyberattaques bien plus
rapidement que les experts humains, et inversement si des cyberpirates
(hackers) peuvent accéder aux serveurs et aux bases de données sensibles
des gouvernements, il ne fait aucun doute qu'une IA superintelligente
pourra neutraliser n'importe quelle protection informatique et tirer avantage des
vulnérabilités qui existent dans tous les systèmes. Quant
à demander à une IA de protéger la vie, comment lui expliquer la différence
entre une simulation de la vie et la vie concrète quand nous-mêmes avons des
difficultés pour définir ce qu'est la vie,
et sachant que même des simulations comme Second
Life peuvent avoir des conséquences dans la vie réelle ? Pourquoi
une IA devrait-elle protéger la vie quand elle constate par les actualités
que nous-mêmes la détruisons ? Quelles valeurs éthiques une IA pourrait-elle
respecter et pourquoi sachant que son concepteur ne les respectent pas ?
Va-t-elle se contenter d'appliquer un code de déontologie sans en relever
les faiblesses et appliquer des lois sans tenir compte de la jurisprudence
ou de cas particuliers ? Peut-elle saisir autrement que de façon binaire et abstraite le sens
des émotions et la priorité que l'on donne à l'une ou l'autre selon la personne
ou les circonstances qui relèvent avant tout de la subjectivité ? Une IA superintelligente peut-elle être juge et arbitre sans tomber dans les travers des
humains ou le manque de sentiments des machines ? Si nous n'avons pas de réponse
à ces questions ou si le doute est permis, dans ce cas est-il possible de garder
le contrôle d'une IA superintelligente ? Sur
base de calculs théoriques, les auteurs de cette étude ont montré qu'il
serait fondamentalement impossible de contrôler une IA superintelligente.
Selon Manuel Cebrian, coauteur de cette étude et responsable du groupe de mobilisation
numérique au CHM, "Une machine superintelligente qui contrôle le monde
ressemble à de la science-fiction. Mais il existe déjà des machines qui effectuent
certaines tâches importantes de manière indépendante sans que les programmeurs
comprennent pleinement comment elles l'ont appris. La question se pose donc de
savoir si cela pourrait à un moment donné devenir incontrôlable et dangereux pour
l'humanité". Le
Hype Cycle ou cycle de vie de l'IA en 2022. Document Gardner. Les
scientifiques ont exploré deux idées différentes sur la façon dont une IA
superintelligente pourrait être contrôlée. D'une part, les capacités de l'IA
superintelligente pourraient être spécifiquement limitées, par exemple en
l'isolant d'Internet et de tous les autres appareils afin qu'elle ne puisse
pas établir de contact avec le monde extérieur - mais cela rendrait l'IA
superintelligente beaucoup moins puissante, moins capable de répondre aux
questions des sciences humaines. En l'absence de cette option, l'IA pourrait
être motivée dès le départ à ne poursuivre que des objectifs qui sont dans
le meilleur intérêt de l'humanité, par exemple en y programmant des principes
éthiques (cf. les "lois de la robotique" imaginées par Isaac Asimov).
Cependant, les chercheurs ont également montré que ces idées ainsi que d'autres
valeurs contemporaines et historiques visant à contrôler une IA superintelligente ont leurs limites. Dans
leur étude, les chercheurs ont développé un algorithme de confinement théorique
garantissant qu'une IA superintelligente ne peut nuire aux personnes en aucune
circonstance, en simulant d'abord le comportement de l'IA et en l'interrompant
si elle est considérée comme nuisible. Mais une analyse minutieuse montre que
dans notre paradigme informatique actuel, un tel algorithme ne peut pas être construit. Selon
Iyad Rahwan, directeur du CHM, "Si vous décomposez le problème en règles
de base issues de l'informatique théorique, il s'avère qu'un algorithme qui
ordonnerait à une IA de ne pas détruire le monde pourrait interrompre par
inadvertance ses propres opérations. Si cela se produisait, vous ne sauriez pas
si l'algorithme de confinement analyse toujours la menace ou s'il s'est arrêté
pour contenir l'IA nuisible. En effet, cela rend l'algorithme de confinement inutilisable". Sur
la base de ces calculs, le problème de confinement est incalculable, c'est-à-dire qu'aucun
algorithme unique ne peut trouver une solution pour déterminer si une IA causerait un
préjudice à l'humanité. De plus, les chercheurs ont démontré que nous ne saurions même
pas quand des machines superintelligentes émergeraient, car décider si une machine
présente une intelligence supérieure aux humains relève du même domaine que le problème
de confinement. En
résumé, à la lumière de nos connaissances, s'il paraît peu envisageable qu'une IA
puisse prendre le contrôle de la planète, nous ignorons ce qu'il y a au-delà de
l'horizon technologique et quel faux pas nous pourrions commettre sans le savoir ou
certainement sans évaluer toutes ses conséquences à long terme. Mais
ne soyons pas alarmistes. Selon le Hype Cycle de l'IA pour 2022 présenté à
droite préparé par le cabinet de conseil Gardner, l'IA superintelligente n'est
pas encore annoncée à l'horizon technologique de 2030. Mais si elle devait un
jour exister, ce ne sera sûrement pas avant plusieurs générations. Le cas échéant,
nos descendants auront le temps de cerner le problème et de prendre des mesures adéquates. Comme
aujourd'hui il est pratiquement impossible de "couper Internet"
sans mettre an danger beaucoup d'activités professionnelles, mieux vaut prévoir
dès aujourd'hui un bouton "Off" sur la toute puissante IA
de demain au risque d'être soumis aux machines. Seule certitude, nous avons
notre avenir en main. Espérons que nous aurons la sagesse de lui donner
un sens favorable à l'humanité, dans tous les sens du terme. Pour
plus d'informations Les
robots au service des hommes (sur ce site) Avantages
et inconvénients de l'intelligence artificielle (sur ce site) Le
Meilleur des Mondes ou les dérives de la société (sur ce site) La
Singularité Technologique (sur ce site) Tablette et Web
3.0 (sur ce site) Les
technologies du futur (sur ce site) An autonomous debating system,
N.Slonim et al., 2021 Project
Debater (IBM), CNet, 2018 TOP500
des superordinateurs les plus rapides Autonomous
weapons: an open letter from AI & robotics researchers, S.Hawking,
E.Musk, S.Wozniak and al., 2015 (lettre signée par 4502 chercheurs).
|