Contacter l'auteur / Contact the author

Recherche dans ce site / Search in this site

 

 

 

 

 

La Singularité Technologique

Eve (Extraterrestrial Vegetation Evaluator), du film "Wall-e" est une sonde biologique terrestre, une droïde élégante aux yeux bleus munie d'un canon laser et au caractère entier imaginée par les Studios Pixar de Disney (2008).

Futurologie ou mythe ? (I)

Des spécialistes des technologies de pointe prédisent qu'au cours du XXIe siècle, l'humanité devrait subir une transformation radicale comme elle n'en a jamais connue depuis que nous avons commencé à parler, fabriquer des outils et appris à cultiver. Cette révolution est la "Singularité Technologique" ou plus simplement la "Singularité". Elle se résume à l'hypothèse que l'accélération du progrès technologique et des connaissances changeront radicalement l'humanité.

Cette théorie est fondée sur la nature itérative de la technologie, les progrès de l'informatique et des exemples historiques où des innovations majeures ont conduit à une croissance explosive des sociétés humaines.

C'est en 1932 que pour la première fois l'historien américain John B. Starks décrit l'évolution exponentielle de la technologie dans son "Histomap of Evolution" (l'histocarte de l'évolution) qui illustre sous forme d'une carte l'évolution du monde déclinée selon trois thèmes : la Terre, la Vie et l'Humanité. Un an auparavant, il avait déjà publié une histocarte  mais elle concernait "uniquement" les derniers 2000 ans des civilisations. Cette fois, sa nouvelle carte couvre toute l'histoire du monde ! Même avec nos technologies modernes, il est impossible d'afficher cette carte en grandeur réelle sur un écran d'ordinateur car elle mesure 144 cm x 54 cm et occupe au moins 20 MB pour être correctement lisible.

A consulter : Histomap of Evolution, John B. Starks, éd.1942

David Rumsey Map Collection

De nombreux partisans de la Singularité Technologique pensent qu'elle se produira au cours du XXIe siècle. Bien que les détails soient largement discutés voire même totalement inconnus, la majorité des partisans pense que cela se résumera aux développements dans les domaines de l'informatique et de l'intelligence artificielle (IA), de la robotique, de la nanotechnologie et de la biotechnologie.

Mais nous verrons qu'il existe des divergences d'opinions quant à la manière dont cela se déroulera, si elle sera le résultat d'un emballement de la croissance technologique, d'une accélération incontrôlée déclenchée par des machines auto-répliquantes et auto-évolutives, d'une "explosion" de l'intelligence causée par la naissance d'une IA superintelligente et autonome, ou le résultat d'une accélération des progrès en biotechnologie.

Les avis diffèrent également sur la question de savoir si cela sera ressenti ou non comme un basculement soudain ou comme un processus graduel étalé dans le temps qui pourrait ne pas avoir de point de départ ou d'inflexion définissable. Mais dans tous les cas, les partisans de cette théorie estiment qu'une fois que la Singularité se produira, la vie ne sera plus jamais la même. À cet égard, le terme "singularité" qui est généralement utilisé dans le contexte mathématique des trous noirs, est tout à fait approprié car il a lui aussi un horizon des évènements, c'est-à-dire un moment où notre capacité à comprendre ses implications s'effondre : on ne sait pas ce qu'il adviendra ensuite et c'est là tout le problème. 

C'est du moins ce que pensent les partisans de cette hypothèse. Car de nombreux scientifiques estiment que la Singularité Technologique n'est qu'un scénario possible parmi tous les futurs virtuels et que la probabilité que celui-là justement se concrétise n'est pas plus élevée que celle d'un mythe !

Nous allons donc examiner en détails ce scénario et ses implications mais également souligner quelques a priori et influences qui le porte avant de clôturer le sujet sur une note plus réaliste.

Aux origines

L'utilisation du terme "singularité" dans ce contexte est apparue pour la première fois dans un article écrit par Stanislav Ulam sur la vie et les réalisations du mathématicien et polymate anglais John von Neumann (l'inventeur de l'EDVAC en 1948). Dans ce texte, Ulam décrit comment les deux amis ont parlé à un moment donné d'accélérer le changement : "Une conversation centrée sur les progrès toujours plus rapides de la technologie et les changements dans le mode de la vie humaine, ce qui donne l'impression d'approcher une singularité essentielle dans l'histoire de la race au-delà de laquelle les affaires humaines, telles que nous les connaissons, ne pourraient pas continuer".

Cependant, l'idée que l'humanité puisse s'améliorer et se perfectionner dans tous les domaines a un précédent bien antérieur. Il est attribué au mathématicien et philosophe français le Marquis Nicolas de Condorcet, qui fit la première prédiction enregistrée et inventa le premier modèle.

La loi de Moore (des CPU).

Dans son essai, "Esquisse d'un tableau historique des progrès de l'esprit humain" publié en 1795, de Condorcet explique comment l'acquisition de connaissances, le développement technologique et le progrès moral humain sont sujets à une accélération : "Combien plus grande serait la certitude, combien plus vaste le schéma de nos espérances si... ces facultés [humaines] naturelles elles-mêmes et cette organisation [du corps humain] pouvaient aussi être améliorées ?... L'amélioration de la pratique médicale. .. deviendra plus efficace avec les progrès de la raison... Nous sommes obligés de croire que la durée moyenne de la vie humaine augmentera à jamais... Ne pouvons-nous pas étendre [nos] espoirs [de perfectibilité] aux facultés intellectuelles et morales ?... N'est-il pas probable que l'éducation, en perfectionnant ces qualités, influencera, modifiera et perfectionnera en même temps l'organisation [physique] ?"

Plus récemment, un autre précurseur était le mathématicien britannique Irving John Good qui travailla au Bletchley Park avec Alan Turing pendant la Seconde guerre mondiale. En 1965, il écrivit un essai intitulé "Speculations Concerning the First Ultraintelligent Machine", dans lequel il affirma qu'une IA plus intelligente que l'IA pourrait créer des IA encore plus intelligentes dans un processus continu connu sous le nom de la "théorie des sous-ensembles".

En 1965, l'ingénieur américain Gordon Moore, cofondateur d'Intel, constata que le nombre de transistors placés dans un circuit intégré devrait doubler chaque année (plus tard mis à jour à environ tous les deux ans). Son observation est connue sous le nom de la fameuse "loi de Moore" toujours utilisée pour décrire la nature exponentielle de l'évolution informatique durant la seconde moitié du XXe siècle et qui reste partiellement d'actualité. Elle est également référencée par rapport à la Singularité et pourquoi une "explosion de l'intelligence" est inévitable.

Le mathématicien et auteur de science-fiction américain Vernor Vinge (cf. Un feu sur l'abîme, Aux tréfonds du ciel, Les Enfants du ciel, etc) popularisa la théorie dans un article publié dans le magazine "Omni" en janvier 1983 dans lequel il affirme que l'IA s'améliorant rapidement, elle finirait par atteindre une "sorte de singularité", au-delà de laquelle la réalité serait difficile à prédire. C'est dans cet article qu'il fit la première comparaison avec un trou noir : "Nous créerons bientôt des intelligences plus grandes que la nôtre. Lorsque cela arrivera, l'histoire humaine aura atteint une sorte de singularité, une transition intellectuelle aussi impénétrable que l'espace-temps noué au centre d'un trou noir, et le monde passera loin au-delà de notre compréhension. Cette singularité, je crois, hante déjà un certain nombre d'écrivains de science-fiction. Elle rend impossible toute extrapolation réaliste à un futur interstellaire. Pour écrire une histoire se déroulant dans plus d'un siècle, il faut une guerre nucléaire entre les deux pour que le monde reste intelligible".

A voir : Vernor Vinge on the Technological Singularity, 2011

Vernor Vinge on the Singularity, 2012

Dr. Vernor Vinge - Technology and New Populisms, 2010

Quand et comment ?

Vinge publia ensuite un essai intitulé "The Coming Technological Singularity: How to Survive in the Post-Human Era" en 1993 qui reprend le texte de la conférence qu'il présenta lors du symposium VISION-21 parrainé par la NASA. C'est ce texte clé qui popularisa davantage le concept de Singularité Technologique.

Vinge présente quatre scénarii possibles sur la façon dont cet évènement pourrait se produire :

La courbe de Kurzweil adaptée de "The Singularity is Near" (2005).

- 1. Les ordinateurs surperintelligents : ce scénario est basé sur l'idée que les êtres humains pourraient développer des ordinateurs "conscients". Si une telle chose est possible, il ne fait aucun doute qu'une intelligence artificielle bien plus avancée que l'humanité pourrait naturellement en résulter.

- 2. La mise en réseau : dans ce scénario, de grands réseaux d'ordinateurs et leurs utilisateurs respectifs se réuniraient pour constituer une intelligence surhumaine.

- 3. L'interface esprit-machine : ce scénario propose que l'intelligence humaine pourrait fusionner avec l'informatique, conduisant à une intelligence surhumaine.

- 4. L'évolution guidée : les sciences de la vie pourraient progresser au point où elles fourniraien un moyen d'améliorer l'intelligence humaine.

Mais le promoteur le plus célèbre du concept est le célèbre inventeur et futurologue américain Ray Kurzweil. Son livre "The Singularity is Near: When Humans Transcend Biology" publié en 2005 est peut-être son ouvrage le plus connu dans lequel il développe des idées présentées dans des livres antérieurs, notamment sa "Loi des retours accélérés".

Cette loi est essentiellement une généralisation de la loi de Moore et stipule que le taux de croissance des systèmes technologiques augmente de façon exponentielle au fil du temps. Il explique en outre comment une augmentation exponentielle des technologies comme l'informatique, la génétique, la nanotechnologie et l'intelligence artificielle culminerait et conduirait à une nouvelle ère de superintelligence.

Kurzweil définit la Singularité Technologique comme "... une période future au cours de laquelle le rythme du changement technologique sera si rapide, son impact si profond, que la vie humaine sera irréversiblement transformée. Bien que ni utopique ni dystopique, cette époque transformera les concepts sur lesquels nous nous appuyons pour donner un sens à nos vies, de nos modèles économiques au cycle de la vie humaine, y compris la mort elle-même".

Selon Kurzweil, "La Singularité nous permettra de transcender les limitations de nos corps et cerveaux biologiques. Il n'y aura pas de distinction, post-Singularité, entre l'humain et la machine".

Le 5 octobre 2017, au cours d'une interview avec Will Weisman, directeur exécutif des Global Summits présentée ci-dessous, Kurzweil prédit que "D'ici 2029, les ordinateurs auront une intelligence de niveau humain. 2029 est la date cohérente que j'ai prédite à laquelle une IA réussira un test de Turing valide et atteindra donc des niveaux d'intelligence humains. J'ai fixé la date de 2045 pour la Singularité, c'est-à-dire lorsque nous multiplierons notre intelligence effective par un milliard en fusionnant avec l'intelligence que nous avons créée". 2045 serait donc la première date charnière où l'intelligence informatisée dépasserait considérablement la somme totale des intelligences humaines.

A voir : Q & A | Ray Kurzweil, Will Weisman, SU Global Summit, 2017

Ray Kurzweil: The Coming Singularity, Big Think, 2009

Pour voir ces tendances à l'œuvre, les futurologues et les philosophes des sciences citent généralement des exemples d'innovations majeures de l'histoire humaine, se concentrant souvent sur des technologies qui ont transformé la manière dont nous transmettons et consommons l'information de manière exponentielle. Dans tous les cas, il s'agit de montrer comment le délai entre les innovations ne cesse de se raccourcir.

Prenons trois exemples significatifs dans le domaine de l'informatique au sens le plus large où l'évolution technologique est exponentielle et pourrait conduire à une Singularité Technologique.

La voie informatique

1. Les communications

Un facteur clé de la technologie informatique concerne la façon dont les données sont partagées et qu'on appelle la compression de messages (à ne pas confondre avec la compression de données). L'idée de base est que la quantité croissante de données que les humains créent et partagent peut être mesurée comme une expression du temps sur le nombre de personnes que le média nous permet d'atteindre.

Document Peakpx.

Par exemple, les peintures rupestres sont les premiers moyens connus de communication indirecte (apparues il y a 42000 à 65000 ans chez l'homme de Néandertal). Ces peintures qui constituaient probablement la mémoire collective, jouant le rôle ancestral des annales et des légendes n'ont probablement été vues que par des membres des communautés de la famille élargie qui les ont créées.

La prochaine innovation majeure est apparue à l'époque néolithique (~9000 ans avant notre ère) sous la forme de pictogrammes, des symboles ressemblant à des objets physiques.

Ensuite, en Mésopotamie, vers 3500 ans avant notre ère les Sumériens inventèrent l'écriture symbolique qui donna naissance à l'écriture cunéiforme vers 2800 avant notre ère et les premiers alphabets, rapidement suivis par les premiers idéogrammes, des symboles qui véhiculent des concepts plutôt que des objets qui furent utilisés par tous les peuples du Moyen-Orient.

Puis, par étapes, au gré des échanges commerciaux et des coups de génie, des techniques d'impression de masse sont apparues, en particulier l'impression sur papier en Chine vers l'an 105, suivie par les caractères typographiques mobiles au XIe siècle et de la presse à imprimer au XVe siècle (cf. La Bible de Gutenberg). Le télégraphe suivit en 1792 grâce auquel des communications dactylographiées furent bientôt possibles d'un côté à l'autre de la planète. Puis vint le téléphone d'Alexander Graham Bell en 1876 qui permit de transmettre des messages sonores sur de grandes distances.

Avec Hertz et Marconi, les communications radio ont suivi au tournant du XXe siècle, ce qui étendit les communications encore plus loin. Cela s'est accompagné en peu de temps de la transmission d'images animées et de la télévision (combinant des messages audio et visuels) au milieu des années 1920.

Ensuite, on inventa l'ordinateur analogique (1931), rapidement suivi au cours des années 1940 par le développement des ordinateurs équipés de tubes à vide, puis de circuits électroniques numériques, des transistors et des programmes stockés pour finalement inventer le premier circuit intégré monolithique en 1958, à l'origine de tous les microprocesseurs.

Dans les années 1970, on inventa les premiers mini-ordinateurs dont le DEC PDP-11 et en 1975 on assista à une véritable révolution avec l'invention de la micro-informatique par IBM, Apple et Microsoft. Le premier PC fut commercialisé en 1981 par IBM. Grâce aux progrès dans la miniaturisation des composants et de leurs performances, une génération plus tard, Apple commercialisa le premier smartphone, l'iPhone.

Au fil du temps, l'utilisation des GSM puis des smartphones et finalement de l'informatique mobile sont devenues prolifiques, tout comme le secteur des technologies de l'information (IT). Aujourd'hui, par habitant, il y a plus d'appareils mobiles et notamment de smartphones, que de voitures.

A lire : Aux origines d'Internet et de la micro-informatique

A gauche, le calculateur ENIAC installé à l'Université de Pennsylvanie en 1946. Au centre, Le premier PC (personal computer) modèle 5150  commercialisé par IBM en 1981. A droite, l'iPhone présenté par Steve Jobs en 2007. L'ENIAC occupait 72 m2, il pesait 30 tonnes et effectuait 330 opérations par seconde. Aujourd'hui, le moins cher des GSM pèse 50 g, coûte 50 € et réalise 1 milliard d'opérations par seconde ! Documents U.S. Army Photo, IBM et Apple.

Pour mettre les choses en perspective, les analystes comparent souvent la technologie des smartphones modernes aux ordinateurs de l'ère Apollo. Alors que les ordinateurs de la NASA qui guidèrent les astronautes vers la Lune à six reprises entre 1969 et 1972 disposaient de l'équivalent de 73728 bytes (octets) de mémoire RAM (mémoire vive volatile). Quant à l'ordinateur du LEM qui se posa sur la Lune, il disposait de seulement 2 KB RAM et de 32 KB ROM. En 2021, les smartphones de nouvelle génération disposent jusqu'à 512 GB de mémoire (par exemple le Samsung Galaxy S21 Ultra 5G), soit environ 7.4 millions de fois plus de mémoire que l'ordinateur de guidage d'Apollo. Mais évidemment, on ne leur demande pas d'effectuer les mêmes opérations dans le même temps ni dans le même mode d'affichage, ceci expliquant cela.

La NASA a également pesé sur les progrès de l'humanité, notamment avec les retombées de la conquête spatiale mais également avec les sondes spatiales Voyager 1 et 2 qui ont exploré les planètes extérieures et sont devenus les premiers objets fabriqués par l'homme à atteindre l'espace interstellaire. Notons que ces vaisseaux possèdent chacun seulement 69.63 KB de mémoire.

Bref, aujourd'hui nous consommons et produisons des quantités faramineuses de données qui étonneraient nos grands-parents. À ce rythme, les adultes qui vivront dans une seule génération pourraient vivre dans un monde qu'il est difficile d'imaginer aujourd'hui.

Deuxième partie

2. L'ère de l'information et du Big Data

Page 1 - 2 - 3 - 4 -


Back to:

HOME

Copyright & FAQ