Contacter l'auteur / Contact the author

Recherche dans ce site / Search in this site

 

Aux origines d'Internet et de la micro-informatique

Celluon - clavier virtuel

Souvenirs d'un informaticien.

D'hier à aujourd'hui (I)

Les personnes nées après la naissance de la micro-informatique (1975) et même la génération d'avant se demandent parfois comment nos parents travaillaient sans informatique; l'ordinateur personnel n'existait pas, il n'y avait pas d'Internet pas plus que de téléphone portable ou de baladeur. La vidéo était anecdotique et limitée à la toute jeune télévision. Personne n'utilisait les technologies multimédia qui étaient encore à l'état de concept dans les laboratoires de recherches. Ce n'est que durant les "Golden sixtees" que le numérique fit son entrée dans les grandes entreprises mais il faudra encore patienter une génération pour que le public puisse en bénéficier.

Né à une époque où l'informatique était enseignée dans des écoles supérieures souvent uniquement équipées de mainframe IBM et entrait timidement dans les grandes sociétés au prix d'une location fort onéreuse, en tant qu'informaticien j'ai eu l'occasion de vivre de l'intérieur l'évolution prodigieuse et la véritable révolution culturelle que furent les inventions du micro-ordinateur, des réseaux et d'Internet ainsi que de tous les systèmes périphériques, les logiciels bureautiques, les bases de données, les langages de programmation et les moyens de sureté qui les accompagnent.

Il m'a semblé intéressant de revenir sur les origines de ces outils que nous utilisons tous les jours dans la plus grande indifférence pour apprécier tout le chemin parcouru depuis le siècle dernier.

Le sujet étant vaste et détaillé, voici le sommaire de cet article :

1936 - 1959 : Turing, Harvard Mark I, ENIAC, premier bug, SSEM (Baby), SSEC, Manchester Mark I, Ferranti Mark I, UNIVAC, TRADIC, SAGE, RAMAC, premier circuit intégré, IMB 1401, PDP-1 (cette page ci)

1960 - 1974 : courrier électronique, loi de Moore, la souris, ARPANET, IBM 370, PDP-11, premier téléphone portable (p2)

1975 - 1979 : la micro-informatique, les calculatrices scientifiques, le DOS, IBM PC5100, Microsoft, Apple, coupleur acoustique, modèle OSI, BBS, Walkman (p3)

1981 - 1990 : l'ordinateur personnel IBM PC, Apple Macintosh, NeXTSTEP, Windows, Photoshop (p4)

1991 - 1993 : Internet, Memex, Xanadu, le web selon Tim Bernes-Lee et le langage HTML, le Minitel, le CD-RW,  l'ADSL (p5)

1994 - 1999 : la carte CompactFlash, le blog, la norme TCP/IP, USB, Amazon, le Wi-Fi, Google, première Smartwatch (p6)

Depuis 2000 : le Cloud, processeur multi-coeurs, l'ordinateur-bracelet Zypad, Facebook, Macintosh tourne sur Intel, l'iPhone, eBook reader, les tablettes.

Le concept de machine de Turing

L'informatique telle que nous la concevons aujourd'hui avec sa partie matérielle et logicielle (hardware, software) et toute sa logique programmée distribuée entre le centre de calcul et sa mémoire, remonte à 1936.

Alan Turing, licencié en mathématiques de l'Université d'Oxford publia dans l'Oxford Journal un article fondamental intitulé "On Computable Numbers, with an Application to the Entscheidungsproblem", c'est-à-dire portant "sur une méthode calculable appliquée au problème de la décision". Dans cet article Turing répond aux problèmes de logiques soulevés par David Hilbert au cours de la conférence du Congrès International des Mathématiciens qui s'était tenue à Bologne en 1928.

Génie autant que visionnaire, Turing proposa une méthode ambitieuse basée sur un langage formalisé pour décider si une proposition (une relation), est démontrable ou non, vraie ou fausse, principe qui est à la base de toute prise de décision ainsi que nous l'expliquerons à propos de la philosophie des sciences.

Alan Turing lors de son admission à l'Université de Princeton en 1936, à 24 ans, où il obtiendra son PhD en 1938.

Alors âgé de 24 ans, Turing répondit par la négative en prouvant qu'un langage formalisé n'est pas réduit à quelques axiomes et signes primitifs (conclusion à laquelle était déjà parvenu Alonzo Church la même année d'une toute autre manière).

C'est également en 1936 que Turing entama son doctorat à l'Université de Princeton où il travailla justement pendant deux ans sous la direction d'Alonzo Church, son directeur de thèse.

En mai 1938, Turing présenta sa thèse dans laquelle il répondit aux problèmes de logique soulevés par Hilbert et Church en décrivant la logique de l'hypercalcul, un concept où des "machines de Turing" (l'expression fut inventée par Church) sont associées à des "oracles" dans le but d'analyser des problèmes qui ne peuvent pas être résolus de manière algorithmique (par un processus systématique d'étapes conduisant au résultat).

Mais à cette époque, son travail resta purement théorique et Turing ne s'intéressa pas encore à la création d'une machine (un ordinateur dans son sens moderne).

Son doctorat en poche, Turing déclina l'offre de John von Neumann de travailler sur un projet d'ordinateur et retourna en Angleterre travailler sur le décryptage des messages de la machine allemande Enigma. Puis en 1945, il mis au point une machine de cryptage ce qui le conduisit à s'intéresser à l'électronique.

Ayant lu l'article de von Neumann sur la conception d'un ordinateur et les méthodes de programmation, Turing rédigea finalement ce que beaucoup considèrent comme le premier projet détaillé d'ordinateur : ACE (Automatic Computing Engine). Il ne vit toutefois le jour qu'en 1951. On y reviendra.

En 1948, son ancien professeur Max Newman contacta Turing afin qu'il dirige son laboratoire de calcul à l'Université de Manchester. Turing s'occupa de la programmation de l'ordinateur Manchester Mark I (voir plus bas).

Malheureusement, dans le contexte sociopolitique d'alors, sa vie privée (son homosexualité) allait bientôt compromettre son avenir et Alan Turing fut condamné pour sa "dépravation" et se suicida en 1954. Il avait 42 ans.

En 2009, au nom du  Gouvernement britannique, Gordon Brown s'excusa publiquement d'avoir "été inhumain envers Alan Turing".

Qu'avons-nous hérité d'Alan Turing ?

En résumé, Turing imagina la "technologie de l'information" et par là même provoqua un changement de paradigme majeur de toute la société qui dorénavant allait construire des ordinateurs toujours plus rapides et plus puissants pour nous aider au quotidien pour finir par ne plus pouvoir se passer de l'informatique, avec tout ce que cela sous-entend comme risques et opportunités.

En 1938, Thomas Watson, Jr, président d'IBM fit une prédiction : "Si les 25 dernières années peuvent servir de critère, alors IBM est prédestiné à se développer au cours des 25 prochaines années jusqu'à surpasser nos plus tendres rêves... Les 25 prochaines années seront les plus productives de notre vie. Et ce que nous ferons sera déterminé par ce que nous aurons produit durant cette période. Et c'est la raison pour laquelle j'affirme que notre époque a un merveilleux avenir, et je vous presse à faire de votre mieux...".

Et de fait, au cours de la génération qui suivit, IBM élabora des changements technologiques majeurs en dotant notamment ses ordinateurs de tubes à vide (les "lampes") puis de transistors et de disques durs, et tira profit de Telstar, le premier satellite de télécommunication. On y reviendra.

1944, Harvard Mark I

Encouragés par les travaux de John von Neumann sur l'architecture de l'ordinateur qu'il imagina constitué d'une unité arithmétique et logique (l'UAL comprenant le CPU), d'une unité de contrôle, d'une mémoire et d'entrées/sorties, et forts de l'expérience d'Alan Turing, en 1944, à la demande de l'Université d'Harvard, Howard H.Aiken d'IBM et son équipe d'ingénieurs fabriquèrent le tout premier ordinateur : l'ASCC (Automatic Sequence Controlled Calculator), surnommé "Harvard Mark I".

Fidèle au projet d'Alan Turing, cette machine était totalement automatisée, c'est un ordinateur qui, une fois le programme démarré ne demandait plus aucune intervention humaine jusqu'au résultat.

De plus, bien que constitué de 765000 composants élecromécaniques (comprenant des engrenages, des arbes mécaniques, des interrupteurs et des relais et des centaines de kilomètres de câbles), il était très fiable.

Comme on le devine sur la photographie ci-dessous, il était également très grand avec une longueur de 16 m, 2.4 m de hauteur et 0.5 m de profondeur pour un poids d'environ 4.5 tonnes.

L'axe de rotation de 15 m du système électromécanique était mis en route grâce à un moteur électrique de 4 kW.

L'Harvard Mark I d'IBM en 1944.

La caractéristique de cet ordinateur est d'avoir séparé physiquement les données des instructions selon l'architecture Harvard développée spécialement pour cette machine : l'unité de calcul (le processeur) est reliée à deux unités spécifiques de mémoires, l'une réservée aux données, l'autre au programme, et transitent chacune par des bus distincts. L'avantage est de pouvoir traiter simultanément les données et les instructions. Ce modèle d'architecture s'oppose toutefois à celle de von Neumann qui sera finalement adoptée dans les années 1950.

Bien que l'architecture Harvard soit en théorie plus rapide que l'architecture von Neumann, sa complexité la rendit finalement peu performante. En effet, sa puissance de calcul restait très limitée. L'Harvard Mark I était capable d'effectuer 3 opérations simples (addition ou soustraction) sur 23 chiffres par seconde mais demandait plusieurs dizaines de secondes voire plus d'une minute pour effecuer des divisions ou calculer un logarithme. Sa programmation était assurée par des cartes perforées lues séquentiellement. Son architecture ne permettait pas d'effectuer de branchement conditionnel si bien que les programmes exigeant des boucles logiques étaient très longs. Finalement ses performances étaient assez proche de la machine analytique de Babbage imaginée en 1833 (comprenant déjà une unité centrale, une mémoire, un registre et des cartes perforées en entrée).

Ce modèle sera suivi par les Harvard Mark II (1947), Mark III (1949) et Mark IV (1952), ce dernier utilisant des semi-conducteurs et une mémoire centrale magnétique à tore de ferrite (voir plus bas). Ils seront utilisés par la Navy et l'USAF.

1946, ENIAC

John von Neumann en collaboration avec J.G. Chamey appliquèrent concrètement le concept de "machine de Turing" en inventant le fameux calculateur ENIAC (Electronic Numerical Integrator And Calculator) en 1946. Il fut construit par Wallace J. Eckert et John W. Maulchy (qu'on retrouvera en 1962) et installé à l'Université de Pennsylvanie.

ENIAC occupait une surface de 72 m2, il comprenait près de 19000 tubes à vide (vaccum tube en américain, thermionic valve en anglais), pesait plus de 30 tonnes et consommait 140 kW ! L'horloge d'ENIAC était cadencée à 100 kHz et il effectuait environ 330 opérations par seconde.

Les prémices de l'ordinateur moderne. A gauche, une étonnante publicité de 1943 pour les bons du Trésor mettant en avant l'effort de guerre et les perspectives de la recherche, notamment de concevoir un "Notebook", le concept d'un enregistreur audio et vidéo électronique comprenant 4 tubes à vides imaginé par Bell & Howell. Notons que le français Constantin Senlecq avait déjà proposé l'idée de l'enregistreur vidéo mécanique en 1909. Au centre, le calculateur ENIAC installé à l'Université de Pennsylvanie en 1946. Il comprenait plus de 18000 tubes à vide et pesait plus de 30 tonnes. A droite, le premier transitor avec point de contact développé par les Bell Labs fin 1947.

C'était une machine monotâche mais ENIAC offrait l'avantage de disposer d'une logique opératoire universelle à la place des relais électromécaniques : il disposait d'un langage de programmation. Mais en ce temps là, la programmation s'effectuait en langage binaire.

ENIAC servit essentiellement aux militaires à des fins balistiques pour calculer les tables de tirs des canons et autres fusées, y compris la forme des ogives.

Devant les performances de cette machine, le ministère de la Défense américain voulut qu'on en fabrique en série afin de les installer dans toutes les bases stratégiques. Mais à peine fut-il opérationnel qu'il fut déjà dépassé par la technologie, notamment par les découvertes réalisées par les ingénieurs des Bell Labs et d'IBM.

Compte-tenu des investissements consentis, l'ENIAC traversa malgré tout la décennie et ne fut déclassé qu'en 1955.

1947, premier bug

Le premier "bug". Document U.S.Navy.

Pour l'anecdote, c'est avec la sortie du Harvard Mark II qui fut livré à la Navy en 1947 qu'est né la notion de "bug". Alors que l'ordinateur était en phase de test, le 9 septembre 1947 un insecte (bug en anglais) s'était fait grillé dans les circuits et l'incident fut consigné par le technicien dans le log d'activité avec ce commentaire : "First actual case of bug being found" (premier cas avéré de bug ayant été trouvé) !

Dommage que le mot francisé (bogue) n'ait pas conservé cette référence historique qui en fait toute la poésie.

La même année, le mathématicien et polymate John Von Neumann publia un article dans lequel il décrivit un ordinateur à programme enregistré qu’il baptisa l’EDVAC (Electronic Discrete Variable Automatic Computer). Il servit notamment de base au Whirlwind de l'USAF (voir plus bas).

1948, invention du transitor à point de contact

Entre-temps, les Bell Labs essayaient de trouver une alternative aux tubes à vide qui souffraient de plusieurs défauts. Constitués d'ampoules en verre, ils étaient fragiles, leur production coûtait relativement cher, ils étaient encombrants et consommaient énormément d'énergie dont une grande partie était dissipée sous forme de chaleur.

Des inventeurs avaient bien déposés des brevets de transistors à semi-conducteurs en 1926 et en 1935 mais la technologie basée sur des matériaux comme le tellurium, le vanadium ou l'iodine ne permettait pas d'atteindre des facteurs d'amplification du courant très important.

En revanche, en 1931, l'Anglais A.H.Wilson de l'Emmanuel College de Cambridge avait publié un article dans lequel il décrivit mathématiquement les propriétés électroniques des semi-conducteurs au silicium, mais reconnaissait qu'il ne pouvait démontrer leur efficacité, la technologie d'alors ne le permettant pas.

Il faudra attendre 16 ans pour que le 23 décembre 1947, John Bardeen, Walter Brattain et William Shockley des Bell Labs mirent au point le premier transistor avec point de contact (point-contact transistor, voir photo ci-dessus) et déposent le brevet en 1948. Ses caractéristiques seront publiées dans la "Physical Review" quelques mois plus tard.

En pleine Guerre froide, l'invention sera immédiatement communiquée aux militaires qui financeront les Bell Labs afin qu'ils fabriquent le premier ordinateur à transistors. On y reviendra.

L'année 1948 fut très productive avec la mise en production de pas moins de 3 supercalculateurs : SSEM en Angleterre, SSEC et Whirlwind aux États-Unis.

1948, le "Baby" de Manchester, Small-Scale Experimental Machine

Le Small-Scale Experimental Machine, surnommé "Baby" fut conçu à l'Université Victoria de Manchester par Frederic Colland Williams d'IBM, Tom Kilburn et Geoff Tootill en collaboration avec un jeune doctorant en physique "Tommy" Gordon Thomas qui fêta ses 90 ans en 2018 comme le rappela la BBC.

Il faut se rappeler qu'à cette époque, juste après la guerre, la ville de Manchester était pratiquement en ruine, "pleine de fumée et de poussière" comme le précisa Thomas. "C'était un miracle d'avoir quelque chose sur lequel nous pouvions travailler".

Cette machine fut conçue comme un "proof of concept" (la démonstration de faisabilité) d'une machine à architecture de von Neumann en prévision d'un modèle de production qui serait construit l'année suivante si le projet aboutissait.

Thomas alors âgé de 19 ans s'occupa de construire la mémoire du système, une forme primitive de mémoire vive, la fameuse RAM (Random Access Memory) dont les données sont effaçable (par opposition à la ROM).

A voir : Manchester Baby: world's first stored program computer

La réplique du Small-Scale Experimental Machine surnommé "Baby" de 1948 exposée au Musée des Sciences et de l'Industrie de Manchester (MOSI). Au centre de l'installation, on aperçoit le CRT de sortie (l'écran) dont on voit un gros-plan à droite.

Le "Baby" disposait d'une mémoire RAM faite de tubes de Williams, un type de mémoire fondé sur un tube cathodique ou CRT breveté par Frederick C. Williams le 11 décembre 1946. On le retrouvera sur l'IBM 701. La capacité de cette mémoire était de 32 bytes (ou octets) longs de 32 bits. Chaque instruction occupait 3 bits, ce qui permettait au SSEM de traiter au maximum 23 soit 8 instructions distinctes.

Le SSEM est le premier ordinateur capable d'utiliser un programme enregistré en mémoire. La plupart des opérations arithmétiques étaient programmées et seules la soustraction et son opposé étaient codées en dur dans des circuits dédiés.

Tom Kilburn tenant en main un tube de Williams (CRT) devant une réplique du "Baby" vers 1997. Document U.Manchester.

Le SSEM utilisait quatre niveaux de mémoire. La première mémoire CRT était constituée de 32 bytes de RAM. Une deuxième mémoire CRT appelée l'accumulateur contenait les résultats intermédiaires ou temporaires tandis qu'une troisième mémoire CRT stockait les instructions du programme et son adresse en mémoire. Enfin, un quatrième CRT servait de périphérique de sortie pour afficher le résultat de n'importe quel autre mémoire sous forme binaire de points et de tirets.

Le prototype qui fut mis en route le 21 juin 1948 pouvait stocker 1024 bits d'information. Par comparaison, en 2018 soit 70 ans plus tard, un smartphone dispose de 64 GB de mémoire de stockage soit 500 millions de fois plus !

En deux ans, la technologie avait fait un bon prodigieux. Le SSEM était déjà beaucoup plus compact que l'ENIAC qui ne stockait rien en mémoire et était 27 fois plus léger mais occupait encore tout un mur. La machine mesurait 5.2 m de long et 2.2 m de haut et pesait pratiquement 1 tonne. Elle contenait 550 tubes électroniques, 300 diodes et 250 pentodes EF50 conçues dix ans plus tôt par Philips. Elle consommait 3.5 kW.

Cette machine était très rapide pour son temps. Elle était capable de rafraîchir sa mémoire mais également de lire une instruction ou écrire une donnée en 360 microsecondes. Mais du fait que le processus était continu et qu'il fallait traiter les 32 bytes séquentiellement, un cycle complet de rafraîchissement prenait 20 ms. En revanche, il lui fallait quatre fois plus de temps pour exécuter une instruction. Sa vitesse de calcul atteignait  environ 1122 opérations par seconde. Par comparaison, le processeur d'un ordinateur portable ou d'une tablette atteint 20 ou 30 millions de fois cette vitesse.

Pour tester ses performances, la machine fut mise à profit pour calculer le plus grand diviseur (pgcd) de 218 (262144). Le programme composé de 17 instructions tourna pendant 52 minutes et effectua 3.5 millions d'opérations avant de présenter le bon résultat : 131072. Aujourd'hui, on peut réaliser quasiment instantanément la même opération en ligne.

Satisfait de ses performances, le "Baby" donna le feu vert pour la fabrication du Manchester Mark I (voir plus bas).

1948, IBM SSEC

La concurrence ne resta pas inactive. Début 1948, Wallace J. Eckert d'IBM termina la mise au point du SSEC (Selective Sequence Electronic Calculator), un ordinateur beaucoup plus rapide que le Mark I. L'accès aux régistres mémoires prenait entre 1 et 20 millisecondes et sa logique arithmétique fut modifiée à partir du multiplicateur électronique IBM 603.

Deux machines utilisées en 1948, notamment par l'USAF et ses contractants. A gauche l'IBM SSEC, au centre un gros-plan sur sa console (située au fond de l'image de gauche, derrière les deux lecteurs de cartes). A droite, le Whirlwind. Notons que la salle du SSEC comprenait au milieu trois colonnes de soutien qui ont été soigneusement effacées pour la presse comme le révèle cette autre image non retouchée fournie par l'Université de Columbia. Les personnages sont Bill McClelland debout devant l'unité de lookup à gauche, Betsy Stewart à la console et un ingénieur à droite, devant un tableau contenant notamment un générateur de signaux utilisé à des fins de test.

Le SSEC était capable d'effectuer 9000 multiplications de nombres décimaux en une seconde. Il fut le dernier et aussi le plus gros ordinateur électromécanique et de ce fait il consolida définitivement le savoir-faire et la réputation d'IBM.

Cet ordinateur permit aux universités et aux observatoires nationaux de calculer toutes les tables d'éphémérides de la Lune et des planètes (le calcul de chaque position de la Lune tenant compte de 1600 termes prenait 7 minutes), tables qui furent utilisées par la suite comme base de calcul par la NASA durant le programme Apollo. Le SSEC fut opérationnel jusqu'en 1952.

1948, Whirlwind

En 1948, Jay Forrester, Ken Olson et leur équipe du MIT développèrent l'ordinateur Whirlwind à la demande de l'USAF qui cherchait un ordinateur rapide, capable de suivre des avions en temps réel.

Whirlwind est le premier système dans lequel la mémoire jusqu'alors faite de tubes électrostatiques est remplacée par des mémoires à tores de ferrite ou "magnetic core memory" comme celles présentées ci-dessous, basées sur des anneaux en céramique ferromagnétique. Ces mémoires vives (RAM) étaient deux fois plus rapides que les tubes, offraient un débit quatre fois plus élevé et nécessitaient des maintenances deux fois moins nombreuses que les tubes.

La mémoire à tore de ferrite

Comme on le voit ci-dessous à gauche et au centre, les premiers modèles de mémoire à tores de ferrite utilisaient quatre anneaux et quatre fils (X, Y, Sense et Inhibit) pour gérer 1 bit tandis que les modèles suivants n'utilisèrent que trois fils (Sense/Inhibit étaient regroupés dans le même fil). Pour obtenir 256 KB de mémoire comme en disposaient les calculateurs du réseau SAGE de l'USAF (voir bas de page), il fallait donc utiliser 5000 circuits semblables à celui présenté ci-dessous au centre ou leur version de deuxième génération présentée à droite disposant d'anneaux à 3 fils. Ces fils étaient utilisés pour transférer l'information, c'est-à-dire créer la charge magnétique, retirer la charge et lire l'état de la charge.

Juste avant que cette technologie ne soit abandonnée, c'est-à-dire en 1980, il y eu beaucoup de progrès en ce domaine. Les temps d'accès ont atteint environ 600 ns (contre 60 ns pour la RAM d'un PC Pentium et ~6 ns pour une RAM de PC de 2018, sachant que 100 MHz/108 cycles/s = 10 ns) et les réseaux de noyaux de ferrites pouvaient être utilisés en parallèle pour permettre d'accéder plus rapidement à la mémoire de l'ordinateur. En 1980, la capacité d'une mémoire à tores de ferrite atteignit environ 32 KB pour un circuit de 25 x 20 cm de côté soit une densité de 521 bits/cm2 ou 64 bytes/cm2.

Exemples de mémoires magnétique à tore de férrite. A gauche et au centre un modèle à 4 fils. A droite, un modèle à 3 fils de 1961 fabriqué par Triumph. Document Computer Desktop Encyclopedia/The MITRE Corporation Archives, anonymes et Triumph. Cette carte mesure environ 16 x 20 cm soit 26 cm² et dispose de 144 anneaux de ferrites. Elle gère donc 144/4 soit 36 bits ou 4.5 bytes de 8 bits, ce qui représente moins de 0.2 byte/cm².

A titre de comparaison, en 2007 on pouvait placer au moins 32 Gbits ou 4 GB dans le même espace de 500 cm2, ce qui représente une densité de 65 Mbits/cm2. En 2015, Seagate mis au point un disque magnétique d'une densité de 19 GB/cm2 (1.34 Tbit/in2) et en 2016, Sander Otte du laboratoire Otte de nanonscience quantique de l'Université de Delft et son équipe annonçaient dans la revue "Nature nanotechnology" une densité d'un bit par atome soit une densité réelle de 9.7 TB/cm2 (502 Tbits/in2) grâce à la technologie du nanomètre !

1949, EDSAC

En mai 1949, Maurice V.Wilkes et son équipe de l'Université de Cambridge fabriquèrent l'EDSAC (Electronic Delay Storage Automatic Compter) sur base de l'EDVAC imaginé par John von Neumann. L'EDSAC disposait d'une horloge cadencée à 500 kHz et d'une mémoire 1 KB (512 bytes de 17 bits). Il consommait environ 12 kW.

Comme les ordinateurs modernes, l'EDSAC disposait d'une mémoire digitale. A l'époque, il s'agissait d'une mémoire à ligne retardée au mercure (delay line) qui offrait l'avantage de pouvoir être rafraîchie mais contrairement aux mémoires RAM modernes, cette mémoire à ligne retardée était à accès séquentiel.

Comme on le voit sur les photos ci-dessous, la mémoire était composée de 32 racks d'environ 1 mètre de long contenant chacun 250 tubes à vide (valves) soit 3000 tubes à vide au total. L'EDSAC pouvait gérer 32 nombres de 17 bits dont le signe de parité.

L'EDSAC était lent mais plus fiable que l'architecture à tubes. Programmable au moyen de bandes de papier, il fut notamment utilisé pour calculer les nombres premiers et les racines carrées. En 1951, on répertoria 87 subroutines dédiées aux calculs en virgule flottante. Cet ordinateur fut également utilisé par les chercheurs britanniques ce qui permit à trois d'entre eux de gagner des prix Nobel. Ce modèle fut remplace par l'EDSAC 2 en 1958.

En 2011, la Computer Conservation Society annonça qu'elle allait construire une réplique de l'EDSAC grâce à l'aide de vétérans qui avaient participé à la fabrication du modèle original dont l'anglais James Barr. Le problème est que les plans de construction rédigés par Wilkes n'ont pas été conservés et que le modèle original subit plusieurs modifications durant sa construction. Il a donc fallu plusieurs mois aux vétérans pour simplement comprendre à partir des photographies comme les 3000 tubes étaient organisés. Aujourd'hui, le projet est terminé et cette réplique est installée au Musée National de l'Informatique (TNMOC) de Milton Keynes (80 km au nord de Londres).

A gauche, l'EDSAC construit en 1949 et à droite sa réplique construite entre 2011 et 2015 par James Barr et son équipe de vétérans. La machine est exposé au Musée National de l'Informatique (TNMOC) de Milton Keynes (GB). Documents Computer Laboratory/U.Cambridge et BBC.

1949, Manchester Mark I et Ferranti Mark I

En 1949, après avoir fabriqué le "Baby" de Manchester (SSEM), l'équipe dirigée par Frederic Williams précité et Max Newman de l'Université de Manchester fabriquèrent le Manchester " Mark I" à peine différent du "Baby" mais à vocation scientifique.

Le Manchester Mark I était équipé du nouveau type de mémoire RAM constituée de tubes cathodiques (CRT) de Williams pouvant stocker un seul état logique soit 1 bit par tube. Il disposait de 1024 CRT. Sa particularité était d'utiliser un registre d'index, ce qui permettait d'accélérer la lecture séquentielle du programme. Mais son emploi était lent et complexe. Pour réaliser une opération, il fallait allumer un point sur le tube cathodique. Pour lire le résultat, il fallait mesurer la tension sur son électrode. Les branchements conditionnels n'étaient pas possibles.

Avec 1 KB de mémoire, le calcul de la moindre équation balistique contenant des dizaines de paramètres durait des dizaines de minutes. Néanmoins le Mark I calculait 100 fois plus vite que la plus simple calculatrice moderne.

Le Ferranti Mark I en 1951. Documents British Library et U.Manchester.

En 1949, ce modèle servira de prototype à un nouveau calculateur, le Ferranti Mark I, considéré comme le premier ordinateur généraliste commercialisé dans le monde, une petite merveille de puissance et de compacité. Il fut livré à l'Université de Manchester en 1951, un mois avant la livraison de l'UNIVAC I au Bureau Census américain (voir plus bas).

Plusieurs brevets du Mark I seront réutilisés dans les IBM 701 et 702 commercialisés à partir de 1952.

1950, invention du langage Assembleur

Jusqu'à présent les programmeurs devaient entrer toutes leurs données et effectuer les calculs en langage binaire, un travail long et pénible, source de beaucoup d'erreurs.

En 1950, Maurice V. Wilkes développa l'Assembleur (Assembly language) qui permet de traduire le code binaire dans un langage codé compréhensible par l'homme (LDA pour Load, etc), ce qui facilite la programmation, y compris la détection des erreurs. Le programme doit ensuite être compilé pour être traduit en langage binaire, le seul compréhensible par la machine.

Aujourd'hui, au grand regret des étudiants, ce langage est toujours enseigné dans les écoles d'informatique, étant considéré comme le langage fondamental de la logique programmable. Son côté abstrait rebute beaucoup d'élèves si bien que ceux qui parviennent à réaliser un programme en Assembleur sont presque assurés d'obtenir leur diplôme, les autres langages de programation n'étant qu'une version enrichie ou plus élaborée de ce langage de deuxième génération.

A télécharger : EMU8086 Original Microprocessor Emulator

1951, ACE

C'est Alan Turing qui élabora le premier véritable projet détaillé d'ordinateur : l'ACE (Automatic Computing Engine).

Le prototype fut fabriqué en 1950 en Angleterre par le National Physical Laboratory (NPL) et livré en 1951 mais sans la participation de Turing qui avait quitté l'institut trois ans plus tôt pour incompatibilité d'humeur.

L'ACE comportait 8000 tubes à vide et utilisait des lignes à retard (un composant électrnique qui retarde le signal électrique) au mercure comme mémoire centrale. Cette mémoire passa d'une capacité de 128 bytes en 1951 à 4 KB en 1954. L'horloge était cadencée à 1 MHz, un record en Grande-Bretagne (l'UNIVAC sorti la même année était cadencé à 2.25 MHz).

L'ACE est le premier calculateur capable d'effectuer des calculs en virgule flottante (par. ex 1234.5 en virgule fixe s'écrit 1.2345x103 en virgule flottante), ce qui permet de gérer beaucoup plus de nombres réels que le système en virgule fixe.

L'une de ses caractéristiques est de ne pas utiliser de circuits dédiés pour calculer les multiplications ou les divisions en virgule fixe : ces opérations étaient programmées, c'est-à-dire exécutées à partir d'un algorithme codé sur des cartes perforées. Cela permit également de facilement programmer l'ACE afin qu'il travaille en virgule flottante, une demande pressante des scientifiques.

La puissance de calcul de l'ACE dépendait de l'emplacement des instructions dans les lignes à retard. Ainsi une simple addition pouvait prendre entre 64 et 1024 microecondes. L'ACE fut déclassé en 1955 et figure aujourd'hui au Science Museum de Londres.

1951, UNIVAC, le symbole de l'informatique

En août 1949, Wallace J. Eckert et John W. Mauchly fondèrent leur propre entreprise Eckert-Mauchly Computer Corporation et fabriquèrent le BINAC, un ordinateur bi-processeur pour l'USAF. L'avantage de son architecture est d'effectuer les mêmes opérations sur les deux processeurs en parallèle, une manière d'augmenter la fiabilité des calculs.

A partir de 1951, Eckert, Mauchly et Douglas Engelbart, l'inventeur de la souris, mirent au point l'ordinateur UNIVAC (Universal Automatic Computer). Leur société deviendra en 1950 une division de Remington Rand qui sera elle-même absorbée par Sperry Corporation qui fusionnera avec Burroughs en 1986 pour devenir Unisys, certaines unités étant reprises par Honeywell.

L'UNIVAC occupait une surface de 35.5 m2. Cadencé à 2.25 MHz, il réalisait 1905 opérations par seconde, pesait 13 tonnes et consommait 125 kW.

Comme nous l'avons expliqué, il n'a pas été le premier ordinateur utilisé à des fins commerciales comme beaucoup l'écrivent mais le second, précédé d'un mois par le Ferranti Mark I d'IBM (voir plus haut). Toutefois, par sa réputation et le nombre de ventes l'UNIVAC n'a pas démérité ce titre.

En 1951, l'UNIVAC fut proposé au prix de 159000$ mais en quelques années son prix atteignit 1.2 à 1.5 million de dollars, soit plus de 11 millions de dollars actualisés (2016) !

A voir : Billion Dollar Brain - Trailer

mettant en vedette Mickael Caine, Paul Walder et... l'UNIVAC

Quelques photographies des différents modèles d'UNIVAC commercialisés entre 1951 et les années 1970. Les trois premières images concernent l'UNIVAC I (1951-1954), les suivantes sont les modèles transistorisés. La troisième image ci-dessus est une publicité de juillet 1956. Les images ont été corrigées par l'auteur.

Ci-dessus, deux images du modèle transistorisé UNIVAC III de 1962 qui sera par la suite équipé d'un disque dur magnétique, l'UNIVAC 418 II (UNIVAC 1219) de 1964 qui servit également au contrôle de mise à feu des missiles Mk76 et au contrôle radar de l'US Navy. Ci-dessous, deux images de l'UNIVAC 494 (successeur du 492 utilisé par la NASA durant le programme Apollo) et le 9400 sorti vers 1965 et équivalent à l'IBM 360/30.

L'UNIVAC frappa longtemps les esprits car non seulement ce fut le premier ordinateur accessible aux civils mais à la demande de CBS, il prédit avec succès les résultats de l'élection présidentielle de 1952 (l'élection d'Eisenhower) alors que les sondages manuels prédisaient le contraire.

L'UNIVAC symbolisa toute la puissance de l'informatique et depuis cette idée n'a plus jamais quitté cette technologie. Il figura dans "Objectif Lune" de Hergé et dans le film "Billion Dollar Brain" (Un cerveau d'un milliards de dollars) de Ken Russel sorti en 1967.

L'UNIVAC sera d'abord utilisé par le Bureau Census (mars 1951) qui établit toutes les statistiques de la population américaine, puis par le Pentagone (USAF) et le service de cartographie de l'U.S. Army (1952), l'Université de New York pour la Commission de l'Energie Atomique et l'U.S. Navy (1953), par Remington Rand, General Electric, Metropolitan Life et Du Pont (1954), etc.

Il sera remplacé par l'UNIVAC 1004 en 1955 puis par l'UNIVAC Solid State, transistorisé, en 1958, en réponse à l'IBM 650. Remington Rand puis Sperry produiront 53 modèles de l'UNIVAC jusqu'en 1983.

A partir de 1953, les ingénieurs eurent à leur disposition l'IBM 650 transistorisé qui fut produit en grande série et disposant du premier disque dur. On y reviendra. Cet ordinateur était vendu 200000$ soit plus de 1.7 million de dollars actualisés (2016). Il pouvait également se louer pour 3200$ par mois (28000$ actualisés).

La même année, General Electric fabriqua l'OARAC qui fut notamment utilisé par les militaires de l'USAF.

Encombrante, lourde, instable et énergivore, la technologie mécanique ou électronique de ces ordinateurs sera remplacée par les semi-conducteurs.

La console de l'IBM 650 (gauche), l'OARAC (centre) et le TRADIC embarqué à bord d'un B-52.

1954, TRADIC, le premier ordinateur transistorisé

L'invention du transistor à semi-conducteur représentait une importante avancée technologique car elle permettait dorénavant de traiter les signaux numériquement avec tous les avantages que cela procure dans le traitement de l'information.

En 1954, les transistors seront utilisés dans les premières radios portatives, les fameux "transistors" de Texas Instruments, qui seront commercialisés en Europe à partir de 1955 et qui feront le succès d'une petite société japonaise appelée... Sony, le début d'une grande aventure.

En janvier 1954, grâce au support des militaires, les prolifiques ingénieurs des Bell Labs mirent au point le premier ordinateur transistorisé, le TRADIC (TRAnsistorized DIgital Computer). Dès ce jour, les "lampes" seront considérées comme des pièces d'archéologie industrielle et reléguées sur les étages des musées ou dans la vitrine de quelques amateurs nostalgiques !

Avec un volume d'environ un mètre cube, TRADIC était 300 fois plus petit que l'ENIAC. Il comprenait environ 800 transistors et 10000 cristaux au germanium (rectificateurs).

TRADIC pouvait effectuer 1 million d'opérations par seconde, il était aussi rapide que les systèmes à lampes les plus performants, mais avec le gros avantage de consommer moins de 100 watts. Par comparaison, de nos jours le plus simple smartphone réalise plus de 1 milliard d'opérations par seconde.

Seul inconvénient, en 1954 un seul transistor coûtait 20$, soit 20 fois le prix d'un tube à vide. Mais selon la loi de Moore indiquant que le prix des composants électroniques diminue de moitié tous les deux ans, il était certain que le prix du prochain ordinateur diminuerait, ce n'était qu'une question de temps.

TRADIC sera utilisé par l'armée américaine et installé à bord des bombardiers B-52.

A gauche, l'IBM 704. Le prix de sa programmation en Assembleur et de sa maintenance coûtaient plus chers que le prix du matériel. Pour résoudre ce problème, en 1954 IBM donna carte blanche à John Backus qui développa sur cette machine le langage "Speedcoding" qui deviendra le FORTRAN. La première release fut distribuée en 1957. Au centre, le TRADIC sorti en 1954 fut le premier ordinateur transistorisé. H.Felker (avec un genoux au sol, manipulant un panneau de plug-in) et J.R. Harris (debout et manipulant les switches) sont à la programmation. Tout le système occupe environ un mètre cube et peut effectuer 1 million d'opérations par seconde. A droite, le mainframe NCR 304 commercialisé en 1957 fut l'un des premiers ordinateurs industriels totalement transistorisé. Il fut notamment utilisé par l'US Marine Corps et les banques.

L'invention du transistor allait inciter les chercheurs à développer des ordinateurs plus compacts et plus performants. Le mainframe NCR 304 transistorisé fut commercialisé en 1957. IBM ne sortira son modèle 1401 transistorisé qu'en 1959.

1954, le réseau SAGE de l'USAF

Le Whirlwind de 1948 servit de prototype aux ordinateurs AN/FSQ-7 qui furent installés dans les bunkers de l'USAF et reliés au réseau SAGE (Semi Automated Ground Environment) du Ministère de la Défense américain qui fut opérationnel en 1963. Vu son organisation informatique répartie à travers tous les Etats-Unis, c'est l'ancêtre du réseau ARPANET (1969) sur lequel nous reviendrons et le prempier réseau WAN (wide area network).

Développé en pleine Guerre Froide, SAGE se composait d'une vingtaine de centres décisionnels (Direction Centre ou DC) répartis à travers les Etats-Unis, chacun abrités dans un cube de béton armé sans fenêtre (cf. cette photo de Steward AFB). Les DC étaient reliés en réseau par des lignes téléphoniques souterraines AT&T, complétés par une poignée de centres de commandement et des centaines de centres de radar, y compris des tours équipées d'antennes à micro-ondes. Chaque ligne téléphonique utilisait un modem Bell 101 (1300 bauds), le premier modem produit en série et le premier appareil utilisant le code ASCII. Les données des radars étaient transmises aux avions et missiles par ondes-courtes sur les bandes HF, VHF et UHF.

A voir : Cold War Computing: The SAGE System

IBM Sage Computer Ad, 1960

The Story of SAGE 1956 IBM - Sound Fixed Version

A gauche, l'un des calculateurs du réseau SAGE de l'USAF. A droite, gros-plan sur sa sa console graphique qui s'utilisait avec un light pen pour identifier les objets (cibles)... 30 ans avant l'invention de la zapette ou pistolet Zapper de NES.

Chaque DC comprenait deux calculateurs fabriqués par IBM, chacun occupant ~700 m2 (7500 pieds carrés), 20 fois la superficie de l'UNIVAC, et composé de 60000 tubes à vide, 175000 diodes et 13000 transistors. A l'époque chaque DC représentait le système informatique le plus vaste jamais construit.

Chaque calculateur disposait de 256 KB de mémoire RAM composée de tores de ferrite, pesait 250 tonnes et consommait au total 3 MW (on suppose que c'est calculé pas an) ! Un seul des deux processeurs fonctionnait à la fois, le second servant de backup en cas de coupure pour minimiser les temps d'arrêt et était capable d'effectuer 75000 opérations par seconde, soit 13 fois plus lentement que le TRADIC (voir plus haut), mais c'était suffisant pour assurer le traitement des données des radars et les transmettre aux 150 consoles ou CRT. Les mémoires de masse et les données étaient composées de bandes magnétiques et de cartes perforées. Grâce à toute cette infrastructure, chaque CRT était capable de suivre 400 avions ou missiles simultanément en temps réel.

SAGE était capable de lancer des missiles CIM-10 Bomac (voir la vidéo ci-dessous) et de piloter les avions d'interceptions de type F-101B Voodoo et autre F-4 Phantom.

Au total, le réseau SAGE représenta un investissement colossal de 10 milliards de dollars en 1954 (environ 100 milliards de dollars en 2018 voire 5 fois plus si on l'évalue en valeur économique) soit autant que tout le programme Apollo ou ISS et fonctionna durant 21 ans.

Le réseau SAGE fut démantelé en 1984. Entre-temps, avec leur look high-tech, les consoles servirent de décor à de nombreux films d'action.

1956, RAMAC et le premier disque dur

A une époque où les données étaient sauvegardées sur des cartes perforées ou des bandes magnétiques, en 1956 l'IBM 305 RAMAC fut le premier ordinateur (toujours à tubes à vide) équipé d'un disque dur.

Il fallait trois personnes pour utiliser le RAMAC : une personne gérant les processeurs, une pour le stockage des données et une autre pour gérer la mémoire RAM à tores de ferrite.

Transport d'un disque dur IBM 305 RAMAC de... 5 MB en 1956. A droite, son embarquement dans un avion de la PanAm en 1956.

Le disque dur du RAMAC était fixe et formait un cylindre d'environ 70 cm de haut et 65 cm de diamètre contenant 40 plateaux de 24" de diamètre d'une capacité totale équivalente à 3.75 MB (5 millions de bytes de 6 bits souvent assimilée à un disque de 5 MB). Le système tournait à la vitesse de 100 rpm et pouvait accéder à un enregistrement en 600 ms. La technologie RAMAC deviendra un standard.

En 1957, un disque dur RAMAC 305 de 350 plateaux se louait 3200$ par mois soit 27000$ actualisés (2016) et pouvait s'acheter pour environ 160000$ soit 1.3 million de dollars actualisés (2016) !

Al Hoagland qui travailla 28 ans chez IBM et participa à la fabrication des disques durs du RAMAC se rappelle que "rien ne pouvait rivaliser avec un disque dur, mais je ne pouvais pas imaginer jusqu'où cela irait".

En 1961, IBM mis au point l'unité de stockage IBM 1301 qui offrit 13 fois plus d'espace disque que celui du RAMAC soit environ 50 MB et dont les plateaux tournaient à 1800 rpm. Ce disque dur était équipé de têtes flottantes aérodynamiques qui survolaient la surface des plateaux à une distance de 250 micro inches (1 micro inch = un millionième de inch) soit 0.00635 mm - 1/8e de l'épaisseur d'un cheveu -, soit cinq fois plus près et 18 fois plus vite que les têtes de lecture du disque dur du RAMAC !

En 1963, IBM fabriqua le premier disque dur amovible, le 1311. De la taille d'un lave-vaisselle, il contenait six plateaux de 14" d'une capacité totale de 2.6 MB. Cette unité sera commercialisée jusqu'au milieu des années 1970.

Il faudra attendre l'IBM S/370 pour que la capacité des disques durs atteignent 100 MB (disque dur IBM 3330 commercialisé en 1970) et les dépasse ensuite largement.

En 1979, Al Shugart qui aida IBM à fabriquer ses disques durs, fonda la société Seagate Technology Corp., qui devint le plus grand fabricant de disques durs dans le monde.

La technologie se perfectionnant, les disques durs furent bientôt placés dans des racks superposés puis leur taille se réduisit progressivement et leur densité augmenta.

A gauche, l'IBM 305 RAMAC en 1956. On distingue le disque dur de 40 plateaux de 24" derrière l'opératrice. Au centre, le professeur Al Hoagland travailla 28 ans chez IBM et participa à la fabrication du disque dur RAMAC sur lequel il est appuyé. Récemment il participa à leur restauration. A sa droite, une publicité pour l'IBM RAMAC et son disque dur de "5 millions de caractères" (de 6 bits soit d'une capacité de 3.75 MB). A l'extrême droite, 55 ans séparent ces deux technologies. Cette personne tient entre ses doigts le plateau d'un disque dur Seagate Barracuda XT de 3 TB de 3.25" (avec son boîtier contenant son contrôleur) en technologie SMR fabriqué en 2011 comparé aux plateaux du RAMAC de 3.75 MB de 1956. Documents IBM, ComputerWorld et ZDNet.

C'est en 1980 que Seagate inventa le disque dur à petit "facteur de forme", terme qui définit des spécifications techniques et physiques d'un matériel, en proposant le disque dur ST506 de 5.25" qui offrait la même capacité que celui du RAMAC mais en version 8 bits, soit 5 MB. Il pouvait lire ou écrire plus de 12 documents simultanément en moins d'une seconde. En 1987, un disque dur de 10 MB valait encore 3398$ comme le montre cette publicité.

Et le progrès continua. En 2011, Seagate fabriqua un disque dur de 3 TB de 3.25" en technologie SMR (Barracuda), puis de 5 TB en 2013 et envisage atteindre 20 TB vers 2020. A l'avenir on pourait atteindre une capacité de 200 TB par cm2 voire davantage.

L'évolution de la bande magnétique : DDS et LTO

Parallèlement au disque dur qui allait connaître un prodigieux avenir, le lecteur de bande magnétique (lecteur de tape) inventé pour l'UNIVAC en 1951 continua à se vendre, IBM ayant quasiment le monopole des lecteurs. C'est l'époque de ces fameuses grandes armoires vitrées contenant deux bandes magnétiques de 10.5" de diamètre.

Bien que l'accès était séquentiel et donc très lent (plusieurs dizaines de secondes pour localiser un enregistrement aléatoire), la bande magnétique offrait l'avantage de pouvoir stocker digitalement entre 5 MB et 140 MB de données par bande (selon la densité variant entre 800 et 6240 cpi), près de 1 GB de données en ligne avec 7 lecteurs, soit bien plus que les disques durs de l'époque pour un prix d'achat nettement inférieur.

Les bandes magnétiques ont progressievement diminué de taille (7", 5", 3.5", etc) tout en augmentant de capacité et furent utilisées sur les mainframes et les mini-ordinateurs jusqu'à la fin des années 1980.

Les tapes et autres DDS survivront mais au format de cassette et de cartouche magnétiques numériques grâce aux technologies DAT et LTO.

En 2013, Oracle annonça un record de capacité de 8.5 TB non compressés sur une cartouche LTO offrant un débit de 252 MB/sec, soit à peine 3 fois inférieur à celui des disques durs de LaCie ou de Seagate. Leur fonction est toutefois réduite à celle de l'archivage.

En 2014, Sony et IBM ont annoncé qu'ils étaient capables d'enregistrer 148 gigabits sur un 1" de bande magnétique grâce à une nouvelle technologie de film mince de nanoparticules (7 nm) sous vide, portant la capacité réelle des tapes à 185 TB, soit 75 fois la capacité d'une cassette LTO-6 Ultrium !

Pourquoi continuer à utiliser des bandes magnétiques ? Malgré les apparences, la bande magnétique est un support plus fiable que le disque dur ou le CD-ROM. En effet, à l'inverse d'un disque dur, une bande magnétique peut tomber par terre sans endommager le support magnétique. Au pire, on rebobine la bande magnétique dans un nouvelle cassette et elle est à nouveau opérationnelle, alors que le disque dur sera crashé et irrémédiablement inutilisable. Quant au CD-ROM et autre Blu-ray, le format disparaîtra à terme et avec lui tous les lecteurs capables de lire l'information.

Preuve de la fiabilité des bandes magnétiques, en 2017 le data center du CERN avait archivé ses 200 pétabytes de données sur tapes qu'il gardait en ligne et à la disposition des physiciens pendant 20 ans.

Demain et après demain la bande magnétique existera donc toujours à côté des disques SSD. Toutes ces technologies ne disparaîtront sans doute que le jour où la future mémoire ADN sera commercialisée et deviendra un support voire un consommable aussi banal que nos accessoires actuels.

1957, création de l'ordinateur TX0 et du FORTRAN

En 1957, le laboratoire de Lincoln créa le TX0. C'était un ordinateur très performant disposant d'un processeur de 18 bits, de 3500 transistors et d'une mémoire de 64 KB. Il consommait 1000 watts. Il disposait des entrées-sorties habituelles, clavier, écran et imprimante complétées par un stylo optique. Rendez-vous compte du progrès réalisé en 10 ans, depuis l'ENIAC...

La même année IBM distribua la première version du FORTRAN (FORmula TRANslator), le nouveau langage de programmation universel créé en 1954 par John Backus sur un IBM 704. Le FORTRAN est toujours utilisé aujourd'hui, y compris sur les superordinateurs.

1958, premier circuit intégré monolithique

Un an après la fondation de la société Fairchild Semiconductor qui allait fabriquer ce qu'ils appellaient des "circuits unitaires", les futurs circuits intégrés à la base des microprocesseurs et les chips de mémoire, en 1958, Jack Kilby de Texas Instruments fabriqua le premier circuit intégré monolithique.

Le circuit intégré - le fameux composant ayant plus d'une dizaine de "pattes" ou pins, cf. ce chip Intel 8088 -, est au coeur de tous les appareils électroniques. Il s'agit d'un circuit électronique de faible dimension tracé à l'échelle microscopique (technologie HMOS, VLSI, etc) sur une fine couche de silicium. Il se compose d'un semi-conducteur contenant des composants actifs et passifs (résistance, capacités) scellés hermétiquement. La connexion entre les composants est établie en soudant de fins fils à leurs extrémités. Organisé en circuits imprimés, les circuits intégrés assurent toute les fonctions logiques de l'ordinateur et représentent en quelque sorte leur "intelligence".

A gauche, le premier circuit intégré monolithique fabriqué par Texas Instruments en 1958. On distingue ses "pattes" ou pins qui permettent de le relier aux autres composants. A droite, le premier transistor à circuit intégré mis au point par Robert Noyce de Fairchild Semiconductor en 1961.

J.Kilby recevra le Prix Nobel de Physique en 2000. Son invention allait révolution la micro-électronique et l'informatique; le micro-ordinateur était en vue.

L'IBM 1401, le DEC PDP-1 et la loi de Moore

En 1959, IBM sortit son nouveau mini-ordinateur transistorisé IBM 1401 dédié aux travaux administratifs et aux traitements de données. Vendu 2 millions de dollars, la première version disposait de... 1.4 KB de mémoire rapidement étendue à 4 KB et exceptionnellement et sur devis à... 32 KB ! Le catalogue d'options comprenait un lecteur de cartes perforées, une imprimante de 600 lignes/minute et un lecteur de bandes de 5" aussi volumineux qu'une armoire !

A son époque, l'IBM 1401 était à la pointe du progrès et pourtant il n'effectuait que 4000 opérations par seconde. Aujourd'hui, le smartphone le plus simple tient dans la main et est 250000 fois plus rapide ! A lui seul, l'IBM 1401 symbolise toute la loi de Moore.

Son concurrent Digital Equipment Corporation (DEC) venait de sortir son premier mini-ordinateur, le PDP-1 dédié aux travaux scientifiques et d'ingénierie et déjà équipé d'un crayon optique. Il disposait d'un processeur de 18 bits contenant 2700 transistors et 3000 diodes. Sa vitesse d'horloge était de 200 kHz. Il disposait d'une extension mémoire de 64 KB et d'options similaires au modèle d'IBM. Mais à la différence de l'IBM, le PDP-1 effectuait entre 100000 et 200000 opérations par seconde.

En 1959, les ordinateurs les plus puissants étaient de la génération des IBM 1401 (à gauche dont voici la légende), DEC PDP-1 (à droite) et autre NCR 304. Ils utilisaient des cartes perforées et des bandes magnétiques. Il s'agissait des premiers mini-ordinateurs, ceux qui aideront notamment la NASA à développer son programme spatial et qu'on retrouva dans les grandes universités, les sociétés à la pointe du progrès, dans les banques et sociétés d'assurance ainsi que quelques écoles d'ingénieurs. Ces systèmes étaient déjà beaucoup plus compacts et modulables que leurs monstrueux ancêtres qu'étaient les ENIAC, IBM SSEC et autre UNIVAC I.

A cette époque, les commerciaux d'IBM ou de DEC ne parlaient même pas de vitesse CPU avec les clients mais essayaient avant tout de comprendre leurs besoins et insistaient sur la qualité du support technique, bien nécessaire à cette époque (et qui l'est toujours pour les mainframes).

Rappelons qu'à la fin des années 1950, les ingénieurs de la toute jeune NASA et de l'ARPA travaillaient toujours avec des règles à calculer (cela dit vingt ans plus tard, le candidat ingénieur que j'étais apprenait encore son maniement !) et la plupart utilisaient encore des calculateurs IBM à lampes à peine capables de réaliser 9000 opérations par seconde et qui surchauffaient rapidement affichant des résultats inattendus.

Dans les années 1960 sont apparus les premiers mainframes IBM de la série 360. Le premier IBM 360-30 était équipé d'un lecteur de cartes perforées et d'un lecteur de cassettes magnétiques. C'est à partir du modèle S/360-50 dont voici une photographie prise en 1964 que tous les mainframes IBM furent équipés de disques durs amovibles.

C'est avec de tels ordinateurs et surtout les UNIVAC 490, 492 et DEC PDP que la NASA développa le programme spatial et se mit dans l'idée vers 1962 avec le vol de John Glenn de placer des versions miniaturisées à bord des capsules spatiales. On peut donc dire que l'astronautique participa au développement de la micro-informatique.

Prochain chapitre

1961, naissance du courrier électronique

Page 1 - 2 - 3 - 4 - 5 - 6 - 7 -


Back to:

HOME

Copyright & FAQ