Contacter l'auteur / Contact the author

Recherche dans ce site / Search in this site

 

Aux origines d'Internet et de la micro-informatique

Le marché informatique (VII)

Après avoir brièvement passé en revue l'histoire de la micro-informatique et décrit les tendances du marché, voyons à présent son actualité. Pour cela, nous allons répondre à quelques questions d'ordre commercial qui nous concernent tous.

La loi de Moore

Une notion doit tout d'abord être bien comprise quand on parle du marché de l'électronique ou de l'informatique : la loi de Moore.

Selon la loi de Moore toujours d'actualité, le nombre de transistors implanté sur un chip double tous les 2 ans, les prix des anciens modèles chutant en conséquence. De ce fait, la technologie a rapidement évolué depuis la commercialisation du premier microprocesseur.

Prenons quelques exemples. En 2006, soit 25 ans après le premier PC, le micro-ordinateur le plus rapide était cadencé à 3.8 GHz (AMD Athlon 64 X2, 200 €) et exécutait 3.8 milliards d'opérations par seconde (3.8 GFLOPS[1]) ! L'ordinateur le meilleur marché capable de l'exploiter coûtait environ 1000 €, soit 3 à 4 fois meilleur marché qu'une génération plus tôt pour des performances plus de mille fois plus élevées ! On vendait 230 millions d'ordinateurs par an, un quart de la production des 25 dernières années ! L'évolution est prodigieuse.

Le progrès est tout aussi impressionnant dans le domaine des cartes graphiques qui sont devenues indispensables pour gérer le flux des données multimédia en haute défnition.

Depuis 1970, la loi de Moore progresse à l'identique et à même tendance à s'accélérer.

Ainsi, en 2012, les cartes graphiques Nvidia GeForce série 600 et supérieure disposaient d'un processeur graphique multi-coeur GK110 Kepler contenant 7.08 milliards de transistors et des canaux mesurant 28 nm, le tout assemblé dans un chip de 5.61 cm2.

En 2013, la carte GeForce GTX 780 Ti Amp! Edition commercialisée par NVidia et Zotac contenait 2880 coeurs de processeurs, 15 unités de calcul (SMX), occupait un double slot PCI Express et devait être refroidie par deux radiateurs et trois ventilateurs !

Outre le côté purement professionnel, pratique, technologique ou ludique pour certains utilisateurs, ce qui fait l'attrait de l'informatique est le fait qu'à prix constant, on peut acheter chaque année un modèle plus performant ou trouver en occasion des modèles vraiment très bon marché.

Ainsi un ordinateur âgé de 7 ans muni de son écran cathodique de 17" et même en bon état se vend 100 € à peine (quand il se vend !) alors qu'il a coûté dix fois plus cher en son temps ! Moore est passé par là...

Même chose pour les écrans. Aujourd'hui, la plupart des informaticiens, amateurs ou professionnels, disposent d'un écran plat "wide" LCD de 19, 22 voire 30". Celui qui a toujours utilisé un écran cathodique de 15 ou 17" prendra quelques heures pour s'adapter à son format...géant, mais il ne fera plus jamais marche arrière.

Son prix est aussi très attractif. En 2007, un bon écran plat d'entrée de gamme de 22" coûtait moins de 300 € (Samsung SyncMaster 226BW). Aujourd'hui, pour le même prix et les mêmes performances vous avez un 24" et vous trouvez déjà des modèles à 99 €. Avec un peu de chance vous allez le conserver dix ans dans le même état. Il y a 20 ans, on n'avait même pas un écran cathodique couleur de 15" à ce prix là et il donnait des signes de fatigue au bout de cinq ans !

Ordinateur de bureau, portable ou tablette ?

Quel est la situation du marché de l'informatique ? On constate que depuis 2012, tous les trimestres le marché des ordinateurs de bureau voit ses ventes chuter de 10 % dans les pays occidentaux au bénéfice des tablettes et autres appareils mobiles. Les experts s'accordent à dire que les amateurs ne remplacent pas leur ordinateur mais achètent en complément une tablette. Quant à ceux qui n'ont jamais eu d'ordinateurs et donc n'ont jamais eu d'intérêt pour les logiciels ou les interfaces hardware, ils sont de plus en plus tentés par une tablette.

En parallèle, on constate également que le marché des ordinateurs portables équipés d'un écran large de 15" ou supérieur s'étend au détriment de celui des ordinateurs de bureau. Bref, le marché des produits nomades intéresse de plus en plus de monde.

Au grand désarroi des gamers et des amateurs aimant construire leur PC sur mesure, à terme on peut prédire que le marché des ordinateurs de bureau va s'éteindre. Il ne restera que les serveurs réduits à l'état de boîtes noires contenant des cartes multicores, graphiques et réseaux ultra rapides et connectés à des centaines de disques SSD externes.

Avec ses 200 milliards de dollars cash, Apple peut inventer ou s'offrir tout ce qu'il veut et son excellente image de marque attire tous les jours plus de clients. De son côté, Microsoft a quasiment perdu le marché des OS mobiles au profit d'Android.

Apple et Microsoft ont bien compris les tendances du marché et travaillent actuellement sur un OS unifié qui devrait tourner sur toutes les plates-formes d'ici 2020. La preuve ? OS X et iOS tendent clairement vers la fusion tandis que Microsoft a sauté la version Windows 9 pour proposer directement Windows 10 (voir plus bas) compatible avec l'OS de son principal concurrent.

Comparatif des tablettes tactiles : Les Numériques - Tablette Tactile

Trois conceptions de l'informatique nomade. A gauche, le netbook Acer Aspire One A110 proposé à 200 € en 2009. Au centre, le tablette PC "Surface Pro" de 10.6" de Microsoft proposé à partir de 879 € en 2012. A droite, la tablette Samsung Galaxy 7.7 (7") tournant sous Android proposée à 400 € en 2012. Ces modèles restent des ordinateurs d'appoint, peu pratiques pour le travail bureautique et sont avant tout destinés à naviguer sur Internet, à visionner des documents et à communiquer.

Ordinateur de bureau ou tablette ? La tablette reste d'un usage limité mais elle garde son intérêt pour la consultation multimédia (images, vidéos, musique) et les communications par Internet par liaison Wi-Fi.

Ceci dit, pour quelques années encore, l'ordinateur de bureau va garder un atout de taille, celui de sa modularité : ses composants peuvent aisément être remplacés voire mis à niveau. De plus il accepte plusieurs cartes ou interfaces et dispose en général de 4 à 8 ports USB contre 1 à 3 sur un ordinateur portable voire aucun port standard sur certaines tablettes.

Mais à puissance et ressources égales, le faible encombrement des ordinateurs portables et des tablettes allié à leur faible poids (1 à 3 kg en général) plaident en leur faveur, et plus encore aujourd'hui avec la disponibilité des liaisons Wi-Fi et la baisse des prix.

En fait l'avenir semble résolument s'orienter vers la domination des systèmes mobiles sur les ordinateurs de bureau. En effet, selon IDC en 2015 il s'est vendu 1.43 milliard de smartphones contre 276 millions de PC. Rien qu'Apple a livré plus d'iPhone (74.8 millions) durant le dernier quadrimestre de l'année 2015 que toute l'industrie des PC a vendu de micro-ordinateurs (71.9 millions). Cela signifie clairement que le centre du monde pour les utilisateurs est en train de se déplacer vers l'informatique mobile, au grand dam d'Intel et de Windows.

Ordinateur bas de gamme ou haut de gamme ?

Quand on parle d'ordinateur, Mac ou PC, de bureau ou portable, aujourd'hui on ne parle plus de "vitesse" CPU exprimée en GHz mais en "nombre de cores" ou coeurs : pour une même fréquence, la carte processeur peut être dual core, quad core, etc.

L'éventail des performances et du prix des ordinateurs est très large. Il existe des solutions portables entre 200 € et 4000 € et des modèles de bureau entre 600 € et plus de 6000 € si vous êtes très exigeant, sans parler des serveurs d'entreprises.

Enfin, il faut rappeler l'existence des UMPC, netbooks, tablettes et autres smartphones qui occupent chacun des niches spécialisées et dont l'éventail de l'offre s'étend chaque jour.

Le choix de l'un ou l'autre système dépend donc des valeurs de chacun, du budget qu'on veut y consacrer (la barre psychologique de 1000 €) ou de la destination de cet ordinateur.

Ordinateur haut de gamme est généralement synonyme de haute technologie, puissance, rapidité, ressources, écran large, etc : vous devez déterminer si vous souhaitez acquérir un ordinateur pour effectuer du travail bureautique (traitement de texte, tableur, comptabilité, Internet, etc) dans lequel cas un ordinateur d'entrée de gamme suffit, dans le but d'utiliser des applications graphiques 3D très gourmandes en ressources (jeux vidéos, CAO, postproduction 3D, etc) qui exigeront un système puissant et rapide ou simplement pour vous divertir, consulter Internet et vos emails et dans lequel cas même une tablette pourrait convenir.

Les performances des ordinateurs

Il fut une époque (avant les années 1990) où la performance d'un ordinateur était synonyme de vitesse de son unique processeur. Avec le progrès, cette référence est devenue caduque.

Dans un ordinateur de dernière génération, en terme de vitesse et de performances, le goulot d'étranglement n'est pas le processeur, la carte graphique ou la mémoire, mais le disque dur.

Aujourd'hui la technologie SSD (Solid State Drives), autrement dit celle des disques dur flash, pénètre lentement le marché domestique. Selon les marques, on peut par exemple acheter un disque SSD de 1 TB entre 175 et 800 € (2017) alors qu'ils étaient entre deux et cinq fois plus chers il y a 5 ans. Cette technologie mérite un instant d'attention.

A gauche, disque dur SSD de 1.8" (à gauche) ou traditionnel de 3.5" (Maxtor de DiamondMax 22 S-ATA/II de 500 GB à droite) ? Le choix est vite fait quand on sait que le premier accède au moins 10 fois plus rapidement aux données, est moins fragile, chauffe moins et est plus compact à capacité égale. A droite, les taux de transfert d'un disque SSD comparé à celui d'un disque dur classique. Le SSD est au moins 30 fois plus rapide en lecture.

Un disque SSD d'entrée gamme offre des performances 10 fois supérieures à celle d'un disque dur classique (80000 rpm et 12000 IOPS contre 7200 rpm et 2000 IOPS) tout en consommant moins d'énergie. Un modèle haut de gamme PCI-Express ou IDE est 30 fois plus rapide qu'un disque dur classique (mais son prix est encore élevé).

Ainsi à choisir entre un disque dur de 1 TB SATA III 6 GB/s et un disque SSD, prenez sans hésiter le second qui peut atteindre un taux de transfert (lecture) supérieur à 2600 MB/s contre 88 MB/s pour un disque traditionnel. Vous pouvez tester les performances des disques durs grâce à l'excellent utilitaire de Parkdale ou CrystalDiskMark.

L'architecture 64 bits

En même temps que l'ordinateur, l'utilisateur doit choisir son environnement, c'est-à-dire le système d'exploitation (l'operating system ou OS) qui va gérer la machine et notamment l'accès à la mémoire et aux périphériques d'entrée et sortie.

L'OS dépend du processeur et de son architecture. Longtemps les processeurs ont exploité des mots (bytes) de 8 bits, puis nous sommes passés à une architecture de 16 bits puis de 32 bits. Cette dernière utilise des registres de 32 bits qui permettent d'adresser 232 bits soit 4 GB de mémoire RAM maximum. C'est-à-dire que si un ordinateur dispose de 6 GB RAM, une version Mac OS X ou Windows de 32 bits ne pourra jamais exploiter que 4 GB sur les 6 GB existants. Ceci est déjà un premier problème que certains vendeurs peu scrupuleux ne mettent pas en avant quand ils vendent des ordinateurs suréquipés.

De plus, la dernière génération d'applications graphiques et de jeux vidéos 3D a besoin de beaucoup de ressources (un processeur dual core, une carte graphique de 3e génération équipée d'un processeur multi-coeurs et généralement de plus de 4 GB de mémoire).

Pour résoudre ce problème matériel, les constructeurs ont développé l'architecture 64 bits, les registres pouvant à présent adresser 264 bits soit 18 milliards de GB ou 18 exabytes de mémoire. Inconvénient, les nombres entiers et les adresses occupant deux fois plus d'espace sur 64 bits que sur 32 bits, l'occupation de la mémoire est un peu plus importante (mais elle ne double pas).

Installer un processeur de 64 bits dans son ordinateur ne suffit pas pour utiliser toute la mémoire disponible au-delà des 4 GB. Il faut un système d'exploitation capable de gérer cette mémoire supplémentaire et donc également installer un OS de 64 bits.

Ainis, si IBM sortit le premier processeur dual core de 64 bits en 2001, il fallut attendre 4 ans pour que Microsoft adapte son OS et propose une version 64 bits de Windows XP (voir plus bas).

Compatibilité avec le passé (backward) oblige, la plupart des applications 32 bits tournent très bien sur un OS 64 bits (elle fontionnera en mode 32 bits) sauf quelques unes développées avant les années 2000 qui ne tournent plus sous Windows 7 par exemple et les versions plus récentes, même en mode ou en version 32 bits. En général pour résoudre ce problème, le développeur propose une nouvelle version adaptée aux OS de dernière génération. En revanche, les applications 64 bits ne tournent pas sur un OS 32 bits.

En achetant un ordinateur, il faut donc savoir d'avance si les applications que vous utiliserez sont des versions 32 bits ou 64 bits et installer l'OS correspondant. A l'heure actuelle, le système d'exploitation 64 bits et la version la plus récente de l'OS sont proposés par défaut sur tous les ordinateurs. Si globalement, l'architecture 64 bits est avantageuse si vous utilisez des applications récentes également programmées en 64 bits, cela signifie aussi que les applications très anciennes, tournant sous DOS ou sous Windows 95 ne tourneront plus ou plus très bien sur un OS 64 bits, même en mode "compatibilité" Windows 95 ou XP.

Afin de comparer les performances de systèmes hétérogènes, le marché regorge de logiciels de benchmark dont une liste est présentée ci-dessous. Pour sa part Microsoft utilise un système de calcul d'indice de performance propriétaire dont l'échelle varie entre 1.0 et 7.9.

A lire : Comparatifs des matériels, Tom's hardware

Performances des cartes graphiques (sur ce site)

Guide d'achat des cartes graphiques, Les Numériques, 2016

Videocard benchmark - Parkdale Hard disk speed test

Logiciels de benchmark : SiSoftware - CrystalDiskMark - iOzone - HD Tune Pro

TechPowerUp - Performance Test - HWMonitor (CPUID)

A gauche, gros-plan sur une carte-mère 6-Quad série S de Gigabyte (2006) équipée d'un processeur Intel Dual-Core 2 et d'un chipset Intel P965 express. A droite, l'indice de performance d'un PC performant (7 cores, carte graphique Nvidia GTX 770 et disque SSD) en 2013. Généralement les performances d'un ordinateur sont pénalisées par l'accès au disque dur, sauf comme dans ce cas-ci où l'auteur a installé un disque flash SSD dix fois plus rapide qu'un disque dur conventionnel.

Quel système d'exploitation choisir ?

Aujourd'hui (2014) dans le domaine des ordinateurs, Microsoft représente plus de 91 % des parts de marché (la baisse s'est amorcée vers 2010), contre 7 % pour MacOS, Linux et autre Ubuntu représentant 1.6 % des ventes.

Microsoft reste le leader du marché car ses OS sont également installés sur de nombreux systèmes informatiques de l'État, y compris au sein des armées et dans d'innombrables appareils domestiques connectés.

Ceci dit, dans le monde des superordinateurs, fin 2014 Linux était installé sur plus de 97 % des machines. Linux est également installé sur plus de 17 % des serveurs d'entreprises et 32 % des serveurs web (et même sur 67 % d'entre eux en comptant les autres versions de Unix).

Enfin, des systèmes OpenSource Linux ou dérivés de Linux sont installés sur la plupart des systèmes embarqués civils et militaires (GPS, robots, drones, etc) et sont présents dans beaucoup d'appareils domestiques (TV, smartphones, etc).

Distribution Toutou Linux (version française de Puppy Linux).

La raison est que Linux est gratuit et comme tout système dérivé de Unix où la sécurité fait partie du cahier des charges dès les premières lignes de code, les virus ne peuvent pas s'attaquer à l'OS aussi facilement que sous Windows où les vulnérablités sont très nombreuses mais heureusement corrigibles. On y reviendra.

Dans le domaine des smartphones, selon le cabinet d'étude IDC, en 2015 Android détenait plus de 78 % des parts de marché (avec Samsung en tête) mais il faut préciser que la Chine accapare 41 % du total avec ses propres constructeurs. L'iOS d'Apple représente 18 % des parts de marché suivi par Windows avec 2.7 %.

Dans le domaine des tablettes PC, si Microsoft est en compétition avec tous les constructeurs, le géant de Redmond a quasiment le monopole avec ses systèmes d'exploitation Windows RT et Windows 8.1 Pro équipant respectivement ses Surface RT et Surface Pro.

Enfin, dans le domaine des tablettes, l'iPad représente 74 % des tablettes vendues dans le monde, la série Galaxy de Samsung étant son principal concurrent.

Le marché des mobiles (smartphones, tablettes et surfaces) a connu une évolution inégalée à ce jour dans le monde multimédia. Selon les analystes de Gartner, en 2009 il y avait 2.5 milliards d'appareils connectés, principalement des téléphones mobiles, des ordinateurs et des tablettes. En 2013, on dénombrait 9 milliards d'appareils connectés dont 6 milliards de mobiles, soit plus que le nombre d'habitants sur la planète !

En estime qu'en 2020 quelque 50 milliards d'appareils seront connectés soit une moyenne de 6 appareils par habitant. Cela signifie qu'en Occident, nous utiliserons bien plus que 6 appareils connectés. En effet, déjà aujourd'hui beaucoup d'entre nous disposons d'appareils connectés : ordinateur, router, GSM, tablette, TV, voiture, voire même des Google glass, une radio USB ou Bluetooth, un APN, un appareil électroménager ou un appareil de mesure.

Qu'on choisisse un ordinateur tournant sous Windows ou MacOS, il peut également supporter un autre système d'exploitation; cela se réalise soit grâce à des services dédiés soit par virtualisation.

On peut par exemple intégrer une plate-forme Windows sur Mac (via BootCamp ou Parallels Desktop notamment), des PC dans un réseau Mac (X-Servers d'Apple, cf. MacWindows) et vice versa (Macintosh services de Windows Server).

Si vous êtes prêt à payer la facture d'un iMac et à investir un peu de temps, voici Windows sur Mac grâce à Parallels Desktop qui permet de se familiariser en douceur avec l'environnement Mac.

Le grand public juge encore Linux réservé aux passionnés, adeptes de la débrouille. Mais son avantage est d'être "open source" et donc gratuit (cf. cette procédure d'installation).

Par virtualisation, grâce à Oracle VM VirtualBox, VMWare ou Citrix, on peut aussi installer d'autres OS comme Linux, Solaris, etc., ou des versions spécifiques comme Windows NT. La virtualisation existe aussi pour Linux.

Bonne nouvelle, grâce à Wine, Linux peut faire tourner les applications Windows, y compris les jeux en "compatibility mode".

MacOS est résolument dédié à ceux qui recherchent des produits innovants, chers par nature mais très bien programmés avec une intégration des communications et multimédia (entre Internet, les mobiles et la TV notamment) très avancée et transparente pour l'utilisateur en ce sens que l'installation ne requiert pratiquement aucune intervention manuelle. Quant à l'usage, grâce à la technologie "Air" d'Apple, chez soi il suffit par exemple de déplacer une photo prise avec votre iPhone en direction de votre TV pour qu'elle s'affiche directement en grand format sur celle-ci. Quel autre système offre cette capacité ? Certainement pas Android ni Windows, ce dernier étant toujours à la liaison câblée ou Wi-Fi et d'interminables manipulations dans les applications.

Microsoft s'adresse donc aux autres, au grand public avec des OS plus ou moins aboutis (avec des bugs figeant le système, des crashes et toujours des blue screen, même s'ils se font très rares sur les nouveaux OS).

Espérons seulement qu'en 2020 comme l'ont promis Apple et Microsoft, cette distinction n'existera plus et que tous les constructeurs se seront entendus pour proposer un seul OS compatible avec toutes les plates-formes. Ce jour là le rêve d'une architecture et d'un OS unifiés deviendra réalité et vous aurez une bonne raison de mettre votre ordinateur à jour ou de remplacer enfin votre installation par un nouveau système réellement innovant.

Mise à jour du système d'exploitation et des applications

Quand on utilise un ordinateur pendant quelques années et qu'on suit plus ou moins l'évolution du marché informatique, il arrive un jour où on se pose la question du remplacement de la partie matérielle ou logicielle, y compris du système d'exploitation (l'OS).

Si vous avez décidé de conserver votre ordinateur, la mise à jour software ne sera possible qu'à condition que votre ordinateur soit conforme aux spécifications recommandées par le développeur (disposer d'un espace disque suffisant, d'un processeur suffisamment rapide et d'avoir suffisamment de mémoire). Selon l'OS ou les logiciels, ce requisit va peut être déjà exiger une mise à niveau de votre matériel, ce que nous allons brièvement décrire.

Depuis l'invention de l'informatique et des progiciels nous avons pris l'habitude d'installer des mises à jour des applications. Cette mise à niveau est indispensable pour corriger les bugs et suivre le progrès mais également pour lutter contre la cybercriminalité et les vulnérabilités de ces systèmes.

L'interface de Windows 1.01 sorti en 1985.

Rappelons que la première version de Windows 1.0 fut commercialisée en 1985. Présentant (déjà) une erreur elle fut de suite remplacée par la v1.01 (dont voici des copies-écrans).

Cette version fonctionnait en 16 bits, disposait du MS-DOS 2.0 et pouvait se contenter de 256 KB RAM, d'une carte graphique ISA et de deux lecteurs de disquettes de 5.25" ou d'un disque dur Seagate ST-506 de 5 MB.

Puis, grosso-modo, tous les deux ans Microsoft sortit une nouvelle version. Windows 2.0 sortit en 1987, Windows 3.0 en 1990 et Windows NT 3.1 en 1993.

Il y aura bientôt une génération que Windows 95 est sorti. Premier système d'exploitation 32 bits et multitâche préemptif, cet OS réussit à combiner DOS 7.0 et Windows 3.1. Tournant sur un processeur 80386DX avec 4 MB RAM et 60 MB sur disque en FAT16, il se contentait d'un lecteur de disquette de 3.5" et d'un modem de 56 K.

Aussi étonnant que cela soit, en 2017 Windows 95 tournait encore sur des ordinateurs, notamment auprès de l'armée américaine. Bien sûr il ne s'agit pas d'ordinateurs clés, juste de machines de contrôle assurant de petites tâches. Or, les logiciels anti-virus et d'audit ont montré que cet OS était très vulnérable et notamment aux virus. Mais comme le disaient les autorités concernées, ce n'est pas un problème tant que ces machines ne sont pas connectées à Internet et qu'on n'y télécharge aucun fichier qui n'ait été contrôlé au préalable (en principe, toute donnée téléchargée sur un ordinateur par disquette ou une autre interface doit en théorie d'abord être vérifiée par un logiciel anti-virus et de préférence sur un autre ordinateur protégé et dédié à cette tâche).

Son successeur Windows 98 exigeaient un PC 486DX2 cadencé à 66 MHz disposant de 64 MB RAM et d'un disque de 500 MB. Mais progrès oblige, cet OS ne supportait pas encore les clés USB (l'USB 1.0 est sorti en 1996) ni les fonctions Plug and Play notamment qui ne furent supportées qu'à partir de Windows 2000.

Windows Me (Millenium Edition) est sorti en 2000. C'est une version allégée de Windows NT et 2000 qui utilise encore le kernel de Windows 95. Sa caractéristique est de ne plus charger MS-DOS au démarrage (dont plus besoin d'autoexec.bat par exemple) mais directement le kernel Windows grâce à la librairie VMM32.VXD.

Parmi ses nouvelles fonctionnalités, Windows Me intègre un lecteur de DVD, un éditeur de vidéo (Movie Maker), un système de restauration du système, de protection des données, la messagerie MSN Messenger, une nouvelle version de TCP/IP et supporte l'interface USB 2.0 et donc la plupart des clés USB qu'on trouve encore aujourd'hui sur le marché.

Si Windows Me était assez léger et fonctionnait bien dans des environnements domestiques modestes exigeants peu de ressources et tournait sans problème Microsoft Office 2000, à titre professionnel ce fut un échec. En effet, le système se plantait suite à des problèmes de compatibilité avec les logiciels prévus pour Windows 95 ou 98.

Windows XP sorti en 2001.

La version Windows XP est sortie en 2001. Elle exigeait un PC 5 fois plus performant que Windows 98 : un CPU cadencé à 300 MHz minimum, 128 MB RAM et occupait déjà au minimum 1.7 GB après la première installation sur une partition NTFS.

Cet OS relativement peu gourmand et stable fut très apprécié du public et est considéré comme le meilleur OS qu'ait développé Microsoft (même si Windows 10 est meilleur sur de nombreux points, il ne démérite pas sa dénomination car il est aussi dix fois plus gourmand).

Quatre ans après la commercialisation des premiers processeurs 64 bits et des applications graphiques 3D supportant cette architecture, une version 64 bits de Windows XP fut commercialisée en 2005 afin d'exploiter les capacités de ces nouveaux processeurs.

Depuis, tous les OS (Windows, Max OS X et les dérivés de Unix) et les applications sont disponibles en version 32 bits et 64 bits ou uniquement 64 bits.

En avril 2014, Microsoft annonça qu'il cessait le support de Windows XP. Mauvaise nouvelle pour de nombreuses entreprises du secteur privé comme public qui furent obligées de mettre à jour tout leur parc informatique au risque de devenir la cible des pirates informatiques. Toutefois, pour laisser le temps aux entreprises et et aux utilisateurs de migrer vers une plate-forme plus récente, la plupart des sociétés de développements y compris de solution antivirus continuèrent à supporter la version XP jusqu'en 2016.

Quant à Windows Vista sorti en 2007, avec tous ses outils, ses drivers et ses patches il est trop lent pour un ordinateur cadencé à moins de 1 GHz. Il exige pratiquement un processeur d'au moins 2 GHz, 2 GB RAM minimum, 128 MB de mémoire graphique (supportant optionnellement DirectX 9 ou supérieur pour les fonctions Aero) et occupe plus de 15 GB sur disque, auxquels il faut encore ajouter quelques dizaines de MB (entre 10 et 150 MB) pour chaque application. Sa lourdeur et sa complexité ont très tôt dérangé les utilisateurs, forçant Microsoft à accélérer la sortie de son prochain OS.

Windows 7 sorti en 2009 est encore utilisé par de nombreux clients.

Ceci dit, le même problème de ressources se pose évidemment avec les OS d'Apple, les systèmes Linux et alternatifs qui deviennent de plus en plus gourmands.

Windows Seven, alias Windows 7, commercialisé fin 2009, apporta peu d'innovations comparé à Windows Vista. Seven exige la même configuration que Vista mais son installation et sa configuration sont plus simples, il exploite mieux les ressources et tourne un peu plus vite que son prédécesseur.

Windows 7 présente quelques inconvénients. Ainsi certaines applications fournies avec Windows Vista n'existent plus sous Windows 7 pour des questions juridiques (de monopoles et de procès perdus) : c'est le cas de la messagerie (devenue "Windows Live") et d'Internet Explorer qui doivent être téléchargés séparément. Certaines applications et périphériques fonctionnant très bien sous Vista ne fonctionnent plus correctement ou plus du tout sous Seven et exigent une nouvelle version spécialement écrite pour le nouvel OS, quand elle existe (par ex. Kaspersky anti-virus, Photoshop CS5, Magic Color pour écran plat Samsung, webcam Logitech Pro9000, etc).

Devant ces manquements, incompatibilités et déboires, tous les utilisateurs ayant connu Windows XP et Vista avouent que Windows 7 est décevant et loin du temps de réaction de Windows XP qui reste pour beaucoup l'OS de référence.

Bonne ou mauvaise nouvelle, Windows 7 n'est plus disponible depuis 2016 mais le support est assuré jusqu'en 2025 ce qui peut rassurer les entreprises.

Ensuite, Microsoft sortit Windows 8 en 2012. Son point fort est d'être un OS hybride compatible PC, tablette et tablette PC. Il existe en version 32 et 64 bits. Précisons que la version Windows 8.1 Update 1 sortie en mars 2014 permet de démarrer directement sur le Bureau sans passer par l'Accueil (à croire que Microsoft a reconnu son erreur en supprimant le menu Démarrer !).

Concurrence oblige avec les tablettes sous iOS et Android, mi 2013 Microsoft Store annonça qu'il avait dépassé le cap des 100000 applications Windows 8 et Windows RT sur sa boutique en ligne. Six mois plus tard, on en comptait plus de 150000 dont 10000 pour Windows RT.

Selon Microsoft, Windows 8 garantit la migration sans problème des programmes tournant sous Windows 7, ce qui n'est pas le cas de Windows RT (tournant sur le tablette PC "Surface RT") qui utilise des applications spécifiques à l'architecture ARM.

Néanmoins, comme nous l'avons expliqué, certaines applications DOS ou Windows développées avant les années 2000 et tournant correctement sous Windows 7 en mode 32 bits risquent de ne plus fonctionner sous Windows 8, même dans sa version 32 bits et en "compatibility mode Windows 95".

A gauche, l'interface de Windows 8 sorti en 2012 compatible avec les tablettes et tablettes PC. Le menu et le Bureau classique de Windows 7 n'existe plus mais les options de la barre d'outils ou des utilitaires permettent de le récupérer. A droite, l'interface graphique de Windows 8.1 Update 1 sorti en 2014 permet de retrouver le Bureau classique (Desktop) tout en concervant un accès aux "tuiles" de Windows 8.

Finalement, face à toutes ces incompatibilités et incohérences, Windows 8 fut également un échec et Microsoft perdit des millions de licences ainsi que beaucoup d'utilisateurs qui en ont profité pour passer sur iMac.

Face à cet échec et dans le cadre de l'OS unifié, Microsoft annonça la sortie de Windows 10 qui fut commercialisé mi 2015 et dont la mise à jour est gratuite, histoire d'imiter ses concurrents (chez Apple, les mises à jour de l'OS X sont gratuites).

Windows 10 reprend le meilleur de Windows 7 et de Windows 8.1 tout en ayant supprimé les options que tout le monde détestait sous Windows 8.

Ce nouvel OS propose un menu traditionnel non tactile trié dans un annuaire alphabétique et comprend un nouveau navigateur Internet appelé Edge (nom de code : Spartan) tout en gardant l'interface tactile dès que l'OS détecte un système mobile, y compris une "Surface Pro" désolidarisée de son clavier. Windows 10 est disponible pour toutes les plates-formes, y compris la console Xbox One.

Windows 10 est franchement bien plus performant et plus simple à utiliser que Windows 7. De plus, en fin de session, sous cet OS l'ordinateur s'éteint presque instantanément (sous les anciens OS cela prenait au minimum 10 secondes) Par sa convivialité et ses fonctionnalités, cette version satisfera également les professionnels de l'IT.

L'interface Windows 10 édition familiale sorti en 2015 conserve les tuiles mais utilise également le menu classique et les raccourcis dans une version plus élaborée à laquelle devront s'habituer les adeptes de l'ancienne école.

Quant à Internet Explorer, il a été maintenu dans Windows 10 version bureau (desktop) mais il est en retrait. Microsoft continuera à le supporter pour les applications ne fonctionnant qu'avec des technologies d'ancienne génération comme ActiveX ou les helpers. En fait IE utilise un moteur de rendu différent de Spartan et ne dispose que du moteur de rendu MSHTML basé sur Trident (créé pour IE4 et mis à jour depuis pour supporter PNG, CSS3, HTML5, WebGL et SPDY notamment).

Seul inconvénient, Windows 10 communique sans que vous le sachiez des données télémétriques à Microsoft. Sur les versions grand public (non serveur), il impossible d'éviter cette remontée d'information. Il n'y a pas d'atteinte à la vie privée selon Microsoft mais il aurait été préférable que l'utilisateur reste maître de sa machine et puisse au besoin interrompre ce traffic. Des programmes ont donc été développés pour que les utilisateurs puissent contrôler les données privées émises à leur insu par leur ordinateur.

Rappelons aux lecteurs qu'ils ont toujours la possibilité d'installer un autre navigateur Internet comme FireFox ou Chrome, ce dernier sauvegardant les paramètres du profil de l'utilisateur dont les favoris et les éventuels mots de passe non pas sur le PC mais sur les serveurs de Google ce qui permet de les retrouver intacts après l'installation d'une nouvelle machine et connexion sous le même nom d'utilisateur, y compris synchronisées avec d'autres systèmes.

Notons que Windows 10 est relativement léger comparé à d'anciennes versions mais il est toujours plus gourmand que Windows XP. Il requiert un processeur d'au moins 1 GHz, 2 GB de mémoire et un disque de 20 GB en version 64 bits ainsi qu'une carte graphique supportant la bibliothèque multimédia DirectX 9 et le pilote graphique WDDM (celui de Windows Vista). Autrement dit, il est conçu pour tirer profit des performances des PC sortis depuis 2001 si on se contente de l'architecture 64 bits, depuis 2007 si on veut au moins exploiter le pilote graphique Vista et les modèles sortis depuis 2010 si on veut utiliser les clés USB 3.0.

Reste à s'adapter à la nouvelle logique des menus simplifiés et surtout aux tuiles car elles sont là pour durer... Mais il ne faut pas non plus les diaboliser. En effet, dans la version bureau (desktop) vous avez le choix d'épingler les applications sous forme de tuiles dans un second menu juxtaposé au premier ou de les laisser dans le menu alphabétique, sans oublier qu'il reste toujours la possibilité de placer des raccourcis sous forme d'icônes sur le bureau comme on le voit sur l'image présentée ci-dessus à gauche.

A voir : Voici à quoi ressemble vraiment Windows 10, 01Net TV

Un conseil et il est valable pour toute mise à jour : si vous souhaitez installer un nouveau système d'exploitation, assurez-vous avant achat que vos programmes et vos périphériques sont supportés par ce système. A posteriori, Windows 10 tient ses promesses et supporte jusqu'à présent toutes les applications tournant sous Windows 7 et même la quasi totalité des applications 32 bits de Microsoft proposées pour Windows XP. Avant de tout réinstaller, vérifiez également que vous disposez toujours des codes d'installation et autre numéros de série des logiciels.

En cas d'incompatibilité, vérifiez que le constructeur ou le revendeur propose soit une mise à jour ou un remplacement du produit, soit, s'il s'agit d'un nouveau produit, qu'il le reprenne et vous rembourse s'il ne fonctionne pas sous le nouveau système (c'est par exemple le cas chez Amazon mais pas chez Logitech).

Néanmoins, pour les achats en ligne, passé la période de réflexion de 14 jours après achat, le produit ne sera pas échangé. Il pourra juste être repris à prix cassé. Passé la période de garantie, le produit ne sera plus réparé gratuitement par le vendeur et après plusieurs années il risque même de ne plus être supporté par le fabricant.

Bref, si vous attendez trop longtemps avant de changer de logiciel ou de matériel, un jour ou l'autre vous devrez payer pour être à nouveau jour...

A ce propos, voyons justement à quels types de pannes sont sujets les ordinateurs.

Les pannes matérielles et logicielles

Selon différents sondages, les ordinateurs de bureau comme les portables ont autant de risque de tomber en panne. Si elles sont moins fréquences qu'il y a 10 ou 20 ans, toutes les marques ne se valent pas. Ainsi les ordinateurs Asus, Toshiba, Sony, Apple et Dell présentent entre 16-18 % de pannes au bout de 3 ans, contre 21-26 % chez Lenovo, Acer, Gateway et HP.

Les tablettes sont également très fragiles et après les fêtes notamment un très grand nombre se retrouve au service après-vente. Les tablettes comptent encore parmi les plate-formes les moins fiables.

Selon les experts, seuls 10% des pannes informatiques proviennent du matériel. Elles sont bien sûr souvent conséquentes car elles bloquent généralement tout le système : écran mort, disque dur crashé, ventilateur en panne, composant défectueux ou grillé, etc.

Malgré les hautes températures (60-80°C) que doit supporter un processeur durant des années d'utilisation, il est rare qu'il tombe en panne. Généralement, c'est un autre composant de la carte-mère qui rend l'âme bien plus tôt.

Que ce soit la carte graphique, le disque dur, l'alimentation, le lecteur externe, le clavier ou la souris parmi d'autres composants, leur longévité est tout à fait aléatoire même si les statistiques (MTBF) prétendent qu'ils peuvent fonctionner non stop pendant dix ans.

Internet s'est crashé. Vidéo à voir sur Youtube et traduction sur le blog.

Les éléments mécaniques et tout spécialement en plastique (clavier, souris, ventilateurs, hauts-parleurs, lecteur de CD) ainsi que les terminaisons des câbles, les connecteurs, les boutons et autres potentiomètres sont les plus fragiles. Trop manipulés, ils finissent par s'user ou se casser au bout de quelques années. Heureusement, ces éléments sont bon marché et presque devenus des consommables.

Pour espérer pouvoir remplacer les éléments défecteux, il est recommandé de choisir une marque utilisant des produits et des normes standards plutôt que propriétaire qui seront facturés au prix fort voire impossible à remplacer sans devoir racheter un nouveau périphérique ou accessoire.

Concernant les écrans plats, la panne la plus commune est l'écran qui clignote (il "pompe") suite à une défaillance de l'un des condensateurs électrochimiques (au bout de 7 à 10 ans selon l'usage). Si c'est parfois l'occasion de changer d'écran, sachez que la panne est tout à fait réparable pour quelques euros si on manie le fer à souder comme l'explique cet article.

Si vous utilisez quotidiennement votre ordinateur, les composants électroniques chauffant et les pièces mécaniques s'usant, la panne est pour ainsi dire programmée dans la conception du matériel, qu'il s'agisse d'un ordinateur bas de gamme ou haut de gamme.

Le seul avantage du modèle haut de gamme est qu'il utilise généralement des composants surdimensionnés adaptés à leur fonction (caisse ou rack, processeur, radiateur, ventilateur, alimentation). S'agissant de constructeurs spécialisés, ces composants sont généralement de meilleure qualité que les modèles concurrents bas de gamme mais aucun élément n'est à l'abri d'une panne, aujourd'hui ou dans cinq ans. Même des consommables sans pièces mobiles comme les barrettes de RAM, les cartes flashes et les disques SSD peuvent finir par ne plus répondre, d'où la nécessité de réaliser des copies de sauvegarde (backup) de vos données après chaque changement.

Dans plus de 90 % des cas, la panne provient du système applicatif, c'est-à-dire des logiciels au sens large : bug dans l'OS, dans le setup, virus, fichier système corrompu, donnée corrompue, etc. Soit vous tentez vous-même de récupérer le système avec les logiciels de dépannage existants soit vous confiez le travail à votre vendeur habituel, sachant que par facilité il risque de tout reformatter pour réinstaller un OS neuf (ce que vous pouvez faire aussi bien que lui, gratuitement et en quelques heures si vous disposez de tous les licences nécessaires).

Le prix de la dépréciation

Si nous apprécions tous les effets bénéfiques de la loi de Moore quand nous devons acheter du matériel informatique, lors de la revente de ce même matériel son effet est plus que désagréable pour notre porte-feuille.

Plus un appareil électronique est cher et de haute technologie plus son prix de revente risque proportionnellement d'être dévalué sur le marché d'occasion comparé à un appareil d'entrée de gamme. Cependant on ne peut pas tenir compte de l'effet de la loi de Moore quand on achète ou revend un ordinateur; on la subit !

Sachant qu'un appareil électronique perd environ 25 % de sa valeur chaque année, êtes-vous prêt à le vendre à la moitié de son prix dans 3 ans ? A moins qu'il soit équipé d'un disque dur flash (SSD), d'une carte vidéo très performante et de RAM très rapide (dans ce cas il vaudra au maximum les deux tiers de son prix d'achat dans 3 ans), vous ne pourrez pas le vendre plus cher car depuis les années 2000 le marché occidental est saturé. Il n'est même pas certain que vous puissiez le vendre car pratiquement personne ne souhaite acheter un "vieil" ordinateur comme personne ne va acheter une vieille voiture, un vieux GSM ou une TV âgée de 4 ou 5 ans. Même les associations et les écoles bénéficient d'offres à prix planchés.

Si vous souhaitez changer d'ordinateur ou suivre la mode, mieux vaut donc vendre votre ordinateur dès qu'il a passé ses 3 ans de garantie et le brader à 40 ou 50 % du prix d'achat en étant quasi certain de le vendre en récupérant au moins 50 % de votre investissement que d'essayer de le vendre à un prix trop élever et finisse par ne plus intéresser personne et que vous subissiez une perte... totale !

Si la vente de votre matériel à prix bradé ne vous convient pas et si l'informatique vous rend service autant peut-être garder votre ordinateur et reporter votre achat de quelques années.

L'avenir

Faisant l'objet d'innovations permanentes, il est difficile d'entrevoir l'avenir de l'informatique au-delà d'une ou deux générations sans imaginer des inventions chimériques ou ridiculement obsolètes, comme si Jules Verne (1828-1905) par exemple allait utiliser un moteur à vapeur pour alimenter un smartphone !

Imaginer ce que sera l'informatique de 2050 et au-delà est donc tout à fait irréaliste, n'en déplaisent aux experts en prospective. A toute bonne fin, consultez les articles listés ci-dessous pour avoir quelques tendances.

Je remercie Dave Walden pour ses explications concernant l'histoire d'ARPANET.

Pour plus d'informations

Sur ce site

L'ordinateur du futur

Les technologies du futur

Tablette et Web 3.0

La médecine sans fil

Les robots

La loi de Moore

Internet pour le meilleur et pour le pire

La cybercriminalité

Le scandale du marché parallèle des déchets high-tech (sur le blog)

Portails et forums

BestofMicro, Comment ça marche, L'ordinateur individuel, Clubic, Ere Numérique

Les Numériques, Matbe, Tom's Hardware alias Presence PC, X-bit labs

Comparatifs sur Tom's hardware

Les Numériques

CNet France

01 Net (01 Informatique)

Gizmodo France (US)

engadget

Statistiques

TOP500 des superordinateurs les plus rapides

Internet World Stats

The World in 2013: ICT Facts and Figures, UIT

Measuring the Information Society, UIT

Test de connexion à Internet : Test de débit sur JDN, Speedtest

Livres et magazines

The Internet of Things, Samuel Greengard, MIT Press, 2015

How the Web was born, James Gillies, Oxford University Press, 2000

Inventing Internet, Janet Abbate, MIT Press/New Ed, 2000

Les archives de BYTE Magazine

State of the Art: A Photographic History of the Integrated Circuit, Stan Augarten, Ticknor and Fields, 1983

Vidéos

BYTE Mag 1991-1997 (les couvertures en vidéo)

Memex animation - Vannevar Bush's diagrams made real, YouTube

Interviews de Tim Berners-Lee (via Google)

Quand l'Internet fait des bulles (Histoire de l'Internet français, dont voici la critique),13eme Rue

Tablet Newpaper (1994), (Tablette de Fidler), YouTube

Microsoft Company 15 September 1975

1983 Apple Event Bill Gates and Steve Jobs, YouTube

Première publicité pour le Macintosh, 1984, YouTube

Sur le web

Cours d'informatique, 802 cours proposés par Open Classrooms

Euro Cloud.lu

AntéMémoire, Musée de l'Informatique à Paris La Défense

Histoire de l'Informatique.org

Histoire de l'informatique, Vision Futur

Historique de Windows

Evolution of the web

Comment Ca Marche

IEEE Computer Society

Comprendre la fibre optique, Amphenol

History of ARPANET, Michael Hauben

A Brief History of the Internet, ISOC

A Short History of Internet Protocols at CERN, Ben Segal/CERN

Tim Berners-Lee Talks and Articles, W3 Web

Bell Labs

IBM Archives (dont l'Histoire d'IBM)

National Physical Laboratory (NPL)

Computer History Museum

Science Museum (Londres)

Facts and stories about Antique (lonesome) Computers

A Third Survey of Domestic Electronic digital computing system, M.Weik, 1961

EMU8086 Original Microprocessor Emulator (.zip)

Computer Retro

NeXT

Steve Wozniak

L'aventure Apple

Apple, la référence en termes d’innovation de rupture, Innovation en action

The History of Apple in under 10 minutes, rickt42uk, YouTube

Apple Expo

Apple II History (voici une traduction française mais partielle et contenant des erreurs)

WWDC

Smart Watch News

Android

Apple
LG

Samsung

Sony Europe

Gilles Babinet - Numérique et Compétitivité

The Lives and Death of Moore's Law, Ilkka Tuomi/First Monday.

Retour aux Technologies

Page 1 - 2 - 3 - 4 - 5 - 6 - 7 -


[1] 1 GFLOPS ou gigaFLOPS représente un milliard d'opérations en virgule flottante par seconde (ou 1000 Mips). Les unités supérieures sont le teraFLOPS (GFLOPS x 1000), le petaFLOPS (TFLOPS x 1000), l'exaFLOPS (PFLOPS x 1000), le zettaFLOPS (EFLOPS x 1000) et le yottaFLOPS (ZFLOPS x 1000 ou 1 milliard de petaFLOPS).

Un ordinateur atteignant 100 GFLOPS ne représente pas 100 ordinateurs de 1 GFLOPS; la progression n'est pas strictement linéaire car elle dépend de l'architecture du processeur (multi-coeurs) et des performances des caches du processeur. Seuls des benchmarks peuvent déterminer les performances de calcul de votre ordinateur.

Bien qu'on trouve dans la littérature "flop" au singulier - c'est devenu un néologisme - le terme devrait toujours s'écrire "FLOPS", avec "s", car c'est le diminutif de "seconde" (FLoating-point Operation Per Second) et en majuscule puisqu'il s'agit d'un acronyme. Le pluriel devrait s'écrire "FLOPSs" mais il est très peu répandu (et je ne l'utilise pas non plus).

Notons qu'une simple calculatrice de poche réalise en théorie une seule opération par seconde. Nous avons rarement besoin d'un temps de réponse plus rapide. Subjectivement, nous considérons que toute réponse affichée en moins de 0.1 seconde est instantanée. Cela permet d'attribuer aux calculatrices une performance d'environ 10 FLOPS. Quant au méthodes de calculs manuelles (une division difficile), notre performance tombe en général à environ 1 milliFLOPS. Ces performances sont bien sûr très différentes de celles de nos facultés neuromotrices.


Back to:

HOME

Copyright & FAQ