Contacter l'auteur / Contact the author

Recherche dans ce site / Search in this site

 

Aux origines d'Internet et de la micro-informatique

Carte mémoire CompactFlash de 4 MB commercialisée par SanDisk (qui s'appelait alors Sundisk) en 1995.

1994, invention de la carte mémoire CompactFlash (VI)

La carte mémoire CompactFlash (CF) a été inventée par SanDisk (qui s'appelait alors Sundisk) en 1994.

Cette carte est une mémoire EEPROM (Electrically-Erasable Programmable Read-Only Memory), "flash" signifiant que la mémoire est non volatile et réinscriptible : l'information est préservée même en l'absence d'alimentation et peut être effacée comme n'importe quel support magnétique. De part sa construction elle offre une meillleure protection des données que la disquette magnétique.

Technologiquement, la mémoire flash est organisée autour d'un transistor MOS. L'information est stockée sous la forme d'électrons piégés dans ce qu'on appelle une grille flottante. Sa programmation (écriture, effacement) s'effectue par l'application de différentes tensions qui finissent par abîmer le substrat (l'oxyde de grille), ce qui explique qu'elle ne peut-être programmée ou effacée qu'entre cent mille et un million de fois.

Il existe deux architectures logiques, NOR et NAND. La première permet d'accéder aléatoirement à n'importe quelle cellule ou zone de données de la carte. La fiabilité des données est garantie à 100% par le fabricant. C'est l'architecture la plus utilisée notamment dans les ordinateurs.

Dans les années qui suivirent l'architecture NOR sera également exploitée pour fabriquer les cartes mémoires destinées aux APN, aux smartphones, aux décodeurs, etc.

Wafer Intel servant à fabriquer les circuits intégrés (chips) des cartes mémoire flash en logique NOR. Document BIOS Magazine.

L'architecture NAND ne permet qu'un accès séquentiel aux données et présente un certain taux d'erreur qui impose l'utilisation d'un système de correction d'erreur.

Cette architecture est surtout utilisée par les cartes flash SD, microSD, MMC, MS (Memory Stick des consoles de jeux de Sony). Notons que les disques durs SSD (Solid State Drives) exploitent également l'architecture NAND.

Les cartes CF se divisent en deux modèles : le Type I et le Type II qui se différencient uniquement par leur épaisseur (3.3 et 5 mm). Leur capacité varie entre 2 MB et 128 GB. Elles offrent une compatibilité totale avec le format PCMCIA-ATA.

Le standard CompactFlash est aujourd'hui ouvert, ce qui a permis sa diffusion dans tous les secteurs de l'industrie allant de l'informatique à la robotique en passant par la vidéo et l'imagerie.

Progrès oblige, les cartes CF furent détrônées, sans pour autant disparaître, par les cartes SD et microSD vers 2010 grâce à leur architecture exempte de pins (ce sont des surfaces de contact), leur taille réduite et des performances supérieures.

En 2000, SanDisk commercialisa les premières cartes CF de 1 GB. Elles étaient proposées à 1000$. En 2015, on pouvait acheter une carte SanDisk SDXC de Classe 10 (30 MB/s) de 64 GB pour moins de 20€ ! Aujourd'hui une carte SDXC permet de stocker jusqu'à 2 TB de données (2000 GB) et peut atteindre un débit de 104 MB/s. Consultez l'article sur le stockage des images dans les APN pour plus de détails.

1994, invention du blog

L'origine du blog ou "web log" remonte à l'invention du premier forum de discussion appelé mod.ber, aujourd'hui en mode archive. Ce forum fut créé sur le réseau Arpanet au format UUCP (mail) en décembre 1983 et ne survécu que 8 mois. Il était géré par Brian E. Redman. Avec quelques amis, ils publiaient sur ce forum le résumé de communiqués, des comptes rendus, des threads et autres "digests" intéressants qu'ils avaient trouvés un peu partout sur le net.

Exemple de conversation sur "mod.ber" le 5 février 1984. Redman fait la synthèse des thèmes abordés sur le forum "net.space"

Avec un style journalistique, une présentation chronologique, l'utilisation d'un format pre-HTTP et en mettant en avant des informations et des liens utiles choisis par l'auteur, mod.ber présentait toutes les caractéristiques du blog moderne.

En 1994, Dave Winer, développeur formé à l'Université de Wisconsin, créa "DaveNet" le premier site en ligne publié à compte personnel. Le premier blog était né !

En 1997, il fonda "Scripting News", l'un des plus vieux blogs existants encore sur Internet (et consacré au scripting). Par la suite il créa d'autres sites, des logiciels, le format de flux RSS, et fut rédacteur au magazine "Wired". Aujourd'hui il se consacre à Weblogs et aux Podcasts.

Les tout premiers blogueurs (bloggers en anglais) apparaissent en 1994 et étaient Américains : Dave Winer considéré comme le père des blogs, Justin Hall alors étudiant au Swarthmore College, aujourd'hui journaliste, et Jerry Pournelle, auteur de fiction et rédacteur au magazine "Byte".

Ce sont ensuite des journalistes ou des rédacteurs (les "escribitionistes") dont les trois précités qui reprirent le flambeau. On peut se féliciter que tous ceux qui ont participé à la création des blogs soient toujours parmi nous et plus actifs que jamais.

Comme beaucoup de sites Internet amateur, vers 2001, les blogs servaient surtout à présenter des documents éducatifs, des guides et des instructions techniques aux internautes. Les journalistes commencèrent à étudier le sujet et notèrent une différence entre le style journalistique et celui des blogueurs.

Ensuite, le blog a été utilisé par des politiciens américains et des candidats aux élections en campagne. En 2002, le blog politique Daily Kos créé par Jerome Armstrong et Markos Moulitsas Zúniga recevait jusqu'à 1 million de visiteurs par jour et reste encore aujourd'hui l'un des blogs anglo-saxons les plus populaires dans sa catégorie.

Depuis les années 2000, le blog est sans conteste l'une des tendances les plus marquantes sur Internet mais aujourd'hui, faute de sensibilisation et d'une bonne compréhension, les entreprises n'ont pas encore bien compris le phénomène des blogs et ce qu'elles peuvent en tirer en terme d'image de marque, de relations avec la clientèle et de retour sur investissement.

Au total, tous sites Internet confondus (site traditionnels, blog, réseaux sociaux, forums, site commerciaux, etc), en 2014 nous avions franchit la barre du milliard de sites Internet ! Bien sûr dans ce total, il y a un petit pourcentage de sites endormis voire qui ne sont plus mis à jour depuis quelques années mais dont les pages restent en ligne tant que son propriétaire maintient l'accès à son serveur ou que l'hébergeur existe.

1994, normalisation du modèle TCP/IP

Après la création du modèle OSI (Open Systems Interconnection) en 1977 et la naissance d'Internet en 1991, de plus en plus d'entreprises ont développé des services pour ce nouveau support de communications, mais sans nécessairement respecter le modèle de base.

En effet, l'implémentation complète du modèle OSI dans les programmes est pratiquement impossible pour des raisons pratiques car soit le fabricant n'a besoin que d'une partie du modèle soit il préfère développer sa propre solution pour des raisons techniques ou commerciales.

Le modèle OSI ayant été créé avant l'invention du web, sous la pression des majors de l'informatique, la couche Internet fut incorporée dans le modèle TCP/IP et normalisé dans la norme ISO 7498 en 1994.

Comme on le voit ci-dessous, à la différence du modèle OSI, dans le modèle TCP/IP, les couches 1 et 2 sont reprises dans la couche "Accès au réseau", tandis que les couches 5, 6 et 7 font partie d'une même couche appelée "Applications Services Internet".

Couche

Modèle OSI

Modèle TCP/IP

Contenu, fonction ou appareil

7

Application

Applications

Services

Internet

Logiciel, format des données

6

Présentation

Mise en forme, cryptage et compression, ANSI

5

Session

Gestion des communications

4

Transport

Transport TCP

Gestion des erreurs

3

Réseau

IP

Datagrammes, gestion du routage, Router, ...

2

Liaison de données

Accès

au réseau

MAC address, Wi-Fi, Bridge, Switch, Token,...

1

Physique

Modem, carte réseau, 10BaseT, Hub, Repeater,...

Concrètement, quand Microsoft par exemple développa son navigateur Internet "Explorer" version 2.0 en 1995 (la version 1.0 était en option avec Windows 95 sous la forme du kit "Internet Jumpstart Kit"), il voulut que la couche 7 du modèle OSI (application) assure également l'encryption RSA (un service de la couche 6) via les protocoles HTTPS/SSL et la gestion de la session (un service de la couche 5) via les fameux cookies et l'IP tracking.

Ci-dessous, voici une représentation du modèle OSI (à gauche) et ce qu'il est devenu (à droite) avec le développement des nouveaux protocoles et services par les majors de l'informatique et les milliers de développeurs plus intéressés par le développement de leur marché que par l'harmonisation et la standardisation du modèle OSI.

Avec le temps, le modèle OSI est devenu très complexe en raison des intérêts spécifiques de chaque développeur ou fabricant. Toutefois, certains protocoles sont devenus des standards, comme par exemple le protocole IP sur lequel sont basés Internet et les réseaux d'entreprises. Cliquer sur l'image de droite pour télécharger le fichier au format  PDF. Documents Gargasz.info et Network Associates (McAfee/Intel).

Comme on le constate, la version actuelle du modèle OSI est devenue très complexe et très lourde du fait que les programmes ne respectent plus le modèle de base initial.

De plus, en raison des développements tout azimut et en-dehors de toute logique du modèle TCP/IP, les nouveaux systèmes présentent des vulnérabilités inhérentes à leur développement ou leur utilisation. Etant donné que les standards sont par nature très répandus, ils sont devenus de facto la cible privilégiée des cyberpirates. On y reviendra dans un autre article.

1995, naissance du standard USB

Parmi tous les moyens d'entrées-sorties disponibles sur un ordinateur (écran, clavier, souris, micro, webcam, port série, port parallèle, RF, infrarouge, etc), il y a le port USB et toute la série de périphériques qu'il supporte. L'invention est tellement géniale qu'elle mérite notre attention.

Le standard USB (Universal Serial Bus) est né en 1995. Cette interface de type série est moins encombrante et beaucoup plus répandue que le bus SCSI créé par la société Shugart en 1979 et est avant tout dédiée aux supports de masses et certains périphériques de communication.

Il existe quatre standards :

- l'USB 1.0 et l'USB 1.1 sans fil à bas débit (12 Mbits/s soit 1.5 MB/s maximum) que l'on trouve sur des machines fabriquées entre 1996 et 2003

- l'USB 2.0 à haut débit (480 Mbits/s soit 60 MB/s) qui est également le plus répandu et qui fut installé sur les ordinateurs sortis d'usine en 2000

- l'USB 3.0 dont le débit atteint 5 Gbits/s soit 625 MB/s sorti en 2010.

Son taux de transfert est proche de celui d'un disque dur Flash SSD SATA III (6 Gbits/s, 400 à 600 MB/s en pratique).

- l'USB 3.1 qui peut atteindre 10 Gbits/s soit 1.25 GB/s en théorie, sorti en août 2013.

Pour mémoire, rappelons qu'il existe également un standard U3, une clé USB disposant de son propre système d'exploitation et donc capable de gérer son contenu via des menus.

L'USB 3.0 est à peine meilleur mais son débit dépend du fabricant. Selon l'utilitaire Parkdale, une clé USB 3.0 Transcend de 64 GB par exemple transfert des blocs de 1 MB à 30 MB/s en écriture et 84 MB/s en lecture alors qu'une Super Talent USB 3.0 est 2.5x plus rapide. Une clé Integral USB 2.0 présente un taux de transfert de 20 MB/s en écriture. Ces valeurs ne dépendent quasiment pas des ressources systèmes ou de l'activité du processeur.

Le port USB permet aujourd'hui de connecter une grande variété de périphériques : ordinateur, imprimante, souris, webcam, mémoire de masse interne ou externe, haut-parleur, tuner, hub, APN, GSM, GPS, etc., qui optionnellement peuvent communiquer par câble, Wi-Fi ou liaison Bluetooth.

A lire : Clé USB cherche ordinateur branché (sur le blog)

A gauche, différentes clés USB mises à l'échelle (TDK USB 2.0 de 8 GB et 3 clés USB 3.0 de 64 GB : Transcend, Integral et Super Talent). A capacité et taille de fichier égales, leur taux de transfert peut varier du simple au triple selon le fabricant. L'encombrant de certains modèles peut empêcher de les utiliser dans certains appareils. Au centre, une clé USB 2.0 Integral de 64 GB insérée dans un hub USB 4 ports "R2D2". A droite, le circuit électronique qu'elle contient. Le circuit intégré Toshiba constitue la mémoire flash. Documents T.Lombry

Utilisé comme mémoire périphérique, le support de masse externe USB exploite soit la technologie Flash (solid state) à l'image des cartes SD et autre CF (voir cet article) soit utilise un micro disque dur externe de la taille d'une carte de crédit ou légèrement supérieure (différent des microdrives qui sont compatibles CF Type II) tel ce modèle USB de Trekstor que j'ai démonté.

Dans sa version Flash la plus compacte, la plus versatile et la plus largement compatible, il y a la mémoire de masse sur clé USB (alias "USB drive"). Elle est très répandue, au point de servir de support de sauvegarde, de disque bootable et accessoirement de gadget ou de bijoux dont voici un échantillon.

La carte flash est plus fiable qu'un CD et peut pratiquement supporter 100000 enregistrements.

La clé USB remplace avantageusement les disquettes (pratiquement introuvables depuis 2011 lorsque Sony arrêta la production des disquettes de 3.5") et les cassettes DAT non seulement par sa capacité qui atteint aujourd'hui 1 TB (clé USB 3.0 de Kingston et de HyperX, CES 2013) mais aussi par sa conception qui la rend assez résistante.

Comme on le voit ci-dessus, sur le plan technique, une clé USB est tellement miniaturisée et compacte qu'elle contient peu de choses, essentiellement deux circuits intégrés : la mémoire de masse qui occupe 1 ou 2 cm2 selon sa capacité et le contrôleur qui assure l'interface entre les données échangées et la mémoire, complétés par une horloge à quartz, un port USB, parfois une LED pour le statut, un interrupteur et un système de bloquage, le tout soudé sur un petit circuit imprimé et placé dans un boîtier aux formes les plus diverses.

1995, ouverture d'Amazon

C'est en juillet 1995 que le géant Amazon ouvrit sa boutique en ligne comme on le voit ci-dessous à gauche. A l'époque il proposait 1 million de titres. 20 ans plus tard, il en propose 300 fois plus et monopolise toujours Internet.

La page d'accueil d'Amazon.com un mois après son ouverture en juillet 1995.

Ses ventes atteignent des chiffres scandaleusement élevés. Ainsi, le 16 novembre 2012, Amazon vendit plus de 26 millions d'articles, soit 306 articles à la seconde (dont 1% de ce total pour la France et le Benelux). Il atteignit un record de 36.8 millions de commandes soit 426 à la seconde le 2 décembre 2013, le "Cyber Monday", c'est-à-dire le lundi qui suivit la Thanksgiving (4eme jeudi de novembre aux Etats-Unis) ! Ce jour là le volume des ventes était 14 fois supérieur à celui de ses principaux concurrents un jour faste ! Idem le 8 décembre 2014 où Amazon France distribua plus d'un million d'articles.

Selon un sondage de Médiamétrie/Netratings, en 2014 Amazon France recevait 1.8 millions de visiteurs par jour, devançant ebay (1.1 million), Cdiscount (843000) et la Fnac (675000). 

Aujourd'hui Amazon est aussi bien organisé que le service de la poste. Amazon expédie ses commandes dans 185 pays et livre 6 jours sur 7 entre 9h et 17h. Contrairement aux sociétés privées de transport (UPS, FedEx, DHL, etc.) qui n'ont pas d'arrangements avec la poste, chez Amazon si le destinataire est absent, pas de souci, le transporteur dépose le colis à la poste de son domicile où le client peut le retirer dès le lendemain ou le premier jour ouvrable. Que demander de plus ?

En 2015, la capitalisation boursière d'Amazon a dépassé celle de Walmart et l'entreprise présentait au premier trimestre 2015 un chiffre d'affaire de 22.72 milliards de dollars, en hausse de 15% par rapport à l'année précédente ! Le return sur action est supérieur à 44% par an ! Pas étonnant dans ces conditions que le géant américain édifie des centres de traitement de près de 100000 m2 un peu partout dans le monde, notamment en France, en Allemagne, en Espagne, en Angleterre, etc. On reviendra dans un autre article sur l'achat des livres par Internet.

A voir : Centre logistique robotisé d'Amazon.com

1997, invention du Wi-Fi

La technologie Wi-Fi fut inventée en 1997 par le chercheur Vic Hayes de l'Université de Delf aux Pays-Bas. Mais il faudra quelques années pour que cette technologie acquièrt sa maturité.

En effet, au départ sa bande passante était limitée à 2 Mbits/s, trop lente pour la majorité des réseaux Ethernet fonctionnant déjà à 10 Mbits/s. Elle fut donc augmentée une première fois à 11 Mbits/s (IEEE 802.11b) pour s'adapter au débit des réseaux locaux (LAN) et distants (WAN) sous TCP/IP.

La norme fut ensuite améliorée pour tenir compte de débits beaucoup plus élevés (30, 100, 300 et même 1300 Mbits/s pour la norme 802.11ac), y compris d'autres technologies sans fil comme le Bluetooth inventé en 1994 par Ericsson et au WMAN qui comprend les réseaux métropolitains WiMAX (IEEE 802.16).

En 1999, des industriels réunis au sein de l'ONG "Wireless Ethernet Compatibility Alliance" (WECA), rebaptisée par la suite Wi-Fi Alliance, développèrent toutes les spécifications des communications entre les appareils supportant les liaisons sans fil à grande vitesse dans le cadre de la future norme IEEE 802.11b.

L'ONG cherchait un nom plus commercial pour cette norme technique et fit appel à la société de communication Interbrand lui demandant de trouver un nom plus attractif. C'est ainsi qu'Interbrand proposa le terme Wi-Fi (Wireless Fidelity) par analogie à la Hi-Fi et la qualité du son qu'elle véhicule.

La technologie Wi-Fi exploite une bande de fréquences aux alentours de 2.4 GHz. Au cours de la conférence WRC 2003, l'UIT accepta d'élargir le spectre pour les systèmes d'accès mobiles (WAS) et les réseaux radios locaux (RLAN) dans la bande des 5 GHz. Aussi, les nouveaux routeurs Wi-Fi, y compris l'AirPort Extrême d'Apple sont bi-bandes et transmettent simultanément sur 2.4 GHz et 5 GHz avec une bande passante par canal qui varie entre 22 MHz et 80 MHz.

Précisons qu'il n'existe pas de clé Wi-Fi USB 3.0. En effet, le Wi-Fi grand public étant limité à 100 Mits/s, on peut se contenter d'une clé Wi-Fi USB 2.0 dont le débit atteint 480 Mbits/s.

Le 21 juillet 1999, au Macworld de New York, Steve Jobs présenta le premier ordinateur iBook équipé d'une carte intégrée AirPort 802.11b, qui jusque là était externe (sur carte PCMCIA et plus tard sur carte CompactFlash, SD, etc). Cette carte Wi-Fi permettait aux iBook d'échanger des données à 11 Mbits/s avec des Macintosh et des systèmes non Apple connectés à un routeur (sous Ethernet) ou un bridge (la passerelle vers les autres architectures).

Inconvénients du Wi-Fi

Les installations Wi-Fi étant très répandues, il est utile de rappeler que le signal RF a une portée d'environ 100 mètres en terrain dégagé. Les ondes Wi-Fi sont sensibles à la présence d'obstacles (l'épaisseur des murs), ce qui engendre parfois des micro-coupures entre les périphériques et sur Internet ou des pertes de signal au-delà de 20 mètres de distance à l'émetteur.

Il existe plusieurs solutions pour y remédier : changer le routeur Wi-Fi de place, modifier les paramètres du routeur (changement de canal, de mode d'émission), augmenter la puissance du routeur ou utiliser une antenne plus performante (quand c'est possible), installer un répétiteur pour étendre la réception du signal ou installer un booster pour réamplifier le signal Wi-Fi. Si rien ne fonctionne, reste la solution radicale : si votre système le permet relier votre ordinateur au routeur par câble Ethernet. Dans les OS récents, la reconfiguration est automatique.

Les ondes Wi-Fi peuvent également parasiter d'autres systèmes radiofréquences situés à courte distance et l'installation Wi-Fi elle-même est sensible aux perturbations électromagnétiques : aux émissions des caméras en circuit fermé et d'extérieurs (aerocam embarquées et meteocam) sur les canaux 1, 5, 9 et 13, celles des fours à micro-ondes sur les canaux 8, 9 et 10, celles des alarmes de sécurité, des télécommandes des portes de garages, des systèmes de surveillance des bébés, des téléphones Wi-Fi, etc., qui tous travaillent dans la bande des 2.4 GHz.

En principe, si votre signal est perturbé cela signifie que l'émetteur de parasites est mal réglé ou défectueux. Vous pouvez donc demander aux P&T ou à votre fournisseur d'accès de venir analyser votre réseau Wi-Fi pour détecter les sources d'interférences. Leur propriétaire devra alors se mettre en conformité avec la loi. On trouve également dans le commerce des analyseurs de spectre Wi-Fi/WiMAX portatifs, notamment le Cornet ED85EXS, y compris sur clé USB tel le Wi-Spy 2.4i.

A gauche, l'interrogation d'un routeur permet à son propriétaire d'obtenir des informations sur la configuration du réseau local (câblé et Wi-Fi), sur les données transmises, d'obtenir des statistiques et de modifier les paramètres. Ce graphique affiche la distribution des différents canaux ou émetteurs Wi-Fi à 2.4 GHz dans l'environnement d'un routeur Wi-Fi Fritz!box (colonne blue) et l'étendue de son influence (bande bleue). Dans cet exemple, 4 autres routeurs sont actifs (en jaune) dans un rayon de 100 mètres. A droite, les paramètres généraux d'une connexion Wi-Fi sécurisée (clé de 128 bits) sous Windows 7. Par comparaison, voici l'état d'une connexion câblée sur le même ordinateur (équipé d'une carte réseau de 1 Gbits/s). Voir également l'article sur le cryptage des liaisons Wi-Fi pour plus d'informations sur le chiffrement. Documents T.Lombry.

La technologie Wi-Fi cryptée

La norme Wi-Fi ne fut totalement codifiée qu'en 2003 par la Wi-Fi Alliance qui définit également les protocoles de sécurité WEP (Wired Equivalent Privacy) et WPA (Wi-Fi Protected Access). Mais rapidement ils s'avérèrent peu robuste face au piratage par la force brutale (un pirate lance un programme qui teste tous les mots de passe), même avec des clés de 128 ou 256 bits en raison des faiblesses de l'algorithme de chiffrement RC4.

Face à cette vulnérabilité, la Wi-Fi Alliance développa le protocole WPA2 combiné à l'encryption AES qui fut certifiée en 2003 et standardisée dans la norme IEEE 802.11i en 2004. Grâce à cette technologie, cette fois la clé de chiffrement est pratiquement inviolable.

Aujourd'hui les connexions Wi-Fi domestiques (à usage privé) vers les routeurs Wi-Fi et autres hot spot devraient utiliser le protocole de sécurité WPA2 combiné à AES. Si vous ne l'utilisez pas encore, configurez-le au plus tôt et lisez l'article suivant, il en va de la sécurité de vos données.

A lire : Prévention du piratage informatique - La technologie Wi-Fi cryptée

1998, création de Google

Google fut fondée le 4 septembre 1998 par Larry Page et Sergey Brin alors étudiants en doctorat à l'Université de Stanford. Leur but était de proposer un service de recherche d'information pertinente via le web et d'en faire bénéficier le plus grand nombre.

Ayant pour slogan officieux "Don't be evil" (Ne soyez pas malveillant), Google fut d'abord concurrent d'AltaVista puis de Yahoo! et se spécialisa rapidement dans "l'organisation des informations dans le but de les rendre accessibles et utiles".

Pour atteindre son objectif et toujours mieux servir ses clients, en une quinzaine d'années le géant américain a mis un place un parc de plus d'un million de serveurs et installé 36 data centers à travers le monde (2014) valant chacun au moins 600 millions de dollars.

Google est entré en bourse le 19 août 2004 et déplaça son siège à Montain View, en Californie, en 2006. Depuis son introduction, le prix de son action (GOOG) est passé de 54$ à plus de 600$.

Dans le TOP2000 de Forbes, Google est classé en 68eme place en termes financiers avec un chiffre d'affaire supérieur à 47 milliards de dollars (3 fois moins qu'Apple et moitié moindre que Microsoft) et est classé en 5eme place en terme de réputation, devancé par des géants comme Apple, Microsoft ou IBM. En revanche, en terme de puissance potentielle, Google est la première entreprise au monde.

Enfin, selon BandZ, Google se classe second sur plan de l'équité mais cela ne l'a pas empêché d'être critiqué pour son gaspillage d'énergie, des attaques qui ont conduit Goolge à investir dans des installations plus écologiques.

A voir : 7 Mots-Clés Cachés et Magiques Sur Google

Explore a Google data center with Street View

A lire : Un Web plus respectueux de l'environnement, Google

Entourant la page web de son fameux moteur de recherche, les photographies de deux parmi les 36 data centers de Google. A gauche, celui du comté de Douglas en Géorgie, à droite celui de Council Bluffs en Iowa. Google a également installé un data center en Belgique, à Saint-Ghilain. Ces installations s'étendent chacune sur 10000 mètres carrés. Un étage est réservé au système de refroidissement. Toute l'infrastructure de Google consomme 1.5% de l'électicité produite dans le monde. Certains serveurs sont tellement chauds que l'air qu'ils dégagent présente des pointes à 120°C et doivent être refroidis par air et par eau, raison pour laquelle la plupart des sites sont installés dans des régions fraîches et balayées par les vents, à proximité de cours d'eau. Selon une enquête réalisée par le Guardian en 2012, le data center de Dalles consommait 103 MW, autant que la ville anglaise de Newcastle. Dans un article publié en 2009 dans le Times et repris par Google, le physicien Alex Wissner-Gross de l'Université d'Harvard a expliqué que lorsqu'un internaute effectue deux requêtes sur le moteur de recherche de Google, cela générerait 14 grammes d'émissions de carbone, soit l'équivalent de l'empreinte énergétique d'une bouilloire électrique ! Sur la base de cette étude, les 100 milliards de recherches mensuelles seraient responsables, à elles seules, de 8400 tonnes d'émission de gaz à effet de serre chaque une année.

En 2012, l'infrastructure de Google gérait plus de 3.3 milliards de requêtes quotidiennement, soit 40000 requêtes par seconde. 20 milliards de pages web et 24 petabytes de données sont gérées chaque jour. Ici le "Big Data" prend tout leur sens ! Selon Alexa, en 2014 Google demeure le site web le plus fréquenté dans le monde. En fait, la plupart des internautes utilisent Google quotidiennement.

Aujourd'hui, Google est une société multinationale spécialisée dans les services et les produits Internet parmi lesquels il faut évidemment citer son moteur de recherche Google, mais également Google Scholar, Google News, Google Maps, Google Earth, Google AdSense, Google Analytics, Google Groups, Google Translate, Google Shopping, Google Now, Google Latitude et plus récemment Street View, ainsi que des produits comme Gmail, Blogger ou YouTube. Google a également développé le système d'exploitation Android, le navigateur Google Chrome, une suite bureautique et est présent sur le Cloud.

L'éventail des activités de Google.

Google investit également beaucoup dans le hardware. Il a notamment installé un réseau mondial de câbles sous-marins en fibres optiques, construit une usine de fibre optique à Kansas City en 2012 et travaille en partenariat avec les fabricants d'électronique sur des projets relatifs aux appareils mobiles, sans oublier les Google glasses, sa tablette Nexus et même les drones.

Google investit également des milliards de dollars dans la recherche contre le cancer et la nanotechnologie.

Enfin, Google investit dans l'intelligence artificielle et espère à terme sortir du web pour conquérir le monde réel dans le but de nous assister au quotidien, 24 heures sur 24; les assistants en ligne, les thermostats Nest, la Google Car et le rachat de Boston dynamics en sont des exemples.

Mais aujourd'hui, la puissance de Google fait peur à beaucoup d'experts. En effet, la puissance de Google est liée au fait qu'il effectue des recherches selon la pertinence des résultats grâce à de puissants algorithmes (Google en a créé plus de 200 à ce jour) qui permettent à l'entreprise de créer de la plus value et de tirer de plantureux revenus en détournant nos intérêts (les mots-clés de nos requêtes) et nos données personnelles (email, contact, messages vocaux, photos, etc), au grand dam du sacro-saint respect de la vie privée. De toute évidence, ce ne sont pas les amendes imposées par le Parlement européen qui vont intimider cette société multimilliardaire.

Google s'est donné les moyens de ses ambitions et sa stratégie ressemble de plus en plus à une dictature commerciale au monopole quasi planétaire. Nous y reviendrons dans l'article Internet pour le meilleur et pour le pire.

1999, Samsung commercialise la Smartwatch

Une smartwatch est une montre intelligente, un accessoire hybride combinant certaines fonctions du smartphone, de l'ordinateur et du GPS. Mais à l'origine c'était encore loin d'intégrer toute ces technologies.

En effet, la première smartwatch fut en fait la première montre digitale, la Pulsar P1 créée par Hamilton en 1972 et caractérisée par ses fameuses LED rouges mais elle n'était pas reliée à Internet.Voici une publicité pour la Pulsar P1 (MP3 de 838 KB).

La smartwatch S9110 de Samsung a écran OLED tactile commercialisée en 1999. A comparer avec ce concept présenté en 2013.

Il faudra attendre 1983 et la Seiko Data 2000 munie d'une docking station et d'un clavier qui était capable de transmettre des données sous forme d'impulsions magnétiques.

Le premier modèle connecté à Internet fut commercialisé par Samsung en 1999, la SPH-WP10 Anycall (700$), qui était en fait un watchphone, un GSM muni d'une fonction vidéo fixé sur un bracelet.

Samsung n'en fabriqua que 300 exemplaires. Il s'agissait plus d'une étude de faisabilité (proof of concept) qu'un véritable produit commercial.

En juillet 1999, Samsung commercialisa la smartwatch S9110 qui donna l'impulsion nécessaire au développement de ce marché.

Au salon high-tech IFA 2013 de Berlin, Samsung fit parler de lui en présentant la smartwatch Galaxy Gear. Mais il s'avera rapidement que ce n'était finalement qu'une évolution de la S9110.

En effet, mise à part quelques fonctions internes propres (processeur vocal, possibilité de recevoir des notifications d'émails ou des réseaux sociaux, d'installer des Widgets, de disposer d'un APN, d'un accéléromètre, etc), ce modèle devait obligatoirement se synchroniser avec un smartphone ou une tablette Samsung via Bluetooth si son propriétaire voulait par exemple savoir qui lui avait envoyé un émail.

Autre inconvénient, bien que Samsung développe des écrans OLED à base de graphène et donc souples et résistants, cette smartwatch utilisait des matériaux bas de gamme, du plastique et du verre plat et n'est pas waterproof contrairement à la Sony Smartwatch 2. De plus, le podomètre n'était pas fiable, le système de recharge propriétaire nécessitait une docking station et son autonomie de 25 heures sur catalogue n'était que de 10 heures en pratique.

Proposée au prix de 299 €, la Galaxy Gear était un gadget de luxe, et bugué, Samsung accusant 30% de retour en moins de deux mois.

Ceci dit, à peine 5 mois après sa commercialisation, Samsung annonça qu'il allait présenter une nouvelle smartwatch au CES en janvier 2014. Et de fait Samsung travaillait depuis quelques temps sur un concept de smartwatch au design high-tech prometteur.

Un marché en plein boum

Malgré ses 800000 ventes aux grossistes, à peine deux mois après sa sortie les analystes et les experts considéraient déjà que la Samsung Galaxy Gear était un flop. Mais ce produit qu'on juge trop cher pour des performances mitigées témoigne de l'existence d'un marché très demandeur et très concurrentiel.

Aujourd'hui de nombreux constructeurs proposent des smartwatches. A côté de la Samsung Galaxy Gear qui reste la plus vendue, citons Hyundai MB 910, LG G Watch, Pebble, Google Watch, Sony Smartwatch 2, Qualcomm Toq, Microsoft Spot et Surface Watch, Z1 Android, Adidas et prochainement HTC, ZTE et la iWatch d'Apple (sortie probable fin 2014 selon les rumeurs), à un prix qui varie entre 200 et 400€.

L'opérateur américain AT&T proposa fin 2013 la smartwatch FiLIP dont voici une vidéo qui permet notamment de géolocaliser un enfant grâce à un traceur GPS.

A lire : Les smartwatches interdites aux examens (sur le blog, 2013)

Smart Watch News

2000, développement du Cloud computing

Depuis la création des BBS, il y eut une demande pour accéder à des données stockées virtuellement, mais également à des applications et des infrastructures virtuelles.

Les hébergeurs de sites webs ainsi que les opérateurs ont progressivement offert au public et aux entreprises de l'espace disque puis des applications virtuelles (notamment une messagerie) sur leurs serveurs et même des plate-formes. Moyennant la signature d'un contrat, ils offrent également une garantie sur l'intégrité, la confidentialité et la disponibilté du service et des données.

Espace disque et application virtuelles disponibles sur le SkyDrive de Microsoft. Document Microsoft Windows Blog.

C'est ce concept qui est à l'origine de ce qu'on appelle le "cloud computing", c'est-à-dire l'accès à des ressources informatiques virtuelles sur demande par l'intermédiaire d'un réseau.

Ce type de service intéressant des millions de personnes tant à titre privé que professionnel, grâce aux progrès réalisés dans la technologie des semiconducteurs, notamment des processeurs multi-coeurs, des mémoires de masse SSD (mémoire flash solid-state) et des lignes à très haut débit, certaines entreprises ont bâti des "data center" de plusieurs milliers de mètres carrés abritant des serveurs dédiés à cet usage.

Le public connaît principalement le Cloud à travers l'espace de stockage virtuel et de partage que les développeurs mettent à disposition des clients.

Cette infrastructure virtuelle existe notamment sous la forme du Cloud de Google, l'iCloud d'Apple, le SkyDrive de Microsoft, le Cloud Drive d'Amazon, l'Asus Web Storage, le Cloud de RealPlayer ou le Creative Cloud d'Adobe parmi d'autres.

Les fabricants proposent également des solutions pour les entreprises tels que le Cloud de HP ou les entreprises elles-mêmes tels que Bull, IBM ou Unisys proposent de transformer les infrastructures existantes aux technologies du Cloud.

En souscrivant un compte gratuit ou payant à ce type de service, le client dispose en permanence d'un espace virtuel sécurisé (généralement payant au-delà de 5 ou 10 GB d'espace virtuel) et peut accéder à des applications virtuelles, comme par exemple une suite bureautique, une messagerie et des logiciels graphiques, libérant autant de ressources de son ordinateur (bien que certains "cloud" installent malgré tout des applications localement).

Cet avantage est précieux pour les internautes itinérants dont l'ordinateur offre des performances limitées mais qui souhaitent disposer où qu'ils se trouvent de versions synchronisées et à jour de leurs données et pouvoir travailler en mobile avec la même souplesse que chez eux ou au bureau.

Cette technologie est en plein essor, principalement dans le domaine du développement d'applications et d'infrastructures. Selon le cabinet Gartner Group, le Cloud qui était pour ainsi dire inexistant en l'an 2000, représentait 3% des investissements en informatique dans le monde en 2013 et devrait doubler ses investissements en 2020 et progresser ainsi de manière accélérée.

Aux Etats-Unis, près d'une entreprise sur deux investit déjà dans le Cloud. L'Europe suit le mouvement mais beaucoup d'entreprises ignorent encore qu'il existe. Quant aux autres, faute d'information de la part des sociétés de consultance ou du Ministère de l'Economie, elles ignorent souvent qu'il existe divers moyens de déploiement, de services, de mode de financement et tout le potentiel d'opportunités qu'offre le Cloud. 

L'Europe porte également une attention toute particulière au Cloud, notamment à la protection des données à caractère perosnnel (où nous savons d'expérience que les Etats-Unis sont beaucoup plus souples).

Piratage du Cloud

Les protections des données sauvegardées sur le Cloud comme partout ailleurs sur le web ne semblent pas suffisantes puisqu'en août 2014 l'iCloud d'Apple fut la proie d'au moins un cyberpirate qui publia des photos privées de stars dénudées sur le web. Le pirate fut identifé grâce à la collaboration du FBI. Précisons que dans une affaire similaire (2012), le pirate fut condamné à 10 ans de prison ferme.

En tout état de cause, il faut en tirer une leçon : tout système informatique étant vulnérable, il faut mettre en place des mesures de sécurité. Veillez toujours à bloquer l'accès à vos données via un mot de passe et ne sauvez pas de documents à caractère privé sur Internet. Quand vous travaillez sur le Cloud activez toujours le système d'authentification de votre compte et chiffrez (encryptez) vos données (avec des outils tels que 7Zip, AxCrypt, Cloudfogger, GnuPG, PenProtect, Safebox, SpiderOak, etc).

2001, premier processeur multi-coeur d'IBM

En 2001, IBM annonça la commercialisation du premier processeur double-coeur, le POWER4 cadencé à 1 GHz et par la suite à 1.3 GHz et 1.9 GHz. Le coeur ou core du processeur est l'unité centrale de traitement ou CPU comprenant les instructions, le compteur ordinal, les registres de donnée et la mémoire. Un processeur double-coeur dédouble ces modules afin d'effectuer des opérations en parallèle et donc deux fois plus vite sans que lesingénieurs ne doivent doubler la vitesse d'horloge.

Le POWER4 est un processeur dual-core de 64 bits de technologie CMOS 8S3 et intégration SOI (Silicon-on-insulator). Contenant 174 millions de transistors, il offrait un taux de transfert ou débit (throughput) supérieur à 100 GB/s dans le cache mémoire L2 interne et de 35 GB/s de coeur à coeur !

A gauche, le chipset double-coeur POWER4 d'IBM. A droite, le processeur Pentium 4 d'Intel.

Il sera suivi par le processeur Pentium 4 d'Intel de 32 bits cadencé à 3.4 GHz. Exploitant l'architecture NetBurst qui sera abandonnée par la suite et l'intégration VLSI, il contenait 175 millions de transistors, disposait de 423 pins, des canaux de 0.18 microns et était alimenté en 1.75 V.

Premier ordinateur-bracelet Zypad WL 100

Parmi les accessoires informatiques à porter au poignet et tirant profit de la technologie mutli-coeurs, en 2006 la société italienne Eurotech fabriqua le premier ordinateur-bracelet Zypad WL 1000 cadencé à 400 MHz.

Eurotech développa en parallèle un ordinateur multi-core baptisé apeNEXT constitué de 16 coeurs de processeurs capable d'exécuter 1.6 milliards d'opérations par seconde, ce qui représente une puissance de calcul de 1.6 gigaFLOPS (GFLOPS).

Le Zypad WL-1500 d'Eurotech.

Mais ces deux inventions furent boudées par le public. La raison était simple, le Zypad était proposé aux alentours de 2000$.

Quant à l'apeNEXT, il était déjà dépassé par le processeur Pentium 4 Gallatin (P4EE) de 3.4 GHz d'Intel sortit en 2004 qui atteignait 7 GFLOPS (mais au prix de 999$) et peu après par le processeur AMD Athlon 64 double-coeur atteignant 3.8 GFLOPS.

En 2011, Zypad proposa sa troisième génération d'ordinateur-bracelet, le modèle Zypad WL 1500 tournant sous Windows CE 6.0. Le produit est avant tout destiné à l'industrie ou à des marchés verticaux très spécifiques.

Cet appareil est équipé d'un écran TFT de 320 x 240 pixels, d'un haut-parleur, d'un micro, d'un GPS, d'une connexion 3G, d'un port microSD, USB, Bluetooth, audio et peut se connecter à Internet en Wi-Fi.

Dans le même ordre d'idée, notons que la société Universal Display Corp. en collaboration avec LG Display présenta en 2009 un prototype d'écran-bracelet OLED qui fut testé par les militaires (et ressemblant au fameux gadget "Pip-Boy 3000") dont voici une autre version.

2004, création de Facebook

Le 3 février 2004, Mark Zuckerberg alors étudiant à Harvard crée une application dans le but de permettre aux étudiants de l'université de partager via Internet des informations personnelles, notamment des images et des vidéos, et de s'envoyer des messages instantanés.

Son adresse initiale était "thefacebook.com". Dès le premier mois, la moitié des undergraduates du campus étaient inscrits sur le réseau social.

En mars 2004, quatre personnes dont un programmeur viennent aider Zuckerberg à développer et promouvoir son site. La société déménage à Palo Alto et enlève le "the" de sa raison sociale pour devenir "Facebook". Elle achète le nom de domaine pour 200000$.

Le service a tellement de succès que Facebook s'ouvre aux universités de Stanford, Columbia et Yale puis aux écoles de la région de Boston, et finalement à la plupart des universités américaines et canadiennes. Faceboook s'ouvre au reste du monde le 13 septembre 2006.

En 2007, Facebook annonce qu'il rend les fiches personnelles accessibles sur les moteurs de recherches comme Google, MSN ou Yahoo!, et non plus seulement dans les recherches limitées au cadre du réseau social.

En apprenant la nouvelle, Om Malik, expert auprès du portail GigaOm et ancien manager de Skype déclara : "un grand atout de Facebook était la protection des données privées. Cette illusion va disparaître. Cela transforme Facebook en quasi 'Pages Blanches' du net".

Aujourd'hui encore, il suffit de taper un nom au hasard pour afficher le profil public de la personne.

Mais Facebook est loin d'être un simple annuaire ou un réseau d'amis. Comme Spock ou MySpace, Facebook n'est pas un site sans but lucratif malgré les apparences.

Tous ces réseaux sociaux fondés sur des startups visent la rentabilité, les petites fortunes participant à l'enrichissement des plus grosses.

Car au delà de la publication de données privées entre amis, Facebook exploite en fait un créneau très porteur, celui de la publicité personnalisée, qui lui permis de lever 32 millions de dollars auprès d'investisseurs.

En 2007, la capitalisation de Facebook était estimée à 525 millions de dollars. En quelques semaines la société gagnait 200000$ en revenus publicitaires !

Face à ce succès, le 17 mai 2012, Facebook annonça son introduction en bourse. La société de Zuckerberg proposait 421 millions d'actions au prix de 38$ par action, valorisant la société à 104 milliards de dollars ! Malgré une dévalorisation de 24% deux semaines après son introduction et quelques plaintes en justice, Facebook reste une société importante sur le plan financier.

Le data center de Facebook à Prineville, en Oregon.

Début 2014, l'action Facebook (FB) valait 66$. Elle a triplé sa valeur en moins de 2 ans ! Sa progression est similaire à celle du développeur Adobe et plus régulière que celle d'Amazon, de Microsoft ou d'Apple.

Facebook représente un fameux deal pour les investisseurs de capital à risque (ventures) et un marché potentiel gigantesque pour les entreprises.

En 2015, Facebook comptait plus de 1.2 milliards d'utilisateurs dans le monde dont la moitié sont actifs. Chaque jour, Facebook génère plus 10TB de données, 550 millions d'utilisateurs se connectent au réseau social et 1 milliard de statuts sont mis mis à jour quotidiennement. Ces données sont tellement volumineuses que pour les gérer Facebook a installé des data centers de plusieurs milliers de mètres carrés. Ce sont de Big data !

Facebook s'est vite rendu compte que toutes ces données représentent de la valeur et pouvaient être rentabilisés, en particulier en établissant le profil des utilisateurs et en leur proposant des publicités ciblées. Pour les entreprises travaillant avec Facebook, les utilisateurs deviennent une source de profit et presque à leur insu (le fait de valider un "like" par exemple est signalé au fournisseur de ce produit qui ne tardera pas à envoyer des publicités ciblées dans le profil de l'utilisateur).

Revers de la médaille, pour y parvenir Facebook utilise des robots, des programmes qui lisent tous les données des utilisateurs, y compris les messages privés instantanés, afin d'affiner le profil des utilisateurs auxquels s'adresseront ensuite les fournisseurs.

Si cette manière de s'immiscer dans la prive privée est tolérée aux Etats-Unis, l'Europe s'y oppose farouchement en insistant sur le caractère privé des données personnelles qui n'ont pas à être examinées à son insu par un tiers ni stockées des mois durant sur des ordinateurs situés à l'étranger et hors contrôle des intéressés.

La question de la vie privée sur Internet fera encore couler beaucoup d'encre.

A voir : The Virtual World : a Facebook love story

Ce qui différencie le virtuel de la réalité

The Faces of Facebook

2006, Macintosh tourne sur Intel

Jusqu'ici, deux obstacles retenaient le public d'acheter un ordinateur Apple. D'abord son prix : dans leur version de base, l'Apple II de 1977 coûtait 2000$, le Macintosh SE 512 K de 1984 coûtait 3195$ et un Macintosh IIfx de 1990 coûtait 9800$. Si les prix étaient équivalents à l'étranger, certains modèles étaient deux fois plus cher en Europe. A la même époque (1990), on trouvait déjà des "IBM compatibles" à moins de 1000$.

Deuxième obstacle, les processeurs Motorola rendaient les Mac incompatibles avec les programmes tournant sous Windows, programmés pour le set d'instructions des processeurs Intel et compatibles (AMD, etc).

D'un côté Apple savait bien que s'il voulait récupérer les clients de Microsoft, il devait proposer une machine supportant Windows, mais cela équivalait à tomber dans le travers des PC, c'est-à-dire proposer une interface perfectible voire buguée et peu sécurisée avec tous les risques associés aux virus.

D'un autre côté, les Macintosh, MacBook Pro, Mac Pro et autres iMac ont toujours été considérés comme les meilleurs ordinateurs en terme de design, d'ergonomie, de qualité de l'interface, de programmation et de sécurité, une réputation d'excellence que n'ont jamais pu égaler les fabricants de PC compatibles et Microsoft, plus préoccupés par leur chiffre d'affaire et les parts de marché que par la qualité de leurs produits.

Le dilemme était donc le suivant : faire de la qualité dans un marché étroit ou assurer de fortes ventes au détriment de la qualité. Si la première solution n'était pas rentable à long terme sans innovation, la seconde était tout aussi insupportable. Et s'il y avait une alternative ?

En 1997, Apple racheta Next mais se trouvait à deux doigts de la faillite. Le conseil d'administation remercia le CEO Gil Amelio en place depuis un an et proposa son poste à Steve Jobs. Steve déclina la proposition mais proposa de devenir membre du conseil d'administration, avant de devenir CEO.

Après avoir été écarté d'Apple et connu le stress de voir sa propre société Next quasiment en défaut de paiment, Steve Jobs avait acquis de la maturité, il était devenu plus tolérant et voyait le monde différemment. Il était bien décidé à relancer les affaires d'Apple dans un tout autre contexte économique qu'il y a 12 ans.

Après le départ de Rick Rashid d'Apple pour Microsoft et afin de récupérer des parts de marché, en 2005, en préambule au congrès d'Apple au World Wide Developer Conference (WWDC), Steve Jobs annonça qu'il allait greffer un processeur Intel sur la légendaire pomme, tout en précisant qu'il réservait l'exclusivité du MacOS aux Apple.

En fait cette idée avait été longuement discutée entre Steve Jobs et Bill Gates. C'était le meilleur deal commercial tant pour Apple que pour Microsoft. En effet, si Steve Jobs voyait ainsi ses concurrents s'intéresser à ses machines, Bill Gates s'assurait la pérénité des ventes de ces licences dans le monde Mac, un marché qui n'était pas négligeable, bref c'était un accord "win-win" où tout le monde gagnait au change.

Ainsi, en 2006, Intel équipa le premier Mac Pro d'un double processeur Xéon à 8 coeurs cadencé à 3 GHz, pulvérisant la puissance du Power Mac G5 quad-core.

Aujourd'hui les Macintosh-Intel exploitent sans problème Windows XP et, après quelques déboires avec les fonctions 3D et aéro, ils fonctionnent également sous Windows Vista, grâce à la technologie Boot Camp ou sous Windows 7 grâce à Parallels Desktop.

Cela n'a pas empêché Steve Jobs de proposer en 2007 une mise à jour radicale de son système d'exploitation, avec la version "Leopard" de MacOS X.

A gauche, le système d'exploitation Mac OS X Leopard sorti le 26 octobre 2007. A droite, l'iMac sorti la même année et équipé d'un processeur Intel.

Grâce à la puce Intel, aujourd'hui tous les Apple supportent Windows mais dans une partition séparée du disque afin de protéger la partition MacOS. Apple y gagne sur les deux plans : il conserve ses clients et gagne l'attention des utilisateurs de PC recherchant une machine plus ergonomique ou une première expérience sur Mac. Un premier pas vers leur fidélisation.

Quant au prix, toute la gamme des ordinateurs Apple, allant du MacBook au MacPro en passant par l'iMac sont vendus entre 1000 et 2500 €.

A l'avenir, on peut estimer que plus d'un utilisateur passeront du monde PC au monde Mac. Il y a effectivement un monde de différences et une ergonomie sans pareil dans les produits d'Apple, sans parler qu'en exploitant un OS dérivé de Unix, ils sont à l'abri de la plupart des virus.

Précisons toutefois que la partition Windows des Apple est toute aussi  vulnérable aux virus que n'importe quel PC; c'est l'environnement système de Microsoft qui présente d'importantes vulnérabilités, pas celui du MacOS, encore moins le processeur.

2007, l'iPhone

Jamais à cours d'idées innovantes, c'est également en 2007 que Steve Jobs présenta au public son nouveau concept de téléphone portable, son emblématique iPhone que ses concurrents s'empresseront de copier, tellement l'invention fut géniale.

Si on se réfère à la publicité de "Radio Shack" présentée ci-dessous, un document original non truqué, en 1991 vous pouviez acheter séparement un téléphone portable, un répondeur, des écouteurs, des haut-parleurs, un ordinateur, un lecteur de cassette, une radio portative, une caméra, un récepteur météo, un scanner, bref autant d'appareils électroniques n'offrant qu'une seule fonctionnalité. Ensemble, ces appareils revenaient à environ 3200$, un peu plus de 5100$ ou 3500 € actualisés (2015) !

En sortant son iPhone à 499$, qui fut proposé à 399$ pour la Noël 2007, en un peu plus de 15 ans et grâce à la loi de Moore et au génie de Steve Jobs, la technologie permit à Apple d'intégrer tous les produits précités dans un seul smartphone tenant dans la main et 10 fois moins cher ! Aujourd'hui le smartphone le plus simple coûte à peine 50 € et pour 200 € vous pouvez avoir un smartphone assez performant.

En terme de ventes, rien qu'avec son iPhone, Apple fait un chiffre d'affaire supérieur à toutes les applications vendues par Microsoft !

A gauche, Steve Jobs présentant son iPhone en février 2007. Il fut commercialisé le 29 juin 2007 aux Etats-Unis au prix de 499$ pour le modèle de 4 GB. A droite, une publicité de Radio Shack de 1991. Tout ce qu'elle proposait séparément pour une somme globale de 3200$ (5100$ ou 3500€ actualisés en 2015) est à présent intégré dans un smartphone 10 fois moins cher et jusqu'à 50 fois plus rapide (412 MHz contre 8 à 25 MHz pour le PC 80286) !

Grâce à son esprit visionnaire et en brisant toutes les barrières technologiques et commerciales, Steve Jobs a permis à l'action (AAPL) de sa société de s'envoler en Bourse : depuis 1984, l'action Apple est passée de 3$ à plus de... 575$ le 23 décembre 2013. Certains jours, plus d'un million d'actions se sont échangés ! Tous ceux qui auraient conservé leurs actions Apple seraient aujourd'hui millionnaire !

Au 30 juin 2007, le bénéfice de l'exercice financier pulvérisa tous les records avec une hausse de 73% par rapport à la même période en 2006 !

Au terme du quatrième trimestre fiscal de l'année 2008 (en excluant les trimestres de Noël) Apple annonçait un chiffre d'affaire de 7.9 milliards de dollars, en hausse de 21% par rapport à la même période en 2007 pour 1.14 milliards de dollars de bénéfices. 

Selon Tim Scott, en 2013, si on compte tous les "iDevice", Apple a vendu 250 millions d'appareils mobiles dans le monde. L'iPad commercialisé en 2010 représente 74% du marché des tablettes. Avec ses 26 millions de titres, iTunes Store a plus de 31 millions de fans sur Facebook !

Enfin, depuis sa création en 2008, plus de 900000 applications sont disponibles sur l'Apple Store dont 450000 apps pour l'iPhone et 140000 apps pour l'iPad. L'Apple Store c'est 1 milliard d'applications télécharchées chaque mois qui ont permis à Apple de récolter 3 milliards de dollars de revenus en 5 ans !

Estimée à un prix trop élevé pour séduire les petits investisseurs, le 9 juin 2014 l'action d'Apple fut divisée par 7. Elle valait alors 93.7$ par action et continue lentement sa progression de manière cyclique, typique de ce secteur d'activité.

Plus que jamais, Apple reste une société innovante dont les produits ont maintes fois été primés : Macintosh, Mac OS X, iLife, iMac, iPod, iPad, iPhone. Il n'y a pas de doute, Apple est une affaire qui marche ! Mais pour combien de temps encore ?

En effet, des nuages sombres planent dans le ciel d'Apple. Outre la disparition de Steve Jobs le 5 octobre 2011, Apple détient toujours une dette à long terme de... 10 milliards de dollars. Il n'est pas certain que la firme de Cupertino ait encore l'esprit visionnaire de son fondateur pour l'éponger.

A voir : Le discours de Steve Jobs à Stanford en 2005

A lire : Apple, la référence en termes d’innovation de rupture, Innovation en action

2006, Sony commercialise le premier lecteur de livre numérique ou liseuse

C'est en 2006 que Sony proposa son premier lecteur de livre numérique ou liseuse "eBook Reader", le modèle PRS-500. Pesant 250 g et mesurant 17.5 cm (6.9") pour 13 mm d'épaisseur, elle était munie d'un port USB et supportait les formats DRM, MP3, JPG et RSS notamment.

Aujourd'hui, grâce à la disponibilité d'Internet et des hot spots Wi-Fi, le dernier modèle de liseuse Sony PRS-T3 de 6" fonctionne uniquement en Wi-Fi et revient à 140€ ou 99€ sans rabat (PRS-T3S). Par rapport au premier modèle son prix a été divisé par trois.

La liseuse "eBook reader" PRS-500 de Sony (2006).

A son tour, en 2007, Amazon sortit sa liseuse "Kindle". Equipée d'une connection Wi-Fi et d'un écran tactile de 6", elle pèse 213 g et peut contenir 3000 livres. Son prix est actuellement inférieur à 130 €.

Depuis d'autres fabricants sont apparus sur le marché. Amazon reste toutefois le plus important fournisseur de livres et de quotidiens au format électronique avec plus de 80000 titres en ligne fin 2013. On y reviendra dans l'article consacré aux technologies du futur et aux écrans souples OLED.

Ceci dit, la mort du livre et des journaux en papier n'est pas encore annoncée. Le support numérique comme le support papier offrent chacun des avantages et des inconvénients.

L'avenir incertain du support papier

Le premier qui disparaîtra sera certainement le quotidien de papier qui, sauf exception (Paris-Match), accuse déjà aujourd'hui une baisse d'audience qui atteint parfois 35% au bénéfice des actualités en ligne. Pourquoi ? Car la majorité de la population dispose d'un ordinateur, d'un smartphone ou d'une tablette et d'un accès à Internet. Les actualités y sont disponibles en permanence et toujours à jour sur un site ou un autre.

Par abonnement l'internaute peut même consulter des articles de fond ou des documents historiques, y compris des vidéos et trouver des hyperliens utiles lui offrant finalement des informations souvent bien plus complètes que ne le ferait le reporter le plus zélé d'un journal papier limité par la nature de son support.

En revanche, rien ne vaut le plaisir de lire et de physiquement tourner les pages d'un vrai journal ou d'un livre, de regarder des photos d'actualités dans un magazine, si bien que les deux supports, numérique et papier (du moins les plus grands éditeurs), continueront probablement à vivre en parallèle durant quelques décennies encore. Mais dans tous les cas le journaliste d'aujourd'hui doit avoir la double casquette, rédacteur de papiers et rédacteur web.

Dernier chapitre

Le marché informatique

Page 1 - 2 - 3 - 4 - 5 - 6 - 7 -


Back to:

HOME

Copyright & FAQ